F.acT: Worauf muss ich in der Nutzung von KI achten und wie kann es passieren, dass KI-Tools auch heute noch teilweise unverlässliche Antworten auf unsere Fragen liefern?
Jürgen Schmidt: Die falschen Antworten eines Sprachmodells werden als Halluzination bezeichnet. Das passiert aufgrund der Grundarchitektur dieser Systeme. Letztlich ist es eine Wahrscheinlichkeitsrechnung, die nach einem “Look-Left-Only” Prinzip das nächste Wort in einem Satz mit einer möglichst hohen Wahrscheinlichkeit errechnet. Wir sehen schon, dass das mit "Intelligenz", wie wir sie als Menschen verstehen, eigentlich relativ wenig zu tun hat. Aber die Ergebnisse sind unglaublich gut - zumindest in den meisten Fällen. Wenn ein Sprachmodell nun zu einer bestimmten Frage zu wenig Grundlagen hat oder auch der Kontext, in dem die Frage gestellt wird, nicht ausreichend eingegrenzt wird, kann es passieren, dass die Wahrscheinlichkeit eines Satzes von der eigentlichen Realität relativ weit entfernt ist. Das würde man dann als Halluzination bezeichnen.
Dazu kommt die Problematik des Bias. Das bedeutet, dass die Angaben immer nur so gut sein können wie das Datenmaterial, mit dem das Modell trainiert wurde. Hier passiert es, dass Menschen mit dunkler Hautfarbe weit schlechter erkannt werden können, weil es viel weniger Fotos gibt. Es passiert aber auch, dass z.B. der Begriff Mann in Verbindung mit dem Begriff Krankenhaus ganz eindeutig Arzt ergibt und umgekehrt in diesem Kontext mit dem Begriff Frau auf Krankenschwester referenziert wird. Das liegt daran, dass im Datenmaterial diese Verbindung wesentlich häufiger hergestellt wird und die KI das natürlich übernimmt. Bias ist in fast allen Fällen etwas, das im Training zu finden ist und letztlich nur die Wahrheitsverzerrungen unserer Gesellschaft darstellt.
Bereits 2018 hat Judäa Perl “The Book of Why” geschrieben und gibt dort darüber Auskunft, wie man ein sogenanntes “Reasoning” entwickeln könnte, indem AI-Modelle ihre eigenen Antworten nach Glaubwürdigkeit überprüfen können. Ich würde aber immer empfehlen, die Angaben eines Sprachmodells zu überprüfen und die Quellen zu checken, die dazu angegeben werden.
F.acT: Nachhaltigkeit im Tourismus stellt die Industrie vor vielfältige Herausforderungen. Wie kann die KI zu dieser Transformation beitragen?
Jürgen Schmidt: Künstliche Intelligenz und ökologische Nachhaltigkeit sind derzeit Themen, die noch gar nicht gut zueinander passen. Für 60 Anfragen an ein LLM verbrauchen wir derzeit ca. 1 Liter Wasser. Durch die enorme Verbreitung von KI-Modellen haben wir zigtausend Anfragen pro Sekunde. Wir können uns alle selbst ausrechnen, dass das ein massiver Eingriff in unseren Ressourcenhaushalt ist.
Trotzdem gibt es viele Bereiche, in denen KI das Thema auch positiv beeinflussen kann. KI besteht ja nicht ausschließlich aus Sprachmodellen, auch wenn das in den jüngsten Entwicklungen so aussieht. Künstliche Intelligenz kann hervorragend eingesetzt werden, um z.B. künftige Entwicklungen aus historischen Daten abzuleiten, also Demand-Forecasting zu betreiben. Man kann Besucherströme intelligent und mit einem Augenmerk auf Ökologie lenken. Daraus kann sich auch ein intelligenteres Destination-Management ergeben. Auch mit dynamischer Preisgestaltung könnte man das Verhalten von Touristen beeinflussen und damit ökologischere Aktivitäten forcieren.
Ein sehr spannender Bereich wäre auch ein Umweltmonitoring, das mittels IoT, Sensoren, Drohnen und weiteren Datensignalen das Gleichgewicht der Ökologie beobachten und visualisieren kann. Auch hier gibt es bereits unzählige Projekte, die erfolgreich umgesetzt wurden.
Aber auch Sprachmodelle würden sich gut einsetzen lassen; z.B. in interaktiven Informationssystemen, die auf ökologisches Verhalten ausgelegt werden und ihre Ziele darin definieren, mehr Informationen zur Thematik des Klimawandels an die Gäste weiterzugeben. Damit kann direkt auf das Verhalten der Menschen eingewirkt und gleichzeitig die Destination gestärkt werden.