F.acT: Die künstliche Intelligenz ist eine vermeintlich aktuelle Entwicklung und hält vermehrt Einzug in unser aller Leben. In Ihrer Keynote im Rahmen der „Tourism Fast Forward“ am 28.November 2024 in Obergurgl haben Sie jedoch erklärt, dass die Entwicklung künstlicher Intelligenz schon lange in der Vergangenheit begonnen hat. Könnten Sie diesen Werdegang von intelligenten Technologien etwas erläutern?
Jürgen Schmidt: 2024 war für KI Entwicklungen ein unglaubliches Jahr. Es gab zum ersten Mal Nobelpreise für Forschungen in diesem Bereich und dann gleich zwei. Forscher von DeepMind, der Google-Tochter, haben die Faltung von Proteinen entschlüsselt und damit eines der letzten großen Rätsel der Naturwissenschaften gelöst. Den zweiten Preis bekamen John Hopfield und Geoffrey Hinton, die bereits 1982 das Hopfield Netzwerk entwickelten, das bis heute in sehr vielen KI-Systemen als neuronales Netz verwendet wird. Aber schauen wir doch noch weiter zurück.
Alan Turing hat seinen berühmt gewordenen Turing-Test 1950 veröffentlicht. Er beschäftigte sich in seinem grundlegenden Werk “Computing Machinery and Intelligence” mit der Frage, ob Maschinen denken können. Der Turing-Test, den er in diesem Buch beschrieb, ist wohl vielen ein Begriff. Alan Turing selbst bezeichnet den Test allerdings als “Imitation-Game”. Es war ihm also bewusst, dass es hier im Wesentlichen um die Imitation von Intelligenz geht.
1956 fand der “Summer of Artificial Intelligence” statt. Bei dieser Konferenz auf der Universität in Dartmouth fanden sich führende Wissenschaftler zu einem sechswöchigen Workshop zusammen. Gemeinhin gilt dieses Ereignis als die Geburtsstunde der aktiven Forschung zu Künstlicher Intelligenz. Zumindest wurde der Begriff “Artificial Intelligence” hier geprägt. 1966 veröffentlichte Joseph Weizenbaum ELIZA, das war der erste Chatbot, der mit Menschen interagieren konnte. Es gibt in der Geschichte zur Computer-Forschung immer wieder Zeiträume, in denen sehr viel entstanden ist, aber auch Zeiten, in denen die Forschungen relativ brach lagen. Wir sprechen hier gerne von KI-Sommern und KI-Wintern. In den 90er Jahren des letzten Jahrhunderts wurden sehr wesentliche Entdeckungen gemacht und publiziert, wie z.B. das LSTM (Long-Short Term Memory) oder Backpropagation als Konzept.
Eine der größten intellektuellen Erfolge in der KI-Forschung sind für mich noch immer die Entwicklungen von DeepMind und später AlphaGO-Zero, der Computer, der Lee Sedol im Brettspiel GO geschlagen hat. Das Faszinierende an diesem Spiel ist aber, dass es kein in sich vollkommen logisches Spiel wie z.B. Schach ist. Wenn man professionelle GO-Spieler nach ihren Entscheidungen fragt, erhält man oft Antworten wie, “es hat sich gut angefühlt”. Der Südkoreaner Lee Sedol war 2016 der amtierende Weltmeister in diesem hochkomplexen Spiel. Sedol sagte sinngemäß zu dieser Herausforderung in einem Interview kurz vor dem Spiel: “Ich spiele nicht für mich und auch nicht für Südkorea, diesmal spiele ich, um die Überlegenheit der Menschheit zu zeigen”. Sedol verlor das Spiel mit 1:4.
Der aktuelle Sommer der KI-Entwicklung wurde nun 2022 von openAI ausgelöst. Das Prinzip von GPT wurde 2017 entwickelt. 2018 veröffentlichte openAI die erste Version davon. Man konnte über APIs mit dem Large-Language-Modell in Interaktion treten. Eine öffentliche Version davon gab es nicht. 2019 wurde die zweite Version davon veröffentlicht. Sie ist heute in der Ars-Electronica in Linz ausgestellt. Die Qualität der Sprache und des Verständnisses war natürlich weit unter dem, was wir heute vor uns haben. OpenAI hat im Wesentlichen dem Modell von GPT einen “chat” vorangestellt und das System damit zugänglich gemacht. Damit wurde ein KI-Modell zum ersten Mal in der Geschichte für eine breite Öffentlichkeit einfach zugänglich gemacht und dadurch wurde auch der größte Hype ausgelöst, den wir in der Technologie-Entwicklung bisher gesehen haben.
F.acT: Wenn die Entwicklung der künstlichen Intelligenz bereits seit so vielen Jahren stattfindet, warum geschieht diese in den vergangenen Jahren so rasant?
Jürgen Schmidt: Werfen wir einen Blick auf das Unternehmen NVIDIA. Die Firma produziert seit vielen Jahren Grafikchips (GPUs) und Grafikkarten. Mit dem aktuellen KI-Hype wurde NVIDIA zum wertvollsten Unternehmen der Welt, da GPUs für die Berechnungen einer KI besonders geeignet sind. Hier haben wir den wesentlichen Grund, warum diese Technologien plötzlich so stark werden. Wir haben die notwendige Rechenleistung erreicht. Durch enorm effiziente Chips, durch Cloud-Computing und der daraus resultierenden “endless GPU-Power”, endless “Storage” und natürlich einen “endless Datastream”. All das führte dazu, dass wir uns selbst in die Lage versetzt haben, diese Möglichkeiten auszuschöpfen. Was ein wenig banal klingt, ist tatsächlich der wesentliche Grund, warum es nun funktioniert. Es ist die Rechenleistung. Durch die potentiellen Möglichkeiten hat aber natürlich auch der Kapitalfluss, vor allem in den USA, eingesetzt. Es sind ja unglaubliche Kapitalreserven, die hier verbrannt werden, und die Firmen machen eigentlich bis heute alle nur Verluste mit ihren Angeboten.
Nun haben wir also die Rechenleistung, das notwendige Kapital und dazu kommt dann natürlich, dass sich das Wissen, wie solche Modelle funktionieren, rasend schnell verbreiten. Es gibt unzählige wissenschaftliche Papers dazu, auf deren Forschungsergebnissen andere wieder aufbauen können. Das führt auch dazu, dass die Kosten reduziert werden. Es ist mittlerweile auch von sehr vielen Unternehmen publiziert worden und vieles finden wir mittlerweile auch als Open Source auf dem Markt. All das macht die Entwicklungen immer schneller.
Trotzdem brauchen wir dringend gewisse Qualitätsstandards und aufgrund der Macht, die diese Tools entwickeln können, brauchen wir auch demokratische Spielregeln wie und wo KI eingesetzt werden kann. Wir sehen das gerade sehr deutlich am chinesischen Modell deepseek. Das Modell ist unglaublich leistungsstark, aber es ist auch wie ein Livestream in die chinesischen Zensurbehörden. Es ist hier fraglich, wie uns das in den weiteren Entwicklungen behilflich sein soll.
In Teil 2 des Interviews mit Jürgen Schmidt erfahren Sie mehr über die Herausforderungen und Chancen von KI.