Hochreiter Sepp: Was kann künstliche Intelligenz?

Beitragsseiten

Erschienen: Mai 2025 im ecoWing-Verlag / beneventopublishing

25. Mai 2025 - Das Buch „von Europas KI-Pionier“ – so der rote Punkt auf dem Cover – schafft es, ein Thema, das in aller Munde ist, aber von kaum jemanden wirklich verstanden wird, kompetent und doch verständlich aufzubereiten. KI Künstliche Intelligenz / AI Artificial Intelligence wurde spätestens seit dem Durchbruch von ChatGPT zum Hype (siehe Bericht auf heise.de 11.4.2023, Generative KI: Die Geschichte hinter ChatGPT)

Hochreiter 25. Mai 2025 ChatGPT

Foto generiert von ChatGPT mithilfe eines Fotos von Eulenreich, eigenes Werk, CC BY-SA 4.0

Der Autor Sepp Hochreiter beschäftigt sich seit seinem Studium mit KI, entwickelte bereits 1991 in seiner Diplomarbeit den LSTM-Algorithmus, in einer Zeit, als neuronale Netze „out“ waren. KI war damals an den Universitäten eine Nischendisziplin, heute ist Long Short-Term Memory „ein integraler Bestandteil der KI-Community“; finanziell konnte der Autor davon nicht profitieren, die Anerkennung als Forscher bot ihm jedoch „eine Plattform für weitere Forschungen.“ (37) Schaler Beigeschmack der Story: Amazon-Mitarbeiter erzählten ihm, dass sie mit der Implementierung seiner Methoden den Umsatz um eine Milliarde Dollar steigern konnten. Das Dankeschön waren „zwei Mojitos von Amazon“.

Vielleicht war es eine Reaktion darauf, dass Hochreiter seit 2023 versucht, auch als Gründer der NXAI GmbH zu reüssieren. Doch sein Herz schlägt für die Grundlagenforschung, seit 2006 ist er Professor an der Linzer Johannes Kepler-Universität.

Ein Philosoph ist naturgemäß skeptisch, wenn der große Begriff der Intelligenz von Computerexperten für die KI reklamiert wird. Doch die KI-Experten erheben nicht den Anspruch, die Frage zu beantworten, was „Intelligenz an sich“ ist. Auch Hochreiter beantwortet diese Frage nicht, sondern beschränkt sich auf die Beantwortung der Frage: was ist Künstliche Intelligenz. Seine Frage ist sogar noch präziser: „Was kann künstliche Intelligenz?“ und diese impliziert: „Was kann Künstliche Intelligenz nicht?“

Hochreiter stellt keine Definition, sondern einen moralischen Appell an den Anfang seines Buches: „Künstliche Intelligenz darf kein Selbstzweck sein. Am Ende muss sie uns Menschen dienen.“ (12) Er erklärt weiters, wie KI funktioniert (nicht, was sie ist): „neuronale Netze sind das Herzstück moderner KI-Systeme und haben sich von einem spekulativen Forschungsgebiet zu einer Schlüsseltechnologie entwickelt“. (15) „Ein wesentlicher Vorteil liegt in ihrer Fähigkeit zur Generalisierung. Im Gegensatz zu klassischen regelbasierten Systemen lernen neuronale Netze Muster und Strukturen direkt aus den Daten.“ (16) Spracherkennung und Bilderkennung haben mit dieser Methode ihren Durchbruch erreicht. Aus Millionen von Bildern unterschiedlichster Hunde kann die KI lernen, Hunde zu erkennen, ohne dass der KI explizit Regeln vorgegeben werden. Ebenso muss sie aber auch mit Katzen, Tigern, Wölfen ua. Tieren „trainiert“ werden, um korrekte Unterscheidungen treffen zu können.

„Das Lernen neuronaler Netze unterscheidet sich grundlegend von herkömmlicher Informatik. In klassischen Computer programmen wird eine Lösung deduktiv entwickelt: Ein Mensch schreibt ein Programm, das auf Basis der von diesem Menschen erdachten Regeln ein Problem löst. Neuronale Netze hingegen lernen Muster und Regeln anhand von Daten basierend auf einem Lernalgorithmus. In beiden Fällen werden dann die Regeln (erdachte oder gelernte) auf neue, unbekannte Daten angewendet.“ (19 f)

„Heutige neuronale Netze arbeiten mit Millionen oder so gar Milliarden von Parametern, den genannten »Gewichten«, die für das Lernen der Netze entscheidend sind. Gewichte repräsentieren die Stärke der Verbindung zwischen Neuronen. Jede Verbindung trägt dazu bei, ein Signal von einem Neuron zum nächsten weiterzugeben. Die Gewichte funktionieren in gewisser Weise ähnlich wie Drehregler, die zum Beispiel die Lichtstärke regulieren. […] Das Lernen der neuronalen Netze ist ein iterativer, also ein sich wiederholender Prozess, der sich auf die Anpassung der Gewichte konzentriert.“ (22) Das Problem der Gewichte war ihre Fehleranfälligkeit durch Übergewichtung der jüngsten Ergebnisse. Erst die Berücksichtigung von „Hidden Layers“ führte zu besseren Ergebnissen. 

„Diese versteckten Schichten waren der Schlüssel, um komplexere Muster in Daten zu erkennen und zu verarbeiten. Eine wichtige mathematische Erkenntnis dieser Zeit [Mitte der 2000er Jahre] war, dass neuronale Netze mit genügend vielen Neuronen und mindestens einer versteckten Schicht oder genügend vielen versteckten Schichten mit mindestens zwei Neuronen jede beliebige Funktion approximieren können.“ (23)

„Neuronale Netze hatten lange Zeit ein Gedächtnisproblem.“ Hochreiter hat dieses Problem früh erkannt und in seiner Diplomarbeit 1991 den Long Short-Term Memory-Algorithumus entwickelt. LSTM „gab neuronalen Netzen ein funktionierendes Gedächtnis, das länger in der Zeit zurückreicht und sich auch Wörter vom Satzanfang merken kann.“ (29) Der Autor erklärt seine Entwicklungen natürlich ausführlicher, hier nur zwei Anmerkungen, die für Wissenschaftstheoretiker interessant sind: „Die Arbeit an LSTM führte mir vor Augen, wie wichtig die Kombination von Intuition und mathematischer Analyse ist.“ (32) Und: „Für mich persönlich war die Entwicklung von LSTM eine prägende Erfahrung. Sie führte mir vor Augen, wie wichtig es ist, Probleme ganzheitlich anzugehen – mit praktischen Experimenten, fundierter mathematischer Analyse und einem klaren Ziel vor Augen.“ (33) SIEHE AUCH: Was kann Wissenschaft leisten?

Doch jede Innovation erreicht irgendwann ihren Höhepunkt, womit gleichzeitig ihr Abstieg beginnt. „Trotz ihres Erfolgs wurden LSTM-Netze schließlich von Transformer-Modellen wie GPT (Generative Pretrained Transformer) und BERT (Bidirectional Encoder Represen tations from Transformers) abgelöst. Der entscheidende Vorteil der Transformer war, dass sie an großen Datenmengen effizienter trainiert werden konnten. Insbesondere der neue Mechanismus der »Attention« wurde in Transformern durch Parallelisierung optimiert, damit waren Transformer-Architekturen im Training schneller als LSTM-Architekturen. Der Attention- Mechanismus erlaubt neuronalen Netzen, sich gezielt auf die relevantesten Teile einer Eingabesequenz zu fokussieren, anstatt alle Elemente gleich zu gewichten.“ (39)

Im Kapitel „Mensch versus Maschine“ nähert sich Hochreiter der philosophischen Frage „Was ist Intelligenz?“ an. „Künstliche neuronale Netze werden oft mit dem menschlichen Gehirn verglichen.“ Das legt der Name nahe, würde ein Sprachphilosoph einwenden und Hochreiter konzediert: „Die Idee war, ein System zu bauen, das wie ein Mensch lernen kann. Doch dieser Vergleich hat seine Grenzen. Denn trotz der äußeren Ähnlichkeiten unterscheiden sich künstliche neuronale Netze und das Gehirn in ihrer Funktionsweise und Art zu lernen. Die genaue Funktionsweise des Gehirns ist noch eine offene Forschungsfrage“. (47)

„Ein Beispiel verdeutlicht diesen Unterschied: Während ein neuronales Netz enorme Datenmengen benötigt, um Aufgaben zu lernen und zu generalisieren, genügen dem menschlichen Gehirn oft wenige Beispiele, um Generalisierungen vorzunehmen. […] Gleichzeitig hat das Gehirn eine bemerkenswerte Flexibilität. Es kann zwischen verschiedenen Aufgaben wechseln, sich an neue Situationen anpassen und komplexe Entscheidungen treffen. Neuronale Netze hingegen sind in der Regel hochspezialisiert auf eine Aufgabenstellung. Ein System, das für die Erkennung von Gesichtern trainiert wurde, ist nicht in der Lage, plötzlich eine Textübersetzung zu leisten. Jedes neue Szenario erfordert ein neues Netz oder zumindest ein umfangreiches Umtrainieren.“ (47 f)

„Die Fähigkeit, riesige Datenmengen zu verarbeiten und daraus Muster abzuleiten, hat oft den Eindruck erweckt, dass KI-Systeme »intelligent« seien. Doch diese Intelligenz ist in vielerlei Hinsicht begrenzt. Was Modelle wie ChatGPT 59 tatsächlich leisten, ist eine bemerkenswerte Wissensrepräsen tation. Sie können Texte speichern, abrufen und in beein druckender Weise kombinieren. Aber sie verstehen diese Texte nicht im menschlichen Sinne.“ (59 f)

Hochreiter verweist darauf, dass KI einerseits unterschätzt und zu Unrecht zurückgewiesen wird (etwas von Experten, die ihre Expertise nicht an Maschinen delegieren wollen), anderseits aber auch überschätzt wird. Er verweist die KI einerseits in ihre Grenzen - „Die Zukunft der KI liegt nicht in der Nachahmung menschlicher Intelligenz, sondern in der Schaffung von Systemen, die menschliche Stärken ergänzen und erweitern“ (56) - anderseits meint er euphorisch: „KI hat das Potenzial, die wirklich großen Probleme der Menschheit anzugehen.“ (175)

So wie bei dem Schlüsselbegriff „Intelligenz“ sollte man auch mit dem Begriff „Entscheidung“ kritisch umgehen: nicht alles, was wie eine Entscheidung aussieht, ist eine Entscheidung in der Art und Weise, wie sie Menschen treffen. Ja/nein, links/rechts, richtig/falsch-Entscheidungen unterscheiden sich von komplexen menschlichen Entscheidungen, die in Politik, Wirtschaft oder auch im täglichen Leben getroffen werden.

Das „globale Miteinander ist derart verknüpft, dass ohne KI kaum mehr zu durchschauen ist, wer wann und wo Einfluss auf wen nimmt. Aus meiner Sicht ist KI deshalb mehr als nur »nice to have«: Sie wird zum entscheidenden Werkzeug, um solche dynamischen Wechselwirkungen und Vernetzungen zu erfassen und bessere Entscheidungen zu treffen. Wir dürfen dabei allerdings nicht vergessen, dass die KI zwar beste Ergebnisse liefern kann, aber die Entscheidung, wie wir damit umgehen, nach wie vor bei uns Menschen liegt.“ (177)

Einerseits betont Hochreiter, dass KI ein Werkzeug, ein Hilfsmittel für die Menschen sei, anderseits erhebt er sie zum „entscheidenden Werkzeug“. Es soll hier nicht über i-Tüpferl gestritten werden, vermutlich hat Hochreiter gemeint, KI sei ein „wichtiges Werkzeug“, aber die Wortwahl zeigt, wie leichtfertig man ein wirksames, effizientes und mächtiges Werkzeug als „entscheidend“ bezeichnet und somit das Werkzeug selbst zum „Entscheider“ erhebt. Dass KI nicht mehr, aber auch nicht weniger als „beste Ergebnisse“ liefert, erklärt Hochreiter in seinem Buch zureichend. Es sollte dies aber noch deutlicher gesagt werden:

KI liefert keine Entscheidungen.

KI liefert immer nur Ergebnisse.

Die ethischen Folgen daraus sollten für jeden Menschen (und somit auch für alle Experten) klar sein.

Tags: KI und AI, LLM, LSTM, DeepSeek, ChatGPT, Transformer