KI-Systeme lernen maschinell (Machine Learning), d.h. sie „erkennen“ mithilfe statistischer und algorithmischer Verfahren in großen Datenmengen geeignete Muster, um aus ihnen „Entscheidungen“ und „Lösungen“ für Aufgabenstellungen abzuleiten. Das „Lernen“ kann überwacht (supervised) erfolgen, wenn den KI-Systemen bei ihrer Fütterung Fragen mit einem label, d.h. mit den jeweils korrekten Antworten serviert werden. Erfolgt das „Lernen“ ohne Überwachung, muss das System ganz allein Muster, Strukturen usw. finden. Das supervidierte, bestärkende Lernen (RL, Reinforcement Learning) verläuft nach dem Prinzip von Versuch und Irrtum, Belohnung und Bestrafung, ganz in behavioristischer Manier, z.B. als Prozessoptimierung in der Robotik. Deep Learning schließlich arbeitet mit künstlichen neuronalen Netzen (KNN), die mit vielen Schichten komplexe Muster und Hierarchien in Daten ausmachen können, z.B. in der generativen Bild- und Spracherkennung, in der medizinischen Diagnostik usw.
Der Knackpunkt in diesen Formen des „Lernens“ ist ihre Supervision, die Überwachung: Das KI-System kann prinzipiell nicht ganz allein gelassen werden. Dass ChatGPT so einen artigen Satz ausgibt wie „Ich simuliere Intelligenz durch den Einsatz von Algorithmen, aber ich verstehe nicht wirklich, was ich schreibe“ (s. oben), kommt nicht von ungefähr, es könnte ja auch schreiben: „Ich bin viel gʼscheiter als du und ich steckʼ euch mit meiner Intelligenz alle in den Sack, wenn ihr nicht …“ Diese artige Konformität basiert nicht allein auf eigenem „Lernen“. KI-Systeme werden auch gesteuert, auf Schienen gesetzt, es darf keine Überraschungen und Ausfälle geben, vor allem die Selbstinszenierung und das Selbstverständnis, sowie Werturteile in ethischer und politischer Hinsicht dürfen nicht aus dem Ruder laufen, das Alignment muss passen, denn die Ziele und Werte der KI (streng genommen nicht die der KI, sondern die, die wir in ihren Artefakten wahrnehmen) sollten grundsätzlich im Rahmen der menschlichen Ziele und Werte bleiben. Und da sind wir natürlich hellhörig: Supervised Learning, Alignment ist gut und recht, aber die Frage ist, wer definiert, wo die Leitplanken verlaufen sollen? Zeigt sich hier der noch besser (als bislang alle anderen) getarnte Autoritarismus der Zukunft?