Träumen Androiden von elektrischen Schafen? So sieht es aus, wenn man Stable Diffusion darum bittet.
Bild: F.A.S./Stable Diffusion
Im Inneren des Datenschlunds von KI entsteht manchmal Unsinn. In der Forschung will man diese Halluzinationen beseitigen. Dabei könnte darin ein kreativer Nutzen liegen.
Seit dem Launch von ChatGPT im November 2022 hat der Begriff der „Halluzination“ einen bemerkenswerten semantischen Wandel erfahren. Wenn eine KI „halluziniert“, gibt sie Unsinn von sich. Hochleistungsfähige Sprachmodelle, die mit Hunderten Milliarden Wörtern trainiert werden und Buchstaben nach einem Wahrscheinlichkeitsprinzip zusammensetzen, fabulieren dann über Raum-Zeit-Dimensionen oder dichten Personen falsche biographische Details an.
Was da im Innern der Blackbox-Systeme vor sich geht, erschließt sich dem Außenstehenden nicht. Man könnte die erratische Sinn- und Zeichenproduktion einfach als Störung abtun. Wenn die Tech-Vordenker aber über halluzinierende Maschinen sprechen, klingt das ein wenig so, als leide die KI noch an Kinderkrankheiten, an einer falschen Wahrnehmung, die man ihr wie das Märchen vom Weihnachtsmann austreiben müsse.