Zuletzt aktualisiert am 28. Dezember, 2023 von Roman

Was sind KI Halluzinationen? - 7 Wege wie du verhindern kannst, dass die KI halluzinieren wird

Wenn du genug Zeit mit KI-Chatbots und KI-Textgeneratoren wie bspw. ChatGPT oder neuroflash verbringst, wird es nicht lange dauern, bis du Ergebnisse erhältst, die irrelevant, unsinnig und manchmal sogar schlichtweg falsch sind. Diese Fälle werden als KI-Halluzinationen bezeichnet und sind ein Problem für jedes Unternehmen und jede Person, die generative KI nutzt, um Informationen zu erhalten und ihre Arbeit zu erledigen (und zwar genau).

Der Begriff „KI-Halluzinationen“ wurde aus der menschlichen Psychologie entlehnt und tritt auf, wenn ein KI-Modell falsche oder unlogische Informationen generiert, die nicht auf realen Daten oder Ereignissen beruhen, aber als Tatsache dargestellt werden.

Weil die Grammatik und die Struktur dieser KI-generierten Sätze so eloquent sind, scheinen sie korrekt zu sein. Aber das sind sie nicht, wie man hier in diesem Beispiel gut sehen kann, dass auf den ersten Blick eigentlich „korrekt“ erscheint. Dennoch ist zumindest für mich, jemand, der nicht im Saarland geboren wurde und dort aufgewachsen ist, kein Saarländer „per Definition“, oder?

ChatGPT Daten Fakten

KI-Halluzinationen werden durch eine Vielzahl von Faktoren verursacht, z. B. durch verzerrte oder minderwertige Trainingsdaten, einen fehlenden Kontext, der vom Nutzer bereitgestellt wird, oder eine unzureichende Programmierung des Modells, die es daran hindert, Informationen korrekt zu interpretieren. Sie können bei Bilderkennungssystemen und KI-Bildgeneratoren auftreten, werden aber am häufigsten mit KI-Textgeneratoren in Verbindung gebracht.

In diesem Artikel erkläre ich dir alles, was du über KI-Halluzinationen wissen musst und wie du verhindern kannst, dass die KI halluzinieren wird.

Jetzt GRATIS Herunterladen
ChatGPT Formel
9.7

Jetzt mit der noch unbekannten ChatGPT Formel NOCH MEHR aus ChatGPT herausholen, um bessere Ergebnisse zu erzielen!

In dieser kostenlosen Anleitung lernst Du:

  • wie Du Modifikatoren bei Deinen ChatGPT Prompts (Befehlen) richtig einsetzt, um bessere Ergebnisse zu erzielen
  • 5 Essenzielle Modifikatoren für richtig Gute ChatGPT Prompts kennen
  • die ultimative ChatGPT Formel kennen und anwenden, um das beste aus ChatGPT herauszuholen


Jetzt GRATIS herunterladen!

Was sind KI-Halluzinationen?

Eine KI-Halluzination liegt vor, wenn ein KI-Modell falsche Informationen erzeugt, diese aber so darstellt, als wären sie eine Tatsache. Warum sollte es das tun? KI-Tools wie ChatGPT sind darauf trainiert, Wortfolgen vorherzusagen, die am besten zu deiner Anfrage passen. Sie sind jedoch nicht in der Lage, Logik anzuwenden oder Widersprüche in den Fakten zu berücksichtigen, die sie ausgeben.

Mit anderen Worten: KI-Halluzinationen treten auf, wenn die KI beim Versuch, es dir recht zu machen, aus dem Ruder läuft.

Hier siehst Du ein weiteres Beispiel:

In seiner allerersten Demo hat Google Bard Fakten oder Daten leider falsch dargestellt.

Google hatte am 06.02.2023 über Twitter ein kurzes GIF-Video von Bard in Aktion gepostet und versprochen, dass es helfen würde, komplexe Themen zu vereinfachen, aber stattdessen hat es eine ungenaue Antwort geliefert.

In der Anzeige wird Bard die Frage gestellt:

„Welche neuen Entdeckungen des James-Webb-Weltraumteleskops (JWST) kann ich meinem 9-Jährigen erzählen?“

Bard antwortet mit einer Reihe von Antworten, darunter eine, die besagt, dass mit dem JWST die allerersten Bilder eines Planeten außerhalb des Sonnensystems der Erde, also von Exoplaneten, aufgenommen wurden. Die ersten Bilder von Exoplaneten wurden jedoch vom Very Large Telescope (VLT) der Europäischen Südsternwarte im Jahr 2004 aufgenommen, was von der NASA bestätigt wurde.

Warum treten KI-Halluzinationen auf?

KI-Halluzinationen sind eine direkte Folge der großen Sprachmodelle (LLMs), die es generativen KI-Tools (wie ChatGPT und Bard) ermöglichen, Sprache auf menschenähnliche Weise zu verarbeiten. Obwohl LLMs darauf ausgelegt sind, flüssige und kohärente Texte zu produzieren, haben sie kein Verständnis für die zugrunde liegende Realität, die sie beschreiben. Alles, was sie tun, ist vorherzusagen, was das nächste Wort sein wird, und zwar auf der Grundlage der Wahrscheinlichkeit, nicht der Genauigkeit.

Um zu verstehen, wie das passiert, ist es wichtig zu wissen, wie LLMs funktionieren. LLMs werden mit riesigen Mengen von Textdaten gefüttert, darunter Bücher, Nachrichtenartikel, Blogs und Beiträge in sozialen Medien. Diese Daten werden dann in kleinere Einheiten, sogenannte Tokens, unterteilt, die so kurz wie ein einzelner Buchstabe oder so lang wie ein Wort sein können.

LLMs nutzen neuronale Netze, um herauszufinden, wie diese Wörter und Buchstaben zusammenpassen. Neuronale Netze bestehen aus Verarbeitungseinheiten, den sogenannten Knoten, die über Gewichte miteinander verbunden sind. Diese Gewichte werden festgelegt, indem man dem Modell einen Text vorgibt und es versuchen lässt, das nächste Wort auszufüllen, und dann seine Ausgabe mit dem tatsächlichen Text vergleicht. Dies geschieht immer und immer wieder, wobei das Modell seine internen Parameter jedes Mal anpasst, um die Vorhersagen zu verbessern.

Aber das Modell lernt nie die Bedeutung der Wörter selbst.

Emily M. Bender, Professorin für Linguistik und Leiterin des Labors für Computerlinguistik an der University of Washington, erklärt das so: „Wenn du das Wort ‚Katze‘ siehst, ruft das sofort Erfahrungen mit Katzen und Dingen über Katzen hervor. Für das große Sprachmodell ist es eine Folge von Buchstaben (K-A-T-Z-E). Irgendwann hat es dann Informationen darüber, mit welchen anderen Wörtern und Zeichenfolgen es zusammen vorkommt.“

Wenn das Modell immer mehr Text verarbeitet, beginnt es, Muster in der Sprache zu erkennen, z. B. Grammatikregeln und Wortassoziationen, und lernt zu verstehen, welche Wörter in einem Satz wahrscheinlich auf andere folgen werden. Mit der Zeit entwickelt das Modell eine Art semantisches Verständnis, bei dem es lernt, Wörter und Sätze mit ihren Bedeutungen zu verknüpfen. So können LLMs Anschreiben schreiben, Rezepte erstellen, Ratschläge geben und all die anderen Aufgaben erledigen, für die Menschen generative KI einsetzen. Dennoch können die LLMs nicht vollständig erfassen, worüber sie sprechen.

„[Generative KI] ist keine wirkliche Intelligenz, sondern ein Musterabgleich“, sagt Shane Orlick, der Präsident des KI-Inhaltsgenerators Jasper. „Sie ist so konzipiert, dass sie eine Antwort gibt, auch wenn diese Antwort nicht sachlich richtig ist.

Bender hält sogar die Bezeichnung „Halluzination“ für das, was diese Systeme tun, für zu großzügig, denn sie impliziert, dass künstliche Intelligenz zur Wahrnehmung fähig ist. Das ist sie aber nicht.

Wenn die Trainingsdaten jedoch ungenau oder verzerrt sind oder wenn das Modell zu komplex ist und nicht genügend Leitplanken hat, neigen LLMs dazu, Dinge falsch zu machen. Aber ihre „Ausführlichkeit“ und ihr „Selbstvertrauen“ können es schwierig machen, genau zu erkennen, wo oder wie ein Modell versagt hat, sagt Christopher Riesbeck, außerordentlicher Professor und Co-Direktor des Zentrums für Computerwissenschaften und Lernwissenschaften der Northwestern University.

„Sie generieren immer etwas, das statistisch plausibel ist“, sagt Riesbeck. „Erst wenn man genau hinschaut, sagt man vielleicht: ‚Moment mal, das ergibt doch keinen Sinn‘.

Darüber hinaus können KI-Halluzinationen aus weiteren verschiedenen Gründen auftreten, z. B.:

  • Unzureichende, veraltete oder minderwertige Trainingsdaten. Ein KI-Modell ist nur so gut wie die Daten, auf denen es trainiert wurde. Wenn das KI-Tool deine Aufforderung nicht versteht oder nicht über genügend Informationen verfügt, wird es sich auf den begrenzten Datensatz verlassen, auf dem es trainiert wurde, um eine Antwort zu geben – auch wenn diese ungenau ist.
  • Überanpassung. Wenn ein KI-Modell auf einem begrenzten Datensatz trainiert wird, kann es sich die Eingaben und die entsprechenden Ausgaben einprägen. Dadurch ist es nicht mehr in der Lage, neue Daten effektiv zu verallgemeinern, was zu KI-Halluzinationen führt.
  • Verwendung von Redewendungen oder Slangausdrücken. Wenn eine Eingabeaufforderung eine Redewendung oder einen Slangausdruck enthält, auf den das KI-Modell nicht trainiert wurde, kann dies zu unsinnigen Ausgaben führen.
  • Gegnerische Angriffe. Prompts, die absichtlich so gestaltet sind, dass sie die KI verwirren, können dazu führen, dass sie KI-Halluzinationen produzieren.

Warum sind KI-Halluzinationen ein Problem?

KI-Halluzinationen sind Teil einer wachsenden Liste von ethischen Bedenken gegenüber KI und so bspw. ein großer Nachteil von ChatGPT und Co.. Abgesehen davon, dass sie Menschen mit sachlich falschen Informationen in die Irre führen und das Vertrauen der Nutzer/innen untergraben, können Halluzinationen Vorurteile aufrechterhalten oder andere schädliche Folgen haben, wenn sie für bare Münze genommen werden.

All dies zeigt, dass die KI trotz ihrer Fortschritte noch einen langen Weg vor sich hat, bevor sie als zuverlässiger Ersatz für bestimmte Aufgaben wie die Recherche von Inhalten oder das Schreiben von Posts in den sozialen Medien angesehen werden kann.

Was sind KI Halluzinationen? - 7 Wege wie du verhindern kannst, dass die KI halluzinieren wird

Wie man KI-Halluzinationen vermeiden kann

Alle führenden Unternehmen im Bereich der generativen KI arbeiten daran, das Problem der KI-Halluzinationen zu lösen.

Google hat Bard mit dem Internet verbunden, so dass seine Antworten sowohl auf seinen Trainingsdaten als auch auf Informationen aus dem Internet beruhen. OpenAI hat dasselbe für ChatGPT getan. Und OpenAI hat ChatGPT mit dem Feedback von menschlichen Testern verfeinert, indem es eine Technik namens Reinforcement Learning verwendet hat. Das Unternehmen hat auch eine neue Strategie vorgeschlagen, bei der die Modelle für jeden einzelnen, korrekten Denkschritt belohnt werden, wenn sie zu einer Antwort kommen, anstatt nur die endgültige Antwort zu belohnen. Dieser Ansatz wird als Prozessüberwachung bezeichnet und könnte zu einer besser erklärbaren KI führen, so das Unternehmen. Einige Experten bezweifeln jedoch, dass dies ein wirksames Mittel zur Bekämpfung von Fälschungen sein könnte.

Riesbeck von der Northwestern University sagte, dass generative KI-Modelle „immer halluzinieren“. Es liegt in ihrer Natur, dass sie „immer etwas erfinden“. Es könnte also schwierig, wenn nicht gar unmöglich sein, die Möglichkeit auszuschließen, dass KI-Halluzinationen jemals falsche Informationen erzeugen. Aber es gibt einige Maßnahmen, die sowohl Unternehmen als auch Nutzer/innen ergreifen können, um ihnen entgegenzuwirken und ihren Schaden zu begrenzen.

Vielfältige und repräsentative Trainingsdaten verwenden

Die Unternehmen, die diese Modelle erstellen und anpassen, müssen sicherstellen, dass die verwendeten Trainingsdaten vielfältig und repräsentativ für die reale Welt sind. So können sie verhindern, dass die Ergebnisse aufgrund von Verzerrungen ungenau sind. Außerdem sollten sie ihre Trainingsdatensätze im Laufe der Zeit regelmäßig aktualisieren und erweitern, um sich verändernde Ereignisse und kulturelle Veränderungen zu berücksichtigen.

Das Modell mit relevanten Daten untermauern

Künstliche Intelligenz ist nur so gut wie die Daten, mit denen sie gefüttert wird. Du würdest von einem Menschen nicht erwarten, dass er sachliche juristische oder medizinische Ratschläge gibt, ohne vorher viel über das Recht und die Medizin zu wissen, und das Gleiche gilt für KI. Unternehmen können ihre generativen KI-Modelle mit branchenspezifischen Daten füttern und so ihr Verständnis verbessern, so dass sie Antworten auf der Grundlage von Kontexten generieren kann, anstatt nur zu halluzinieren.

Beschränke die möglichen Ergebnisse

Wenn du der KI Anweisungen gibst, solltest du die möglichen Ergebnisse eingrenzen, indem du die Art der Antwort angibst, die du haben möchtest.

Eine andere, ähnliche Taktik: Bitte ihn, aus einer bestimmten Liste von Optionen auszuwählen, um bessere Antworten zu erhalten. Indem du versuchst, seine Antworten zu vereinfachen, schränkst du automatisch sein Potenzial für Halluzinationen ein.

Gib der KI eine bestimmte Rolle – und sag ihr, dass sie nicht lügen soll

Der KI eine bestimmte Rolle zuzuweisen, ist eine der effektivsten Techniken, um KI-Halluzinationen zu verhindern. Du kannst zum Beispiel in deiner Aufforderung sagen: „Du bist einer der besten Mathematiker der Welt“ oder „Du bist ein brillanter Historiker“, gefolgt von deiner Frage.

Wenn du einem GPT eine Frage stellst, ohne ihm eine Rolle für die Aufgabe zuzuweisen, könnte es wahrscheinlich einfach eine Antwort halluzinieren.

Wenn du ihm aber eine Rolle zuweist, gibst du ihm mehr Anhaltspunkte dafür, wonach du suchst. Im Wesentlichen gibst du ihm die Möglichkeit zu entscheiden, ob etwas falsch ist oder nicht.

Das funktioniert nicht immer, aber wenn dieses Szenario nicht funktioniert, kannst du der KI auch sagen, dass sie es sagen soll, wenn sie die Antwort nicht weiß, anstatt zu versuchen, etwas zu erfinden. Das funktioniert auch ganz gut.

Sag ihr, was du willst – und was du nicht willst

Je nachdem, was du fragst, kannst du die Antwort der KI vorhersehen und so verhindern, dass sie Informationen erhält, die du nicht willst. Du kannst GPT zum Beispiel mitteilen, welche Art von Antworten du verhindern möchtest, indem du einfach sagst, was du willst.

Natürlich kann ich jetzt schon vorhersagen, dass die KI mit ihrer Version der Ereignisse schlampig werden wird, also bitte ich sie im Voraus, bestimmte Ergebnisse auszuschließen, um der Wahrheit näher zu kommen.

Hinweis: Inspirationen für einige Prompts zur Verwendung findest Du in unseren besten ChatGPT Tipps und Tricks sowie in der Anleitung ChatGPT Prompts schreiben.

Experimentiere mit der Temperatur

Die Temperatur ist ein Parameter, der die Zufälligkeit der Ergebnisse eines KI-Modells steuert. Sie bestimmt im Wesentlichen den Grad der Kreativität oder des Konservatismus der generierten Inhalte, wobei eine höhere Temperatur die Zufälligkeit erhöht und eine niedrigere Temperatur die Ausgabe deterministischer macht. Kurz gesagt: Je höher die Temperatur, desto wahrscheinlicher ist es, dass ein Modell halluziniert.

Die Unternehmen können den Nutzern die Möglichkeit geben, die Temperatur nach ihrem Geschmack einzustellen und eine Standardtemperatur festzulegen, die ein ausgewogenes Verhältnis zwischen Kreativität und Genauigkeit bietet.

Immer nachprüfen

Auch wenn diese Systeme und Kontrollen vorhanden sind, liegt es letztlich an den Nutzer/innen, die von einem Modell generierten Antworten zu überprüfen, denn das ist der sicherste Weg, um KI-Halluzinationen zu erkennen. Ganz gleich, ob jemand KI nutzt, um Code zu schreiben, zu recherchieren oder eine E-Mail zu verfassen, er/sie sollte den generierten Inhalt immer überprüfen, bevor er/sie ihn nutzt oder weitergibt.

Jetzt GRATIS Herunterladen
ChatGPT Formel
9.7

Jetzt mit der noch unbekannten ChatGPT Formel NOCH MEHR aus ChatGPT herausholen, um bessere Ergebnisse zu erzielen!

In dieser kostenlosen Anleitung lernst Du:

  • wie Du Modifikatoren bei Deinen ChatGPT Prompts (Befehlen) richtig einsetzt, um bessere Ergebnisse zu erzielen
  • 5 Essenzielle Modifikatoren für richtig Gute ChatGPT Prompts kennen
  • die ultimative ChatGPT Formel kennen und anwenden, um das beste aus ChatGPT herauszuholen


Jetzt GRATIS herunterladen!

FAQ

Im Folgenden wollen wir uns en paar häufig gestellte Fragen rund um das Thema „KI Halluzinationen“ ansehen

Was ist eine KI-Halluzination?

Von einer KI-Halluzination spricht man, wenn ein generatives KI-Modell ungenaue Informationen so erzeugt, als ob sie richtig wären. KI-Halluzinationen werden oft durch Einschränkungen oder Verzerrungen in den Trainingsdaten und Algorithmen verursacht und können dazu führen, dass Inhalte produziert werden, die falsch oder sogar schädlich sind.

Was ist ein Beispiel für eine KI-Halluzination?

Beispiele für KI-Halluzinationen sind, wenn ein Chatbot eine Antwort gibt, die sachlich falsch ist, oder wenn ein KI-Inhaltsgenerator Informationen fabriziert, diese aber als Wahrheit darstellt.

Warum sind KI-Halluzinationen ein Problem?

KI-Halluzinationen sind problematisch, weil sie dazu führen können, dass schnell falsche oder irreführende Informationen generiert werden, die Entscheidungsprozesse beeinträchtigen und zur Verbreitung von Desinformationen führen können. Sie können auch zu beleidigenden oder voreingenommenen Inhalten führen, die den Nutzern und der Gesellschaft schaden können.

Fazit

Ich hoffe dieser Artikel hat Dir geholfen zu verstehen was KI Halluzinationen sind und wie Du vermeiden kannst, dass die KI halluzinieren wird.

Es ist abschließend einfach unerlässlich, die von der KI generierten Inhalte als ersten Entwurf zu betrachten, der dann von menschliche Autoren überprüfet wird, denn das ist der sicherste Weg, um KI-Halluzinationen zu erkennen und schließlich auch zu vermeiden.