Was sind Halluzinationen von künstlicher Intelligenz (KI)?
Halluzinationen der künstlichen Intelligenz (KI) sind Unwahrheiten oder Ungenauigkeiten in der Ausgabe eines generativen KI-Modells. Häufig sind diese Fehler in Inhalten versteckt, die logisch oder anderweitig korrekt erscheinen. Mit zunehmender Verbreitung von generativer KI und großen Sprachmodellen (LLM) wurden viele Fälle von KI-Halluzinationen beobachtet.
Der Begriff der „Halluzination“ ist lediglich metaphorisch gemeint: KI-Modelle leiden nicht wirklich unter Wahnvorstellungen, wie es bei einem psychisch kranken Menschen der Fall sein könnte. Stattdessen produzieren sie als Reaktion auf Prompts unerwartete Outputs, die nicht der Realität entsprechen. Sie können Muster falsch erkennen, den Kontext falsch verstehen oder auf begrenzte oder verzerrte Daten zurückgreifen, um unerwartete Ergebnisse zu erhalten.
Einige dokumentierte Beispiele für KI-Halluzinationen sind:
- Ein KI-Modell wurde gebeten, über die Quartalsergebnisse von Tesla zu schreiben, und erzeugte einen zusammenhängenden Artikel, jedoch mit falschen Finanzinformationen
- Ein Anwalt nutzte ein LLM, um unterstützendes Material in einem Rechtsfall zu erstellen, aber das LLM erzeugte Verweise auf andere Rechtsfälle, die nicht existierten
- Das Bildgenerierungstool Gemini von Google erzeugte im Jahr 2024 über einen bestimmten Zeitraum regelmäßig regelmäßig inkorrekte Bilder
Obwohl es eine Reihe von Anwendungsfällen und realen Anwendungen für KI gibt, bedeutet die Anfälligkeit von KI-Modellen für Halluzinationen in vielen Fällen, dass man sich ohne menschliche Kontrolle nicht vollständig auf sie verlassen kann.
Wie funktioniert generative KI?
Alle KI-Modelle bestehen aus einer Kombination aus Trainingsdaten und einem Algorithmus. Ein Algorithmus ist im Kontext der KI eine Reihe von Regeln, die festlegen, wie ein Computerprogramm bestimmte Attribute gewichten oder bewerten soll. KI-Algorithmen enthalten Milliarden von Parametern – die Regeln für die Bewertung von Attributen.
Generative KI benötigt Trainingsdaten, da sie durch die Eingabe von Millionen (oder Milliarden, oder Billionen) von Beispielen lernt. Anhand dieser Beispiele lernen generative KI-Modelle, Beziehungen zwischen Elementen in einem Datensatz zu erkennen, üblicherweise unter Verwendung von Vektordatenbanken, in denen die Daten als Vektoren gespeichert sind, so dass die Modelle die Beziehungen zwischen Datenelementen quantifizieren und messen können. (Ein Vektor ist eine numerische Darstellung verschiedener Datentypen, einschließlich nicht-mathematischer Typen wie Wörter oder Bilder).
Sobald das Modell trainiert ist, verfeinert es seine Ausgabe auf der Grundlage der erhaltenen Prompts. Die Entwickler verfeinern das Modell auch für spezifischere Anwendungen, indem sie die Parameter des Algorithmus weiter verändern oder Methoden wie die Low-Rank-Anpassung (LoRA) verwenden, um das Modell schnell an eine neue Anwendung anzupassen.
Das Ergebnis ist ein Modell, das auf menschliche Eingaben reagieren kann, indem es Text oder Bilder auf der Grundlage der gesehenen Muster generiert.
Menschliche Prompts können jedoch von sehr unterschiedlicher Komplexität sein und zu unerwartetem Verhalten des Modells führen, da es unmöglich ist, das Modell auf alle möglichen Prompts vorzubereiten. Außerdem kann das Modell die Beziehungen zwischen Konzepten und Elementen auch nach umfangreichem Training und Feinabstimmung falsch verstehen oder interpretieren. Unerwartete Prompts und Fehlwahrnehmungen von Mustern können zu KI-Halluzinationen führen.
Was löst bei KI Halluzinationen aus?
Quellen der Trainingsdaten: Es ist schwer, Trainingsdaten zu überprüfen, da KI-Modelle so viele Daten benötigen, dass ein Mensch sie nicht alle überprüfen kann. Ungeprüfte Trainingsdaten können falsch oder in eine bestimmte Richtung zu stark gewichtet sein. Man stelle sich ein KI-Modell vor, das darauf trainiert wurde, Grußkarten zu schreiben, dessen Trainingsdatensatz jedoch hauptsächlich Geburtstagskarten enthält, ohne dass die Entwickler dies wissen. Daraus könnte sich ergeben, dass das Modell in unangemessenen Kontexten fröhliche oder seltsame Nachrichten generiert, z. B. wenn Sie aufgefordert werden, eine Karte mit Genesungswünschen zu schreiben.
Inhärente Grenzen des generativen KI-Designs: KI-Modelle verwenden Wahrscheinlichkeiten, um vorherzusagen, welche Wörter oder visuellen Elemente wahrscheinlich zusammen auftreten werden. Statistische Analysen können einem Computer helfen, plausibel erscheinende Inhalte zu erstellen, die mit hoher Wahrscheinlichkeit von Menschen verstanden werden. Die statistische Analyse ist jedoch ein mathematischer Prozess, bei dem einige Nuancen der Sprache und Bedeutung nicht erkannt werden, was zu Halluzinationen führen kann.
Fehlende direkte Erfahrung der physischen Welt: Die heutigen KI-Programme können nicht erkennen, ob etwas in einer externen Realität wahr oder falsch ist. Während ein Mensch z. B. durch Experimente herausfinden kann, ob ein wissenschaftliches Prinzip wahr oder falsch ist, kann eine KI derzeit nur an bereits existierenden Inhalten und nicht direkt an der realen Welt trainiert werden. Die KI kann daher nur schwer zwischen korrekten und inkorrekten Daten unterscheiden, insbesondere in Bezug auf ihre eigenen Antworten.
Schwierigkeiten beim Kontextverständnis: KI betrachtet nur wörtliche Daten und versteht unter Umständen den kulturellen oder emotionalen Kontext nicht, was zu irrelevanten Antworten und KI-Halluzinationen führt. Beispielsweise kann Satire die KI verwirren (auch Menschen verwechseln oft Satire mit Fakten).
Voreingenommenheit: Die verwendeten Trainingsdaten können zu einer systematischen Voreingenommenheit führen, wenn der Datensatz nicht umfangreich genug ist. Voreingenommenheit kann KI-Modelle schnell in Richtung bestimmter Antworten verzerren oder sogar zur Verbreitung rassistischen oder sexistischen Vorurteilen führen.
Angriffe auf das Modell: Böswillige können Prompt-Injection-Angriffe einsetzen, um das Verständnis generativer KI-Modelle für Prompts und die Generierung von Ergebnissen zu verändern. Ein sehr prominentes Beispiel ereignete sich 2016, als Microsoft den Chatbot Tay einführte, der innerhalb eines Tages begann, rassistische und sexistische Inhalte zu generieren, weil Twitter-Nutzer (jetzt X) ihn mit Informationen fütterten, die seine Antworten verzerrten. KI-Modelle sind inzwischen zwar ausgefeilter geworden, aber sie sind immer noch anfällig für solche Angriffe.
Überanpassung: Wenn ein KI-Modell zu stark mit seinem ursprünglichen Trainingsdatensatz trainiert wird, verliert es möglicherweise die Fähigkeit, zu verallgemeinern, Trends zu erkennen oder aus neuen Daten präzise Schlussfolgerungen zu ziehen. Er kann auch Muster in seinen Trainingsdaten erkennen, die nicht wirklich signifikant sind, was zu Fehlern führt, die erst deutlich werden, wenn er mit neuen Daten gefüttert wird. Diese Szenarien werden als Überanpassung bezeichnet: Die Modelle passen sich zu genau an ihre Trainingsdaten an. Ein Beispiel für diese Überanpassung: Während der COVID-19-Pandemie begannen KI-Modelle , die auf Scans von COVID-Patienten in Krankenhäusern trainiert wurden, die von den Krankenhäusern verwendete Schriftart zu erkennen und die Schriftart als Prädiktor für die COVID-Diagnose zu verwenden. Bei Modellen generativer KI kann diese Überanpassung zu Halluzinationen führen.
Wie können KI-Entwickler KI-Halluzinationen verhindern?
Auch wenn Entwickler KI-Halluzinationen nicht vollständig ausschließen können, gibt es doch konkrete Schritte, die sie unternehmen können, um Halluzinationen und andere Ungenauigkeiten weniger wahrscheinlich zu machen.
- Mehr Daten und bessere Daten: Große Datensätze aus verschiedenen Quellen können dazu beitragen, Voreingenommenheit zu beseitigen und den Modellen zu helfen, Trends und Muster in einer größeren Datenvielfalt zu erkennen.
- Überanpassung vermeiden: Entwickler sollten versuchen, ein KI-Modell nicht zu stark auf einen Datensatz zu trainieren.
- Umfassende Tests: KI-Modelle sollten in einer Reihe von Kontexten und mit unerwarteten Prompts getestet werden.
- Verwendung von Modellen, die für den Anwendungsfall entwickelt wurden: Ein LLM-Chatbot ist beispielsweise nicht gut für die Beantwortung sachlicher Abfragen über medizinische Forschung geeignet.
- Kontinuierliche Verbesserung: Selbst das am besten abgestimmte Modell kann blinde Flecken haben. KI-Modelle sollten weiterhin aus den Prompts, die sie erhalten, lernen (mit Validierung, um Prompt-Injection-Angriffe zu verhindern).
- Leitplanken für generative KI-Chatbots aufstellen: Ein Retrieval Augmented Generation (RAG)-Chatbot, der Zugriff auf unternehmensspezifische Daten hat, um die Antworten zu verbessern, könnte immer noch halluzinieren. Entwickler können Leitplanken implementieren, die den Chatbot beispielsweise sagen lassen: „Ich habe nicht genug Informationen, um diese Frage zu beantworten“, wenn er die Antwort nicht finden kann, anstatt eine Antwort zu erfinden.
Erfahren Sie, wie Cloudflare for AI Entwicklern hilft, KI-Modelle von überall auf der Welt zu erstellen und auszuführen. Und entdecken Sie, wie Cloudflare Vectorize es Entwicklern ermöglicht, Einbettungen in einer global verteilten Vektordatenbank zu erzeugen und zu speichern.
FAQs
Was sind KI-Halluzinationen?
KI-Halluzinationen sind inkorrekte oder falsche Antworten von generativen KI-Modellen (GenAI). Diese Fehler sind manchmal in Inhalten versteckt, die ansonsten korrekt erscheinen. Der Begriff ist eine Metapher; die KI hat keine Wahnvorstellungen, sondern produziert unerwartete Outputs, die nicht mit der Realität übereinstimmen.
Was führt zu Halluzinationen bei einer KI?
Mehrere Faktoren können KI-Halluzinationen verursachen, darunter Probleme mit ungenauen oder verzerrten Trainingsdaten, die Unfähigkeit eines Modells, den realen Kontext zu verstehen, die inhärenten Einschränkungen der von GenAI verwendeten statistischen Analyse und ein zu starkes Training mit einem einzigen Datensatz – dieser letzte Zustand wird als „Überanpassung” bezeichnet.
Wie können Entwickler KI-Halluzinationen verhindern?
Auch wenn es möglicherweise nicht möglich ist, Halluzinationen vollständig zu verhindern, können Entwickler mehrere Maßnahmen ergreifen, um ihre Wahrscheinlichkeit zu verringern. Dazu gehören die Verwendung größerer und vielfältigerer Datensätze, die Vermeidung einer Überanpassung des Modells an einen einzigen Datensatz und die Durchführung umfangreicher Tests mit einer Vielzahl von Prompts. Es ist auch wichtig, Modelle zu verwenden, die speziell für den vorgesehenen Anwendungsfall entwickelt wurden, und Schutzmaßnahmen zu implementieren, z. B. einen Chatbot anzuweisen, anzugeben, wenn er nicht über genügend Informationen verfügt, um eine Frage zu beantworten.
Was ist ein Beispiel für eine KI-Halluzination?
Viele Menschen haben GenAI-Modelle gebeten, Aufsätze oder juristische Schriftsätze für sie zu verfassen, nur um festzustellen, dass das Modell Verweise auf Quellen oder Fälle eingefügt hat, die nicht existieren Nutzer von KI-Bildgeneratoren haben festgestellt, dass Modelle manchmal keine korrekten Bilder als Antwort auf ihre ersten Prompts produzieren – beispielsweise mit zu vielen Fingern an einer Hand.
Was ist Überanpassung?
Überanpassung liegt vor, wenn ein KI-Modell zu stark mit einem einzigen Datensatz trainiert wurde, was zu Fehlinterpretationen oder Ungenauigkeiten führt, wenn das Modell mit neuen Daten konfrontiert wird. Entwickler können Überanpassung vermeiden, indem sie ihre Modelle mit einer breiten Basis von Beispieldaten aus einer Reihe von Quellen trainieren.