Können KI-generierte Antworten falsch sein oder „halluzinierte“ Informationen enthalten?

Geändert am Mi, 12 Feb um 1:22 NACHMITTAGS

Ja, aber nur in seltenen Fällen. Die KI-Funktionen von MAXQDA stützen sich in erster Linie auf die von Ihnen bereitgestellten Daten und nicht auf die Wissensdatenbank der Large Language Models (LLMs). Dadurch wird das Risiko von „Halluzinationen“, d.h. der Generierung falscher Informationen, deutlich reduziert. Tatsächlich sind Nutzer:innen positiv davon überrascht, wie zuverlässig MAXQDAs AI Assist Halluzinationen vermeidet: 


„Angesichts vieler früherer Beispiele für den Einsatz von KI-Chatbots wie Bard, ChatGPT usw. waren wir überrascht, dass wir bei AI Assist keine Anzeichen von Halluzinationen feststellen konnten. Bei den Inhalten, wo wir erwartet hatten, dass die KI etwas Falsches erzeugt, fanden wir bei unserer Validierung keine Fälle, in denen AI Assist halluzinierte.“ (Loxton, 2024, S. 30) 


Halluzinationen können jedoch auftreten, wenn die Anfragen über die analysierten Daten hinausgehen, z. B. bei Fragen nach nicht bereitgestellten Theorien oder Literaturhinweisen. Auch bei Codes mit wenigen Daten können die Vorschläge über den Kontext hinausgehen. 


Generell gilt: Wenn Sie sich an klar definierte Eingaben halten und für Klarheit bei Ihren Anfragen sorgen, ist die Wahrscheinlichkeit falscher Ergebnisse gering. 

War dieser Artikel hilfreich?

Das ist großartig!

Vielen Dank für das Feedback

Leider konnten wir nicht helfen

Vielen Dank für das Feedback

Wie können wir diesen Artikel verbessern?

Wählen Sie wenigstens einen der Gründe aus
CAPTCHA-Verifikation ist erforderlich.

Feedback gesendet

Wir wissen Ihre Bemühungen zu schätzen und werden versuchen, den Artikel zu korrigieren