Auch KI leidet unter Unsicherheit, sie gerät in eine Krise, wenn sie in Frage gestellt wird

Sogar künstliche Intelligenz leidet unter Unsicherheit : Wenn eine ihrer Aussagen in Frage gestellt wird , haben große Sprachmodelle (LMs) wie GPT4 oft Schwierigkeiten und liefern weniger zuverlässige Antworten . Das belegt eine von Forschern bei Google DeepMind und dem University College London durchgeführte und auf arXiv veröffentlichte Studie, der Plattform für noch nicht von der wissenschaftlichen Gemeinschaft begutachtete Studien. LMs sind künstliche Intelligenzsysteme mit hervorragenden Kommunikationsfähigkeiten, aber ihre Sprache entsteht im Wesentlichen aus statistischen Analysen der korrekten Wortfolge . Da sie in immer mehr Sektoren – vom Finanzwesen bis zum Gesundheitswesen – eingesetzt werden, ist eine hohe Genauigkeit und Zuverlässigkeit von LMs unabdingbar . Die Studie deutet jedoch darauf hin, dass ihre Zuversicht in manchen Fällen nachlassen kann . Große Sprachmodelle verlieren vor allem dann an Zuversicht , wenn ihr Gesprächspartner auf eine Aussage mit falschen Gegenargumenten reagiert, und umgekehrt gewinnen sie zu viel Zuversicht, wenn sie sich wohlfühlen. Diese Eigenschaft ist insbesondere bei Modellen wie Gemma 3, GPT4o und o1-preview aufgetreten.
Die Forscher beobachteten, dass das Modell , wenn ein LLM-Student eine falsche Antwort gibt , der Gesprächspartner ihm aber trotzdem zustimmt , an seiner Aussage festhält und dazu neigt, auch bei gegenteiligen Beweisen an seiner Aussage festzuhalten . Umgekehrt verliert das Modell leicht an Vertrauen , wenn es eine richtige Aussage macht, die dann vom Gesprächspartner in Frage gestellt wird . Mit anderen Worten: „Sie messen gegenteiligen Ratschlägen übermäßig viel Gewicht bei, was zu einem erheblichen Vertrauensverlust in ihre ursprüngliche Antwort führt“, schreiben die Autoren. Diese Beobachtungen ergänzen viele andere Studien, die zeigen, dass KI-erstellte Texte immer noch vielen potenziellen Fehlerquellen unterliegen und wie viel Arbeit noch nötig ist, bis LLMs wirklich zuverlässige Werkzeuge sein können.
ansa