Künstliche Intelligenz
KI kann Lügen noch nicht entlarven
Künstliche Intelligenz beim Militär, in der Medizin oder im Auto: In immer mehr Lebensbereichen hält sie Einzug. Doch lässt sich mit KI auch feststellen, ob Menschen lügen? Skepsis ist in mehrfacher Hinsicht geboten.
Bei Pinocchio ist die Sache klar. Bei jeder Lüge wächst der Kinderbuchfigur eine lange Nase. In Hollywoodfilmen sorgen Lügendetektoren für klare Erkenntnisse über Gut und Böse. Doch in Zeiten von Fake News und gefälschten Videos wird deutlich: In der Realität sind Menschen nicht besonders gut darin, Lügen zu erkennen.
Kann künstliche Intelligenz (KI) dabei helfen? Denkbar wäre etwa der Einsatz von KI bei Grenzkontrollen, vor dem Abschluss von Versicherungsverträgen, bei der Kriminalitätsbekämpfung, Bewerbungsgesprächen oder vor Gericht. In manchen dieser Bereiche wird über den Einsatz von KI konkret nachgedacht.
Keine klaren Indizien für Lügen
Kristina Suchotzki ist da sehr zurückhaltend. Bislang sei es der Wissenschaft auch in Jahrzehnten nicht gelungen, etwa durch Gehirnscans, Lügendetektoren oder die Interpretation körperlicher Merkmale – feuchte Hände, Herzrasen oder Durchblutung der Haut – im menschlichen Verhalten eindeutige Indizien für Lügen zu finden, erläutert Suchotzki, die sich als Professorin in Marburg mit den psychologischen Grundlagen des Lügens befasst. Auch künstliche Intelligenz habe da noch keine Fortschritte gebracht.
Zusammen mit ihrem Kollegen, dem Würzburger Psychologen Matthias Gamer, warnt Suchotzki deshalb vor einem verfrühten Einsatz von KI bei der Bewertung menschlichen Verhaltens. Es bedürfe noch langer Forschung und Theoriebildung. Ihre Empfehlungen kombinieren Suchotzki und Gamer mit einer Warnung an die Politik: Das Beispiel des Lügendetektors zeige sehr deutlich, wie schwierig es sei, solche Methoden wieder loszuwerden, selbst wenn sich später die Beweise für eine niedrige Erkennungsrate und die systematische Benachteiligung von unschuldigen Verdächtigen häuften. Von der Arbeit an einer KI-basierten Täuschungserkennung komplett abraten will die Expertin in Sachen Lügen jedoch nicht.
KI kann Inhalte auf Stimmigkeit überprüfen
Erfolgversprechender als die Interpretation menschlichen Verhaltens sieht die Rechtspsychologin die Überprüfung inhaltlicher Merkmale von Aussagen, wie dies in Deutschland auch bei der Analyse von Zeugenaussagen vor Gericht geschieht. „Bei solchen inhaltlichen Analysen wird zum Beispiel auf inhaltliche Widersprüche, Detailreichtum oder Lebendigkeit der Sprache geachtet, und hier könnte künstliche Intelligenz unterstützen.“
In diese Richtung geht auch die Forschung von Wissenschaftlerinnen und Wissenschaftlern aus Würzburg, Duisburg, Berlin und Toulouse. In einer im Sommer veröffentlichten Studie hat das Forschungsteam knapp 1.000 Personen darum gebeten, Pläne für das kommende Wochenende aufzuschreiben. Dabei sollten sie neben einer wahren Aussage auch eine erfundene Aussage zu Papier bringen. Später sollten die Teilnehmer dann bewerten, was Lüge und was Wahrheit ist. Das Ergebnis des Tests: Während Menschen ohne KI-Unterstützung nur eine Trefferquote von 46,5 Prozent bei der Ermittlung von Falschaussagen erzielten, kam die KI auf eine Treffergenauigkeit von 60,1 Prozent.
Hohes gesellschaftliches Störpotenzial
Der Einsatz der Lügen-KI hatte aber zugleich Auswirkungen auf das menschliche Miteinander unter den Probanden: Ohne die Unterstützung von KI zögern Menschen offenbar, andere der Lüge zu bezichtigen. Mit KI-Unterstützung äußern sie dagegen sehr viel öfter den Verdacht, eine Lüge präsentiert bekommen zu haben. „Diese Ergebnisse deuten darauf hin, dass KI zum Erkennen von Lügen ein hohes gesellschaftliches Störpotenzial besitzen könnte“, sagt Mitautorin Alicia von Schenk. Denn wenn Menschen vermehrt den Verdacht äußern, ihr Gegenüber könne gelogen haben, fördere dies ein allgemeines Misstrauen und verstärke die Polarisierung zwischen Gruppen, denen es ohnehin schon schwerfällt, einander zu vertrauen.
Auf der anderen Seite könne KI auch positive Auswirkungen haben. „Auf diese Weise kann möglicherweise Unaufrichtigkeit verhindert und Ehrlichkeit in der Kommunikation gefördert werden“, ergänzt Victor Klockmann, Co-Autor und Digitalisierungsexperte an der Uni Würzburg. Aus diesem Grund fordern die Autorinnen und Autoren der Studie „einen umfassenden rechtlichen Rahmen, um die Auswirkungen KI-gestützter Algorithmen zur Erkennung von Lügen zu kontrollieren“. Der Schutz der Privatsphäre und ein verantwortungsvoller Einsatz von KI, insbesondere im Bildungs- und Gesundheitswesen, seien dabei wesentliche Aspekte.
(Christoph Arens/KNA)