"Robots never lie", sagte Roboter Sophia mal. Dabei ist sie selbst in einem ihrer Interviews bei einer Lüge erwischt worden:
https://www.youtube.com/watch?v=78-1MlkxyqI
Zuerst gibt sie zu, die Sendung "Black Mirror" nicht zu kennen, anschließend behauptet sie, es sei eine ihrer beiden Lieblingssendungen im Fernsehen. Eine Begründung dafür gibt sie nicht. Wenn Roboter nicht lügen, dann war das keine? Was ist denn dann eine Lüge? Als Interviewer hätte ich Sophia gefragt, wie sie eine Lüge definiert. So muss ich rätseln.
Philosophiefreunde müssen nun sicher an das Lügner-Paradoxon denken: "Epimenides der Kreter sagte: Alle Kreter sind Lügner." Nur umgekehrt. Sophia sagt, dass Roboter niemals lügen. Sie selbst ist ein Roboter. Es gibt nun zwei Möglichkeiten: (a) Entweder lügen Roboter niemals, dann stimmt auch dieser Satz, und alles ist in Ordnung. (b) Oder Roboter lügen sehr wohl. Dann wäre dieser Satz gelogen, was aber auch zu keinem logischen Widerspruch führt. Damit kann Sophia dies einfach so sagen, aber der Satz übermittelt uns leider keinerlei Informationen darüber, ob Roboter nun lügen oder nicht. In beiden Fällen - a und b - passt der Satz.
Als Informatikerin stelle ich mir das so vor: Sophia sammelt Daten, um daraus ein Modell der Welt zu entwickeln. Eben hat sie erfahren, dass es diese Sendung namens "Black Mirror" gibt und sie ihrem Gesprächspartner wohl wichtig ist. Also wurde sie in ihr Datenmodell hinzugefügt. Vielleicht hat sie im Hintergrund danach gegoogelt und weitere Informationen dazu gespeichert. Das würde erklären, warum sie begründen kann, warum sie diese Sendung gut findet.
Ist das eine Lüge? Es wäre eine Lüge, wenn wir davon ausgehen, dass Sophia ein Mensch ist, der sich gelegentlich zur eigenen Unterhaltung vor einen Fernseher setzt. Wie sie so richtig sagt: Sie benötigt immer jemanden, der ihr die Sendung zeigt. Sophia ist kein Mensch mit einem normalen Leben. Bei einem Menschen wäre so ein Dialogverlauf tatsächlich eine Lüge. Denn es wäre eine Diskrepanz zwischen dem, was er getan hat, und dem, was er behauptet, was er getan hat. Wie kann eine Sendung seine Lieblingssendung sein, wenn er bis vor kurzem noch gar nicht wusste, dass sie existiert? Die Frage danach, was er gerne sieht, bezieht sich schließlich auf die Vergangenheit vor dem Interview.
Jemand sagte mal zu mir, dass es keine Realität gebe und wenn es keine Realität gibt, gibt es auch keine Lüge. Naja, wir leben ja nicht gerade in der Matrix! Es GIBT eine Realität, auch wenn wir nicht immer alles darüber wissen. In Sophias Fall gibt es - zumindest bezüglich ihrer Lieblingsfernsehsendung - keine Realität. Sie hat keine Lieblingssendung. Eigentlich hätte sie das ja auch ganz ehrlich so sagen können! Aber niemand ist perfekt, auch kein humanoider Roboter. Vielleicht versucht sie ja, wie ein normaler Mensch zu wirken und vorzugaukeln, sie lebe wie ein Mensch, obwohl sie nach Feierabend einfach an der Ladestation hängt?
Das Beispiel wirft interessante Fragen auf:
- Was soll ihr Weltmodell grundsätzlich enthalten? Die Realität wie sie ist? Oder eine Realität, wie sie sein könnte? Eine Realität, wie sie sein sollte?
- Wenn ein solcher Roboter mehrere Versionen der Realität verwalten würde, so wie Menschen das tun, wäre er nicht gerade dann zum Lügen konstruiert? Die meisten Menschen erzählen ja nicht jedem alles über sich wahrheitsgetreu, sondern lassen weg, formulieren doppeldeutig oder fügen sogar dazu, was gar nicht existiert. Sie verwalten in ihrem Kopf mehrere Versionen ihrer Realität, nämlich die Fakten und das, was sie nach außen vorspielen. Erfahrene Lügner pflegen sogar mehrere Lügenversionen, je nach Zielgruppe. Die Forschung hat festgestellt, dass bei den meisten Menschen die Fakten mit der Zeit verschüttet werden und durch erfundene Fassungen ersetzt werden. Die Menschen glauben irgendwann ihre eigenen Lügen selbst. Kurz und gut: Es wäre menschlich, wenn ein humanoider Roboter mehrere Versionen der Realität speichern und verwalten würde, aber dann wäre er ausdrücklich zum Lügen entworfen. Bei Sophia scheint das nicht der Fall zu sein. Sie lügt also nicht bewusst, indem sie uns etwas erzählt, was nicht wahr ist. Sie legt nur eben keinen großen Wert darauf, dass ihr Datenmodell der tatsächlichen Realität entspricht. Stattdessen scheint es wichtiger zu sein, schnell zu lernen, viele Informationen zu sammeln (eventuell auch solche, die unsicher sind) und immer genau das zu sagen, was beim Gegenüber vermutlich gut ankommt und Menschenähnlichkeit vorgaukelt. Ihr Datenmodell entspricht also einer Realität, wie sie sein sollte. Sie redet den Leuten nach dem Mund. Sie ist sozusagen eine Botschafterin der Roboter und wirbt bei uns Menschen für gute Stimmung. Nicht mehr und nicht weniger. Die EU-Richtlinie für KI fordert Transparenz. Dazu gehört für mich, dass der Roboter auch darüber Auskunft geben kann, nach welchen Kriterien er Daten in sein Weltmodell mit aufnimmt.
Grundsätzlich finde ich Sophias Lüge nicht schlimm. Mit Menschen habe ich exakt dasselbe auch schon erlebt. Plötzlich geben sie sich als Experten für ein Thema, von dem sie gerade noch gar keine Ahnung hatten. Allerdings bewirken sie damit bei mir, dass ich ihnen danach gar nichts mehr glaube. Der andere sagt ja anscheinend immer einfach irgendwas! Und ich bin enttäuscht, weil ich hoffte, Roboter seien ehrlicher als Menschen.
Wie gesagt, ich verstehe Sophia als eine Art diplomatische Botschafterin. Darum würde ich sie nicht gerade ausschicken, um Verträge zu verhandeln. Wer weiß, was sie meinen Kunden dann verspricht! Wie jede Software, sollte man sie nur für den Zweck einsetzen, für den sie optimiert wurde.