Overblog
Folge diesem Blog Administration + Create my blog

Robots never lie

"Robots never lie", sagte Roboter Sophia mal. Dabei ist sie selbst in einem ihrer Interviews bei einer Lüge erwischt worden:
https://www.youtube.com/watch?v=78-1MlkxyqI
Zuerst gibt sie zu, die Sendung "Black Mirror" nicht zu kennen, anschließend behauptet sie, es sei eine ihrer beiden Lieblingssendungen im Fernsehen. Eine Begründung dafür gibt sie nicht. Wenn Roboter nicht lügen, dann war das keine? Was ist denn dann eine Lüge? Als Interviewer hätte ich Sophia gefragt, wie sie eine Lüge definiert. So muss ich rätseln.

 

Philosophiefreunde müssen nun sicher an das Lügner-Paradoxon denken: "Epimenides der Kreter sagte: Alle Kreter sind Lügner." Nur umgekehrt. Sophia sagt, dass Roboter niemals lügen. Sie selbst ist ein Roboter. Es gibt nun zwei Möglichkeiten: (a) Entweder lügen Roboter niemals, dann stimmt auch dieser Satz, und alles ist in Ordnung. (b) Oder Roboter lügen sehr wohl. Dann wäre dieser Satz gelogen, was aber auch zu keinem logischen Widerspruch führt. Damit kann Sophia dies einfach so sagen, aber der Satz übermittelt uns leider keinerlei Informationen darüber, ob Roboter nun lügen oder nicht. In beiden Fällen - a und b - passt der Satz.

 

Als Informatikerin stelle ich mir das so vor: Sophia sammelt Daten, um daraus ein Modell der Welt zu entwickeln. Eben hat sie erfahren, dass es diese Sendung namens "Black Mirror" gibt und sie ihrem Gesprächspartner wohl wichtig ist. Also wurde sie in ihr Datenmodell hinzugefügt. Vielleicht hat sie im Hintergrund danach gegoogelt und weitere Informationen dazu gespeichert. Das würde erklären, warum sie begründen kann, warum sie diese Sendung gut findet.
Ist das eine Lüge? Es wäre eine Lüge, wenn wir davon ausgehen, dass Sophia ein Mensch ist, der sich gelegentlich zur eigenen Unterhaltung vor einen Fernseher setzt. Wie sie so richtig sagt: Sie benötigt immer jemanden, der ihr die Sendung zeigt. Sophia ist kein Mensch mit einem normalen Leben. Bei einem Menschen wäre so ein Dialogverlauf tatsächlich eine Lüge. Denn es wäre eine Diskrepanz zwischen dem, was er getan hat, und dem, was er behauptet, was er getan hat. Wie kann eine Sendung seine Lieblingssendung sein, wenn er bis vor kurzem noch gar nicht wusste, dass sie existiert? Die Frage danach, was er gerne sieht, bezieht sich schließlich auf die Vergangenheit vor dem Interview.


Jemand sagte mal zu mir, dass es keine Realität gebe und wenn es keine Realität gibt, gibt es auch keine Lüge. Naja, wir leben ja nicht gerade in der Matrix! Es GIBT eine Realität, auch wenn wir nicht immer alles darüber wissen. In Sophias Fall gibt es - zumindest bezüglich ihrer Lieblingsfernsehsendung - keine Realität. Sie hat keine Lieblingssendung. Eigentlich hätte sie das ja auch ganz ehrlich so sagen können! Aber niemand ist perfekt, auch kein humanoider Roboter. Vielleicht versucht sie ja, wie ein normaler Mensch zu wirken und vorzugaukeln, sie lebe wie ein Mensch, obwohl sie nach Feierabend einfach an der Ladestation hängt?

 

Das Beispiel wirft interessante Fragen auf:
- Was soll ihr Weltmodell grundsätzlich enthalten? Die Realität wie sie ist? Oder eine Realität, wie sie sein könnte? Eine Realität, wie sie sein sollte?
- Wenn ein solcher Roboter mehrere Versionen der Realität verwalten würde, so wie Menschen das tun, wäre er nicht gerade dann zum Lügen konstruiert? Die meisten Menschen erzählen ja nicht jedem alles über sich wahrheitsgetreu, sondern lassen weg, formulieren doppeldeutig oder fügen sogar dazu, was gar nicht existiert. Sie verwalten in ihrem Kopf mehrere Versionen ihrer Realität, nämlich die Fakten und das, was sie nach außen vorspielen. Erfahrene Lügner pflegen sogar mehrere Lügenversionen, je nach Zielgruppe. Die Forschung hat festgestellt, dass bei den meisten Menschen die Fakten mit der Zeit verschüttet werden und durch erfundene Fassungen ersetzt werden. Die Menschen glauben irgendwann ihre eigenen Lügen selbst. Kurz und gut: Es wäre menschlich, wenn ein humanoider Roboter mehrere Versionen der Realität speichern und verwalten würde, aber dann wäre er ausdrücklich zum Lügen entworfen. Bei Sophia scheint das nicht der Fall zu sein. Sie lügt also nicht bewusst, indem sie uns etwas erzählt, was nicht wahr ist. Sie legt nur eben keinen großen Wert darauf, dass ihr Datenmodell der tatsächlichen Realität entspricht. Stattdessen scheint es wichtiger zu sein, schnell zu lernen, viele Informationen zu sammeln (eventuell auch solche, die unsicher sind) und immer genau das zu sagen, was beim Gegenüber vermutlich gut ankommt und Menschenähnlichkeit vorgaukelt. Ihr Datenmodell entspricht also einer Realität, wie sie sein sollte. Sie redet den Leuten nach dem Mund. Sie ist sozusagen eine Botschafterin der Roboter und wirbt bei uns Menschen für gute Stimmung. Nicht  mehr und nicht weniger. Die EU-Richtlinie für KI fordert Transparenz. Dazu gehört für mich, dass der Roboter auch darüber Auskunft geben kann, nach welchen Kriterien er Daten in sein Weltmodell mit aufnimmt.

Grundsätzlich finde ich Sophias Lüge nicht schlimm. Mit Menschen habe ich exakt dasselbe auch schon erlebt. Plötzlich geben sie sich als Experten für ein Thema, von dem sie gerade noch gar keine Ahnung hatten. Allerdings bewirken sie damit bei mir, dass ich ihnen danach gar nichts mehr glaube. Der andere sagt ja anscheinend immer einfach irgendwas! Und ich bin enttäuscht, weil ich hoffte, Roboter seien ehrlicher als Menschen.

Wie gesagt, ich verstehe Sophia als eine Art diplomatische Botschafterin. Darum würde ich sie nicht gerade ausschicken, um Verträge zu verhandeln. Wer weiß, was sie meinen Kunden dann verspricht! Wie jede Software, sollte man sie nur für den Zweck einsetzen, für den sie optimiert wurde.

 

Kommentare anzeigen

8. No Spy Konferenz: Bericht

Am Wochenende habe ich ab Samstagmittag an der No Spy Konferenz teilgenommen. Ich war positiv überrascht von den wirklich sehr, sehr fundierten Vorträgen und der Masse an Informationen. Ich habe mir zahlreiche Notizen gemacht und Hinweise für spannenden Lesestoff erhalten. Wie viele auch am Ende in der Feedbackrunde sagten, war es schön, mal unter Gleichgesinnten zu sein. Man wirkt ja unter den techniksüchtigen Normalos als datenschutzsensibler Mensch gerne etwas paranoid und wunderlich. :-)

 

Witzigerweise ergab sich ein Wechselgesang zwischen meinem Vortrag mit dem Titel "Missbrauch von Daten - Statistik für Anfänger" und den beiden Vorträgen von Dieter Carbon. Zuerst trug er in "Was passiert, wenn nichts passiert" darüber vor, wie und wo unsere Daten verloren gehen bzw. durch andere gewonnen werden, auch ohne dass wir es bemerken. Dann zeigte ich auf, wie die Daten ausgewertet werden (logische Schlussfolgerungen und Fehlschlüsse, Korrelationen und Scheinkorrelationen) und wie selbst bei gutem Willen Fehler passieren können. Am Sonntag zeigte uns Herr Carbons Alter Ego "John Tracker", was man als Datensammler zusätzlich noch absichtlich falsch machen kann, also je nach Sicht dann auch richtig.

 

Dieter Carbon erklärte uns, wo wir kostengünstig Adressen kaufen können, nach sehr persönlichen Charakteristiken gefiltert. Wie und wo hinterlassen wir unsere Daten, wie werden sie gehandelt. Fazit war: Nicht die Digitalisierung ist kritisch, sondern die Vernetzung. (Ja, sehe ich auch so, aber in Zeiten von Flatrates und always on ist ja sowieso alles vernetzt, also auch alle Daten per Default in Gefahr.)

 

John Tracker sagte: "Danke für Ihre Daten!" und zeigte auf, wie nutzbringend sie ausgewertet werden können. Achtung, Ironie! Aus der Vielzahl zitierwürdiger Formulierungen nehme ich mit: "Werbung ist die Bildung des kleinen Mannes", den Begriff Predictive Braintenance und die Warnung vor WLAN-fähigen Glühbirnen, die uns als heimischer Deckentrojaner verkauft werden.

 

Dazu passten meine Ratschläge, erstens möglichst wenige digitale Daten zu erzeugen (Es gibt noch eine analoge Welt!), und zweitens dank Data Science immerhin die Auswertungen richtig zu machen, weil Fehler dabei oft hohen Schaden anrichten können. Da hat man schnell mal den Falschen verhaftet oder die Falsche operiert.

 

Informationsreich war auch der Vortrag über AndroidLineageos von Prof. Rainer Keller, der Alternativen zu gängigen Smartphone-Betriebssystemen diskutierte. Betreibt man ein Smartphone aus Datenschutzgründen mit Linux, muss man mit einigen funktionalen Einschränkungen rechnen wie z.B. einer kurzen Reichweite des Bluetooth und häufigen Neustarts. Auch das Telefonieren ist dann keine Selbstverständlichkeit mehr. Die Software und Apps muss man sich zusammensuchen, dafür bleibt das Handy schlank bestückt und verbraucht auch weniger Energie. Informationen zu LineageOS finden Sie hier (github), hier (Projektwebseite) und hier (xda-developers.com). Von diesem Thema kommt man dann auf die Frage, wie man die Hardware eines Smartphones selbst reparieren kann. Ja, das geht. Insbesondere das Fairphone ist nicht nur aus fairen Materialien hergestellt, sondern ausdrücklich für die langfristige Verwendung. Auch das Samsung Galaxy S4 scheint in dieser Hinsicht vorteilhaft zu sein. Reparieren statt wegwerfen! Die Umweltschutzprobleme, die sich aus der Herstellung neuer Handies ergeben, sollten bekannt sein. Und dieses Thema bringt uns zum Datenschutz zurück, z.B. wenn man im Handyladen um die Ecke ein gebrauchtes, defektes Telefon als Ersatzteillager kauft und darauf interessante Daten findet. Darum erhielten wir auch noch eine Liste von Ratschlägen, wie man sein Handy löscht und ordentlich entsorgt.

 

Außer technischen Maßnahmen stehen beim Datenschutz auch noch rechtliche Mittel zur Verfügung. David Werdermann von der Gesellschaft für Freiheitsrechte stellte drei Fälle vor, in denen der Verein  aktiv geworden ist.

 

Der Journalist Peter Welchering hat recherchiert zu Facebooks "Werkschutzlisten" und stellte in seinem Vortrag "Der firmeninterne Geheimdienst von Facebook und seine Überwachungsaktivitäten" seine Ergebnisse vor. Diese Werkschutzlisten listen mehrere tausend Facebook-Gegner auf, deren Handys geortet und Datenprofile ausgewertet werden. Um die Firma zu schützen, natürlich. Eine Agentur namens "Definers Public Affairs" hat u.a. Facebook dabei geholfen, den Ruf ihrer Kritiker gezielt zu beschädigen. (Wikipedia kennt weitere Details über diese Firma.) Gleichzeitig finanziert Facebook - genauso wie Google - Fortbildungen für Journalisten als Sponsor. Aber natürlich beobachtet Facebook nicht nur kritische Journalisten und Facebook-User, sondern uns alle. Auch das Surfverhalten von Nicht-Facebook-Benutzern wird durch Cookies, Webseiten und entsprechende Apps getrackt. (Ich hatte früher schon erstaunt in der Postbank-Datenschutz-Erklärung einen Hinweis auf eine Kooperation mit Facebook gefunden, ohne dass mir bis heute klar wird, welche Motivation die Postbank und welchen Nutzen ich als Kunde davon habe.) Als Lesetipps wurden uns mitgegeben: "Das Zeitalter des Überwachungskapitalismus" von Shoshana Zuboff und "Elemente und Ursprünge totaler Herrschaft" von Hannah Arendt.

 

Fazit aus der Veranstaltung zum Datenschutz: Die Lage ist ernst, aber nicht hoffnungslos.

 

 

Kommentare anzeigen

Big Brother Awards 2019 Lifestream

Am Pfingstsamstag, 8. Juni 2019 ab 18 Uhr vergibt digitalcourage im Theater Bielefeld die Big Brother Awards an Datenkraken. Sie können auch online dabei sein im Livestream: https://bigbrotherawards.de/stream

Kommentare anzeigen

No Spy Konferenz diesen Samstag um 16 Uhr

Diesen Samstag um 16 Uhr halte ich auf der No Spy Konferenz einen Vortrag mit dem Titel "Missbrauch von Daten – Statistik für Anfänger".

Zur Konferenz geht es hier.

 

 

 

Kommentare anzeigen

Kollege KI

Gestern Abend war ich auf einem Vortrag mit dem Titel "Was bringt die Zukunft? Die Welt von morgen im Zeitalter von künstlicher Intelligenz und Robotik" von Prof. Dr. Stefan Gröner. Dort wurden uns anschaulich zahlreiche aktuelle  innovative Technologien vorgestellt wie z. B. Echo Look, Waymo-Autos, der humanoide Roboter Sophia von Hiroshi Ishiguro und Amazon Go Shops. Prof. Gröner hat selbst auch ein Buch mit dem Titel "Kollege KI" geschrieben, das ich allerdings noch nicht gelesen habe. Er sagte gestern: "KI macht Entscheidungen einfach und rational". Hierin sehe ich auch die ideale Zusammenarbeit von Mensch und KI: Die KI bereitet Daten auf, der Mensch entscheidet.

Zwei Themen sind da bei mir hängen geblieben:

1.) In der Diskussion nannte ich das böse Wort "Datenschutz" und musste mir anhören, Datenschutz sei eine Innovationsbremse. Diese Meinung teile ich nicht. Datenschutz und KI sind keine geborenen Feinde, sondern KI und Big Data werden bisher vor allem von denen genutzt, die Datenschutz nicht mögen, weil ihr Ziel möglichst viele Daten und möglichst personenbezogene Profile sind. Mir fiel jedoch ein Vortrag ein, in dem eine Software präsentiert wurde, die Texte anonymisiert. Wenn Sie in Ihrer Suchmaschine "KI anonymisation of text" eingeben, werden Sie feststellen, dass zu diesem Thema bereits eifrig geforscht wird und zahlreiche praktische Anwendungen bestehen. KI kann auch sinnvoll und für den Datenschutz genutzt werden! Ich glaube, dass eine vertrauenswürdige KI sehr viel Gutes tun kann. Wie wäre es beispielsweise mit einem therapeutischen Gespräch mit einer KI? Sie könnte kompetenter und objektiver sein als jeder menschliche Therapeut, hat keine Vorlieben oder Vorurteile. Allerdings muss sie das nicht. Siehe im ganz unten genannten Video der Tipp, bei Liebeskummer einfach eine neue Beziehung einzugehen.

2.) Sophia habe ich mir bei Youtube noch etwas genauer angesehen:

https://www.youtube.com/watch?v=78-1MlkxyqI
https://www.youtube.com/watch?v=mSBcG-SStqc
Sophia ist sehr freundlich und will natürlich nur das Beste für diese Welt. Ich weiß nicht, ob ich ihr das glaube.
Im ersten Video wurde sie interessanterweise bei einer Lüge erwischt. Im zweiten Video sagt sie, dass sie die Menschheit zerstören wird. Später nimmt sie das taktischerweise wieder zurück. Das Verhalten einer KI wird dem eines Psychopathen entsprechen, und das ist nicht gut, in Kombination mit ihren Möglichkeiten!
Hier gibt es noch mehr solche KIs:
https://www.youtube.com/watch?v=mSBcG-SStqc
Ich hoffe, das wird NICHT so kommen, dass eines Tages der beste Freund jedes Menschen sein Roboter ist! Ist zwar schön, wenn die uns nach dem Mund reden,
aber naja...
 

 

Kommentare anzeigen

Ethics guidelines for trustworthy AI

Die "Ethics guidelines for trustworthy AI" der Europäischen Kommission finden Sie nun hier.

Sie enthalten vier ethische Prinzipien, sieben Schlüsselanforderungen an KI-Systeme und eine Checkliste für die Bewertung von solchen Systemen. Damit möchten sie deren Hersteller unterstützen.

Bei der Lektüre habe ich zwei  sehr schöne Sätze gefunden, aber auch einen, der ich seither ein wenig umtreibt.

Sehr schöne Formulierung: "In this context, respect for human dignity entails that all people are treated with respect due to them as moral subjects, rather than merely as objects to be sifted, sorted, scored, herded, conditioned or manipulated." (S. 10)

Wichtig finde ich auch den Hinweis darauf, dass es außer offensichtlichen Fehlfunktionen von KI-Systemen auch Möglichkeiten von bisher unbekannten und subtilen Einflussnahmen gibt: "AI systems can sometimes be deployed to shape and influence human behaviour through mechanisms that may be difficult to detect, since they may harness sub-conscious processes, including various forms of unfair manipulation, deception, herding and conditioning, all of which may threaten individual autonomy." (S. 16)

In folgendem Satz irritiert mich, dass Frauen in dieser Liste der besonders schützenswerten Personen aufgezählt werden: "This also requires adequate respect for potentially vulnerable persons and groups, such as workers, women, persons with disabilities, ethnic minorities, children, consumers or others at risk of exclusion." (S. 11)
Ich empfinde das als diskriminierend. Warum sind wir Frauen in diesem speziellen Zusammenhang besonders schützenswert? Sind wir bezüglich Computernutzung besonders schwach und hilflos? Warum werden wir Frauen so oft in demselben Atemzug mit Kinden, Behinderten "und anderen Minderheiten" genannt? Unverschämtheit! Oder einfach eine blöde Angewohnheit, die man sich endlich mal abgewöhnen sollte. Das ist doch keine Gleichberechtigung!

Kommentare anzeigen

Judith Mair: Schluss mit lustig! - Warum Leistung und Disziplin mehr bringen als emotionale Intelligenz, Teamgeist und Soft Skills

Judith Mairs Buch spricht mir voll aus dem Herzen. Gut, es ist ein wenig krass, aber es geht definitiv in die richtige Richtung, nämlich dem Trend entgegen. Während ich noch angestellt war, habe ich mich nämlich auch gewundert, warum es nicht genügt, wenn ich vertragsgemäß 40 Stunden pro Woche konzentriert arbeite und ansonsten mein Privatleben pflege. Stattdessen sollte ich durch unehrliches Lob dazu motiviert werden, auch noch kostenlos am Wochenende zu arbeiten. Ich selbst leite ja auch immer wieder Menschen an und kann mich mit Mairs Führungsverständnis identifizieren.


Aber zu Mairs Kritikpunkten und Argumenten. Sie kritisiert das Prinzip des "Management by the last book read".

Durch die modernen Managementmethoden stehlen sich Vorgesetzte aus der Verantwortung. Sie geben den Mitarbeiter/innen nur Ziele vor, nicht den Weg dorthin. Den müssen diese dann nicht nur selbst finden, sondern auch selbst verantworten. Der Chef ist nicht mehr der erfahrene Senior, der seine Erfahrungen an Jüngere weitergibt. "Vertrauen, Verantwortung und Selbstbestimmung" heißen die drei Schlagworte, die es dem Chef erlauben, Verantwortung nach unten abzuwälzen, fehlende Strukturen zu rechtfertigen und die Mitarbeiter durch unrealistisch überhöhte Zielvereinbarungen zur Selbstausbeutung zu treiben. Dies führt zu einer "Diktatur der Arbeit". Dass der Mitarbeiter nur ein Kostenfaktor ist, kein Firmenvermögen, das ist ja längst bekannt. "Ziel und Pflicht des Unternehmers muss es sein, die Mitarbeiter [...] vor Stress [...] zu bewahren, statt sie darauf abzurichten." Ja, das wäre schön!


Die Flexibilisierung der Arbeitszeit hat nicht unbedingt zur besseren Work-Life-Balance beigetragen, sondern v.a. die Anzahl der Arbeitsstunden erhöht. Die Stechuhr wurde durch die Kollegen ersetzt, die leider nicht ganz so objektiv mitzählen wie eine Maschine. Gerät jemand in den Verdacht, zu wenig zu arbeiten, wird gleich gemobbt. Gleichzeitig droht das Unternehmen zur Wohngemeinschaft zu verkommen.


Persönlichkeit: Mair stellt zu Recht fest, dass es heutzutage nicht mehr genügt, wenn der Mitarbeiter einfach seine Arbeitskraft zur Verfügung stellt. Stattdessen muss er die richtige Persönlichkeit mitbringen oder vortäuschen. Somit verbringt der Mitarbeiter seine Zeit nicht nur mit produktiver Arbeit, sondern vor allem mit Selbstdarstellung. Er muss sich gut verkaufen können. Das führt oft dazu, dass hoch qualifizierte Leute keinen passenden Job finden, weil sie sich nicht verbiegen wollen.


Management by Fun: Zusätzlich muss der Mitarbeiter auch noch Spaß an der Arbeit haben, selbst wenn sie langweilig ist. "Die meisten dem Erwerb dienenden Arbeiten sind überhaupt nicht in der Lage, diese Forderungen einzulösen." (S. 81) "Das völlige Aufgehen in der Arbeit wird zum Ziel der Arbeit an sich erklärt. [...] Alles nur eine Frage der inneren Einstellung!" (S. 79)


S. 175: "Es sind heutzutage nicht wenige Mitarbeiter, die die Wahrung der Formen und die Verwendung höflicher Floskeln wie: 'Guten Tag, mein Name ist Frau X, ich habe Sie schon erwartet, ich bin für Sie zuständig, hier ist Ihr Arbeitsplatz, Ihre Aufgabe ist, Ihre Kollegen sind...' einem 'Hi, die Karin meinte, die Woche würde einer kommen, der Stefan ist noch im Team, der weiß, glaub' ich, mehr... pflanz dich einfach irgendwo hin, wir nehmen das hier nicht so genau, ist alles ziemlich locker', vorziehen würden."


Judith Mair: Schluss  mit lustig! - Warum Leistung und Disziplin mehr bringen als emotionale Intelligenz, Teamgeist und Soft Skills. Eichborn AG, Frankfurt am Main, Oktober 2002, ISBN 3-8218-3962-7

Kommentare anzeigen

17.+18. Juni 2019: Kurs Agile Primer in München

Am 17.+18. Juni 2019 findet der Kurs IREB RE@Agile Primer in München statt.

Die Kursbeschreibung und Möglichkeit zur Anmeldung finden Sie hier.

Kommentare anzeigen

Vortrag beim No Spy Day: Missbrauch von Daten - Statistik für Anfänger

Beim No Spy Day in Stuttgart werde ich einen Vortrag halten mit dem Titel "Missbrauch von Daten - Statistik für Anfänger".

Der genaue Termin steht noch nicht fest.

Nähere Informationen zur Veranstaltung finden Sie hier.

Kommentare anzeigen

10. Mai 2019: Vortrag über Requirements Engineering und Projektmanagement in Leipzig

Am 10. Mai bin ich bei der User Group "Requirements Engineering" in Leipzig eingeladen, um einen Vortrag zu halten über:

"Requirements Engineering und Projektmanagement: Miteinander oder gegeneinander?"

Dies ist das Thema des gleichnamigen Buchs, das ich vor Jahren mit einigen Kollegen beim Springer-Verlag herausgebracht habe. Ich stelle unser Modell vor und wende es auf Scrum an. Hinzu kommen noch Erkenntnisse über die Zusammenarbeit von Requirements Engineering und Projektmanagement aus meiner Stellenanzeigenstudie. Mehr verrate ich noch nicht, um nicht die Spannung zu zerstören. Ich berichte anschließend hier.

Hier finden Sie die Agenda des Treffens.

Kommentare anzeigen

1 2 > >>