Auf der Informatik-Konferenz habe ich nun u.a. die Sitzung "Ethik und KI" besucht. Hier meine Key Learnings aus den drei Vorträgen:
Machine-Assisted Human Decision Making (Nina Grgic-Hlaca)
Künstliche Intelligenz trifft selten autonom Entscheidungen, sondern versorgt menschliche Entscheider mit Empfehlungen. Darum untersuchten diese Forscher, wie Menschen mit solchen Vorschlägen unter verschiedenen Umständen umgehen. Ja, sie nehmen Vorschläge an. Wie weit sie davon abweichen, hängt jedoch vom Awendungsfeld an und von dem Schaden, der durch eine falsche Entscheidung verursacht würde. Eine unnötige Operation oder ein Todesfall? Ein Unschuldiger geht ins Gefängnis oder ein Schuldiger wird freigesprochen? Steuern ließ sich dies noch dadurch, dass die Probanden Belohnungen oder Strafen für bestimmte Typen von Fehlern erhielten. Einen Bericht zu diesen Experimenten kann man hier kostenlos herunterladen. Weitere Artikel zu verwandten Themen gibt es auf der Webseite der Autorin.
Matching code and law: an adaptive framework for algorithmic fairness (Philipp Hacker)
In diesem Vortrag ging es um zwei Aspekte: um Metriken, die Fairness messen, und um den Datenschutz bei der Verarbeitung personenbezogener Daten. Beispielsweise: Um Diskriminierung auszugleichen, muss man zunächst wissen, dass diese Person zu einer üblicherweise benachteiligten Gruppe gehört. Zum Nachlesen gibt es diese Themen hier.
Artificial Intelligence is inconceivable without standards (Alexandra Engelt)
Dieser Vortrag verwies auf die DIN-Reihe 92001 für Künstliche Intelligenz:
https://www.beuth.de/de/technische-regel/din-spec-92001-1/303650673
Diese gibt es kostenlos, nach Anlegen eines Accounts.
Bei der DIN gibt es seit 2018 ein Working Committee "Artificial Intelligence".