Gerade spielte ich ein wenig mit einer Bildgenerierungs-KI herum. Da passierten mal wieder die typischen Fehler: Zwei Schildkröten besitzen insgesamt drei Köpfe, dafür aber nur sieben Beine, bei der Frau hängt die Brust auf Höhe des Bauchnabels. Kann ja mal passieren. Nur fragte ich mich: Wenn immer mehr Bilder KI-generiert und ins Internet gestellt werden, dann dienen diese wiederum als Trainingsmaterial für KI. Dann gibt es bald immer mehr Bilder mit zweiköpfigen Schildkröten und verrutschten Körperformen. Dann "verblödet" die KI durch diese Fehlinformationen.
Grundsätzlich würde ich mir vorstellen, dass die meisten Menschen solche missgestalteten Bilder ignorieren und gar nicht erst verbreiten. Aber bei Texten sieht es anders aus. Da werden Texte generiert und publiziert, so dass nicht nur kompetente Fachkräfte beim Schreiben Zeit sparen, sondern auch, damit unwissende Hilfskräfte kompetent klingende Texte generieren können oder ganze "Online-Zeitungen" automatisch generiert werden könnten ohne menschliche Qualitätssicherung. Das heißt, auch die Texte würden sich immer weiter von der Realität entfernen und als Trainingsmaterial dienen. Das merkt erstmal keiner, aber irgendwann würden automatisch generierte Fehlinformationen so oft wiederholt, dass die KI gar keine Chance hat, das Richtige zu lernen. Im Jahr 2022 bestand das Trainingsmaterial im Bereich der Fachliteratur ja zum größten Teil noch aus von Experten handgeschriebenen Dokumenten, in die echte Expertise eingeflossen ist. Das wird aber bald nicht mehr möglich sein!
Oh, ich sehe wilde Zeiten auf uns zukommen, wo nicht nur die Nachrichten mit Fake News gespammt werden, sondern auch die Fachliteratur... Installationsanleitungen, die niemals funktionieren werden, giftige Pflanzen werden als essbar markiert, Krankheiten, Symptome und Therapien neu kombiniert, die UML wurde von Karl dem Großen erfunden und Scrum skaliert ohne Änderung für 100-Personen-Projekte...