Zum Inhalt springen

Roboter-Journalismus Microsoft-KI platziert geschmacklose Umfrage neben Artikel über Todesfall

Der »Guardian« berichtete über den Tod einer jungen Frau, der Text erschien auch im News-Angebot von Microsoft. Direkt daneben: eine KI-generierte Abstimmung zur Todesursache. Die Zeitung ist empört, Microsoft blamiert.
Microsoft: »Insights from AI« neben echtem Journalismus

Microsoft: »Insights from AI« neben echtem Journalismus

Foto: DADO RUVIC / REUTERS

Es war ein normaler Polizeibericht des »Guardian« : Die Wasserball-Trainerin Lilie James sei vergangene Woche leblos auf der Toilette einer Schule im australischen Sydney aufgefunden worden, die Leiche der jungen Frau weise Kopfverletzungen auf, und die Polizei untersuche den Fall. International geht die Story nur deshalb um, weil Microsoft sie unabsichtlich verstärkt hat.

Denn der Artikel erschien nicht nur beim »Guardian« selbst, sondern war auch im News-Aggregator Microsoft Start sichtbar. Der baut auf dem seit den Neunzigerjahren bekannten Angebot MSN auf und steht als Website sowie als Smartphone-App zu Verfügung. Zu sehen ist dort immer eine je nach Nutzerstandort und -vorlieben unterschiedlich zusammengestellte Liste aktueller, mehr oder weniger seriöser Nachrichten aus mehr oder weniger seriösen Quellen.

Normalerweise ist das kein Problem, Microsoft hat eine entsprechende Lizenz der Zeitung zur Verwertung ihrer Inhalte. Doch in diesem Fall tauchte direkt neben dem Artikel eine Onlineabstimmung auf, gekennzeichnet mit »Insights from AI«, einem Hinweis darauf, dass diese Abstimmung von einer künstlichen Intelligenz (KI) automatisch generiert und platziert wurde, weil sie vermeintlich zum Thema passt. Die Frage darin lautete: »Was glauben Sie, ist der Grund für den Tod der Frau?« – zur Auswahl standen die Antworten Mord, Unfall und Suizid.

Zeitung sieht ihren Ruf beschädigt

Entsetzte Kommentare von Leserinnen und Lesern waren die Folge. Sie konnten offenbar nicht erkennen, dass es sich um einen automatisch generierten Inhalt handelte. Manche hielten die Journalistinnen und Journalisten vom »Guardian« für die Verantwortlichen und forderten deren Entlassung.

Anna Bateson, CEO der Guardian Media Group, schrieb daraufhin einen empörten Brief an Microsoft-Vize Brad Smith. Darin heißt es: »Dies ist eindeutig ein unangemessener Einsatz von generativer KI durch Microsoft.« Genau vor solchen Szenarien habe man gewarnt und deshalb schon früher von Microsoft gefordert, seine experimentellen KI-Technologien nicht auf Artikel der Zeitung anzuwenden. Die Abstimmung sei potenziell verstörend für die Angehörigen von Lilie James und beschädige den Ruf des »Guardian«. Für die Zukunft verlangte Bateson, dass die Technik nicht in oder neben den Artikeln der Zeitung eingesetzt wird, solange es dafür keine ausdrückliche Einwilligung gebe.

Der Konzern aus Redmond reagierte und entfernte die Abstimmung. Auf Anfrage von »The Verge«  teilte Microsoft zudem mit, man habe »Microsoft-generierte Abstimmungen für alle News-Artikel deaktiviert« und untersuche, wie es zur Erstellung des »unangemessenen Inhalts« kam.

Es ist nicht das erste Mal, dass der KI-Einsatz in Microsofts News-Angeboten für Probleme sorgt. Im Jahr 2020 beschriftete eine Software ein Foto der Popgruppe Little Mix falsch, woraufhin eine der Sängerinnen Microsoft über ihren Instagram-Account hart für die Verwechslung kritisierte: »Es beleidigt mich, dass ihr in einer Gruppe mit vier Mitgliedern die zwei women of color nicht auseinanderhalten könnt. WERDET BESSER!«

Im August veröffentlichte MSN eine Liste von Touristenattraktionen im kanadischen Ottawa und nannte dabei auch eine Lebensmittelausgabe für Bedürftige , die man »mit leerem Magen« besuchen solle. Im September dieses Jahres erschien bei MSN ein KI-generierter Artikel über Brandon Hunter, in dem der kurz zuvor verstorbene frühere Basketballspieler als »nutzlos mit 42 Jahren«  beschrieben wurde.

pbe