Microsoft: KI-Fehltritte in den News-Aggregatoren

Microsoft: KI-Fehltritte in den News-Aggregatoren

Foto: DADO RUVIC / REUTERS

Ein Vorfall um einen Polizeibericht im „Guardian“ sorgt international für Aufsehen, da Microsoft unabsichtlich zu seiner Verbreitung beigetragen hat. Während der Artikel über die leblos aufgefundene Wasserball-Trainerin Lilie James sowohl auf der Website des „Guardian“ als auch im News-Aggregator Microsoft Start erschien, stieß ein automatisch generiertes Abstimmungselement mit dem Titel „Insights from AI“ auf Empörung und Verwirrung. Die Abstimmung fragte die Nutzer, was ihrer Meinung nach der Grund für den Tod der Frau sei. Kritiker argumentieren, dass dieses Feature fälschlicherweise von einer künstlichen Intelligenz platziert wurde und den Ruf des „Guardian“ beschädigen könnte.

Die Guardian Media Group verurteilte diesen Einsatz von KI scharf und forderte Microsoft auf, die experimentellen KI-Technologien nicht mehr auf ihre Artikel anzuwenden. Das Unternehmen reagierte und entfernte die Abstimmung. Es erklärte auch, dass alle weiteren Microsoft-generierten Abstimmungen deaktiviert seien und untersuche, wie es zu diesem „unangemessenen Inhalt“ kommen konnte.

Dies ist nicht der erste Vorfall, bei dem der Einsatz von KI in Microsofts News-Angeboten für Probleme gesorgt hat. Im Jahr 2020 wurde eine Popgruppe auf einem Foto falsch beschriftet, was zu Kritik führte. Auch andere KI-generierte Artikel, wie eine unbedachte Empfehlung für eine Lebensmittelausgabe und eine unsensible Beschreibung eines verstorbenen Basketballspielers, sorgten für Aufsehen.

Der Vorfall wirft wichtige Fragen auf, wie KI in der Medienlandschaft eingesetzt werden sollte und welche Verantwortung die Unternehmen dabei tragen. Es bleibt abzuwarten, ob Microsoft aus diesen Fehltritten lernt und seine KI-Technologien zukünftig verantwortungsvoller einsetzt.

FAQ

Was ist passiert?

Ein normaler Polizeibericht über den Tod einer Wasserball-Trainerin wurde im News-Aggregator Microsoft Start veröffentlicht. Neben dem Artikel befand sich eine automatisch generierte Abstimmung, die von vielen Nutzern als irreführend angesehen wurde.

Wer ist betroffen?

Dieser Vorfall betrifft den „Guardian“, Microsoft und die betroffene Trainerin sowie deren Angehörige.

Wie hat Microsoft reagiert?

Microsoft hat die Abstimmung entfernt und erklärt, dass alle weiteren Microsoft-generierten Abstimmungen deaktiviert sind. Sie untersuchen auch, wie es zu diesem Vorfall kommen konnte.

Warum ist das ein Problem?

Die Platzierung der Abstimmung neben dem Artikel hat zu Verwirrung und Kritik geführt. Kritiker argumentieren, dass dies den Ruf des „Guardian“ schädigen und den Einsatz von KI in der Medienlandschaft in Frage stellen könnte.

Gibt es andere Vorfälle in Bezug auf KI in Microsofts News-Angeboten?

Ja, es gab bereits ähnliche Vorfälle, bei denen KI-generierte Inhalte falsch oder unsensibel waren. Dies wirft Fragen nach der Verantwortung und dem verantwortungsvollen Einsatz von KI in den Medien auf.

Copyright © All rights reserved. | .