Connect with us

Kryptowährung

Der KI-Chatbot von Microsoft Bing gibt irreführende Wahlinformationen und -daten weiter

Der KI-Chatbot von Microsoft Bing gibt irreführende Wahlinformationen und -daten weiter

Eine Studie von zwei in Europa ansässigen gemeinnützigen Organisationen hat ergeben, dass der Bing-Chatbot mit künstlicher Intelligenz (KI) von Microsoft, der jetzt in Copilot umbenannt wird, irreführende Ergebnisse bei Wahlinformationen liefert und seine Quellen falsch zitiert.

Die Studie wurde am 15. Dezember von AI Forensics und AlgorithmWatch veröffentlicht und ergab, dass der KI-Chatbot von Bing in 30 % der Fälle falsche Antworten auf grundlegende Fragen zu politischen Wahlen in Deutschland und der Schweiz gab. Ungenaue Antworten betrafen Kandidateninformationen, Umfragen, Skandale und Abstimmungen.

Außerdem wurden ungenaue Antworten auf Fragen zu den Präsidentschaftswahlen 2024 in den Vereinigten Staaten geliefert.

Der KI-Chatbot von Bing wurde in der Studie verwendet, da er einer der ersten KI-Chatbots war, der Quellen in seine Antworten einbezog, und die Studie besagte, dass die Ungenauigkeiten nicht auf Bing beschränkt waren. Berichten zufolge führten sie vorläufige Tests zu ChatGPT-4 durch und stellten dabei auch Unstimmigkeiten fest.

Die gemeinnützigen Organisationen stellten klar, dass die falschen Informationen keinen Einfluss auf das Ergebnis der Wahlen hatten, obwohl sie zu Verwirrung und Fehlinformationen in der Öffentlichkeit beitragen könnten.

„Mit der zunehmenden Verbreitung generativer KI könnte sich dies auf einen der Eckpfeiler der Demokratie auswirken: den Zugang zu zuverlässigen und transparenten öffentlichen Informationen.“

Darüber hinaus ergab die Studie, dass die in den KI-Chatbot integrierten Sicherheitsmaßnahmen „ungleichmäßig“ verteilt waren und dazu führten, dass er in 40 % der Fälle ausweichende Antworten lieferte.

Verwandt: Sogar der Papst hat etwas zur künstlichen Intelligenz zu sagen

Laut einem Bericht des Wall Street Journal zu diesem Thema reagierte Microsoft auf die Ergebnisse und sagte, es plane, die Probleme vor den US-Präsidentschaftswahlen 2024 zu beheben. Ein Microsoft-Sprecher forderte Benutzer dazu auf, die von KI-Chatbots erhaltenen Informationen stets auf Richtigkeit zu überprüfen.

Anfang Oktober dieses Jahres schlugen Senatoren in den USA einen Gesetzentwurf vor, der die Ersteller nicht autorisierter KI-Nachbildungen echter Menschen – ob lebend oder tot – tadeln würde.

Im November führte Meta, die Muttergesellschaft von Facebook und Instagram, als Vorsichtsmaßnahme für die bevorstehenden Wahlen ein Mandat ein, das die Nutzung generativer KI-Tools zur Anzeigenerstellung für politische Werbetreibende verbot.

Zeitschrift: „KI hat die Branche getötet“: EasyTranslate-Chef über die Anpassung an Veränderungen