Connect with us

Kryptowährung

ChatGPT zeigt geografische Vorurteile in Fragen der Umweltgerechtigkeit: Bericht

ChatGPT zeigt geografische Vorurteile in Fragen der Umweltgerechtigkeit: Bericht

Virginia Tech, eine Universität in den Vereinigten Staaten, hat einen Bericht veröffentlicht, der mögliche Vorurteile im Tool ChatGPT für künstliche Intelligenz (KI) aufzeigt und auf Unterschiede in seinen Ergebnissen zu Fragen der Umweltgerechtigkeit in verschiedenen Landkreisen hinweist.

In einem aktuellen Bericht haben Forscher von Virginia Tech behauptet, dass ChatGPT Einschränkungen bei der Bereitstellung bereichsspezifischer Informationen zu Fragen der Umweltgerechtigkeit hat.

Die Studie ergab jedoch einen Trend, der darauf hindeutet, dass die Informationen für die größeren, dicht besiedelten Staaten leichter verfügbar waren.

„In Bundesstaaten mit größerer städtischer Bevölkerung wie Delaware oder Kalifornien lebte weniger als 1 Prozent der Bevölkerung in Landkreisen, die keine spezifischen Informationen erhalten können.“

Regionen mit geringerer Bevölkerungszahl hatten hingegen keinen gleichwertigen Zugang.

„In ländlichen Bundesstaaten wie Idaho und New Hampshire lebten mehr als 90 Prozent der Bevölkerung in Landkreisen, die keine lokalspezifischen Informationen erhalten konnten“, heißt es in dem Bericht.

Darüber hinaus wurde eine Dozentin namens Kim vom Department of Geography der Virginia Tech zitiert, die auf die Notwendigkeit weiterer Forschung drängte, da Vorurteile aufgedeckt würden.

„Obwohl weitere Studien erforderlich sind, zeigen unsere Ergebnisse, dass im ChatGPT-Modell derzeit geografische Verzerrungen bestehen“, erklärte Kim.

Das Forschungspapier enthielt auch eine Karte, die den Umfang der US-Bevölkerung veranschaulicht, die keinen Zugang zu standortspezifischen Informationen zu Fragen der Umweltgerechtigkeit hat.

Eine Karte der Vereinigten Staaten, die Bereiche zeigt, in denen die Bewohner lokalspezifische Informationen zu Fragen der Umweltgerechtigkeit sehen können (blau) oder nicht sehen können (rot). Quelle: Virginia Tech

Verwandt: ChatGPT besteht zum ersten Mal die neurologische Prüfung

Dies folgt auf aktuelle Nachrichten, wonach Wissenschaftler potenzielle politische Vorurteile entdecken, die ChatGPT in jüngster Zeit an den Tag gelegt hat.

Am 25. August berichtete Cointelegraph, dass Forscher aus dem Vereinigten Königreich und Brasilien eine Studie veröffentlicht haben, in der erklärt wurde, dass große Sprachmodelle (LLMs) wie ChatGPT Fehler und Vorurteile ausgeben, die Leser irreführen und die politischen Vorurteile traditioneller Medien fördern könnten .

Zeitschrift: Deepfake K-Pop-Pornos, weckte Grok, „OpenAI hat ein Problem“, Fetch.AI: AI Eye