Connect with us

Kryptowährung

OpenAI gründet „Vorbereitungsteam“ für KI-Sicherheit und gibt dem Vorstand das letzte Wort

OpenAI gründet „Vorbereitungsteam“ für KI-Sicherheit und gibt dem Vorstand das letzte Wort

Der Entwickler künstlicher Intelligenz (KI) OpenAI hat angekündigt, dass er sein „Preparedness Framework“ implementieren wird, das die Bildung eines speziellen Teams zur Bewertung und Vorhersage von Risiken umfasst.

Am 18. Dezember veröffentlichte das Unternehmen einen Blogbeitrag, in dem es hieß, dass sein neues „Preparedness-Team“ die Brücke sein wird, die Sicherheits- und Richtlinienteams verbindet, die bei OpenAI arbeiten.

Es hieß, dass diese Teams, die fast ein Check-and-Balance-System bereitstellen, zum Schutz vor „katastrophalen Risiken“ beitragen werden, die von immer leistungsfähigeren Modellen ausgehen könnten. OpenAI sagte, es werde seine Technologie nur dann einsetzen, wenn sie als sicher erachtet wird.

Der neue Planentwurf sieht vor, dass das neue Beratungsteam die Sicherheitsberichte prüft, die dann an die Führungskräfte des Unternehmens und den OpenAI-Vorstand gesendet werden.

Während die Führungskräfte technisch gesehen für die endgültigen Entscheidungen verantwortlich sind, gibt der neue Plan dem Vorstand die Befugnis, Sicherheitsentscheidungen rückgängig zu machen.

Dies geschah, nachdem OpenAI im November mit der plötzlichen Entlassung und Wiedereinsetzung von Sam Altman als CEO einen Wirbelsturm an Veränderungen erlebte. Nachdem Altman zum Unternehmen zurückgekehrt war, veröffentlichte das Unternehmen eine Erklärung zur Ernennung seines neuen Vorstands, dem nun Bret Taylor als Vorsitzender sowie Larry Summers und Adam D’Angelo angehören.

Verwandt: Steht OpenAI kurz vor der Veröffentlichung eines neuen ChatGPT-Upgrades? Sam Altman sagt „Nein“

OpenAI hat ChatGPT im November 2022 der Öffentlichkeit vorgestellt und seitdem ist das Interesse an KI stark gestiegen, es bestehen aber auch Bedenken hinsichtlich der Gefahren, die sie für die Gesellschaft mit sich bringen könnte.

Im Juli gründeten die führenden KI-Entwickler, darunter OpenAI, Microsoft, Google und Anthropic, das Frontier Model Forum, das die Selbstregulierung der Schaffung verantwortungsvoller KI überwachen soll.

US-Präsident Joe Biden erließ im Oktober eine Durchführungsverordnung, die neue KI-Sicherheitsstandards für Unternehmen festlegte, die High-Level-Modelle entwickeln, und deren Umsetzung.

Vor Bidens Durchführungsverordnung wurden prominente KI-Entwickler, darunter OpenAI, ins Weiße Haus eingeladen, um sich für die Entwicklung sicherer und transparenter KI-Modelle zu verpflichten.

Zeitschrift: Deepfake K-Pop-Pornos, weckte Grok, „OpenAI hat ein Problem“, Fetch.AI: AI Eye