Hackerangriff auf OpenAI: Sicherheitslücken und interne Spannungen

  • Hacker erlangt Zugang zu internen Nachrichtensystemen von OpenAI und stiehlt Informationen.
  • Interne Spannungen und Sicherheitsbedenken innerhalb des Unternehmens offenbart.

Eulerpool News·

Anfang letzten Jahres gelang es einem Hacker, Zugriff auf die internen Nachrichtensysteme von OpenAI, dem Unternehmen hinter ChatGPT, zu erlangen und Details über die Gestaltung von deren künstlichen Intelligenz-Technologien zu stehlen. Der Hacker entnahm Informationen aus Diskussionen in einem Online-Forum, in dem Mitarbeiter über neueste Technologien von OpenAI sprachen. Der Angreifer drang jedoch nicht in die Systeme ein, in denen OpenAI seine KI entwickelt und speichert. Im April 2023 informierten die OpenAI-Führungskräfte ihre Mitarbeiter in einer Versammlung über den Vorfall und unterrichteten den Vorstand. Allerdings wurde die Öffentlichkeit nicht informiert, da keine Kundendaten gestohlen wurden und die Verantwortlichen vermuteten, der Hacker sei eine private Einzelperson ohne Verbindungen zu einer fremden Regierung. Auch das FBI wurde nicht eingeschaltet. Einige Mitarbeiter äußerten daraufhin Bedenken, dass ausländische Gegner wie China die gestohlenen KI-Technologien nutzen könnten, was potenziell die nationale Sicherheit der USA gefährden könnte. Diese Bedenken warfen Fragen über das Sicherheitsmanagement von OpenAI auf und entblößten interne Spannungen bezüglich der Risiken von KI. Nach dem Vorfall versandte der technische Programmmanager Leopold Aschenbrenner ein Memo an den Vorstand, in dem er behauptete, OpenAI tue nicht genug, um das Unternehmen vor ausländischen Gegnern zu schützen. Aschenbrenner wurde später entlassen und argumentierte, dies sei politisch motiviert. Er hatte den Vorfall in einem Podcast angedeutet und betonte, dass OpenAIs Sicherheit nicht ausreiche, um die Geheimhaltung zu gewährleisten. Ein Sprecher von OpenAI betonte, dass die Sicherheitsbedenken von Aschenbrenner nicht zu dessen Trennung geführt hätten und dass viele seiner Behauptungen nicht mit den Ansichten des Unternehmens übereinstimmten. Unter den aufstrebenden KI-Unternehmen sticht Meta hervor, das offen seine Technologie teilt, um gemeinschaftliche Lösungen für mögliche Probleme zu finden. Während heutige KI-Systeme Disinformation verbreiten und Arbeitsplätze gefährden können, gibt es wenig Beweise dafür, dass sie eine bedeutende Gefahr für die nationale Sicherheit darstellen. Studien von OpenAI und anderen Unternehmen bestätigen dies. Dennoch haben Forscher und Führungskräfte Bedenken, dass KI künftig neue Biowaffen erschaffen oder in Regierungssysteme einbrechen könnte. OpenAI und andere Unternehmen haben bereits begonnen, ihre technischen Operationen abzusichern. Ein neu geschaffenes Sicherheitskomitee von OpenAI, dem auch Paul Nakasone, ehemaliger Chef der NSA, angehört, erforscht, wie zukünftige Risiken gehandhabt werden sollen. Auch staatliche Regulierungen zur KI-Technologie sind in Planung. Chinesische Unternehmen entwickeln ebenfalls fast ebenso leistungsstarke Systeme wie die US-amerikanischen. Experten warnen, dass diese mathematischen Algorithmen, auch wenn sie heute harmlos erscheinen, künftig gefährlich werden könnten. "Selbst wenn die schlimmsten Szenarien unwahrscheinlich sind, tragen wir die Verantwortung, sie ernst zu nehmen", sagte Susan Rice, ehemalige Beraterin von Präsident Biden, bei einem Event im Silicon Valley letzten Monat.
EULERPOOL DATA & ANALYTICS

Make smarter decisions faster with the world's premier financial data

Eulerpool Data & Analytics