AI

Medarbejdere fra OpenAI og DeepMind kræver mere gennemsigtighed

OpenAI- og DeepMind-medarbejdere kræver bedre beskyttelse af whistleblowere – frygten for gengældelsesforanstaltninger vokser.

Eulerpool News 5. jun. 2024, 08.24

En gruppe af nuværende og tidligere ansatte hos førende AI-virksomheder som OpenAI og DeepMind har i et åbent brev påpeget manglende beskyttelse for whistleblowere og frygt for repressalier.

Mere end et dusin nuværende og tidligere medarbejdere fra OpenAI, Googles DeepMind og Anthropic krævede i et offentliggjort brev tirsdag, at AI-virksomheder skal skabe sikre rapporteringskanaler for medarbejdere, så de kan udtrykke bekymringer både internt og offentligt. Ifølge underskriverne blokerer fortrolighedsaftaler den offentlige diskussion om potentielle farer ved AI.

„De personer med mest viden om, hvordan KI-systemer fungerer, og de dermed forbundne risici, kan ikke tale frit“, sagde William Saunders, en tidligere OpenAI-medarbejder, som underskrev brevet.

Neben Saunders haben sechs weitere ehemalige OpenAI-Mitarbeiter den Brief unterzeichnet. Außerdem haben vier aktuelle OpenAI-Mitarbeiter sowie ein ehemaliger und ein aktueller Mitarbeiter von DeepMind ihre Namen hinzugefügt. Sechs der Unterzeichner blieben anonym.

Translated to Danish:
Udover Saunders har seks tidligere OpenAI-medarbejdere underskrevet brevet. Derudover har fire nuværende OpenAI-medarbejdere samt en tidligere og en nuværende medarbejder fra DeepMind tilføjet deres navne. Seks af underskriverne forblev anonyme.

Tre førende AI-eksperter støttede brevet: AI-forskeren Stuart Russell samt Yoshua Bengio og Geoffrey Hinton, der er kendt som 'Gudfædre af AI' på grund af deres tidlige banebrydende forskning. Hinton forlod Google sidste år for at kunne tale mere frit om teknologiens risici.

Hinton og andre har i årevis advaret om de potentielle farer ved KI for menneskeheden. Nogle KI-forskere frygter, at teknologien kan komme ud af kontrol og blive så farlig som pandemier eller nukleare krige. Andre er mere moderate i deres bekymringer, men kræver alligevel mere regulering af KI.

OpenAI var enige i et svar på brevet tirsdag om, at der burde være statslig regulering. "Vi er stolte af vores succes med at levere de mest kapable og sikre AI-systemer og tror på vores videnskabelige tilgang til risikohåndtering," sagde en talskvinde fra OpenAI. "Vi er enige om, at en grundig debat er afgørende i lyset af vigtigheden af denne teknologi, og vi vil fortsætte med at samarbejde med regeringer, civilsamfundet og andre fællesskaber verden over.

DeepMind og Anthropic, som er støttet af Amazon, reagerede ikke på forespørgsler om kommentarer tirsdag.

OpenAI, en startup grundlagt i 2015, udgav ChatGPT til offentligheden i 2022. Chatbotten blev et af de mest virale AI-produkter og hjalp med at gøre OpenAI til en milliardvirksomhed. Sam Altman, lederen af OpenAI og en af arkitekterne bag AI-revolutionen, har erklæret, at han ønsker at udvikle teknologien sikkert.

De underskrivere af brevet tirsdag sagde, at nuværende og tidligere medarbejdere er blandt de få, der kan holde virksomhederne ansvarlige, da der ikke er nogen omfattende statslig tilsyn med AI-virksomheder. En af deres bekymringer er, at mennesker kan miste kontrollen over autonome AI-systemer, som igen kunne udslette menneskeheden.

De underskrivere opfordrer virksomhederne til at give medarbejderne mulighed for anonyme rapporteringsveje, ikke at gå imod whistleblowere og ikke at tvinge dem til aftaler, der kan bringe dem til tavshed. De ønsker, at AI-virksomheder bliver mere gennemsigtige og fokuserer mere på sikkerhedsforanstaltninger.

OpenAI erklærede tirsdag, at der findes en anonym integritetshotline, og at ingen teknologi frigives, før de nødvendige sikkerhedsforanstaltninger er truffet.

Den tidligere OpenAI-medarbejder Daniel Kokotajlo, der også underskrev brevet, sagde, at virksomhederne ignorerer risikoen ved KI i deres kapløb om at udvikle teknologien. "Jeg besluttede at forlade OpenAI, fordi jeg mistede håbet om, at de ville handle ansvarligt, især med hensyn til forfølgelsen af kunstig generel intelligens," sagde han. "De og andre har taget 'Bevæg dig hurtigt og ødelæg ting'-mentaliteten til sig, og det er det modsatte af, hvad der er nødvendigt for en så kraftfuld og dårligt forstået teknologi.

Professional-grade financial intelligence

20M+ securities. Real-time data. Institutional insights.

Trusted by professionals at Goldman Sachs, BlackRock, and JPMorgan

Nyheder