AI

Des employés d'OpenAI et de DeepMind exigent plus de transparence

OpenAI et des employés de DeepMind demandent une meilleure protection pour les lanceurs d'alerte – La crainte de représailles augmente.

Eulerpool News 5 juin 2024, 08:24

Un groupe d'employés actuels et anciens des entreprises leaders en IA, OpenAI et DeepMind, a souligné dans une lettre ouverte le manque de protection des lanceurs d'alerte et la peur des représailles.

Plus d'une douzaine de salariés actuels et anciens d'OpenAI, Google DeepMind et Anthropic ont demandé mardi, dans une lettre publiée, que les entreprises d'IA créent des voies de signalement sécurisées pour que les employés puissent exprimer leurs préoccupations à la fois en interne et en public. Selon les signataires, les accords de confidentialité empêchent les discussions publiques sur les dangers potentiels de l'IA.

« Les personnes ayant le plus de connaissances sur le fonctionnement des systèmes d'IA et les risques associés ne peuvent pas s'exprimer librement », a déclaré William Saunders, un ancien employé d'OpenAI qui a signé la lettre.

Outre Saunders, six autres anciens employés d'OpenAI ont signé la lettre. De plus, quatre employés actuels d'OpenAI ainsi qu'un ancien et un actuel employé de DeepMind ont ajouté leurs noms. Six des signataires sont restés anonymes.

Trois principaux experts en IA ont soutenu la lettre : le scientifique en IA Stuart Russell ainsi que Yoshua Bengio et Geoffrey Hinton, connus pour leurs recherches de pointe comme les « Pères de l'IA ». Hinton a quitté Google l'année dernière pour pouvoir parler plus librement des risques de la technologie.

Hinton et d'autres avertissent depuis des années des dangers potentiels de l'IA pour l'humanité. Certains chercheurs en IA craignent que la technologie ne devienne incontrôlable et aussi dangereuse que les pandémies ou les guerres nucléaires. D'autres sont plus modérés dans leurs préoccupations, mais demandent néanmoins une régulation accrue de l'IA.

OpenAI stimmte in einer Reaktion auf den Brief am Dienstag zu, dass es staatliche Regulierung geben sollte.
„Nous sommes fiers de notre expérience en matière de fourniture des systèmes d'IA les plus compétents et les plus sûrs, et nous croyons en notre approche scientifique de la gestion des risques“, a déclaré une porte-parole d'OpenAI. „Nous convenons qu'un débat rigoureux est essentiel compte tenu de l'importance de cette technologie, et nous continuerons de collaborer avec les gouvernements, la société civile et d'autres communautés à travers le monde.“

DeepMind et Anthropic, soutenu par Amazon, n'ont pas répondu aux demandes de commentaires mardi.

OpenAI, une startup fondée en 2015, a lancé ChatGPT pour le grand public en 2022. Le chatbot est devenu l'un des produits d'IA les plus viraux et a contribué à faire d'OpenAI une entreprise milliardaire. Sam Altman, le responsable d'OpenAI et l'un des architectes de la révolution de l'IA, a déclaré qu'il souhaite développer cette technologie en toute sécurité.

Les signataires de la lettre de mardi ont déclaré que les employés actuels et anciens font partie des rares personnes capables de demander des comptes aux entreprises, en raison de l'absence d'une surveillance gouvernementale complète des entreprises d'IA. L'une de leurs préoccupations est que les humains puissent perdre le contrôle des systèmes d'IA autonomes, qui pourraient à leur tour anéantir l'humanité.

Les signataires demandent aux entreprises de permettre des voies de signalement anonymes pour les employés, de ne pas poursuivre les lanceurs d'alerte et de ne pas les forcer à signer des accords susceptibles de les faire taire. Ils souhaitent que les entreprises d'IA deviennent plus transparentes et se concentrent davantage sur les mesures de sécurité.

OpenAI a déclaré mardi qu'il existe une ligne d'assistance anonyme pour l'intégrité et qu'aucune technologie ne sera déployée avant que les mesures de sécurité nécessaires ne soient mises en place.

L'ancien employé d'OpenAI, Daniel Kokotajlo, qui a également signé la lettre, a déclaré que les entreprises ignoraient les risques de l'IA dans leur course au développement de la technologie. "J'ai décidé de quitter OpenAI parce que j'ai perdu l'espoir qu'ils agiraient de manière responsable, en particulier dans la poursuite de l'intelligence générale artificielle", a-t-il déclaré. "Eux et d'autres ont adopté la mentalité 'Move fast and break things', et cela est l'opposé de ce qui est nécessaire pour une technologie aussi puissante et mal comprise.

Professional-grade financial intelligence

20M+ securities. Real-time data. Institutional insights.

Trusted by professionals at Goldman Sachs, BlackRock, and JPMorgan

Nouvelles