Révéler les obligations de confidentialité : OpenAI sous le feu des critiques du public

  • OpenAI met fin aux accords de confidentialité après des critiques publiques.
  • Exigence de mesures de protection renforcées pour les lanceurs d'alerte dans le secteur de l'IA.

Eulerpool News·

Au cours des cinq dernières années, OpenAI a recours à des accords de confidentialité pour empêcher les employés partants de critiquer publiquement l'entreprise. Cette pratique a conduit les employés actuels et anciens de l'entreprise à une peur paranoïaque de parler à la presse. Cette culture du silence a été brisée en mai lorsqu'un employé sortant a refusé de signer le document et s'est exprimé publiquement dans le New York Times. En réponse, OpenAI a présenté des excuses et a supprimé les accords, ce qui a provoqué une vague de critiques concernant les pratiques de sécurité de l'entreprise. Depuis, des initiés courageux risquent leur carrière pour informer le public. Pourtant, combien continuent de se taire par peur des représailles? Les mécanismes actuels de protection des lanceurs d'alerte ne s'appliquent qu'à la dénonciation de comportements illégaux, mais restent insuffisants face aux dangers potentiels de l'intelligence artificielle (IA). Des mesures de protection plus robustes, telles que celles en vigueur dans certaines parties du secteur public, de la finance et des entreprises cotées en bourse, sont nécessaires pour prévenir les représailles et mettre en place des canaux de signalement anonymes. L'année écoulée a été marquée par des scandales pour OpenAI. Le PDG a été brièvement licencié, car le conseil d'administration à but non lucratif a perdu confiance en lui. Des lanceurs d'alerte ont signalé à la SEC, l'autorité de régulation des marchés financiers américains, que les accords de confidentialité étaient illégaux. Des experts en sécurité ont quitté l'entreprise en masse. Actuellement, l'activité principale est en train d'être restructurée sur un modèle à but lucratif, ce qui semble motiver le départ de nouveaux cadres. Vendredi, le Wall Street Journal a rapporté qu'OpenAI avait précipité les tests d'un modèle important en mai, pour devancer la concurrence; après publication, il s'est avéré que le modèle dépassait les normes de sécurité internes. Officiellement, l'entreprise a expliqué que cela était dû à des erreurs méthodologiques. Une telle conduite serait préoccupante dans n'importe quel secteur, mais selon OpenAI elle-même, l'IA comporte des risques uniques. Des représentants et chercheurs de premier plan avertissent que cette technologie pourrait potentiellement anéantir l'humanité. Dans l'attente de réglementations nationales globales sur l'IA, il faut une loi fédérale stricte permettant aux employés de transmettre des informations au Congrès s'ils estiment qu'un modèle d'IA présente un risque de sécurité significatif. Le Congrès devrait désigner un inspecteur général spécial qui ferait office de point de contact pour ces lanceurs d'alerte. La loi devrait obliger les entreprises à informer leur personnel des canaux de signalement disponibles, qu'ils peuvent utiliser sans crainte de représailles. Ces mesures de protection sont essentielles pour un secteur travaillant avec une technologie exceptionnellement risquée, surtout lorsque les régulateurs n'ont pas encore rattrapé leur retard face à ces risques. Les personnes signalant des violations de la loi sur l'énergie atomique bénéficient de mesures de protection des lanceurs d'alerte plus solides que dans la plupart des autres métiers. Les employés travaillant avec des toxines biologiques dans divers départements gouvernementaux sont protégés par des politiques proactives et favorables aux signalements. Les travailleurs de l'IA ont besoin de réglementations similaires.
Eulerpool Data & Analytics

Modern Financial Markets Data
Better  · Faster  · Cheaper

The highest-quality data scrubbed, verified and continually updated.

  • 10m securities worldwide: equities, ETFs, bonds
  • 100 % realtime data: 100k+ updates/day
  • Full 50-year history and 10-year estimates
  • World's leading ESG data w/ 50 billion stats
  • Europe's #1 news agency w/ 10.000+ sources

Get in touch

Save up to 68 % compared to legacy data vendors