AI

OpenAI présente un concept de sécurité complet pour les applications d'IA

OpenAI présente un concept de sécurité qui divise l'évaluation de leur technologie d'IA en quatre catégories afin de répondre aux inquiétudes concernant les dangers potentiels.

Eulerpool News 19 déc. 2023, 20:00

L'évolution de l'intelligence artificielle (IA) progresse rapidement et fascine le public par ses capacités impressionnantes. Cependant, les préoccupations concernant les éventuels dangers de cette technologie augmentent également.

En réponse à cette préoccupation, le fabricant renommé de ChatGPT, OpenAI, a maintenant présenté un concept de sécurité pour ses modèles d'IA les plus avancés. Ce concept divise l'évaluation de l'IA en quatre catégories : cybersécurité, menace atomique, chimique, biologique ou radiologique, pouvoir de persuasion et autonomie. Chaque catégorie est associée à l'une des quatre niveaux de risque, allant de "faible" à "critique", en fonction de critères spécifiques.

Comme exemple d'un degré critique d'autonomie, on cite un modèle d'IA capable de mener des recherches en IA de manière autonome, déclenchant ainsi un "processus incontrolable d'amélioration de soi" appelé "explosion d'intelligence".

Pour évaluer le risque d'une IA, OpenAI recommande des évaluations avant et après la mise en place de mesures de sécurité. La classification globale du modèle correspond alors au niveau de risque le plus élevé dans l'une des catégories.

L'entreprise souligne que seuls les modèles d'IA pour lesquels le niveau de risque atteint au maximum "moyen" après la mise en place des mesures de sécurité doivent être utilisés. De plus, seuls les modèles pour lesquels aucun risque classé comme "critique" n'a été identifié peuvent être développés davantage.

Afin de garantir le respect de ces directives, plusieurs groupes sont mis en place pour la surveillance et le conseil. Le conseil d'administration a le pouvoir de passer outre les décisions de la direction du groupe.

OpenAI suscite déjà depuis plus d'un an l'attention avec son logiciel de chatbot basé sur l'IA, ChatGPT, qui illustre les récents progrès de l'IA générative. Cependant, malgré l'enthousiasme suscité par ces avancées, des préoccupations persistent quant aux dangers potentiels, car l'IA possède des capacités similaires à celles des humains, telles que l'écriture de textes, l'analyse de données et la génération d'images.

Cela est également partagé par la population, comme l'a révélé un sondage de Reuters/Ipsos en mai : 61% des citoyens américains pensent que l'IA pourrait menacer la civilisation humaine.

Reconnaissez les actions sous-évaluées en un coup d'œil.
20 million companies worldwide · 50 year history · 10 year estimates · leading global news coverage

Abonnement pour 2 € / mois

Nouvelles