Open source AI : Un exercice d'équilibre entre transparence et sécurité

Le développement des systèmes d'IA ouverts s'accélère, mais rencontre des défis en termes de transparence et de sécurité.

24/08/2024 15:44
Eulerpool News 24 août 2024, 15:44

L'évolution de l'intelligence artificielle (IA) open-source a considérablement gagné en dynamisme ces derniers mois. Dans un environnement où des entreprises comme OpenAI et Google investissent des milliards dans des systèmes d'IA toujours plus performants, les modèles ouverts ont fait des progrès remarquables. Pourtant, malgré ce succès apparent, une faiblesse centrale se révèle : beaucoup de ces soi-disant systèmes open-source ne sont en réalité que partiellement ouverts.

Un exemple notable est Llama de Meta. Bien que les « poids » qui déterminent comment le modèle réagit aux requêtes soient divulgués, les données d'entraînement sous-jacentes restent cachées. Cela permet aux développeurs d'ajuster le modèle, mais il manque la transparence nécessaire pour recréer le modèle à partir de zéro.

Pour les développeurs, cette ouverture limitée présente néanmoins des avantages. Ils peuvent adapter des modèles quasi-ouverts et les entraîner avec leurs propres données, sans devoir divulguer des informations sensibles à des entreprises tierces. Cependant, ces limitations ont un prix. Ayah Bdeir, conseillère principale de la Fondation Mozilla, souligne que seules les technologies véritablement ouvertes permettent une compréhension globale des systèmes qui influencent de plus en plus tous les aspects de notre vie. De plus, seuls des systèmes réellement ouverts peuvent garantir que l'innovation et la concurrence ne soient pas étouffées par quelques entreprises d'IA dominantes.

En réponse, l’Open Source Initiative, qui a établi la définition du logiciel open source il y a plus de 20 ans, a présenté une définition quasi finale de l’IA open source. Cette définition exige non seulement la publication des « poids », mais aussi des informations suffisantes sur les données d’entraînement et le code sous-jacent pour pouvoir reproduire le modèle.

Diese Bewegung führt bereits zu einer stärkeren Segmentierung in der KI-Welt. Viele Unternehmen gehen vorsichtiger mit ihrer Terminologie um, um rechtlichen Auseinandersetzungen zu entgehen. So bezeichnet Mistral sein Modell Nemo als „Open Weights“ und vermeidet bewusst den Begriff „Open Source“.

Cette tendance conduit déjà à une segmentation accrue dans le monde de l'IA. De nombreuses entreprises sont plus prudentes avec leur terminologie pour éviter les litiges juridiques. Ainsi, Mistral qualifie son modèle Nemo de « poids ouverts » et évite consciemment le terme « open source ».

Alors que des systèmes partiellement ouverts s'imposent, des modèles complètement ouverts comme le modèle linguistique Olmo de l'Allen Institute for AI émergent également. Cependant, il reste à voir si ceux-ci auront vraiment le même impact sur le monde de l'IA que les logiciels open-source ont eu sur le secteur technologique.

Pour une percée des modèles d'IA ouverts, deux éléments seraient nécessaires.

Deuxièmement, les partisans de l'IA ouverte devraient avancer des arguments plus convaincants en faveur de sa sécurité. La perspective de rendre une technologie si puissante et générale accessible à tous suscite des préoccupations légitimes. Cependant, Oren Etzioni, ancien directeur de l'Allen Institute, considère que nombre de ces craintes sont exagérées. Il soutient que les informations rendues accessibles par les modèles d'IA ne sont pas fondamentalement différentes de celles déjà disponibles via Google.

Jusqu'à ce que les risques et avantages potentiels de la mise à disposition ouverte de la technologie de l'IA soient étudiés plus en profondeur, les préoccupations resteront néanmoins.

Reconnaissez les actions sous-évaluées en un coup d'œil.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Abonnement pour 2 € / mois

Nouvelles