AI

27/11/2023 18:00

Deux semaines décisives : l'orientation de l'avenir de l'IA en Allemagne.

Des entreprises allemandes telles que SAP, Siemens et Aleph Alpha cherchent à influencer le futur règlement européen sur l'intelligence artificielle (AI Act), dont le succès reste incertain.

Des entreprises allemandes telles que SAP, Siemens et Aleph Alpha mettent actuellement tout en œuvre pour influencer le AI Act européen. Ce règlement sur l'intelligence artificielle (IA) est une tentative de l'Union européenne de créer des règles pour une technologie en rapide évolution. Toutefois, cette tentative soulève une série de conflits et pourrait même échouer à être adoptée comme prévu dans 14 jours.

Pourquoi donc des entreprises allemandes telles que Porsche, SAP et Siemens réclament-elles des réglementations pour l'IA alors qu'elles en bénéficient elles-mêmes? Et sur quels points les négociations sur l'Acte de l'IA pourraient-elles encore échouer?

Lors du sommet KI de Handelsblatt, Mattias Ulbrich, le directeur informatique de Porsche, a fait un appel pressant pour une régulation équilibrée : "Nous avons besoin de réglementation dans le domaine de l'intelligence artificielle, mais nous devons veiller à l'équilibre afin de ne pas freiner les innovations." Jonas Andrulis, PDG d'Aleph Alpha, la start-up leader en IA en Allemagne, avertit également des conséquences possibles : "Cela pourrait se terminer d'une manière qui serait existentielle pour nous."

Le « AI Act » vise à réglementer, entre autres, les conditions de développement et d'utilisation de l'IA, tout en protégeant les consommateurs. Cependant, du point de vue de l'industrie, des règles trop strictes pourraient menacer la compétitivité de l'Allemagne dans cette technologie clé. Néanmoins, le développement technologique a dépassé les discussions réglementaires à Bruxelles ces derniers mois. Par conséquent, les législateurs tentent maintenant de répondre aux risques en urgence.

La ligne de conflit se dessine principalement autour d'une question centrale : Le règlement sur l'IA devrait-il également réglementer les modèles de base de l'IA ? Ces modèles, qui comprennent des grands modèles de langage tels que OpenAI GPT-4 et Aleph Alpha Luminous, permettent aux machines d'utiliser le langage naturel. Selon les fournisseurs eux-mêmes, ces modèles ne présentent pas de risque intrinsèque, ce qui implique que la régulation devrait commencer à s’appliquer à des applications concrètes telles que dans le domaine de la santé ou du service client.

Actuellement, le Parlement européen plaide en particulier pour des règles plus complètes qui engloberaient également les modèles de base en IA. Avec l'approche dite "à deux niveaux", ils souhaitent réguler les modèles d'IA performants, en exigeant que les fournisseurs engagent des prestataires de services externes pour tester leurs systèmes à la recherche de vulnérabilités. Une méthode controversée, car selon des développeurs d'IA tels qu'Aleph Alpha, les filtres de sécurité ne peuvent être mis en place qu'au niveau de l'application.

La scène des start-ups en Allemagne joue un rôle particulier dans les efforts de régulation, notamment Aleph Alpha et son concurrent français Mistral. Mais les gouvernements de Berlin et de Paris placent également de grands espoirs dans leurs start-ups dans la course technologique mondiale et craignent une surrégulation qui ne servirait pas leur intérêt politique. Cela pourrait donner un avantage aux conglomérats technologiques bien capitalisés des États-Unis et de Chine, capables de répondre plus facilement aux exigences élevées de sécurité.

Dans une lettre commune adressée à la Chancellerie fédérale, au Ministère fédéral de l’Économie et de l’Énergie et au Ministère du Numérique, les groupes du DAX tels que SAP et Siemens ainsi que le Forum économique du SPD expriment leurs inquiétudes concernant une possible surréglementation. Par exemple, SAP développe un assistant IA qui, grâce à la technologie de Microsoft, rédige automatiquement des descriptions de postes. C'est pourquoi l'entreprise a besoin d'accéder aux modèles de base de différents fournisseurs pour pouvoir opérer dans le respect des lois.

Les gouvernements de l'Allemagne, de la France et de l'Italie ont donc publié un soi-disant non-paper qui tient compte des préoccupations de l'industrie. Selon ce document, les modèles de base devraient simplement être soumis à un code de conduite, mais les fournisseurs doivent rendre transparents dans des "fiches modèle" la manière dont leurs modèles ont été entraînés. Toutefois, le Parlement européen réitère sa demande de réglementation des modèles de base et n'est pas seul dans cette démarche. De nombreux experts mettent en garde contre les dangers associés à l'utilisation des Modèles de Fondation.

L'organisation Algorithm Watch a donc, en collaboration avec l'Université d'Amsterdam, formulé des propositions pour compléter le Règlement sur l'IA. Celles-ci vont d'une évaluation obligatoire des impacts de la technologie sur les droits de l'homme à un accès aux données garanti pour les chercheurs et la société civile.

Lors du Sommet numérique du gouvernement fédéral à Iéna, le ministre fédéral de l'Économie Robert Habeck et le ministre du Numérique Volker Wissing ont également souligné l'énorme potentiel de l'IA. Cependant, ils ont également averti de ne pas perdre de vue les opportunités et ont souligné la nécessité d'adapter constamment les réglementations sans entraver le développement de la technologie.

L'Union européenne souhaite saisir l'occasion de fixer des normes mondiales pour la régulation de l'IA. Cependant, il faut agir rapidement car la présidence du Conseil va changer à la fin de l'année et les élections européennes auront lieu dès l'été. L'opportunité de créer un cadre réglementaire unifié pour la régulation de l'IA ne doit pas être manquée.

Reconnaissez les actions sous-évaluées en un coup d'œil.

Abonnement pour 2 € / mois

Nouvelles