Les plus grandes entreprises technologiques du monde se sont lancées dans une dernière tentative pour persuader l’Union européenne (UE) d’adopter une approche légère en matière de réglementation de l’intelligence artificielle, alors qu’elles cherchent à éviter le risque de milliards de dollars d’amendes.
Les législateurs de l’UE se sont mis d’accord en mai sur l’IA Act, le premier ensemble complet de règles au monde régissant cette technologie, après des mois de négociations intenses entre différents groupes politiques.
Cependant, jusqu’à ce que les codes de pratique accompagnant la loi soient finalisés, on ne sait pas encore avec quelle rigueur les règles concernant les systèmes d’IA « à usage général » (GPAI), tels que ChatGPT d’OpenAI, seront appliquées, ni combien de poursuites pour violation de droits d’auteur et d’amendes de plusieurs milliards de dollars les entreprises pourraient encourir.
L’UE a invité des entreprises, des universitaires et d’autres parties prenantes à contribuer à la rédaction du code de bonnes pratiques, et a reçu près de 1 000 candidatures, un nombre inhabituellement élevé selon une source proche du dossier qui a requis l’anonymat car elle n’était pas autorisée à s’exprimer publiquement.
Le code de bonnes pratiques de l’IA ne sera pas juridiquement contraignant lorsqu’il entrera en vigueur à la fin de l’année prochaine, mais il fournira aux entreprises une liste de contrôle qu’elles pourront utiliser pour démontrer leur conformité. Une entreprise qui prétend respecter la loi tout en ignorant le code pourrait faire face à une contestation judiciaire.
« Le code de conduite est crucial. Si nous le mettons en œuvre correctement, nous pourrons continuer à innover », a déclaré Boniface de Champris, responsable politique senior de l’organisation professionnelle CCIA Europe, dont les membres incluent Amazon, Google et Meta.
« Si c’est trop étroit ou trop spécifique, cela deviendra très difficile », a-t-il ajouté.
Des entreprises telles que Stability AI et OpenAI ont dû se demander si l’utilisation de livres à succès ou d’archives photographiques pour former leurs modèles sans l’autorisation de leurs créateurs constituait une violation du droit d’auteur.
En vertu de la loi sur l’IA, les entreprises seront obligées de fournir des « résumés détaillés » des données utilisées pour former leurs modèles. En théorie, un créateur de contenu qui découvre que son travail a été utilisé pour former un modèle d’IA peut demander une compensation, même si cette question est actuellement examinée par les tribunaux.
Certains chefs d’entreprise ont fait valoir que les résumés requis devraient contenir un minimum de détails afin de protéger les secrets commerciaux, tandis que d’autres affirment que les titulaires de droits d’auteur ont le droit de savoir si leur contenu a été utilisé sans autorisation.
OpenAI, qui a été critiqué pour avoir refusé de répondre aux questions sur les données utilisées pour former ses modèles, a également demandé à rejoindre les groupes de travail, selon une personne familière du dossier, qui a refusé d’être nommée.
Google a également déposé une demande, a déclaré un porte-parole à Reuters. Amazon a quant à lui déclaré espérer « apporter son expertise et garantir le succès du code de bonnes pratiques ».
Maximilian Gahntz, responsable de la politique d’IA à la Fondation Mozilla, l’organisation à but non lucratif à l’origine du navigateur Web Firefox, s’est dit préoccupé par le fait que les entreprises « font tout leur possible pour éviter la transparence ».
« La loi sur l’IA représente la meilleure chance de mettre en lumière cet aspect crucial et d’éclaircir au moins une partie de la boîte noire », a-t-il déclaré.
Certains acteurs du monde des affaires ont critiqué l’UE pour avoir donné la priorité à la réglementation technologique plutôt qu’à l’innovation, et ceux chargés de rédiger le texte du code de bonnes pratiques s’efforceront de trouver un compromis.
La semaine dernière, l’ancien président de la Banque centrale européenne, Mario Draghi, a déclaré que le bloc avait besoin d’une politique industrielle mieux coordonnée, d’une prise de décision plus rapide et d’investissements massifs pour suivre le rythme de la Chine et des États-Unis.
Thierry Breton, fervent défenseur de la réglementation européenne et critique des entreprises technologiques non conformes, a quitté son poste de commissaire européen au marché intérieur cette semaine après s’être heurté à Ursula von der Leyen, la présidente de l’exécutif de l’Union.
Dans un contexte de protectionnisme croissant au sein de l’UE, les entreprises technologiques locales espèrent que des exceptions seront introduites dans la loi sur l’IA pour bénéficier aux entreprises européennes émergentes.
« Nous avons insisté sur le fait que ces obligations doivent être gérables et, si possible, adaptées aux startups », a déclaré Maxime Ricard, responsable politique chez Allied for Startups, un réseau d’organisations commerciales représentant les petites entreprises technologiques.
Une fois le code publié au cours du premier semestre de l’année prochaine, les entreprises technologiques auront jusqu’en août 2025 avant que leurs efforts de conformité ne commencent à être évalués par rapport à celui-ci.
Des organisations à but non lucratif, dont Access Now, le Future of Life Institute et Mozilla, ont également demandé à contribuer à la rédaction du code.
Gahntz a déclaré : « Alors que nous entrons dans la phase où de nombreuses obligations de la loi sur l’IA sont énoncées plus en détail, nous devons veiller à ne pas permettre aux grands acteurs de l’IA d’édulcorer d’importants mandats de transparence. »