L’Europe face au défi de l’IA générative
Alors que l’intelligence artificielle générative bouleverse les modèles de création, d’information et de production logicielle, l’Union européenne tente de construire un cadre cohérent conciliant innovation et protection des droits. Entre le mécanisme d’opt-out prévu par la directive 2019/790, l’entrée en vigueur du Règlement européen sur l’IA (RIA, ou AI Act) et la perspective d’un registre unifié des droits d’auteur, l’écosystème se réorganise à grande vitesse. Un chantier stratégique pour la souveraineté numérique européenne.
Un cadre juridique encore jeune mais déjà central : la directive 2019/790
Adoptée en 2019, la directive européenne sur le droit d’auteur dans le marché unique numérique (dite directive DSM) avait anticipé l’essor de la fouille de textes et de données (Text and Data Mining, TDM), l’un des moteurs essentiels de l’intelligence artificielle. Elle introduit deux exceptions majeures au droit d’auteur : l’une réservée à la recherche scientifique, l’autre ouverte à tous les acteurs, y compris les entreprises technologiques.
Pour cette deuxième exception, la directive instaure un mécanisme clé : l’opt-out. Les titulaires de droits peuvent s’opposer à ce que leurs œuvres soient utilisées dans des opérations de TDM à des fins commerciales – dont l’entraînement de modèles d’IA – à condition d’exprimer cette opposition de manière explicite et lisible par machine. Il peut s’agir de métadonnées, de balises HTTP ou de règles dans un fichier robots.txt, intégrées avant toute extraction de données.
Ce mécanisme crée un double paradigme : le TDM est autorisé par défaut, mais peut être limité sans contournement juridique complexe. En théorie, il garantit aux créateurs la maîtrise de l’usage de leurs contenus. En pratique, son efficacité dépend du respect volontaire des entreprises d’IA et de la capacité des titulaires de droits à signaler correctement leurs œuvres.
La montée en puissance de l’IA générative redistribue les cartes
Entre 2019 et 2024, l’arrivée de modèles génératifs comme GPT-4, Claude, Llama ou Stable Diffusion a profondément modifié l’équation. Les modèles ont été entraînés sur des volumes massifs de données dont l’origine est difficile à tracer, et dont une partie était protégée par le droit d’auteur. Cette situation a accentué les tensions entre détenteurs de droits et entreprises d’IA, menant à des plaintes médiatisées et à une pression politique accrue.
C’est dans ce contexte que l’AI Act, adopté en 2024, a introduit des obligations nouvelles pour les fournisseurs de modèles d’IA à usage général. Ils devront notamment documenter les sources des jeux de données soumis au droit d’auteur, mettre en place des mesures de transparence et assurer le respect des opt-outs. Pour les modèles dits « à haut impact », ces exigences sont encore renforcées.
Ce nouveau cadre complète la directive DSM et en renforce l’application. Il ouvre également la voie à une harmonisation plus large, indispensable pour rendre le droit effectif dans un écosystème d’IA globalisé.
Des solutions déjà en œuvre pour protéger les œuvres et encadrer l’entraînement des modèles
Les créateurs et les éditeurs disposent déjà de plusieurs moyens techniques pour signaler qu’ils refusent que leurs contenus soient utilisés dans l’entraînement des modèles d’IA. Ils peuvent, par exemple, indiquer cette opposition directement dans les fichiers de leur site ou intégrer des informations spécifiques dans leurs images ou leurs pages web. Depuis 2024, les principaux développeurs de modèles d’IA, comme OpenAI, Google DeepMind, Anthropic ou Stability AI, affirment tenir compte de ces signaux et les respecter lorsqu’ils collectent des données.
En parallèle, certaines entreprises ont choisi de sécuriser l’utilisation de contenus protégés par des accords de licence conclus directement avec les titulaires de droits. C’est le cas notamment des partenariats entre OpenAI et Associated Press, ou encore entre Stability AI et Getty Images. Ces accords apportent un cadre clair et permettent d’envisager une rémunération plus juste des ayants droit lorsque leurs œuvres servent à entraîner des modèles.
La question de la traçabilité progresse elle aussi, grâce aux initiatives de « content provenance ». Des acteurs comme Adobe, Microsoft, Intel ou la BBC développent des standards permettant d’identifier l’origine d’un contenu et les modifications qu’il a subies. Grâce à des signatures numériques intégrées dès la création d’une œuvre, il devient possible de vérifier si celle-ci a été utilisée dans des jeux d’entraînement.
Enfin, plusieurs outils permettent aux artistes de contrôler l’usage de leurs œuvres. Certains services, comme Have I Been Trained ou Content Credentials, offrent la possibilité de repérer si une image ou une création apparaît dans des bases de données publiques destinées à l’IA et, le cas échéant, de demander son retrait.
Vers un registre européen des droits d’auteur dédié à l’IA
Consciente des limites d’un système fondé sur la seule bonne volonté des entreprises d’IA, la Commission européenne travaille désormais à la création d’un registre unifié des droits d’auteur pour l’intelligence artificielle. Ce registre, potentiellement piloté par l’EUIPO, aurait trois finalités principales : centraliser les opt-outs, garantir la traçabilité juridique des œuvres et faciliter la mise en conformité des modèles d’IA.
Un tel dispositif faciliterait également le développement de mécanismes de licences automatisées, ouvrant la voie à une rémunération transparente et harmonisée des créateurs lorsque leurs œuvres sont utilisées pour entraîner des systèmes d’IA. Les premières expérimentations sont attendues d’ici fin 2025, avec une mise en œuvre progressive entre 2026 et 2027.
Un paysage en transition, entre régulation et innovation
L’Europe est en train de bâtir un cadre unique au monde, visant à concilier la protection des droits d’auteur, la souveraineté technologique et le développement responsable de l’intelligence artificielle. Si l’opt-out, tel que défini par la directive 2019/790, constitue une première brique, sa pleine efficacité repose sur l’évolution des pratiques industrielles et sur la structuration d’un registre centralisé.
À l’heure où les modèles d’IA deviennent un rouage essentiel de l’économie numérique, cette architecture réglementaire représente un enjeu stratégique majeur : garantir une innovation qui respecte la création, renforce la confiance et affirme la capacité de l’Europe à définir ses propres standards.
La décision du Tribunal de Munich, un signal fort pour la traçabilité et le respect du droit d’auteur
Cette question de la traçabilité et de l’usage licite des œuvres prend une dimension nouvelle avec la récente décision du tribunal de Munich, première condamnation européenne visant directement l’entraînement d’un modèle d’IA. La justice allemande a estimé qu’OpenAI avait enfreint le droit d’auteur en intégrant, puis en restituant presque à l’identique, des paroles de chansons protégées. La plainte avait été déposée par la société de gestion collective GEMA, qui reprochait à l’entreprise d’avoir utilisé plusieurs œuvres sans autorisation. En reconnaissant la responsabilité directe d’OpenAI, le tribunal met fin à une zone d’ombre juridique : celle de la provenance réelle des données utilisées pour entraîner les modèles. Cette décision, qui intervient alors que l’Union européenne s’apprête à déployer les obligations de transparence du AI Act, pourrait faire jurisprudence et encourager d’autres autorités nationales à s’emparer du sujet. Elle confirme surtout que l’encadrement de l’IA ne peut plus être dissocié du respect du droit d’auteur, de la maîtrise des données et de la capacité de l’Europe à imposer ses standards face à des technologies dont l’évolution dépasse encore largement le cadre juridique.
