L’inquiétude est grande dans le monde de la culture et des médias. Les promesses de transparence sur l’utilisation des contenus par l’IA peinent à se concrétiser. Des organisations envisagent des poursuites en justice.
Après le champagne, la « gueule de bois ». C’est une certaine inquiétude qui prévaut dans le monde de la culture et des médias, à l’approche de l’entrée en vigueur de dispositions de l’AI Act, le règlement européen sur l’intelligence artificielle. Et, certains commencent même à envisager le coup d’après : des poursuites en justice.
Le satisfecit des organisations de la presse, de la musique ou de l’audiovisuel, peu après le feu vert de l’Europe sur la grande réglementation sur l’intelligence artificielle, il y a un peu plus d’un an, semble désormais bien loin.
Mission et concertation
Le sujet est au coeur de l’actualité en France : dans le cadre de la mission « relative à la rémunération des contenus culturels utilisés par les systèmes d’intelligence artificielle », les rapports d’Alexandra Bensamoun, professeure à Paris-Saclay et Joëlle Farchy, professeure à Paris 1 Panthéon-Sorbonne seront présentés, ce lundi, au Conseil supérieur de la propriété littéraire et artistique.
Parallèlement, Rachida Dati, la ministre de la Culture, et Clara Chappaz, la ministre déléguée chargée de l’IA, ont lancé, il y a quelques semaines, une concertation réunissant acteurs de l’IA et monde de la culture, sur la question épineuse de la rémunération, « pour faciliter la conclusion d’accords et des outils communs », explique le cabinet de Clara Chappaz.
Pour autant, au niveau de la loi, ça « coince » un peu. À quelques semaines de la mise en oeuvre effective de mesures de l’AI Act, les craintes sont fortes sur la portée réelle du texte. Dit autrement, les grands principes existent mais, comme souvent, le diable est dans les détails.
Vers un report ?
Explication : le projet prévoit différentes dates d’entrée en vigueur. « Plusieurs obligations prévues par l’AI Act, notamment celles relatives à la protection des droits d’auteur dans le cadre des modèles d’intelligence artificielle à usage général, comme ChatGPT, deviendront applicables dès le 2 août », rappelle Patrice Navarro, avocat associé chez Clifford Chance.
Mais des précisions figurent dans des documents connexes, notamment le niveau de transparence attendu dans le « template » et le « code of practice »… que l’on attend toujours. « Concrètement, en l’absence du Code de conduite et du modèle de résumé des données d’entraînement, la pleine application des exigences de transparence relatives aux contenus utilisés par les systèmes d’intelligence artificielle serait fortement compromise. »
À ce stade, difficile de savoir si les textes seront prêts à temps – sachant qu’en plus, le code de conduite doit être signé par les acteurs de l’IA. Du côté du cabinet de Clara Chappaz, on se veut pragmatique : « On ne change pas d’ambition, et il est nécessaire qu’il y ait un équilibre entre acteurs de l’IA et titulaires de droits. Mais plutôt que de faire les choses dans la précipitation, s’il y a besoin de quelques semaines, prenons-les », explique l’entourage de la ministre. Quant à la Commission européenne, elle précise qu’« a priori », le planning devrait être respecté.
« On ne croit plus à l’efficacité des dispositifs européens »
Dans le détail, l’AI Act prévoit que les modèles d’IA générative donnent un résumé « suffisamment détaillé » des données utilisées pour s’entraîner. En clair, dire si le modèle a eu recours à des articles de presse, des morceaux de musique, des scénarios, des livres, etc. « Mais les travaux pour l’application de cette disposition dans le ‘template’ » ne vont pas dans le bon sens, grince Alexandre Lash, directeur du SNEP (musique). En bref, « soit on n’a pas les textes nécessaires d’ici le 2 août, soit des textes qui ne nous satisfont pas. Sans transparence, on ne peut pas exercer nos droits. Les équilibres politiques ont changé, au profit des acteurs de l’IA ».
« Les dernières versions que l’on a vues font état de résumés très peu détaillés, justement, qui n’auront que peu d’impact, appuie l’Alliance de la presse d’information générale (Apig). Ça fait longtemps que l’on ne croit plus tellement à l’efficacité de dispositifs de l’AI Act pour négocier des accords. Et, sans des textes robustes, ce sera plus compliqué de prouver l’utilisation de nos contenus sans autorisation. »
Des poursuites en justice
Alors que faire ? Le monde la culture et des médias n’a pas l’intention de rester les bras croisés. « La notion de résumé détaillé permettait de faciliter la preuve de l’utilisation non autorisée des contenus. Mais si l’intention du législateur de l’AI Act n’est pas respectée, on reviendra aux basiques, à savoir des procès en contrefaçon », note Julien Guinot-Deléry, associé chez Gide.
L’Apig réalise depuis des mois un travail de recherche de preuves sur des articles utilisés par l’IA. « On ne va pas se laisser marcher sur les pieds, alors que certains au gouvernement font tout pour protéger les acteurs de l’IA, au détriment de la propriété artistique », ajoute Pascal Rogard, le directeur de la SACD (Société des auteurs et compositeurs dramatiques). Plusieurs organisations du monde audiovisuel réfléchissent « sérieusement », dit-il, à des poursuites en justice contre des acteurs de l’IA.