Dans le langage économico-technologique anglo-saxon, le terme « licorne », emprunté à l’univers de l’heroic-fantasy, en accord avec l’imaginaire supposé des geeks et autres passionnés d’informatique, désigne une start-up dynamique, financièrement solide, non cotée en bourse et indépendante d’un grand groupe – un des GAFAM par exemple. La France possède quelques-unes de ces structures qui galopent à vive allure et pointent leur corne unique vers des horizons prometteurs. Dans le domaine de l’Intelligence Artificielle Générative (IAG), notre licorne s’appelle Mistral AI.
À l’automne dernier, on avait beaucoup de raisons de s’inquiéter. Non pas des innovations technologiques que l’IAG (type ChatGPT) proposait et qui ne manqueraient pas d’affecter tous les domaines de l’activité humaine. Mais de la posture française consistant à mettre systématiquement en avant les menaces que ferait peser sur l’innovation la fixation de règles, respectueuses du droit d’auteur, notamment dans le cadre européen de ce qu’on appelle l’IA Act, alors objet de discussions à Bruxelles.
Cette séquence automnale était conclue par l’appel formulé lors du Forum sur l’IA, organisé par la SGDL le 19 décembre 2023, qui rassemblait dans l’hémicycle du Conseil économique, social et environnemental, les principales organisations d’auteurs représentant tous les secteurs de la création. Nous soutenions d’une voix unanime et ferme l’idée qu’innovation et régulation n’étaient pas incompatibles. Et que, bien au contraire, la seconde favorisait le développement de la première dans un cadre juridique solide. Nous appelions à une nécessaire transparence pour que ceux qui développent l’IAG rendent publiques les données à partir desquelles leurs outils avaient été/étaient entraînés et produisaient des contenus. C’était pouvoir garantir aux auteurs que leurs droits avaient été respectés (ou non...) et qu’à l’avenir les auteurs pourraient autoriser (ou non) l’exploitation de leurs œuvres dans le cadre du développement de l’IAG. C’était aussi poser comme nécessaire l’obligation d’informer les citoyens sur l’origine des textes et des images auxquels ils seraient confrontés pour qu’ils puissent exercer leur capacité à faire la différence entre une œuvre de l’esprit et un produit machinique.
En ce début d’année 2024, plusieurs événements concernant l’IA ont fait progresser le dossier. L’IA Act, accord politique trouvé par la Commission, le Parlement et le Conseil de l'Union, atteste que la position européenne est favorable à une régulation. Le texte adopté intègre les demandes que nous avons portées : il prévoit notamment une obligation de transparence sur les données sources utilisées pour entraîner les IA et le respect de l'ensemble des principes du droit d'auteur. Reste à attendre 2026 pour qu'il s'applique dans chaque État membre. Ce qui fait encore deux années où prévalent les "règles" (autant dire l’anomie) du Far-West...
Parallèlement à cette résolution européenne, viennent d’être rendues publiques, au plan national, les conclusions du Comité interministériel sur l’Intelligence Artificielle Générative. Y est affirmée la confiance que l’on doit avoir pour une "révolution technologique incontournable". Y est pointé le danger d’un déclassement technologique et économique face aux Etats-Unis et à la Chine, si l’Europe et la France ne deviennent pas eux-mêmes des acteurs majeurs de l’IA. Innover pour maîtriser notre indépendance et notre prospérité collectives, qui s’y opposerait ? Cela n’empêche pas de réaffirmer que, pour parvenir aux mêmes fins, réguler est tout aussi déterminant – ce qu’une récente prise de position de la ministre de la culture, Rachida Dati, sur l’IA vient de rappeler. Quand on lit dans le rapport du Comité interministériel qu’une des lignes d’action à privilégier est de « faciliter l’accès aux données » et de mettre en place « l’infrastructure technique favorisant l’entraînement des modèles d’IA dans le respect des droits de la propriété intellectuelle », on est très moyennement rassuré. Les données n’ont-elles pas été déjà largement moissonnées/pillées sans aucun respect des droits de la propriété intellectuelle ? Que va-t-il en être désormais dans l’immédiat, avant que les termes de la régulation annoncée ne soient fixés de façon plus précise ?
Enfin on apprend que notre licorne, Mistral AI, qui a pour ambition de forger un outil concurrent de l’américain ChatGPT, Mistral AI qui est une start-up fondée en mai 2023 par Arthur Mensch, rejoint ensuite par Cédric O (ancien secrétaire d’État au numérique), tous deux membres du Comité interministériel, a noué fin février un partenariat avec Microsoft. Dans l’affaire, le géant américain a investi 15 millions d’euros. Peser dans la prise de décision européenne de régulation et en même temps négocier un partenariat avec l’un des Gafam que l’on prétend concurrencer est pour le moins troublant. La licorne est-elle seulement licorne ? Qu’elle ait plaidé avec une telle persévérance pour le moins de régulation possible au nom du dynamisme de l’innovation, qu’elle ait adopté une stratégie analogue à celle des Gafam, hostiles à toute régulation, ne peut que faire naître le doute et la suspicion : la licorne n’aurait-elle pas pris parfois l’allure d’un cheval de Troie ?
Vue de loin, cette affaire ne peut qu’inciter à la vigilance et à la détermination pour que soit rapidement précisés et mis en pratique les termes d’une régulation et d’une transparence de l’IAG respectueuses des créateurs et de ceux auxquels ils destinent leurs créations. Sans cela nous risquons d’être les dindons d’une farce sinistre où la notion d’intérêt collectif (européen, français) n’aura été qu’un masque dissimulant mal, ou à peine, l’agressivité d’intérêts strictement particuliers.
Christophe HARDY, Président de la SGDL