France CHARRUYER
Associé - Altij & Oratio Avocats
Anthropic avait proposé un règlement transactionnel historique : 1,5 milliard de dollars pour mettre fin à la procédure engagée par les auteurs représentés par Sarah Bartz. Un montant record, qui visait à solder une accusation lourde : l’utilisation de milliers d’œuvres protégées pour entraîner ses modèles d’IA sans autorisation. Pour la tech company, c’était aussi une manière d’envoyer un signal rassurant aux investisseurs et de tourner la page d’un contentieux qui menaçait son image.
Mais le juge fédéral William Alsup a choisi de s’opposer à cette stratégie. En refusant l’approbation préliminaire, il a mis en avant des manquements de taille. Première zone d’ombre : l’absence de liste claire et exhaustive des œuvres concernées. Sans cette identification, aucune répartition équitable ne peut être envisagée. Le juge a ainsi rappelé que l’argent ne suffit pas : il faut des preuves précises et une traçabilité des atteintes.
Ce rejet illustre aussi une méfiance vis-à-vis d’accords globaux qui cherchent à couvrir trop de choses à la fois. L’idée d’indemniser à la fois les utilisations passées et les utilisations futures d’œuvres encore non identifiées a paru démesurée et juridiquement fragile. Une insécurité conceptuelle qui montre que le droit d’auteur ne peut pas valider un “chèque en blanc” aux entreprises de l’intelligence artificielle.
Cette prudence judiciaire fait écho à d’autres affaires, comme celle analysée dans notre article Quand l’IA attaque l’empire Disney, l’empire contre-attaque, où les créateurs d’univers narratifs cherchent à faire respecter leurs droits face à la puissance des studios et des technologies émergentes. Dans les deux cas, la tentation d’une transaction massive se heurte à la nécessité de protéger l’intégrité des œuvres.
L’affaire met en lumière la question centrale de l’usage des œuvres dans l’entraînement des Large Language Models. Ces modèles absorbent des milliards de données textuelles, visuelles et sonores pour générer du contenu. Mais derrière cette performance technique se cache un enjeu juridique majeur : ces données incluent des œuvres protégées par le droit d’auteur. Les auteurs dénoncent une appropriation sans licence, tandis que les entreprises invoquent l’innovation et, parfois, le fair use.
Le juge a rappelé que sans transparence sur la composition des datasets, aucune indemnisation ne peut être sérieuse. Cela traduit une difficulté technique : auditer les données d’entraînement reste complexe, mais indispensable. Cette opacité procédurale est désormais au cœur des débats. C’est la même logique que dans l’affaire analysée dans notre article sur le code de bonne pratique de la Commission européenne, où la transparence et la traçabilité ont été érigées en principes cardinaux pour encadrer l’intelligence artificielle.
Un autre enjeu découle de la territorialité. L’accord Bartz vs Anthropic se fonde sur le droit américain. Mais de nombreuses œuvres appartiennent à des auteurs européens, protégés par des règles bien plus strictes. En droit français, le droit moralest inaliénable : un règlement, même milliardaire, ne saurait effacer la paternité ou l’intégrité d’une œuvre. Cette fracture culturelle et juridique révèle un décalage profond entre les conceptions américaine et européenne de la protection des créateurs.
Cette divergence est loin d’être théorique. Dans l’article Copy fight outre-Atlantique : le fair use, arme fatale des IA, nous avons déjà souligné combien le fair use américain pouvait entrer en collision avec les droits continentaux. L’affaire Anthropic en offre une illustration concrète : ce qui pourrait être toléré ou régularisé aux États-Unis demeure inacceptable en Europe.
Le refus de cet accord rappelle que l’argent ne suffit pas à solder des atteintes aux droits d’auteur. En France, la protection est renforcée par le droit moral : les créateurs disposent d’un droit perpétuel et inaliénable sur leurs œuvres. Ce principe interdit toute dénaturation, même assortie d’une indemnisation. L’épisode Anthropic met en lumière une limite structurelle : un règlement massif ne peut pas servir de panacée universelle.
Pour les entreprises qui développent ou utilisent des intelligences artificielles, les implications sont claires. La question de la preuve sera centrale : démontrer qu’une œuvre a été utilisée dans un dataset est souvent difficile, mais incontournable. Cette faille probatoire impose des solutions pratiques : audits techniques, clauses contractuelles précises, et anticipation de litiges potentiels. Les institutions européennes avancent d’ailleurs dans ce sens. Les initiatives encadrant l’IA cherchent à imposer davantage de transparence et de responsabilité.
Dans le cabinet Altij & Oratio Avocats, nous accompagnons auteurs, entreprises et institutions sur ces terrains mouvants. Notre expertise en droit du numérique et en contentieux nous permet d’anticiper les litiges, de sécuriser les pratiqueset de défendre les droits des créateurs. L’affaire Bartz vs Anthropic démontre que l’avenir de l’IA passera nécessairement par une rigueur juridique accrue, où la transparence et le respect des principes fondamentaux priment sur les promesses financières.
Contactez-nous pour anticiper, sécuriser et défendre vos droits face aux défis posés par l’intelligence artificielle.
Nos formations :
Nos actus IA: