Anthropic, la desarrolladora de Claude, uno de los chatbots de inteligencia artificial (IA) generativa más usados, ha llegado a un acuerdo extrajudicial histórico con un grupo de autores y editores. La compañía les pagará al menos 1.500 millones de dólares para evitar tener que dirimir en los tribunales una demanda por haber entrenado sus modelos con libros de los demandantes conseguidos sin abonar derechos de autor.
Anthropic pagará 1.500 millones de dólares a un grupo de escritores por haber usado sus libros sin permiso para entrenar sus modelos de inteligencia artificial
Anthropic, la desarrolladora de Claude, uno de los chatbots de inteligencia artificial (IA) generativa más usados, ha llegado a un acuerdo extrajudicial histórico con un grupo de autores y editores. La compañía les pagará al menos 1.500 millones de dólares para evitar tener que dirimir en los tribunales una demanda por haber entrenado sus modelos con libros de los demandantes conseguidos sin abonar derechos de autor.
Es la primera vez que un gigante de la IA prefiere pagar para evitar ir a juicio en un caso relacionado con la propiedad intelectual, lo que indica que la compañía albergaba serias dudas de que el juez fallara a su favor. Asimismo, los 1.500 millones acordados (más intereses) constituyen la mayor compensación de la historia en un caso de derechos de autor. Anthropic abonará 3.000 dólares por trabajo a los 500.000 autores incluidos en la demanda colectiva (class action).
El acuerdo, que se hizo público el viernes, supone un antes y un después en la batalla legal librada entre creadores de contenidos y la industria de la IA. El caso puede afectar la forma en que la industria y los artistas enfoquen a partir de ahora sus litigios por vulneración de derechos de autor. Si los desarrolladores de IA siguen el ejemplo de Anthropic, el acuerdo puede ser la antesala de un modelo de licencias, en el que las tecnológicas paguen a los autores una cantidad fija por usar sus contenidos, como pasó a principios de siglo con las discográficas cuando aparecieron servicios como Napster, en los que se compartían archivos.
“No puedo adivinar de qué manera podrá impactar en nuestro caso. Pero sí creo que, aunque no fue un resultado perfecto, porque me hubiera encantado verles llegar a juicio y que hubieran tenido que dar más dinero todavía por cada trabajo, ¡esta conclusión no está nada mal!“, asegura a EL PAÍS la ilustradora puertorriqueña Karla Ortiz, que en 2024 encabezó una demanda colectiva todavía en trámite contra cuatro desarrolladoras de generadores de imágenes por IA generativa, entre ellas Midjourney y Stability AI, tras reconocer trazos de su trabajo y del de otros colegas en los dibujos producidos por estas herramientas. “Lo considero un buen primer paso que puede ser la base de resultados parecidos para las más de 40 demandas en proceso interpuestas contra empresas de IA por infringir derechos de autor”.
Anthropic decidió pactar con los demandantes tras conocer que el juez consideraba que la tecnológica había descargado y almacenado millones de libros con copyright. Es decir, los había pirateado. Ese es el término clave de la demanda: el magistrado no vio problema en que se usara la obra de terceros para entrenar un producto que generará ingresos, sino en el hecho de que parte de esas obras no se pagaron.
“El acuerdo, si se aprueba, resolverá las reclamaciones restantes de los demandantes. Seguimos comprometidos con el desarrollo de sistemas de IA seguros que ayuden a las personas y organizaciones”, dijo en un comunicado Aparna Sridhar, subdirectora jurídica de Anthropic. La compañía ha preferido no contestar a las preguntas de este periódico sobre su estrategia en el caso.
El proceso arrancó hace un año, cuando tres autores (Andrea Bartz, Charles Graeber y Kirk Wallace Johnson) interpusieron una demanda en la que decían que Anthropic usó versiones pirateadas de sus obras (es decir, que no se pagó por ellas) para entrenar su modelo Claude. “Anthropic ni siquiera ha intentado compensar a los demandantes por el uso de ese material. De hecho, ha dado varios pasos para esconder el auténtico alcance de su robo de materiales con derechos de autor”, argumentaron.
El caso pasó a convertirse este mes de julio en una class action, el equivalente a una demanda colectiva en el sistema judicial estadounidense. Esta figura posibilita que quienes consideren que los hechos denunciados también les afectan puedan sumarse al proceso de forma relativamente sencilla. Hasta el momento se habían sumado medio millón de autores. Se estima que los daños reclamados podrían estar valorados en centenares de miles de millones de dólares (podrían llegar hasta los 150.000 dólares por trabajo), una cantidad inasumible por la compañía en caso de perder el pleito.
Los abogados de la tecnológica no debieron verlo muy claro. “La estrategia que se persigue con los acuerdos extrajudiciales es evitar el riesgo financiero de perder, pero también el riesgo legal de que el juez diga quién tiene la razón”, sostiene Rodrigo Cetina, profesor de Derecho de la Barcelona School of Management, la escuela de negocios de la Universitat Pompeu Fabra, y experto en el ordenamiento jurídico estadounidense. “Este tipo de acuerdos no crean precedente legal, por lo que no tienen consecuencia directa en otros casos similares”.
¿Piratería o uso legítimo de obras de terceros?
Las desarrolladoras de los llamados grandes modelos de lenguaje (LLM, por sus siglas inglesas), como ChatGPT, Gemini o Claude, son muy conscientes de que todo su negocio podría desmoronarse si así lo deciden los tribunales. Estas herramientas usan sofisticados algoritmos que se han aplicado sobre ingentes bases de datos de texto (o, en los sistemas multimodales, también imágenes, vídeos o clips de audio) para extraer patrones y ser capaces de elaborar contenidos a partir de las instrucciones, o prompts, aportadas por los usuarios.
La cantidad de datos necesarios para que ese proceso dé resultados aceptables es tan grande que, en el caso de los modelos más recientes (desde GPT4 en adelante), se estima que han usado prácticamente todo internet. Y se ha hecho sin pedir permiso. Desde 2022 se han registrado en EE UU varias demandas colectivas de creadores contra los gigantes de la IA por haber usado su obra sin pagar derechos de autor.

Muchos analistas consideran que, si se obligase a Google, OpenAI, Microsoft, Meta o Anthropic a pagar por los contenidos que han usado, las indemnizaciones acabarían con el negocio de la IA. Sam Altman, director ejecutivo de OpenAI y el rostro más asociado a esta industria, lleva años jugando el comodín de la geopolítica para poder saltarse los derechos de autor: si EE UU quiere ganarle a China esta carrera tecnológica, ha dicho en varias ocasiones, deben relajarse las normas de copyright. “Sería imposible entrenar los modelos actuales de IA sin material con derechos de autor”, reconoció ya en enero de 2024 la compañía en un documento remitido a la Cámara de los Lores.
Pero el argumento más usado por la industria para justificarse es el del uso legítimo, o fair use. De la misma manera que un particular puede ir a una biblioteca, leerse todos los libros que quiera y luego escribir una obra original inspirándose en lo que ha aprendido, los ejecutivos de las grandes tecnológicas sostienen que sus modelos hacen lo propio con sus extensas bases de datos. En junio de este año, Anthropic obtuvo una importante victoria judicial en este flanco: el juez consideró que el uso de millones de libros para entrenar sus modelos entra dentro del uso legítimo, en tanto que el objetivo de la compañía es “transformador”, no una copia de los fondos originales.
Pero, además de ese espaldarazo, el juez también consideró que había caso de piratería. “Anthropic descargó más de siete millones de copias pirateadas de libros, no pagó nada y mantuvo estas copias pirateadas en su biblioteca incluso después de decidir que no las usaría para entrenar su IA”, dijo el magistrado.
Esa es la clave del caso. El juez considera que el hecho de que Anthropic haya descargado parte de sus fondos documentales de bibliotecas fantasma (shadow libraries, las que recopilan material de internet sin pagar derechos de autor) puede constituir un caso de piratería. Frenar el juicio con un acuerdo extrajudicial evitará que se siente precedente sobre el asunto.

“La demanda no se centra en dirimir si hay o no uso legítimo de documentos elaborados por terceros, sino en el hecho de que recurrir a bibliotecas que piratean obras protegidas evidencia la voluntad de no pagar por ellas”, explica Jorge García Herrero, abogado especialista en protección de datos. Los demandantes sostienen que “el robo a gran escala de trabajos con derechos de autor” es un componente clave en su modelo de negocio.
“El juez ya había decidido que esos usos constituían una infracción. En lo que respecta a la cuestión de las obras robadas, su argumentación parece correcta y crea un enorme riesgo para aquellos desarrolladores de IA que dependen de libros no adquiridos para entrenar sus modelos”, opina Jim Astrachan, abogado del bufete Corey Tepe y profesor de Derecho de la propiedad intelectual en la Universidad de Maryland, en un reciente artículo. “En algún momento, la industria tiene que afrontar estos problemas y comprender que debe pagarse por el uso de contenido protegido para entrenar la IA, ya sea en forma de una compra directa o de una licencia para este uso”, añade.
Anthropic, como OpenAI, Midjourney o Meta, tiene otras causas judiciales pendientes por vulnerar derechos de autor. Una de las más importantes es la que le enfrenta a un grupo de discográficas, entre ellas Universal Music Group, que la denunciaron por haber usado supuestamente letras de canciones protegidas para entrenar sus modelos. Está por ver el efecto de este histórico acuerdo extrajudicial en todos los procesos abiertos.
La escisión segura de OpenAI
Anthropic fue fundada en 2021 por extrabajadores de OpenAI. El núcleo duro del equipo, con Dario Amodei a la cabeza, quien fuera vicepresidente de investigación en la empresa que dirige Sam Altman, pertenecían al llamado “clan de la seguridad” de la tecnológica. Recibían ese nombre por su cautela, en comparación con otros compañeros, a la hora de probar los algoritmos antes de lanzarlos al gran público. El modelo Claude recibió reconocimiento internacional precisamente por haber pasado controles más exhaustivos que ChatGPT, lo que le permitía desbarrar menos.
El buen rendimiento de Claude y su acuerdo de colaboración con Apple han hecho posible que Anthropic cerrara la semana pasada una ronda de financiación de 13.000 millones de dólares, lo que eleva su valoración a los 183.000 millones. También la semana pasada, la empresa ha empezado a comunicar a sus usuarios que empezará a leer sus mensajes para entrenar el modelo y seguir mejorándolo.
Tecnología en EL PAÍS