Proyecto Panama: Millones de libros escaneados y destruidos
Millones de libros escaneados y destruidos: el proyecto secreto que destapó el debate ético de la IA

Millones de libros escaneados y destruidos: el proyecto secreto que destapó el debate ético de la IA

Una imagen resume una época: millones de libros apilados en un almacén, escaneados y destinados al reciclaje tras servir como alimento para una inteligencia artificial. Así describe The Washington Post el alcance del proyecto Panama, una iniciativa secreta impulsada por Anthropic para entrenar sus modelos de IA mediante la digitalización masiva de obras literarias.

La investigación del medio estadounidense expone cómo, en la carrera por crear modelos de lenguaje más precisos, varias grandes tecnológicas optaron por obtener enormes volúmenes de información sin pedir permiso a autores ni editoriales, abriendo un conflicto legal y ético que todavía no se resuelve del todo.

Proyecto Panama: escanear libros para entrenar a la IA

El proyecto Panama comenzó a principios de 2024 con un objetivo tan ambicioso como polémico: “escanear destructivamente todos los libros del mundo”. Según documentos internos revelados por el Washington Post, Anthropic buscaba hacerlo sin que nadie supiera que el proyecto estaba en marcha.

En poco más de un año, la compañía gastó decenas de millones de dólares en comprar millones de libros.

Para digitalizarlos, se les cortaba el lomo con máquinas hidráulicas y se escaneaban página por página.

Una vez convertidos en datos, los libros físicos eran reciclados. Todo este material se utilizó para entrenar los modelos de IA que impulsan a Claude, el chatbot estrella de la empresa.

La operación salió a la luz tras una demanda por infracción de derechos de autor presentada por escritores.

Aunque Anthropic acordó pagar 1.500 millones de dólares en agosto de 2025 para cerrar el caso, un juez ordenó hacer públicos más de 4.000 documentos internos, revelando los detalles de la estrategia.

Una carrera tecnológica con riesgos legales

Los documentos judiciales también muestran que Anthropic no fue la única.

Empresas como Meta, Google y OpenAI participaron en esta carrera por acumular datos masivos.

Un cofundador de Anthropic señalaba en 2023 que entrenar modelos con libros podía enseñarles “a escribir bien”, en lugar de replicar la “jerga de internet de baja calidad”.

Correos internos de Meta describían el acceso a bibliotecas digitales como “esencial” para competir en el desarrollo de IA, aunque empleados expresaron dudas sobre la legalidad de descargar millones de libros sin autorización.

En algunos casos, se utilizaron servidores externos para evitar que la actividad pudiera rastrearse hasta la empresa.

Los registros también revelan descargas personales de libros protegidos por derechos de autor desde bibliotecas pirata como LibGen, así como celebraciones internas por el lanzamiento de sitios que violan abiertamente las leyes de copyright.

Anthropic, por su parte, aseguró que no entrenó modelos comerciales con esos datos.

Ante el riesgo legal, la compañía cambió de estrategia y optó por comprar libros de bibliotecas y librerías de segunda mano, acumulándolos en enormes almacenes para su posterior escaneo. Aun así, el debate llegó a los tribunales.

En 2025, dos jueces estadounidenses consideraron que el uso de libros para entrenar modelos de IA podía ser legal bajo la doctrina de “uso legítimo”, al tratarse de un proceso transformador.

Sin embargo, también se señaló que la descarga previa de libros sin permiso podría haber infringido la ley.

Para evitar un juicio prolongado, Anthropic cerró un acuerdo millonario sin admitir culpabilidad.

Según el Washington Post, los autores afectados podrán reclamar alrededor de 3.000 dólares por cada libro utilizado, mientras la industria tecnológica sigue enfrentando preguntas clave sobre hasta dónde puede llegar la inteligencia artificial sin cruzar límites éticos y legales.

Con información de Xataka.

Entradas Relacionadas