El futuro de la IA podría depender de un espinoso asunto legal.
Fuente: Nieman Lab; The Washington Post
Una demanda acusa a OpenAI y Microsoft de violar los derechos de autor del New York Times. Pero la ley no está nada clara.
Por Will Oremus y Elahe Izadi
Si un medio de comunicación copiara un montón de historias del New York Times y las publicara en su sitio, probablemente sería visto como una flagrante violación de los derechos de autor del Times.
Pero ¿qué pasa cuando una empresa de tecnología copia esos mismos artículos, los combina con innumerables otros trabajos copiados y los utiliza para entrenar un chatbot de IA capaz de conversar sobre casi cualquier tema, incluidos los que conoció en el Times?
Esa es la cuestión legal en el centro de una demanda que el Times presentó contra OpenAI y Microsoft en un tribunal federal la semana pasada, alegando que las empresas de tecnología utilizaron ilegalmente «millones» de artículos del Times con derechos de autor para ayudar a desarrollar los modelos de IA detrás de herramientas como ChatGPT y Bing. Es la última, y algunos creen que la más fuerte, de una serie de demandas activas que alegan que varias empresas de tecnología e inteligencia artificial han violado la propiedad intelectual de empresas de medios, sitios de fotografía, autores de libros y artistas.
En conjunto, los casos tienen el potencial de sacudir los cimientos de la floreciente industria de la IA generativa, dicen algunos expertos legales, pero también podrían fracasar. Esto se debe a que es probable que las empresas de tecnología se apoyen en gran medida en un concepto legal que les ha servido bien en el pasado: la doctrina conocida como “uso justo”.
En términos generales, la ley de derechos de autor distingue entre copiar palabra por palabra el trabajo de otra persona (lo que generalmente es ilegal) y “remezclarlo” o darle un uso nuevo y creativo. Lo que es confuso acerca de los sistemas de IA, dijo James Grimmelmann, profesor de derecho digital y de la información en la Universidad de Cornell, es que en este caso parecen estar haciendo ambas cosas.
La IA generativa representa «esta gran transformación tecnológica que puede crear una versión remezclada de cualquier cosa», dijo Grimmelmann. «El desafío es que estos modelos también pueden memorizar descaradamente obras en las que fueron entrenados y, a menudo, producir copias casi exactas», lo cual, dijo, es «tradicionalmente el núcleo de lo que prohíbe la ley de derechos de autor».
Desde los primeros VCR, que podían usarse para grabar programas de televisión y películas, hasta Google Books, que digitalizó millones de libros, las empresas estadounidenses han convencido a los tribunales de que sus herramientas tecnológicas equivalían a un uso legítimo de obras protegidas por derechos de autor. OpenAI y Microsoft ya están montando una defensa similar.
«Creemos que el entrenamiento de modelos de IA califica como un uso legítimo, que coincide totalmente con los precedentes establecidos que reconocen que el uso de materiales protegidos por derechos de autor por parte de innovadores tecnológicos de manera transformadora es totalmente consistente con la ley de derechos de autor», escribió OpenAI en un documento presentado a la Oficina de derechos de autor de EE. UU. en noviembre.
Los sistemas de IA suelen estar “entrenados” con conjuntos de datos gigantescos que incluyen grandes cantidades de material publicado, gran parte del cual está protegido por derechos de autor. A través de esta capacitación, llegan a reconocer patrones en la disposición de palabras y píxeles, que luego pueden utilizar para ensamblar prosa e imágenes plausibles en respuesta a casi cualquier indicación.