INTELIGENCIA ARTIFICIAL

Denuncias de plagio por la IA: ¿Estamos en la era de la falsificación digital?

Con la renuncia del presidente de Harvard y revelaciones de plagio en informes científicos, la academia enfrenta un desafío aún mayor: ¿La inteligencia artificial generativa en la escritura académica es una ayuda o una nueva forma de plagio?

En un año ya marcado por escándalos, desde la renuncia del presidente de la Universidad de Harvard en enero hasta las denuncias de plagio en informes revisados por pares en febrero, el ámbito académico se enfrenta ahora a un desafío emergente: el uso de herramientas de inteligencia artificial (IA) generativa en la escritura académica. La cuestión de si esto constituye plagio y bajo qué circunstancias debería permitirse es cada vez más urgente.

Un nuevo terreno de confusión

Existe todo un espectro de uso de la IA”, señala Jonathan Bailey, consultor de derechos de autor y plagio en Nueva Orleans. Desde textos completamente escritos por humanos hasta aquellos generados íntegramente por IA, el área intermedia está llena de incertidumbre. Herramientas como ChatGPT, basadas en modelos lingüísticos de gran tamaño (LLM), ofrecen beneficios como ahorro de tiempo y mejora en la claridad del texto. Sin embargo, también traen consigo una serie de dilemas éticos y legales.

¿Plagio o innovación?

Los LLM generan textos a partir de enormes cantidades de escritos previamente publicados, lo que plantea preocupaciones sobre el uso indebido del trabajo de otros. La definición tradicional de plagio, según la Oficina de Integridad en la Investigación de EE.UU., es “la apropiación de las ideas, procesos, resultados o palabras de otra persona sin darle el crédito correspondiente”. Sin embargo, el uso de contenido generado por IA sin atribución adecuada difiere de este concepto tradicional.

Pete Cotton, ecologista de la Universidad de Plymouth, expresa que definir los límites de la deshonestidad académica y el plagio en el contexto de la IA será extremadamente difícil. Además, las herramientas de IA pueden ser utilizadas para parafrasear texto plagiado de manera sofisticada, complicando aún más la detección del plagio.

Opiniones divididas

En una encuesta de 2023 a 1,600 investigadores, el 68% afirmó que la IA complicará la detección del plagio. Debora Weber-Wulff, especialista en plagio de la Universidad de Ciencias Aplicadas de Berlín, comenta que "todo el mundo está preocupado por el uso que otros hacen de estos sistemas". Mientras tanto, la Red Europea para la Integridad Académica define el uso no autorizado de herramientas de IA como “generación de contenido no autorizado”, diferenciándolo del plagio tradicional.

La balanza legal y ética

Además de las implicaciones éticas, algunos sostienen que las herramientas de IA generativa infringen los derechos de autor. En diciembre de 2023, The New York Times demandó a Microsoft y OpenAI, acusándolos de utilizar millones de artículos del periódico para entrenar sus LLM sin permiso. La resolución de estos casos podría cambiar drásticamente el panorama para las empresas de IA.

Impacto en la publicación académica

El uso de IA en la redacción académica ha crecido exponencialmente desde el lanzamiento de ChatGPT en noviembre de 2022. Un estudio reciente estimó que al menos el 10% de los resúmenes de artículos biomédicos en los primeros seis meses de 2024 utilizaron asistentes de escritura basados en LLM. Este aumento plantea preguntas sobre la integridad y autenticidad de los trabajos publicados.

Desafíos en la detección

La detección del uso de IA en textos académicos es un campo en desarrollo. Aunque existen herramientas que afirman detectar texto generado por IA con alta precisión, estudios recientes muestran que muchas de ellas no cumplen con sus promesas. Además, los textos ligeramente editados por IA son casi indetectables con las herramientas actuales, lo que representa un desafío significativo para mantener la integridad académica.

Futuro incierto

Con la integración creciente de IA en aplicaciones como Word y Google Docs, el uso de estas tecnologías en la escritura académica será cada vez más difícil de controlar. Debby Cotton, especialista en educación superior en la Universidad Plymouth Marjon, advierte que la IA "se está integrando tanto en todo lo que usamos que será cada vez más difícil saber si algo que hemos hecho ha sido influenciado por ella".

La academia está en un cruce de caminos. La IA generativa ofrece grandes ventajas, pero también plantea riesgos significativos para la integridad y originalidad de la escritura académica. Mientras la tecnología avanza, es esencial desarrollar y adherirse a guías claras y robustas para su uso ético y responsable.