Este artículo se publicó hace más de 1 año
Por qué ChatGPT no puede firmar artículos científicos

La prohibición de Nature de publicar papers escritos por ChatGPT ha puesto sobre la mesa varios debates: ¿es ético usarlo para producir textos de ciencia?, y si lo es, ¿debería firmarlos? Igual que no ponemos al corrector de Word como coautor de nuestros artículos, no hagamos el ridículo dándoles el rango de coautoras a estas nuevas herramientas como si tuvieran entidad propia.

31/01/2023 - 11:08 CET
chatgpt

Adobe Stock

Los modelos generativos y los modelos de lenguaje han avanzado mucho en los últimos años y están revolucionando la forma en que producimos y consumimos contenido. Un ejemplo de estos modelos es ChatGPT de OpenAI, que ha demostrado su capacidad para escribir textos de forma tal que no es posible detectar que no son obra de una persona. Sin embargo, esto ha generado preocupación en la comunidad científica, como se muestra en la prohibición reciente de publicar artículos escritos por ChatGPT en publicaciones científicas de Springer Nature, que el grupo de revistas explicó en un editorial.

¿Deberían estas herramientas ser consideradas como autoras de los textos que producen? ¿Es ético utilizarlos para producir publicaciones científicas?

Una de las principales controversias sobre los modelos de lenguaje se basa en el hecho de que estos aprenden a partir de grandes cantidades de datos, que en muchos casos pueden ser considerados como propiedad intelectual o incluso confidenciales. Llegados a este punto deberíamos preguntarnos si tenemos derecho a utilizar estos datos para entrenar nuestros modelos generativos.

Miedo de que la IA robe el talento humano

Algunos argumentan que estos datos ya están disponibles en la red y que su uso para entrenar modelos de inteligencia artificial no es diferente de aprender de las obras y las experiencias de otros. Por otro lado, hay quienes aducen que ese uso puede ser perjudicial para la propiedad intelectual y los derechos de las personas, y que los datos deben ser protegidos. El famoso exyoutuber y actualmente conocido dibujante de cómics Isaac Sánchez (Loulogio) se ha posicionado en contra de los modelos de inteligencia artificial generativos que se entrenan a partir de las obras disponibles en internet. Isaac argumenta que estas IA no hacen más que copiar o robar de los artistas humanos.

¿Es justo dar crédito a la IA por su producción, especialmente cuando los datos utilizados para entrenarla provienen de obras y autores humanos?

Es un hecho que los humanos aprenden y crean a partir de la observación y el estudio de obras ajenas. En este sentido, no hay una gran diferencia entre esto y el hecho de que las IA aprendan a partir de los mismos datos. Aun así, junto con Isaac Sánchez, están surgiendo más movimientos y agrupaciones que se oponen al uso de estas tecnologías para la generación de diversos tipos de arte. Personalmente no puedo estar de acuerdo, puesto que el conocimiento profundo de estas herramientas nos hace comprender que las IA no copian datos de las obras con las que han sido entrenadas, sino que extraen los patrones de los cuales se componen estas obras para generar nuevas obras. Estos modelos no copiarían un ojo de una obra de Monet, sino que aprenderían el concepto de ojo, aprenderían el concepto de impresionismo y sabrían combinarlos para generar el resultado buscado.

Llegados a este punto muchas preguntas surgen al respecto, tales como: ¿Quién es el autor de un texto generado por un modelo de lenguaje? ¿Es justo dar crédito a la IA por su producción, especialmente cuando los datos utilizados para entrenarla provienen de obras y autores humanos?

Sin responsabilidad sobre el contenido

Estos debates plantean cuestiones éticas y legales importantes que aún no tienen respuestas claras y seguirán siendo objeto de discusión en el futuro. Así pues, tenemos pendiente encontrar un equilibrio entre proteger la propiedad intelectual y reconocer el papel que juegan los modelos de inteligencia artificial en la producción de contenido.

Sin embargo, es importante recordar que existen aspectos legales que deben ser considerados al utilizar estos modelos. Por ejemplo, la legislación sobre propiedad intelectual podría tratar de proteger los datos utilizados para entrenar los modelos. Además, la autoría de los textos producidos por estos modelos también puede ser objeto de debate legal, especialmente en lo que se refiere a responsabilidades por el contenido de los textos.

Aunque los modelos generativos y los modelos de lenguaje son herramientas potentes, aún no se han establecido claramente los derechos y responsabilidades legales relacionados con su uso

El famoso “mal-uso” de los Deep Fakes es tristemente conocido y se pueden generar imágenes pornográficas muy realistas con personajes públicos. ¿Cómo se protege una actriz de que aparezcan imágenes suyas comprometidas y que son falsas? ¿Qué ocurriría si una persona con depresión habla con chatGPT para contarle sus problemas y la IA se sugiere como solución que termine con su vida? Podría pasar, puesto que la IA no comprende lo que está diciendo, sino que genera el texto que mayor probabilidad le calcula su modelo matemático interno. No hay conciencia, no hay sentimientos, no hay responsabilidad en ese modelo de IA.

Aunque los modelos generativos y los modelos de lenguaje son herramientas potentes, aún no se han establecido claramente los derechos y responsabilidades legales relacionados con su uso. ¿Quién es responsable de los errores y la información incorrecta producidos por estos modelos? ¿Son los desarrolladores, los usuarios o la inteligencia artificial misma? Estos son algunos de los muchos desafíos legales y éticos que deben abordarse antes de que los modelos de IA puedan ser ampliamente aceptados y utilizados.

Debate ético y regulación

Sin embargo, es importante destacar que las IA son herramientas que utilizamos para producir textos y no son autoras en sí mismas. Al igual que no consideramos al corrector automático de Word o a los filtros de Photoshop como autores, tampoco deberíamos considerar a las IA como autoras de los textos que producen. Una herramienta nunca va a tener responsabilidad sobre su uso, sino la persona que la utiliza. Un martillo puede ser una herramienta estupenda para clavar clavos, pero también puede ser utilizada como arma ofensiva. ¿Prohibimos entonces los martillos? No, prohibimos el uso ofensivo de los mismos.

Las IA son herramientas que utilizamos para producir textos y no son autoras en sí mismas, al igual que no consideramos a los filtros de Photoshop como autores

En conclusión, los modelos generativos y los modelos de lenguaje son una tecnología fascinante que ha revolucionado la forma en que se produce texto, imágenes e incluso música, pero que también plantea profundas preguntas éticas y legales. En este sentido, es importante seguir debatiendo sobre su uso y establecer regulaciones claras que permitan utilizarlos de manera responsable y ética.

En el futuro, es probable que esta tecnología siga evolucionando y que la comunidad académica aprenda a utilizarlo como una herramienta más dentro del proceso de producción de textos científicos y académicos; pero igual que no ponemos al corrector de Word como coautor de nuestros artículos, no hagamos el ridículo poniendo como coautoras a estas nuevas herramientas como si tuvieran entidad propia.

Por cierto, ¿este texto lo habrá escrito una persona o una inteligencia artificial? Nunca lo sabremos, pero, por si acaso, lo firma un servidor.

Javier Palanca

Sobre el autor: Javier Palanca, profesor en el Instituto Universitario Valenciano de Investigación en Inteligencia Artificial de la Universitat Politècnica de València.

Las 5W +1
Publica
FAQ
Contacto