La aparición de la Inteligencia Artificial Generativa está cambiando a velocidad vertiginosa la forma en la que se crean, distribuyen y consumen trabajos científicos, artísticos y literarios. Si bien el marco regulador en desarrollo pretende requerir a los proveedores de IA Generativa que reconozcan y aseguren la protección de los derechos de propiedad de los autores del contenido usado para desarrollar un modelo, el reto se está haciendo cada vez más complicado dada la inmensa cantidad de trabajos generados. En una reciente publicación, la UNESCO pone de manifiesto que la ausencia de trazabilidad no solo genera preocupación respecto a la protección de los derechos y la justa compensación a los autores originales, sino que también representa un desafío en los contextos educativos sobre cómo los resultados de las herramientas de IA generativa pueden ser usados con responsabilidad, lo cual tiene importantes implicaciones en el ámbito de la investigación y, en consecuencia, en la publicación de los resultados de la misma.
IA basada en grandes modelos lingüísticos
El uso de IA mediante herramientas basadas en grandes modelos lingüísticos (LLM, por sus siglas en inglés) para escribir un artículo puede contribuir a mejorar errores gramaticales o de estilo, e incluso facilitar una redacción más clara de un escrito, pero es obligado especificarlo a modo de citas o agradecimientos. ChatGPT, Elicit o Scholarcy son capaces de agregar, resumir, parafrasear o escribir texto académico. Sin embargo, hay que ser muy cuidadosos a la hora de decidirnos por usar una herramienta de IA para redactar nuestros trabajos, ya que en algunos casos se ha detectado un plagio encubierto realizado por chatbots que pueden imitar a los autores y copiar su estilo, como es el caso de la reciente denuncia de George R. R. Martin y John Grisham, entre otros autores, a OpenAI, considerando que se sirve de “bibliotecas fantasmas” que incluyen copias pirateadas de sus obras.
Cómo usar LMM de forma ética
Para mantener las normas éticas de transparencia, apertura, honestidad y atribución justa de crédito en la redacción de un trabajo científico, y con el fin de fomentar la integridad, la reproducibilidad y el rigor en la investigación, en los casos en que se utilicen LMM, este debe presentarse:
- Como texto libre en la introducción o en la sección de métodos, para describir de forma honesta y transparente los detalles sobre quién utilizó los LLMs, cuándo, cómo y con qué indicaciones, así como revelar qué secciones del texto se ven afectadas.
- Mediante citas en el texto y entre referencias (para mejorar la posibilidad de encontrar e indexar).
- Como material complementario o en apéndices.
Los LLMs no deben ser mencionados como autores o acreditados en la sección de reconocimientos porque carecen de libre albedrío y no pueden ser considerados responsables moral o legalmente.
De hecho, algunos científicos han expresado su desaprobación al ver que ChatGPT figuraba como coautor en al menos cuatro artículos de investigación. Esta situación ha llevado a las editoriales a tomar medidas rápidas para regular su uso: la mayoría consideran que la IA Generativa no cumple los requisitos para figurar como autor/a de estudios, ya que no puede asumir la responsabilidad del contenido y la integridad de los artículos científicos.
La Biblioteca de la UNED te recuerda que el uso o distribución de trabajos protegidos por derechos de copyright sin la autorización del autor propietario atenta contra sus derechos exclusivos y conlleva consecuencias legales.
Foto de Andy Kelly en Unsplash