En los últimos años, numerosas editoriales científicas han incorporado en sus páginas web apartados sobre la Inteligencia Artificial, en los que describen qué posición toman ante ella, cómo actuar ante la proliferación de esta herramienta o cómo detectarla para evitar fraudes. Estas iniciativas reflejan la preocupación del sector editorial por preservar la integridad, la trazabilidad y la transparencia en la producción científica, adaptándose a un entorno marcado por una constante evolución tecnológica.
A continuación, se presenta un listado con las políticas adoptadas por varias de las editoriales más relevantes en el ámbito de la publicación científica.
Sobre el rol de edición
11. La responsabilidad del proceso de edición es de la persona editora y del equipo editorial que le acompaña. El uso de IA no debe reemplazar la responsabilidad de los seres humanos o su rendición de cuentas al ejercer tareas de edición o seguimiento a las acciones de personas revisoras y autoras. La labor de edición de textos científicos no debe depender del uso de IA.
12. Las personas editoras evidenciarán cuando hayan utilizado IA en alguna parte del proceso editorial. Se reportará el nombre del modelo, la versión, la fecha de uso, así como el enunciado de trabajo asignado.
13. Se establecerán estrategias de prevención para evitar la propagación de sesgo, la desinformación o cuando no se pueda garantizar el respeto o el abordaje ético de los datos personales. Además, se promoverá el uso de datos abiertos, de calidad, fiables y respaldados por el consentimiento o autorizaciones que permitan a la IA hacer un uso legítimo de dicha información.
14. Se comunicará a las personas autoras y lectoras, cuando, en atención a la transparencia, las tareas editoriales o las de revisión se hayan apoyado en el uso de IA.
The use of artificial intelligence (AI) tools such as ChatGPT or Large Language Models in research publications is expanding rapidly. COPE joins organisations, such as WAME and the JAMA Network among others, to state that AI tools cannot be listed as an author of a paper. Acceso al COPE
Living guidelines on the RESPONSIBLE USE OF GENERATIVE AI IN RESEARCH
En este documento se aborda el papel de las editoriales científicas y sus políticas editoriales en relación con el uso de la inteligencia artificial generativa.
Estas directrices subrayan la importancia de que las editoriales adopten enfoques éticos y transparentes para garantizar la integridad y la calidad de la investigación publicada.
Principales recomendaciones para editoriales científicas
Estas recomendaciones buscan garantizar que las editoriales científicas mantengan altos estándares éticos y científicos en la publicación de investigaciones que involucren el uso de IA.
Aunque no se centre exclusivamente en las políticas editoriales, el siguiente documento aborda aspectos que pueden influir en su desarrollo y aplicación en el contexto del uso de la IA generativa en la investigación:
Sobre el rol de revisión
8. La responsabilidad del criterio emitido para recomendar, o no, la publicación de un texto científico –o para proponer correcciones y mejoras– es de la persona en el rol de revisión. La interacción con la IA no reemplaza su criterio experto o su rendición de cuentas.
9. Cuando se haya incorporado el uso de IA como complemento de la revisión, es necesario indicarlo al equipo editorial y, a través de ellos, a las personas autoras. Indicar, al menos, el nombre del modelo, la versión, la fecha de uso, así como el enunciado como instrucción de evaluación es parte de un ejercicio transparente y trazable de la evaluación de contenidos.
10. Las personas revisoras deben estar en capacidad de explicar la interacción que han tenido con la IA, qué insumos han recibido y cuánto de dichos insumos han sido considerados en las observaciones, comentarios, recomendaciones y solicitudes de corrección que hayan emitido como criterios de evaluación de un texto científico.
ALLEA. Código Europeo de conducta para la integridad en la investigación. 2023.
Los investigadores, las instituciones de investigación y organizaciones revisan y evalúan las solicitudes presentadas para su publicación, financiación, nombramiento, promoción o gratificación de manera transparente y justificable, y revelan el uso de la IA y de herramientas automatizadas.
Artificial Intelligence in Peer Review: Enhancing Efficiency While Preserving Integrity
https://jkms.org/pdf/10.3346/jkms.2025.40.e92
The integration of AI into academic publishing brings notable advantages, such as streamlining repetitive tasks and improving the efficiency of peer review. Nonetheless, its shortcomings in specialized knowledge, contextual interpretation, and ethical decisionmaking emphasize the need for human involvement. Maintaining academic integrity requires transparency, effective bias management, and strong measures for data protection. Rather than replacing human expertise, AI should serve as a supportive tool, guided by comprehensive policies and adequate training. By combining AI’s capabilities with ethical standards, the academic community can refine the peer review process while preserving its fundamental values.
Estos documentos ofrecen una visión integral sobre cómo la IA está siendo integrada en las políticas editoriales de revistas científicas:
► Implicaciones y políticas editoriales de la inteligencia artificial.
► La Inteligencia Artificial en las editoriales científicas.
► El impacto de la Inteligencia Artificial en la industria editorial.
► El uso de la IA como herramienta para la investigación académica: políticas editoriales y condicionantes éticos en el camino hacia su normalización