SciELO - Scientific Electronic Library Online

 
vol.85 número1Prevalencia de malformaciones congénitas del sistema nervioso central en la Unidad de Perinatología del Hospital Universitario de Caracas índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Revista de Obstetricia y Ginecología de Venezuela

versión impresa ISSN 0048-7732

Rev Obstet Ginecol Venez vol.85 no.1 Caracas mar. 2025  Epub 29-Ago-2025

https://doi.org/10.51288/00850103 

Editorial

Uso de la Inteligencia Artificial en la publicación de artículos científicos

Mireya González Blanco1  * 
http://orcid.org/0000-0002-1977-1767

1 Directora/Editora. Sociedad de Obstetricia y Ginecología de Venezuela: Caracas, Distrito Capital, Venezuela. Correo electrónico: mireyagonzalezb@gmail.com


Los fundamentos de la inteligencia artificial (IA) como disciplina se establecieron en la década de 1950, bajo la hipótesis formulada por John McCarthy, quien estableció que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con tanta precisión que se puede hacer que una máquina lo simule. El desarrollo de la IA supuso un reto triple: recopilar una cantidad de datos sin precedentes para el entrenamiento y la validación de algoritmos, construir ordenadores con suficiente potencia computacional y crear algoritmos para simular las funciones de la inteligencia humana (por ejemplo, razonamiento, aprendizaje, adaptación, visión, interacción) 1.

ChatGPT fue creado por OpenAI y puesto a disposición del público de forma gratuita el 30 de noviembre de 2022. Ha tenido un impacto tan amplio y disruptivo que muchos creen que los albores de la IA generativa constituyen una era tecnológica de importancia similar a la energía eléctrica. Desde finales de 2023, mientras GPT-4 (el último modelo de ChatGPT) seguía liderando el panorama de los LLM (Modelos de Lenguaje de Gran Tamaño o de Largo Alcance) fáciles de usar, se enfrenta a la creciente competencia de empresas como Llama de Meta, Bing AI de Microsoft, Poe de Quora, Claude-2 de Anthropic y Bard de Google2.

Las aplicaciones de los procesos de inteligencia artificial (IA) han crecido significativamente en todas las disciplinas médicas durante las últimas décadas. En medicina se han aplicado dos tipos principales de IA: la IA simbólica (base de conocimientos y ontologías) y la IA no simbólica (aprendizaje automático y redes neuronales artificiales). Según describen Dhombres y cols. 1, para 2022, las publicaciones en IA en medicina habían crecido rápidamente durante las últimas dos décadas: 119 325 citas estaban referenciadas en PubMed, el 93 % de las cuales se ha publicado desde el año 2000.

Estas cifras ponen en evidencia que el uso de la IA en la publicación científica no solo es inminente, sino que ya es una realidad. A este respecto, preocupa el riesgo de que las herramientas de IA, al ser más rápidas, precisas y eficientes, puedan reemplazar las contribuciones humanas a la investigación científica. Guzik y Sitek 3 señalan que, al menos en la actualidad, la flexibilidad, la creatividad y la singularidad de la mente humana hacen creer que los descubrimientos científicos impulsados por humanos, aunque cuentan con la gran ayuda de las herramientas de IA, seguirán estando en el centro del progreso médico. El crecimiento de las herramientas de IA puede revolucionar en gran medida la publicación de ciencias médicas. Sin embargo, esta no es la única preocupación. Estas tecnologías abren nuevas posibilidades, pero también nuevos desafíos para el mundo de la publicación científica 4.

Los artículos científicos se presentan clásicamente para su publicación solo después de meses o incluso años de investigación, pero el advenimiento de estos LLM plantea preguntas sobre la distinción entre el trabajo genuino y la generación automatizada de texto; y sobre la posibilidad de garantizar la integridad científica de las presentaciones. Algunos equipos ya han citado a ChatGPT como coautor, lo que plantea cuestiones fundamentales sobre lo que significa la autoría y las responsabilidades que conlleva. A medida que la IA se infiltra gradualmente en el proceso editorial, se vuelve esencial comprender sus ventajas e inconvenientes y los desafíos éticos involucrados 4.

A este respecto, es fundamental recordar las condiciones establecidas por el International Committee of Medical Journal Editors (ICMJE) 5 para que una persona pueda ser considerada como autor. El ICMJE recomienda que la autoría se base en los siguientes cuatro criterios: 1. Contribuciones sustanciales a la concepción o diseño de la obra; o la adquisición, análisis o interpretación de datos para el trabajo; 2. Redactar el trabajo o revisarlo críticamente en busca de contenido intelectual importante; 3. Aprobación final de la versión a publicar; 4. Acuerdo de ser responsable de todos los aspectos del trabajo para garantizar que las cuestiones relacionadas con la exactitud o integridad de cualquier parte del mismo se investiguen y resuelvan adecuadamente. Además de ser responsable de las partes del trabajo realizado, un autor debe ser capaz de identificar qué coautores son responsables de otras partes específicas del trabajo, y deben tener confianza en la integridad de las contribuciones de sus coautores. Estos criterios de autoría tienen como objetivo reservar el estatus de autoría para aquellos que merecen crédito y pueden asumir la responsabilidad de la obra.

La IA puede formar parte de todo el proceso de una publicación científica. Así, por ejemplo, en el proceso de revisión, entre los autores antes de la entrega, y luego, en el comité editorial, la IA puede ayudar a detectar y corregir errores tipográficos y gramaticales. Esto generalmente se hace manualmente y puede ser un trabajo laborioso, especialmente para artículos multilingües. La IA no solo puede acelerar el proceso, sino también hacer que el resultado sea más confiable e inteligible. En cuanto al contenido de los artículos, la IA puede mejorar el estilo, la formulación y la estructura, mejorando la claridad y la legibilidad, por ejemplo, detectando frases excesivamente largas o ambiguas y giros de frase demasiado repetitivos. La coherencia general de un artículo también puede mejorarse reorganizando el contenido para que los argumentos de los autores sean más fáciles de seguir 4.

Las herramientas de aprendizaje profundo pueden estimar qué artículos pueden despertar interés o satisfacer las necesidades de un público determinado. Como medio para personalizar el contenido, la IA puede ofrecer a los lectores contenidos adaptados a sus intereses, historial de lectura y especialidad médica. En lugar de navegar sistemáticamente a través de motores de búsqueda y revistas o flujos de información genérica, los profesionales de la salud y los investigadores pueden acceder a contenido que coincida con sus necesidades específicas. La configuración de estos sistemas, que ya existen, puede optimizar el tiempo y la atención 4.

La IA generativa puede acelerar las etapas desde el primer envío hasta la publicación en línea. Esto puede incluir una verificación inicial para asegurarse de que el artículo cumple con las instrucciones para los autores de la revista, junto con el envío de los artículos a los revisores apropiados e, incluso, la revisión final antes de la publicación. También puede utilizarse para desenmascarar el plagio, las imágenes manipuladas y los datos fraudulentos. Su incorporación en el proceso editorial puede reforzar la confianza de los editores en la autenticidad de los estudios que se publican, al tiempo que desalienta el fraude. Dicho esto, la detección se está volviendo cada vez más difícil a medida que avanzan las aplicaciones generativas 4.

Así como este recurso tiene ventajas potenciales para los editores, también conlleva desafíos éticos y dudas sobre la transparencia. Puede ser útil en la fase de revisión por pares, pero depender de ella para la toma de decisiones reales socavaría la integridad editorial. La dependencia excesiva de los procesos automatizados podría eclipsar el juicio crítico, que solo la inteligencia humana puede proporcionar. Además, los algoritmos, por muy sofisticados que sean, no son infalibles y están abiertos a sesgos, lo que refleja los prejuicios del programador y los presentes en el conjunto de datos de entrenamiento 4.

Ørstavik 6, en 2024, informó sobre un grupo de investigación japonés que había publicado un artículo sobre el servidor de preprints arXiv. No solo el artículo de preimpresión se escribió utilizando IA, sino que la búsqueda bibliográfica, la formulación y prueba de hipótesis, así como la explicación de las conclusiones y la discusión de los resultados fueron realizadas por IA. Según se informa, esta es la primera vez que la IA ha estado detrás de todo el proceso de investigación. La calidad del artículo es incierta porque no ha sido revisado por pares, excepto por el propio chatbot de IA. En este sentido, es importante la reglamentación y los mecanismos de control, y estas medidas se están poniendo en marcha gradualmente.

La Unión Europea (UE) publicó las Living Guidelines on the Responsible Use of Generative AI in Research7. Estas guías recomiendan que, para que la IA generativa se utilice de manera responsable, los investigadores deben: 1. Seguir siendo el responsable último de la producción científica (esto incluye la integridad de los contenidos, el enfoque crítico sobre los resultados del uso de la IA, considerar que los sistemas de IA no son autores ni coautores porque la autoría implica responsabilidad y recae sobre investigadores humanos); 2. Utilizar la IA generativa de forma transparente; 3. Prestar especial atención a las cuestiones relacionadas con la privacidad, la confidencialidad y los derechos de propiedad intelectual al compartir información sensible o protegida con herramientas de IA; 4. Respetar la legislación nacional, de la UE e internacional aplicable, en particular, los resultados producidos por la IA generativa que pueden ser especialmente sensibles en relación con la protección de los derechos de propiedad intelectual y los datos personales; 5. Aprender continuamente a utilizar correctamente las herramientas de IA generativa para maximizar sus beneficios, en particular mediante la formación; 6. Abstenerse de utilizar sustancialmente herramientas de IA generativa en actividades sensibles que puedan afectar a otros investigadores u organizaciones (por ejemplo, revisión por pares, evaluación de propuestas de investigación, etc.) 7.

En consecuencia, la mayoría de las revistas de ciencias médicas, ahora incluyen una sección en sus directrices para autores sobre el uso de la IA. De acuerdo con las directrices de, por ejemplo, el Committee on Publication Ethics (COPE) 8 y el ICMJE 5. La revista de Obstetricia y Ginecología de Venezuela se publica siguiendo los lineamientos de este último comité, por lo que resulta pertinente incluir aquí lo que ha establecido con relación al uso de la IA en las publicaciones científicas.

En la actualización de mayo de 2023 9,10, el ICMJE añadió una nueva sección (II.A.4) y revisó otras secciones (II.C.3, IV.A.3.g) para proporcionar orientación sobre cómo se debe y no se debe reconocer el trabajo realizado con la ayuda de la tecnología de IA (incluido ChatGPT). Esta sección incluye las funciones y responsabilidades de los autores, colaboradores, revisores, editores y propietarios y, dentro de la definición de la función de los autores y colaboradores, puntualiza: 1. Por qué es importante la autoría 2. ¿Quién es un autor? 3. Colaboradores no autores y 4. Tecnología asistida por inteligencia artificial (IA). Este punto 4 fue corregido y ampliado en la actualización de enero de 2024 11 y no hubo cambios en la última actualización de enero de 2025 5.

Así, el texto actual señala que, en el momento de la presentación, la revista debe exigir a los autores que revelen si utilizaron tecnologías asistidas por IA (como LLM, chatbots o creadores de imágenes) en la producción del trabajo presentado. Los autores que utilicen dicha tecnología deberán describir, tanto en la carta de presentación como en el trabajo presentado en la sección apropiada si corresponde, cómo la utilizaron. Por ejemplo, si se utiliza la IA para ayudar a la redacción, se debe describir en la sección de agradecimientos. Si se utilizó la IA para la recopilación de datos, el análisis o la generación de figuras, los autores deben describir este uso en los métodos. Los chatbots (como ChatGPT) no deben figurar como autores porque no pueden ser responsables de la exactitud, integridad y originalidad del trabajo, y estas responsabilidades son necesarias para la autoría. Por lo tanto, los humanos son responsables de cualquier material enviado que incluya el uso de tecnologías asistidas por IA. Los autores deben revisar y editar cuidadosamente el resultado porque la IA puede generar resultados que pueden ser incorrectos, incompletos o sesgados. Los autores no deben incluir a la IA y a las tecnologías asistidas por IA como autores o coautores, ni citar a la IA como autor. Los autores deben poder afirmar que no hay plagio en su artículo, ni siquiera en el texto y las imágenes producidas por la IA. Los seres humanos deben asegurarse de que haya una atribución adecuada de todo el material citado, incluidas las citas completas 5.

El potencial transformador de la IA en la publicación de ciencias médicas es incuestionable, y los médicos deben comprometerse con un debate científico global continuo sobre la investigación y sobre la seguridad de la IA. De esta manera, la sociedad podrá beneficiarse de las fortalezas de la IA para el avance de la ciencia médica y la mejora de los resultados de salud global, lo que permitirá desarrollar mejores enfoques personalizados en las condiciones que causan la mayoría de las muertes globales. Los autores, revisores y editores, deben comprometerse con estos esfuerzos para garantizar el crecimiento responsable de este potencial 3. El Comité Editorial está trabajando para incorporar las nuevas recomendaciones del ICMJE sobre el uso de IA en sus recomendaciones para la publicación.

REFERENCIAS

1. Dhombres F, Bonnard J, Bailly K, Maurice P, Papageorghiou AT, Jouannic JM. Contributions of Artificial Intelligence Reported in Obstetrics and Gynecology Journals: Systematic Review. J Med Internet Res. 2022;24(4):e35465. DOI: 10.2196/35465. [ Links ]

2. Armitage R. Generative AI in medical writing: co-author or tool? Br J Gen Pract. 2024;74(740):126-127. DOI: 10.3399/ bjgp24X736605. [ Links ]

3. Guzik TJ, Sitek A. Global accord on the integration of artificial intelligence in medical science publishing: implications of the Bletchley Declaration. Cardiovasc Res. 2023;119(17):2681- 2682. DOI: 10.1093/cvr/cvad170. [ Links ]

4. Jacques T, Sleiman R, Diaz MI, Dartus J. Artificial intelligence: Emergence and possible fraudulent use in medical publishing. Orthop Traumatol Surg Res. 2023;109(8):103709. DOI: 10.1016/j.otsr.2023.103709. [ Links ]

5. International Committee of Medical Journal Editors [Internet]. Recommendations for the Conduct, Reporting, Editing and Publication of Scholarly Work in Medical Journals; 2025 [actualizado enero de 2025; consultado 2 de marzo de 2025]. Disponible en: Disponible en: https://www.icmje.org/icmje-recommendations.pdfLinks ]

6. Ørstavik R. Artificial intelligence in medical publishing. Tidsskr Nor Laegeforen. 2024;144(12). English, Norwegian. DOI: 10.4045/tidsskr.24.0514. [ Links ]

7. European Commission. Living Guidelines on the Responsible Use of Generative AI in Research [Internet]. Bruselas: European Comission; 2024 [consultado 2 de marzo de 2025]. Disponible en: Disponible en: https://research-and-innovation.ec.europa.eu/document/2b6cf7e5- 36ac-41cb-aab5-0d32050143dc_enLinks ]

8. Publicationethics.org [Internet]. Hampshire (United Kingdom): COPE. Guidance and tolls; [consultado 2 de marzo de 2025]. Disponible en: https://publicationethics.org/guidance?query=guidelines+for+authors+on+the+use+of+AI&sort_by=relevanceLinks ]

9. International Committee of Medical Journal Editors [Internet]. Up-Dated ICMJE Recommendations (May 2023). 2023 [consultado 2 de marzo de 2025]. Disponible en: Disponible en: https://www.icmje.org/news-and-editorials/updated_ recommendations_may2023.htmlLinks ]

10. International Committee of Medical Journal Editors [Internet]. Recommendations for the Conduct, Reporting, Editing and Publication of Scholarly Work in Medical Journals. Annotated PDF; 2023 [actualizado mayo de 2023; consultado 2 de marzo de 2025]. Disponible en: https://www.icmje.org/news-and- editorials/icmje-recommendations_annotated_may23.pdfLinks ]

11. International Committee of Medical Journal Editors [Internet]. Recommendations for the Conduct, Reporting, Editing and Publication of Scholarly Work in Medical Journals. Annotated PDF; 2024 [actualizado enero de 2024; consultado 2 de marzo de 2025]. Disponible en: Disponible en: https://www.icmje.org/news-and- editorials/icmje-recommendations_annotated_jan24.pdfLinks ]

1Forma de citar este artículo: González-Blanco M. Uso de la Inteligencia Artificial en la publicación de artículos científicos. Rev Obstet Ginecol Venez. 2025; 85(1):1-4. DOI: 10.51288/00850103

Publicado: 21 de Marzo de 2025

*Correo de correspondencia: Mireya González Blanco. Correo electrónico: mireyagonzalezb@gmail.com /rogvenezuela@ gmail.com

Sin conflictos de interés.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons