Por Ricardo Limongi França Coelho e Luis Carlos Coelho
Introducción
La irrupción de la inteligencia artificial generativa en la producción científica ha suscitado intensos debates sobre la integridad, la transparencia y, sobre todo, la autoría. Estudios recientes indican que el uso de modelos lingüísticos en artículos científicos ha crecido exponencialmente: análisis de grandes corpus han identificado evidencia de modificación por IA en hasta el 22,5% de los resúmenes de ciencias de la computación. Revistas científicas de alto impacto, editoriales y organizaciones de ética en publicaciones han adoptado una postura relativamente consensuada: los sistemas de IA no pueden figurar como autores. Sin embargo, más allá de las directrices normativas, persiste una pregunta filosófica fundamental: ¿cuál es la naturaleza de la relación entre el investigador y la IA en el proceso de producción de conocimiento?
Este texto propone que la perspectiva mayéutica socrática, el método de “dar a luz ideas”, ofrece un marco conceptual fructífero para repensar esta relación. Más que una herramienta para extraer información, la IA puede entenderse como un interlocutor dialógico que ayuda a los investigadores a articular el conocimiento que ya llevan en gestación.
La mayéutica como metáfora de la producción de conocimiento.
El término “mayéutica” deriva del griego maieutikós, que significa “arte de la obstetricia”. Sócrates empleó esta metáfora deliberadamente: así como su madre, Fenarete, era partera y ayudaba a las mujeres a dar a luz, él se consideraba un partero de ideas, ayudando a sus interlocutores a generar conocimientos que ya llevaban dentro, pero que aún no habían articulado ni hecho conscientes.
El método funciona esencialmente mediante preguntas sucesivas. En lugar de transmitir el conocimiento directamente, Sócrates interrogaba a sus interlocutores para que examinaran sus propias creencias, identificaran contradicciones en su razonamiento y llegaran gradualmente a una comprensión más refinada. La premisa subyacente es que el conocimiento genuino no puede simplemente depositarse en alguien desde fuera, sino que debe surgir de un proceso activo de reflexión y descubrimiento personal.
Esta perspectiva tiene profundas implicaciones para el debate sobre la IA y la autoría científica. Si el conocimiento genuino surge de un proceso dialógico de cuestionamiento y reflexión, la pregunta central no es si la IA participó en la producción del texto, sino cómo participó y, fundamentalmente, quién sigue siendo responsable del conocimiento producido.
De la extracción a la reflexión: reposicionando la relación entre el investigador y la IA.
El uso predominante de sistemas de IA generativa en el ámbito académico ha seguido una lógica instrumental: la IA se considera un oráculo que proporciona respuestas predefinidas: textos, resúmenes, análisis, códigos. Este enfoque, que podríamos llamar “extractivo”, posiciona al investigador como un consumidor pasivo de los resultados generados por las máquinas. Como advierten Birhane et al. (2023) en el artículo Science in the age of large language models1, publicado en Nature Reviews Physics, los modelos de lenguaje a gran escala presentan riesgos significativos para la ciencia, incluyendo la posibilidad de erosionar el pensamiento crítico y la originalidad.
La perspectiva mayéutica sugiere un reposicionamiento radical de esta relación. En lugar de extraer respuestas, el investigador puede utilizar la IA como un interlocutor dialógico que ayuda a aclarar, examinar y refinar ideas en gestación. El proceso iterativo de prompting se convierte así en una forma contemporánea de diálogo socrático: cada respuesta de la IA no es un punto final, sino un estímulo para una nueva reflexión.
Desde esta perspectiva, la IA asume el papel de “partera”: plantea preguntas, ofrece perspectivas alternativas, identifica lagunas en el razonamiento y cuestiona suposiciones. Sin embargo, el investigador sigue siendo quien “da a luz” el conocimiento. La responsabilidad epistémica, la capacidad y la obligación de responder por el conocimiento producido sigue siendo intransferible. Como argumenta Lloyd (2025) en Epistemic responsibility: toward a community standard for human-AI collaborations2, es necesario desarrollar estándares comunitarios para las colaboraciones entre humanos e IA que preserven esta responsabilidad epistémica.
Autoría y responsabilidad epistémica: el consenso emergente
Las principales organizaciones de ética en publicaciones científicas coinciden en un punto fundamental: los sistemas de IA no pueden ser considerados autores porque no pueden asumir responsabilidad. El Consejo COPE (2023)3 estableció, en su postura oficial, que las herramientas de IA no cumplen los requisitos de autoría porque «no pueden responsabilizarse del trabajo» ni «gestionar cuestiones relacionadas con la precisión, la integridad y la originalidad». En la misma línea, Hosseini, Rasmussen e Resnik (2023)4 argumentan en Using AI to write scholarly publications, que los sistemas de procesamiento del lenguaje natural no pueden considerarse autores porque carecen de agencia moral.
La revista Science fue categórica al afirmar, a través de su editor jefe, que «el texto generado por IA es (…) análogo al plagio» (Thorp, 2023, p. 313)5. Nature estableció sus propias directrices, enfatizando que «los modelos de lenguaje a gran escala (LLM), como ChatGPT, no cumplen nuestros criterios de autoría» (Nature Editorial, 2023, p. 612)6. Estas posturas reflejan una profunda comprensión de la naturaleza de la autoría científica: ser autor no se trata solo de producir texto, sino de asumir la responsabilidad epistémica del conocimiento comunicado.
Un análisis bibliométrico realizado por Ganjavi et al. (2024), publicado en el BMJ en artículo Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: bibliometric analysis7, examinó las directrices de las 100 editoriales académicas más importantes y las 100 revistas mejor clasificadas. Los resultados revelaron que solo el 24% de las editoriales contaban con directrices específicas sobre IA generativa, pero, entre las que sí las tenían, entre el 96% y el 98% prohibían atribuir la autoría a los sistemas de IA. Esto pone de relieve un consenso emergente que vincula la autoría con la responsabilidad, algo que las máquinas, por definición, no pueden asumir.
Implicaciones para las políticas editoriales: de la prohibición a la transparencia con reservas.
La perspectiva mayéutica ofrece un marco más matizado para las políticas editoriales que la simple dicotomía permiso/prohibición. Lo importante no es solo si se utilizó IA, sino también la naturaleza de dicho uso y, fundamentalmente, si el investigador mantuvo su posición como agente epistémico responsable durante todo el proceso.
Un análisis de las directrices de las principales editoriales revela matices importantes. Elsevier distingue entre usos aceptables (refinamiento del lenguaje, apoyo al análisis) y usos prohibidos (generación de imágenes científicas, producción de texto sin supervisión crítica). Springer Nature enfatiza que el uso debe documentarse en los métodos. Como documentan Resnik e Hosseni(2024) en The ethics of using artificial intelligence in scientific research: new guidance needed for a new tool8, existe una necesidad urgente de nuevas directrices éticas para el uso de la IA en la investigación científica, que incluyan recomendaciones que abarquen desde una definición clara del papel de la IA hasta mecanismos para verificar el contenido generado. En el contexto brasileño, Sampaio, Sabbatini e Limongi (2025) propusieron en Investigadores brasileños lanzan directrices para el uso ético y responsable de la Inteligencia Artificial Generativa (IAG)9,directrices específicas para el uso ético y responsable de la IA generativa en la investigación académica, enfatizando los principios de transparencia, rendición de cuentas e integridad. Como destacan Vasconcelos e Marušić (2025) en post Integridad científica y agencia humana en la investigación entrelazada con IA Generativa10,, publicado en el blog SciELO en Perspectiva, la cuestión central es preservar la agencia humana en la investigación intercalada con la IA generativa. Estas distinciones apuntan a un principio común: la transparencia no debe ser un fin en sí misma, sino un medio para evaluar si se ha ejercido adecuadamente la responsabilidad epistémica.
Formación de investigadores: enseñar a dialogar, no a extraer
La perspectiva mayéutica tiene implicaciones directas para la formación de investigadores en competencias relacionadas con la IA, lo que la literatura ha denominado alfabetización en IA. En un trabajo fundamental, What is AI Literacy? Competencies and Design Considerations 11 , Long e Magerko (2020) definieron la alfabetización en IA como «un conjunto de competencias que permite a las personas evaluar críticamente las tecnologías de IA, comunicarse y colaborar eficazmente con ella, y utilizarla como herramienta» (p. 2). Los autores identificaron 17 competencias esenciales, organizadas en dimensiones que abarcan desde la comprensión técnica hasta la evaluación ética.
Más que enseñar a utilizar las herramientas de IA de forma eficiente, se trata de desarrollar la capacidad de interactuar críticamente con estos sistemas. Smith et al. (2024)12 propusieron «diez reglas sencillas para el uso de modelos lingüísticos a gran escala en la ciencia», publicadas en PLoS Computational Biology, que incluyen principios como mantener un escepticismo sano, verificar los resultados, documentar el uso y comprender las limitaciones de los modelos.
Por lo tanto, implica competencias específicas: formular preguntas que estimulen la reflexión en lugar de simplemente pedir respuestas; evaluar críticamente los resultados generados; Identificar sesgos, lagunas e inconsistencias; y, fundamentalmente, ser consciente de la propia posición como agente epistémico responsable. Estas habilidades evocan la tradición socrática: el buen uso de la IA, al igual que el buen diálogo filosófico, requiere la disposición a cuestionar, incluyéndose a uno mismo.
Los programas de posgrado y la formación en metodología científica deben incorporar estas dimensiones. No se trata de prohibir el uso de la IA ni de fomentarlo acríticamente, sino de formar investigadores capaces de utilizar estas tecnologías de una manera que amplíe, y no reemplace, su capacidad intelectual.
Consideraciones finales: La IA como partera, no como oráculo
La metáfora mayéutica ofrece un marco conceptual que trasciende las dicotomías simplistas del debate actual sobre la IA en la ciencia. Ni una herramienta neutral que se pueda usar sin restricciones ni una amenaza de prohibición, la IA generativa puede entenderse como un interlocutor dialógico: una “partera” contemporánea que ayuda a los investigadores a generar el conocimiento que ya poseen en potencia.
Esta perspectiva no resuelve todas las tensiones, más persisten preguntas sobre el sesgo algorítmico, la desigualdad de acceso, los impactos ambientales y los riesgos de homogeneización del pensamiento científico. Sin embargo, reubica el debate sobre la autoría en una base más sólida: la cuestión central no es la participación de la IA, sino el mantenimiento de la responsabilidad epistémica del investigador.
Para la comunidad de la comunicación científica, como editores, revisores, gestores de revistas, el reto consiste en desarrollar mecanismos que evalúen no solo la transparencia en el uso de la IA, sino también la calidad del proceso dialógico que este representa. Para los investigadores, el reto consiste en aprender a usar la IA como Sócrates usó el diálogo: no para obtener respuestas predefinidas, sino para refinar su propio pensamiento.
En definitiva, en el método socrático, la partera no es la protagonista del parto.Ese rol le corresponde a quien da a luz. En la producción científica mediada por IA, el conocimiento genuino continúa surgiendo del investigador. La IA puede asistir en el parto, pero la responsabilidad del nacimiento sigue siendo, ineludiblemente, humana.
Notas
1.BIRHANE, A., et al. Science in the age of large language models. Nature Reviews Physics [online]. 2023, vol. 5, pp. 277-280.[viewed 21 January 2026] https://doi.org/10.1038/s42254-023-00581-4. Available from: https://www.nature.com/articles/s42254-023-00581-4 ↩
2.LLOYD, D. Epistemic responsibility: toward a community standard for human-AI collaborations. Frontiers in Artificial Intelligence [online]. 2025, vol. 8, 1635691. [viewed 21 January 2026]. https://doi.org/10.3389/frai.2025.1635691. Available from: https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2025.1635691/full ↩
3.COPE COUNCIL. COPE Authorship and AI tools [online]. Committee on Publication Ethics, 2023. [viewed 21 January 2026]. https://doi.org/10.24318/cCVRZBms. Available from: https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools ↩
4.HOSSEINI, M., RASMUSSEN, L. M., e RESNIK, D. B. Using AI to write scholarly publications. Accountability in Research [online]. 2023, vol. 31, no. 7, pp. 715-723. [viewed 21 January 2026]. https://doi.org/10.1080/08989621.2023.2168535. Available from: https://www.tandfonline.com/doi/full/10.1080/08989621.2023.2168535 ↩
5.THORP, H. H. ChatGPT is fun, but not an author. Science [online]. 2023, vol. 379, no. 6630, p. 313. [viewed 21 January 2026]. https://doi.org/10.1126/science.adg7879. Available from: https://www.science.org/doi/10.1126/science.adg7879 ↩
6.Nature Editorial. Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature [online]. 2023, vol. 613, p. 612. [viewed 21 January 2026]. https://doi.org/10.1038/d41586-023-00191-1. Available from: https://www.nature.com/articles/d41586-023-00191-1 ↩
7.GANJAVI, C., et al. Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: bibliometric analysis. The BMJ [online]. 2024, vol. 384, e077192. [viewed 21 January 2026]. https://doi.org/10.1136/bmj-2023-077192. Available from: https://www.bmj.com/content/384/bmj-2023-077192 ↩
8.RESNIK, D. B., e HOSSEINI, M. The ethics of using artificial intelligence in scientific research: new guidance needed for a new tool. AI Ethics [online]. 2024, vol. 5, no. 2, pp. 1499-1521. [viewed 21 January 2026]. https://doi.org/10.1007/s43681-024-00493-8. Available from: https://link.springer.com/article/10.1007/s43681-024-00493-8 ↩
9.SAMPAIO, R. C., SABBATINI, M., e LIMONGI, R. Pesquisadores brasileiros lançam diretrizes para o uso ético e responsável da Inteligência Artificial Generativa (IAG) [online]. SciELO em Perspectiva, 2025. [viewed 21 January 2026]. Available from: https://blog.scielo.org/blog/2025/02/05/pesquisadores-lancam-diretrizes-iag/ ↩
10.VASCONCELOS, S., e MARUŠIĆ, A. Integridade científica e agência humana na pesquisa entremeada por IA Generativa [online]. SciELO em Perspectiva. 2025 [viewed 21 January 2026] Available from: https://blog.scielo.org/blog/2025/05/07/integridade-cientifica-e-agencia-humana-na-pesquisa-ia-gen/ ↩
11.LONG, D., e MAGERKO, B. What is AI Literacy? Competencies and Design Considerations. In: Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. New York:, 2020 [viewed 21 January 2026]. https://doi.org/10.1145/3313831.3376727. Available from: https://dl.acm.org/doi/10.1145/3313831.3376727 ↩
12.SMITH, G. R., et al. Ten simple rules for using large language models in science, version 1.0. PLoS Computational Biology [online]. 2024, vol. 20, n.º 1, e1011767. [viewed 21 January 2026]. https://doi.org/10.1371/journal.pcbi.1011767. Available from: https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011767 ↩
Referências
BIRHANE, A., et al. Science in the age of large language models. Nature Reviews Physics [online]. 2023, vol. 5, pp. 277-280.[viewed 21 January 2026] https://doi.org/10.1038/s42254-023-00581-4. Available from: https://www.nature.com/articles/s42254-023-00581-4
COPE COUNCIL. COPE Authorship and AI tools [online]. Committee on Publication Ethics, 2023. [viewed 21 January 2026]. https://doi.org/10.24318/cCVRZBms. Available from: https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools
GANJAVI, C., et al. Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: bibliometric analysis. The BMJ [online]. 2024, vol. 384, e077192. [viewed 21 January 2026]. https://doi.org/10.1136/bmj-2023-077192. Available from: https://www.bmj.com/content/384/bmj-2023-077192
HOSSEINI, M., RASMUSSEN, L. M., e RESNIK, D. B. Using AI to write scholarly publications. Accountability in Research [online]. 2023, vol. 31, no. 7, pp. 715-723. [viewed 21 January 2026]. https://doi.org/10.1080/08989621.2023.2168535. Available from: https://www.tandfonline.com/doi/full/10.1080/08989621.2023.2168535
LIANG, W., et al. Quantifying large language model usage in scientific papers. Nature Human Behaviour [online]. [viewed 21 January 2026]. https://doi.org/10.1038/s41562-025-02273-8. Available from: https://www.nature.com/articles/s41562-025-02273-8
LLOYD, D. Epistemic responsibility: toward a community standard for human-AI collaborations. Frontiers in Artificial Intelligence [online]. 2025, vol. 8, 1635691. [viewed 21 January 2026]. https://doi.org/10.3389/frai.2025.1635691. Available from: https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2025.1635691/full
LONG, D., e MAGERKO, B. What is AI Literacy? Competencies and Design Considerations. In: Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. New York:, 2020 [viewed 21 January 2026]. https://doi.org/10.1145/3313831.3376727. Available from: https://dl.acm.org/doi/10.1145/3313831.3376727
Nature Editorial. Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature [online]. 2023, vol. 613, p. 612. [viewed 21 January 2026]. https://doi.org/10.1038/d41586-023-00191-1. Available from: https://www.nature.com/articles/d41586-023-00191-1
RESNIK, D. B., e HOSSEINI, M. The ethics of using artificial intelligence in scientific research: new guidance needed for a new tool. AI Ethics [online]. 2024, vol. 5, no. 2, pp. 1499-1521. [viewed 21 January 2026]. https://doi.org/10.1007/s43681-024-00493-8. Available from: https://link.springer.com/article/10.1007/s43681-024-00493-8
SAMPAIO, R. C., SABBATINI, M., e LIMONGI, R. Pesquisadores brasileiros lançam diretrizes para o uso ético e responsável da Inteligência Artificial Generativa (IAG) [online]. SciELO em Perspectiva, 2025. [viewed 21 January 2026]. Available from: https://blog.scielo.org/blog/2025/02/05/pesquisadores-lancam-diretrizes-iag/
SMITH, G. R., et al. Ten simple rules for using large language models in science, version 1.0. PLoS Computational Biology [online]. 2024, vol. 20, n.º 1, e1011767. [viewed 21 January 2026]. https://doi.org/10.1371/journal.pcbi.1011767. Available from: https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011767
THORP, H. H. ChatGPT is fun, but not an author. Science [online]. 2023, vol. 379, no. 6630, p. 313. [viewed 21 January 2026]. https://doi.org/10.1126/science.adg7879. Available from: https://www.science.org/doi/10.1126/science.adg7879
VASCONCELOS, S., e MARUŠIĆ, A. Integridade científica e agência humana na pesquisa entremeada por IA Generativa [online]. SciELO em Perspectiva. 2025 [viewed 21 January 2026] Available from: https://blog.scielo.org/blog/2025/05/07/integridade-cientifica-e-agencia-humana-na-pesquisa-ia-gen/
Sobre Ricardo Limongi França Coelho
Professor de Marketing e Inteligência Artificial, Universidade Federal de Goiás (UFG), Goiânia–GO, e Editor-Chefe do periódico Brazilian Administration Review (BAR) da ANPAD, Bolsista DT-CNPq.
Sobre Luis Carlos Coelho
Economista pela Universidade de Mogi das Cruzes
Traducido del original en portugués por Ernesto Spinak.
Como citar este post [ISO 690/2010]:

















Comentarios recientes