Evaluación preliminar del método ACHRON como modelo didáctico para escritura académica con inteligencia artificial generativa

 

Preliminary evaluation of the ACHRON method as a didactic model for academic writing with generative artificial intelligence

 

https://doi.org/10.47606/ACVEN/PH0441

 

José Eugenio Chafloque-Capuñay1*

https://orcid.org/0009-0002-4642-1540

Josechafloque4@hotmail.com

Patricia de Lourdes Juárez-Jiménez2

https://orcid.org/0009-0003-8939-202X

pjuarez1666@medicina.usac.edu.gt

Carmen Inocencia Quintana del Solar3

https://orcid.org/0000-0003-4676-5028

cquintanad@unmsm.edu.pe

Jacqueline del Pilar Hurtado-Yugcha4

https://orcid.org/0000-0001-9367-3367

jacquelinedhurtado@uta.edu.ec

Mario Héctor Avalos-Marquez5

https://orcid.org/0009-0003-4882-2839

mavalosma12@ucvvirtual.edu.pe

 

Recibido: 08/10/2025                                                            Aceptado: 18/01/2026

RESUMEN

 

El presente estudio evalúa el método ACHRON como andamiaje crítico-ético para guiar el uso responsable de inteligencia artificial (IA) generativa en la escritura académica. El propósito es valorar su eficacia para mejorar la calidad argumentativa y preservar la agencia autoral durante la elaboración del marco teórico. Se utilizó un enfoque mixto con predominio cuantitativo, mediante un diseño cuasiexperimental pretest–postest de un solo grupo y una encuesta breve de percepción. Participaron 87 estudiantes en un curso virtual de tesis (junio-noviembre de 2025): 15 de pregrado y 72 de posgrado (44 de maestría y 28 de doctorado). Los productos académicos se evaluaron en ambos momentos con una rúbrica analítica de siete dimensiones (0-28). El puntaje total aumentó de M = 13.74 (DE = 3.97) a M = 21.95 (DE = 4.03). El cambio fue significativo, t(86) = 15.81, p < .001, y presentó un tamaño de efecto grande (d_z = 1.70). Las mejoras fueron más marcadas en uso ético de la IA, originalidad y articulación con el problema de investigación. La encuesta mostró alta consistencia interna en este piloto (α = .97; casos completos n = 85) y valoraciones mayoritariamente favorables. En respuestas abiertas se destacaron aportes en organización y trazabilidad, junto con retos en formulación de prompts y verificación de fuentes. Dado el diseño intragrupo sin control y la ausencia de confiabilidad interevaluador, los hallazgos se interpretan como evidencia preliminar consistente con la utilidad formativa de ACHRON, sin inferir causalidad estricta.

 

Palabras Clave: inteligencia artificial; escritura; enseñanza superior; curso postuniversitario; método de enseñanza; evaluación de la educación.

1.     Centro de Medicina Biológica Divina Esperanza- Perú

2.     Universidad de San Carlos de Guatemala- Guatemala

3.     Universidad Nacional Mayor de San Marcos-Perú

4.     Universidad Técnica de Ambato- Ecuador

5.     Universidad Cesar Vallejo-Perú

*          Autor de correspondencia: Josechafloque4@hotmail.com

ABSTRACT

 

This study evaluates the ACHRON method as a critical-ethical scaffold to guide the responsible use of generative artificial intelligence (AI) in academic writing. The aim is to assess its effectiveness in improving argumentative quality and preserving authorial agency during theoretical-framework writing. A mixed-methods design with quantitative priority was implemented, using a single-group quasi-experimental pretest–posttest approach and a brief perception survey. Participants were 87 students in an online thesis-writing course (June–November 2025): 15 undergraduates and 72 graduate students (44 master’s and 28 doctoral). Academic products were assessed at both time points with a seven-dimension analytic rubric (0–28). Total scores increased from M = 13.74 (SD = 3.97) to M = 21.95 (SD = 4.03). The gain was significant, t(86) = 15.81, p < .001, with a large effect size (d_z = 1.70). Improvements were most evident in ethical AI use, originality, and alignment with the research problem. The survey showed excellent internal consistency in this pilot (α = .97; complete cases n = 85) and predominantly positive perceptions. Open-ended responses highlighted benefits for organization and traceability, alongside challenges in prompt formulation and source verification. Given the single-group design and the lack of inter-rater reliability estimation, results are interpreted as preliminary evidence consistent with ACHRON’s pedagogical value, without making strict causal claims.

 

Keywords: artificial intelligence; writing; higher education; postgraduate courses; teaching methods; educational evaluation.

 

INTRODUCCIÓN

En las dos últimas décadas, la escritura académica en la educación superior ha experimentado transformaciones sustantivas impulsadas por la expansión tecnológica y el fortalecimiento de enfoques centrados en la alfabetización académica crítica (Rey-Castillo & Gómez-Zermeño, 2021). En los últimos años, la irrupción de sistemas de inteligencia artificial (IA) generativa, como ChatGPT, ha complejizado este panorama al tensionar las fronteras entre autoría humana, mediación algorítmica y pensamiento autónomo (Díaz-Cuevas & Rodríguez-Herrera, 2024).

Si bien estas tecnologías amplían posibilidades de personalización en la enseñanza de la escritura, también abren vacíos éticos y epistemológicos que las políticas universitarias aún abordan de forma incipiente (Palacios-Núñez et al., 2025; Khalifa & Albadawy, 2024). Se reconocen beneficios asociados con accesibilidad, velocidad de edición y mejora de la coherencia textual; sin embargo, diversos autores advierten que delegar el juicio autoral en respuestas automatizadas puede reducir la escritura a una práctica técnica y descontextualizada (Juca-Maldonado, 2024).

Desde una perspectiva ética, la adopción instrumental de la IA se vincula con riesgos como el plagio, el cambio de la autoría reflexiva, la pérdida de agencia en las decisiones de escritura y la facilitación de prácticas como la escritura fantasma (ghostwriting), lo que tensiona la integridad académica y aumenta la dependencia (Kovari, 2025; Chanpradit, 2025; Moorhouse, 2025; Bittle & El-Gayar, 2025). En América Latina, la escasez de estrategias pedagógicas críticas para integrarlas en el posgrado agrava el escenario (Mendoza-Vega et al., 2025). Por ello, se subraya la urgencia de fortalecer la formación ética, ya que muchos estudiantes las usan para ahorrar tiempo sin dimensionar riesgos ni fiabilidad (Loayza-Maturrano, 2024).

Este fenómeno no solo transforma la producción de textos, sino que también exige revisar los modelos pedagógicos que orientan la enseñanza de la escritura y la producción de conocimiento universitario. Ante ello, se proponen enfoques que integran la IA como andamiaje cognitivo, evitando el rechazo tecnofóbico y la adopción acrítica. Así, se refuerzan la metacognición y el razonamiento conceptual en tareas exigentes, como la elaboración del marco teórico (Avendaño et al., 2017).

Pese a la expansión del uso de IA generativa, persiste una brecha metodológica, ya que escasean modelos operativos que orienten su utilización sin comprometer la agencia autoral, la trazabilidad de las fuentes ni la integridad académica. Esta carencia resulta especialmente crítica en la construcción del marco teórico en posgrado, donde se exige articulación conceptual, fundamentación empírica y decisiones argumentativas explícitas.

En respuesta a esta necesidad, el presente estudio evalúa el método ACHRON, un andamiaje crítico ético para guiar el uso responsable de la IA en la escritura académica. Se organiza en seis fases: Auditar, Capturar, Homologar, Rastrear, Organizar y Narrar. El propósito es valorar su eficacia para mejorar la calidad argumentativa y preservar la agencia autoral durante la elaboración del marco teórico.

Se plantean las siguientes preguntas de investigación:

1. ¿En qué medida la aplicación del método ACHRON mejora la calidad argumentativa del marco teórico elaborado con apoyo de IA generativa en estudiantes de posgrado?

2. ¿Cómo perciben los participantes la utilidad, la pertinencia y las implicaciones éticas del método en su proceso de escritura académica?

En tal sentido, este estudio contribuye teóricamente porque permite enriquecer los modelos de alfabetización académica crítica con un enfoque ético en la integración de IA, al ofrecer un método operativo que empodera a educadores y estudiantes para utilizar responsablemente estas tecnologías en contextos académicos.

 

MARCO TEÓRICO

 

Fundamentos epistemológicos del método ACHRON

El uso de IA generativa en la escritura académica ha reconfigurado la lectura, síntesis y redacción. Ha introducido mediaciones algorítmicas en tareas antes atribuidas al juicio humano. En educación superior, este fenómeno ha intensificado debates sobre autoría, alfabetización disciplinar e integridad académica. También ha reactivado la discusión sobre responsabilidad epistémica en actividades de alta complejidad, como la elaboración del marco teórico (Rey-Castillo & Gómez-Zermeño, 2021; Díaz-Cuevas & Rodríguez-Herrera, 2024; Sánchez Toyos et al., 2024). La literatura reciente reporta un aumento sostenido de investigación y adopción de IA en educación desde 2022. En este marco, la discusión se orienta hacia criterios de integración responsable en la producción académica universitaria (Garzón et al., 2025).

Revisiones sistemáticas confirman que la IA generativa ya no opera como una herramienta periférica. Más bien, actúa como un mediador que incide en la producción de conocimiento académico, especialmente en contextos universitarios e investigativos (Castillo-Martínez et al., 2024).

En esa línea, la literatura documenta beneficios del uso de IA generativa en la escritura académica. Se reportan mejoras en la fluidez textual, en la organización de ideas y en el acceso a procesos de revisión (Chanpradit, 2025; Moorhouse, 2025). En estudios sobre retroalimentación asistida por IA también se observan avances en la autorregulación del aprendizaje y en la claridad de los criterios de escritura. Estos efectos dependen de que la herramienta se integre como mediación pedagógica, sin sustituir el juicio académico (Ba et al., 2025). Cuando falta esa mediación, el balance se vuelve problemático. Se han descrito riesgos como la homogeneización discursiva, la dependencia cognitiva y el debilitamiento de la agencia autoral (Baldrich et al., 2024; Tillmanns et al., 2025; Hidayatullah et al., 2025).

El debate contemporáneo prioriza condiciones metodológicas para integrar la IA generativa sin comprometer la calidad epistémica ni la responsabilidad académica (Tang et al., 2024; Bjelobaba et al., 2025). En este marco, distintos autores subrayan la necesidad de marcos operativos que aseguren trazabilidad de fuentes, control semántico y explicitación de decisiones teóricas durante el proceso de escritura (Pérez et al., 2025; Naznin et al., 2025).

Investigaciones basadas en la percepción estudiantil indican una aceptación creciente del uso de herramientas de IA en la escritura académica. Persisten, no obstante, preocupaciones sobre la fiabilidad de la información. También se advierte una posible erosión de habilidades cognitivas avanzadas, lo que refuerza la necesidad de estrategias formativas explícitas (Gasaymeh et al., 2024).

 

El método ACHRON como andamiaje epistemológico basado en evidencias de proceso

En respuesta a estas tensiones, el método ACHRON se presenta como un andamiaje epistemológico y pedagógico para integrar de forma crítica la IA generativa en la elaboración del marco teórico. Más que centrarse solo en el producto textual, parte de una idea sencilla: la escritura académica es un proceso de razonamiento situado. Por ello, exige que las decisiones conceptuales, argumentativas y metodológicas se hagan explícitas y verificables. Esta orientación coincide con enfoques que subrayan la importancia de transparentar los procesos cognitivos mediados por tecnología en la producción académica (Castillo-Martínez et al., 2024).

El principio central es que los riesgos epistémicos asociados al uso de IA no se distribuyen de manera uniforme. Incluyen alucinaciones, sesgos de selección, inconsistencias conceptuales o delegación del juicio interpretativo. Su manifestación varía según la etapa del proceso de construcción teórica (Bolaños et al., 2024; Arar et al., 2025). En consecuencia, el método organiza el trabajo teórico en una secuencia de fases que permite gestionarlos de forma diferenciada. Con ello, se busca reducir fallas sin desplazar la responsabilidad interpretativa del estudiante o del investigador.

ACHRON se estructura en seis fases operativas, Auditar, Capturar, Homologar, Rastrear, Organizar y Narrar, cada una asociada a un tipo de riesgo epistémico predominante y a evidencias de proceso que documentan y justifican las decisiones adoptadas. Esta lógica se alinea con enfoques que destacan la importancia de visibilizar los procesos cognitivos en tareas de escritura compleja, especialmente en posgrado (Avendaño et al., 2017; Panadero & Jonsson, 2013), así como con propuestas contemporáneas que enfatizan la necesidad de modelos replicables para la integración responsable de la inteligencia artificial en la educación superior (Ba et al., 2025).

Desde una perspectiva formativa, ACHRON no busca automatizar la producción textual, sino estructurar el razonamiento teórico, promoviendo coherencia conceptual, trazabilidad bibliográfica y articulación explícita entre categorías teóricas y el problema de investigación. La arquitectura conceptual del método y la correspondencia entre fases, riesgos y productos verificables se sintetizan en la Tabla 1, mientras que su operacionalización empírica se desarrolla en la sección Metodología, entendiéndose que esta tabla cumple función teórico – operacional..

 

Tabla 1.

Método ACHRON: fases, riesgos epistémicos, acciones y productos

Fase

Propósito

Riesgos a gestionar

Acciones replicables (qué debe hacer el estudiante)

Producto verificable (evidencia mínima)

A – Auditar

Definir límites éticos y epistémicos antes de escribir.

Alucinaciones, referencias fabricadas, sesgos acríticos.

Delimitar riesgos; identificar criterios de verificación por etapa; establecer reglas de uso ético.

Matriz de concienciación o protocolo de uso de IA (límites y controles explícitos).

C – Capturar

Identificar categorías y relaciones conceptuales.

“Captura superficial”, dependencia cognitiva.

Clarificar términos clave; categorizar autores; registrar convergencias y variantes.

Mapa conceptual inicial (categorías emergentes, definición y fuente).

H – Homologar

Unificar definiciones y depurar redundancias.

Fragmentación conceptual, inconsistencias teóricas.

Comparar definiciones; seleccionar definiciones de trabajo; filtrar términos coherentes.

Tabla de homologación terminológica (término–definición–sinónimos válidos–descriptores).

R – Rastrear

Realizar búsqueda trazable y replicable.

Fuentes no verificables, referencias fabricadas o selección sesgada.

Formular criterios de inclusión/exclusión; registrar búsqueda; justificar selección.

Registro de búsqueda e info list final (bases consultadas, DOI o URL).

O – Organizar

Construir arquitectura teórica coherente.

Marco argumentativo débil o no jerarquizado.

Agrupar categorías; definir relaciones jerárquicas y núcleos interpretativos.

Esquema jerárquico o red de categorías articuladas (niveles explícitos).

N – Narrar

Redactar preservando agencia autoral.

Delegación de escritura o pérdida de voz argumentativa.

Redactar con regla AEC: afirmación–evidencia–conexión interpretativa.

Marco teórico con trazabilidad AEC (afirmación conceptual, evidencia citada y conexión analítica por párrafo).

La operacionalización concreta de estas fases y de sus productos verificables se desarrolla en la sección metodológica.

 

Gestión situada de riesgos epistémicos y preservación de la agencia autoral

Un aporte distintivo de ACHRON radica en su abordaje de la agencia autoral en contextos de escritura mediados por IA. Frente a modelos que conciben la IA como sustituto cognitivo o, en el extremo opuesto, como herramienta neutral, el método adopta una noción de autoría ampliada, en la que la mediación tecnológica se reconoce, pero la responsabilidad interpretativa permanece en el sujeto que escribe (Raitskaya & Tikhonova, 2024; Maturana, 2025). Esta postura converge con recomendaciones contemporáneas sobre escritura académica asistida por IA, que enfatizan la transparencia del uso de herramientas generativas como condición de integridad y rechazan su atribución como autoría debido a la imposibilidad de asumir responsabilidad por la veracidad y la rendición de cuentas del manuscrito (Cheng et al., 2025). Asimismo, resulta consistente con estudios que advierten que la falta de control pedagógico puede transformar la IA en un factor de dependencia más que de apoyo cognitivo (Tillmanns et al., 2025; Hidayatullah et al., 2025).

Diversos estudios han señalado que, sin criterios operativos claros, el uso de IA generativa puede erosionar la voz académica y dificultar la evaluación de la autoría, especialmente en trabajos de síntesis teórica (Tang et al., 2024; Tillmanns et al., 2025). Para enfrentar este riesgo, ACHRON incorpora la regla Afirmación, Evidencia y Conexión (AEC) como principio para redactar el marco teórico. Esta regla establece que cada párrafo debe formular una afirmación conceptual, respaldarla con evidencia bibliográfica verificable y explicitar una conexión interpretativa propia. Con ello, se siguen recomendaciones recientes orientadas a preservar la integridad y la transparencia en la escritura académica mediada por IA (Ba et al., 2025).

Este principio es pertinente cuando la IA produce una redacción verosímil sin garantías de precisión o sugiere referencias inexistentes. Por ello, exigir evidencia verificable y una conexión interpretativa propia actúa como control epistémico interno del texto. Además, el uso ético de la IA en la escritura académica demanda mecanismos explícitos de verificación y una declaración sobre cómo se gestionó el contenido generado (Cheng et al., 2025).

Este criterio evita la acumulación de citas sin integración y limita la delegación de la argumentación en sistemas automatizados. Con ello, refuerza la coherencia lógica y el control epistémico del texto. Así, la IA se entiende como apoyo cognitivo sujeto a decisiones metodológicas explícitas. No se asume como fuente de conocimiento ni como autora implícita del discurso académico (Pérez et al., 2025; Naznin et al., 2025).

Este marco teórico sostiene que la integración responsable de la IA generativa en la escritura académica exige modelos metodológicos verificables. Estos deben organizar el razonamiento, hacer visibles las decisiones teóricas y preservar la agencia autoral. En este contexto, el método ACHRON se presenta como una propuesta situada que dialoga con la literatura contemporánea sobre escritura académica, IA y formación de posgrado. Esa pertinencia fundamenta su evaluación empírica en las secciones siguientes.

 

METODOLOGÍA

El estudio empleó un diseño mixto con predominio cuantitativo. La evaluación se estructuró como un cuasiexperimental pretest–postest de un solo grupo, complementado con evidencia cualitativa breve de percepción estudiantil. El objetivo fue estimar cambios intrasujeto en la calidad del marco teórico antes y después de implementar ACHRON en una experiencia formativa. No se incluyó grupo control porque la asignación aleatoria y la privación del acompañamiento no eran viables; así, cada estudiante actuó como su propia línea de base. La implementación se condujo como mejora pedagógica mediante un ciclo de investigación-acción (planificación, acción, observación y reflexión), siguiendo a Kemmis et al. (2014).

La muestra estuvo conformada por 87 estudiantes de pregrado y posgrado que participaron voluntariamente en un curso virtual de elaboración de tesis, desarrollado entre junio y noviembre de 2025. La distribución por nivel académico fue: pregrado (n = 15; 17.2%), maestría (n = 44; 50.6%) y doctorado (n = 28; 32.2%).

Como criterios de inclusión se consideró: (a) participación en al menos dos módulos del programa y (b) disponibilidad de productos académicos evaluables en ambos momentos (pretest–postest), asegurando emparejamiento intrasujeto. Se excluyeron participantes que no completaron las actividades o no contaron con evidencia suficiente para el emparejamiento.

Para resguardar la confidencialidad, cada participante generó un código autogenerado que permitió vincular sus productos académicos sin revelar identidad. La correspondencia entre códigos e identidad fue conocida únicamente por cada participante.

La intervención consistió en la aplicación progresiva del método ACHRON como estrategia de andamiaje destinada a fortalecer la construcción ética, argumentada y estructurada del marco teórico, integrando el uso crítico de herramientas de inteligencia artificial mediante mediación docente explícita.

Debido a que parte de los participantes carecía de experiencia en el uso académico de IA, se incorporaron sesiones iniciales de alfabetización tecnológica y reflexión ética, en concordancia con recomendaciones recientes sobre integración responsable de IA en educación superior (Sánchez Toyos et al., 2024; Tillmanns et al., 2025).

El curso se desarrolló en modalidad combinada (sincrónica y asincrónica), con dos sesiones semanales de 3 a 4 horas mediante videoconferencias (Zoom) y trabajo autónomo en línea. La estrategia didáctica incluyó práctica guiada, análisis de ejemplos, resolución de dificultades y soporte continuo a través de mensajería instantánea.

El método se implementó en sus seis fases: Auditar, Capturar, Homologar, Rastrear, Organizar y Narrar, con acompañamiento docente y apoyo de la plataforma MatrizTesis Pro. La fase final se guio por el principio Afirmación–Evidencia–Conexión (AEC), orientado a preservar la agencia autoral y evitar una escritura mecánica mediada por algoritmos.

Como evidencias formativas, los participantes entregaron tres productos académicos: matriz de consistencia del proyecto, avance del marco teórico y avance metodológico. La Tabla 1 (del manuscrito) describe la estructura del método ACHRON y la correspondencia entre fases, riesgos epistémicos y productos verificables.

Rúbrica de calidad del marco teórico. La variable principal (calidad del marco teórico) se evaluó mediante una rúbrica analítica aplicada en dos momentos (pretest–postest). Incluyó siete criterios: (1) coherencia estructural, (2) uso pertinente de fuentes con DOI, (3) claridad y profundidad conceptual, (4) articulación teórica con el problema de investigación, (5) originalidad en la construcción teórica, (6) uso ético de herramientas de IA y (7) redacción académica. Cada criterio se calificó en una escala de cuatro niveles (1–4), permitiendo obtener puntajes por dimensión y un índice global (0–28).

La rúbrica fue elaborada por el equipo investigador y sometida a juicio de expertos externos para evaluar pertinencia, claridad y coherencia de criterios y niveles (evidencia de validez de contenido, sin plantear validación psicométrica integral). La consistencia interna se estimó mediante α de Cronbach en ambos momentos. Los productos fueron calificados por dos evaluadores externos e independientes. No se estimó confiabilidad interevaluador en esta fase, lo cual se reconoce como limitación.

Como complemento se aplicó una encuesta de percepción sobre utilidad, aceptabilidad y experiencia formativa con el método ACHRON y el uso de IA. La encuesta incluyó ítems cerrados tipo Likert y una pregunta abierta. Las respuestas abiertas se analizaron mediante síntesis cualitativa con enfoque de análisis temático (Creswell & Creswell, 2018; Hernández Sampieri & Mendoza, 2018; Braun & Clarke, 2021).

Los productos académicos se recolectaron en dos momentos (pretest–postest). Los evaluadores externos recibieron los documentos identificados únicamente con códigos autogenerados; no se implementó cegamiento formal sobre el momento de medición (pretest–postest).

Considerando la evaluación por siete dimensiones, se controló el riesgo de error por comparaciones múltiples mediante un ajuste de Holm; el puntaje total se trató como resultado primario y las dimensiones como análisis complementarios.

La encuesta de percepción se analizó mediante estadística descriptiva (medias, desviaciones estándar y frecuencias), y las respuestas abiertas mediante síntesis cualitativa temática. El procesamiento estadístico se efectuó con Microsoft Excel (Office Professional Plus 2021).

Los participantes fueron informados del carácter académico, voluntario y formativo del estudio. La información se recolectó y analizó de manera anonimizada, garantizando confidencialidad mediante códigos autogenerados. No se recolectaron datos personales identificables en la base analítica utilizada para el estudio y se resguardó la privacidad de los participantes durante todo el proceso.

 

RESULTADOS

Características de la muestra

Participaron 87 estudiantes con mediciones emparejadas (pretest–postest) en la rúbrica de evaluación del marco teórico. Según el grado académico, 50.6% cursaba maestría (n = 44), 32.2% doctorado (n = 28) y 17.2% pregrado (n = 15).

En la encuesta de percepción (N = 87), 64.4% reportó haber usado IA previamente (n = 56) y 35.6% no (n = 31). La frecuencia de uso de IA en estudios fue: ocasionalmente (n = 34), frecuentemente (n = 33), siempre (n = 10) y nunca (n = 10).

 

Efectos pretest y postest en la calidad del marco teórico

Para el puntaje total de la rúbrica (suma de 7 dimensiones; rango 0–28), se observó un incremento sustantivo entre la medición inicial y final. El puntaje promedio pasó de M = 13.74 (DE = 3.97) en el pretest a M = 21.95 (DE = 4.03) en el postest, con una diferencia media de 8.22 puntos (IC95% [7.19, 9.25]). La distribución de las diferencias no evidenció desviación significativa de normalidad (Shapiro–Wilk W = 0.98, p = .392), por lo que se aplicó t de Student para muestras relacionadas. El cambio fue estadísticamente significativo, t(86) = 15.81, p < .001, con tamaño de efecto grande (d_z = 1.70).

En el análisis por dimensiones, todas mostraron mejoras significativas (todas con p < .001; ver Tabla 2). Las diferencias promedio oscilaron entre +1.06 y +1.24 puntos (escala 1–4), destacando incrementos en uso ético de IA, originalidad y articulación teórica con el problema. En conjunto, estos hallazgos constituyen evidencia preliminar consistente con la utilidad del método ACHRON como andamiaje didáctico para elevar la calidad del marco teórico en un mismo grupo (sin inferir causalidad estricta por ausencia de grupo control).

 

 

Tabla 2

Puntajes pretest y postest en rúbrica del marco teórico (N = 87)

Dimensión

Pretest M (DE)

Postest M (DE)

 M

IC95% de Δ

t(86)

p

z

Puntaje total (0–28)

13.74 (3.97)

21.95 (4.03)

8.22

[7.19, 9.25]

5.81

.001

1.70

Coherencia estructural

2.08 (0.69)

3.14 (0.72)

.06

[0.86, 1.25]

10.88

< .001

1.17

Uso de fuentes con DOI

1.95 (0.75)

3.13 (0.74)

1.17

[0.97, 1.38]

11.31

< .001

1.21

Claridad conceptual y profundidad

2.01 (0.67)

3.11 (0.71)

1.10

[0.93, 1.28]

12.32

< .001

1.32

Articulación con el problema

1.93 (0.66)

3.13 (0.68)

1.20

[1.02, 1.37]

13.86

< .001

1.49

Originalidad

1.91 (0.69)

3.14 (0.65)

1.23

[1.03, 1.43]

12.09

< .001

1.30

Uso ético de IA

1.93 (0.79)

3.17 (0.67)

1.24

[1.04, 1.44]

12.49

< .001

1.34

Redacción académica (AEC)

1.92 (0.69)

3.14 (0.70)

1.22

[1.03, 1.41]

12.89

< .001

1.38

Nota. Δ = Postest−Pretest. Pruebas t para muestras relacionadas.

 

Percepción estudiantil sobre el método ACHRON y el uso de IA

Las valoraciones fueron predominantemente favorables (Tabla 3). El ítem con mayor nivel de acuerdo fue “Recomendaría este método a otros estudiantes” (n = 86; M = 4.27, DE = 0.95; 74.7% de acuerdo/muy de acuerdo). Asimismo, “Aprendí a usar la IA de forma ética y crítica” (n = 87) alcanzó M = 4.02 (DE = 0.95) con 70.1% de acuerdo/muy de acuerdo.

La consistencia interna de la escala de 7 ítems, estimada con casos completos (n = 85), fue alta (α = .97), lo que sugiere homogeneidad de respuestas en este piloto (sin interpretarse como validación psicométrica exhaustiva).

 

Tabla 3

Percepción estudiantil del método ACHRON y el uso de IA (escala 1–5)

Ítem

n

M (DE)

% acuerdo (4–5)

Estructura del marco teórico

87

3.98 (1.10)

65.5

Comprensión de fases

87

3.74 (1.06)

59.8

Herramienta GPT útil

87

4.01 (1.07)

66.7

Acompañamiento/guía

86

4.03 (1.12)

67.8

Preservación de autoría

87

3.82 (1.01)

60.9

Uso ético y crítico

87

4.02 (0.95)

70.1

Recomendación del método

86

4.27 (0.95)

74.7

Nota. Consistencia interna de la escala (7 ítems, casos completos n = 85): α = .97.

 

Evidencia cualitativa complementaria (respuestas abiertas)

En la pregunta sobre la parte más útil del método (n = 87), se registraron menciones frecuentes a Homologar (18), Auditar (17) y Rastrear (17), además de Organizar (12) y Narrar (10) (conteos por presencia de términos de fases; una respuesta podía incluir más de una).

Respecto a dificultades con IA (n = 87), se reportaron desafíos asociados a tiempo/carga de trabajo y formulación de indicaciones (prompts), así como dificultades de acceso a fuentes/DOI. En sugerencias de mejora (n = 86), predominó la solicitud de más práctica guiada y fortalecimiento del acompañamiento.

En las sugerencias de mejora (n = 86), predominó la demanda de más práctica (17) y mayor espaciamiento/tiempo (15), por ejemplo: “Más espaciado” y “practicar y practicar”. En conjunto, el componente cualitativo complementa los resultados cuantitativos al indicar que el aporte percibido del método se asocia principalmente con organización, trazabilidad y control crítico del contenido, mientras que los principales retos se relacionan con verificación y acceso a fuentes.

 

DISCUSIÓN

Los resultados del pretest evidencian un desempeño inicial moderado en el índice global del marco teórico, con debilidades en coherencia conceptual, uso riguroso de fuentes y articulación teórica con el problema de investigación. Este patrón coincide con estudios que reportan dificultades persistentes en la elaboración del marco teórico durante la formación investigativa, especialmente en síntesis, integración conceptual y argumentación (Lavado-Puente et al., 2025; Martín-Marchante, 2025).

Estas limitaciones no remiten solo a destrezas técnicas, sino a una comprensión fragmentada del marco teórico como estructura epistémica. La acumulación de citas sin integración conceptual o la construcción de relaciones débiles entre categorías es un problema ampliamente descrito en la escritura académica universitaria. En entornos mediados por IA, estas limitaciones pueden intensificarse si la herramienta introduce definiciones contradictorias o relaciones inestables sin control semántico ni verificación epistemológica por parte del estudiante (Bolaños et al., 2024).

En este sentido, los resultados iniciales reafirman la necesidad de estrategias metodológicas explícitas que orienten el razonamiento teórico antes de la redacción, particularmente en tareas de alta complejidad cognitiva como la construcción del marco teórico en estudiantes universitarios (pregrado y posgrado) en formación de tesis.

 

Cambios observados tras la intervención

El incremento del puntaje global entre pretest y postest, junto con un tamaño del efecto grande, indica una mejora marcada en la calidad del marco teórico tras la implementación del método ACHRON. Dado el diseño cuasiexperimental de un solo grupo, los hallazgos se interpretan como evidencia preliminar de cambio asociado al proceso formativo, sin atribución causal definitiva. No obstante, la mejora fue consistente en las siete dimensiones, con incrementos particularmente altos en uso ético de IA, originalidad y articulación teórica con el problema, dimensiones centrales para una escritura académica responsable en entornos mediados por IA.

ACHRON no se limita a proponer una secuencia de acciones: externaliza decisiones cognitivas clave (búsqueda, selección, organización e integración teórica) y las convierte en evidencias de proceso. Esto desplaza el foco desde la obtención de “respuestas” hacia la construcción deliberada del marco conceptual, reduce la dependencia de salidas automatizadas y fortalece el razonamiento crítico. Esta lectura es compatible con enfoques de aprendizaje guiado y metodologías estructuradas que reportan mejoras cuando el proceso de escritura se vuelve explícito, secuenciado y evaluable con criterios verificables (Naznin et al., 2025; Pérez et al., 2025). De forma convergente, experiencias de formación apoyada por herramientas como ChatGPT y ChatPDF informan mejoras en retórica y estructura lógica, especialmente cuando el acompañamiento docente integra criterios pedagógicos y tecnológicos y exige honestidad académica y cumplimiento ético-legal (Martínez Daza & Guzmán Rincón, 2024).

Sin embargo, deben considerarse explicaciones alternativas parciales. Sin grupo control, no puede descartarse un efecto de práctica (familiarización con la rúbrica y con la tarea) ni la influencia del acompañamiento docente y del avance natural del curso (historia, maduración). Por ello, el incremento observado se interpreta como consistente con un cambio formativo más que como demostración causal del método.

 

IA generativa en educación superior: condiciones de beneficio y de riesgo

La literatura reciente coincide en que el valor educativo de la IA generativa depende menos de la herramienta que de las condiciones pedagógicas de implementación. Sin mediación docente, su uso puede derivar en homogeneización del pensamiento, pérdida de voz autoral y debilitamiento del juicio crítico (Baldrich et al., 2024; Tillmanns et al., 2025). Esta premisa también aparece en síntesis sobre feedback automatizado: los aportes de la IA tienden a concentrarse en dimensiones formales de la escritura, mientras su validez epistémica se vuelve frágil en contextos abiertos, sin guía pedagógica y con riesgo de información falsa (Cerón Urzúa et al., 2025).

Desde esta perspectiva, ACHRON se alinea con una integración condicionada: la IA opera como apoyo cognitivo dentro de un marco que exige contrastación, trazabilidad y control semántico. La auditoría ética inicial se vincula con tendencias académicas que enfatizan transparencia, trazabilidad y declaración del uso de IA en la producción académica (Tang et al., 2024). En consecuencia, los resultados sugieren que la IA puede contribuir positivamente cuando se articula con reglas explícitas, acompañamiento docente y criterios claros de calidad epistémica.

 

Agencia autoral y ética en el uso de la IA

Las valoraciones de percepción sugieren aceptabilidad general del método y del uso guiado de IA; sin embargo, los comentarios cualitativos reflejan retos iniciales (p. ej., formulación de prompts, verificación y acceso a fuentes). Esto refuerza que el método demanda un rol activo centrado en contrastar, justificar y decidir, más que en delegar la construcción conceptual. En términos operativos, ACHRON desplaza la agencia desde la “ejecución” hacia el “juicio”, condición clave para sostener integridad académica en procesos mediados por IA.

Las preocupaciones sobre pérdida de voz autoral se alinean con advertencias previas sobre agencia discursiva en entornos mediados por IA (Raitskaya & Tikhonova, 2024). Aquí, la noción de autoría ampliada permite una posición equilibrada: reconocer la mediación tecnológica sin renunciar a la responsabilidad interpretativa del sujeto que escribe (Maturana, 2025; Tillmanns et al., 2025). De modo complementario, el principio Afirmación–Evidencia–Conexión (AEC) operó como criterio para evitar párrafos sin anclaje argumentativo y reforzar la coherencia lógica y epistémica. En línea con ello, la literatura sobre retroalimentación asistida por chat generativo indica que, cuando la interacción se orienta a revisión y reflexión, el feedback puede estimular metacognición y pensamiento crítico, siempre que el uso sea guiado y se evite delegar el control interpretativo (Cerón Urzúa et al., 2025).

 

Convergencia de evidencias en el enfoque mixto

La lectura integrada muestra convergencia entre (a) el cambio pretest–postest en el desempeño, (b) el patrón de mejora por dimensiones alineado con los objetivos del método y (c) la percepción favorable de utilidad y ética, complementada por hallazgos cualitativos sobre componentes valorados (p. ej., auditoría, rastreo y homologación) y dificultades (p. ej., verificación y acceso a fuentes). Esta convergencia no demuestra causalidad, pero aporta plausibilidad pedagógica sobre qué aspectos del andamiaje resultaron funcionales y bajo qué condiciones emergieron tensiones, conforme al propósito del enfoque mixto en fenómenos formativos complejos (Creswell & Creswell, 2018; Hernández Sampieri & Mendoza, 2018; Braun & Clarke, 2021).

En términos interpretativos, la percepción estudiantil no prueba el efecto causal del método, pero contribuye a comprender el “cómo” del cambio: identifica componentes operativos centrales (organización, trazabilidad, control crítico) y puntos de fricción (curva de aprendizaje, verificación y acceso a fuentes), útiles para ajustar futuras implementaciones.

 

Implicaciones teóricas y pedagógicas

Desde una perspectiva pedagógica, los hallazgos sugieren que una metodología secuenciada y acompañada puede asociarse con mejoras sustantivas en la elaboración del marco teórico en estudiantes universitarios (pregrado y posgrado), en un curso de tesis con predominio de posgrado. En el plano teórico, ACHRON contribuye a operacionalizar riesgos epistémicos asociados al uso de IA (trazabilidad, control semántico y agencia autoral) mediante fases verificables y evidencias de proceso, evitando una escritura meramente automatizada. En coherencia con la evidencia sobre herramientas de IA aplicadas a escritura, las ganancias formales dependen de mediación docente y salvaguardas éticas explícitas (Cerón Urzúa et al., 2025; Martínez Daza & Guzmán Rincón, 2024).

El estudio presenta limitaciones: (a) el diseño pretest–postest de un solo grupo no controla amenazas a la validez interna (historia, maduración y efecto de prueba); (b) no se implementó cegamiento formal del momento de evaluación, ni se estimó confiabilidad interevaluador, lo que puede introducir sesgo de medición; y (c) la muestra provino de un curso virtual específico, limitando la generalización.

A pesar de ello, los resultados aportan evidencia preliminar consistente sobre la pertinencia del método ACHRON para organizar el razonamiento teórico y promover un uso ético de IA en la escritura académica. Futuros estudios deberían incorporar grupo comparativo, cegamiento del momento de evaluación y estimación de confiabilidad interevaluador, además de evaluar estabilidad temporal del aprendizaje y transferibilidad a contextos presenciales, interinstitucionales o multilingües.

 

Sesgos metodológicos a vigilar

La muestra proviene de un curso específico, por lo que su representatividad es acotada y la generalización debe realizarse con cautela. Además, al tratarse de un diseño pretest–postest intragrupo, persisten amenazas a la validez interna como historia, maduración y efecto de práctica, que pueden contribuir parcialmente a las diferencias observadas. En el plano de medición, la ausencia de cegamiento formal del momento de evaluación y la falta de una estimación de confiabilidad interevaluador (p. ej., ICC) pueden introducir sesgos adicionales. Finalmente, en el componente cualitativo, los conteos por palabras clave pueden subestimar matices semánticos; por ello, en aplicaciones futuras conviene complementar la síntesis con citas breves representativas por tema.

 

CONCLUSIONES

En esta implementación formativa, el método ACHRON se asoció con un incremento marcado en la calidad del marco teórico, evaluada mediante rúbrica analítica, reflejado en un aumento significativo del puntaje total y mejoras consistentes en las siete dimensiones. En términos interpretativos, los datos sugieren que un andamiaje secuenciado puede favorecer organización, coherencia y solidez argumentativa cuando la IA generativa se integra bajo reglas explícitas.

El patrón por dimensiones indica mejoras especialmente notables en uso ético de IA, originalidad y articulación teórica con el problema, aspectos que suelen afectarse cuando la IA se utiliza sin mediación metodológica (p. ej., homogeneización discursiva, pérdida de control semántico o dependencia del texto generado). Ello respalda la pertinencia de ACHRON como propuesta didáctica orientada a preservar agencia autoral y control epistemológico durante la construcción del marco teórico.

La encuesta de percepción mostró valoraciones predominantemente favorables sobre utilidad del método, guía docente y aprendizaje de un uso ético y crítico de la IA. Estas percepciones aportan plausibilidad pedagógica e identifican mejoras para la implementación (p. ej., mayor práctica guiada y tiempos de trabajo más espaciados).

Los resultados sugieren que la contribución de la IA al aprendizaje de la escritura académica depende de condiciones pedagógicas específicas: acompañamiento docente, criterios claros de evaluación, exigencia de trazabilidad y procedimientos de verificación. En este marco, ACHRON organiza el razonamiento y reduce el riesgo de delegación acrítica en salidas automatizadas.

Por el diseño pretest–postest de un solo grupo, sin cegamiento formal del momento de evaluación y sin estimación de confiabilidad interevaluador, los hallazgos deben interpretarse como evidencia preliminar, no como prueba causal definitiva. Además, al provenir de un curso virtual específico con estudiantes de pregrado y posgrado, la generalización requiere cautela.

 

Recomendaciones

Se recomienda incorporar ACHRON como secuencia explícita en cursos de tesis, con criterios y rúbrica disponibles desde el inicio. Para sostener la agencia autoral, conviene reforzar AEC como rutina de revisión y aplicar un protocolo breve de trazabilidad de prompts, decisiones y verificación bibliográfica. También es pertinente fortalecer la alfabetización informacional, con énfasis en búsquedas en bases, uso de DOI y detección de referencias inválidas. En futuras investigaciones, se sugiere replicar con grupo comparativo, estimar confiabilidad interevaluador y evaluar retención. Asimismo, conviene probar el método en modalidades presenciales y contextos multilingües, y ajustar guías y ejemplos para reducir su curva de aprendizaje.

 

Transparencia y declaración de intereses

·         Conflictos de interés. Los autores declaran no tener conflictos de interés financieros, personales o institucionales que pudieran influir en el estudio.

Independencia y responsabilidad académica. La plataforma no sustituyó evaluación humana ni decisiones académicas. El contenido, selección/verificación de fuentes y decisiones interpretativas recayeron en los participantes; la evaluación fue realizada por evaluadores externos; y la conducción formativa correspondió al equipo docente.

 

REFERENCIAS

Arar, K. H., Ozen, H., Polat, G., & Turan, S. (2025). Artificial intelligence, generative artificial intelligence and research integrity: A hybrid systemic review. Smart Learning Environments, 12, Article 44. https://doi.org/10.1186/s40561-025-00403-3

Avendaño Castro, W. R., Paz Montes, L. S., & Rueda Vera, G. (2017). Dificultades en la escritura académica y funciones cognitivas: revisión de estudios. Sophia Educación, 13(1), 132–143. https://doi.org/10.18634/sophiaj.13v.1i.457

Ba, S., Yang, L., Yan, Z., Looi, C. K., & Gašević, D. (2025). Unraveling the mechanisms and effectiveness of AI-assisted feedback in education: A systematic literature review. Computers and Education Open, 9, 100284. https://doi.org/10.1016/j.caeo.2025.100284

Baldrich, K., Domínguez-Oller, J. C., & García-Roca, A. (2024). La Inteligencia Artificial y su impacto en la alfabetización académica: una revisión sistemática. Educatio Siglo XXI, 42(3), 53–74. https://doi.org/10.6018/educatio.609591

Bittle, K., & El-Gayar, O. (2025). Generative AI and academic integrity in higher education: A systematic review and research agenda. Information, 16(4), 296. https://doi.org/10.3390/info16040296

Bjelobaba, S., Waddington, L., Perkins, M., Foltýnek, T., Bhattacharyya, S., & Weber-Wulff, D. (2025). Maintaining research integrity in the age of GenAI: An analysis of ethical challenges and recommendations to researchers. International Journal for Educational Integrity, 21, Article 18. https://doi.org/10.1007/s40979-025-00191-w

Bolaños, F., Salatino, A., Osborne, F., & Motta, E. (2024). Artificial intelligence for literature reviews: Opportunities and challenges. Artificial Intelligence Review, 57, Article 259. https://doi.org/10.1007/s10462-024-10902-3

Braun, V., & Clarke, V. (2021). Thematic analysis: A practical guide. SAGE.

Brookhart, S. M. (2018). How to create and use rubrics for formative assessment and grading. ASCD.

Castillo-Martínez, I. M., Flores-Bueno, D., Gómez-Puente, S. M., & Vite-León, V. O. (2024). AI in higher education: A systematic literature review. Frontiers in Education, 9, Article 1391485. https://doi.org/10.3389/feduc.2024.1391485

Cerón Urzúa, C. A. C., Ranjan, R., Méndez Saavedra, E. E., Badilla-Quintana, M. G., Lepe-Martínez, N., & Philominraj, A. (2025). Effects of AI-Assisted Feedback via Generative Chat on Academic Writing in Higher Education Students: A Systematic Review of the Literature. Education Sciences, 15(10), 1396. https://doi.org/10.3390/educsci15101396

Chanpradit, T. (2025). Generative Artificial Intelligence in Academic Writing in Higher Education: A Systematic Review. EAST: Edelweiss Applied Science and Technology, 9(4), 889–906. https://doi.org/10.55214/25768484.v9i4.6128

Cheng, A., Calhoun, A., & Reedy, G. (2025). Artificial intelligence-assisted academic writing: Recommendations for ethical use. Advances in Simulation, 10(1), 22. https://doi.org/10.1186/s41077-025-00350-6

Creswell, J. W., & Creswell, J. D. (2018). Research design: Qualitative, quantitative, and mixed methods approaches (5th ed.). SAGE.

Díaz-Cuevas, A. P., & Rodríguez-Herrera, J. D. (2024). Usos de la Inteligencia Artificial en la escritura académica: experiencias de estudiantes universitarios en 2023. Cuaderno de Pedagogía Universitaria, 21(42), 25–44. https://doi.org/10.29197/cpu.v21i42.595

Garzón, J., Patiño, E., & Marulanda, C. (2025). Systematic review of artificial intelligence in education: Trends, benefits, and challenges. Multimodal Technologies and Interaction, 9(8), 84. https://doi.org/10.3390/mti9080084

Gasaymeh, A.-M. M., Beirat, M. A., & Abu Qbeita, A. A. (2024). University students’ insights of generative artificial intelligence (AI) writing tools. Education Sciences, 14(10), 1062. https://doi.org/10.3390/educsci14101062

Hernández Sampieri, R., & Mendoza, C. (2018). Metodología de la investigación: Las rutas cuantitativa, cualitativa y mixta. McGraw-Hill.

Hidayatullah, M. H., Suryati, N., Cahyono, B. Y., & Mawaddah, N. (2025). A systematic literature review of artificial intelligence in academic writing: Challenges and opportunities. Journal of Research on English and Language Learning (J-REaLL), 6(2), 249–266. https://doi.org/10.33474/j-reall.v6i2.23821

Juca-Maldonado, F. (2024). El impacto de la inteligencia artificial en los trabajos académicos y de investigación. Revista Metropolitana de Ciencias Aplicadas, 6(Suplemento 1), 289–296. https://doi.org/10.62452/8nww1k83

Kemmis, S., McTaggart, R., & Nixon, R. (2014). The action research planner: Doing critical participatory action research. Springer. https://doi.org/10.1007/978-981-4560-67-2

Khalifa, M., & Albadawy, M. (2024). Using artificial intelligence in academic writing and research: An essential productivity tool. Computer Methods and Programs in Biomedicine Update, 5, 100145. https://doi.org/10.1016/j.cmpbup.2024.100145

Kovari, A. (2025). Ethical use of ChatGPT in education—Best practices to combat AI-induced plagiarism. Frontiers in Education, 9, 1465703. https://doi.org/10.3389/feduc.2024.1465703

Lavado-Puente, C. S., Rivera-Aquino, J. A., Lavado-Meza, C. R., & Marca-Cano, S. R. (2025). Scientific research: Difficulties in writing research projects in students at a university branch in Chanchamayo (Peru). Formación Universitaria, 18(1), 53–64. https://doi.org/10.4067/S0718-50062025000100053

Loayza-Maturrano, C. (2024). Percepción de estudiantes universitarios sobre el uso de inteligencia artificial en la redacción académica. Educare, 12(2), 1–17. https://doi.org/10.35383/educare.v12i2.1195

Martínez Daza, M. A., & Guzmán Rincón, A. (2024). Desarrollo de habilidades de escritura científica a través de actividades con apoyo de inteligencia artificial. Economía & Negocios, 6(2), 78–86. https://doi.org/10.33326/27086062.2024.2.1898

Martín-Marchante, B. (2025). TIC e inteligencia artificial en la revisión del proceso de escritura: Su uso en las universidades públicas valencianas. Research in Education and Learning Innovation Archives (REALIA), 28, 16–31. https://doi.org/10.7203/realia.28.20622

Maturana, A. J. (2025). Inteligencias artificiales generativas y prácticas de escritura académica en la educación superior: Un estado del arte desde aportes publicados en América Latina en 2022-2023. Revista RAES, 17(30), 98–113. Recuperado a partir de https://revistas.untref.edu.ar/index.php/raes/article/view/2159

Mendoza-Vega, J., Pacheco-León, A., & Morales-López, L. (2025). Uso de las plataformas de inteligencia artificial en la escritura académica universitaria. Revista Noesis Innovación, 7(14), 11–25. https://doi.org/10.35381/noesisin.v7i14.362

Moorhouse, B. L. (2025). Generative AI tools and empowerment in L2 academic writing: Insights from student reflections. System, 122, Article 103779. https://doi.org/10.1016/j.system.2025.103779

Naznin, K., Al Mahmud, A., Nguyen, M. T., & Chua, C. (2025). ChatGPT integration in higher education for personalized learning, academic writing, and coding tasks: A systematic review. Computers, 14(2), 53. https://doi.org/10.3390/computers14020053

Palacios-Núñez, M. L., Mendoza-García, E. M., Narciso Zarate, J. W., & Deroncele-Acosta, A. (2025). ChatGPT en la enseñanza de la escritura académica en educación superior: Perspectivas docentes sobre sus usos, desafíos y futuro en el aprendizaje personalizado. Edutec, Revista Electrónica De Tecnología Educativa, (93), 33–50. https://doi.org/10.21556/edutec.2025.93.3995 

Panadero, E., & Jonsson, A. (2013). The use of scoring rubrics for formative assessment purposes revisited: A review. Educational Research Review, 9, 129–144. https://doi.org/10.1016/j.edurev.2013.01.002

Pérez, A., McClain, S. K., Roa, A. F., Rosado-Mendinueta, N., Trigos-Carrillo, L., Robles, H., & Campo, O. (2025). Artificial intelligence applications in college academic writing and composition: A systematic review. Íkala, Revista de Lenguaje y Cultura, 30(1), e355878. https://doi.org/10.17533/udea.ikala.355878

Raitskaya, L., & Tikhonova, E. (2024). Appliances of generative AI-powered language tools in academic writing: A scoping review. Journal of Language and Education, 10(4), 5–30. https://doi.org/10.17323/jle.2024.24181

Rey-Castillo, M., & Gómez-Zermeño, M. G. (2021). Dificultades en la escritura académica de estudiantes de maestría. Revista Electrónica Educare, 25(2), 1-19. https://doi.org/10.15359/ree.25-2.4

Sánchez Toyos, I., Ortiz, J., Grande Ratti, M. F., & Carretero, M. (2024). Inteligencia artificial en la escritura científica: oportunidades y desafíos en ciencias de la salud. Evidencia Actualización en la Práctica Ambulatoria, 27(4), e007138. https://doi.org/10.51987/evidencia.v28i1.7138

Tang, A., Li, K.-K., Kwok, K. O., Cao, L., Luong, S., & Tam, W. (2024). The importance of transparency: Declaring the use of generative artificial intelligence (AI) in academic writing. Journal of Nursing Scholarship, 56(2), 314–318. https://doi.org/10.1111/jnu.12938

Tillmanns, T., Salomão Filho, A., Rudra, S., Weber, P., Dawitz, J., Wiersma, E., Dudenaite, D., & Reynolds, S. (2025). Mapping tomorrow’s teaching and learning spaces: A systematic review on GenAI in higher education. Trends in Higher Education, 4(1), 2. https://doi.org/10.3390/higheredu4010002