Inteligencia artificial en la universidad: responsabilidad académica, ética y prácticas responsables

 

Artificial intelligence in higher education: academic responsibility, ethics, and responsible practices

 

https://doi.org/10.47606/ACVEN/PH0480  

 

Wanda Marina Román-Santana1*                         Elisabeth Viviana Lucero Baldevenites2
https://orcid.org/0000-0002-9205-3200                https://orcid.org/0000-0002-9205-3200
wandaroman2975@gmail.com                                  viviana.lucero@ulpgc.es

 

Manuel de Jesús Azpilcueta Ruiz Esparza3                                                Delia Consuegra4
https://orcid.org/0009-0000-5223-7980                       https://orcid.org/0000-0002-4661-6578

manazpil@chapingo.uruza.edu.mx                              delia.consuegra@up.ac.pa

 

Recibido: 05/01/2026                                                       Aceptado: 10/03/2026

 

 

RESUMEN 

 

En la educación superior contemporánea, la inteligencia artificial es un recurso fundamental que va transformando las rutinas cotidianas y las decisiones estratégicas. El objetivo de esta revisión fue examinar críticamente los estudios sobre inteligencia artificial en la universidad para identificar responsabilidades institucionales, dilemas éticos y propuestas de buenas prácticas con pertinencia social, más allá de una descripción bibliográfica. Mediante una revisión sistemática guiada por PRISMA-ScR, se analizó literatura en inglés y español publicada entre 2016 y 2026. Tras la aplicación de criterios rigurosos de pertinencia y calidad, fueron seleccionados catorce estudios. Del análisis emergen tres preocupaciones centrales: la primera de la equidad en la evaluación porque los algoritmos pueden replicar sesgos que afectan a ciertos grupos sin que siempre sea evidente; en segundo lugar, está la opacidad de los sistemas: ¿cómo se exige transparencia cuando no se comprende el funcionamiento interno de un modelo? Finalmente, la integridad académica aparece como un ámbito particularmente tensionado por las herramientas generativas. A partir de estos hallazgos, se recomiendan marcos regulatorios claros, auditorías éticas periódicas, formación docente en competencias críticas y políticas participativas que vinculen innovación con justicia social.

Palabras clave: Inteligencia artificial, Ética, Responsabilidad académica, Equidad, Integridad académica. 

1.     Instituto Superior de Formación Docente Salomé Ureña, República Dominicana   

2.     Universidad de Las Palmas de Gran Canaria-España  

3.     Universidad Autónoma Chapingo-México

4.     Universidad de Panamá-Panamá                       

* Autor de correspondencia: wandaroman2975@gmail.com  

ABSTRACT

 

In contemporary higher education, artificial intelligence is a fundamental resource that transforms daily routines and strategic decisions. The aim of this review was to critically examine studies on artificial intelligence in universities to identify institutional responsibilities, ethical dilemmas and proposals for good practices with social relevance, beyond a bibliographic description. Through a systematic review guided by PRISMAScR, literature in English and Spanish published between 2016 and 2026 was analyzed. After the application of rigorous criteria of relevance and quality, fourteen studies were selected. Three central concerns emerge from the analysis: the first is fairness in evaluation because algorithms can replicate biases that affect certain groups without it always being evident; Second, there is the opacity of systems: how do you demand transparency when you don't understand the inner workings of a model? Finally, academic integrity appears as an area particularly stressed by generative tools. Based on these findings, clear regulatory frameworks, periodic ethical audits, teacher training in critical competencies, and participatory policies that link innovation with social justice are recommended.

 

Keywords: Artificial Intelligence, Ethics, Academic Responsibility, Equity, Academic Integrity.

 

INTRODUCCIÓN

En la universidad contemporánea, la inteligencia artificial no llega como un recurso aislado. Más bien se comporta como un actor que modifica rutinas cotidianas y también decisiones estratégicas (Al-Zahrani & Alasmari, 2024). Hay docentes que la usan para agilizar tareas administrativas. Otros, en cambio, exploran con ella nuevas formas de enseñanza y evaluación (Castelló-Sirvent et al., 2022). Pero la rapidez de su expansión deja preguntas incómodas. ¿Qué pasa con la autonomía crítica del estudiante? ¿Cómo se preserva la misión humanista cuando los algoritmos resultan opacos? Estas tensiones, lejos de ser anecdóticas, nos fuerzan a repensar la responsabilidad académica y la ética institucional como pilares de cualquier práctica tecnológica en educación superior (Holmes et al., 2021; Comas Rodriguez, 2025).

La universidad continúa siendo un espacio donde el conocimiento se genera, analiza y, en ocasiones, se somete a rigurosos cuestionamientos. Esa función no ha cambiado, lo que cambia es el entorno tecnológico que la rodea. La incorporación de sistemas de inteligencia artificial en docencia e investigación introduce posibilidades nuevas —algunas muy útiles, otras todavía inciertas— y eso obliga a revisar prácticas que parecían consolidadas. En ciertos programas, por ejemplo, la IA ya interviene en la tutoría académica o en la gestión de datos institucionales. En otros, apenas se experimenta con ella. Esta asimetría genera tensiones. La innovación avanza rápido, pero los valores humanísticos que sostienen la vida universitaria requieren pausas, reflexión y, en ocasiones, resistencia. Diversos estudios recientes lo advierten: la integración tecnológica sin un marco ético sólido puede erosionar la autonomía crítica y la responsabilidad institucional (Comas Rodríguez, 2024; Castelló-Sirvent et al., 2022; Dabis & Csáki, 2024).

La adopción de herramientas de inteligencia artificial en la universidad no es neutral. Abre dilemas éticos concretos, y además urgentes. Los algoritmos, por ejemplo, pueden reproducir sesgos. También amplificarlos. Y eso tiene efectos directos en admisiones, evaluación y apoyo estudiantil (Baker & Hawn, 2021). Luego está el problema de la opacidad. Muchos modelos funcionan como cajas negras. ¿Cómo exigir transparencia cuando no se entiende del todo lo que pasa adentro? ¿Quién responde si una recomendación algorítmica termina condicionando una calificación o una política institucional? (Holmes et al., 2022). Hay además un riesgo real de dependencia tecnológica. Automatizar juicios rutinarios puede parecer inofensivo, pero con el tiempo erosiona la autonomía crítica de docentes y estudiantes. Normaliza decisiones que deberían pasar por deliberación humana (Köbis & Mehner, 2021). Revisiones recientes lo confirman: persisten divisiones en acceso, representación y gobernanza. Sin salvaguardas éticas, esas divisiones tienden a amplificar desigualdades (Bond et al., 2024). Por eso la respuesta institucional no puede quedarse en buenas intenciones. Debe incluir evaluaciones de impacto, auditorías de equidad y mecanismos claros de rendición de cuentas. Solo así se garantiza justicia, pertinencia social y la preservación de la misión humanista universitaria (Niu et al., 2024).

La responsabilidad académica frente a la inteligencia artificial exige algo más que buenos propósitos. Pide definiciones claras, pero también prácticas concretas. Docentes, investigadores y gestores no pueden limitarse a conocer las herramientas. Tienen que evaluarlas críticamente y asumir la responsabilidad por sus efectos en el aprendizaje y la investigación (Holmes et al., 2021). Formar estudiantes, en este contexto, implica algo más que enseñar a usar algoritmos. Requiere cultivar competencias éticas, pensamiento crítico y la capacidad de cuestionar resultados automatizados. Sin eso, la tecnología se convierte en una caja negra que se acepta sin reparos (Köbis & Mehner, 2021). Las decisiones institucionales —sobre adopción, evaluación y gobernanza— deberían articularse con la misión social de la universidad: equidad, inclusión y servicio público. ¿Cómo se traduce eso en políticas? En protocolos de revisión ética. En formación continua del profesorado. En mecanismos de supervisión participativa que vinculen innovación con justicia académica (Dabis & Csáki, 2024; Niu et al., 2024). Este enfoque prepara el terreno para discutir, a continuación, las prácticas responsables concretas que las instituciones pueden implementar.

La revisión que aquí se presenta responde a una necesidad que viene observándose en la literatura. Hace falta sistematizar debates que, hasta ahora, circulan de manera dispersa. Y hacerlo, además, desde una óptica ética y social, no únicamente técnica. Porque hay muchos trabajos que abordan aplicaciones concretas de la inteligencia artificial. Pero pocos se animan a integrar en un mismo marco las implicaciones normativas, las pedagógicas y las de justicia social. Y eso es justo lo que necesitan gestores y docentes para tomar decisiones con fundamento (Bond et al., 2024). Hay otro problema, quizás menos visible pero igual de relevante. Las ciencias sociales y humanísticas han quedado en parte al margen de las revisiones dominantes, que suelen venir de enfoques computacionales. ¿La consecuencia? Se limita la comprensión de impactos culturales y políticos que, en el fondo, son los que definen el sentido de lo universitario (Holmes et al., 2021).

Este artículo busca, entonces, cerrar esa brecha. No con una declaración abstracta, sino ofreciendo un marco conceptual que sea útil en la práctica. Se propone aportar herramientas para orientar políticas institucionales y prácticas responsables. Con ello se prepara el terreno para las propuestas operativas que se presentan más adelante. La apuesta es clara: que la reflexión ética no quede separada de la acción cotidiana en las aulas y en la gestión.

El objetivo de esta revisión fue examinar críticamente los estudios sobre inteligencia artificial en la universidad para identificar responsabilidades institucionales, dilemas éticos y propuestas de buenas prácticas con pertinencia social, más allá de una descripción bibliográfica. 

 

METODOLOGÍA 

El diseño adoptado correspondió a un estudio de alcance, siguiendo PRISMA ScR y PRISMA 2020 (Tricco et al., 2018 y Page et al., 2021). El intervalo temporal analizado abarcó de 2016 a 2026, con énfasis en la literatura publicada desde 2020, momento de mayor actividad investigadora. Se buscó que el corpus seleccionado orientara políticas y acciones académicas.

La búsqueda bibliográfica fue realizada en bases de datos de referencia en ciencias sociales y educación como Scopus, Web of Science, ERIC, JSTOR y PubMed, para ampliar la cobertura y mitigar sesgos de acceso, fueron incluidos Google Scholar y repositorios institucionales, integrando literatura gris y documentos de acceso abierto con publicaciones indexadas. Los descriptores combinados fueron: "inteligencia artificial", "educación universitaria" y "dimensiones éticas". La selección de las expresiones respondió al interés de captar tanto estudios empíricos como revisiones y documentos de política institucional. La sintaxis de los operadores y en la forma de introducir los descriptores fueron adaptadas a las particularidades técnicas de cada base de datos. El procedimiento aseguró un rastreo amplio y diverso, capaz de integrar fuentes consolidadas con materiales institucionales, y garantizó que el corpus final reflejara la pluralidad de enfoques presentes en la literatura reciente.

El corpus fue delimitado estableciendo criterios operativos, admitiendo estudios empíricos, ya fueran cuantitativos, cualitativos o mixtos. También se incluyeron revisiones sistemáticas y documentos institucionales. La condición era que abordaran la inteligencia artificial en la universidad desde perspectivas éticas, de responsabilidad o de buenas prácticas. Quedaron fuera, en cambio, los editoriales sin acceso al texto completo, los resúmenes de congresos sin disponibilidad del documento íntegro y aquellos trabajos centrados en niveles educativos distintos a la educación superior. Con esta selección se procuró garantizar pertinencia temática y consistencia en el material examinado.

El cribado inicial de títulos y resúmenes estuvo a cargo de dos revisores independientes; posteriormente se procedió a la lectura completa de los textos seleccionados. Las discrepancias se discutieron y, cuando no hubo consenso, intervino un tercer evaluador. La extracción de información se organizó mediante una plantilla estandarizada, validada en un piloto de treinta registros, que recogió datos sobre autoría, año, país, tipo de estudio, objetivos, diseño, contexto, hallazgos vinculados con ética y responsabilidad, recomendaciones, limitaciones y nivel de calidad. Esta sistematización aseguró coherencia en el análisis y trazabilidad de los resultados.

Se valoró críticamente la calidad de cada estudio. Para ello se diseñó una lista de verificación que atendía a distintos criterios: la claridad en el planteamiento del objetivo, por ejemplo; además, la coherencia entre diseño y propósito, la transparencia en la selección de fuentes y el rigor del análisis. También se tuvo en cuenta si se declaraban limitaciones o posibles conflictos de interés. Cada estudio recibió una puntuación por dimensión, lo que permitió agruparlos en tres niveles de calidad. Así, los hallazgos provenientes de investigaciones más consistentes pudieron tener mayor peso en la síntesis.

Para la síntesis fue elegido un enfoque narrativo y temático, no estadístico. Después de extraer los datos, los textos se compararon y se agruparon en categorías que fueron emergiendo del propio material sin forzarlas desde categorías previas. Así pudieron identificarse patrones recurrentes, contrastes entre enfoques y también algunos puntos de desacuerdo entre autores. No hizo falta recurrir al metaanálisis. El análisis no pretendió solo resumir, sino ofrecer una lectura crítica y relacional de la literatura, atendiendo a la diversidad de posturas y, al mismo tiempo, dejar al descubierto vacíos que aún persisten.

 

RESULTADOS  

La búsqueda inicial recuperó varios registros. Tras la depuración (eliminación de duplicados, tamizado por título/resumen y lectura completa), el corpus final se redujo a un conjunto más acotado de estudios. La Figura 1 presenta el diagrama PRISMA-ScR con el detalle de las exclusiones en cada fase.

Por tipo de documento, los artículos empíricos y las revisiones fueron los más frecuentes; los textos de política institucional aparecieron en menor medida. En cuanto a la evaluación temporal se vio un incremento sostenido en los últimos cinco años, lo que confirma el interés creciente por examinar la inteligencia artificial en la educación superior desde una perspectiva ética y social.

El diagrama PRISMA-ScR refleja el proceso de selección de estudios. Durante el proceso de selección se aplicaron criterios estrictos que llevaron a la exclusión de varios documentos. La búsqueda arrojó 25 registros en las bases de datos y repositorios consultados; la eliminación de duplicados dejó 22 documentos para la fase de tamizado. En la revisión de títulos y resúmenes se excluyeron 6 por falta de pertinencia, y otros 2 fueron descartados en la lectura completa por no abordar directamente cuestiones de ética o responsabilidad vinculadas al uso de la inteligencia artificial en la educación superior. Finalmente, 14 estudios cumplieron los criterios establecidos y conformaron el corpus definitivo de análisis.

 

 

 

Figura 1. 

Diagrama de flujo del PRISMA-ScR utilizado en la investigación.

 

 

 

La Tabla 1 presenta las características descriptivas de cada estudio, incluyendo autoría, año, país o región, tipo de investigación, metodología empleada, población o contexto y objetivos. Así, esta diversidad aporta robustez al corpus, ya que se incluyen revisiones sistemáticas, narrativas y metarevisiones, documentos de política institucional y estudios empíricos con enfoques cualitativos y cuantitativos. La amplitud geográfica, con trabajos provenientes de América, Europa, Asia y Medio Oriente, y la variedad de contextos (pregrado, posgrado, disciplinas técnicas y sociales) garantizan una visión plural y representativa. No se trata de “pocos” estudios, sino de un conjunto cuidadosamente delimitado que ofrece un panorama sólido y confiable sobre las preocupaciones éticas y las responsabilidades institucionales en torno a la IA en la universidad.

Los estudios recogidos ofrecen hallazgos concretos y sugerencias aplicables. En conjunto dibujan un panorama amplio: hay revisiones sistemáticas, narrativas, metarrevisiones, documentos de política y actas de conferencias. La cobertura geográfica abarca América, Europa, Asia y Oriente Medio. Lo anterior hace que los resultados no dependan de un solo tipo de estudio ni de una única región. Dicho de otro modo, el valor del corpus no está tanto en el número de trabajos (14 como se vio antes) sino en lo que aportan y en su relevancia. 

 

 

 

Tabla 1.

Descripción de los artículos seleccionados.

Autor (Año)

País/Región

Tipo de estudio /

Contexto

Hallazgos clave

Recomendacione s

Adamakis y

Rachiotis

(2025)

Grecia / Global

Revisión narrativa

Dilemas éticos en evaluación y privacidad

Marcos

regulatorios y formación docente

AlBlooshi (2025)

EAU / Global

Revisión sistemática narrativa

Oportunidades pedagógicas y riesgos (sesgo, privacidad)

Evaluación de impacto y gobernanza

institucional

Alfiras et al. (2026)

Global

Revisión sistemática

Beneficios y riesgos éticos

Políticas institucionales

Memarian y

Doleck

(2023)

Canadá / Global

Revisión sistemática

Riesgos de sesgo en evaluación automatizada

Recomienda transparencia algorítmica

Behera et al. (2025)

India

Revisión narrativa

Dilemas éticos en adopción

Formación docente

Bittle y

El-Gayar

(2025)

Global

Revisión sistemática

Impacto de GenAI en integridad académica

Agenda de investigación y políticas

Bond et al. (2024)

Global

Meta-revisió n sistemática

Vacíos en gobernanza y equidad

Mayor rigor y ética

Castillo-Martí nez et al. (2024)

Global

Revisión sistemática

Transparencia y responsabilidad

Marcos

institucionales

Crompton y Burke (2023)

Global

Revisión sistemática / mapeo

Predominio de estudios descriptivos

Estudios longitudinales

Cruvinel

Júnior et al.

(2026)

Conferencia

Revisión narrativa

Necesidad de marcos

institucionales

Auditorías éticas

García-López

y

Trujillo-Liñán

(2025)

Global

Revisión sistemática

Retos regulatorios

Marcos normativos

Jayasinghe

et al. (2026)

Global

Revisión narrativa

Seis áreas institucionales clave

Políticas y formación

McDonald et al. (2025)

EE.UU. / Global

Documento

de políticas

Variabilidad en guías institucionales

Estandarización

Nguyen (2025)

Vietnam / Global

Revisión sistemática

Impactos en docencia, transparencia y equidad

Investigación empírica y formación docente

 

 

Síntesis de hallazgos

De los catorce estudios se desprenden inquietudes éticas y responsabilidades institucionales que se reiteran en distintos contextos. La equidad en la evaluación es uno de los puntos más delicados. Memarian y Doleck (2023) encuentran que los sistemas automatizados pueden introducir sesgos en la calificación, lo cual impacta la imparcialidad en la valoración del rendimiento estudiantil. Adamakis y Rachiotis (2025) añaden que la privacidad y la objetividad en la evaluación precisan de marcos regulatorios sólidos para evitar la discriminación encubierta.

Otro tema recurrente es la transparencia algorítmica, para Nguyen (2025) y CastilloMartínez et al. (2024) la opacidad de los modelos limita la rendición de cuentas y compromete la confianza institucional. De ahí que varias investigaciones propongan auditorías éticas y protocolos de revisión que permitan entender y supervisar las decisiones automatizadas.

Sobre la integridad académica frente a las herramientas generativa, la revisión de Bittle y ElGayar (2025) muestra cómo la expansión de la IA generativa desafía los estándares tradicionales de honestidad. Behera et al. (2025) y Alfiras, Emran y Mohamed (2026) insisten en que la formación del profesorado en competencias críticas es indispensable para afrontar estos retos.

En lo normativo, trabajos como los de Bond et al. (2024) y GarcíaLópez y TrujilloLiñán (2025) vuelven a la necesidad de marcos regulatorios claros y coherentes. Aparecen propuestas de gobernanza universitaria, auditorías periódicas y políticas participativas que conecten innovación con justicia social. McDonald et al. (2025) constatan la variabilidad de directrices institucionales en Estados Unidos, lo que apunta a la urgencia de acuerdos internacionales que eviten la fragmentación.

¿Quiénes son los actores relevantes? Las universidades como espacios de experimentación y regulación; los organismos internacionales, que promueven equidad y responsabilidad; y los investigadores, que aportan evidencia crítica sobre sesgos y riesgos. Aun así, hay vacíos. Crompton y Burke (2023) señalan la falta de estudios longitudinales, y Jayasinghe et al. (2026) echan en falta análisis por disciplinas específicas. El corpus, en suma, ofrece una visión amplia y consistente, pero también deja claras las líneas que debería seguir la investigación futura. 

 

Evaluación de calidad

Aplicada la lista de verificación, los catorce estudios se distribuyeron en tres niveles. Siete alcanzaron una calificación de alta calidad: cumplían con objetivos claros, metodologías transparentes, análisis consistentes y además reconocían sus propias limitaciones. Otros cinco fueron clasificados como de calidad moderada, aunque aportaban información relevante, descuidaban detalles del muestreo o no explicitaban bien sus limitaciones. Los dos restantes se consideraron de baja calidad: sus objetivos resultaban difusos y la descripción metodológica, insuficiente (en un caso hubo dudas sobre si la lista se había aplicado correctamente, pero se mantuvo el criterio inicial).

La clasificación afectó como se interpretaron los hallazgos. Los trabajos de alta calidad sirvieron de base principal para identificar patrones y formular recomendaciones. Los de calidad moderada ayudaron a ampliar la mirada, pero se manejaron con cuidado. Los de baja calidad apenas tuvieron peso en la síntesis final, se usaron como referencia del contexto general. En conjunto, la evaluación de calidad dio consistencia a las conclusiones, porque permitió apoyarlas en evidencia sólida sin ignorar las limitaciones de cada estudio.

 

DISCUSIÓN

De la literatura revisada se desprenden tres preocupaciones éticas recurrentes en el uso de la IA en la educación superior: equidad en la evaluación, transparencia algorítmica y protección de la privacidad. No es casualidad que se reiteren, tanto en revisiones sistemáticas como en narrativas, y en contextos distintos. Más que problemas aislados, parecen tendencias globales (Ricra Ruiz et al., 2025). A estas se suma la integridad académica, sobre todo con la irrupción de herramientas generativas. La tensión que genera la IA en los paradigmas tradicionales de honestidad y responsabilidad es cada vez más evidente (Bittle & ElGayar, 2025).

Otro aspecto que emerge con claridad es que la discusión sobre ética no se queda en lo técnico. Tiene una dimensión institucional inevitable. Varios autores insisten en la necesidad de marcos normativos definidos y políticas universitarias específicas. Su argumento es que la gobernanza y la regulación importan tanto como el diseño tecnológico. Dicho de otro modo: la rápida adopción de la IA exige un compromiso ético explícito por parte de las universidades, y también una respuesta coordinada de los organismos internacionales (Mora Naranjo et al., 2023).

De hecho, la literatura reciente subraya que los marcos regulatorios y la gobernanza universitaria son tan decisivos como la tecnología misma para una implementación ética de la IA. Hay propuestas concretas: auditorías éticas, directrices participativas y políticas institucionales (Bond et al., 2024; Jayasinghe et al., 2026). Pero la puesta en práctica de las recomendaciones depende mucho del contexto. Las universidades públicas suelen enfrentar restricciones presupuestarias y regulaciones más estrictas; las privadas, en cambio, tienen a menudo más margen para adaptar sus normas internas, aunque eso puede llevar a una fragmentación normativa. En el plano internacional, los países con regulaciones más avanzadas mejoran hacia modelos de gobernanza más coherentes. Donde los marcos normativos aún son incipientes, la implementación es desigual, lo que refuerza la necesidad de consensos globales y de una estrecha coordinación entre instituciones y organismos internacionales (Mora Naranjo et al., 2023).

¿Qué papel juegan los distintos actores? Las instituciones de educación superior no son simples usuarias de la IA, sino que se convierten en espacios donde se negocian y ensayan respuestas normativas. Los organismos internacionales, por su parte, ayudan a definir principios éticos y marcos de referencia comunes, orientando a las instituciones en contextos muy diversos (Bond et al., 2024). Los investigadores aportan evidencia crítica sobre sesgos y riesgos, y con ello alimentan la toma de decisiones (Jayasinghe et al., 2026). La sinergia entre estos actores puede fortalecer la implementación responsable de la IA; sin coordinación, en cambio, el riesgo es que todo quede fragmentado (Mora Naranjo et al., 2023).

La presente revisión también ha dejado ver algunas carencias notables. Hay muy pocos estudios longitudinales. La evidencia de regiones no occidentales es escasa, y apenas se ha prestado atención a disciplinas específicas. Estas limitaciones restan capacidad de generalización, pero también señalan hacia dónde debería ir la investigación futura: estudios comparativos entre contextos, análisis empíricos por área del conocimiento, y evaluaciones del impacto real de las políticas institucionales. Con dichos esfuerzos se podría consolidar una agenda internacional más cohesionada sobre ética de la IA en la educación superior (Bond et al., 2024; Ricra Ruiz et al., 2025).

El presente estudio tiene, como es natural, varias limitaciones. Por ejemplo, la cobertura no fue completa, hubo disparidades en la disponibilidad de textos completos en algunos repositorios, y solo se incluyeron trabajos en idiomas español e inglés. Además, el sesgo de publicación ejerció una influencia: los estudios con resultados favorables o con mayor visibilidad institucional están sobrerrepresentados en las bases indexadas, mientras que experiencias locales o informes internos quedan subrepresentados. No obstante, los hallazgos no pierden su validez, si bien conviene interpretarlos con cautela y, desde luego, hacer nuevos estudios que amplíen el espectro de fuentes y aborden una diversidad lingüística.

 

CONCLUSIONES

De la revisión se desprenden cuatro ejes éticos recurrentes en el uso de la IA en la educación superior: equidad en los procesos evaluativos, transparencia algorítmica, privacidad de los datos e integridad académica frente a herramientas generativas. No se trata de problemas aislados, sino de patrones globales que aparecen tanto en revisiones sistemáticas como en estudios narrativos. Los datos disponibles sugieren que, sin un marco ético sólido, la adopción rápida de la IA podría agravar desigualdades, reducir la autonomía crítica y tensionar los principios humanistas de la universidad. 

La discusión actual, como lo confirman los resultados, trasciende lo puramente técnico y se instala en el terreno institucional. Las universidades no solo deben elegir qué herramientas usar, sino también definir cómo gobernarlas y con qué principios. Una demanda recurrente en la literatura examinada es la creación de marcos normativos y políticas específicas. Entre las iniciativas propuestas figuran auditorías éticas, directrices elaboradas con participación comunitaria y modelos de gobernanza que integren innovación con justicia social. También se considera fundamental la coordinación con organismos internacionales para evitar la fragmentación normativa y lograr cierta uniformidad en los esfuerzos regulatorios.

La principal contribución de la presente investigación es haber reunido datos dispersos y mostrar que las discusiones en torno a la IA en la universidad van más allá de lo técnico, alcanzando lo institucional y lo social. Al identificar estas constantes (equidad, transparencia, privacidad, integridad académica), el análisis ofrece una base sólida para formular políticas y poner en marcha prácticas responsables, acordes con las necesidades actuales de la educación superior.

La presente indagación también descubre carencias notables. Escasean los estudios longitudinales, imprescindibles para medir efectos a largo plazo. La evidencia de regiones no occidentales es limitada; y la exploración por disciplinas específicas aun es incipiente. Para corregir estas deficiencias, hace falta promover la investigación comparativa y empírica en diversos contextos, así como evaluar el impacto real de las políticas institucionales. Avanzar en esa dirección ampliará el conocimiento y permitirá consolidar una agenda internacional armonizada sobre ética de la IA en educación, que sirva de guía para decisiones fundamentadas de instituciones académicas y entes reguladores.

 

REFERENCIAS

Adamakis, M., Rachiotis, T. (2025). Artificial Intelligence in Higher Education: A

State-of-the-Art Overview of Pedagogical Integrity, Artificial Intelligence Literacy, and Policy Integration. Encyclopedia, 5(4), 180.

https://doi.org/10.3390/encyclopedia5040180  

AlBlooshi, S. (2025). Opportunities and challenges of AI in higher education: A systematic narrative review. Frontiers in Education. 10.

https://doi.org/10.3389/feduc.2025.1683968  

Alfiras, M.I.I., Emran, A.Q. & Mohamed, A.M. (2026). Ethics and governance of generative AI in education: a systematic review on responsible adoption. Discover Education, 5, Article 37. https://doi.org/10.1007/s44217025-01051-y  

Al-Zahrani, A. M., & Alasmari, T. M. (2024). Exploring the impact of artificial intelligence on higher education: The dynamics of ethical, social, and educational implications. Humanities and Social Sciences Communications, 11, Article number: 912 https://doi.org/10.1057/s41599-024-03432-4  

Baker, R. S., & Hawn, A. (2022). Algorithmic bias in education. International Journal of Artificial Intelligence in Education, 32, 1052–1092.

https://doi.org/10.1007/s40593-021-00285-9  

Behera, A., Trivedi, P., Patra, S. K., & Makeni, C. (2025). Artificial intelligence and higher education: A systematic review. American Journal of STEM Education, 11, 27-52. https://doi.org/10.32674/0x43s107

Bittle, K., & El-Gayar, O. (2025). Generative AI and Academic Integrity in Higher Education: A Systematic Review and Research Agenda. Information, 16(4),

296. https://doi.org/10.3390/info16040296  

Bond, M., Khosravi, H., De Laat, M., Bergdahl, N., Negrea, V., Oxley, E., Pham, P., Chong, S. W., & Siemens, G. (2024). A meta systematic review of artificial intelligence in higher education: a call for increased ethics, collaboration, and rigour. International Journal of Educational Technology in Higher Education, 21, Article 4. https://doi.org/10.1186/s41239-023-00436-z  

Castelló-Sirvent, F., Roger-Monzó, V., & Gouveia-Rodrigues, R. (2022). Quo Vadis, University? A roadmap for AI and ethics in higher education. European Journal of e-Learning, 22(6), 34-51. https://doi.org/10.34190/ejel.22.6.3267.

Castillo-Martínez, I. M., Flores-Bueno, D., Gómez-Puente, S. M., & Vite-León, V. O. (2024). AI in higher education: A systematic literature review. Frontiers in Education, 9, Article 1391485. https://doi.org/10.3389/feduc.2024.1391485  

Comas Rodriguez, R. (2024). La investigación científica universitaria y su impacto en la sociedad. Revista Uniandes Episteme, 11(1), 1–2. https://doi.org/10.61154/rue.v11i1.3329  

Comas Rodríguez, R. (2025). ¿Es ético el uso de herramientas de inteligencia artificial en el desarrollo de una investigación? Revista Uniandes

Episteme, 12(1), 1–3. https://doi.org/10.61154/rue.v12i1.3732  

Crompton, H., Burke, D. Artificial intelligence in higher education: the state of the field. International Journal of Educational Technology in Higher Education, 20, Article 22, (2023). https://doi.org/10.1186/s41239-023-00392-8  

Cruvinel Júnior, L., Ascama, O. H., Marques da Silva, M. (2026). AI Ethics in Higher Education: A review of ethical challenges. En I. Álvarez, M. Arias-Oliva, A.-H. Dediu, & N. Silva (Eds.), Ethical and Social Impacts of Information and Communication Technology: 22nd International Conference, ETHICOMP 2025, Lisbon, Portugal, September 17–19, 2025, Proceedings (Lecture Notes in Computer Science, vol. 15939, pp. 192–203). Springer.

https://doi.org/10.1007/978-3-032-01429-0_17  

Dabis, A., Csáki, C. (2024). AI and ethics: Investigating the first policy responses of higher education institutions to the challenge of generative AI. Humanities and

             Social           Sciences           Communications,           11,           Article           1006

https://doi.org/10.1057/s41599-024-03526-z  

García-López IM and Trujillo-Liñán L (2025) Ethical and regulatory challenges of

Generative AI in education: a systematic review. Frontiers in Education, 10, Article 1565938. https://doi.org/10.3389/feduc.2025.1565938    

Holmes, W., Porayska-Pomsta, K., Holstein, K., Sutherland, E., Baker, T., Buckingham Shum, S., Santos, O. C., Rodrigo, M. T., Cukurova, M.,

Bittencourt, I. I., & Koedinger, K. R. (2022). Ethics of AI in Education: Towards a community-wide framework. International Journal of Artificial Intelligence in Education, 32, 504–526. https://doi.org/10.1007/s40593-021-00239-1  

Jayasinghe, S., Gamage, K. A. A., Yang, D., Cheng, C., Disanayake, C., & Apeji, U. D. (2026). Six Institutional Intervention Areas to Support Ethical and Effective Student Use of Generative AI in Higher Education: A Narrative

             Review. Education                                  Sciences, 16(1),                                  137.

https://doi.org/10.3390/educsci16010137  

Köbis, L. K., & Mehner, C. M. (2021). Ethical questions raised by AI supported mentoring in higher education. Frontiers in Artificial Intelligence, 4, Article 624050. https://doi.org/10.3389/frai.2021.624050

McDonald, N., Johri, A., Ali, A., & Collier, A. H. (2025). Generative artificial intelligence in higher education: Evidence from an analysis of institutional policies and guidelines. Computers in Human Behavior: Artificial Humans, 3, Article 100121. https://doi.org/10.1016/j.chbah.2025.100121  

Memarian, B., & Doleck, T. (2023). Fairness, Accountability, Transparency, and Ethics (FATE) in Artificial Intelligence (AI) and higher education: A systematic review. Computers and Education: Artificial Intelligence, 5, 100152. https://doi.org/10.1016/j.caeai.2023.100152  

Mora Naranjo, B. M., Aroca Izurieta, C. E., Tiban Leica, L. R., Sánchez Morrillo, C. F., & Jiménez Salazar, A. (2023). Ética y Responsabilidad en la

Implementación de la Inteligencia Artificial en la Educación. Ciencia Latina

Revista             Científica       Multidisciplinar, 7(6),           2054-2076. https://doi.org/10.37811/cl_rcm.v7i6.8833  

Nguyen, T. T. (2025). Artificial Intelligence In Higher Education: A Systematic

Review Of Impacts, Barriers, And Emerging Trends. IOSR Journal of Research

             &       Method       in       Education        (IOSR-JRME),       15(3)Ser.1,       53-61. 

https://www.iosrjournals.org/iosr-jrme/papers/Vol-15%20Issue-3/Ser1/H1503015361.pdf  

Niu, W., Zhang, W., Zhang, C., & Chen, X. (2024). The Role of Artificial Intelligence

             Autonomy      in       Higher       Education:       A       Uses      and       Gratification

Perspective. Sustainability, 16(3), 1276. https://doi.org/10.3390/su16031276  

Page, M. J., McKenzie, J. E., Bossuyt, P. M., Boutron, I., Hoffmann, T. C., Mulrow, C. D., Shamseer, L., Tetzlaff, J. M., Akl, E. A., Brennan, S. E., Chou, R., Glanville, J., Grimshaw, J. M., Hróbjartsson, A., Lalu, M. M., Li, T., Loder, E.

W., Mayo Wilson, E., McDonald, S., … Moher, D. (2021). The PRISMA 2020 statement: an updated guideline for reporting systematic reviews. BMJ, 372, n71. https://doi.org/10.1136/bmj.n71

Ricra Ruiz, R. A., Queque Luque, E. F., Vega Lazo, F. H., Martínez Horna, D. J., Ross Audureau, J., & Lara Tapia, L. M. (2025). Implicaciones éticas de la inteligencia artificial generativa en la educación superior: una revisión sistemática. Revista InveCom, 6(2). https://doi.org/10.5281/zenodo.16734732  Tricco, A. C., Lillie, E., Zarin, W., O’Brien, K. K., Colquhoun, H., Levac, D., Moher, D., Peters, M. D. J., Horsley, T., Weeks, L., Hempel, S., Akl, E. A., Chang, C., McGowan, J., Stewart, L., Hartling, L., Aldcroft, A., Wilson, M. G., & Straus, S. E. (2018). PRISMA extension for scoping reviews (PRISMA ScR): Checklist and explanation. Annals of Internal Medicine, 169(7), 467–473. https://doi.org/10.7326/M18-0850