Alteridad, 2025, 20(2), 166-177
Formación docente en IA Generativa:
impacto ético y retos en educación superior
Teacher training in Generative AI:
ethical impact and challenges in Higher Education
Dr(c) Flavio Eduardo López-Vasco es doctorando en la Universidad Católica Andrés Bello (Venezuela)
(felopez.24@est.ucab.edu.ve) (https://orcid.org/0000-0002-7853-8439)
Mishell Romina Angulo-Álvarez es docente en la Universidad de las Fuerzas Armadas (Ecuador)
(mrangulo@espe.edu.ec) (https://orcid.org/0000-0002-6434-6137)
David Ismael Sosa-Zúñiga es docente en la Universidad de las Fuerzas Armadas (Ecuador)
(disosa1@espe.edu.ec) (https://orcid.org/0000-0002-2692-2746)
Recibido: 2025-03-03 / Revisado: 2025-05-31 / Aceptado: 2025-06-11 / Publicado: 2025-07-01
Resumen
La inteligencia artificial generativa (IA-G) está redefiniendo la
educación a nivel superior, cambiando los enfoques en la ense-
ñanza y evaluación, y para su integración, los docentes deben
desarrollar habilidades técnicas y criterios pedagógicos que les
permitan utilizar estas herramientas con conciencia ética. Este
estudio analiza el impacto del programa de formación en IA-G
de 80 horas impartido a 299 docentes de ocho universidades
ecuatorianas, con el propósito de fortalecer sus competencias
digitales y su disposición hacia estas tecnologías. Mediante un
diseño cuasi-experimental con mediciones pretest y postest, los
resultados mostraron mejoría en el conocimiento técnico sobre
IA-G (M = 2.62 a 4.22, t = -30.77, p < 0.0001, d = 0.85) y en la
predisposición docente para su aplicación en el aula (M = 3.63 a
4.02, t = -6.38, p < 0.0001, d = 0.52). Sin embargo, la percepción
sobre la originalidad de los contenidos generados por IA no
mostró cambios relevantes (M = 3.02 a 2.94, t = -0.82, p = 0.41),
lo que sugiere incertidumbre sobre su autenticidad académica.
Estos resultados destacan la importancia de una capacitación
que combine instrucción con metodologías activas, como el
aprendizaje basado en proyectos y la evaluación formativa.
Asimismo, se recomienda establecer políticas institucionales
claras sobre el uso de IA en la educación superior, priorizando
ética y transparencia acorde con los principios de la UNESCO.
Palabras clave: inteligencia artificial, formación de docentes,
enseñanza superior, evaluación de la educación, ética de la
tecnología.
Abstract
Generative Artificial Intelligence (GAI) is reshaping on high-
er education, and transforming instructional and assessment
practices, therefore, educators must develop technical expertise
and pedagogical awareness to ensure ethical and responsible
use. This study evaluates the impact of an 80-hour GAI training
program conducted with 299 lecturers from eight Ecuadorian
universities, aiming to enhance their digital skills and openness
to AI-based teaching strategies. Through a quasi-experimental
design with pretest and postest assessments, findings reveal an
increase in technical proficiency (M = 2.62 to 4.22, t = -30.77,
p < 0.0001, d = 0.85) and lecturers’ willingness to apply GAI
in their teaching (M = 3.63 to 4.02, t = -6.38, p < 0.0001, d =
0.52). However, perceptions of AI-generated content originality
remained unchanged perceptions (M = 3.02 to 2.94, t = -0.82,
p = 0.41), indicating ongoing concerns regarding authenticity
in academic settings. These results emphasize the necessity of
training programs that merge technical instruction with active
learning methodologies, such as project-based learning and for-
mative assessment. Additionally, higher education institutions
should establish clear policies regulating AI implementation,
ensuring ethical standards and academic integrity. Moreover,
developing institutional guidelines for assessing AI-generated
content is essential for maintaining transparency, fairness, and
responsible adoption in teaching and assessment to identify the
best practices to support lecturers’ development, and promote its
effective use in academic fields.
Keywords: artificial intelligence, teacher education, higher edu-
cation, educational evaluation, ethics of technology.
julio-diciembre 2025
Vol. 20, No. 2, 166-177
https://doi.org/10.17163/alt.v20n2.2025.01
Forma sugerida de citar (APA): López-Vasco, F. E., Angulo-Álvarez, M. R. y Sosa-Zúñiga, D. I. (2025). Formación docente en IA
Generativa: impacto ético y retos en educación superior. Alteridad, 20(2), 166-177. https://doi.org/10.17163/alt.v20n2.2025.01
p-ISSN:1390-325X / e-ISSN:1390-8642
http://alteridad.ups.edu.ec
Dr(c) Flavio Eduardo López-Vasco, Mishell Romina Angulo-Álvarez y David Ismael Sosa-Zúñiga
Alteridad, 2025, 20(2), 166-177 167
1. Introducción
La inteligencia artificial generativa (IA-G) ha
transformado áreas incluida la educación superior,
donde su aplicación en la enseñanza, evaluación y
desarrollo académico sigue avanzando (Kohnke et al.,
2023; Michel-Villarreal et al., 2023; Sanusi et al., 2023)
debido a la capacidad para automatizar tareas docen-
tes, personalizar experiencias de aprendizaje y generar
contenido educativo, mismo que ha generado debate.
Mientras autores como Chan (2023), Usher y Barak
(2024) destacan el potencial de la IA-G para mejorar
la accesibilidad y el aprendizaje personalizado; Nam
y Bai (2023), Vallis et al. (2024) advierten sobre los
riesgos en la equidad y la privacidad.
Uno de los desafíos centrales en la integración
de la inteligencia artificial (IA) en la educación es
el rol del docente, ya que, según la literatura exis-
tente, la falta de formación en IA representa un
obstáculo significativo para su aplicación efectiva
(Bendechache et al., 2021; Michel-Villarreal et al.,
2023; Sanusi et al., 2023). Así, algunos estudios argu-
mentan que la resistencia se debe principalmente al
desconocimiento técnico (Baron, 2024; Diao, 2020),
otros enfatizan preocupaciones éticas y la percep-
ción de que la IA podría reducir la autonomía en
el diseño pedagógico (Rudolph et al., 2024; Slimi
y Carballido, 2023; Vallis et al., 2024); por lo que,
esta divergencia en los hallazgos sugiere realizar un
análisis más profundo acerca de cómo la capacita-
ción específica en la IA influye en la percepción y
disposición docente (Archambault et al., 2024; Celik,
2023). Coincidiendo con este enfoque, Weglarz et al.
(2025) identifican que la expectativa de rendimiento,
el esfuerzo percibido y la confianza institucional son
factores que influyen en la adopción de herramientas
de la IA, incluso fuera del ámbito educativo.
El uso de la IA-G en educación ha cambiado
los procesos de enseñanza, y en la evaluación acadé-
mica; así, Crawford et al. (2023) y Eager y Brunton
(2023) han señalado que, aunque herramientas
como Turnitin AI y GPTZero fueron diseñadas para
detectar contenido generado por la IA, su precisión
sigue siendo cuestionada debido a las limitaciones
en la identificación de textos reformulados manual-
mente. Así mismo, Nikolic et al. (2023) argumentan
que estos sistemas no siempre logran diferenciar
con exactitud entre producciones originales y textos
generados mediante IA con modificaciones posterio-
res. Por otro lado, Sanusi et al. (2023) advierten que la
fiabilidad de estos detectores es un tema aún en evo-
lución, dado que su desempeño puede verse afectado
por la diversidad lingüística y los distintos estilos de
escritura académica. De manera similar, Yin Albert
et al. (2022) destacan que la creciente sofisticación
de los modelos de IA plantea desafíos adicionales,
ya que los textos generados por estas tecnologías
pueden imitar patrones de redacción humanos con
un alto grado de precisión, lo que dificulta su identi-
ficación efectiva en contextos evaluativos.
Además, la evaluación automatizada mediante
la IA ha sido cuestionada debido a posibles sesgos
algorítmicos que podrían comprometer la equidad
en la calificación (Chiu, 2024; Javed et al., 2022;
Silva-Rodriguez et al., 2021), por lo que, para miti-
gar estos riesgos, se ha propuesto que la supervisión
docente y la auditoría de los sistemas de IA sean
estrategias clave (Almassaad et al., 2024; Eager y
Brunton, 2023).
Desde una perspectiva inclusiva, la IA puede
ampliar el acceso a la educación mediante el aprendi-
zaje personalizado, pero también tiene potencial para
reforzar desigualdades preexistentes (Chiu, 2024),
ya que, investigaciones recientes han revelado que la
brecha digital sigue siendo un factor determinante en
la adopción de IA en el aula, ya que el acceso a infraes-
tructura tecnológica y capacitación especializada no
es equitativo en todas las instituciones (Archambault
et al., 2024; Diao, 2020); es decir, universidades con
mayores recursos tienen más oportunidades de incor-
porar la IA en sus programas educativos, en cam-
bio otras enfrentan limitaciones tecnológicas enfren-
tan dificultades significativas en su implementación
(Crawford et al., 2023; Sanusi et al., 2023).
A pesar del interés de la IA-G dentro del
ámbito educativo, la mayoría de los estudios han
priorizado el análisis de la percepción estudiantil,
dejando de lado papel del docente en su adopción
y aplicación pedagógica (Almassaad et al., 2024;
Archambault et al., 2024; Celik, 2023). Aunque
existe consensos sobre la importancia de la forma-
ción docente en IA, los enfoques actuales han sido
fragmentados y carecen de un análisis integral sobre
cómo los programas de capacitación pueden influir
en su aceptación y uso efectivo en el aula (Nam y Bai,
2023; Slimi y Carballido, 2023).Por lo que, este estu-
dio busca abordar esta brecha mediante un alisis
detallado del impacto de la capacitación en IA-G en
Dr(c) Flavio Eduardo López-Vasco, Mishell Romina Angulo-Álvarez y David Ismael Sosa-Zúñiga
Alteridad, 2025, 20(2), 166-177© Universidad Politécnica Salesiana, Ecuador
168
la percepción, actitud y aplicación de estas tecnolo-
gías por parte del profesorado universitario (Javed
et al., 2022; Nikolic et al., 2023). A diferencia de
investigaciones previas con enfoques generales, esta
investigación comparativa permite evaluar los cam-
bios en el conocimiento técnico y la predisposición
del profesorado antes y después de recibir formación
específica (Chun y Elkins, 2023; Tubella et al., 2024).
Ante el avance de la IA-G en la educación
superior, su adopción efectiva requiere acceso a
tecnología, y también una formación docente que
garantice su integración pedagógica con criterios éti-
cos y metodológicos claros; por lo que, este estudio
examina cómo un programa de capacitación en IA-G
influye en la percepción y desarrollo de competen-
cias docentes, además de identificar los principales
desafíos para su aplicación en la enseñanza universi-
taria (Slimi y Carballido, 2023).
A partir de los hallazgos obtenidos, se pro-
pondrán estrategias para fortalecer la alfabetización
digital y así facilitar su incorporación de manera
efectiva en el aula, para ello se analiza el uso de IA-G
en educación, abordando sus beneficios y desafíos.
Luego, se describe la metodología utilizada para
evaluar la formación docente, seguida de un análisis
de resultados que permite comprender cómo esta
capacitación transforma la percepción y su uso en la
práctica educativa. Finalmente, se dan implicaciones
clave y recomendaciones orientadas al diseño de
políticas de formación en IA, alineadas con las reali-
dades y necesidades del contexto universitario.
2. Metodología
Autores como Gómez-Diago (2022) y Yue et
al. (2024) han destacado que los diseños cuasi-experi-
mentales son una estrategia metodológica efectiva para
evaluar cambios en contextos educativos sin alterar las
dinámicas institucionales; en concordancia con estos
enfoques, este estudio adoptó un diseño cuasi-expe-
rimental sin asignación aleatoria de los participantes
a grupos de control y experimental, respondiendo a
restricciones éticas y operativas dentro del entorno uni-
versitario, permitiendo analizar el impacto de la capa-
citación en inteligencia artificial generativa (IA-G) en
la percepción y el desarrollo de competencias docentes
dentro de condiciones reales de enseñanza.
Por su parte, Nikolic et al. (2023) enfatizan la
importancia de conformar muestras heterogéneas
en estudios sobre adopción tecnológica, ya que la
diversidad en la experiencia docente y los entornos
académicos influye en los resultados. Atendiendo a
este criterio, se seleccionaron docentes de diversas
disciplinas y niveles de experiencia, permitiendo una
evaluación más representativa del fenómeno estudia-
do. Además, Zhao et al. (2023) y Michel-Villarreal
et al. (2023) mencionan que la triangulación de ins-
trumentos de medición es fundamental para reducir
sesgos en estudios educativos; por lo que, con estos
hallazgos, esta investigación implementó múltiples
técnicas de recolección de datos y se realizó un
análisis de covariables con el fin de mitigar factores
externos que pudieran influir en los resultados.
Finalmente, Chiu (2024) y van den Berg y
du Plessis (2023) sostienen que, en investigaciones
educativas donde la accesibilidad y la disposición
de los participantes son factores determinantes,
el muestreo no probabilístico por conveniencia se
presenta como una alternativa metodológica válida.
Siguiendo esta premisa, la selección de los docentes
se basó en su interés y predisposición en integrar la
IA-G en las prácticas pedagógicas, lo que permitió
examinar con mayor profundidad su impacto en la
enseñanza universitaria; por lo que, la muestra de
299 docentes universitarios se fundamentó tanto en
criterios metodológicos como en consideraciones
operativas asociadas a la viabilidad de implementar
el programa de capacitación en la IA-G en diferentes
contextos institucionales y a la necesidad de garan-
tizar una representatividad adecuada que permitiera
realizar análisis estadísticos (como prueba t para
muestras relacionadas, regresión múltiple y estima-
ción de tamaño del efecto).
Ante lo expuesto anteriormente se adopta-
ron medidas para minimizar sesgos de selección,
como la inclusión de participantes de instituciones
públicas y privadas, con representación equitativa
en género, edad y experiencia docente (Nikolic et al.,
2023; Sullivan et al., 2023). Se estableció un rango
etario de 25 a 60 años, con una media de 45 años, y
se verificó que los docentes presentaran niveles simi-
lares de conocimientos previos sobre IA antes de la
capacitación (Diao, 2020; Zhao et al., 2022).
Los datos fueron recolectados mediante
encuestas estructuradas, con escalas Likert de cinco
puntos, administradas en dos momentos: pretest y
postest (Celik, 2023; Gómez-Diago, 2022) donde
las variables evaluadas incluyeron el nivel de cono-
Dr(c) Flavio Eduardo López-Vasco, Mishell Romina Angulo-Álvarez y David Ismael Sosa-Zúñiga
Alteridad, 2025, 20(2), 166-177© Universidad Politécnica Salesiana, Ecuador 169
cimiento sobre IA-G, la percepción de originalidad
de los contenidos generados por la IA y la preocupa-
ción sobre privacidad de datos y ética en la docencia
(Saltos et al., 2023; Vallis et al., 2024). Para verificar
la validez del instrumento se envió para validación
de expertos en tecnología educativa y ética digital
utilizando el coeficiente V de Aiken (0.82), que
confirmó la pertinencia de los ítems seleccionados
(Almassaad et al., 2024; van den Berg y du Plessis,
2023). Asimismo, la confiabilidad se evaluó median-
te el coeficiente alfa de Cronbach (α = 0.87), reflejan-
do consistencia en las respuestas obtenidas (Sanusi et
al., 2023; Zhao et al., 2022).
En el enfoque cuantitativo, la prueba t para
muestras relacionadas permitió evaluar diferencias
entre los resultados del pretest y postest; donde la
normalidad de la distribución de los datos se verificó
mediante la prueba de Shapiro-Wilk, obteniéndose
valores de W = 0.978, p = 0.12 en el pretest y W =
0.982, p = 0.08 en el postest; dado que ambos valores
p son superiores a 0.05, se confirmó que los datos
seguían una distribución normal, permitiendo el
uso de pruebas paramétricas (Rudolph et al., 2024;
Sullivan et al., 2023).
Para controlar posibles variables de confusión,
se realizó la regresión múltiple, considerando factores
como la disciplina académica, la experiencia docente
y el nivel previo de familiaridad con IA-G, donde el
coeficiente de determinación R² = 0.65 (p < 0.01)
indicó que el modelo explica el 65 % de la variabili-
dad en los resultados postest sugiriendo un impacto
considerable de la capacitación en el conocimiento y
percepción de la IA-G en el aula (Michel-Villarreal
et al., 2023; Zhao et al., 2022). Adicionalmente,
se calculó el tamaño del efecto mediante la d de
Cohen, obteniéndose un valor de 0.85, lo que con-
firma mejora en la comprensión y percepción de la
IA-G tras la capacitación (Archambault et al., 2024;
Gómez-Diago, 2022).
Desde un enfoque cualitativo, se utilizó codi-
ficación temática inductiva, lo que permitió identi-
ficar cinco categorías emergentes en la percepción
docente sobre la IA-G en educación superior: 1.
Confianza en el uso de IA-G: Mayor seguridad en la
aplicación de herramientas de la IA en la enseñan-
za. 2. Percepción de originalidad: Preocupaciones
sobre la generación de contenidos y su impacto
en la creatividad estudiantil. 3. Ética y privacidad:
Consideraciones sobre la seguridad de datos y el uso
responsable de la IA en la educación. 4. Adopción en
la práctica docente: Diferencias en la implementa-
ción según la disciplina académica. 5. Continuidad
de la formación: Interés en ampliar el conocimiento
sobre IA y sus aplicaciones educativas.
Conforme lo anterior, con el fin de garantizar
la confiabilidad del análisis cualitativo, se realizó una
validación intersubjetiva entre investigadores, obte-
niendo un índice Kappa de Cohen (κ = 0.79), lo que
indica un acuerdo sustancial en la interpretación de
los datos (Chiu, 2024; Sullivan et al., 2023) emplean-
do el software NVivo para la segmentación y clasifi-
cación de respuestas, optimizando el procesamiento
y la organización de los hallazgos (Leoste et al., 2021;
Zhao et al., 2022). Por lo que, los resultados de este
estudio proporcionarán evidencia empírica sobre la
efectividad de la formación en IA-G, contribuyendo
al diseño de estrategias para su integración respon-
sable en la educación superior (Gómez-Diago, 2022).
3. Resultados
3.1 Evolución del conocimiento técnico
sobre IA Generativa
El análisis cuantitativo evidencia una mejora
significativa en el conocimiento técnico sobre la
IA-G tras la capacitación, donde, la comparación de
mediciones pretest y postest aplicadas a los mismos
participantes permitió evaluar la evolución de su
comprensión sobre esta tecnología; por lo que la
normalidad de los datos fue mediante la prueba de
Shapiro-Wilk, confirmando la idoneidad del uso de
pruebas paramétricas; y la prueba t para muestras
relacionadas, misma que presentó una diferencia
estadísticamente significativa entre ambas medicio-
nes, con un t-valor de -30.77 y un p-valor menor a
0.0001 (Lozano y Blanco Fontao, 2023; Moorhouse
et al., 2023).
El tamaño del efecto, medido con d de Cohen
(0.85), indica un impacto considerable en la adquisi-
ción de conocimientos técnicos en la tabla 1 y en la
figura 1, muestran la puntuación media en conoci-
miento de IA-G pasó de 2.62 en el pretest a 4.22 en el
postest, lo que respalda la efectividad del programa
formativo (Dai et al., 2023).
Dr(c) Flavio Eduardo López-Vasco, Mishell Romina Angulo-Álvarez y David Ismael Sosa-Zúñiga
Alteridad, 2025, 20(2), 166-177© Universidad Politécnica Salesiana, Ecuador
170
Tabla 1. Comparación Pretest-Postest sobre Conocimiento Técnico en IA-G
Variable Media Pretest (±DE) Media Postest (±DE) Valor T Valor P d de Cohen 95 % IC
Conocimiento sobre IA-G 2.62 ± 0.71 4.22 ± 0.68 -30.77 <0.0001 0.85 [2.41, 4.03]
Figura 1. Evolución del conocimiento técnico sobre IA-G
3.2 Cambio en la actitud docente hacia
IA-G
La evolución en la actitud docente hacia la
adopción de la IA-G en la enseñanza también mos-
tró un cambio positivo; la media pasó de 3.63 en el
pretest a 4.02 en el postest, con una mejora estadís-
ticamente significativa (t-valor de -6.38, p < 0.0001)
(Puerto y Gutiérrez-Esteban, 2022).
El tamaño del efecto (d de Cohen = 0.52)
indica un impacto moderado. Como se detalla en
la tabla 2, estos hallazgos evidencian un avance en
la disposición del profesorado a integrar la IA-G en
sus estrategias pedagógicas (Flores-Vivar y García-
Peñalvo, 2023).
Tabla 2. Comparación Pretest-Postest sobre Actitud Docente hacia IA-G
Variable Media Pretest (±DE) Media Postest (±DE) Valor T Valor P d de Cohen 95 % IC
Actitud docente hacia IA-G 3.63 ± 0.88 4.02 ± 0.75 -6.38 <0.0001 0.52 [3.49, 4.15]
3.3 Percepción sobre la originalidad de
contenidos generados por IA
Los resultados sugieren que la capacitación no
logró modificar significativamente la percepción de
los docentes sobre la originalidad de los contenidos
generados por la IA-G. La media pasó de 3.02 en el
pretest a 2.94 en el postest, con una diferencia no
significativa (t-valor = -0.82, p = 0.41), y un efecto
bajo (d de Cohen = 0.12) (Sperling et al., 2024). Este
patrón también fue identificado por Firat y Kuleli
(2024), quienes observaron que incluso tras un
proceso de formación intensiva en IA, la percepción
docente sobre la originalidad de los contenidos gene-
rados no presentó mejoras sustanciales, lo que revela
la resistencia vinculada a factores éticos y cognitivos.
Tabla 3. Comparación Pretest-Postest sobre Percepción de Originalidad en IA-G
Variable Media Pretest (±DE) Media Postest (±DE) Valor T Valor P d de Cohen 95 % IC
Percepción de originalidad en IA-G 3.02 ± 0.91 2.94 ± 0.87 -0.82 0.41 0.12 [2.81, 3.15]
Dr(c) Flavio Eduardo López-Vasco, Mishell Romina Angulo-Álvarez y David Ismael Sosa-Zúñiga
Alteridad, 2025, 20(2), 166-177© Universidad Politécnica Salesiana, Ecuador 171
3.4 Análisis cualitativo de la percepción
docente
El análisis cualitativo complementó los hallaz-
gos mediante un proceso de codificación temática
inductiva, permitiendo identificar cambios en la
percepción docente, cuyos datos fueron procesados
con NVivo, facilitando la categorización de res-
puestas abiertas en las encuestas pretest y postest
(Ma, 2021). Así, en la fase inicial, predominaban
expresiones de incertidumbre y desconocimiento
sobre la IA-G, mientras que en el postest emergieron
menciones más específicas a herramientas concretas
y estrategias pedagógicas (Yin Albert et al., 2022). A
continuación, se dan a conocer algunas respuestas
textuales de los docentes:
Me interesa conocer herramientas de IA, pero no
sé cómo pueden aplicarse en educación.
Creo que pueden ser útiles, pero tengo dudas sobre
la originalidad de los contenidos generados.
Ahora tengo más claridad sobre cómo usar IA en
mis clases, especialmente ChatGPT y Copilot
Sigo teniendo inquietudes sobre el plagio, pero entien-
do mejor los mecanismos de detección disponibles.
4. Discusión y conclusiones
4.1 Discusión
Esta sección analiza los hallazgos del estudio
en relación con sus objetivos y con la literatura exis-
tente, evaluando el impacto de la capacitación en
IA generativa en la educación superior. Se examina
la evolución del conocimiento técnico, la actitud
docente, la percepción de originalidad de los con-
tenidos generados por la IA y la efectividad de las
herramientas de detección de plagio.
Para facilitar la visualización de estos resultados
y sus comparaciones, la figura 2 muestra la evolución
de las cuatro dimensiones analizadas antes y después de
la capacitación. Este gráfico permite identificar con cla-
ridad los cambios experimentados en el conocimiento
técnico y la actitud hacia la IA, así como la estabilidad
en la percepción de originalidad y la confianza en los
sistemas de detección de plagio (Cordero et al., 2024).
Figura 2. Impacto de la capacitación en IA-G sobre el conocimiento técnico, actitud docente, percepción de
originalidad y confianza detección de plagio
Dr(c) Flavio Eduardo López-Vasco, Mishell Romina Angulo-Álvarez y David Ismael Sosa-Zúñiga
Alteridad, 2025, 20(2), 166-177© Universidad Politécnica Salesiana, Ecuador
172
El primer objetivo de esta investigación fue
determinar el impacto de la capacitación en el cono-
cimiento técnico de los docentes, cuyos resultados
muestran un incremento en la media de conocimien-
to, de 2.62 en el pretest a 4.22 en el postest (t = -30.77,
p < 0.0001, d de Cohen = 0.85) (tabla 1), lo que indica
una mejora. Así, investigaciones previas han docu-
mentado la efectividad de los programas de formación
en las habilidades digitales en docentes universitarios
(Sanusi et al., 2023); reforzando la idea de que la alfa-
betización estructurada en IA puede reducir brechas
en el acceso y uso de estas tecnologías en la educación
superior (Crompton y Burke, 2023; Ng et al., 2025).
En cuanto a la actitud de los docentes hacia la
IA generativa, se obtuvo un cambio positivo, con un
aumento en la media de 3.63 en el pretest a 4.02 en
el postest (t = -6.38, p < 0.0001, d de Cohen = 0.52)
(tabla 2); por lo que este hallazgo muestra la relación
entre la adquisición de competencias tecnológicas
y la disposición para adoptar nuevas herramientas
en la enseñanza (Leoste et al., 2021). Sin embargo,
el cambio en esta dimensión al ser mínimo sugiere
que, aunque los docentes tienen más información
sobre IA, aún pueden tener dudas sobre su imple-
mentación efectiva en el aula. Para corroborar lo
mencionado, investigaciones recientes destacan la
importancia de brindar programas de formación
que integren tanto habilidades técnicas como con-
sideraciones éticas y pedagógicas en el uso de IA en
educación (Feigerlova et al., 2025; Keith et al., 2025).
Así mismo, los resultados indican que la
capacitación no produjo cambios significativos en
la percepción de originalidad de los contenidos
generados por IA, ya que la media pasó de 3.02 en
el pretest a 2.94 en el postest (t = -0.82, p = 0.41, d
de Cohen = 0.12) (tabla 3), coincidiendo con estu-
dios que han señalado una desconfianza persistente
hacia la autenticidad de los textos generados por IA
en entornos académicos (Baron, 2024). Por lo que,
una posible explicación es la ausencia de normati-
vas claras sobre el uso de IA como herramienta de
apoyo académico; generando incertidumbre sobre
su aplicación en evaluación y publicación científica
(Hagendorff, 2024; Sperling et al., 2024).
En cambio, la percepción sobre la efectividad
de las herramientas de detección de plagio en la iden-
tificación de textos generados por IA mostró un leve
incremento en la media de 3.21 a 3.37 (t = -2.01, p =
0.045, d de Cohen = 0.18) (tabla 4); aunque la diferencia
es estadísticamente significativa, su impacto es limita-
do. Ante ello, investigaciones previas han señalado que
los sistemas actuales de detección de IA aún presentan
dificultades para identificar con precisión contenido
generado algorítmicamente, especialmente cuando los
textos han sido editados manualmente (Cordero et al.,
2024); por lo que, es importante que los programas de
formación incluyan ejercicios prácticos sobre el uso
y las limitaciones de estas herramientas en contextos
académicos reales (Corfmat et al., 2025).
A partir del análisis cualitativo, se evidenció
que tras la capacitación los docentes demostraron
una mayor familiaridad con las herramientas de
inteligencia artificial disponibles, aunque continua-
ron expresando inquietudes sobre su regulación y su
aplicación en la evaluación académica. Mientras que
en la fase pretest las respuestas eran generales, en el
postest comenzaron a mencionar plataformas como
ChatGPT o Turnitin AI, lo que sugiere un progreso
tangible en su comprensión técnica.
Estos resultados indican que el proceso for-
mativo permitió a los docentes desarrollar una
visión más clara sobre el potencial y las limitaciones
de la inteligencia artificial en el ámbito educativo
(Feigerlova et al., 2025). Sin embargo, persisten
dudas en torno a la originalidad de los contenidos
generados por estas herramientas, así como a los
posibles riesgos de plagio. En consecuencia, se des-
taca la necesidad de establecer normativas institucio-
nales claras que orienten su uso ético y pedagógico
(Leoste et al., 2021; Ng et al., 2025).
Un caso que ilustra estas carencias es el estudio
de Ramírez Vergara, López-Chau y Rojas Hernández
(2024), en el cual se implementó un sistema de
narración inclusiva basado en IA, pero sin incorpo-
rar lineamientos pedagógicos ni mediación docente
que respaldan su integración en el aula. Aunque los
hallazgos de este estudio muestran avances en el
conocimiento técnico y en la actitud del profesorado
hacia la IA generativa, persisten zonas de incerti-
dumbre en torno a su impacto real sobre la autoría
y la originalidad, así como sobre la eficacia de los
detectores automatizados. Al respecto, diversos estu-
dios coinciden en que abordar estos retos requiere
competencias tecnológicas, pensamiento crítico y la
toma de decisiones informada sobre el uso ético de
estas tecnologías en contextos educativos (Crompton
y Burke, 2023; Hagendorff, 2024).
Dr(c) Flavio Eduardo López-Vasco, Mishell Romina Angulo-Álvarez y David Ismael Sosa-Zúñiga
Alteridad, 2025, 20(2), 166-177© Universidad Politécnica Salesiana, Ecuador 173
4.2 Conclusiones
Este estudio muestra un aporte significativo
sobre la formación docente en IA-G en América
Latina, al evaluar empíricamente el impacto de un
programa estructurado de 80 horas impartido a
299 docentes de ocho universidades ecuatorianas.
A través de un enfoque mixto (cuasi-experimental
y cualitativo), indica cómo la formación mejora el
conocimiento (d = 0.85), favorece la actitud docente
hacia la IA (d = 0.52); además, las tensiones persis-
tentes en la percepción de originalidad de los conte-
nidos generados. Estos hallazgos permiten no solo
validar el modelo formativo propuesto, sino también
identificar brechas institucionales entre universida-
des públicas y privadas, lo que aporta insumos para
el diseño de políticas educativas éticas basadas en
evidencia. Estas desigualdades también fueron evi-
denciadas por Aguirre-Aguilar et al. (2024), quienes,
a partir de un enfoque cuantitativo avanzado, desta-
caron disparidades significativas en el acceso y uso
pedagógico de la IA entre instituciones con distintos
niveles de infraestructura y respaldo institucional.
Así, investigaciones como las de Sanusi et al.
(2023) y Crompton y Burke (2023) han documen-
tado cómo una formación estructurada en IA no
solo reduce las brechas en la adopción tecnológica,
sino que también fomenta un uso más reflexivo y
alineado con estrategias pedagógicas innovadoras.
Sin embargo, uno de los principales desafíos iden-
tificados consiste en la percepción de originalidad
de los contenidos generados por IA; a pesar de la
capacitación recibida, los docentes no han cambia-
do de parecer respecto con la autenticidad de estos
textos, lo que sugiere la necesidad de criterios más
claros para evaluar la creatividad y pertinencia en
el ámbito académico. Estudios previos, como los de
Baron (2024) y Hagendorff (2024), han señalado
que la incertidumbre sobre la originalidad de los
textos generados automáticamente sigue siendo un
factor determinante que limita su aceptación en la
educación superior; por lo que, resulta importante
el desarrollo de normativas que permitan establecer
estándares claros para evaluar la transparencia y fia-
bilidad de estos materiales.
Desde un enfoque aplicado, el incremento
en conocimientos y la mayor apertura por parte de
los docentes hacia la IA-G pueden entenderse como
una predisposición favorable a su incorporación
en la práctica docente cotidiano. No obstante, per-
sisten preocupaciones éticas y metodológicas que
deben abordarse tanto por las autoridades, así como
también por parte de planificadores para futuras
capacitaciones; como sugieren autores de la talla de
Feigerlova et al. (2025) y Keith et al. (2025). Ante
lo mencionado anteriormente, es necesario dise-
ñar capacitaciones formativas que vayan más allá
del entrenamiento técnico, incorporando escenarios
interactivos y estudios de caso donde los docentes
puedan evaluar la implementación de la IA en su
práctica docente el pensamiento crítico.
Acerca de la percepción sobre la efectividad de
las herramientas de detección de plagio, los resulta-
dos reflejan un leve aumento en la confianza de los
docentes en esta tecnología, aunque persisten inquie-
tudes sobre su precisión; autores como Cordero et al.
(2024) y Corfmat et al. (2025) han señalado que estos
detectores aún presentan dificultades en la identi-
ficación de textos generados por IA, especialmente
cuando han sido reformulados manualmente. Por lo
cual, se hace aún más necesario que las capacitacio-
nes a docentes incluyan un análisis crítico sobre los
alcances y limitaciones de estas herramientas, permi-
tiendo a los educadores tomar decisiones más infor-
madas y fundamentadas en su quehacer académico.
5. Recomendaciones
5.1 Líneas de investigación futura
En cuanto a la percepción de originalidad, se
recomienda explorar qué factores específicos influ-
yen en la confianza de los docentes respecto a la
autenticidad de los contenidos generados por IA-G.
La co-creación de contenido con IA, la comparación
con textos producidos por estudiantes y la adopción
de estándares académicos específicos podrían impac-
tar significativamente dicha percepción. Además, en
la evaluación del impacto de la IA en la docencia,
tanto esta como investigaciones previas se han cen-
trado en el corto plazo. Por ello, se vuelve necesario
avanzar hacia una adopción progresiva y sostenible
de la IA en la educación superior, acompañada de
estudios longitudinales que permitan examinar sus
efectos en la práctica docente a lo largo del tiempo.
La efectividad de los detectores de IA en la
evaluación académica varía según el modelo genera-
tivo y la estrategia utilizada para reformular textos,
Dr(c) Flavio Eduardo López-Vasco, Mishell Romina Angulo-Álvarez y David Ismael Sosa-Zúñiga
Alteridad, 2025, 20(2), 166-177© Universidad Politécnica Salesiana, Ecuador
174
por lo que, es necesario un análisis comparativo entre
diferentes plataformas para determinar cuáles ofrecen
mayor fiabilidad en contextos educativos específicos.
Aplicaciones prácticas
La falta de normativas en la educación supe-
rior genera incertidumbre entre los docentes y limita
la adopción de la IA-G en el aula. Por ello, la defini-
ción de políticas institucionales claras sobre su uso
permitirá a las universidades y organismos regulado-
res establecer lineamientos en torno a la transparen-
cia en su aplicación, los criterios de originalidad en la
producción académica y su impacto en la evaluación
del aprendizaje.
Además, brindar capacitaciones con enfoque
práctico y contextualizado incorporando metodolo-
gías activas como estudios de caso, aprendizaje basa-
do en proyectos y simulaciones en entornos reales,
mismos que permitirán a los docentes desarrollar
estrategias efectivas para su aplicación pedagógica.
Finalmente, las innovaciones pedagógicas
basadas en IA permitirán aprovechar sus beneficios
en la generación automática de materiales didácti-
cos, el aprendizaje personalizado y la automatización
de procesos de retroalimentación. No obstante, su
implementación debe acompañarse de evaluaciones
periódicas que midan su impacto en la enseñanza y
el desempeño estudiantil.
Contribución de autores
Flavio Eduardo López-Vasco: conceptuali-
zación, curación de datos, investigación, análisis
formal, metodología, administración del proyecto,
supervisión, escritura borrador original, escritu-
ra-revisión y edición.
Mishell Romina Angulo-Álvarez: conceptua-
lización, investigación, escritura borrador original,
escritura-revisión y edición.
David Ismael Sosa-Zúñiga: curación de
datos, escritura borrador original.
Referencias bibliográficas
Aguirre-Aguilar, G., Esquivel-Gámez, I., Navarro, R.
E. y Veytia-Buchelli, M. G. (2024). La IA en el
desarrollo de competencias investigativas en el
posgrado. Alteridad, 19(2), 162-172.
https://doi.org/10.17163/alt.v19n2.2024.01
Almassaad, A., Alajlan, H. y Alebaikan, R. (2024). Student
perceptions of Generative Artificial Intelligence:
investigating utilization, benefits, and challenges
in Higher Education. Systems, 12(10).
https://doi.org/10.3390/systems12100385
Archambault, S. G., Ramachandran, S., Acosta, E. y
Fu, S. (2024). Ethical dimensions of algorith-
mic literacy for college students: Case studies
and cross-disciplinary connections. Journal of
Academic Librarianship, 50(3).
https://doi.org/10.1016/j.acalib.2024.102865
Baron, P. (2024). Are AI detection and plagiarism simila-
rity scores worthwhile in the age of ChatGPT and
other Generative AI? Scholarship of Teaching and
Learning in the South, 8(2), 151-179.
https://doi.org/10.36615/sotls.v8i2.411
Bendechache, M., Tal, I., Wall, P., Grehan, L., Clarke,
E., Odriscoll, A., Der Haegen, L. V., Leong, B.,
Kearns, A. y Brennan, R. (2021). AI in My Life:
AI, Ethics & Privacy Workshops for 15-16-Year-
Olds. 34-39.
https://doi.org/10.1145/3462741.3466664
Celik, I. (2023). Towards Intelligent-TPACK: An empi-
rical study on teachers’ professional knowledge
to ethically integrate artificial intelligence (AI)-
based tools into education. Computers in Human
Behavior, 138.
https://doi.org/10.1016/j.chb.2022.107468
Chan, C. K. Y. (2023). A comprehensive AI policy edu-
cation framework for university teaching and
learning. International Journal of Educational
Technology in Higher Education, 20(1).
https://doi.org/10.1186/s41239-023-00408-3
Chiu, T. K. F. (2024). Future research recommendations
for transforming higher education with gene-
rative AI. Computers and Education: Artificial
Intelligence, 6.
https://doi.org/10.1016/j.caeai.2023.100197
Chun, J. y Elkins, K. (2023). The crisis of artificial inte-
lligence: a new digital humanities curriculum
for human-centred AI. International Journal of
Humanities and Arts Computing, 17(2), 147-167.
https://doi.org/10.3366/ijhac.2023.0310
Cordero, J., Torres-Zambrano, J. y Cordero-Castillo,
A. (2024). Integration of Generative Artificial
Dr(c) Flavio Eduardo López-Vasco, Mishell Romina Angulo-Álvarez y David Ismael Sosa-Zúñiga
Alteridad, 2025, 20(2), 166-177© Universidad Politécnica Salesiana, Ecuador 175
Intelligence in Higher Education: Best Practices.
Education Sciences, 15(1), 32.
https://doi.org/10.3390/educsci15010032
Corfmat, M., Martineau, J. T. y Régis, C. (2025, enero).
High-reward, high-risk technologies? An ethical
and legal account of AI development in healthca-
re. En BMC medical ethics (Vol. 26, Número 1, p.
4). https://doi.org/10.1186/s12910-024-01158-1
Crawford, J., Cowling, M., Ashton-Hay, S., Kelder, J.-A.,
Middleton, R. y Wilson, G. S. (2023). Artificial
Intelligence and Authorship Editor Policy:
ChatGPT, Bard Bing AI, and beyond. Journal of
University Teaching and Learning Practice, 20(5).
https://doi.org/10.53761/1.20.5.01
Crompton, H. y Burke, D. (2023). Artificial intelligen-
ce in higher education: The state of the field.
International Journal of Educational Technology in
Higher Education, 20(1).
https://doi.org/10.1186/s41239-023-00392-8
Dai, Y., Liu, A. y Lim, C. P. (2023). Reconceptualizing
ChatGPT and generative AI as a student-dri-
ven innovation in higher education. 119, 84-90.
https://doi.org/10.1016/j.procir.2023.05.002
Diao, S. (2020). The Reform of Teaching Management
Mode Based on Artificial Intelligence in the Era of
Big Data. 1533(4).
https://doi.org/10.1088/1742-6596/1533/4/042050
Eager, B. y Brunton, R. (2023). Prompting Higher
Education towards AI-augmented teaching and
learning practice. Journal of University Teaching
and Learning Practice, 20(5).
https://doi.org/10.53761/1.20.5.02
Feigerlova, E., Hani, H. y Hothersall-Davies, E. (2025).
A systematic review of the impact of artificial
intelligence on educational outcomes in health
professions education. BMC Medical Education,
25(1), 129.
https://doi.org/10.1186/s12909-025-06719-5
Firat, M. y Kuleli, S. (2024). Educational frontiers with
ChatGPT: a social network analysis of influential
tweets. Alteridad, 19(2), 224-235.
https://doi.org/10.17163/alt.v19n2.2024.06
Flores-Vivar, J.-M. y García-Peñalvo, F.-J. (2023).
Reflections on the ethics, potential, and challen-
ges of artificial intelligence in the framework of
quality education (SDG4). Comunicar, 30(74),
35-44.
https://doi.org/10.3916/C74-2023-03
Gómez-Diago, G. (2022). Perspectives to address artificial
intelligence in journalism teaching. A review of
research and teaching experiences. Revista Latina
de Comunicacion Social, 80, 29-46.
https://doi.org/10.4185/RLCS-2022-1542
Hagendorff, T. (2024). Mapping the ethics of Generative
AI: a comprehensive scoping review. Minds and
Machines, 34(4), 39.
https://doi.org/10.1007/s11023-024-09694-w
Javed, R. T., Nasir, O., Zea, E., Gupta, S., Vinuesa, R. y
Qadir, J. (2022). Get out of the BAG! Silos in AI
ethics education: unsupervised topic modeling
analysis of Global AI Curricula Loïs Vanhée.
En KTH Royal Institute of Technology FLOW,
Engineering Mechanics Osquars (Vol. 73, p. 44).
https://wasp-hs.org/projects/
Keith, M., Keiller, E., Windows-Yule, C., Kings, I. y
Robbins, P. (2025). Implementation and evalua-
tion of generative artificial intelligence (GAI) in
chemical engineering education. Education for
Chemical Engineers.
https://doi.org/10.1016/j.ece.2025.01.002
Kohnke, L., Moorhouse, B. L. y Zou, D. (2023). Exploring
generative artificial intelligence prepared-
ness among university language instructors: A
case study. Computers and Education: Artificial
Intelligence, 5.
https://doi.org/10.1016/j.caeai.2023.100156
Leoste, J., Jõgi, L., Õun, T., Pastor, L., San Martín López,
J. y Grauberg, I. (2021). Perceptions about the
future of integrating emerging technologies into
higher education—The case of robotics with arti-
ficial intelligence. Computers, 10(9).
https://doi.org/10.3390/computers10090110
Lozano, A. y Blanco Fontao, C. (2023). Is the education
system prepared for the irruption of Artificial
Intelligence? A study on the perceptions of stu-
dents of Primary Education Degree from a dual
perspective: current pupils and future teachers.
Education Sciences, 13(7).
https://doi.org/10.3390/educsci13070733
Ma, J. (2021). Intelligent decision system of higher educa-
tional resource data under Artificial Intelligence
Technology. International Journal of Emerging
Technologies in Learning, 16(5), 130-146.
https://doi.org/10.3991/ijet.v16i05.20305
Michel-Villarreal, R., Vilalta-Perdomo, E., Salinas-
Navarro, D. E., Thierry-Aguilera, R. y Gerardou,
F. S. (2023). Challenges and opportunities of
generative AI for Higher Education as explained
by ChatGPT. Education Sciences, 13(9).
https://doi.org/10.3390/educsci13090856
Moorhouse, B. L., Yeo, M. A. y Wan, Y. (2023). Generative
AI tools and assessment: Guidelines of the
worlds top-ranking universities. Computers and
Education Open, 5.
https://doi.org/10.1016/j.caeo.2023.100151
Dr(c) Flavio Eduardo López-Vasco, Mishell Romina Angulo-Álvarez y David Ismael Sosa-Zúñiga
Alteridad, 2025, 20(2), 166-177© Universidad Politécnica Salesiana, Ecuador
176 © Universidad Politécnica Salesiana, Ecuador
176
Nam, B. H. y Bai, Q. (2023). ChatGPT and its ethical
implications for STEM research and higher edu-
cation: A media discourse analysis. International
Journal of STEM Education, 10(1).
https://doi.org/10.1186/s40594-023-00452-5
Ng, D. T. K., Chan, E. K. C. y Lo, C. K. (2025). Opportunities,
challenges and school strategies for integra-
ting generative AI in education. Computers
and Education: Artificial Intelligence, 8, 100373.
https://doi.org/10.1016/j.caeai.2025.100373
Nikolic, S., Daniel, S., Haque, R., Belkina, M., Hassan, G.
M., Grundy, S., Lyden, S., Neal, P. y Sandison, C.
(2023). ChatGPT versus engineering education
assessment: A multidisciplinary and multi-ins-
titutional benchmarking and analysis of this
generative artificial intelligence tool to investi-
gate assessment integrity. European Journal of
Engineering Education, 48(4), 559-614.
https://doi.org/10.1080/03043797.2023.2213169
Ramírez Vergara, K. M., López-Chau, A. y Rojas
Hernández, R. (2024). Storytelling utilizing
Generative AI to foster inclusion of individuals
with disabilities. Ingenius, (32), 101-113.
https://doi.org/10.17163/ings.n32.2024.10
Puerto, D. A. y Gutiérrez-Esteban, P. (2022). Artificial
Intelligence as an Educational Resource during
preservice teacher training. RIED-Revista
Iberoamericana de Educacion a Distancia, 25(2),
347-362. https://doi.org/10.5944/ried.25.2.32332
Rudolph, J., Ismail, M. F. B. M. y Popenici, S. (2024). Higher
Educations Generative Artificial Intelligence
paradox: the meaning of Chatbot Mania. Journal
of University Teaching and Learning Practice,
21(6). https://doi.org/10.53761/54fs5e77
Saltos, G. D. C., Oyarvide, W. V., Sánchez, E. A. y Reyes,
Y. M. (2023). Bibliometric analysis on neuros-
cience, artificial intelligence and robotics studies:
Emphasis on disruptive technologies in educa-
tion. Salud, Ciencia y Tecnologia, 3.
https://doi.org/10.56294/saludcyt2023362
Sanusi, I. T., Oyelere, S. S., Vartiainen, H., Suhonen, J.
y Tukiainen, M. (2023). A systematic review
of teaching and learning machine learning in
K-12 education. Education and Information
Technologies, 28(5), 5967-5997.
https://doi.org/10.1007/s10639-022-11416-7
Silva-Rodriguez, J., Colomer, A., Dolz, J. y Naranjo,
V. (2021). Self-Learning for Weakly Supervised
Gleason Grading of Local Patterns. IEEE Journal
of Biomedical and Health Informatics, 25(8), 3094-
3104.
https://doi.org/10.1109/JBHI.2021.3061457
Slimi, Z. y Carballido, B. V. (2023). Navigating the Ethical
Challenges of Artificial Intelligence in Higher
Education: An Analysis of Seven Global AI
Ethics Policies. TEM Journal, 12(2), 590-602.
https://doi.org/10.18421/TEM122-02
Sperling, K., Stenberg, C.-J., McGrath, C., Åkerfeldt, A.,
Heintz, F. y Stenliden, L. (2024). In search of arti-
ficial intelligence (AI) literacy in teacher educa-
tion: A scoping review. Computers and Education
Open, 6.
https://doi.org/10.1016/j.caeo.2024.100169
Sullivan, M., Kelly, A. y McLaughlan, P. (2023). ChatGPT
in higher education: Considerations for aca-
demic integrity and student learning. Journal
of Applied Learning and Teaching, 6(1), 31-40.
https://doi.org/10.37074/jalt.2023.6.1.17
Tubella, A. A., Mora-Cantallops, M. y Nieves, J. C.
(2024). How to teach responsible AI in Higher
Education: Challenges and opportunities. Ethics
and Information Technology, 26(1).
https://doi.org/10.1007/s10676-023-09733-7
Usher, M. y Barak, M. (2024). Unpacking the role of AI
ethics online education for science and engi-
neering students. International Journal of STEM
Education, 11(1).
https://doi.org/10.1186/s40594-024-00493-4
Vallis, C., Wilson, S., Gozman, D. y Buchanan, J. (2024).
Student perceptions of AI-Generated avatars in
teaching business ethics: we might not be impres-
sed. Postdigital Science and Education, 6(2), 537-
555.
https://doi.org/10.1007/s42438-023-00407-7
van den Berg, G. y du Plessis, E. (2023). ChatGPT and
Generative AI: possibilities for its contribution to
lesson planning, critical thinking and openness
in teacher education. Education Sciences, 13(10).
https://doi.org/10.3390/educsci13100998
Weglarz, D., Pla-Garcia, C. y Jiménez-Zarco, A. I. (2025).
Acceptance of Generative AI in the creative
industry: The role of UTAUT, brand recognition
and trust in adoption. Retos (Ecuador), 15(29),
90-27. https://doi.org/10.17163/ret.n29.2025.01
Williams, R. T. (2023). The ethical implications of using
generative chatbots in higher education. Frontiers
in Education, 8.
https://doi.org/10.3389/feduc.2023.1331607
Yin Albert, C. C., Sun, Y., Li, G., Peng, J., Ran, F., Wang,
Z. y Zhou, J. (2022). Identifying and monito-
ring students’ classroom learning behavior based
on multisource information. Mobile Information
Systems, 2022.
https://doi.org/10.1155/2022/9903342
Dr(c) Flavio Eduardo López-Vasco, Mishell Romina Angulo-Álvarez y David Ismael Sosa-Zúñiga
Alteridad, 2025, 20(2), 166-177© Universidad Politécnica Salesiana, Ecuador 177
Yue, M., Jong, M. S.-Y. y Ng, D. T. K. (2024). Understanding
K-12 teachers’ technological pedagogical con-
tent knowledge readiness and attitudes toward
artificial intelligence education. Education and
Information Technologies, 29(15), 19505-19536.
https://doi.org/10.1007/s10639-024-12621-2
Zhao, L., Wu, X. y Luo, H. (2022). Developing AI literacy
for primary and middle school teachers in China:
based on a structural equation modeling analy-
sis. Sustainability (Switzerland), 14(21).
https://doi.org/10.3390/su142114549