Referencia
- Montesi, M.; Bornstein, B.Á.; Puig, N.B.; Blázquez-Ochando, M.; Sánchez-Díez, A. (2025). AILIS 1.0: A new framework to measure AI literacy in library and information science (LIS). The Journal of Academic Librarianship, 51(5), 103118. https://doi.org/10.1016/j.acalib.2025.103118
Comentario
La creciente presencia de la inteligencia artificial en la educación superior plantea desafíos significativos, especialmente en un sector que la legislación europea considera de "alto riesgo" debido al impacto que las decisiones educativas pueden tener en la vida de las personas. Las aplicaciones de la IA en este ámbito son amplias y prometedoras, con especial relevancia en el apoyo a la investigación y la innovación en metodologías de enseñanza y evaluación. Sin embargo, su adopción también conlleva riesgos notables: plagio, nuevas prácticas deshonestas, ansiedad, introducción de sesgos, desigualdades, desinformación y disminución de las interacciones humanas.
En el campo específico de la Biblioteconomía y Documentación, las guías educativas disponibles priorizan la capacidad de la IA para el análisis y procesamiento de datos, la investigación bibliométrica y cienciométrica, así como su papel en la publicación y revisión científica. Sin embargo, la integración de la IA en el aula requiere que los estudiantes no solo conozcan algunas aplicaciones prácticas, sino que comprendan las implicaciones éticas de su uso y el potencial impacto disruptivo de la IA en los entornos profesionales.
En las bibliotecas académicas, la IA se utiliza cada vez más para tareas como catalogación, alfabetización informacional, marketing y gestión de infraestructuras. Sin embargo, la adopción sigue siendo limitada debido a la falta de planificación estratégica, formación insuficiente, analfabetismo algorítmico entre los bibliotecarios y preocupaciones éticas como la privacidad. Aunque los bibliotecarios muestran potencial para mejorar sus competencias, los beneficios plenos de la IA solo pueden realizarse mediante programas de formación bien estructurados que les proporcionen las habilidades necesarias para innovar e integrar la IA en las rutinas bibliotecarias.
Propósito de la investigación
Esta investigación presenta un cuestionario desarrollado específicamente para la educación superior en Biblioteconomía y Documentación con el propósito de medir la alfabetización en IA de los estudiantes y orientar la identificación de áreas en las que pueden necesitar más formación. El cuestionario, denominado AILIS 1.0 (Artificial Intelligence Literacy in Library and Information Science), se desarrolló a partir de instrumentos previos destinados a la educación superior y se adaptó al ámbito de la Biblioteconomía y Documentación mediante la revisión de la literatura relevante y el juicio de expertos.
El cuestionario se administró a una muestra de 100 estudiantes de diferentes programas de la Facultad de Ciencias de la Documentación de la Universidad Complutense de Madrid y a 63 bibliotecarios académicos de la misma institución. Los resultados pretenden informar sobre los temas centrales de la educación en IA e identificar lagunas en conocimientos y competencias, tanto en estudiantes como en bibliotecarios. Además, en el caso de los bibliotecarios, el cuestionario busca proporcionar evidencia sobre su preparación como instructores y formadores en IA.
Alfabetización en IA: marco conceptual
Según Long y Magerko (2020), la alfabetización en IA reúne "un conjunto de competencias que permite a los individuos evaluar críticamente las tecnologías de IA; comunicarse y colaborar eficazmente con la IA; y utilizar la IA como herramienta en línea, en el hogar y en el lugar de trabajo". Diversos autores coinciden en que la alfabetización en IA está estrechamente vinculada a otras formas de alfabetización, como la información, la digital y la de datos.
En contextos bibliotecarios, se entiende que la alfabetización informacional permite una interacción crítica, reflexiva y ética con los sistemas de IA, siendo por esta razón su constituyente fundamental. La integración de la "alfabetización algorítmica" —la capacidad de entender, interpretar, crear y evaluar críticamente los algoritmos y sus impactos sociales— en la alfabetización informacional puede proporcionar la conciencia, comprensión y habilidades necesarias para hacer un uso significativo de la IA.
La alfabetización en IA se entiende como un constructo complejo y multidimensional que requiere que los estudiantes conozcan tanto las dimensiones humanas como tecnológicas de la IA para hacer un "uso seguro, ético y significativo de la IA en la educación". A pesar de los diversos enfoques teóricos, todavía no existe un consenso claro sobre su definición, y la investigación en educación superior se ha centrado principalmente en evaluar el impacto de los programas de formación en IA, siendo más comunes las escalas de alfabetización en IA para la población general que para estudiantes de educación superior.
Metodología: desarrollo del instrumento
El desarrollo de AILIS 1.0 siguió un proceso riguroso de validación basado en múltiples fuentes de evidencia.
- Identificación de competencias. El cuestionario se desarrolló a partir de una revisión de la literatura y de instrumentos previos utilizados con estudiantes universitarios. La revisión exploratoria se realizó en Scopus en abril de 2024, seleccionando 17 estudios, 9 de los cuales desarrollaban cuestionarios específicos para medir la alfabetización en IA. Entre las escalas revisadas, dos (Hornberger et al., 2023; Lee & Park, 2024) fueron consideradas como las que presentaban la evidencia más robusta en el contexto de la educación superior.
- Selección de dimensiones y competencias. Un grupo de 7 expertos en Biblioteconomía y Documentación (6 profesores y la directora de una biblioteca especializada) identificó inicialmente 5 dimensiones: Qué es la IA, Funcionamiento, Uso, Ética y Evaluación. Las 71 competencias recopiladas bajo estas dimensiones a partir de los 17 trabajos seleccionados fueron evaluadas por los expertos mediante formularios en línea, valorando su importancia para la formación en Biblioteconomía y Documentación en una escala del 1 (nada importante) al 5 (muy importante). Como resultado de estas consultas, se seleccionaron 38 competencias basadas en el Índice de Validez de Contenido y el Coeficiente de Variación de cada ítem.
- Adaptación disciplinar. El proceso de adaptación disciplinar incluyó la redacción de preguntas específicas para cada competencia, la revisión de la literatura disciplinar sobre IA, y la incorporación de competencias relacionadas con datos —que representan el 22,90% del instrumento final— diferenciando a AILIS 1.0 de otros instrumentos previos. También se añadieron competencias sobre el impacto ambiental de la IA y su impacto en personas con diversidad funcional, en línea con las recomendaciones de la UNESCO sobre inclusión, equidad y diversidad.
- Validación con estudiantes. El conjunto preliminar de 39 competencias y sus correspondientes preguntas fue evaluado por 7 estudiantes mediante un formulario en línea. Los estudiantes realizaron la prueba y proporcionaron sugerencias de modificación, expresaron dudas y valoraron la relevancia de cada ítem. El feedback global de los estudiantes se utilizó para filtrar 4 competencias, resultando en un cuestionario final de 35 preguntas distribuidas en 5 dimensiones.
- Sistema de puntuación. El sistema de puntuación combina preguntas de opción múltiple con una sola respuesta correcta y tres ítems de autoevaluación valorados en una escala del 1 al 5. Todas las preguntas de autoevaluación se incluyen en la dimensión de Uso, basándose en la comprensión de que pueden existir múltiples usos válidos de la IA. La puntuación final ponderada se calcula asignando a cada dimensión un peso proporcional al número de ítems que contiene.
- Fiabilidad. Para evaluar la fiabilidad del cuestionario, se realizaron dos administraciones con un grupo de 17 estudiantes con una semana de diferencia. Se aplicó el coeficiente Kappa de Cohen no ponderado para las respuestas dicotómicas y el Kappa ponderado para las preguntas de escala ordinal. Además, se calculó el Coeficiente de Correlación Intraclase para la puntuación global y las puntuaciones individuales de cada dimensión.
Administración y análisis
El cuestionario se administró entre noviembre de 2024 y principios de marzo de 2025. Las respuestas de los estudiantes se recogieron durante las horas de clase, mientras que los bibliotecarios académicos fueron invitados por correo electrónico. En ambos casos, se completó en línea y permitió a los participantes revisar sus puntuaciones y obtener una copia de sus respuestas. La muestra final incluyó 100 estudiantes (63 de grado y 37 de máster) y 63 bibliotecarios académicos de la Universidad Complutense de Madrid, representando aproximadamente el 28,6% de los estudiantes de grado y máster en Biblioteconomía y Documentación de la UCM y el 18,9% de los bibliotecarios activos de la misma institución.
Además de la administración del cuestionario, se realizaron tres grupos focales con 24 de los estudiantes participantes, proporcionando evidencia adicional sobre la validez de AILIS 1.0 y sugiriendo futuras mejoras.
Resultados
- Fiabilidad. El valor promedio del Kappa de Cohen para todo el instrumento fue de 0,35 (intervalo de confianza 0,26-0,43), lo que puede considerarse una fiabilidad baja. Sin embargo, los valores del ICC para cada dimensión y la puntuación global indican un nivel moderado de acuerdo. Las dimensiones con fiabilidad más baja fueron Uso y Ética, lo que puede reflejar la incertidumbre de los participantes o la falta de claridad sobre las mejores prácticas en estos aspectos de la IA.
- Resultados globales. Las puntuaciones más altas se obtuvieron en las dimensiones de Ética y Evaluación. El análisis de correlaciones reveló que las puntuaciones en Funcionamiento se correlacionan positivamente con todas las demás dimensiones excepto con la autoevaluación de Uso, mientras que la dimensión de Ética muestra una correlación positiva significativa con todas las dimensiones excepto con la autoevaluación de Uso (donde la correlación es significativa pero débil y negativa). Esto sugiere que el conocimiento del funcionamiento técnico de la IA es un predictor importante de la alfabetización en otras áreas, mientras que la autopercepción de competencia no se corresponde necesariamente con el desempeño real.
- Comparación entre grupos. Los bibliotecarios superaron significativamente a los estudiantes en las dimensiones de Uso y Ética, mientras que tanto bibliotecarios como estudiantes de cursos avanzados (cuarto año y máster) obtuvieron mejores resultados que los estudiantes de primeros cursos en Funcionamiento y Evaluación. En cuanto a la autoevaluación de Uso, los estudiantes de primeros cursos mostraron una autoeficacia significativamente mayor a pesar de obtener puntuaciones más bajas en las pruebas de desempeño, lo que indica una tendencia a sobreestimar sus competencias en IA —una conclusión confirmada por los grupos focales.
- En cuanto a los niveles de alfabetización en IA basados en la puntuación global ponderada, el 49,7% de los participantes se situó en un nivel medio, el 32,5% en un nivel alto y el 17,8% en un nivel bajo. Los bibliotecarios mostraron la mayor proporción de alfabetización alta (49%), seguidos por estudiantes avanzados (25%) y estudiantes de primeros cursos (21%).
- Diferencias de género. Contrariamente a las expectativas basadas en investigaciones previas sobre actitudes hacia la tecnología, no se encontraron diferencias significativas en las puntuaciones de desempeño entre participantes femeninos y masculinos. Sin embargo, se observó una mayor variabilidad en las puntuaciones dentro del grupo femenino, lo que indica una mayor diversidad en los niveles de alfabetización en IA entre las mujeres.
- Formación previa. Independientemente del rol, la mayoría de los participantes no había recibido formación previa en IA. Los participantes que habían recibido algún tipo de formación —ya sea en el aula, a través de cursos formales o mediante autoaprendizaje— obtuvieron puntuaciones significativamente más altas en la puntuación global y en las dimensiones de Funcionamiento y autoevaluación de Uso, lo que sugiere que la formación tiene un efecto mayor en la autoeficacia que en las áreas de alfabetización en IA medidas basadas en el desempeño.
Temas emergentes de los grupos focales
El análisis de los grupos focales permitió identificar cuatro temas principales:
- Comunicación humano-máquina. Los estudiantes son conscientes de que comunicarse con la IA requiere la capacidad de construir prompts significativos —un tipo de comunicación al que aún no están acostumbrados— y de evaluar los resultados, filtrando información irrelevante o engañosa. Reconocen que la comunicación efectiva con la IA no es espontánea, sino que demanda tiempo y consideración cuidadosa.
- Aspectos no problemáticos del uso de la IA. La curiosidad por explorar y comprender mejor la IA aparece en algunos estudiantes, reflejando una visión positiva y optimista. Esta actitud emerge típicamente en conexión con experiencias exitosas de uso de la IA, particularmente para tareas relacionadas con procesamiento de texto y generación de código.
- Aspectos problemáticos del uso de la IA y reacciones negativas. La creciente presencia de la IA en la vida académica y profesional de los estudiantes trae consigo una serie de aspectos problemáticos y respuestas emocionales relacionadas. La incertidumbre, junto con la frustración, la confusión y la culpa, caracterizan este tema. La coexistencia con agentes humanizados o similares a humanos pone en cuestión las identidades personales y profesionales de los estudiantes, especialmente dada la constante necesidad de adaptarse a tecnologías en rápida evolución.
- Desigualdades generacionales. Los estudiantes reconocen que la IA impacta a todas las generaciones, pero entienden que la carga está distribuida de manera desigual, siendo los más jóvenes quienes soportan el mayor costo. Temen un empobrecimiento intelectual y profesional, y perciben que las generaciones mayores no están haciendo lo suficiente para abordar estos desafíos.
Discusión
Áreas centrales de la alfabetización en IA. Tanto el análisis de los resultados del cuestionario como los grupos focales señalan que Funcionamiento, Ética y Evaluación son áreas centrales de la alfabetización en IA en Biblioteconomía y Documentación. Funcionamiento ha emergido en investigaciones previas como una dimensión en la que los estudiantes de educación superior se perciben menos preparados. En esta investigación, Funcionamiento recibió relevancia en el diseño de un cuestionario específicamente dirigido a un público de Biblioteconomía y Documentación, con especial énfasis en las competencias relacionadas con datos, lo que lo diferencia también de otros marcos destinados a medir la alfabetización en IA en este ámbito.
Los resultados revelaron que mejores puntuaciones en Funcionamiento se asociaban con mejores puntuaciones en todas las demás dimensiones, especialmente en Ética y Evaluación. Esto sugiere que el conocimiento real del funcionamiento de la IA puede ser un buen predictor del uso exitoso de la IA, contrariamente a la creencia tradicional de que la autoeficacia en el uso de tecnología es el mejor predictor. La capacidad de explicar cómo funciona la IA es una habilidad esencial para las actividades de cocreación humano-IA.
Diferencias entre grupos. La comparación entre grupos de participantes revela el efecto de la formación en la alfabetización en IA. Los bibliotecarios resultaron estar mejor preparados en todas las dimensiones que los estudiantes de primeros cursos, mostrando además una visión más realista de sus competencias reales de Uso. Dado que la mitad de los bibliotecarios alcanzaron puntuaciones altas en la prueba, su nivel de alfabetización es sustancialmente superior al de los estudiantes. Este hallazgo debería animar a los profesionales de las bibliotecas a asumir un papel más activo en la impartición de formación en IA a los estudiantes de educación superior, especialmente en sus primeros años.
Sobreestimación de competencias. Los grupos focales confirmaron una tendencia a sobreestimar la alfabetización real en IA, particularmente entre los estudiantes menos avanzados, que reportaron las competencias autoevaluadas más altas pero obtuvieron las puntuaciones más bajas en las medidas basadas en el desempeño. Esto puede deberse a la interfaz amigable y fácil de usar de las herramientas de IA, que puede ser engañosa y dar una falsa sensación de dominio debido a su aparente facilidad de uso.
Conclusiones
AILIS 1.0 se perfila como una herramienta prometedora no solo para evaluar los niveles actuales de alfabetización en IA, sino también para identificar puntos ciegos en los planes de estudio y orientar el diseño de intervenciones educativas específicas. El estudio también reclama estrategias institucionales que reconozcan y apoyen formalmente la formación en alfabetización en IA. Los bibliotecarios, como ha demostrado su mayor rendimiento y percepción más equilibrada, pueden actuar como mentores, tendiendo un puente entre la formación académica y la práctica profesional.
En general, la alfabetización en IA en Biblioteconomía y Documentación emerge como un constructo que no debe concebirse simplemente como una extensión de otras formas de alfabetización, para no subestimar su efecto en la educación superior y en las profesiones de este ámbito. Tampoco debe basarse únicamente en la conciencia ética y las tradiciones de la alfabetización informacional, sino que debe complementarse con competencias técnicas más sólidas y relacionadas con los datos.