El Seminario ConocimIA, tiene el gusto de presentar la que será su primera conferencia, bajo el título "La irrupción disruptiva de la IA, un ejercicio de contextualización". En esta ponencia, se explicará el contexto en el que ChatGPT irrumpe en la sociedad, como un modelo avanzado de Inteligencia Artificial, que está propiciando una reacción disruptiva en cadena en lo que al sector laboral, profesional, científico y académico se refiere. Se abordará el origen y evolución de las Inteligencias Artificiales, las tecnologías que lo han hecho posible, así como las perspectivas a corto y medio plazo relacionadas con la IA.

  1. Fecha: 17 de noviembre de 2023 / 12:00-13:00h
  2. Lugar: Aula V de Informática, Facultad de Ciencias de la Documentación. UCM
  3. Entrada: Libre hasta completar aforo
  4. Conferenciante: Prof. Manuel Blázquez, Departamento de Biblioteconomía y Documentación, Universidad Complutense de Madrid

Contexto y propósito de la conferencia

La conferencia se enmarca en una coyuntura singular. A finales de 2022, OpenAI hizo accesible al público general ChatGPT, un modelo de lenguaje que, si bien se apoyaba en décadas de investigación en inteligencia artificial, procesamiento del lenguaje natural y recuperación de información, irrumpió con una facilidad de uso y una capacidad de respuesta que sorprendieron tanto a usuarios como a expertos. En apenas unos meses, la conversación pública pasó de preguntarse "¿Qué es la IA?" a interrogarse sobre "¿Cómo cambiará la IA mi trabajo, mi disciplina, mi vida?". Esta conferencia nace de la convicción de que, ante un fenómeno de esta magnitud, la contextualización histórica, técnica y social no es un lujo académico sino una necesidad. La disrupción no ocurre en el vacío; es el resultado de trayectorias tecnológicas, decisiones de investigación, dinámicas de mercado y condiciones geopolíticas que conviene comprender para poder anticipar, en la medida de lo posible, sus desarrollos futuros.

Desarrollo de los contenidos de la ponencia

1. La larga marcha hacia la organización del conocimiento

La necesidad de almacenar, clasificar y recuperar información es tan antigua como la propia escritura. Desde las primeras bibliotecas de la antigüedad —Alejandría, Nínive, Pérgamo— hasta los sistemas de clasificación modernos como la Clasificación Decimal Universal o las listas de encabezamientos de materia, la humanidad ha ido construyendo sistemas para dominar la acumulación de conocimiento. Cada avance en los soportes documentales —del pergamino al papel impreso, del microfilm al formato digital— ha traído consigo nuevos desafíos de organización y acceso.

La aparición de los buscadores web en los años 90 supuso un primer gran salto en la accesibilidad. Por primera vez, un usuario podía formular una consulta en lenguaje natural y obtener, en cuestión de segundos, una lista de documentos relevantes distribuidos por todo el mundo. Sin embargo, esta inmediatez también generó una dependencia creciente de intermediarios algorítmicos cuyos criterios de relevancia permanecían opacos. El usuario dejó de preguntar al bibliotecario para preguntar al buscador, confiando en que la máquina haría el trabajo de selección mejor y más rápido que cualquier humano.

2. De los sistemas expertos al aprendizaje profundo

La inteligencia artificial no es un fenómeno reciente. Desde los años 60, los sistemas expertos intentaban codificar el conocimiento humano en reglas lógicas del tipo "si-entonces". Estos sistemas, muy utilizados en medicina, geología o ingeniería, demostraron que era posible automatizar ciertos procesos de razonamiento, pero su fragilidad era evidente: fuera de los dominios estrictamente acotados para los que habían sido diseñados, carecían de flexibilidad.

La evolución hacia el aprendizaje automático (machine learning) cambió el paradigma. En lugar de programar reglas explícitas, los sistemas aprendían a partir de ejemplos. Los métodos supervisados —clasificación, regresión— y no supervisados —clustering, reducción de dimensionalidad— permitieron abordar problemas que antes resultaban intratables. A partir de los años 2010, las redes neuronales profundas (Deep learning) añadieron la capacidad de aprender representaciones jerárquicas de los datos, con múltiples capas que extraen progresivamente características más abstractas.

Hitos como IBM Watson —que en 2011 venció a campeones humanos en el concurso de preguntas y respuestas Jeopardy!— mostraron el potencial de estas tecnologías aplicadas al procesamiento del lenguaje natural. Watson combinaba técnicas de recuperación de información, procesamiento de lenguaje y aprendizaje automático para responder preguntas complejas. Sin embargo, su impacto quedó entonces restringido a ámbitos especializados —medicina, finanzas— debido al coste de infraestructura y la complejidad de implementación.

3. La arquitectura Transformer y el cambio de escala

El verdadero salto cualitativo que condujo a ChatGPT se produjo con la introducción de la arquitectura Transformer en 2017, en el artículo seminal "Attention is All You Need". Esta arquitectura resolvía las limitaciones de los modelos anteriores —como las redes recurrentes (RNN) o las memorias a largo plazo (LSTM)— al permitir procesar secuencias largas de texto de forma paralela, capturando dependencias entre palabras independientemente de su distancia en la secuencia. El mecanismo de atención permitía al modelo ponderar qué partes de la entrada eran más relevantes para cada elemento de la salida.

A partir de ahí, la carrera fue de escala. OpenAI lanzó GPT-1 en 2018, GPT-2 en 2019 —cuyo lanzamiento inicialmente limitaron por temor a su uso malicioso— y GPT-3 en 2020, con 175 mil millones de parámetros. Cada versión aumentaba exponencialmente la capacidad de procesamiento y la calidad de las salidas. La incorporación del aprendizaje por refuerzo a partir de retroalimentación humana (Reinforcement Learning from Human Feedback, RLHF) permitió afinar los modelos para seguir instrucciones de forma más precisa y generar respuestas conversacionales más naturales.

4. El momento ChatGPT: convergencia de factores

Cuando OpenAI lanzó ChatGPT en noviembre de 2022, varios factores convergieron para que su impacto fuera cualitativamente distinto al de modelos anteriores:

  1. Accesibilidad: una interfaz conversacional gratuita, sin necesidad de conocimientos técnicos, que permitía a cualquier persona interactuar con el modelo.
  2. Fluidez conversacional: el entrenamiento específico para diálogo generaba respuestas coherentes, contextualmente adecuadas y con un tono sorprendentemente humano.
  3. Capacidad multitarea: el mismo modelo podía redactar textos, resumir documentos, generar código, traducir idiomas, resolver problemas matemáticos y mucho más, sin necesidad de cambiar de herramienta.
  4. Efecto de demostración: la posibilidad de que cualquier usuario comprobara por sí mismo las capacidades del sistema generó una difusión viral que ningún producto tecnológico había alcanzado antes.

5. El contexto socioeconómico y geopolítico de la irrupción

La aparición de ChatGPT no ocurre en un vacío social. La ponencia sitúa este fenómeno en un escenario global caracterizado por:

  1. Crisis pandémica: la COVID-19 había acelerado la digitalización de muchos ámbitos y había generado una reflexión sobre el futuro del trabajo y la automatización.
  2. Tensiones geopolíticas: la rivalidad entre Estados Unidos y China, la guerra en Ucrania y el reordenamiento de las cadenas de suministro globales sitúan la IA como un campo estratégico de competencia internacional.
  3. Debates sobre regulación: mientras la Unión Europea avanzaba en su Ley de IA, otros países adoptaban enfoques más permisivos, como Japón, que se declaró favorable a la desregulación para atraer inversiones.
  4. Concentración de poder tecnológico: el desarrollo de los grandes modelos de lenguaje requiere inversiones multimillonarias que solo unas pocas corporaciones —OpenAI respaldada por Microsoft, Google, Meta— pueden afrontar, lo que plantea interrogantes sobre la concentración del control sobre estas tecnologías.

6. Implicaciones para las Ciencias de la Documentación

La conferencia dedica una atención especial al impacto de la IA generativa en la disciplina. Las capacidades actuales de los modelos transforman profundamente las tareas tradicionales del profesional de la información:

  1. Catalogación y clasificación: la IA puede asignar puntos de acceso, materias y códigos de clasificación con una precisión que, con el entrenamiento adecuado, iguala o supera a la humana. Herramientas como los GPTs personalizados permiten afinar estos procesos para dominios específicos.
  2. Análisis documental: la generación automática de resúmenes, la extracción de descriptores y la identificación de conceptos clave son tareas que los modelos realizan con rapidez, liberando al profesional para tareas de mayor valor añadido.
  3. Recuperación de información: la interfaz conversacional cambia radicalmente la experiencia de búsqueda. El usuario ya no necesita formular consultas en un lenguaje de búsqueda estructurado; puede expresar su necesidad en lenguaje natural y la IA actúa como intermediaria entre la pregunta y los documentos.
  4. Creación de sistemas de información: con herramientas como Sutro, la generación automática de aplicaciones y la personalización de GPTs permiten crear sistemas de información especializados sin necesidad de programación avanzada, democratizando la producción de soluciones documentales.
  5. Servicios de referencia: los chatbots pueden resolver preguntas frecuentes y consultas simples, pero también pueden actuar como asistentes en tareas complejas de investigación, sugiriendo fuentes, formulando estrategias de búsqueda y sintetizando información.

Lejos de anunciar una sustitución apocalíptica, se plantea la hipótesis de una transformación en la que el documentalista se convierte en un mediador especializado, un curador de las interacciones con la IA. Las nuevas competencias requeridas combinan la experiencia disciplinar tradicional con la capacidad de:

  1. Diseñar prompts efectivos para obtener resultados de calidad.
  2. Evaluar críticamente las salidas de la IA, identificando posibles sesgos o errores.
  3. Supervisar y auditar sistemas automáticos para garantizar su corrección.
  4. Seleccionar y curar los conjuntos de datos que alimentan los modelos.
  5. Integrar la IA en flujos de trabajo documentales complejos.
  6. Formar a los usuarios en el uso responsable de estas herramientas.

7. Riesgos y oportunidades

La ponencia no elude los interrogantes que esta transformación plantea:

  1. Riesgos laborales: las tareas repetitivas y procedimentales corren el riesgo de ser automatizadas. Esto no implica necesariamente la desaparición de la profesión, pero sí una reconfiguración de sus funciones, con una mayor demanda de especialización y capacidad crítica.
  2. Sesgos y calidad: los modelos de lenguaje aprenden de los datos disponibles, que reflejan sesgos históricos, desigualdades y desequilibrios en la representación del conocimiento. La IA puede perpetuar o incluso amplificar estos sesgos si no se ejerce una supervisión adecuada.
  3. Propiedad intelectual: el entrenamiento con textos protegidos por derechos de autor y la generación de contenidos que pueden asemejarse a obras existentes plantean desafíos legales aún no resueltos, como evidencian las demandas contra OpenAI por parte de autores y editores.
  4. Concentración de poder: el control de las tecnologías de IA generativa en unas pocas corporaciones plantea interrogantes sobre el acceso equitativo al conocimiento y la soberanía tecnológica de los países.
  5. Brecha digital: la capacidad de aprovechar estas herramientas —en términos de acceso, formación y competencias— puede ampliar la brecha entre quienes pueden beneficiarse de ellas y quienes quedan excluidos.
  6. Autonomía y delegación: el riesgo de que los usuarios deleguen el pensamiento crítico en la IA, aceptando sus respuestas sin verificación, es una preocupación central, especialmente en contextos educativos y de investigación.

8. Perspectivas de futuro

A corto plazo, se espera la integración de la IA generativa en todas las herramientas de productividad —procesadores de texto, hojas de cálculo, correo electrónico— así como la proliferación de asistentes especializados por dominios. La capacidad de los modelos para procesar contextos cada vez más largos —128.000 tokens en GPT-4 Turbo— permitirá trabajar con documentos completos, no solo con fragmentos.

A medio plazo, la evolución hacia sistemas multimodales —que integren texto, imagen, audio y vídeo— transformará la naturaleza misma de la interacción con la información. La combinación de modelos generativos con capacidades de razonamiento y planificación podría dar lugar a sistemas con mayor autonomía, capaces de ejecutar tareas complejas con mínima supervisión humana.

En el ámbito específico de las Ciencias de la Documentación, se vislumbra la aparición de nuevos campos de especialización: la "IAmetría" —el estudio de cómo la IA procesa, relaciona y produce conocimiento— o la curaduría algorítmica —el diseño y supervisión de sistemas automáticos de gestión documental.

Espacio de diálogo

Tras la exposición, se abrirá un turno de preguntas e intercambio de ideas. El formato busca fomentar una participación activa, donde los asistentes puedan plantear sus dudas, compartir sus experiencias con estas tecnologías y debatir sobre las implicaciones concretas para su formación y su futuro profesional. La conferencia no pretende ofrecer respuestas definitivas, sino articular las preguntas adecuadas en un momento en que muchas certezas están siendo revisadas.

La conferencia forma parte de las actividades del Seminario ConocimIA, un espacio dedicado al seguimiento y análisis de la inteligencia artificial en el ámbito de las Ciencias de la Documentación.

Materiales de la conferencia

Los materiales empleados en esta sesión están disponibles para su descarga en formato PPTX. La presentación recoge las ideas, referencias y preguntas abiertas que se han planteado a lo largo de la conferencia, y puede servir como punto de partida para profundizar en los temas tratados o para su uso en contextos formativos, siempre con la debida atribución.

El archivo puede obtenerse en el siguiente enlace: conocimIA_mblazquez_2023-11-17_irrupcion-disruptiva-ia.pptx