Los agentes de inteligencia artificial ya no solo conversan: ejecutan procesos reales dentro de nuestros sistemas. ¿Están nuestras bibliotecas preparadas para liderar esta transformación? Leé la columna del Lic. Luis Enrique Lescano Borrego, sumá tu mirada en los comentarios y compartila en tus redes para seguir fortaleciendo una comunidad bibliotecaria estratégica, crítica y protagonista.
Imagina esta escena, que no es ciencia ficción para quienes trabajamos en bibliotecas. Tienes una carpeta con todos los trabajos de titulación del semestre. PDFs listos, algunos con metadatos incompletos, otros mal nombrados. Sabes que debes revisarlos uno por uno, extraer datos, normalizar nombres, crear registros y subirlos al repositorio institucional.
Ahora solo escribes esto en un chat de WhatsApp:
“Revisa esta carpeta, extrae los metadatos, crea los registros y súbelos al repositorio”.
Y el sistema lo hace.
Eso es lo que prometen los llamados agentes de inteligencia artificial. A diferencia de herramientas como ChatGPT, que responden preguntas o generan texto, los agentes no se limitan a conversar. Actúan. Ejecutan tareas dentro del sistema donde están instalados.
Uno de los ejemplos más conocidos es OpenClaw, desarrollado por Peter Steinberger. Este tipo de agente puede instalarse en un servidor o en un equipo local y tener acceso a archivos, aplicaciones y servicios. Puede leer documentos, analizar contenido, conectarse con otros sistemas y realizar acciones automatizadas.
En teoría, podría analizar esos trabajos de titulación, identificar título, autor, resumen, palabras clave, estructurar la información en MARC 21 o RDA e interactuar con el sistema de gestión bibliotecario para crear los registros automáticamente.
La diferencia es enorme. Ya no estamos hablando de una IA que sugiere qué hacer. Estamos hablando de una IA que lo hace. Como bibliotecarios, aquí es donde debemos detenernos. Para que un agente pueda subir automáticamente trabajos de titulación, alguien tuvo que definir cómo se validan los metadatos, qué campos son obligatorios, qué vocabularios se aceptan y qué flujo de revisión existe. Sin esa base, el agente no mejora el proceso: simplemente automatiza errores.
Detrás del agente:
Aquí es donde conviene bajar a tierra las expectativas.
Un agente no es “inteligente” por sí mismo. Depende de modelos avanzados desarrollados por empresas como OpenAI, Anthropic, Google o Meta. Esos modelos funcionan como su cerebro.
Para comunicarse con ellos, utiliza algo llamado API. Sin entrar en tecnicismos, una API es simplemente un canal que permite que dos sistemas intercambien información de forma estructurada. Es el mismo principio que permite que un sistema de préstamos consulte si un usuario está activo o que un repositorio reciba datos desde otra plataforma.
Cada vez que el agente necesita interpretar un documento complejo o tomar una decisión, consulta ese “cerebro externo”. Y cada consulta tiene un costo económico. Las APIs de estos modelos se pagan por uso. Si el agente procesa cientos o miles de documentos, el consumo puede dispararse.
Algunos optan por ejecutar modelos localmente con herramientas como Ollama. Esto reduce la dependencia externa, pero exige equipos con alta capacidad de procesamiento y memoria. No es una solución ligera ni gratuita. La autonomía tecnológica requiere infraestructura.
La IA no es magia. Es procesamiento intensivo, dependencia de proveedores y consumo continuo de recursos.
Lo que significa para las bibliotecas
Volvamos a la escena inicial. Tienes la carpeta con todos los trabajos de titulación y escribes: “Revisa esta carpeta, extrae los metadatos, crea los registros y súbelos al repositorio”. El agente lo hace en minutos.
El potencial es evidente. Automatiza ingresos masivos, normaliza campos, interactúa con el repositorio y reduce horas de trabajo repetitivo. Libera tiempo para análisis, curaduría y mejora de servicios.
Pero aquí aparece la pregunta incómoda: ¿están nuestros procesos lo suficientemente claros como para que un sistema los ejecute sin supervisión constante?
Para que ese agente pueda subir automáticamente los trabajos, alguien tuvo que definir antes cómo se validan los metadatos, qué campos son obligatorios, qué vocabularios se aceptan, qué errores bloquean el flujo y cuáles se corrigen después. Si esas reglas no existen o están dispersas en prácticas informales, el agente no mejorará nada. Solo automatizará inconsistencias.
Y hay algo más sensible: para hacer todo esto, el agente necesita permisos reales. Acceso al repositorio, a credenciales institucionales, a bases de datos. No estamos hablando de una herramienta que genera texto, sino de un sistema con capacidad de modificar información estructural.
En 2026 se reportaron vulnerabilidades asociadas al ecosistema de OpenClaw, incluyendo el identificador CVE-2026-25253, que evidenció riesgos de exfiltración de datos. Más allá del caso concreto, el mensaje es claro: cuando un agente tiene acceso amplio, cualquier falla puede escalar rápidamente.
Si el agente procesa un correo con instrucciones maliciosas ocultas, si interpreta una orden ambigua, si una credencial se filtra, el impacto no es teórico. Puede comprometer información académica, modificar registros masivamente o exponer datos sensibles.
Estamos pasando de la IA conversacional a la IA operativa. Eso no es un cambio menor. Significa que ya no delegamos redacción o ideas preliminares, sino acciones dentro de sistemas críticos.
El debate, entonces, no es tecnológico. Es profesional y ético.
¿Queremos agentes que ejecuten nuestros procesos actuales tal como están?
¿Tenemos políticas claras de seguridad, auditoría y control antes de darles acceso?
¿Quién asume la responsabilidad si algo sale mal?
Automatizar sin gobernanza no es innovación.
Los agentes de IA no sustituyen el juicio profesional. Lo ponen a prueba. Si nuestras reglas son sólidas, las amplifican. Si son débiles, las multiplican.
El sueño de decir “hazlo todo” está cada vez más cerca. La responsabilidad de que ese “todo” sea seguro, trazable y coherente sigue siendo humana.
N. del E. (nota del editor): En Soy Bibliotecario creemos que liderar la transformación digital no es adoptar tecnología, sino gobernarla con criterio profesional. Si esta reflexión te interpela, compartila con tu equipo, debatila en tu institución y seguinos en: Facebook, Instagram (@soybibliotecario), X (@sbibliotecario) y LinkedIn para continuar esta conversación.
BIOGRAFÍA:
Luis Enrique Lescano Borrego es especialista en bibliotecas y bibliotecología, centrado en liderazgo, innovación y transformación digital del sector. Su trayectoria combina gestión de información, digitalización, datos abiertos e inteligencia artificial aplicada a bibliotecas.
Formado en la Universidad de La Habana, entiende la bibliotecología como diseño de sistemas de conocimiento y experiencia de usuario. En la Universidad de Cuenca ha liderado bibliotecas digitales, fortalecimiento patrimonial y modernización de servicios, integrando programación y análisis de datos.
Promueve una bibliotecología activa, basada en evidencia, innovación y colaboración, impulsando la transformación cultural y tecnológica del sector.


Comentarios
Publicar un comentario