__ __ __ ________ __
/ // /__ _____/ /__/ ___/ _ \/ /
/ _ / _ `/ __/ '_/ (_ / // / /__
/_//_/\_,_/\__/_/\_\\___/____/____/
Torta Ahogada track
From LLM to Agent Security: how risk scales with autonomy
Los agentes de inteligencia artificial representan una evolución significativa respecto a los modelos de lenguaje tradicionales. Mientras que un LLM procesa texto y genera respuestas de forma aislada, un agente posee autonomía para razonar, planificar y ejecutar acciones en el mundo real mediante herramientas externas, APIs y acceso a datos sensibles. Esta capacidad amplificada introduce una superficie de ataque considerablemente mayor y riesgos que van más allá de las vulnerabilidades conocidas en modelos conversacionales.
En esta charla exploraremos las diferencias fundamentales entre LLMs y agentes desde una perspectiva de seguridad, analizando por qué la autonomía, la persistencia de memoria y la capacidad de ejecución transforman el panorama de amenazas. Examinaremos los principales vectores de ataque que afectan a sistemas agénticos, incluyendo prompt injection indirecto, envenenamiento de herramientas, exfiltración de datos a través de canales laterales y ataques de confusión de identidad que explotan la cadena de confianza entre componentes.