hackgdl.exe
      __ __         __   ________  __ 
     / // /__ _____/ /__/ ___/ _ \/ / 
    / _  / _ `/ __/  '_/ (_ / // / /__
   /_//_/\_,_/\__/_/\_\\___/____/____/

    Torta Ahogada track

                
talk.exe

From LLM to Agent Security: how risk scales with autonomy

Emilio Oropeza
Security Architect

Los agentes de inteligencia artificial representan una evolución significativa respecto a los modelos de lenguaje tradicionales. Mientras que un LLM procesa texto y genera respuestas de forma aislada, un agente posee autonomía para razonar, planificar y ejecutar acciones en el mundo real mediante herramientas externas, APIs y acceso a datos sensibles. Esta capacidad amplificada introduce una superficie de ataque considerablemente mayor y riesgos que van más allá de las vulnerabilidades conocidas en modelos conversacionales.

En esta charla exploraremos las diferencias fundamentales entre LLMs y agentes desde una perspectiva de seguridad, analizando por qué la autonomía, la persistencia de memoria y la capacidad de ejecución transforman el panorama de amenazas. Examinaremos los principales vectores de ataque que afectan a sistemas agénticos, incluyendo prompt injection indirecto, envenenamiento de herramientas, exfiltración de datos a través de canales laterales y ataques de confusión de identidad que explotan la cadena de confianza entre componentes.

Emilio_Oropeza.jpg
Emilio Oropeza
root@hackgdl.net Discord Twitter LinkedIn Instagram