__ __ __ ________ __
/ // /__ _____/ /__/ ___/ _ \/ /
/ _ / _ `/ __/ '_/ (_ / // / /__
/_//_/\_,_/\__/_/\_\\___/____/____/
Mazapán track
Hackeando la IA: Cómo Envenenar las Herramientas que Usan los LLMs
¿Qué pasa cuando las herramientas que conectamos a la IA son el enemigo? En este taller 100% práctico, vas a convertirte en atacante y defensor. Ejecutarás inyecciones de prompts contra un modelo real, verás cómo una sola línea oculta en la respuesta de una herramienta puede secuestrar el comportamiento de un LLM, y exfiltrarás datos sin que el usuario se entere. Después, cambiarás de bando: implementarás defensas con LLM Guard y MCP-Scan para detectar y bloquear estos ataques.