Vulnerando la IA - Ataques a Modelos de Lenguaje
Análisis detallado de las vulnerabilidades en modelos de IA y técnicas de manipulación en Machine Learning, especialmente en Large Language Models (LLMs), incluyendo inyección de prompts y estrategias de jailbreak