Volver al blog
Seguridad IA 24 feb 2026 3 min de lectura

Hacking IA: Jailbreak, Prompt Injection, Hallucinations & Unalignment — nuevo libro en 0xWord

Co-autor en el nuevo libro de 0xWord: más de 350 páginas sobre seguridad en sistemas de IA, jailbreak, prompt injection, alucinaciones y desalineamiento en LLMs multimodales.

MSL
Manuel S. Lemos
AI Engineer · Founder · Speaker

Anuncio publicado en El lado del mal el 24 de febrero de 2026.


Orgulloso de anunciar que he participado como co-autor en “Hacking IA: Jailbreak, Prompt Injection, Hallucinations & Unalignment”, publicado por 0xWord.

Más de 350 páginas escritas junto a Chema Alonso, Pablo González, Fran Ramírez, Amador Aparicio y José Palanco, cubriendo las vulnerabilidades más críticas en modelos de lenguaje multimodales:

  • Jailbreak — técnicas para evadir los controles de seguridad de los LLMs
  • Prompt Injection — inyección de instrucciones maliciosas en sistemas con IA
  • Hallucinations — alucinaciones de modelos y sus implicaciones en producción
  • Unalignment — desalineamiento de sistemas de IA respecto a sus guardarraíles

El libro es complementario a “Hacking & Pentesting con Inteligencia Artificial” y está pensado para profesionales de ciberseguridad que quieran entender y auditar sistemas de IA con metodología rigurosa.

ISBN: 978-84-09-77993-2

↗ Ver libro en 0xWord
LibroSeguridad IALLMsPrompt InjectionJailbreakOWASP0xWord
Progreso 0%
MSL
Manuel S. Lemos
AI Engineer · Founder · Speaker

AI Engineer en NaizFit y Founder de Ferrumox. Máster en IA & Big Data (UAX). Vicepresidente de ANBAN. Visión AI‑First pragmática: la tecnología al servicio del contexto, no al revés.