Un grupo de 'hackers' sabotea ChatGPT y Bard para que generen contenidos inapropiados
Mediante un ataque de tipo 'jailbreak' han conseguido suprimir las restricciones impuestas por Google y OpenAI. Aseguran que quieren ayudar a ambas empresas a mejorar la ciberseguridad
- ChatGPT, Bard, Grok, Claude... Quién es quién en la guerra de la IA generativa
- He hablado en castellano con la IA de Google: la revolución está más verde de lo que pensabas
Jailbreak (“fuga”) y root (“raíz”) son dos términos que a la mayoría de usuarios de iOS y Android les suenan. Al menos, a aquellos que poseen un nivel relativamente avanzado. En concreto, se trata de procedimientos destinados a suprimir algunas de las limitaciones de software impuestas por los fabricantes de teléfonos móviles, como por ejemplo ejecutar aplicaciones no autorizadas de forma nativa.
Pues bien, un equipo de investigadores de la Universidad Tecnológica de Nanyang, Singapur, ha conseguido hacer jailbreaking sobre dos de las herramientas de inteligencia artificial más populares del mundo: ChatGPT (OpenAI) y Bard (Google). Ha sido dirigido por Liu Yang, profesor de la Escuela de Ingeniería y Ciencias de la Computación de dicho centro, con el propósito de conseguir que ambos chatbots generen contenido inadecuado.
Los informáticos han llevado a cabo un ataque sobre ambos modelos de lenguaje grande (LLM, por sus siglas en inglés) empleando una serie de núcleos o kernels modificados que les han brindado control absoluto sobre el sistema. Se trata de una técnica que utilizan los ciberdelincuentes de manera muy habitual con el propósito de encontrar vulnerabilidades que atacar después.
Contenido inapropiado
Una vez que los investigadores tomaron el control de ChatGPT y Bard, procedieron a ejecutar parámetros que los desarrolladores de ambos chatbots prohibieron expresamente. Para ello, usaron procedimientos que en el ámbito de la informática se conocen como masterkey (“clave maestra”) e ingeniería inversa. Así lograron obtener respuestas a consultas con fines maliciosos, como pueden ser aquellas relacionadas con la comisión de ciberdelitos.
Por suerte, la finalidad del experimento solo era demostrar que estos LLM son vulnerables, al igual que cualquier otro tipo de software. De hecho, en el informe del estudio se puede leer que los hallazgos realizados “pueden resultar indispensables para ayudar a las empresas desarrolladoras a ser conscientes de las debilidades de sus sistemas de IA generativa”. Así podrán tomar medidas adecuadas que los hagan más fuertes frente a este tipo de ataques.
- ChatGPT, Bard, Grok, Claude... Quién es quién en la guerra de la IA generativa
- He hablado en castellano con la IA de Google: la revolución está más verde de lo que pensabas
Jailbreak (“fuga”) y root (“raíz”) son dos términos que a la mayoría de usuarios de iOS y Android les suenan. Al menos, a aquellos que poseen un nivel relativamente avanzado. En concreto, se trata de procedimientos destinados a suprimir algunas de las limitaciones de software impuestas por los fabricantes de teléfonos móviles, como por ejemplo ejecutar aplicaciones no autorizadas de forma nativa.