Es noticia
Un grupo de 'hackers' sabotea ChatGPT y Bard para que generen contenidos inapropiados
  1. Tecnología
Ambos 'chatbots' son vulnerables

Un grupo de 'hackers' sabotea ChatGPT y Bard para que generen contenidos inapropiados

Mediante un ataque de tipo 'jailbreak' han conseguido suprimir las restricciones impuestas por Google y OpenAI. Aseguran que quieren ayudar a ambas empresas a mejorar la ciberseguridad

Foto: ChatGPT y Bard no son invulnerables ante ciberataques (Pexels)
ChatGPT y Bard no son invulnerables ante ciberataques (Pexels)

Jailbreak (“fuga”) y root (“raíz”) son dos términos que a la mayoría de usuarios de iOS y Android les suenan. Al menos, a aquellos que poseen un nivel relativamente avanzado. En concreto, se trata de procedimientos destinados a suprimir algunas de las limitaciones de software impuestas por los fabricantes de teléfonos móviles, como por ejemplo ejecutar aplicaciones no autorizadas de forma nativa.

Pues bien, un equipo de investigadores de la Universidad Tecnológica de Nanyang, Singapur, ha conseguido hacer jailbreaking sobre dos de las herramientas de inteligencia artificial más populares del mundo: ChatGPT (OpenAI) y Bard (Google). Ha sido dirigido por Liu Yang, profesor de la Escuela de Ingeniería y Ciencias de la Computación de dicho centro, con el propósito de conseguir que ambos chatbots generen contenido inadecuado.

Foto: OpenAI está buscando una solución, pero indica que no es fácil (REUTERS/Dado Ruvic)

Los informáticos han llevado a cabo un ataque sobre ambos modelos de lenguaje grande (LLM, por sus siglas en inglés) empleando una serie de núcleos o kernels modificados que les han brindado control absoluto sobre el sistema. Se trata de una técnica que utilizan los ciberdelincuentes de manera muy habitual con el propósito de encontrar vulnerabilidades que atacar después.

Contenido inapropiado

Una vez que los investigadores tomaron el control de ChatGPT y Bard, procedieron a ejecutar parámetros que los desarrolladores de ambos chatbots prohibieron expresamente. Para ello, usaron procedimientos que en el ámbito de la informática se conocen como masterkey (“clave maestra”) e ingeniería inversa. Así lograron obtener respuestas a consultas con fines maliciosos, como pueden ser aquellas relacionadas con la comisión de ciberdelitos.

Foto: Repetir palabras indefinidamente provocaba la revelación de datos personales privados (Reuters/Amir Cohen)

Por suerte, la finalidad del experimento solo era demostrar que estos LLM son vulnerables, al igual que cualquier otro tipo de software. De hecho, en el informe del estudio se puede leer que los hallazgos realizados “pueden resultar indispensables para ayudar a las empresas desarrolladoras a ser conscientes de las debilidades de sus sistemas de IA generativa”. Así podrán tomar medidas adecuadas que los hagan más fuertes frente a este tipo de ataques.

Jailbreak (“fuga”) y root (“raíz”) son dos términos que a la mayoría de usuarios de iOS y Android les suenan. Al menos, a aquellos que poseen un nivel relativamente avanzado. En concreto, se trata de procedimientos destinados a suprimir algunas de las limitaciones de software impuestas por los fabricantes de teléfonos móviles, como por ejemplo ejecutar aplicaciones no autorizadas de forma nativa.

Google Inteligencia Artificial
El redactor recomienda