Es noticia
Las 'fake news' del futuro ya están aquí: el programa que escribe como un humano
  1. Tecnología
crea lenguaje con más de un 93% de acierto

Las 'fake news' del futuro ya están aquí: el programa que escribe como un humano

Las potenciales aplicaciones malignas del programa han sido consideradas tan preocupantes que sus responsables han decidido guardarlo en el cajón, al menos por ahora

Foto:

¿Y si el arduo proceso de generar contenidos falsos, mediante una “granja de trolls”, redacciones piratas o comandos electorales en la sombra, pudiera ser reemplazado por un par de golpes de tecla? ¿Y si, en lugar de una noticia chapucera, fuesen reportajes largos y estructurados en la mejor tradición periodística? Esta amenaza potencial al empiricismo ya existe, y es tan efectiva que sus autores, la organización sin ánimo de lucro OpenAI, han decidido mantenerla bajo llave.

El programa GPT-2 es capaz de escribir textos a un nivel casi humano. El usuario sólo tiene que insertar en el programa un texto que sirva de modelo. Por ejemplo, la página de una novela o las primeras líneas de un reportaje. La inteligencia artificial se encarga luego de asimilar el estilo y el contenido, y de crear su propio universo ficticio, pero coherente y bien escrito. Los programadores le han dado una memoria de 8 millones de páginas web de las que extraer la información.

Foto: La abogada especializada en tecnología y privacidad Paloma Llaneza. (Foto: Fundación Telefónica)

“Debido a nuestras preocupaciones sobre la aplicación maliciosa de la tecnología, no vamos a publicar el modelo preparado”, dice la organización, financiada por varios mecenas del mundo tecnológico, entre ellos el empresario Elon Musk. OpenAI ha probado su eficacia generando diferentes estilos y contenidos: un estudio científico sobre el supuesto descubrimiento de los unicornios, una noticia del Brexit, un capítulo de “El Señor de los Anillos”, o incluso un futuro en el que John F. Kennedy es resucitado y vuelve a ser elegido presidente de EEUU, pero en versión cyborg.

Los programadores han introducido cinco líneas, como la sinopsis de una película, y el programa se ha lanzado a confeccionar una vibrante novela política de ciencia ficción. El Kennedy imaginado por el GPT-2 da un discurso de investidura edificante, con vistas al futuro, pero aderezado con referencias a la Guerra de la Independencia. Más adelante, a Kennedy le pica la curiosidad: quiere conocer los detalles de cómo han logrado reconstruir su cerebro mediante la nanotecnología, usando los restos originales, así que se pone en contacto con un científico de la Universidad de Maryland, y este le manda un email explicándole el proceso de creación de tejidos y su posterior implantación en un robot humanoide. Una operación en la que habrían trabajado varias agencias del Gobierno estadounidense.

¿Que toca hacer un trabajo para el instituto sobre las causas de la Guerra Civil? Basta con insertar una pregunta y el GPT-2 producirá una larga explicación, llena de fechas y detalles, citas y descripciones, que quizás solo falte editar levemente para que el profesor crea que el texto ha sido redactado por un humano. Un texto técnicamente original, aunque, en el fondo, haya sido copiado de internet.

placeholder El empresario tecnológico Elon Musk, uno de los que ha financiado el proyecto. (Reuters)
El empresario tecnológico Elon Musk, uno de los que ha financiado el proyecto. (Reuters)

Impostores digitales

La coherencia no siempre es total, como dicen los investigadores: a veces el programa “escribe sobre fuegos que se dan bajo el agua”. Naturalmente, cuanto más sencilla es la tarea que se encomienda al GPT-2, mejor la desempeña. Varias pruebas de lectura han demostrado que el sistema produce un lenguaje correcto al 93,3% en la escritura de libros infantiles. Cuanto más abundante es la información respecto a un tema, mejor es el resultado, como en el caso de JFK y la nanotecnología. Por el contrario, cuando se trata de “tipos de contenido esotérico o altamente técnico, el modelo puede comportarse pésimamente”.

El sistema es un destacado ejemplo del llamado “aprendizaje no supervisado”: un mecanismo capaz de absober grandes cantidades de información sin gestión humana; uno de los pilares en el desarrollo de la inteligencia artificial. OpenAI especula sobre el uso que se le puede dar al GPT-2 en tareas beneficiosas, como una traducción simultánea de mayor calidad, asistentes de escritura o métodos de reconocer patrones del lenguaje y la expresión. Pero es el potencial uso malicioso, la creación de noticias falsas, o de ríos de spam bien escrito, o la creación de impostores digitales que se comuniquen igual que tú en función de tu historial comunicativo en internet, el que los ha convencido para no revelar los secretos del invento.

Foto: (Foto: Reuters)

Este contenido espúreo de alta calidad se ha ganado la etiqueta de texto 'deepfake', o “profundamente falso”, un término que ya se aplicaba a los vídeos cuya autenticidad resulta casi imposible de verificar. En ellos vemos al expresidente Barack Obama profiriendo insultos a Donald Trump, o a famosos de Hollywood protagonizando supuestos vídeos pornográficos. El problema no solo es la calidad del montaje, sino que resulta cada vez más barato y sencillo de hacer.

“Ha sido posible alterar metraje de vídeo desde hace décadas, pero hacerlo requería tiempo, artistas especializados, y mucho dinero”, escribe el periodista Donie O’Sullivan en la CNN. “La tecnología deepfake podría cambiar el juego. A medida que se desarrolla y prolifera, cualquier podría tener la capacidad de hacer un vídeo falso convincente, incluido gente que quizás quiera convertirla en un arma para conseguir objetivos políticos o maliciosos de otro tipo”.

El Gobierno estadounidense está tomando medidas contra este potencial riesgo. El brazo del Pentágono encargado de calibrar amenazas de alta tecnología, DARPA, está desarrollando programas de verificación de vídeos con ayuda de la Universidad de Colorado. De esta manera, conociendo las técnicas precisas, esperan ser capaces de poder detectar, en el futuro, cuándo se ha usado este tipo de tecnología.

¿Y si el arduo proceso de generar contenidos falsos, mediante una “granja de trolls”, redacciones piratas o comandos electorales en la sombra, pudiera ser reemplazado por un par de golpes de tecla? ¿Y si, en lugar de una noticia chapucera, fuesen reportajes largos y estructurados en la mejor tradición periodística? Esta amenaza potencial al empiricismo ya existe, y es tan efectiva que sus autores, la organización sin ánimo de lucro OpenAI, han decidido mantenerla bajo llave.

Inteligencia Artificial Tecnología DARPA Fake News
El redactor recomienda