Es noticia
Después de escuchar a esta exjefa de Google se te van a quitar las ganas de usar ChatGPT
  1. Tecnología
Entrevista a Meredith Whittaker

Después de escuchar a esta exjefa de Google se te van a quitar las ganas de usar ChatGPT

Trabajó durante 13 años como directiva en Google, pero lo dejó para denunciar la ausencia de ética y transparencia de las grandes tecnológicas. Ahora es una de las voces que explica qué hay de verdad detrás del negocio de la IA

Foto: Meredith Whittaker. (TechCrunch/Flickr)
Meredith Whittaker. (TechCrunch/Flickr)
EC EXCLUSIVO Artículo solo para suscriptores

Hay pocas personas en el mundo capaces de poner en jaque a las grandes tecnológicas, y dos son mujeres. Meredith Whittaker, ex directiva de Google y presidenta de la Fundación Signal, es una de ellas. Cuando Whittaker habla, Google, Microsoft, Amazon y Meta tiemblan. No es para menos. En 2018, tras 13 años trabajando en el buscador, Whittaker lideró una revuelta de 20.000 empleados exigiendo cambios urgentes en la gestión de la empresa. Ocurrió tras conocerse los supuestos abusos sexuales a empleadas por parte del fundador de Android, Andy Rubin. Las exigencias no se cumplieron (Google acabó protegiendo a Rubin), Whittaker dimitió de su puesto e inició la batalla por su cuenta. Fue así como arrancó una cruzada más amplia: la de exigir a los gigantes de la IA mayor transparencia, ética y responsabilidad acorde a su enorme poder. Ocurrió mucho antes del boom de OpenAI y la IA generativa. Whittaker lo vio venir y unió fuerzas con otra mujer, Lina Khan.

Khan, presidenta de la Comisión Federal de Comercio (FTC) desde junio de 2021, es el otro gran azote de los monopolios tecnológicos. Bajo su mandato, el regulador estadounidense lanzó su mayor investigación contra Amazon. Ese mismo año, Whittaker fue nombrada asesora en inteligencia artificial de Lina Khan. Dos de las mujeres con más poder (y más temidas) en la industria tech, juntas por primera vez.

Desde entonces, Whittaker ha testificado en el Senado de EEUU, ha fundado el AI Now Institute, uno de los think tanks más prestigiosos que analiza el impacto de esta tecnología en la sociedad, y, sobre todo, ha explicado de forma incansable lo que OpenAI, Google, Amazon, Meta o Microsoft no quieren contar: que esa supuesta revolución llamada inteligencia artificial no es ni tan revolucionaria ni tan inteligente como la venden. Whittaker recibe a El Confidencial en París, donde hablamos durante una hora.

PREGUNTA. Algunos académicos y especialistas, como el 'padre' de la IA, Geoffrey Hinton, aseguran que esta tecnología es un peligro para la humanidad. Otros, sobre todo inversores y emprendedores, dicen todo lo contrario, que es la mayor revolución de las últimas décadas, que o te subes al tren o te quedas atrás. ¿En qué bando estás?

RESPUESTA. Creo que es un falso dilema. En realidad, casi todos están del mismo lado. Ambos dicen que la IA es una tecnología revolucionaria. Ambos pintan estos sistemas en términos muy amplios y marketinianos, afirmando que tienen capacidades que no han demostrado tener. Dicen que son súper humanos, súper poderosos, que son sistemas casi divinos. Unos dicen que hay que tener cuidado y encerrarlos en una jaula, y otros que hay que dejarlos libres. Pero, en ambos casos, estamos ante un marketing que beneficia al puñado de empresas que tienen los recursos para desarrollar, desplegar y lucrarse con estos sistemas. Son dos extremos del mismo espectro de exageración publicitaria, y ninguno está basado en una comprensión real de lo que es esta tecnología, quién se beneficia de ella y cuáles son sus limitaciones.

placeholder Meredith Whittaker. (Reuters)
Meredith Whittaker. (Reuters)

P. ¿No es la revolución que nos pintan?

R. ¿Qué significa revolución? Vengo del mundo académico y soy un poco pedante a la hora de definir términos. No creo que la IA sea una innovación que cambie el paradigma actual. El verdadero cambio de paradigma es el que estamos viviendo hacia una industria tecnológica basada en la vigilancia masiva, que ahora ha puesto enormes cantidades de datos y una infraestructura computacional gigantesca en manos de un puñado de empresas de Estados Unidos y China. Están vendiendo los derivados de este modelo de negocio de vigilancia como inteligentes y revolucionarios, y están convenciendo a Gobiernos para bajar la guardia y depender cada vez más de corporaciones estadounidenses. Si queremos hablar sobre los peligros de la IA, en mi opinión, ese es el verdadero peligro.

P. Muchos académicos dicen que OpenAI no es ni abierta, ni inteligente, ni artificial. ¿Cómo es esto?

R. Supongo que cada empresa tiene derecho a decidir su nombre. Ellos escogieron ese, y ahora tenemos que usarlo. Yo diría que OpenAI es más una subsidiaria de Microsoft que otra cosa. Depende de su infraestructura y de su acceso al mercado. Y la idea de que OpenAI es una organización sin ánimo de lucro es errónea. En última instancia, OpenAI es una unidad de negocio más de Microsoft y se mueve por el beneficio. Microsoft tomó las decisiones cuando la junta directiva de OpenAI se disolvió y se reconstituyó. Es una de las pocas empresas con la infraestructura y los recursos necesarios para construir y lucrarse con estos sistemas. Tienen Azure, la infraestructura y los datos. Pueden contratar al talento necesario y, más importante, controlan el acceso al mercado mejor que nadie.

Foto: Lina Khan. (Universidad de Columbia)

P. Si OpenAI no es ni abierta, ni inteligente, ni artificial, ¿es la mayor mentira que ha salido de Silicon Valley de los últimos años?

R. Lo que es seguro es el paradigma de la exageración tecnológica del momento. No sé si recuerdas hace año y medio, cuando se supone que teníamos que tomarnos en serio los NFT, o las cripto. Podemos retroceder al marketing en torno a las redes sociales o a la web. Las exageraciones llevan siendo la esencia de la tecnología impulsada por el capital riesgo desde al menos los años 90. Antes de eso, hubo cosas como el programa Star Wars de la administración Reagan. La tecnología iba a ser una especie de ojo divino capaz de observarlo todo y actuar. Nada de esto se materializó. Ahora, la inteligencia artificial es otro ejemplo de lo mismo. Se está usando para inflar las valoraciones de las empresas y para convencer a Gobiernos de adoptar sistemas que en realidad no son capaces de hacer lo que prometen.

P. ¿Cómo nos puede afectar en nuestro día a día que la IA sea abierta o cerrada? ¿Qué importancia tiene?

R. No creo que nos afecte en absoluto. De hecho, la mayoría de la gente no es usuaria de la IA, sino objeto de ella. Tu jefe usa la IA para monitorizar tu trabajo. Las agencias de inteligencia usan la IA para vigilar las cámaras de seguridad. Los Gobiernos usan la IA para determinar si mereces recibir beneficios o no. Todos estos sistemas son defectuosos, y tampoco están al alcance de cualquiera en igualdad de condiciones. Es una tecnología increíblemente cara que solo unos pocos actores pueden permitirse desplegar a gran escala.

"La IA se está usando para inflar el valor de las empresas y lograr que Gobiernos usen sistemas que no son capaces de hacer lo que prometen"

P. ¿La IA de código abierto tampoco soluciona nada?

R. El término "código abierto" creo que se ha aplicado a la IA de manera incorrecta. Tiene un significado muy concreto en el contexto del software que no se traduce bien a los sistemas de IA complejos. El código abierto puede hacer que esta tecnología sea más transparente. Permite escrutarla y entender cómo fue creada, pero el código abierto no democratiza la IA, no aborda el problema de la concentración de poder y no hace que la tecnología esté disponible para que todos la usen en los mismos términos.

P. ¿Por qué entonces Meta y su jefe mundial de IA, Yann LeCun, uno de los popes en este terreno, se autoproclaman los grandes impulsores de la IA en código abierto?

R. Es marketing, Meta es muy buena en esto. Es la creadora de PyTorch, el principal entorno de desarrollo de la IA. Son como los cimientos para realizar investigación en IA. Funciona sobre otra plataforma llamada Cuda, propiedad de Nvidia. Así que tienes a dos empresas estadounidenses controlando el agua en la que nada toda la investigación en IA.

Meta no tiene un negocio en la nube, pero Microsoft sí, un producto llamado Azure. Es su propiedad intelectual, no quiere que nadie pueda ejecutarlo en otros servidores. Hay un interés de los gigantes de la nube en mantener todo esto cerrado. En el caso de Meta, ¿cómo se beneficia de la IA? Integrándola en sus plataformas, en Instagram, en Facebook... Quieren que todos desarrollen IA en PyTorch porque es un entorno que controlan. Así se aseguran de que todo lo que crea la comunidad académica se integra en su infraestructura y pueden usarlo para segmentar anuncios, ajustar sus algoritmos... Son dos monopolios tecnológicos diferentes.

placeholder Yann LeCun, jefe mundial de IA en Meta. (Reuters)
Yann LeCun, jefe mundial de IA en Meta. (Reuters)

P. ¿Es eso lo que nos debe preocupar de la IA, la creación de nuevos monopolios?

R. Creo que ya están creados. Se llaman Google, Meta, Microsoft, Amazon... Estamos asistiendo a la extensión y el atrincheramiento de esos monopolios. Estamos cediendo cantidades increíbles de autoridad a estas empresas para tomar decisiones que deberían corresponder a procesos democráticos, quedarse en manos de Gobiernos electos y ser competencia de las personas afectadas. Y estamos entregando esa autoridad a monopolios bajo el estandarte de la IA para que sean ellos, en lugar de nosotros, quienes tomen esas decisiones. Así que sí, deberíamos estar muy preocupados.

P. ¿Usas ChatGPT?

R. Lo he probado, claro, pero no lo uso, no estoy interesada. Me puede ayudar a escribir un email de forma rápida, pero eso lo puedo hacer en 30 segundos. Luego, en todo el trabajo académico que hago, no necesito aproximaciones incorrectas de agregaciones de páginas web. No me ayuda en nada.

P. ¿No crees que para mejorar la productividad tiene sentido? Es útil para programar o hacer resúmenes de documentos largos, libros, ensayos...

R. No sé. ¿Para ser productivo en qué? Si es en no leer un libro, entonces sí (risas). Si necesitas una aproximación rápida a algo, y no importa que no sea muy precisa, puede valer. Pero si mi abogado hiciera eso, le despediría. Si mi médico lo hiciera, presentaría una queja. La IA generativa no es adecuada para contextos en los que la precisión importa. Las alucinaciones de estos sistemas no se van a solucionar, son parte de cómo funcionan.

"Si mi abogado usara IA, le despediría. Si mi médico lo hiciera, presentaría una queja. La IA no es adecuada cuando la precisión importa"

P. ¿Deberíamos dejar de usar estas herramientas?

R. Bueno, que cada uno haga lo que quiera. Si la gente lo encuentra útil, no tengo problema. Pero tenemos que entender que el negocio de Microsoft u OpenAI no es dejarnos usar sus productos gratis. Eso son demos. Cuando nos damos de alta en GPT-4, estamos usando un producto publicitario que en realidad luego se vende como un servicio en la nube de Azure. Tenemos que ser muy prudentes sobre cómo estas tecnologías, con la excusa de la productividad, al final se están usando para degradar y reemplazar nuestro trabajo.

placeholder Meredith Whittaker. (Wikimedia Commons)
Meredith Whittaker. (Wikimedia Commons)

P. Por mucho que seamos conscientes, parece que si no las usas te quedas atrás. ¿Hay alternativa?

R. Un buen ejemplo de algo que se puede hacer fue la huelga de guionistas de Hollywood. Ellos no decían "no queremos usar la IA". Lo que decían era que no querían que los directivos de las productoras licenciaran IA a las grandes tecnológicas, luego la usaran para despedirlos y al final volver a contratarlos a través de un tercero como supervisores o editores de IA con la mitad del salario y sin seguro médico. Querían poder escoger si usarla o no y tener el control del proceso laboral. Para mí esto no es una cuestión de tecnología, es una cuestión de poder, de cómo esa tecnología se usa y quién lo decide.

P. Es curioso lo que ocurre en los medios de comunicación. En lugar de huelgas, como los guionistas de Hollywood, algunos como el FT o Axel Springer, están firmando acuerdos con OpenAI.

R. Los medios estáis aceptando demasiado poco dinero. Es muy triste ver cómo os lanzan céntimos por décadas de trabajo muy duro. Creo que debería haber una especie de coalición de medios que luche contra estos gigantes en lugar de entregarles vuestras joyas de la corona a cambio de un puñado de euros.

P. ¿Qué tecnológica crees que lo está haciendo bien en el campo de la IA?

R. Hay gente que está experimentando con IA de formas interesantes, pero no están solucionando el asunto clave de la concentración de poder. Mistral, en Francia, ha apostado por una versión más abierta y centrada en Europa, pero siguen necesitando a Microsoft para llegar al mercado. No nos podemos engañar, Mistral no es el competidor europeo de OpenAI o Microsoft, sigue dependiendo de ellos.

"Despejó cualquier duda sobre la idea de que esta gente es seria y está construyendo la próxima máquina divina. Fue repugnante".

P. Equiparas la IA a la vigilancia masiva. ¿Por qué?

R. Se basan en los mismos datos. ¿Por qué de repente la IA es popular? Porque las tecnológicas ya tenían almacenados todos esos datos sobre nosotros. Son los que han usado para entrenar los modelos. El negocio detrás de la vigilancia masiva y de la IA es el mismo. No estaríamos hablando de la IA ahora si no hubiera habido un crecimiento bestial de los gigantes tecnológicos de vigilancia masiva. Se han dado cuenta de que con el poder de computación y la información que ya tenían podían resucitar viejas técnicas algorítmicas y crear usos interesantes para la gente.

P. ¿Qué pensaste cuando se destapó la polémica sobre cómo OpenAI intentó que Scarlett Johansson pusiera su voz a su última IA y, como no lo consiguió, la imitó?

R. Creo que despejó cualquier duda sobre si esta gente es seria y está construyendo la próxima máquina divina. Lo que pudimos ver en esa cadena de decisiones es que no había una pizca de seriedad, son bromas de residencia de estudiantes disfrazadas de liderazgo mundial. Fue algo irrespetuoso, con un tono misógino. Repugnante.

P. Hace poco se conoció cómo OpenAI obligaba a sus empleados a firmar contratos muy restrictivos. Si se iban de la compañía, les penalizaba económicamente. Muchos critican a Sam Altman por simbolizar la peor cara de Silicon Valley.

R. Desde luego es consistente con las patologías culturales de la industria tecnológica que he observado durante los últimos años. En el pasado, los directivos de Silicon Valley eran poderosos y ricos pero no se les idolatraba como si fueran figuras divinas. El culto a la personalidad que se está formando entorno a estos jefes de la IA es algo que no había visto antes.

placeholder Sam Altman, fundador de OpenAI, junto a  Javier Milei, presidente de Argentina. (EFE)
Sam Altman, fundador de OpenAI, junto a Javier Milei, presidente de Argentina. (EFE)

P. Steve Jobs sí fue idolatrado.

R. Sí, quizás él fue la excepción, aunque era diferente. Jobs, Larry Page o Sergey Brin no aparecían en estos podcasts divagando con argumentos quasi religiosos para justificar deciones de negocio. Lo de OpenAI recuerda un poco a WeWork. Su fundador alimentaba un 'hype' que no estaba sustentado en nada. Cuando rascabas un poco, decías, anda, si en realidad estás vendiendo oficinas usando lenguaje utópico. Hay una desconexión enorme entre lo que venden y lo que dicen.

P. OpenAI quiere que vivamos en la película Her, que interactuemos con su IA a través de la voz. Su tecnología está desarrollada de forma que parece más inteligente de lo que en realidad es. ¿No es engañoso?

R. No estoy segura. ¿Conoces a Joseph Weizenbaum y su proyecto ELIZA? Fue un científico de inteligencia artificial en los años 70. Fue un superviviente del Holocausto y trabajó en el MIT. Creó un sistema muy básico que pretendía imitar la terapia de un psicólogo. Imagínate, tecleabas en un terminal algo como "tengo problemas con mi mujer", y el bot te respondía "cuéntame más" o "sigue hablando". Te animaba todo el rato a seguir hablando, aunque nada parecido a lo que hace hoy ChatGPT.

Pese a ser un sistema muy básico, a Weizenbaum le inquietaba cómo la gente conectaba de inmediato con el bot. Contaba la historia de una asistente suya que le pedía cerrar la puerta porque estaba hablando con ELIZA. Hay una tendencia en los humanos a querer ser escuchados, a sentir que alguien nos presta atención, que nos quiere. Creo que nosotros, como personas, inconscientemente rellenamos muchos de esos huecos cuando interactuamos con un máquina. No creo que ChatGPT se haya diseñado para engañar, pero parece jugar con una tendencia más profunda que ya existía en los seres humanos con esos sistemas más antiguos. Weizenbaum escribe sobre esto en un libro llamado Computer Power and Human Reason. Dice que le preocupa que esa tendencia en las personas se use para dar poder a los sistemas computacionales o a quienes los controlan. Eso es justo lo que estamos viendo ahora.

P. ¿Vamos como sociedad en esa dirección, a acabar viviendo en Her, o es solo la fantasía de un millonario de Silicon Valley?

R. Bueno, ahora ya conversamos con asistentes de IA que reemplazan a los trabajadores de los call centers, y todo el mundo los odia. Si de lo que hablamos es de una sociedad en la que a cada momento tengo un asistente de IA activo en mi oreja, entonces cada instante, cada centímetro de mi vida, está siendo microvigilado por una corporación centralizada que procesa esos datos, construye modelos a partir de ellos y monitoriza mis movimientos. No, no creo que sea una sociedad que valga la pena construir.

P. Visionarios de la IA, como Mustafa Suleyman, cofundador de DeepMind, fichado ahora por Microsoft, creen que viviremos pegados a estos asistentes de IA que irán tomando decisiones por nosotros.

R. Esa visión supondría una escalada significativa en la vigilancia masiva personalizada. Suleyman es un emprendedor, vende esa visión a los inversores. Luego se la vendió a Microsoft, que en realidad es una de las pocas empresas que puede convertirse en el backend de ese sistema de vigilancia. No hay una definición clara de lo que es un asistente de IA. ¿Qué hace? ¿Con qué datos se entrena? ¿A quién le envía mi ubicación y mis preguntas? Es todo un cuento de hadas. La idea de que de alguna manera todos podríamos ser dioses de nuestro propio universo, con un pequeño sirviente a nuestro lado para satisfacer cada uno de nuestros caprichos. Tecnológicamente, no sé qué significa eso.

placeholder Meredith Whittaker. (Foto: WebSummit/Flickr)
Meredith Whittaker. (Foto: WebSummit/Flickr)

P. ¿Es Microsoft la compañía que mejor está leyendo esta nueva carrera por la IA?

R. Es una compañía muy inteligente. Tengo que admitir que Brad Smith, presidente de Microsoft, es el mejor en lo suyo. Satya Nadella, el CEO, es un líder con mucho talento. Esa es la diferencia con OpenAI: los directivos de Microsoft son adultos y muy buenos en lo que hacen. No soy fan de lo que hacen, pero tengo que darles crédito por ello, sobre todo porque ni Google ni Meta han logrado seguirles el paso.

P. Microsoft y el resto de tecnológicas están persiguiendo de forma muy agresiva contratos de IA con Gobiernos, entre ellos España. Los países lo venden como innovación y algo muy positivo, pero lo que está en juego son los datos de los ciudadanos.

R. Muchas veces las tecnológicas tienen ya parte de esos datos porque son los proveedores cloud, de software y de infraestructura de los Gobiernos. Por eso tienen acceso legal a esa información. Con la IA pueden ampliar ese acceso, pero desde luego lo que buscan son nuevos clientes para sus tecnologías. La idea es: tú tienes todos esos datos sanitarios, por qué no me los cedes, nosotros entrenamos con ellos nuestra IA y tú puedes usarlos contratando nuestra nube. Ganan por partida doble.

P. Hay otro asunto del que las tecnológicas no quieren hablar: el consumo de recursos hídricos y energéticos que suponen los megacentros de datos que alimentan la IA. Hace poco, Amazon anunció que invertiría 15.000 millones de dólares en Aragón para establecer varios de estos centros. Pero no dan ningún dato sobre el consumo de recursos que supondrá.

R. Es uno de los asuntos más sensibles en la industria. Nadie es capaz de tener acceso a datos reales del consumo energético y de agua de estos mega centros. Sabemos que es enorme, pero ni Amazon, ni Microsoft, ni Meta permiten que se hagan auditorías externas. Están tomando decisiones que agravan la crisis climática sin tener que rendir ningún tipo de cuentas a los Gobiernos estatales y locales. Es un problema enorme, estamos a punto de entrar en el verano, a punto de vivir nuevas oleadas de calor. Un uso muy positivo de la IA podría ser justo analizar las tendencias climáticas y tomar mejores decisiones. Pero si luego miras en cómo se usa de verdad la IA, una de las mayores vías de ingresos de las tecnológicas es cerrar contratos con la industria petrolera para maximizar su extracción de recursos.

"Telegram tiene algunas de las peores prácticas de seguridad de la industria. Dicen que son seguros, pero no cumplen en absoluto"

P. Eres presidente de la Fundación Signal, la app de mensajería que, curiosamente, ayudó a crear el cofundador de WhatsApp, Brian Acton. Mucha gente cree que WhatsApp, Telegram y Signal son casi iguales en términos de seguridad.

R. ¡Noooo! ¡Ni de coña! (risas). Telegram es en realidad una red social que tiene algunas de las peores prácticas de seguridad y privacidad de la industria. Dicen que son seguros, pero no cumplen en absoluto. Signal tiene los mayores estándares de privacidad y seguridad. Su código es abierto, se puede auditar, y ha sido validado una y otra vez durante una década. WhatsApp usa un componente de nuestro conjunto de tecnologías para proteger y cifrar el contenido de los mensajes que envías, pero no protege toda la información de con quién hablas, quiénes son tus amigos, quiénes están en tus grupos etc. Es información sensible que Meta puede usar para crear publicidad personalizada. Signal es la única opción si quieres usar una app de mensajería 100% segura y privada.

P. La Comisión Europea lleva meses intentando aprobar nuevas leyes que permitan escanear el contenido de Signal, Telegram o WhatsApp. La excusa es luchar contra la pornografía infantil, pero el peligro es que cargarse la privacidad de todos los europeos.

R. Ahora parece que no hay tanta voluntad política para acabar con el cifrado. Sin embargo, ha sido desafortunado ver cómo el Gobierno de España ha escondido la cabeza como una avestruz e ignorado el consenso de los expertos en este tema. El contingente español en la Comisión Europea, junto con la comisaria Ylva Johansson, ha sido una de las puntas de lanza en apoyar el escaneo masivo de dispositivos. No existe una tecnología que permita ese escaneo de forma privada y segura, es algo conocido y probado. Pero seguiremos luchando.

Hay pocas personas en el mundo capaces de poner en jaque a las grandes tecnológicas, y dos son mujeres. Meredith Whittaker, ex directiva de Google y presidenta de la Fundación Signal, es una de ellas. Cuando Whittaker habla, Google, Microsoft, Amazon y Meta tiemblan. No es para menos. En 2018, tras 13 años trabajando en el buscador, Whittaker lideró una revuelta de 20.000 empleados exigiendo cambios urgentes en la gestión de la empresa. Ocurrió tras conocerse los supuestos abusos sexuales a empleadas por parte del fundador de Android, Andy Rubin. Las exigencias no se cumplieron (Google acabó protegiendo a Rubin), Whittaker dimitió de su puesto e inició la batalla por su cuenta. Fue así como arrancó una cruzada más amplia: la de exigir a los gigantes de la IA mayor transparencia, ética y responsabilidad acorde a su enorme poder. Ocurrió mucho antes del boom de OpenAI y la IA generativa. Whittaker lo vio venir y unió fuerzas con otra mujer, Lina Khan.

Inteligencia Artificial Lo mejor de EC
El redactor recomienda