Es noticia
Este gigante va a usar IA para controlar el estrés de su plantilla. Es un adelanto de lo que te espera pronto
  1. Tecnología
LA OFICINA DEL FUTURO

Este gigante va a usar IA para controlar el estrés de su plantilla. Es un adelanto de lo que te espera pronto

El gigante japonés Softbank pretende aplicar inteligencia artificial para cambiar el tono de las llamadas cuando los usuarios llamen con malas formas. Y solo es la punta del iceberg

Foto: Un teleoperador, trabajando. Foto: Pixabay
Un teleoperador, trabajando. Foto: Pixabay

Ser teleoperador para muchos es un auténtico infierno laboral. Y no solo por las condiciones económicas. Aguantar ocho horas de llamadas de clientes, muchas de ellas cabreados porque piensan que la empresa de turno les ha timado en su última factura, reclamándoles algo que escapa de su control o desesperados porque les van a cortar el servicio, puede llevar a cualquiera a un agotamiento mental extremo.

Además, como revelan testimonios en diversos medios y foros de internet, muchos de estos trabajadores tienen orden de no cortar la llamada y gestionarla pese a las condiciones. En un país como Japón, el asunto incluso ha entrado en la agenda pública. El ‘kasu-hara’ (que es como se conoce a este tipo de acoso) se ha convertido en una preocupación para el Ejecutivo y muchas empresas.

Foto: Sundar Pichai. Foto: Google
TE PUEDE INTERESAR
Este invento de Google me hace pensar que el ChatGPT que uso desde hace meses está viejo
Michael McLoughlin. Montain View (California)

Parece que ya hay quien tiene una solución en el horno. Se trata de Softbank, el gigante local de las telecomunicaciones y la tecnología. El que es uno de los mayores inversores de esta industria a nivel mundial lo pretende hacer gracias a la tecnología de moda: la inteligencia artificial generativa.

La compañía, junto a la Universidad de Tokio, está desarrollando un sistema que altere en tiempo real la voz del interlocutor cuando la llamada sea muy agresiva, con el objetivo de reducir el estrés que puedan acumular los empleados por este motivo. Para entrenar este modelo, han tenido que recurrir a actores de doblaje que han creado miles de registros de voz emulando entonaciones y gritos de enojo o ira. El desarrollo también está preparado para detectar los temas de la conversación e incluso discernir si se está alargando más de lo normal y mandar un aviso para poner fin a un bucle infinito. Si todo va sobre la marcha, se empezará a poner en circulación en algo menos de dos años.

Foto: Reuters

El uso de la inteligencia artificial para modificar o generar voces no es algo nuevo. Apple ya presentó el pasado año, mucho antes de Apple Intelligence, una herramienta de accesibilidad que solo necesitaba entrenarse durante 15 minutos para generar una voz que pudiese sonar de forma similar a la tuya. No son ni mucho menos los únicos. Microsoft o Adobe tienen entre manos cosas similares.

La inteligencia artificial emocional

El proyecto de Softbank revela cómo la industria ve una oportunidad para resucitar una tecnología que lleva años persiguiendo: la inteligencia emocional artificial (IEA). Desde hace varios años, ha surgido una oleada de nuevas empresas que pretenden aplicar estas técnicas a los recursos humanos y a la monitorización del rendimiento y la productividad de los trabajadores. El uso de algoritmos y de sistemas automatizados para el control del desempeño no es estrictamente nuevo. Una empresa como Amazon ha estado en varias ocasiones en el centro de la polémica por este asunto y por la vigilancia milimétrica que hacía de sus mozos de almacén o de sus conductores de reparto.

"El ámbito laboral siempre ha sido un laboratorio para experimentar con la tecnología y hay que vigilar mucho que el mundo del empleo no se convierta en un mundo de vigilancia total", advertía en una entrevista con El Confidencial Carissa Véliz, profesora de Ética Digital de la Universidad de Oxford, con motivo del lanzamiento en español de su ensayo ‘Privacidad es poder’.

La idea de la IEA bien podría haber salido del mismo guion de la película Her, donde Joaquin Phoenix se enamora de un asistente virtual, pero lo cierto es que se acuñó hace casi tres décadas. También conocida como computación afectiva, es una rama que trata de que los sistemas informáticos sean capaces de detectar, analizar, procesar e incluso responder a nuestros sentimientos.

Este año, una startup fundada por un ex investigador de Google recaudó 50 millones para el desarrollo de una IA de voz empática

Pero prácticamente desde el momento en el que fue formulada, esta disciplina ha sido objeto de una fuerte contestación, con mucha gente poniéndola en duda. ¿La razón? Sus detractores sostienen que las emociones humanas no se pueden desgajar y medir basándose en parámetros objetivos y estadísticos, como pueden ser los kilómetros recorridos a pie durante un turno o el número de paquetes entregados.

En el otro extremo, los partidarios de estas técnicas sostienen que los últimos avances en reconocimiento facial, videovigilancia o procesamiento del lenguaje natural, entre muchas otras cosas, abren un campo de posibilidades.

Foto: Reuters.

El mejor ejemplo de que Silicon Valley ha abrazado este extremo es lo vivido en mayo con OpenAI. La compañía de Sam Altman presentó su nuevo modelo de lenguaje, GPT-4. Entre sus múltiples novedades, tenía la posibilidad de expresarse como un asistente de voz. En la demostración, se vio como coqueteaba o ironizaba con los ingenieros de la empresa.

Aquello puso la inteligencia artificial emocional en el centro del debate y hasta Sundar Pichai, CEO de Google, tuvo que pronunciarse en el I/O sobre este punto. "En la medida en que se vuelva más poderosa, más personas la utilizarán para conversar", apuntaba. "Habrá quien la utilice para recordar a sus seres queridos cuando no estén vivos. Y sí, existe la posibilidad de que haya personas que entablen relaciones profundas con estos asistentes", advertía el mandamás del buscador.

Que alguien acabe enamorado hasta las trancas de un programa informático que es capaz de detectar sus sentimientos y generar respuestas acordes es algo que puede parecer surrealista, pero queda en el ámbito privado. Pero, ¿qué ocurre si esta tecnología se utiliza en cientos de empresas? Un uso como el de Softbank puede parecer positivo, en el sentido de que se utiliza para evitar la carga psicológica de la plantilla. Sin embargo, también se corre el riesgo de que se utilice no para conocer los sentimientos de los clientes, sino para saber el estado anímico de los empleados o candidatos, incluso sin que ellos lo sepan.

Entrevistado y analizado por un software

Son varias los que llevan persiguiendo esto desde hace un tiempo e incluso haciendo negocio con ello. Hace un lustro, la empresa estadounidense Hirevue dio mucho que hablar por utilizar un software para la selección de personal que fue utilizado por multinacionales como Unilever, Oracle o Ikea. El candidato tenía que mantener una entrevista personal de 15 minutos ante una cámara y el sistema tomaba notas y sacaba conclusiones sobre cómo se desenvolvía a través de su lenguaje corporal, la entonación o su vocabulario. La plataforma era capaz de analizar si utilizaba oraciones largas o escuetas, el vocabulario que utilizaba, si usaba frases pasivas, si hablaba rápido o despacio… Si es un proceso interno, podría analizar supuestamente el sentimiento de pertenencia o compromiso, escrutando si hablaba en primera persona del singular o del plural o si utilizaba palabras clave relacionadas con los objetivos de la empresa.

Foto: Pixabay.

SmartEye es una empresa que propone algo similar, el análisis de las emociones, aunque su foco es el reconocimiento facial y el seguimiento ocular. La empresa ha entrenado una plataforma capaz de detectar el estado emocional de un sujeto gracias a un algoritmo entrenado con casi 15 millones de videos de expresiones faciales.

Algunas de estas empresas están levantando importantes rondas de financiación. Retorio, una firma alemana, consiguió a finales de 2023 una inyección de 9 millones de euros para seguir desarrollando su plataforma. Una plataforma que utiliza análisis de voz, reconocimiento facial y visión artificial para analizar las posturas de los empleados. Ellos están especializados en equipos de ventas. El sistema se utiliza para medir la efectividad y las posibilidades de éxito de los comerciales.

¿Tu cara lo dice todo?

Este mismo año, una startup de unos pocos meses de vida llamada Hume y fundada por un ex investigador de Google llamado Alan Cowen recaudó 50 millones de euros para el desarrollo de una interfaz de voz empática. Su propuesta se basa en una IA generativa multimodal que combina los grandes modelos de lenguaje con dosis de expresión emocional, creando lo que ellos han bautizado como "gran modelo de lenguaje empático". Al contrario que otras IA, la de Hume podría ajustar el tono o las palabras según el contexto o las emociones del usuario. Además, el sistema dice que es capaz de detectar con precisión cuándo el usuario ha terminado de hablar para comenzar su respuesta, se detiene si el usuario interrumpe, y genera respuestas rápidas en tiempo real con una latencia inferior a 700 ms.

¿Cuál es el problema de todo ello? En que el sistema es tan bueno como sean sus datos de entrenamiento. Varias investigaciones apuntan a que no existe un consenso de cómo se expresan las emociones. Un estudio publicado en el NIH estadounidense apuntaba a que la tecnología que pretende deducir estados emocionales por los movimientos faciales presenta tantos retos y tantos peros que no se podía considerar como una herramienta eficaz para saber si una persona está triste, asustada, enojada o lo que sea. Además de eso está el asunto de los sesgos. Existe literatura científica que aborda, por ejemplo, la influencia racial en la percepción automatizada de las emociones vía reconocimiento facial.

Para solventar estos problemas relacionados con la visión artificial, hay quien está intentando llevar la cuantificación y la recogida de información a un nuevo nivel. Empresas como LinkedIn o Nvidia están probando un novedoso mobiliario corporativo: unas sillas de oficina capaces de recoger la frecuencia cardiaca, la respiración, así como sus alteraciones. Están fabricadas por una compañía finlandesa llamada Framery, que recientemente ha patentado un artilugio para medir y registrar la risa gracias a movimientos corporales. Sus responsables explican que el objetivo de todo es que la dirección de las compañías pueda recoger esas métricas para conocer el estado anímico de la plantilla.

Ser teleoperador para muchos es un auténtico infierno laboral. Y no solo por las condiciones económicas. Aguantar ocho horas de llamadas de clientes, muchas de ellas cabreados porque piensan que la empresa de turno les ha timado en su última factura, reclamándoles algo que escapa de su control o desesperados porque les van a cortar el servicio, puede llevar a cualquiera a un agotamiento mental extremo.

Inteligencia Artificial
El redactor recomienda