La actriz además reveló que previo al lanzamiento de ChatGPT 4.0, el CEO de OpenIA, Sam Altman, ya la había contactado con el fin de sumarla como una de las voces, a lo que ya se había negado. Además, consta la publicación de él mismo en la que solo escribió "her", una posible alusión a la película protagonizada por Johansson donde precisamente interpreta la voz de una asistente virtual.
(CNN) — La actriz Scarlett Johansson dijo en un comunicado compartido con CNN el lunes que estaba “conmocionada, enojada e incrédula” de que el CEO de OpenAI, Sam Altman, usara una voz sintética publicada con una actualización de ChatGPT “tan inquietantemente similar” a la suya.
La declaración se produce después de que OpenAI dijera que estaba presionando el botón de pausa en la actualización después de comparaciones con un asistente de voz ficticio retratado en la película casi distópica Her de Johansson.
La retirada de OpenAI se produce tras una reacción violenta a la voz artificial, conocida como Sky, que los críticos describieron como demasiado familiarizada con los usuarios y sonaba como si hubiera surgido de la fantasía de un desarrollador masculino. Fue ampliamente objeto de burlas por su tono coqueto.
“Hemos escuchado preguntas sobre cómo elegimos las voces en ChatGPT, especialmente Sky”, dijo OpenAI en una publicación en X Monday. “Estamos trabajando para suspender el uso de Sky mientras los abordamos”.
Johansson dijo que Altman se ofreció a contratarla en septiembre pasado para dar voz al sistema ChatGPT 4.0. Dijo que rechazó la oferta por “motivos personales”.
“Dos días antes de que se lanzara la demostración de ChatGPT 4.0, el Sr. Altman se comunicó con mi agente y me pidió que lo reconsiderara. Antes de que pudiéramos conectarnos, el sistema ya estaba disponible”.
Johansson dijo que contrató a un asesor legal y dijo que OpenAI “aceptó a regañadientes” eliminar la voz de “Sky” después de que su abogado le envió dos cartas a Altman.
“En una época en la que todos lidiamos con los deepfakes y la protección de nuestra propia imagen, nuestro propio trabajo, nuestras propias identidades, creo que estas son preguntas que merecen una claridad absoluta. Espero una resolución en forma de transparencia y la aprobación de una legislación apropiada para ayudar a garantizar que los derechos individuales estén protegidos”, escribió Johansson.
Lee también: OpenAI presenta ChatGPT-4o, la nueva versión gratuita, más rápida y mejorada de su chatbot
CNN se comunicó con OpenAI para comentar sobre la declaración de Johansson.
La voz en cuestión no se deriva de la de Johansson, dijo la compañía en una publicación de blog el domingo, sino que “pertenece a una actriz profesional diferente que usa su propia voz natural”.
OpenAI dijo que con cada una de sus voces de IA, intentó crear “una voz accesible que inspire confianza”, una que contenga un “tono rico” y que sea “natural y fácil de escuchar”. El modo de voz ChatGPT que utilizaba la voz Sky aún no se había lanzado ampliamente, pero los videos del anuncio del producto y los avances de los empleados de OpenAI hablando con él se volvieron virales en línea la semana pasada.
Algunos de los que escucharon a Sky se burlaron de él, considerándolo quizás demasiado fácil de escuchar. La semana pasada, la controversia inspiró un segmento en The Daily Show en el que el corresponsal principal Desi Lydic describió a Sky como una “voz de bebé robot cachonda”.
“Esto está claramente programado para alimentar el ego de los tipos”, dijo Lydic. “Realmente se nota que un hombre construyó esta tecnología”.
Incluso Altman pareció reconocer los paralelismos generalizados que los usuarios establecían con Johansson cuando publicó en X el día del anuncio del producto: “her” (“ella”). Johansson dijo que Altman usó esta publicación para insinuar que “la similitud fue intencional”.
Her es el título de la película de 2013 en la que Johansson interpreta a una asistente de voz con inteligencia artificial de la que el protagonista, interpretado por Joaquin Phoenix, se enamora, para quedarse desconsolado cuando la IA admite que ella también está enamorada de cientos de otros usuarios y luego se vuelve inaccesible por completo.
Lee también: “Erramos el tiro”: Apple se disculpa por su controversial anuncio del iPad Pro
Preguntas sobre liderazgo
Las críticas en torno a Sky resaltan preocupaciones sociales más amplias sobre los posibles sesgos de una tecnología diseñada por empresas tecnológicas dirigidas o financiadas en gran medida por hombres blancos.
El anuncio se produjo después de que los líderes de OpenAI se vieran obligados a defender sus prácticas de seguridad durante el fin de semana después de que un empleado saliente cuestionara las prioridades de la empresa.
Jan Leike, quien anteriormente dirigió un equipo centrado en la seguridad de la IA a largo plazo, pero dejó OpenAI la semana pasada junto con el cofundador y científico jefe Ilya Sutskever, publicó un hilo en X Friday afirmando que “en los últimos años, la cultura y los procesos de seguridad han cambiado”. pasado a un segundo plano frente a productos brillantes” en OpenAI. También expresó su preocupación de que la empresa no estuviera dedicando suficientes recursos a prepararse para una posible futura “inteligencia general artificial” (AGI) que podría ser más inteligente que los humanos.
Altman respondió rápidamente diciendo que apreciaba el compromiso de Leike con la “cultura de seguridad” y agregó: “Tiene razón, tenemos mucho más por hacer; estamos comprometidos a hacerlo”. La compañía también confirmó a CNN que en las últimas semanas había comenzado a disolver el equipo dirigido por Leike y, en cambio, estaba integrando miembros del equipo en sus diversos grupos de investigación. Un portavoz de la compañía dijo que esa estructura ayudaría a OpenAI a lograr mejor sus objetivos de seguridad.
El presidente de OpenAI, Greg Brockman, respondió en una publicación más larga el sábado, firmada tanto con su nombre como con el de Altman, en el que expone el enfoque de la compañía hacia la seguridad de la IA a largo plazo.
“Hemos creado conciencia sobre los riesgos y oportunidades de la AGI para que el mundo pueda prepararse mejor”, dijo Brockman. “Hemos demostrado repetidamente las increíbles posibilidades que ofrece la ampliación del aprendizaje profundo y hemos analizado sus implicaciones; pidió una gobernanza internacional de AGI antes de que tales llamados fueran populares; y ayudó a ser pionero en la ciencia de evaluar sistemas de IA para detectar riesgos catastróficos”.
Añadió que a medida que la IA se vuelve más inteligente y se integra más con la vida diaria de los humanos, la compañía se concentra en implementar “un circuito de retroalimentación muy estrecho, pruebas rigurosas, consideración cuidadosa en cada paso, seguridad de clase mundial y armonía de seguridad y capacidades”.