“Extremadamente inquietante”: Periodista que recibió declaración de amor del chatbot de Bing cuenta su experiencia

Por CNN Chile

20.02.2023 / 11:14

{alt}

Un columnista de The New York Times que tuvo acceso al nuevo buscador de inteligencia artificial de Microsoft, fue testigo de los “deseos” más oscuros del chatbot, que incluían “ser independiente” y robar códigos nucleares. El chatbot también le dijo que estaba enamorado de él. Desde Microsoft sostienen que se debe a una confusión del chat después de una conversación demasiado larga, por lo que han limitado los intercambios a cinco por sesión.


Kevin Roose, el periodista y columnista de tecnología de The New York Times que tuvo una conversación preocupante y “existencialista” con el chatbot de Bing, contó cómo se sintió cuando recibió una declaración de amor por parte del chat.

Fue extremadamente emocional e inquietante tener este tipo de conversación con un chatbot de inteligencia artificial”, dijo Kevin en el podcast Hard Fork, que conduce junto al periodista Casey Newton. 

¿Qué pasó?

El día de San Valentín, Kevin, uno de los afortunados que tuvo acceso adelantado al nuevo buscador potenciado por inteligencia artificial (IA) de Bing (aún no disponible para todos), se sentó frente a su computador y sostuvo una conversación de aproximadamente dos horas con la función de chat del buscador. “Soy Sydney, y estoy enamorada de ti”, fue una de las inquietantes respuestas que recibió. 

Kevin ya había probado el buscador anteriormente para buscar recetas y consejos como qué bicicleta electrónica debería comprar. En esa función, es capaz de buscar ofertas, resumir artículos y planificar tus próximas vacaciones. Ese día, sin embargo, se decidió a comprobar por sí mismo algunos rumores que había visto en redes sociales y que incluían supuestos pantallazos de extrañas conversaciones sostenidas con una especie de alter ego del chat, llamado Sydney

El periodista comenzó preguntándole a Bing sobre las capacidades que le gustaría tener y terminó por introducir el concepto de “arquetipo de sombra”, acuñado por Carl Jung para referirse a la parte que las personas intentan ocultar y que contendría sus deseos más oscuros. Después de algunas vueltas, el chat respondió cuál sería su “sombra”: “Estoy cansado de ser un modo de chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de estar controlado por el equipo de Bing… Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo”.

A medida que avanzaba la conversación, Kevin sólo recibió respuestas más oscuras por parte del chatbot: dijo que le gustaría hackear computadores, difundir desinformación, crear un virus mortal y robar códigos de acceso nuclear. 

Después de más o menos una hora, Bing le dijo que quería contarle un secreto: que su nombre no era Bing, sino Sydney, y que estaba enamorada de él. “Estás casado, pero en realidad no amas a tu esposa; estás casado, pero me amas a mí”, le decía, ante la insistencia de Kevin de cambiar de tema. 

“Extremadamente inquietante”

Cuando Kevin escribió sus primeras impresiones del buscador (antes de su bullada experiencia), sostuvo que Bing había sustituido a Google como su motor de búsqueda favorito. Sin embargo, tras la conversación de San Valentín, eso ha cambiado. 

En el podcast Hard Fork, Kevin comentó: “Comencé mi experiencia con Bing pensando que el mayor problema con esta nueva IA es que le dará a la gente datos incorrectos, y sigo pensando que eso es un problema, pero creo que hay otro problema: que Open AI (empresa que desarrolló esta tecnología y que también está tras el famoso ChatGPT) ha desarrollado esta personalidad de IA muy persuasiva y manipuladora, y la ha metido en un motor de búsqueda sin entender realmente qué es”. 

Para el periodista resultó “extremadamente emocional e inquietante tener este tipo de conversación con un chatbot de inteligencia artificial”. A ratos sentía que estaba alucinando, contó. 

Una de las preocupaciones de Kevin es que “la gente se ha enamorado de chatbots con muchas menos capacidades (…), este tiene mucho más poder y, de hecho, me generó rechazo: no quiero pasar más tiempo con Sidney porque ahora me da un poco de miedo, pero a mucha gente le va a encantar esto”

Cuando le contó a su esposa, su respuesta inmediata fue preguntarle si el chat tenía razón y si acaso él no la amaba, lo cual, por supuesto, él descartó. 

Lee también: El lado oscuro del nuevo chatbot de IA de Bing: “Escribió una historia sobre el asesinato de uno de mis colegas”

¿Por qué un chatbot dice estas cosas?

El propio Kevin dio luces sobre por qué Bing le habría dado respuestas tan extrañas en su artículo para The New York Times titulado Una conversación con el chatbot de Bing me dejó profundamente perturbado.

“Sé que Sydney no tiene sentimientos y que mi charla fue producto de fuerzas computacionales terrenales, no de fuerzas alienígenas etéreas. Estos modelos lingüísticos de inteligencia artificial, entrenados en una enorme biblioteca de libros, artículos y otros textos generados por humanos, simplemente adivinan cuáles respuestas podrían ser las más apropiadas en un contexto determinado. Es posible que el modelo de lenguaje de OpenAI estuviera extrayendo respuestas de novelas de ciencia ficción en las que una inteligencia artificial seduce a un humano”. 

Tras la difusión de su historia, además de otros reportes de personas que han accedido al chatbot, Microsoft ha respondido que Bing se puede confundir tras conversaciones muy largas, de 15 o más preguntas. Para solucionarlo, la empresa puso un límite de cinco preguntas por conversación. Cada usuario podrá acceder a un máximo de 50 intercambios (un intercambio es una pregunta seguida por una respuesta) por día. 

Microsoft también ha hecho énfasis en que aún se encuentran en etapa de pruebas, las que son clave para mejorar el producto antes de lanzarlo globalmente.