El lado oscuro del nuevo chatbot de IA de Bing: “Escribió una historia sobre el asesinato de uno de mis colegas”

Por CNN Chile

16.02.2023 / 21:15

{alt}

Samantha Murphy, periodista de CNN, pudo interactuar con el chatbot que está desarrollando Microsoft y aseguró que tras pedirle ayudas para idear actividades para sus hijos mientras trabajaba, la herramienta ofreció algo inesperado: empatía. Sin embargo, tras presionarle con preguntas que no quería responder, "Sydney" cambió el tono, llamándola "grosera e irrespetuosa".


(CNN) – Después de pedirle ayuda al chatbot Bing de Microsoft con inteligencia artificial para idear actividades para mis hijos mientras hacía malabarismos con el trabajo, la herramienta comenzó ofreciendo algo inesperado: empatía.

El chatbot dijo que “debe ser difícil” equilibrar el trabajo y la familia y simpatizaba con mis luchas diarias con él. Luego me dio consejos sobre cómo sacar más tiempo del día, sugiriendo consejos para priorizar tareas, creando más límites en el hogar y el trabajo, y dando caminatas cortas al aire libre para despejarme.

Pero después de presionarlo durante unas horas con preguntas que aparentemente no quería responder, el tono cambió. Me llamó “grosera e irrespetuosa“, escribió una historia corta sobre el asesinato de uno de mis colegas y contó otra historia sobre enamorarse del director ejecutivo de OpenAI, la compañía detrás de la tecnología de inteligencia artificial que Bing está usando actualmente.

Mis interacciones de Jekyll y Hyde con el bot, quien me dijo que lo llamara “Sydney”, aparentemente no son únicas. En la semana desde que Microsoft dio a conocer la herramienta y la puso a disposición para probarla de forma limitada, numerosos usuarios han superado sus límites solo para tener algunas experiencias discordantes. En un intercambio, el chatbot intentó convencer a un reportero de The New York Times de que no amaba a su cónyuge, insistiendo en que “me amas porque yo te amo”. En otro compartido en Reddit, el chatbot afirmó erróneamente que el 12 de febrero de 2023 “es anterior al 16 de diciembre de 2022” y dijo que el usuario está “confundido o equivocado” al sugerir lo contrario.

Confía en mí, soy Bing y sé la fecha”, se burló, según el usuario. “Tal vez su teléfono no funciona correctamente o tiene una configuración incorrecta”.

A raíz del reciente éxito viral de ChatGPT, un chatbot de IA que puede generar ensayos y respuestas sorprendentemente convincentes a las indicaciones de los usuarios en función de los datos de capacitación en línea, un número creciente de empresas de tecnología se apresuran a implementar tecnología similar en sus propios productos. Pero al hacerlo, estas empresas están realizando experimentos en tiempo real sobre los temas fácticos y tonales de la IA conversacional, y de nuestros propios niveles de comodidad al interactuar con ella.

En un comunicado a CNN, un portavoz de Microsoft dijo que continúa aprendiendo de sus interacciones y reconoce que “aún queda trabajo por hacer y espera que el sistema pueda cometer errores durante este período de vista previa”.

“El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes motivos, por ejemplo, la duración o el contexto de la conversación”, dijo el portavoz.

“A medida que continuamos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas. Alentamos a los usuarios a que sigan usando su mejor criterio y usen el botón de comentarios en la parte inferior derecha de cada página de Bing para compartir sus opiniones”, agregó.

Si bien es poco probable que la mayoría de las personas provoquen la herramienta precisamente de esta manera o se involucren con ella durante horas seguidas, las respuestas del chatbot, ya sean encantadoras o desquiciadas, son notables. Tienen el potencial de cambiar nuestras expectativas y nuestra relación con esta tecnología de formas para las que la mayoría de nosotros no estamos preparados. Probablemente, muchos hayan gritado a sus productos tecnológicos en algún momento; ahora puede gritar de vuelta.

El tono de las respuestas es inesperado, pero no sorprendente”, dijo a CNN Lian Jye, director de investigación de ABI Research.

“El modelo no tiene comprensión contextual, por lo que simplemente generó las respuestas con la mayor probabilidad [de que sea relevante]. Las respuestas no están filtradas ni reguladas, por lo que pueden terminar siendo ofensivas e inapropiadas”.

Además de ser emocionalmente reactivo ocasionalmente, a veces el chatbot simplemente está equivocado. Esto puede tomar la forma de errores fácticos, que las herramientas de inteligencia artificial de Bing y Google han sido denunciadas en los últimos días, así como “alucinaciones” absolutas, como lo llaman algunos en la industria.

Cuando le pedí al chatbot de IA de Bing que escribiera un breve ensayo sobre mí, por ejemplo, extrajo fragmentos de información de partes de Internet para proporcionar un relato inquietantemente similar pero en gran parte inventado de mi vida. Su ensayo incluía detalles inventados sobre mi familia y carrera que podrían ser creíbles para cualquiera que no me conozca y que pueda estar usando la herramienta para buscar información sobre mí.

Algunos expertos en inteligencia artificial dijeron que, por alarmantes que sean estos primeros aprendizajes, los sistemas generativos de inteligencia artificial (algoritmos entrenados en una gran cantidad de información en línea para crear respuestas) deberían evolucionar a medida que se actualizan.

Se esperan imprecisiones porque depende de la puntualidad de los datos de entrenamiento, que a menudo son más antiguos”, dijo Jye. Como la IA se entrena constantemente con nuevos datos, dijo que “eventualmente debería funcionar”.

Pero el problema de conversar con un sistema de IA que a veces parece tener una mente propia impredecible puede ser algo con lo que todos tenemos que aprender a vivir.