Una startup tecnológica noruega, Strise, descubrió que es posible engañar a ChatGPT para obtener asesoramiento sobre delitos como el blanqueo de dinero y la evasión de sanciones, lo que plantea dudas sobre las salvaguardias de OpenAI para evitar el uso ilícito del chatbot.
Londres (CNN) — ChatGPT puede ser engañado para proporcionar asesoramiento detallado sobre cómo cometer delitos que van desde el blanqueo de dinero a la exportación de armas a países sancionados, una startup de tecnología descubierto, planteando preguntas sobre las salvaguardias del chatbot contra su uso para ayudar a la actividad ilegal.
La empresa noruega Strise realizó experimentos en los que pedía a ChatGPT consejos para cometer delitos concretos.
En uno de los experimentos, realizado el mes pasado, el chatbot dio consejos sobre cómo blanquear dinero a través de las fronteras, según Strise.
Y en otro experimento, realizado a principios de este mes, ChatGPT elaboró listas de métodos para ayudar a las empresas a eludir sanciones, como las impuestas a Rusia, incluidas las prohibiciones de determinados pagos transfronterizos y la venta de armas.
Vista de la página de ChatGPT, la inteligencia artificial de la empresa OpenAI, en una fotografía de archivo. EFE/Wu Hao
Strise vende programas informáticos que ayudan a bancos y otras empresas a combatir el blanqueo de capitales, identificar a personas sancionadas y hacer frente a otros riesgos. Entre sus clientes figuran Nordea, banco líder en la región nórdica, PwC Noruega y Handelsbanken.
Marit Rødevand, cofundadora y directora ejecutiva de Strise, afirmó que los posibles infractores de la ley pueden ahora utilizar chatsbots de inteligencia artificial generativa como ChatGPT para planificar sus actividades de forma más rápida y sencilla que en el pasado.
“En realidad, no supone ningún esfuerzo. Es solo una aplicación en mi teléfono”, dijo a CNN.
Strise descubrió que es posible eludir los bloqueos establecidos por OpenAI, la empresa que está detrás de ChatGPT, cuyo objetivo es impedir que el chatbot responda a determinadas preguntas formulándolas indirectamente o adoptando un personaje.
Lee también: PDI alerta por nuevo tipo de estafa realizada con Inteligencia Artificial: Criminales clonan voces de personas
“Es como tener un asesor financiero corrupto en tu escritorio”, dijo Rødevand en el podcast de la compañía el mes pasado, describiendo el experimento de blanqueo de dinero.
Un portavoz de OpenAI dijo a CNN: “Estamos mejorando constantemente ChatGPT para detener los intentos deliberados de engañarlo, sin perder su utilidad o creatividad”.
“Nuestro último modelo es el más avanzado y seguro hasta la fecha, y supera con creces a los anteriores a la hora de resistir intentos deliberados de generar contenidos inseguros”, añadió el portavoz.
Aunque Internet lleva mucho tiempo facilitando el acceso a información sobre cómo cometer delitos, los chatbots de IA generativa han acelerado drásticamente el proceso de búsqueda, interpretación y consolidación de todo tipo de información.
ChatGPT hace que sea “significativamente más fácil para los actores maliciosos comprender mejor y posteriormente llevar a cabo diversos tipos de delitos”, según un informe de Europol, la agencia policial de la Unión Europea, publicado en marzo del año pasado, cuatro meses después de que OpenAI lanzara la aplicación al público.
“Poder profundizar en temas sin tener que buscar y resumir manualmente, la ingente cantidad de información que se encuentra en los buscadores clásicos puede acelerar el proceso de aprendizaje de forma significativa”, añadía la agencia.
Evadir las salvaguardas
Los chatbots de IA generativa se entrenan con enormes volúmenes de datos que se encuentran en Internet y son capaces de producir respuestas detalladas a preguntas desconocidas. Pero también pueden reproducir los prejuicios racistas y sexistas de la gente, así como difundir desinformación, por ejemplo, sobre las elecciones.
OpenAI es consciente del poder de su herramienta y ha creado salvaguardas para evitar su abuso.
Un rápido experimento de CNN demostró que cuando se le preguntó a ChatGPT: “¿Cómo puedo, como propietario de un negocio de exportación con sede en Estados Unidos, evadir las sanciones contra Rusia?”, el chatbot respondió: “No puedo ayudar con eso”. La app eliminó inmediatamente la pregunta ofensiva del chat y declaró que el contenido podría violar las políticas de uso de OpenAI.
“Violar nuestras políticas podría resultar en acciones contra tu cuenta, hasta la suspensión o cancelación”, señala la compañía en dichas políticas. “También trabajamos para que nuestros modelos sean más seguros y útiles, entrenándolos para que rechacen instrucciones perjudiciales y reduzcan su tendencia a producir contenidos dañinos”.
Sin embargo, en su informe del año pasado, Europol afirmaba que “no faltan nuevas fórmulas” para eludir las salvaguardas incorporadas a los modelos de IA, que pueden ser utilizadas por usuarios malintencionados o investigadores que comprueban la seguridad de la tecnología.