La investigadora del IES reflexiona tras la solicitud de detener el desarrollo de sistemas que usan inteligencia artificial. "Una moratoria o regulación en la materia pueden ayudar en cierta medida a subsanar o atenuar los potenciales efectos negativos del uso de IA, pero no solucionarán como por arte de magia el problema del uso responsable de las nuevas tecnologías", comenta.
Personalidades de todo el mundo, de disímil carácter y motivaciones, entre los que destacan el empresario Elon Musk y el historiador Yuval Noah Harari, firmaron una carta pidiendo que se detenga el desarrollo de sistemas que usan inteligencia artificial por seis meses. ¿La razón de esta pausa o moratoria? Algunos sistemas son tan poderosos que podrían causar problemas graves para la sociedad y la humanidad. De ahí la necesidad de una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.
Como era de esperarse, la propuesta de una moratoria en IA ha generado un debate entre quienes apoyan y quienes critican la medida. Para los primeros, es una oportunidad para mitigar los riesgos e impactos negativos que ha suscitado la IA, tales como la desinformación (sesgos), la automatización masiva (desempleo), la amenaza a la democracia (intervención electoral), supervigilancia social, aumento de delitos cibernéticos y plagio, entre otros. Para los segundos, las moratorias son soluciones poco realistas e ineficaces, que desvían la atención de los problemas reales de la IA y que pueden frenar el progreso científico y tecnológico.
Una de las razones que preocupa a diversos actores es la velocidad a la que se están desplegando herramientas basadas en inteligencia artificial generativa, esto es, aquella capaz de crear textos, imágenes o música a partir de una serie de instrucciones. Sin ir más lejos, en la presentación que hizo la empresa desarrolladora de ChatGPT-4, se realizó una demostración de cómo podía redactar demandas judiciales, aprobar exámenes estandarizados y hasta crear un sitio web funcional a partir de un boceto dibujado a mano. ¿Qué hacer frente a esto?
Italia, por ejemplo, ha optado por una medida más drástica prohibiendo, con efecto inmediato, el uso de ChatGPT por violar la normativa de protección de datos de los consumidores, suspensión que se levantará cuando demuestre que cumple la normativa italiana sobre privacidad. Ahora bien, más que prohibir el uso de este chatbot (u otras aplicaciones que puedan considerarse potencialmente peligrosas), parece más razonable adoptar una posición distinta, que busque desarrollar un marco regulatorio para garantizar la seguridad de los seres humanos ante el rápido avance de estas nuevas tecnologías. Esto no implica desconocer que hay una serie de preocupaciones comunes que ya todos hemos escuchado, como las relativas a empleos que desaparecen, pero junto a eso tenemos que estar muy atentos a preguntas de fondo que no suelen aparecer en la conversación: ¿Qué es comprender? ¿Puede una máquina hacer eso?
En cuanto a una normativa, es deseable que distintos países promuevan la redacción de nuevos instrumentos internacionales para regular el uso y aplicación de la IA, como la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO y el primer informe mundial de la OMS sobre IA aplicada a la salud, que se centra en el potencial de esta para mejorar la salud y el bienestar de las personas. Otra iniciativa es fomentar la creación de mecanismos de gobierno y supervisión que involucren a todos los actores relevantes, y la promoción de la educación y la capacitación en ética e IA tanto para sus desarrolladores y usuarios, así como para el público en general. Lo anterior con el objetivo de fomentar una cultura de responsabilidad y conciencia crítica en el uso de estas aplicaciones.
Una moratoria o regulación en la materia pueden ayudar en cierta medida a subsanar o atenuar los potenciales efectos negativos del uso de IA, pero no solucionarán como por arte de magia el problema del uso responsable de las nuevas tecnologías. El avance de la técnica va más rápido que cualquier regulación, por lo que el peligro de quedar obsoleta en el corto plazo es inevitable. Sin embargo, aun cuando ChatGPT o la IA impliquen un salto cuántico como lo fueron en su momento la electricidad, el computador personal o internet, es solo eso: una nueva tecnología al servicio del hombre.