"Si bien la reacción natural frente a las nuevas tecnologías que incorporan inteligencia artificial, como es el caso del ChatGPT, es la desconfianza, en vez de paralizarnos frente a su uso, debemos interiorizarnos en qué consisten y educar (...) en los aspectos éticos involucrados que ilustramos", reflexionó la investigadora IES.
La Fundación del Español Urgente, ligada a la RAE, eligió el término “inteligencia artificial” (IA) como palabra del año 2022. Dicho reconocimiento se debe a que se trata de una “expresión compleja por su presencia en los medios de comunicación y las consecuencias éticas derivadas”. No se trata de un término nuevo: sus orígenes se remontan a 1950 con el Test de Turing, prueba para determinar si una máquina es capaz o no de exhibir un comportamiento inteligente similar al de un ser humano o indistinguible del mismo. Sin embargo, esta noción recién se incorporó al Diccionario de la Lengua Española en su edición de 1992, definiéndola como: “aquella disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico”.
Hoy en día el tema de la IA está presente en diversas áreas, abarcando desde sofisticados procesos de investigación en el análisis de datos, ciberseguridad, autos autónomos, hasta el área de la salud, por mencionar algunos ejemplos. Se trata de una tecnología que ya no está reservada solo a los especialistas, sino que nos puede acompañar en la vida cotidiana. Basta tener un teléfono inteligente para acceder a aplicaciones tales como Siri (asistente virtual), DALL.E2 (puede crear ilustraciones a partir de imágenes previas) o el ChatGPT (bot que con solo hacerle preguntas es capaz de redactar una carta, una poesía o un ensayo, entre otros). Veamos esta última aplicación.
El ChatGPT es un prototipo desarrollado por la empresa OpenAI (cofundada por Elon Musk), que se lanzó al mercado el 30 de noviembre de 2022. Se ha vuelto de moda, entre otras razones porque por el momento es gratuita, por lo fácil que resulta su uso y, sobre todo, por sus impresionantes resultados que desafían la capacidad humana. La cantidad de usuarios ha crecido de forma explosiva, con una velocidad similar a la de Instagram o TikTok.
No obstante, esta aplicación ha suscitado interrogantes por las consecuencias éticas que conlleva su uso: ¿Cómo evitar los sesgos? ¿Puede responder cualquier tipo de pregunta? (por ejemplo cómo ganar una elección, asaltar el Capitolio o realizar un hackeo). ¿Cómo evitar las fake news? (las respuestas dependen de las fuentes empleadas). ¿Cómo evitar el plagio? Y finalmente ¿qué ocurrirá con la capacidad del ser humano de desarrollar un pensamiento crítico?
Para ilustrar lo expuesto veamos el caso de su aplicación en el ámbito académico. La tentación de utilizar esta app para elaborar los trabajos que deben presentarse en el colegio o la universidad no se hizo esperar. Es cosa de probar el ChatGPT para ver el detalle de las respuestas y la dificultad que enfrentará un profesor o director de tesis para distinguir si el trabajo final lo hizo un humano o no. En Nueva York ya prohibieron el uso de esta (y otras) app en las salas de clases, basados en que los alumnos dejarían de esforzarse en buscar información, ordenar las ideas a través de un mapa mental, hacer una presentación y, por sobre todo, pensar. Está claro que la prohibición de su uso en clases no soluciona el tema de fondo, ya que una vez que los alumnos pongan un pie fuera del establecimiento escolar podrán tener acceso a esta y otras apps. Parece más razonable enseñarles cómo usar esta y otras tecnologías y hacerles ver los aspectos éticos involucrados, entre ellos el tema del plagio. Y esto puede hacerse extensivo a la vida laboral.
Otro ejemplo se puede dar en el contexto de la democracia, donde el uso de la inteligencia también plantea aspectos relacionados con la ética: los algoritmos de IA pueden estar sesgados contra ciertos grupos de personas (en base a su raza, religión o situación socioeconómica), lo que puede llevar a un trato o toma de decisiones injustos a la hora de elaborar políticas públicas. Si los datos utilizados para entrenar la IA están sesgados, pueden aumentar las desigualdades existentes.
En la misma línea, otra preocupación es que la IA pueda usarse para manipular o influir en la opinión pública, en la toma de decisiones políticas e incluso en intervenir las elecciones. Es cosa de recordar los casos más conocidos de Cambridge Analytica –empresa de manejo de datos– para la elección de Trump a la presidencia y su intervención para lograr el voto a favor del Brexit. Lo anterior puede conducir a una pérdida de autonomía y agencia por parte de los ciudadanos. Asimismo existen preocupaciones sobre la falta transparencia en el desarrollo y uso de la IA, lo que puede dificultar que las personas entiendan cómo se toman las decisiones y en la práctica quién se hace responsable en caso de que ocurran daños. Finalmente, existe la posibilidad de que la IA se use para monitorear y controlar a las personas, lo que plantea problemas relacionados con la privacidad y las libertades civiles (es cosa de recordar las discusiones suscitadas a raíz de la pandemia).
En definitiva, si bien la reacción natural frente a las nuevas tecnologías que incorporan inteligencia artificial, como es el caso del ChatGPT, es la desconfianza, en vez de paralizarnos frente a su uso, debemos interiorizarnos en qué consisten y educar (y educarnos) en los aspectos éticos involucrados que ilustramos. Que estas apps puedan llegar a sustituir la creatividad del ser humano, la capacidad de pensar o la deliberación propia de la esfera pública (y la vida política), debe ser motivo de reflexión. Un chat no puede sustituir la riqueza que supone el diálogo entre las personas, el uso y cuidado del lenguaje, en definitiva, la capacidad de comunicarnos mediante la palabra. No debemos olvidar, en último término, que la tecnología debe estar al servicio del hombre, y no servida por él.