Facebook usará inteligencia artificial para prevenir suicidios

Por CNN Chile

29.11.2017 / 05:20

{alt}

La plataforma apuesta por herramientas que alertarán sobre las publicaciones de texto y video a nivel global.


(CNN Español) – Facebook aumenta sus esfuerzos automatizados para prevenir el suicidio.

El lunes, la popular red social anunció que está utilizando inteligencia artificial para identificar publicaciones, videos y transmisiones en vivo de Facebook Live que incluyan pensamientos o ideas suicidas.

También utilizará la misma tecnología para priorizar el orden en el que su equipo revisa los contenidos.

En marzo pasado, Facebook empezó a probar de manera limitada si sus esfuerzos de inteligencia artificial para prevenir el suicidio funcionaban con mensajes de texto en Estados Unidos.

La más reciente apuesta de la compañía incluirá las herramientas automáticas para alertar sobre las publicaciones de texto y video a nivel global, excepto por la Unión Europea donde las restricciones de privacidad de datos son diferentes a otras partes del mundo.

En un texto publicado en su blog, Facebook detalló cómo la inteligencia artificial busca patrones en las publicaciones que puedan contener referencias al suicidio o a las lesiones autoinflingidas. Pero, además de revisar lo que se haya publicado, la tecnología también rastreará los comentarios: según la compañía, frases como “¿estás bien?” o “¿puedo ayudar?” podrían ser un indicador de pensamientos suicidas.

Ahora, si el equipo revisa una publicación y determina que se necesita una intervención inmediata, Facebook entonces trabajaría con los equipos de emergencia para enviar ayuda. La red social también puede contactar a los usuarios en peligro a través de Facebook Messenger y enviarles recursos de asistencia, como enlaces a la Línea de Texto de Crisis, la Asociación Nacional de Trastornos de la Alimentación y la Línea Nacional de Prevención de Suicidio.

Además, la inteligencia artificial será utilizada por la compañía para garantizar que el equipo revise primero las publicaciones de quiénes están en mayor peligro.

La medida hace parte de un esfuerzo para apoyar aún más a los usuarios que están en riesgo. La plataforma también ha sido blanco de fuertes críticas por la función de Facebook Live, a través de la cual algunos usuarios han transmitido en vivo situaciones explícitas, incluido el suicidio.

La prueba que comenzó a principios de este año para evaluar la inteligencia artificial parece haber sido todo un éxito hasta ahora, de acuerdo Guy Rosen, vicepresidente de gestión de productos.

“Durante el último mes, hemos trabajado con personal de emergencia en más de 100 controles de bienestar, que están basados ​​en informes que recibimos a través de nuestros esfuerzos de detección proactiva”, explicó Rosen.

Sin embargo, cabe aclarar que ese número no incluye los reportes presentados por personas en la comunidad de Facebook. Los usuarios de la red social aún pueden informar posibles lesiones autoinflingidas a la plataforma directamente.

Esos mensajes pasan por el mismo análisis humano que aquellos señalados por las herramientas de inteligencia artificial.