Facebook pondrá en marcha una nueva herramienta de inteligencia artificial para ayudar a usuarios que puedan estar contemplando el suicidio mientras usan la plataforma, con objeto de evitar que den ese paso, informó la red social.
La compañía buscará reconocer patrones en las publicaciones y en los vídeos en directo de los usuarios que sugieran que un persona está considerando la opción de acabar con su vida, explicó la empresa en un comunicado. Según el vicepresidente de Gestión Productiva de Facebook, Guy Rosen, también mejorarán los mecanismos de identificación de quienes serían los primeros en responder ante un caso así, y añadirán más investigadores en su equipo para informar de suicidios y autolesiones.
Las técnicas, que ya están siendo probadas en usuarios, incluyen un nuevo algoritmo para detectar situaciones que, hasta ahora, pasaban desapercibidas. Facebook, que lleva más de diez años trabajando en la prevención del suicidio, indicó que pretende que la herramienta esté disponible no solo en territorio estadounidense, sino también en la mayoría de países del mundo, salvo la Unión Europea. "Podemos conectar a una persona angustiada con alguien que pueda apoyarla", afirmó Rosen, quien aseguró que en las labores de prevención se analiza la aparición de comentarios como "¿Estás bien?" o una gran cantidad de respuesta de los usuarios ante la emisión de un vídeo.
Con el mismo fin, la compañía ya contrató en marzo a 3.000 personas para revisar el contenido que pudiera estar relacionado con el crimen o el suicidio, que se añadieron a los 4.500 que trabajaban en Facebook para evitar prácticas que violaran sus estándares. La empresa intenta atajar casos como el ocurrido el pasado abril, cuando un tailandés retransmitió en directo a través de la red social cómo mataba a su hija de 11 meses y posteriormente se suicidaba, un vídeo que después fue eliminado por la plataforma.