Facebook pondrá en marcha una nueva herramienta de inteligencia artificial que apunta a detectar y disuadir potenciales suicidios en usuarios mientras usan la plataforma, informó hoy.

La compañía buscará reconocer patrones en las publicaciones y en los videos en directo de los usuarios que sugieran que un persona está considerando la opción de acabar con su vida, tal como señaló la empresa en un comunicado difundido por EFE.

Según el vicepresidente de Gestión Productiva de Facebook, Guy Rosen, también mejorarán los mecanismos de identificación de quienes serían los primeros en responder ante un caso así, y añadirán más investigadores en su equipo para informar de suicidios y autolesiones.

Las técnicas, que ya están siendo probadas, incluyen un nuevo algoritmo para detectar situaciones que, hasta ahora, pasaban desapercibidas.

La red social indicó que pretende que la herramienta esté disponible no solo en territorio estadounidense, sino también en la mayoría de países del mundo, salvo la Unión Europea (UE).

"Podemos conectar a una persona angustiada con alguien que pueda apoyarla", afirmó Rosen, quien aseguró que en las labores de prevención se analizan la aparición de comentarios como "¿estás bien?" o una gran cantidad de respuesta de los usuarios ante la emisión de un vídeo.

Con el mismo fin, la compañía recordó que contrató en marzo a 3.000 personas para revisar el contenido que pudiera estar relacionado con el crimen o el suicidio, que se añadieron a los 4.500 que trabajaban en Facebook para evitar prácticas que violaran sus estándares.

La empresa intenta atajar casos como el ocurrido el pasado abril, cuando un tailandés retransmitió en directo a través de la red social cómo mataba a su hija de 11 meses y posteriormente se suicidaba, un video que después fue eliminado por la plataforma.