Luego de que en la plataforma se den casos de suicidios transmitidos en vivo, Facebook anunció nuevos recursos y herramientas de inteligencia artificial (IA)  en Facebook Live y en Messenger, para prevenir casos de suicidio y así "ayudar a construir una comunidad más segura tanto fuera como dentro de la plataforma". 

La red social incorporará herramientas de prevención en tiempo real en Facebook Live, soporte online por parte de organizaciones especializadas a través de Messenger, y patrones de reconocimiento asistidos por IA para identificar publicaciones que incluyan "expresiones de suicidio", anunció Facebook en su blog. 

La plataforma ya ofrece la posibilidad de que los usuarios reporten a su equipo especializado (disponible las 24 horas) cuando alguno de sus contactos publica un contenido que le resulta preocupante, respecto de su salud o estado de ánimo. Asimismo, sugiere una línea de ayuda y da consejos y recursos para las personas que expresen pensamientos suicidas dentro de la plataforma.

La novedad es que ahora las herramientas de prevención de suicidio para publicaciones serán integradas a los sistemas de comunicación en tiempo real, de manera tal que quienes miren un video en vivo tendrán la opción de contactarse directamente con la persona y reportar ese contenido al equipo especializado de la plataforma.

Asimismo, la red social proveerá recursos a las personas que reporten el video en vivo para asistirlas en la ayuda que puedan darle a su amigo. Los usuarios que compartan un video en vivo tendrán, además, una serie de recursos en sus pantallas: podrán elegir contactarse con un amigo, acudir a una línea de ayuda o ver consejos.

En relación con la inteligencia artificial, Facebook está probando un proceso de reporte que usa patrones de reconocimiento previamente reportados por suicidio, basados también en la experiencia de su equipo de especialistas.