NEGOCIOS

La herramienta de Facebook para detectar conductas suicidas y contenido terrorista

Estas herramientas usan patrones de reconocimiento para detectar señales de alerta.

30/11/2017 11:51 AM CST | Actualizado 30/11/2017 12:06 PM CST
.
.

En plena polémica sobre la inteligencia artificial, Facebook reveló que está usando esa tecnología para detectar y prevenir dos graves problemas en el mundo a través de esa red social: el suicidio y la propagación de contenidos terroristas.

En un post en Facebook, el fundador de la compañía, Mark Zuckerberg, dijo que actualizarían sus herramientas de inteligencia artificial (AI, por sus siglas en inglés) para detectar a las personas que han expresado pensamientos suicidas en la plataforma y brindarles ayuda.

Estas herramientas usan patrones de reconocimiento para detectar señales de alerta -como comentarios en los que se hacen preguntas como ¿estás bien? - para después redirigirlas a un equipo de Facebook especializado en la prevención de suicidio.

Durante este año, Facebook ha ido anunciado distintas mejoraras a sus herramientas y protocolos de detección de usuarios con pensamientos suicidas. Cada 40 segundos hay una muerte por suicidio en el mundo, la mayoría de jóvenes entre 15 y 19 años, grupo en el que representa la segunda causa de mortalidad.

Zuckerberg aprovechó el anuncio para defender la postura que lo subió al cuadrilátero de las redes sociales con el fundador de Tesla, Elon Musk, sobre el uso de inteligencia artificial.

"Con todo el miedo que hay sobre cómo la AI puede ser dañina en el futuro, es bueno recordarnos que AI, de hecho, está ayudando a salvar vidas hoy", publicó.

El polémico debate entre los dos gigantes de la tecnología se desató en julio, cuando Musk dijo que la AI era una "amenaza a la existencia" de la civilización y exhortó a gobernantes en Estados Unidos a regularla. Zuckerberg dijo que eran declaraciones "irresponsables".

En un post por separado, Facebook también informó que usarían herramientas de IA para detectar y eliminar contenido que incite al terrorismo.

"El 99% del contenido terrorista relacionado con ISIS y Al Qaeda que eliminamos de Facebook es contenido que detectamos antes de que alguien en nuestra comunidad lo haya reportado y, en algunos casos, antes de que se publique en el sitio", informó la compañía en su blog oficial.

Para detectar estos contenidos usan sistemas automatizados que analizan fotos y video para encontrar coincidencias y, también, un machine learning (aprendizaje automático) para texto.

"Una vez que encontramos el contenido terrorista, eliminamos el 83% de las copias que fueron cargadas en la hora posterior a la publicación", informó la empresa.

Facebook y otras redes sociales, como Twitter, ha sido criticadas por participar indirectamente en la propagación masiva de contenidos como videos y post que incitan a cometer actos terroristas, a pesar de que han implementado herramientas para filtrar esta información.