Facebook abre para todos su tecnología que detecta violencia gráfica y fotos y videos similares

278
Facebook abre para todos su tecnología que detecta contenido nocivo.

La red social Facebook anunció el jueves el lanzamiento de dos tecnologías de código abierto para detectar videos y fotos similares o casi idénticos. También enfocadas en el contenido nocivo, explotación infantil, propaganda terrorista y violencia gráfica.

A través de un comunicado, la firma de Palo Alto, California, indicó que dispondrá los algoritmos en código abierto en la plataforma GitHub «para que nuestros socios de la industria, desarrolladores pequeños y organizaciones sin fines de lucro, puedan utilizarlos».

En casos en los que otros desarrolladores ya cuenten con su propia tecnología. Facebook anunció que podrán usar los códigos como una capa adicional de defensa.

Esta es la primera vez que Facebook comparte una tecnología de comparación de fotos o videos en código abierto; es decir que cualquiera puede utilizarlo, copiarlo y modificarlo.

“En solo un año, hemos sido testigos de un aumento del 541 por ciento en la cantidad de videos de abuso sexual infantil reportados por la industria tecnológica a CyberTipline.

Confiamos en que la generosa contribución de Facebook de esta tecnología de código abierto en última instancia conducirá a la identificación y rescate de más víctimas de abuso sexual infantil”, señaló el presidente del Centro Nacional de Niños Desaparecidos y Explotados.

La compañía también reveló que el esfuerzo hace parte de un compromiso de toda la industria; su objetivo es construir una internet más segura. En su comunicado revelaron que el anuncio acompaña a los proyectos de PhotoDNA, por parte de Microsoft. Esto en la lucha contra la explotación infantil, y el lanzamiento de la API de seguridad de contenido, hecho por Google.

Variedad de técnicas

Cuando identificamos propaganda terrorista en nuestras plataformas, la eliminamos. Tambien la analizamos utilizando una variedad de técnicas, incluidos los algoritmos que compartimos

«Cuando identificamos propaganda terrorista en nuestras plataformas, la eliminamos y la analizamos. Esto utilizando una variedad de técnicas, incluidos los algoritmos que compartimos hoy», explica Facebook. Detalla que después, esos ‘hashes’ se comparten con otros organismos a través de GIFCT; esto «para que también puedan eliminar el mismo contenido si aparece en alguno de sus servicios».

«Esperamos que al contribuir de nuevo a la comunidad, estaremos permitiendo que más compañías mantengan sus servicios seguros y empoderen a las organizaciones sin fines de lucro para que puedan trabajar en el espacio», puntualiza el comunicado de la red social. «Continuaremos expandiendo y mejorando nuestros propios productos y características. Esto para combatir este problema crítico», concluyen.