Imagen tomada de PixaBay para ilustrar esta nota
Imagen tomada de PixaBay para ilustrar esta nota
Google lanzó una herramienta con inteligencia artificial para detectar la pornografía infantil (CSAM) y todo aquel contenido que haga referencia sexual a menores, ‘Content Safety API‘, y es 700 veces más eficiente que el software con el mismo fin, creado por Microsoft, PhotoDNA.
Frente a la inteligencia artificial, el trabajo humano ha venido devaluándose progresivamente, pero sigue siendo parte fundamental e irremplazable. Lo cierto es que no da abasto con problemáticas como la de la pornografía infantil, no solo en redes sociales sino en todos los rincones de Internet. Por este motivo, Google lanzó una herramienta para detectar el contenido delictivo con referencia al abuso sexual y pornografía con menores.
La compañía Google ha estado investigando desde el año 2000 en su lucha contra de la pornografía infantil o CSAM (en inglés: children sexual abuse material), en conjunto con entidades como Internet Watch Foundation, y hoy con el lanzamiento de esta herramienta, se gana un paso frente a la propagación del material sobre abuso sexual de menores.
El software PhotoDNA solo detecta el material que previamente ha sido marcado como prohibido por recursos humanos y es usado por las redes sociales Facebook y Twitter, mientras que la herramienta que fue lanzada por Google hoy, lunes 3 de septiembre, detecta el contenido ‘potencialmente’ delictivo en cuanto a menores.
2018-09-03
Golpe histórico al contrabando en Medellín: autoridades incautan 6 mil pares de tenis ilegales.
Paisas vence a Cimarrones 93-85, toma ventaja 2-0 en la final de la Liga de…
Impactante: ladrón sale de un matorral e intenta robar a pasajeros de taxi en el…
Debido a sus condiciones de salud, la señora no podía llevar a cabo tareas esenciales…
Adultos mayores y deportistas con discapacidad brillaron en los Primeros Juegos Metropolitanos de Medellín.