Social

Yahoo abre fuentes de su red neuronal de detección de NSFW

El modelo de red neuronal profunda Caffe de Yahoo (código Github) se centrará principalmente en imágenes pornográficas.

Yahoo, modelo de detección de pornografía de Yahoo, modelo de detección de pornografía de código abierto de yahoo, pornografía, nsfw, no apto para el trabajo, imágenes de nsfw, contenido de nsfw, nuevo modelo de detección de pornografía de yahoo, redes sociales, tecnología, noticias de tecnologíaEl modelo de red neuronal profunda Caffe de Yahoo (código Github) se enfocará principalmente en imágenes pornográficas.

Yahoo ha abierto su NSFW (no apto / seguro para el trabajo) que detecta la red neuronal, lo que permite a los desarrolladores trabajar para mejorar el algoritmo. Jay Mahadeokar y Gerry Pesavento de Yahoo explicaron en una entrada de blog que definir el material NSFW en Internet es subjetivo e identificar tales imágenes no es trivial. Dado que las imágenes y el contenido generado por el usuario dominan Internet en la actualidad, el filtrado de imágenes NSFW se convierte en un componente esencial de las aplicaciones web y móviles, dijeron.



Si bien los algoritmos clasifican automáticamente el contenido NSFW en gran medida; El modelo de red neuronal profunda Caffe de Yahoo (código Github) se enfocará principalmente en imágenes pornográficas. Jay y Gerry dicen que la identificación de bocetos, dibujos animados, texto, imágenes de violencia gráfica u otros tipos de contenido inadecuado de NSFW no se aborda con este modelo.



El modelo de Yahoo permitirá a los desarrolladores experimentar con un clasificador para la detección de NSFW y pueden proporcionar sus comentarios para mejorar todo el sistema. El modelo proporciona una puntuación a las imágenes que van desde la clasificación 0-1, que se puede utilizar como contenido NSFW. Los desarrolladores pueden usar esta puntuación para filtrar imágenes por debajo de un cierto umbral adecuado en función de una curva ROC para casos de uso específicos, o usar esta señal para clasificar las imágenes en los resultados de búsqueda, explica la publicación del blog.



Leer: El gobierno de EE. UU. Cede el control restante de Internet a la ICANN



Yahoo no revelará ninguna de las imágenes de entrenamiento ni otros detalles, teniendo en cuenta la naturaleza de los datos. Sin embargo, ha abierto el modelo de salida que pueden utilizar los desarrolladores para clasificar el contenido NSFW.