Esta herramienta detecta si nuestras fotos de Flickr se han usado para entrenar algoritmos de reconocimiento facial

Compartir en facebook
Compartir en google
Compartir en twitter
Compartir en linkedin
Haga clic aquí para ver la página web original en www.xataka.com

Artículo seleccionado, original en www.xataka.com


Esta herramienta detecta si nuestras fotos de Flickr se han usado para entrenar algoritmos de reconocimiento facial

"Si eres usuario de Flickr y has subido fotos que contienen rostros u otra información biométrica entre 2004 y 2020, tus fotos pueden haber sido utilizadas para entrenar, probar o mejorar tecnologías de vigilancia de uso de inteligencia artificial para su en aplicaciones académicas, comerciales o relacionadas con la defensa ". Con esas palabras introducen Adam Harvey y Jules LaPlace "Exposing.ai", una herramienta que sirve para detectar precisamente eso: si tus fotos de Flickr forman parte de algún conjunto de datos de entrenamiento para algoritmos de inteligencia artificial.

La herramienta no es perfecta. Según explican sus creadores, Exposing.ai sirve para buscar fotos subidas a Flickr entre millones de imágenes, aunque solo funciona con datasets de acceso público que incluyeran 1) imágenes de Flickr y 2) metadatos, aunque en el futuro pretenden expandir la herramienta para analizar otros orígenes.

La tecnología de reconocimiento facial es cada día mejor ... gracias a que usan nuestras caras sin permiso

Así funciona Exposing.ai

Resultado

Exposing.ai se basa en megapixels.cc, que fue un proyecto similar con soporte de Mozilla. La herramienta permite buscar qué fotos de Flickr se han usado y en qué conjuntos de datos usando la URL de la imagen, el NSID, el usuario o un hashtag. Desde la web aseguran que no usan ningún tipo de reconocimiento facial para detectar las imágenes y que no recogen ninguna información de las búsquedas de los usuarios.

Actualmente Exposing.ai contiene seis datasets de imágenes con 3.630.582 imágenes en total. Los conjuntos de datos incluidos son DiveFace, FaceScrub, IJB, MegaFace (el más grande con diferente), PIPA y VGG. También tiene información sobre otros datases populares, como Lavar el cerebro, Duke MTMC, Microsoft Celebs, Centro de la ciudad o WildTrack, que o bien han sido descontinuados o bien están siendo investigados por posibles malas praxis.

La inteligencia artificial está agitando un mundo que no esperábamos: la religión

Si introducimos una búsqueda y la herramienta detecta un positivo, nos devolverá las imágenes en cuestión y el dataset del que forman parte, así como un pequeño resumen del dataset y los proyectos en los que se ha usado. Por ejemplo, en la imagen superior podemos ver que la búsqueda de un nombre de usuario nos devuelve 19 fotos que forman parte de MegaFace.

Desde Exposing.ai explican que "lamentablemente, no es posible eliminarse de las copias existentes de los conjuntos de datos en los que hayas sido incluido. Este es uno de los principales problemas de los conjuntos de datos de imágenes, que no se pueden controlar después de la distribución inicial ". Lo que sí podemos hacer es evitar que nuestras imágenes se muestren en la Exposing.ai. Para ello, simplemente hay que ir a Flickr y esconder, borrarlas o hacer privadas todas las fotos.

Más información | Exposing.ai

Comencemos una conversación

Este sitio web utiliza cookies para asegurar que usted obtenga la mejor experiencia en nuestro sitio web.