Inicio Noticias Crean una herramienta para proteger las fotos y engañar a los programas...

Crean una herramienta para proteger las fotos y engañar a los programas de reconocimiento facial

0

La tecnología altera los píxeles de las fotografías para que no puedan ser reconocidas por algoritmos, pero no tanto como para ser perceptible por el ojo humano.

Investigadores estadounidenses del laboratorio SAND de la Universidad de Chicago han desarrollado una nueva herramienta capaz de modificar fotografías de manera imperceptible, para que no puedan ser utilizadas de una manera no deseada.

Denominada Fawkes —nombre que proviene de Guy Fawkes, el rostro de la máscara de ‘V de Vendetta’— se trata de un programa informático que altera ligeramente los píxeles de la imagen, logrando así evitar el reconocimiento facial que utilizan muchas plataformas.

Estos cambios son invisibles para el ojo humano, pero si alguien intenta usar la imagen modificada por Fawkes en su modelo de reconocimiento facial, recibirá «una versión altamente distorsionada» del original, explican los desarrolladores.

Los creadores de la tecnología aseguran que durante los ensayos ha demostrado una efectividad del 100 % contra algunos de los sistemas de reconocimiento facial más avanzados, incluidos Microsoft Azure Face API, Amazon Rekognition y Face++, de la compañía tecnológica china Megvii. «El nivel de protección variará según su disposición a tolerar pequeños ajustes en sus fotos», describieron los científicos.

El código fuente de Fawkes está disponible en GitHub, y los desarrolladores también compartieron enlaces a los archivos binarios para Mac, Windows y Linux.

El equipo destacó que no tiene planes de lanzar ninguna aplicación para teléfonos inteligentes, ya que la potencia que requiere Fawkes es tan grande que «sería un desafío» incluso para los dispositivos móviles «más potentes».

¿Por qué hay preocuparse por el reconocimiento facial?

Muchas empresas tecnológicas apuestan por los sistemas de reconocimiento facial como uno de los métodos más fiables para verificar la identidad de los usuarios. Por ejemplo, a la hora de desbloquear dispositivos digitales, bien sea un teléfono móvil o un ordenador. Sin embargo, no todos estos sistemas son tan invulnerables como parece.

En enero pasado se dio a conocer sobre la empresa de reconocimiento facial Clearview AI, que tiene una base de datos de más de 3.000 millones de fotografías extraídas de manera secreta de varias fuentes —entre ellas Facebook, YouTube e Instagram— y que provee servicios a más de 600 agencias de seguridad estadounidenses, además de numerosas compañías privadas.

«Clearview demuestra lo fácil que es crear herramientas invasivas para el monitoreo y el rastreo», afirmaron los creadores de Fawkes.

Paralelamente, señalaron que su nueva herramienta no es una respuesta específicamente a Clearview, pues creen que esa «es probablemente solo la punta (bastante grande) del iceberg«.

«Fawkes está diseñado para aumentar significativamente los costos de desarrollo y mantenimiento de modelos precisos para el reconocimiento facial a gran escala. Si podemos reducir la precisión de estos modelos para que no sean confiables, o forzar a los propietarios de los modelos a pagar costos significativos por persona para mantener la precisión, entonces habremos tenido mucho éxito», indicaron los desarrolladores.

Si te ha parecido interesante, ¡compártelo con tus amigos!

Exit mobile version