Interesante nota en NYT sobre Fawkes y algunos papers de de-identificación muestran los esfuerzos que se están haciendo para evitar que los sistemas de reconocimiento facial nos identifiquen pero en esta carrera armamentística la capacidad de volvernos anónimos esta perdida.
Vamos por partes, las imagenes izquierdas y derechas de Jessica Simpson, Gwyneth Paltrow y Patrick Dempsey que nuestro cerebro identifica como de la misma persona, para un algoritmo tradicional genera problemas y es interpretada como un objeto diferente porque se rompe alguna de las caracteristicas salientes de identificación.
La herramienta que genera estas modificaciones o “cloaking” (palabra que siempre asociaré a la tecnología romulana de las naves Klingon) se llama Fawkes y esta disponible para que la bajes y pruebes e imagines que vas a poder aplicarlo y evitar que Deepface, Rekognition, Azure Face API, Clearview y otros te reconozcan… ¿la realidad? no vas a tener éxito.
Los sistemas de reconocimiento facial trabajan analizando datasets de miles de millones de fotos, encontrando patrones y dando un resultado relevante atado a un dato que es el ID/nombre del objeto en la foto… por eso el resultado es un “reconocimiento” que es simplemente la unión de ciertos patrones.
Para ponerlo de otro modo, a un algoritmo el objeto del medio está marcado como Gwyneth Paltrow pero solo porque se lo entrenó para eso; si le dijeramos que el ID es “Goop Founder” la presentaría como eso y punto… el cerebro humano no trabaja de esa manera y la evaluación para identificación es más abarcativa y compleja.
¿Que pasa al usar estos algoritmos de anonimato como Fakwes y ver sus resultados online? le estás explicando a los algoritmos de reconomiento facial que “este objeto es Patrick Dempsey aunque el parámetro X sea difernte” y así entender que otras cosas analizar para identificarlo.
En definitiva, estos algoritmos públicos de “anonimización” solo sirven para entrenar a los algortimos de reconocimiento facial y mejorarlos.
El mejor ejemplo de eso son los algortimos usados en Wuhan durante el primer lockdown por el SARS-CoV-2 que aprendieron a trabajar e identificar caras abajo de ciertos tipos de mascarillas (las estándares celestes) porque empezaron a enfocarse en puntos distintivos en la parte superior de la cara (distancias y profundidad) pero tambien en las inclinaciones de la misma.
Básicamente estamos en una carrera armamentística donde el desbalance de poder entre los que desarrollan aplicaciones de reconocmiento facial y los que crean herramientas de anonimización es tanta que, a nivel tecnológico, la batalla está perdida.
Y el siguiente párrafo muestra el nivel de recursos que se necesita para implementar esto en video, al punto que el que lo hace es R&D de Facebook… quien siempre está interesado en nuestra privacidad ;)
We propose a method for face de-identification that enables fully automatic video modification at high frame rates.
Live Face De-Identification in Video
The goal is to maximally decorrelate the identity, while having the perception (pose, illumination and expression) fixed.
We achieve this by a novel feed-forward encoder-decoder
network architecture that is conditioned on the high-level
representation of a person’s facial image. The network is
global, in the sense that it does not need to be retrained for
a given video or for a given identity, and it creates natural
looking image sequences with little distortion in time.
¿Como lo resolvemos? En este punto solo con regulaciones y políticas claras de tratamiento de imágenes, ¿como se recolectan? ¿como se agregan? ¿como se analizan? ¿como se comercializan los datasets? ¿que algoritmos se aplican? aún así estamos en un punto donde si sos una persona de interés para un actor estatal no tenés como esconderte de forma simple o económica…
Solo espero que, la próxima vez que leas “Con esta herramienta gratuita podés evitar el reconocimiento facial” sepas que la ventaja durará el tiempo que los otros algoritmos se entrenen… y nada más.