edición general
232 meneos
9879 clics
Unlabeled diseña prendas de vestir de camuflaje para evitar las cámaras de vigilancia con reconocimiento visual

Unlabeled diseña prendas de vestir de camuflaje para evitar las cámaras de vigilancia con reconocimiento visual

Los diseños son básicamente patrones de imágenes antagónicas que confunden a los algoritmos –especialmente al YOLOv2– evitando la clasificación, de modo que evita que el algoritmo con consigue marcar como tal a quien lleva esas prendas puestas en un alto porcentaje de los fotogramas. El resultado es como una «capa de invisibilidad» a lo Harry Potter, pero que funciona tal cual en ante las cámaras que hay en las calles y comercios.

| etiquetas: unlabeled , reconocimiento visual , cámaras de vigilancia
Corre el rumor que la ropa de Desigual también hace eso. No se sabe si por los diseños o por lo anodinas que son las profesoras que es la gente que la lleva.
#8 jajajaja cabron, vine a decir exactamente eso
La ciencia detrás de estos ataques:

arxiv.org/abs/1910.14667

La ciencia para evitar estos aques:

openreview.net/pdf?id=HyeaSkrYPH

Obviamente todo es super nuevo, pero es muy interesante. Los sistemas de reconocimiento de patrones en base a redes neuronales pueden ser engañados con patrones impresos en pegatinas o ropa. Las defensas contra esto todavía son muy rudimentarias, y puede que estemos al principio de un largo juego del gato y el ratón, ya que esto tiene incluso aplicaciones militares o de inteligencia en el futuro próximo.
#7 No es tan sencillo, porque para generar dichas pegatinas, y tener seguro que funcionarán básicamente necesitas saber que algoritmo usan y cómo ha aprendido la red que identifica los objetivos, si es posible tener acceso a ella.
#11 De sencillo no tiene nada, pero si pretendes quitarle peso al ataque, hay dos contra argumentos respecto a lo que comentas:

1. Nada nos hace pensar que sea necesariamente así, es decir, que el hecho de tener que crear patches para cada algoritmo en específico puede ser perfectamente una limitación del estado del arte del ataque.

2. Los sistemas de reconocimiento visual a escala industrial no van a ser hechos a mano. Sólo necesitarías engañar al algoritmo mas popular, el que sea, para…   » ver todo el comentario
#17 Un Real Decreto prohibiendo el uso de esas pegatinas y arreando.
#17 No pretendo quitarle peso, pero estas noticias suelen ser alarmistas.

1) Simplemente hay que probarlo, a mi me parece una limitación de los algoritmos actuales que conozco, hasta entrenando dos veces la misma red puede que aprenda cosas ligeramente diferentes y no sabes cómo te puede afectar eso.

2) No entiendo esto a qué va, de hecho diría que a escala industrial seguramente creen sus propios algoritmos , y en todo caso cada versión que salga del algoritmo es probable que no sea vulnerable a las mismas pegatinas.

No veo que sentido tiene tu ejemplo si justamente lo que se discute es que eso pueda pasar.
#3 Ataques adversarios?
En camisetas no se hasta que punto funcionarian CSV los grabo en JPG y la compresion quito el efecto, lo tuvo que grabar en PNG, compresion sin perdida.
#7 Yo creo que una GAN deberia aprender no ser engañada por ataques adversarios.
www.youtube.com/watch?v=lPyogLghTKo
Los diseños son básicamente patrones de imágenes antagónicas que confunden a los algoritmos –especialmente al YOLOv2

Yolo.v2?! en que estamos? en el 2016? :-S

Desde el año pasado está disponible la v4 y la v5 está actualmente en beta.
#3 Y aunque sea el v5, actualización de algoritmo y la ropa ya no hace nada.

#4 yo veo factible, incluso fácil que funcione bien con un algoritmo concreto. Tendrá sus redes neuronales y basta con buscar alguna combinación que los engañe. Pero veo casi imposible que la invisibilidad se mantenga para un gran número de algoritmos a la vez, y más difícil aún que no pueda ser sobrepasada con un mínimo entrenamiento del algoritmo y una actualización del mismo.
#3 y esperas que los gobiernos las tengan ya?

En 10 años a lo mejor
#24 Básicamente es llamar a una librería o a otra... :-S
#28 eso es un desarrollo de quizás medio millón de euros. :ffu:
Puro marketing. Ni de coña funciona.
#4 Lo veo más como propaganda anti-reconocimiento que otra cosa :-/
#13 la sensación de seguridad vende. preguntadle a securitas indirect y mierdas del mismo calibre.
esto lo veo de la misma forma: humo del rastrero
#4 al leer antes de ver el video pensé que se subiría de alguna forma algo más diferente. La chavala va con un abrigo abierto por la calle y con la cara totalmente destapada. Fake total. Imagino que más una crítica que otra cosa.
#6 #4 #1 Madre mia os falta el palillo en la boca.

Estas cosas funcionan (y alguna camiseta fea con imagenes estampadas también) por el funcionamiento del algoritmo de reconocimiento.
Si os dignais a sacaros el palillo de la boca y leeis un poco podeis comprobarlo vosotros mismos.

cdn-images-1.medium.com/max/1200/1*m8p5lhWdFDdapEFa2zUtIA.jpeg
github.com/erdos-ml/yolo-v3-object-detector


Os meto el negativo... por... por cuñados. ¡Es que os lo mereceis! xD
#14 #23 No se si funciona o no, pero ese video pura publicidad.
Motin de esquilache incoming. (vamos que si funcionan los querrán prohibir).
No funciona, con las botas blancas no cuela.
Que digo yo que no tardará en aprender que eso es una persona, sino menuda basura de IA.
Yo probaría con este traje www.amazon.com/-/es/Disfraz-de-doblador-para-adultos/dp/B00HOT2G98
#20 Doblador... :-S

Que sí, que sí... pero... doblador... :-|
increible la creatividad de algunos
Si te tomas una media a las 9 de la mañana, también confundes al algoritmo
DESIGUAL se va a hacer de oro
El dia que tengamos implantes cibernéticos  y alguien los hackee para que no podamos verle la cara llegará
Documental relacionadisimo con la noticia y realmente preocupante.

www.youtube.com/watch?v=ux547wpA0dc
Menudo fake.
#6 Tu si que sabes... en que bar estás?
Esto es bastante inútil a nivel práctico. El trasfondo es interesante, pero justamente los algoritmos de IA en muchos aspectos son cajas negras, no sabes que patrón funcionará bien para despistarlas porque no sabes a ciencia cierta qué ha aprendido para identificar a las que sí son caras. Lo que se hace es utilizar otra IA que genera patrones, y aprende a generarlos hasta que engaña a la otra.

Esto tiene algunos problemas:
1) Depende de qué algoritmo de reconocimiento usan, lo que funciona en…   » ver todo el comentario
#10 Los sistema de reconocimiento escalados a nivel industrial no estarán hechos a mano por científicos de datos adaptando cada caso. habrá unos científicos de datos en un lugar creando ciencia, y empresas bebiendo de las librerías mas populares para implementar sus sistemas.

Los exploits contra "stack-based buffer overflow" son completamente dependientes de la implementación del sistema operativo y del compilador, pero eso no los hace menos peligrosos ni poco populares. Durante…   » ver todo el comentario
#19 Más bien diría lo contrario, justamente a nivel industríal tendrán sus propias versiones de ese algoritmo, y efectivamente lo adaptarán a cada caso, otra cosa es que a lo mejor la tienda de la esquina use lo que pueda coger de internet a pelo.

Ehm, ok?

No es suficiente que la cambien cada pocos meses, cuando puedes actualizar la IA cada día. xD
Soy pro privacidad pero verás qué gracia te hace cuando el coche automático no te reconozca al cruzar
#15 Vistes al chiquillo de camuflaje y cobras el seguro :troll: O a la novia con la que quieres dejarlo y no sabes como decirselo
#18 jajajajajja. No lo había pensado. Porque no estaba bebiendo que si no lo hubiese echado todo
comentarios cerrados

menéame