Martes, 23 Julio 2019 08:21

FaceApp en Argentina

FaceApp en Argentina Pagina 12
La aplicación FaceApp popularizó una tecnología cuyos riesgos se debaten en todo el mundo y que el Gobierno quiere hacer masiva en Argentina. La Afip la quiere para detectar al que traiga algo de más en la valija. El gobierno para saber quién anda en el subte, controlar las calles y liquidar la intimidad.
La noticia sobre el interés de la AFIP en aplicar un exótico sistema de reconocimiento facial, emocional y termo-corporal en el Aeropuerto de Ezeiza avivó una discusión que en este momento quizá pase desapercibida debajo de la urgente agenda electoral, pero que más temprano que tarde terminará de imponerse: ¿cuál es la conveniencia de este novedoso mecanismo utilizado cada vez más frecuentemente en nombre de la “seguridad”, pero a la vez violatorio de la intimidad personal y con alarmantes márgenes de error en todo el mundo?
El sistema de reconocimiento facial es el último grito de la moda por la tecnología aplicada a políticas de seguridad pública. En China, por ejemplo, se expandió a un ritmo acelerado, al punto que en estos días fue viral un video en el cual un hombre paga en un mercado sin dinero, tarjetas ni el celular, sino simplemente ingresando el monto y colocando su cara frente a una cámara que completa la operación. Argentina sigue estos pasos, sobre todo desde que el gobierno porteño comenzó a utilizar esta plataforma en abril para un programa de búsqueda de prófugos.
Un 81% de error
Sin embargo la flamante plataforma de vigilancia digital que tanto desvela a los halcones de la seguridad del mundo tiene un talón de Aquiles de momento irresoluble: el elevado margen de error. Lo cual es claramente un problema, pues un algoritmo que falla implica en este caso estampillar como culpable o sospechoso a quien no lo es.
Se abrió entonces una pregunta sobre cuál es el porcentaje de yerros “aceptables” para determinar la eficacia del sistema. Una publicación del MIT de Massachussets reveló que el mecanismo probado por la policía de Londres desde 2016 arrojaba un 81 por ciento de errores. Es decir, cuatro de cada cinco personas escaneadas como sospechosas finalmente no eran quienes las cámaras decían.
Derechos Humanos en peligro
Por eso, semanas atrás, el Consejo de Derechos Humanos de la ONU publicó un informe alarmante en el que pide suspender el uso, venta, transferencia de estos sistemas de vigilancia hasta tanto no se establezca una regulación que compense a todos los “actores”. El documento (a cargo del experto David Kaye), pide primeramente desarrollar “mecanismos públicos para aprobar y supervisar las tecnologías de vigilancia, el fortalecimiento de los controles a la exportación de dichos sistemas y la creación de herramientas legales de reparación”. Este último punto es acaso el más importante: mucho se habla sobre software, pero poco y nada de cada persona vulnerada en un amplio rango de injusticias (desde arrestos en vía pública hasta días de detención) producidas por un “error del sistema”. El informe, además, insta a dictar leyes en las que se responsabilice a las empresas por las consecuencias que puedan tener sus productos en la vulneración de derechos, cosa que hasta ahora no sucede.
El juguete de Bullrich
Exactamente a la inversa de lo que empieza a discutirse en un montón de estrados y foros, Argentina se vuelca hacia este dispositivo con una vehemencia atemorizante. En abril, el gobierno porteño anunció la instalación en la ciudad de trescientas cámaras rotativas basadas en esta plataforma, las cuales serían parte de una red de casi siete mil. La propia Ministra de Seguridad de la Nación, Patricia Bullrich, salió a defender la herramienta porque, según ella, ofrecería “enorme tranquilidad a la sociedad de que no está caminando al lado de un asesino, un pederasta, un pedófilo, o cualquier otro tipo de delito”.
El software le costó a la ciudad casi dos millones y medio de pesos por solo 17 meses de licencia. Las cámaras están ubicadas en estaciones de subte y de trenes y escanean rostros para cruzarlos con una base de datos confeccionada por fotos policiales. Aseguraron que el sistema detectaba rostros incluso con gorra y capucha, y hasta incluso cambios en la fisonomía como en la barba, por ejemplo. Desde el gobierno anunciaron que nadie iba a quedar detenido por error o sin justificación. Sin embargo tres semanas después una mujer fue capturada en el subte y llevada en esposas hasta una comisaría, donde permaneció un día porque el sistema la confundió con otra persona. Algo similar le ocurrió a una empleada doméstica en la estación de trenes de Constitución. Pero en esa instancia se desentienden desde el Ministerio de Seguridad: a pesar de que se trata de la “autoridad de aplicación” de este mecanismo de vigilancia, intentan explicar desde allí que simplemente le envían la información al Poder Judicial, quien finalmente decide si extiende la detención o dispone la liberación del “alertado".
Pero pesar de la falibilidad del mecanismo, Cambiemos profundiza su interés en el mismo y así lo hizo saber la AFIP a través del reciente llamado a licitación para adquirir un software que no solo coteje rostros “en vivo” con fotos de archivo, sino también la temperatura corporal y “emociones” como “ansiedad” o “preocupación”, tal como señala el pliego en ciernes. El mismo, aseguraron, sería utilizado en el Aeropuerto de Ezeiza con el fin “agilizar” los trámites en Migraciones.
La AFIP ya había desarrollado un dispositivo similar para gestionar o recuperar la clave fiscal con la que se opera en su página web a través del reconocimiento facial vía celular (aunque solo Android), aunque este nuevo propósito va más allá y es inevitablemente enlazado con el endurecimiento de las políticas migratorias argentinas. Lo cual (casualidad o no), sintoniza con acaso uno de los pocos discursos frontalmente ideológicos que en toda su larga carrera política se permitió confesar Miguel Pichetto, flamante aliado a la derecha de la coalición gobernante.
El anuncio puso a un montón de sectores y especialistas en la materia porque nuevamente se pone en discusión la falta de leyes, protocolos y controles que –curiosamente- vuelven inseguro un mecanismo promocionado en nombre de la seguridad. Además trascendió en simultáneo con la publicación de los primeros resultados del sistema que puso en marcha el gobierno porteño en abril. La idea de darle buena prensa al mecanismo va de la mano con la idea de ampliar su operatividad: “1043 prófugos a disposición de la justicia” fue el titular. Sin embargo, el dato fino es que solo 174 de ellos quedaron detenidos, un microuniverso que tiene mucho de delito común (45) pero bien poco de graves como homicidios (nueve) o delitos sexuales (ocho), que componen apenas el 2 por ciento del global.
Si el gobierno pretende darle sustancia a su proclama de “lucha contra las grandes mafias”, el sistema de reconocimiento facial no es por el momento el mejor de los ejemplos para ofrecer.
 
Leer 562 veces