El panóptico porteño

La ciudad adopta tecnologías de vigilancia biométrica sin un marco legal sólido y sin consentimiento de los afectados

 

La ciudad autónoma de Buenos Aires se ha convertido en un campo de batalla central para definir los límites de la vigilancia en la era digital. En poco tiempo, el debate sobre el uso de la biometría y la inteligencia artificial por parte del gobierno porteño ha trascendido la esfera policial para incrustarse directamente en la gestión de recursos humanos y la agenda de seguridad.

Tres frentes de conflicto ilustran esta tensión de manera inequívoca: la exigencia de datos biométricos faciales a empleados públicos del gobierno de la ciudad para registrar el presentismo; la contratación de la empresa de vigilancia global Clearview AI por parte del Ministerio Público Fiscal; y el contundente precedente judicial de inconstitucionalidad que pesa sobre el fallido Sistema de Reconocimiento Facial de Prófugos (SRFP).

Estos casos, analizados de manera conjunta, no son incidentes aislados; configuran el mapa de una política de reconocimiento facial incipiente pero agresiva en la ciudad. Revelan una voluntad ejecutiva por priorizar la inversión tecnológica per se sin evaluar siquiera si esto implica eludir o minimizar principios constitucionales como la privacidad, la presunción de inocencia y el derecho a la no discriminación. La discusión ya no trata solo de tecnología, sino de la naturaleza del poder estatal en una democracia y el derecho del ciudadano a gozar de anonimato, tanto en su lugar de trabajo como en el espacio público.

 

Exigencia de datos biométricos a empleados

A partir del 17 de septiembre de 2025, el gobierno que encabeza Jorge Macri implementó un sistema de reconocimiento facial para el control de presentismo y acceso de los empleados públicos, reemplazando los métodos anteriores de huella digital y de ingreso por DNI. Este nuevo sistema requerirá que los empleados registren y revaliden sus datos biométricos faciales, especialmente para el ingreso al edificio Lezama (avenida Martín García 346).

Tanto la ley 1.845 como la resolución 4/2019 de la Agencia de Acceso a la Información Pública establecen que los datos biométricos se consideran datos personales sensibles cuando pueden revelar información adicional cuyo uso resulte potencialmente discriminatorio, como el origen racial o étnico o información referente a la salud.

El rostro, al ser procesado por algoritmos de reconocimiento facial, revela características fenotípicas —como la estructura ósea, la forma de la nariz y el tono de la piel— que están intrínsecamente ligadas al origen racial y étnico. Por lo tanto, su tratamiento se sitúa bajo el régimen de máxima protección de la ley.

El artículo 8 de la ley 1.845 establece categóricamente que “ninguna persona puede ser obligada a proporcionar datos sensibles”. Las únicas excepciones a esta prohibición son de interpretación muy restrictiva y se limitan a “razones de interés general autorizadas por ley”.

Aquí es donde la medida del gobierno porteño se desmorona: no existe ninguna ley aprobada por la Legislatura que obligue expresamente al empleado público a otorgar sus datos biométricos faciales para el control de presentismo.

Si bien la ley 471 obliga al Ejecutivo a controlar la jornada laboral, esta obligación es genérica y no otorga “carta blanca” para utilizar el método más invasivo. La nota que informó el cambio de sistema de control del presentismo no hizo referencia a ninguna ley ni acto administrativo que autorizara el reemplazo.

El gobierno no puede ampararse en el consentimiento del empleado para justificar la medida, ya que este sería jurídicamente inválido. Las leyes 25.326 y 1.845 exigen que el consentimiento sea “libre, expreso e informado”.

En la relación de empleo público, caracterizada por una asimetría estructural de poder, el consentimiento se considera “viciado” o afectado por un “temor reverencial”. La negativa a prestar consentimiento expone a los empleados públicos a consecuencias negativas, como la imposibilidad de fichar o acceder a su lugar de trabajo, lo que equivale a la amenaza de una sanción o a quedar cesante. El consentimiento no se otorga como una manifestación autónoma de la voluntad, sino como una respuesta a la presión derivada de la dependencia económica y laboral. Por otra parte, el consentimiento tampoco sería informado, ya que el GCBA no informó absolutamente nada con relación al nuevo sistema de control con reconocimiento facial que implementó.

Incluso si la medida no cayera bajo la prohibición de datos sensibles, contraviene el Principio de Calidad y Minimización de Datos (artículo 6, ley 1.845), que dispone que los datos personales recolectados deben ser “ciertos, adecuados, pertinentes y no excesivos en relación al ámbito y finalidad para los que se hubieren obtenido”.

La medida no supera tampoco el juicio de necesidad, que exige determinar si existen alternativas igualmente eficaces y menos lesivas. Existen múltiples alternativas suficientes y menos intrusivas para el control horario, incluyendo planillas manuales, tarjetas de proximidad, PINs o el sistema previo de huella dactilar. La existencia del sistema de huella digital previo demuestra que la medida facial es innecesaria y resulta excesiva.

La afectación al derecho fundamental a la privacidad es grave y desproporcionada. La “huella facial” es permanente e inalterable. Si la base de datos es comprometida, el daño es potencialmente catastrófico e irreparable para el individuo, ya que no puede “cambiar su rostro”. Este riesgo supera con creces el “beneficio marginal” que obtiene el GCBA, limitado a una mayor precisión horaria.

 

 

 

Clearview AI y el Ministerio Público Fiscal

El Ministerio Público Fiscal adquirió por contratación directa el sistema de reconocimiento facial Clearview Pro por 27.588 dólares (disposición 36/2025).

Clearview Pro es una herramienta de reconocimiento facial que combina la inteligencia artificial con un potente motor de búsqueda en fuentes abiertas. Su tecnología permite cotejar una fotografía con una base de datos que contiene millones de imágenes provenientes de páginas web, fichas policiales, redes sociales públicas y otras bases de datos provenientes de fuentes abiertas, sin consentimiento de quienes aparecen en ellas. Esa información es utilizada para entrenar algoritmos que luego cotejan rostros en investigaciones judiciales.

El software ofrece recursos simplificados que agrupan imágenes vinculadas entre sí, creando perfiles detallados que pueden descargarse para futuras investigaciones o tareas asociadas. En este sentido, su capacidad de archivo es complementaria al sistema integrado de búsquedas referenciadas.

La plataforma Clearview AI se distingue por la escala y el origen de su base de datos, que supera los 60.000 millones de imágenes faciales. El método para construir este repositorio es el web scraping (raspado web), una técnica de extracción masiva y automatizada de datos. La empresa recolecta imágenes “de la internet pública, incluyendo medios de comunicación, sitios web de fotos de prontuarios, redes sociales públicas y otras fuentes abiertas. Este proceso se realiza sin el conocimiento y, fundamentalmente, sin el consentimiento de los miles de millones de individuos cuyos rostros son indexados. Posteriormente, Clearview AI vende a sus clientes el acceso a esta base de datos a través de una licencia de software, permitiéndoles cotejar imágenes de sospechosos, víctimas o personas de interés contra su gigantesco archivo facial.

Aquí se plantea un conflicto legal y ético de magnitud exponencialmente mayor. El modelo de negocio de Clearview AI ha sido objeto de un intenso escrutinio legal y regulatorio a nivel mundial, resultando en múltiples condenas y sanciones.

En mayo de 2020, la autoridad francesa de protección de datos (CNIL) recibió denuncias sobre el uso del software de reconocimiento facial de Clearview AI. Se encontraron las siguientes infracciones: tratamiento ilegal de datos personales, no respeto de los derechos de los afectados y falta de cooperación con la autoridad. Se impuso a la empresa una multa de 20 millones de euros y la obligación de dejar de recopilar y procesar datos de personas en Francia sin base legal y borrar los datos ya recolectados. En Italia, el garante para la protección de datos personales le aplicó también una sanción de 20 millones de euros. La Autoridad de Protección de Datos de Grecia (Hellenic DPA) le impuso una multa de 20 millones de euros. En los Países Bajos la multaron con 30,5 millones de euros. En Austria se obligó a Clearview AI a borrar los datos personales del reclamante y nombrar un representante en la Unión Europea.

En una situación similar a la de Buenos Aires, la Autoridad de Protección de la Privacidad de Suecia (IMY) concluyó que la Policía sueca utilizó la aplicación Clearview AI para reconocimiento facial, en violación de la ley sueca de datos criminales. Detectó falta de cumplimiento de las obligaciones como responsable de datos personales, procesamiento ilegal de datos biométricos para reconocimiento facial, falta de realización de la evaluación de impacto en protección de datos (DPIA). Dispuso una multa administrativa de 2.500.000 coronas suecas (aproximadamente 250.000 euros).

En Bélgica, el Ministerio del Interior confirmó en octubre de 2021 que la Policía Federal belga utilizó los servicios de Clearview AI. A pesar de admitir el uso, el Ministerio del Interior también confirmó que la ley belga no lo permite y el organismo de control policial belga dictaminó que su uso era ilegal.

En el Reino Unido, el regulador independiente de protección de datos e información impuso a Clearview AI una multa de £7.552.800 y una orden para que la empresa deje de obtener y usar datos personales de residentes del Reino Unido disponibles públicamente en internet, y para que elimine dichos datos de sus sistemas.

En los Estados Unidos, la Unión Estadounidense por las Libertades Civiles (ACLU) inició una demanda emblemática que culminó en un acuerdo judicial en 2022. Dicho acuerdo prohíbe a Clearview AI vender su base de datos. La empresa enfrenta o ha enfrentado litigios en numerosos estados, convirtiéndose en un paria regulatorio en gran parte del mundo democrático.

En Australia, ordenaron a la compañía dejar de recopilar biometría facial y plantillas biométricas de personas en territorio australiano; además, debe destruir todas las imágenes y plantillas existentes que posee. En Canadá fueron tajantes al declarar que Clearview AI violaba el derecho a la privacidad de sus ciudadanos, y además, que este uso constituye vigilancia masiva.

La controversia en torno a Clearview AI no se limita a la legalidad de su modelo de negocio, sino que también abarca su seguridad. En 2020, la compañía sufrió una grave violación de datos que dio como resultado el robo y la exposición de su lista completa de clientes. Esta filtración reveló que más de 2.200 organizaciones en 27 países estaban utilizando sus servicios. Este incidente socavó de manera crítica las afirmaciones de la empresa sobre la seguridad y confidencialidad de la información que maneja.

La decisión del Ministerio Público Fiscal de la ciudad de contratar a esta empresa específica es profundamente cuestionable legalmente. No se está adquiriendo simplemente un software, sino el acceso a una base de datos masiva construida sobre la violación sistemática del principio de consentimiento, que es la piedra angular de la ley 25.326 en la Argentina. La ley exige el consentimiento informado del titular para la recolección y tratamiento de sus datos personales, especialmente los datos biométricos, que son considerados “sensibles” y gozan de una protección reforzada. El modelo de negocio de Clearview AI es la antítesis de este principio. Por lo tanto, el servicio contratado es, en su misma esencia, el fruto de una actividad que sería manifiestamente ilegal si se realizara en territorio argentino. Al contratarlo, el Ministerio Público Fiscal se convierte en beneficiario y cómplice de esta ilegalidad a escala global.

Esta contratación también plantea el riesgo de lo que podría denominarse “lavado de jurisdicción”. Al recurrir a una empresa extranjera que realiza la recolección de datos fuera de las fronteras argentinas, el Ministerio Público podría estar intentando eludir las restricciones de la legislación local. Una fuerza de seguridad argentina no podría legalmente crear una base de datos de 60.000 millones de rostros rastreando las redes sociales de ciudadanos sin violar la ley 25.326. Al pagar a Clearview AI, que ya ha realizado este trabajo (violando las leyes de otras jurisdicciones), el Ministerio Público obtiene el resultado final sin ejecutar directamente el acto ilegal de recolección. Esto abre un flanco para futuros litigios sobre la admisibilidad de cualquier prueba obtenida a través de este sistema.

El software de Clearview AI está destinado a un uso forense o post facto, es decir, para analizar imágenes que ya forman parte de una investigación judicial en curso.

La distinción entre “tiempo real” y “forense” se presenta como una falsa salvaguarda. Si bien la defensa de la nueva herramienta se centrará en que no es vigilancia masiva en tiempo real, esta diferenciación minimiza el peligro fundamental. El uso forense de una base de datos ilegítima convierte a toda persona con presencia en internet en un sospechoso perpetuo, permanentemente disponible en una “rueda de reconocimiento virtual” global. La protección a la privacidad no se agota en evitar ser vigilado en la calle; también incluye el derecho a que los datos biométricos propios no sean incorporados sin consentimiento a una base de datos de investigación criminal.

 

Reconocimiento Facial para la Búsqueda de Prófugos

 

 

El Sistema de Reconocimiento Facial de Prófugos (SRFP) comenzó a operar en abril de 2019 mediante una resolución ministerial (398/19), no a partir de la sanción de una ley. Su finalidad era específica: cotejar rostros con la base de datos de personas buscadas (CoNarC), que contenía cerca de 46.000 registros. La ley 6.339 de octubre de 2020 intentó darle un marco legal posterior, prohibiendo expresamente la incorporación de datos de personas no registradas en CONARC.

El escándalo estalló cuando la investigación judicial, impulsada por el juez Roberto Gallardo, reveló el uso masivo e indebido de la base de datos del Registro Nacional de las Personas (ReNaPer). El GCBA realizó casi 10 millones de consultas sobre los datos biométricos de 7,5 millones de personas, una cifra que excedía masivamente el universo de prófugos. Se descubrió que se consultaron datos de políticos, periodistas y activistas, sugiriendo espionaje político.

La inconstitucionalidad del Sistema de Reconocimiento Facial de Prófugos se basó en una falla institucional crítica, más que en la tecnología en sí.

El juez Gallardo suspendió cautelarmente el sistema en abril de 2022 (expediente 182.908/2020). La jueza Elena Liberatori en la sentencia de fondo de primera instancia (7/9/2022) declaró la inconstitucionalidad de la implementación del sistema.

En la sentencia judicial se concluyó que no se constituyó la Comisión Especial de Seguimiento de los Sistemas de Video Vigilancia en la Legislatura de la ciudad, ni se garantizó la auditoría por parte de la Defensoría del Pueblo. El Ministerio de Justicia y Seguridad no realizó auditorías internas ni estudios de impacto sobre los derechos de los ciudadanos. La base de datos utilizada por el SRFP presentó fallas y errores que generaron detenciones arbitrarias y falsos positivos, afectando derechos fundamentales como la presunción de inocencia y la libertad personal. Se verificó la migración masiva de datos biométricos desde el ReNaPer hacia el gobierno de la ciudad, incluyendo personas que no estaban registradas en la CoNaRC, lo que viola el marco legal establecido. No se convocó a la ciudadanía ni a especialistas para debatir la implementación del SRFP, lo que vulnera el derecho a la participación ciudadana en asuntos de seguridad pública. Se detectaron irregularidades en el manejo de datos, como cargas y eliminaciones manuales, y el uso de datos biométricos de personas sin sustento legal.

El fallo de la Cámara de Apelaciones ratificó la inconstitucionalidad (28/4/2023), elevando el estándar de “legalidad formal” a una “legalidad sustantiva”. Es decir, no basta con tener una ley; las garantías y controles previstos deben funcionar efectivamente en la práctica.

La Cámara de Apelaciones no emitió una prohibición perpetua del sistema, sino que estableció un precedente crucial: cualquier intento de reactivación del reconocimiento facial queda supeditado al cumplimiento de condiciones estrictas de gobernanza judicial.

Estas condiciones incluyen el “debido funcionamiento” de los órganos de control; la realización de una auditoría técnica e independiente del software para determinar la existencia de sesgos discriminatorios (sesgos raciales o de género); e informar y dar publicidad al sistema en los Foros de Seguridad Pública (FOSEP) para garantizar la participación ciudadana.

El Sistema de Reconocimiento Facial de Prófugos permanece suspendido debido a un punto muerto sobre cómo debe realizarse la auditoría: el GCBA propone una auditoría de “caja negra” (sin acceso al código fuente), mientras que la sociedad civil exige un escrutinio profundo para identificar sesgos y vulnerabilidades, una postura que refleja la desconfianza institucional generada por los abusos del pasado.

 

La vigilancia como política de datos y el control democrático

Los tres escenarios analizados —la vigilancia laboral, la amenaza de Clearview AI y el fracaso del SRFP— dibujan un panorama en el que el GCBA muestra una marcada tendencia a adoptar tecnologías de vigilancia biométrica sin un marco legal sólido, ignorando los principios de necesidad, proporcionalidad y el consentimiento de los afectados.

El caso del empleado del GCBA demuestra que la intrusión no se limita a la seguridad pública; el Estado empleador busca normalizar el uso de datos sensibles (el rostro inmutable) para funciones administrativas básicas como el control horario, exponiendo al trabajador a un riesgo irreparable de vulnerabilidad de por vida.

La contratación de Clearview AI representa la máxima expresión de este riesgo. Introducir este modelo significaría importar una infraestructura de vigilancia masiva, no consentida e inherentemente sesgada, que es fundamentalmente incompatible con la ley 25.326.

El precedente del SRFP es, sin embargo, la enseñanza más poderosa. El Poder Judicial de ciudad ha alzado un muro contra la discrecionalidad ejecutiva. El estándar de legalidad sustantiva obliga al gobierno porteño a demostrar, ex ante, que cualquier sistema futuro es preciso, no discriminatorio y que está sometido a una auditoría técnica y política robusta e independiente.

Mientras el Estado insista en convertir el rostro de sus empleados y de sus habitantes en una “contraseña” de control (código de barras), el derecho a ser anónimo en público está bajo ataque.

 

 

--------------------------------

Para suscribirte con $ 8.000/mes al Cohete hace click aquí

Para suscribirte con $ 10.000/mes al Cohete hace click aquí

Para suscribirte con $ 15.000/mes al Cohete hace click aquí