
Sign up to save your podcasts
Or
París ha implementado un dispositivo de seguridad experimental durante los Juegos Olímpicos. Cuarenta y seis de las más de 300 estaciones de la ciudad y sus alrededores están equipadas con cámaras de vigilancia que cuentan con tecnología de inteligencia artificial. Las autoridades aseguran que sirven para detectar movimientos u objetos sospechosos, pero asociaciones y usuarios temen que sea el primer paso hacia una violación al derecho a la privacidad.
La estación Stalingrad está ubicada en el noreste de París. Es una de las 46 que acogen durante los Juego Olímpicos un dispositivo de vigilancia con cámaras de seguridad e inteligencia artificial.
La única forma de saberlo es acercándose a la salida del metro. Un aviso amarillo indica que por medidas de seguridad los usuarios están siendo filmados.
Otro aviso, mucho más pequeño detalla que se trata de “video protección aumentada”, una forma de decir que un algoritmo revisa las imágenes para analizar el comportamiento humano, en busca de “situaciones u objetos sospechosos”.
“Pueden ser comportamientos muy triviales como cuando se reagrupan personas, cuando alguien está en el suelo o camina en contravía”, explica a RFI Noemie Levain, miembro de la asociación La Quadrature du Net, especializada en protección de datos privados y libertades digitales.
“Se está custodiando el espacio público, considerando ciertos comportamientos como anormales”, asegura. “Un grupo de amigos se puede juntar o una persona quieta en el suelo puede estar mendigando, por ejemplo. Eso no debería considerarse sospechoso. Hay un criterio moral detrás”.
Reconocimiento facial, la línea roja
A unas paradas de ahí se ubica la estación République, históricamente lugar donde nacen protestas espontáneas. “Se corre el riesgo de que la policía obtenga demasiada información sobre los manifestantes. En el futuro podrían usarlo para localizar individuos que lleven chalecos amarillos. Irán es un ejemplo extremo, pero ahí se usa esta tecnología para identificar a mujeres que usan el velo de forma indebida”, dice Levain.
El dispositivo no integra el reconocimiento facial. “Sería una línea roja”, para la asociación.
De hecho, la empresa privada que ganó la licitación y que opera esta tecnología en el experimento del metro asegura que no se analizan datos biométricos, solo comportamientos.
“Pero sí hay una voluntad política de legalizar estas tecnologías y pasarlas a otro nivel. Lo dicen informes parlamentarios. Nos preocupa que el Estado pueda tener gran cantidad de informaciones, tratarlas de forma automática y decidir qué tipo de actividad merece ser detectada”.
En Francia, una ley votada en 2023 y denominada Juegos Olímpicos autoriza esta vigilancia algorítmica hasta marzo de 2025. El marco legal europeo lo legitima, ya que deja cierta libertad a los países miembros de la Unión Europea.
“El bloque adoptó hace unos meses un reglamento sobre inteligencia artificial que incluye usos prohibidos. Francia presionó para introducir muchas excepciones a la prohibición del reconocimiento facial y de la categorización biométrica”, denuncia La Quadrature du Net.
"No nos dejan opinar"
“Además”, agrega Noemie Levain, “es deber del Estado informar sobre el uso de la inteligencia artificial en el espacio público”.
Frente al cartel, los usuarios del metro pasan de largo. Cuando se les pregunta por el avisito que habla de inteligencia artificial, dicen no estar enterados, pero tampoco se asombran.
“Todos sabemos cuál es la intención. No me da miedo y tampoco estoy a favor, sencillamente no nos dejan opinar", dice una usuaria a RFI. “A lo mejor sirve de algo. A mi hija la agredieron aquí mismo y desde entonces no toma el metro”, comenta una residente del barrio. “Si ayuda a protegernos estoy de acuerdo, pero si sirve para espiarnos es abusivo”.
Estudios sociológicos señalan que las cámaras tienen poca eficacia a la hora de combatir la delincuencia. Hace más de una década, un informe del Tribunal de Cuentas apuntaba que en la ciudad de Niza, la que mayor uso hace de las cámaras de seguridad, solo el 1,2% de los delitos resueltos lo han sido gracias a la video vigilancia, por un costo anual de 17 millones de euros.
5
66 ratings
París ha implementado un dispositivo de seguridad experimental durante los Juegos Olímpicos. Cuarenta y seis de las más de 300 estaciones de la ciudad y sus alrededores están equipadas con cámaras de vigilancia que cuentan con tecnología de inteligencia artificial. Las autoridades aseguran que sirven para detectar movimientos u objetos sospechosos, pero asociaciones y usuarios temen que sea el primer paso hacia una violación al derecho a la privacidad.
La estación Stalingrad está ubicada en el noreste de París. Es una de las 46 que acogen durante los Juego Olímpicos un dispositivo de vigilancia con cámaras de seguridad e inteligencia artificial.
La única forma de saberlo es acercándose a la salida del metro. Un aviso amarillo indica que por medidas de seguridad los usuarios están siendo filmados.
Otro aviso, mucho más pequeño detalla que se trata de “video protección aumentada”, una forma de decir que un algoritmo revisa las imágenes para analizar el comportamiento humano, en busca de “situaciones u objetos sospechosos”.
“Pueden ser comportamientos muy triviales como cuando se reagrupan personas, cuando alguien está en el suelo o camina en contravía”, explica a RFI Noemie Levain, miembro de la asociación La Quadrature du Net, especializada en protección de datos privados y libertades digitales.
“Se está custodiando el espacio público, considerando ciertos comportamientos como anormales”, asegura. “Un grupo de amigos se puede juntar o una persona quieta en el suelo puede estar mendigando, por ejemplo. Eso no debería considerarse sospechoso. Hay un criterio moral detrás”.
Reconocimiento facial, la línea roja
A unas paradas de ahí se ubica la estación République, históricamente lugar donde nacen protestas espontáneas. “Se corre el riesgo de que la policía obtenga demasiada información sobre los manifestantes. En el futuro podrían usarlo para localizar individuos que lleven chalecos amarillos. Irán es un ejemplo extremo, pero ahí se usa esta tecnología para identificar a mujeres que usan el velo de forma indebida”, dice Levain.
El dispositivo no integra el reconocimiento facial. “Sería una línea roja”, para la asociación.
De hecho, la empresa privada que ganó la licitación y que opera esta tecnología en el experimento del metro asegura que no se analizan datos biométricos, solo comportamientos.
“Pero sí hay una voluntad política de legalizar estas tecnologías y pasarlas a otro nivel. Lo dicen informes parlamentarios. Nos preocupa que el Estado pueda tener gran cantidad de informaciones, tratarlas de forma automática y decidir qué tipo de actividad merece ser detectada”.
En Francia, una ley votada en 2023 y denominada Juegos Olímpicos autoriza esta vigilancia algorítmica hasta marzo de 2025. El marco legal europeo lo legitima, ya que deja cierta libertad a los países miembros de la Unión Europea.
“El bloque adoptó hace unos meses un reglamento sobre inteligencia artificial que incluye usos prohibidos. Francia presionó para introducir muchas excepciones a la prohibición del reconocimiento facial y de la categorización biométrica”, denuncia La Quadrature du Net.
"No nos dejan opinar"
“Además”, agrega Noemie Levain, “es deber del Estado informar sobre el uso de la inteligencia artificial en el espacio público”.
Frente al cartel, los usuarios del metro pasan de largo. Cuando se les pregunta por el avisito que habla de inteligencia artificial, dicen no estar enterados, pero tampoco se asombran.
“Todos sabemos cuál es la intención. No me da miedo y tampoco estoy a favor, sencillamente no nos dejan opinar", dice una usuaria a RFI. “A lo mejor sirve de algo. A mi hija la agredieron aquí mismo y desde entonces no toma el metro”, comenta una residente del barrio. “Si ayuda a protegernos estoy de acuerdo, pero si sirve para espiarnos es abusivo”.
Estudios sociológicos señalan que las cámaras tienen poca eficacia a la hora de combatir la delincuencia. Hace más de una década, un informe del Tribunal de Cuentas apuntaba que en la ciudad de Niza, la que mayor uso hace de las cámaras de seguridad, solo el 1,2% de los delitos resueltos lo han sido gracias a la video vigilancia, por un costo anual de 17 millones de euros.
201 Listeners
38 Listeners
110 Listeners
223 Listeners
1 Listeners
528 Listeners
107 Listeners
27 Listeners
831 Listeners
124 Listeners
23 Listeners
4 Listeners
32 Listeners
22 Listeners
7 Listeners