Internacionales

Unión Europea prohibiría la vigilancia social con Inteligencia artificial

La Unión Europea (UE) prohibiría el uso de la Inteligencia Artificial (IA), en varias áreas, incluyendo la vigilancia social masiva y la clasificación del comportamiento social.

La información de esta prohibición de vigilancia masiva y del comportamiento social, surge de una filtración de “papers” y borradores que circulan en línea a través de internet, según lo informan The Verge y  Bloomberg. El anuncio oficial de las medidas sería la próxima semana.

Las diferencias con respecto a lo que hacen Estados Unidos y China serán muy marcadas.

Si se aprobara, la Unión Europea sería la primera en tomar medidas muy fuertes para algunas de las cuestionables aplicaciones de la Inteligencia Artificial. Así, las diferencias con respecto a lo que hacen Estados Unidos y China serán muy marcadas. Los Estados miembros, por ejemplo, estarían obligados a crear juntas de evaluación para probar y validar sistemas de IA de alto riesgo. Las empresas que desarrollan o venden software de IA prohibido en la UE, incluidas las que tienen su sede en otras partes del mundo, podrían ser multadas con hasta el 4% de sus ingresos globales.

La UE  prohibiría la vigilancia social con Inteligencia artificial
La UE prohibiría la vigilancia social con Inteligencia artificial

Según una copia del borrador difundido por ambas fuentes, el proyecto de reglamento incluye:

1- Prohibición de las herramientas y sistemas de IA utilizados para manipular el comportamiento de las personas. Estaría prohibido explotar la información acerca de los individuos o grupos de individuos, con el fin de crear categorías y puntajes de crédito social. Es decir, para determinar la “confiabilidad” de las personas basándose en las predicciones de su comportamiento social o personalidad, obtenidas por IA.
 

2- Prohibición del uso de la IA para “vigilancia indiscriminada”, incluidos los sistemas que siguen directamente a los individuos en entornos y espacios físicos, o agregan los datos de otras fuentes.  

3- El uso de “sistemas de identificación biométrica remota”, como el reconocimiento facial en espacios públicos, deberá tener una autorización especial de las autoridades.

4- Habrá obligación de notificar a las personas cuando estén interactuando con un sistema de inteligencia artificial, a menos que sea “evidente a partir de las circunstancias y el contexto de uso”.
5- Al hablar de alto riesgo de IA, indica que son sistemas que podrían poner en peligro la seguridad de las personas, la vida o los derechos fundamentales y los procesos democráticos.
6- Estricta supervisión de los sistemas de IA considerados de “alto riesgo“, incluidos los que representan una amenaza directa para la seguridad, como lo serían la auto-conducción de coches y las cirugías remotas. También para los que tienen una alta probabilidad de afectar el nivel de vida de las personas, como los utilizados para la contratación de empleo, las decisiones judiciales y la calificación crediticia.

7- La evaluación de los sistemas de alto riesgo antes de ponerlas en servicio. Esto implica asegurar que estos sistemas se basen en un conjunto de datos tomados de una manera imparcial y trazables. Además, deben contar con supervisión humana, profesionales en manejo de datos y capaces de detectar cualquier sesgo. Algunas empresas podrán llevar a cabo evaluaciones de sí mismas, mientras que otras estarán sujetas a controles por parte de terceros. La validez de los certificados emitidos por organismos de evaluación tendrían una vigencia de hasta cinco años.

8- Las reglas son aplicables por igual a las empresas con sede en la UE o en el extranjero.

9- La creación de una “Junta Europea de Inteligencia Artificial”, integrada por representantes de todos los Estados-nación, para asesorar y ayudar a la comisión a decidir qué sistemas de IA son considerados como “alto riesgo”, y recomendar cambios en las prohibiciones

Las reglas no se aplicarían a los sistemas de IA utilizado exclusivamente para fines militares, según el documento.

La mayoría de los expertos en política y representantes de grupos de defensores de los derechos digitales y de una internet libre y abierta, coinciden en que la propuesta es insuficiente y debe ser mejorada.

“Las descripciones de los sistemas de IA a ser prohibidos son vagos, y llenos de un lenguaje que no está claro y podría crear graves vías de escapatorias. Está muy lejos de ser ideal,” dijo Daniel Leufer, analista político y miembro de Acces Now.

También te puede interesar: Comunicación y política en tiempos de Big Data