jueves, 1 de agosto de 2024

Entra en vigencia la ley de la Unión Europea que regula la Inteligencia Artificial

En los últimos años, el acceso a herramientas de Inteligencia Artificial se globalizaron. En este contexto, el organismo europeo tomó el liderazgo y confirmó la aplicación de la primera normativa que regula este tipo de tecnología.


La Unión Europea se consolida como el primer organismo internacional en delimitar el marco legal para la Inteligencia Artificial.

La Unión Europea (UE) confirmó que, a partir de hoy, entra en vigor una ley inédita para regular la Inteligencia Artificial. La misma tendrá como objetivo fomentar la innovación en el continente europeo y limitar los posibles abusos de esta tecnología.

Esta normativa. que fue aprobada en marzo por el parlamento de la UE, se considera la primera del mundo que intentará dar un marco legal al desarrollo de este tipo de tecnología. A partir de este jueves, se pondrán en marcha una serie de fechas y plazos -a lo largo de meses y años- para que las empresas puedan ajustarse a la nueva legislación.

Europa y la primera ley que regula la IA

"Hoy entra en vigor la Ley de Inteligencia Artificial", escribió Ursula von der Leyen, la presidenta de la Comisión Europea, en la red social X. La mayor parte de la legislación se aplicará a partir de 2026 pero algunas disposiciones ya serán vinculantes desde el año que viene.

De esta manera -y tras el largo debate en el parlamento europeo- el organismo internacional es el primero en decretar un marco legal para el desarrollo de este tipo de tecnología. La ley había sido aprobada en marzo, pero entró en vigencia desde el mes de agosto.

La normativa asigna sus normas a cada empresa que utiliza sistemas de IA en función de cuatro niveles de riesgo: sin riesgo, riesgo mínimo, riesgo alto y los sistemas de IA prohíbidos. Esta categorización también determina qué plazos se les aplica a cada empresa para cumplir con la nueva legislación.

En esta línea, con la entrada en vigencia de la ley la UE prohibirá totalmente determinadas prácticas a partir de febrero de 2025. Entre ellas están las que manipulan la toma de decisiones de un usuario o amplían las bases de datos de reconocimiento facial mediante el scraping de Internet.

Otros sistemas de IA que se consideran de alto riesgo, como los que recopilan datos biométricos y los que se utilizan para infraestructuras críticas o decisiones laborales, tendrán que cumplir las normas más estrictas. Entre las exigencias, las empresas tendrán que mostrar sus conjuntos de datos de entrenamiento de IA y también deberán aportar pruebas de supervisión humana, entre otros requisitos.

Thomas Regnier, portavoz de la Comisión Europea, aseguró que "alrededor del 85% de las empresas de IA" actuales entran en la tercera categoría de "riesgo mínimo", con muy poca regulación exigida.

La entrada en vigencia de la normativa exigirá a los Estados de la UE crear autoridades nacionales competentes - con límite en agosto - que supervisen la aplicación de la normativa en su país. A su vez, los miembros de la comisión europea se preparan para acelerar las inversiones en IA, con una inyección esperada de 1.000 millones de euros en 2024 y hasta 20.000 millones en 2030.

Argentina: la inteligencia artificial en seguridad

En Argentina, actualmente no se debate la creación de un marco legal que contenga este nuevo mercado. Sin embargo, si se realizaron avances en otro tipo de regulaciones o aplicaciones específicas.

Este es el caso de la iniciativa del Ministerio de Seguridad, presentada el pasado martes: la creación de la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS).


La resolución que crea la Unidad de Inteligencia Artificial Aplicada a la Seguridad fue firmada por Patricia Bullrich, ministra de Seguridad de Argentina.

Según la propuesta, el espacio pertenecerá a la Dirección de Ciberdelito y Asuntos Cibernéticos y, tal como detalla la Resolución 710/2024, estará compuesta por efectivos de fuerzas federales. Los objetivos principales de este organismo serán "patrullar redes sociales, aplicaciones, sitios de internet y dark web", para la posterior investigación de delitos e identificación de autores" así como también "analizar imágenes de cámaras de seguridad en tiempo real a fin de detectar actividades sospechosas o identificar personas buscadas".

La iniciativa también propone utilizar algoritmos de aprendizaje automático para analizar datos históricos de crímenes. De esta manera, se espera poder "predecir futuros delitos, detectar amenazas cibernéticas, procesar grandes volúmenes de datos de diversas fuentes para extraer información útil, realizar tareas peligrosas (como la desactivación de explosivos) y analizar actividades en redes sociales para detectar amenazas potenciales".

Según detalla la resolución, la UIAAS estará supeditada a las tareas de ciberpatrullaje previamente fijadas por el Ministerio de Seguridad durante mayo. Estas actividades fueron detalladas en la Resolución 428/2024, que precisa que la actividad de vigilancia digital "no podrá interferir con la libertad de expresión constitucionalmente garantizada".

Además, también quedará prohibido "obtener información, producir inteligencia o almacenar datos sobre personas o usuarios por el sólo hecho de su raza, fe religiosa, acciones privadas u opinión política". Por último, la iniciativa establece que los organismos competentes deberán elaborar, mensualmente, un informe de gestión.

(Fuente: Ámbito financiero)