Inteligencia artificial: el Reino Unido y la UE toman medidas legislativas: ¿convergencia o divergencia?

Inteligencia artificial: el Reino Unido y la UE toman medidas legislativas: ¿convergencia o divergencia?

En marzo de este año, el gobierno del Reino Unido anunció una sólida agenda de inteligencia artificial (IA) al lanzar un Consejo de Ciberseguridad del Reino Unido y revelar su intención de lanzar una Estrategia Nacional de Inteligencia Artificial (la Estrategia del Reino Unido).

Los detalles de la estrategia del Reino Unido se darán a conocer a finales de este año, pero en este punto entendemos que se centrará en particular en promover el crecimiento de la economía a través del uso generalizado de la IA con, al mismo tiempo, un enfoque en la ética. seguridad y desarrollo confiable de la IA, incluso mediante el desarrollo de un marco legislativo para la IA que promoverá la confianza pública y la igualdad de condiciones.

Poco después del anuncio del gobierno del Reino Unido, la Comisión Europea publicó una propuesta para un marco legislativo europeo sobre IA (el Reglamento de la UE) que forma parte del "paquete de IA" general de la Comisión. El reglamento de la UE tiene como objetivo garantizar la seguridad de las personas y la protección de los derechos humanos fundamentales, y clasifica la IA como casos de uso inaceptables, de alto o bajo riesgo.

Sobre los autores

Este artículo está escrito por Mike Pierides, socio de Morgan Lewis, y Charlotte Roxon, socio

Reglamento de la UE

El reglamento de la UE propone proteger a los usuarios "cuando los riesgos que plantean los sistemas de IA son particularmente altos". La definición y las categorías de casos de uso de IA de alto riesgo son amplias y abarcan muchos, si no la mayoría, casos de uso que involucran a personas, incluido el uso de IA en el contexto de identificación biométrica y categorización de personas físicas, gestión de infraestructura crítica y empleo. . y gestión de trabajadores.

Gran parte de la regulación de la UE tiene como objetivo imponer obligaciones prescritas con respecto a estos casos de uso de alto riesgo, incluidas las obligaciones de realizar `` evaluaciones de riesgo '' relevantes, establecer sistemas de mitigación como el monitoreo humano y proporcionar información transparente a los usuarios. Anticipamos que, además de impulsar las políticas de IA entre los proveedores y usuarios de IA, muchas de estas obligaciones serán reflejadas por los clientes en sus contratos con los proveedores de IA.

La Unión Europea ha prohibido los casos de uso de IA que considera una amenaza "inaceptable" para la seguridad, los medios de vida y los derechos humanos. Estos casos incluyen el uso de sistemas de identificación biométrica remota en tiempo real con fines de aplicación de la ley en espacios de acceso público (a menos que la ley permita lo contrario) y el uso de sistemas que implementan técnicas subliminales para distorsionar el comportamiento de una persona o explotar las "vulnerabilidades" de las personas. . , de tal manera que cause o pueda causar daño físico o psicológico.

El reglamento de la UE también definió casos de uso de IA de 'bajo riesgo' (por ejemplo, uso en filtros de spam) en los que no se imponen obligaciones específicas, aunque se anima a los proveedores de IA de bajo riesgo a adherirse a un código de conducta de IA para garantizar que su Los sistemas de inteligencia artificial son confiables.

El incumplimiento podría resultar en fuertes multas similares al RGPD para empresas y proveedores, con multas propuestas de hasta € 30 millones o el 6% de los ingresos globales.

La regulación de la UE tiene aplicación extraterritorial, lo que significa que los proveedores de IA que hacen que sus sistemas estén disponibles en la Unión Europea o cuyos sistemas afectan a personas en la Unión Europea o tienen producción en la Unión Unión Europea, independientemente de su país de establecimiento, deberán cumplir con la nueva normativa de la UE.

Estrategia del Reino Unido: marco legislativo

Desde una perspectiva legislativa, el punto de partida del Reino Unido sobre la ley de IA es similar al de la Unión Europea, ya que la protección de datos personales se rige principalmente por la legislación del GDPR y el énfasis que esta legislación pone en priorizar los derechos de las personas. Después del Brexit, el Reino Unido está mostrando signos de voluntad de desviarse del 'enfoque europeo' consagrado en el GDPR, como anunció el secretario digital Oliver Dowden a principios de marzo, aunque los detalles de tal divergencia siguen sin estar claros.

Esto podría indicar que el marco legislativo del Reino Unido para la IA se desviará conscientemente del reglamento de la UE propuesto, probablemente sea menos prescriptivo en lo que respecta a las obligaciones de los proveedores y usuarios de lo que la Comisión Europea ha denominado IA de “alto riesgo”. caso de uso. Sin embargo, por el momento, esto es solo una conjetura. Uno de los desafíos que enfrentará el Reino Unido, como lo hace con el GDPR, es el impacto extraterritorial de la regulación de la UE y la necesidad de garantizar que los flujos de datos entre la UE y el Reino Unido no se vean relativamente afectados por el Brexit.

Próximas etapas

En el Reino Unido, el gobierno ha comenzado a trabajar con proveedores y consumidores de IA en la hoja de ruta del Consejo de IA, que continuará durante todo el año para desarrollar la estrategia del Reino Unido.

En la Unión Europea, el Parlamento Europeo y los estados miembros de la UE deberán adoptar las propuestas de IA de la Comisión Europea para que el reglamento de la UE entre en vigor.

Con los detalles sustantivos de la estrategia del Reino Unido aún desconocidos, los participantes del mercado estarán observando de cerca hasta qué punto la nueva estrategia del Reino Unido se alinea con el marco legislativo propuesto por la Comisión Europea.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir