La regulación europea de la Inteligencia Artificial

La última sección de «Seamos Legales» de esta temporada, trata de cómo Europa y España afrontan el reto de la Inteligencia Artificial, en la siguiente entrevista a Bárbara Meca:

1.- ¿Qué razones últimas orientan la propuesta europea de regulación de la IA?

La propuesta de reglamento europeo de ley de inteligencia artificial (21/04/2021) define, en su Exposición de Motivos, un doble objetivo, promover la propia Inteligencia Artificial (IA) y abordar al mismo tiempo sus riesgos.

Dice la Exposición de Motivos que los mismos elementos que potencian los beneficios de la IA, también dan lugar a nuevos riesgos o consecuencias negativas para personas y para la sociedad.

El 19 de febrero de 2020 la Comisión publicó el Libro Blanco sobre la inteligencia artificial donde se definieron las opciones para ese doble objetivo de promover la adopción de la Inteligencia Artificial (IA) y de abordar los riesgos vinculados a determinados usos de esta nueva tecnología.

2.- ¿Qué conclusiones se han publicado por Europa sobre los usos que entrañan alto riesgo?

El Consejo Europeo solicitó que se definiera con claridad qué usos de la Inteligencia Artificial (IA) debían considerarse de alto riesgo

Las Conclusiones más recientes, tienen que ver con la opacidad de la propia Inteligencia Artificial (IA) para las personas, su complejidad para el ciudadano de a pie, el sesgo que desfavorecería a personas o grupos de personas, su imprevisibilidad y un comportamiento parcialmente autónomo de ciertos sistemas de Inteligencia Artificial (IA).

3.- ¿Qué pretende la propuesta europea en relación a los riesgos que entraña la Inteligencia Artificial (IA)?

La Exposición de Motivos de la propuesta de ley de Inteligencia Artificial (IA) declara que quiere garantizar que la Inteligencia Artificial (IA) sea compatible con los derechos fundamentales, y evitar sus riesgos. Recordando cómo la intervención jurídica se adapta a aquellas situaciones concretas en las que existe un motivo de preocupación justificado o en las que es posible anticipar razonablemente que se producirá un problema en un futuro próximo.

Esto nos hace pensar que existe un riesgo efecivo que se va a producir en el corto plazo.

En concreto dice que esta propuesta prohíbe determinadas prácticas particularmente perjudiciales de Inteligencia Artificial (IA) por ir en contra de los valores de la Unión y propone restricciones a determinados usos de los sistemas de Inteligencia Artificial (IA).

La propuesta de Ley de Inteligencia Artificial (IA) contiene determinadas normas específicas para la protección de las personas en relación con el tratamiento de datos personales, y restricciones del uso de sistemas de Inteligencia Artificial (IA) para la identificación biométrica remota «en tiempo real» en espacios de acceso público.

4.- ¿La propuesta de ley de Inteligencia Artificial (IA) también quiere ganarse la confianza de los ciudadanos?

Si. La Exposición de Motivos habla de cómo la Inteligencia Artificial (IA) hay que desarrollarla de tal modo que se gane la confianza de las personas, con el fin de lograr una Europa adaptada a la era digital y convertir los próximos diez años en la Década Digital.

El 19 de febrero de 2020, el mismo día que se publicó el Libro Blanco sobre la inteligencia artificial, se inició una consulta pública en línea, que se prolongó hasta el 14 de junio de 2020. Su objetivo era recabar observaciones y opiniones sobre el Libro Blanco.

La consulta estaba dirigida a todas las partes interesadas de los sectores público y privado, incluidos los gobiernos, las autoridades locales, las organizaciones comerciales y de otra índole, los interlocutores sociales, los expertos, los académicos y los ciudadanos.

5.- ¿Cuál fue el resultado de esta Consulta?

Se recibieron 1.215 contribuciones. Me parece muy poco para la trascendencia del asunto. De las cuales 352 procedieron de empresas u organizaciones o asociaciones comerciales, 406 de particulares (el 92 % de ellos, de la UE), 152 de representantes de instituciones académicas o de investigación, y 73 de autoridades públicas. Asimismo, 160 encuestados representaban a la sociedad civil (en concreto, 9 organizaciones de consumidores, 129 organizaciones no gubernamentales y 22 sindicatos), y 72 se adscribieron a la categoría «Otros».

La mayoría de los encuestados se mostró explícitamente a favor del enfoque basado en el riesgo.

6.- ¿Qué dice la propuesta de Ley de Inteligencia Artificial (IA) sobre los Derechos Fundamentales?

La Exposición de Motivos de la Ley de Inteligencia Artificial (IA) dice que el uso de esta Inteligencia Artificial (IA), puede tener repercusiones negativas para múltiples derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea.

Existe una clara preocupación, en hacer frente a los riesgos y, que la Inteligencia Artificial (IA) sea fiable.

7.- ¿A qué Derechos puede afectar la Inteligencia Artificial (IA)?

La Exposición de Motivos de la propuesta de Reglamento sobre Inteligencia Artificial (IA), dice que la Inteligencia Artificial (IA) puede afectar a derechos tales como: el derecho a la dignidad humana (artículo 1), el respeto de la vida privada y familiar y la protección de datos de carácter personal (artículos 7 y 8), la no discriminación (artículo 21) y la igualdad entre hombres y mujeres (artículo 23), la libertad de expresión (artículo 11) y de reunión (artículo 12), la tutela judicial efectiva y el derecho a un juez imparcial, la presunción de inocencia y los derechos de la defensa (artículos 47 y 48).

8.- ¿Cómo se pretende gestionar por Europa este riesgo sobre los Derechos Fundamentales?

Mediante la la vigilancia humana se pretende reducir al mínimo el riesgo de adoptar decisiones asistidas por Inteligencia Artificial (IA) erróneas en esferas críticas como la educación, el empleo, la aplicación de la ley y el poder judicial.

Dice la Exposición de Motivos que “en caso de que se sigan produciendo violaciones de los derechos fundamentales, la transparencia y la trazabilidad garantizadas de los sistemas de IA, unidas a unos controles ex post sólidos, permitirán ofrecer a las personas afectadas una compensación efectiva”.

Esta previsión de compensación da que pensar.

9.- ¿Cómo se regulan los distintos tipos de riesgos de la Inteligencia Artificial (IA) en la propuesta de Ley de Inteligencia Artificial (IA)?

Siguiendo con su Exposición de Motivos, el Reglamento sigue un enfoque basado en los riesgos que distingue entre los usos de la la propuesta de Ley de Inteligencia Artificial (IA) que generan i) un riesgo inaceptable, ii) un riesgo alto, y iii) un riesgo bajo o mínimo.

Las prohibiciones engloban aquellas prácticas que tienen un gran potencial para manipular a las personas mediante técnicas subliminales que trascienden su consciencia o alteran su comportamiento de modo que les provoca perjuicios físicos o psicológicos a ellos o a otras personas.

Se trata de prácticas de manipulación o de explotación contra adultos que los sistemas de Inteligencia Artificial (IA) pueden facilitar.

10.- ¿Qué requisitos legales deben cumplir los sistemas de IA de alto riesgo en lo que respecta a los datos?

En el capítulo 2 de la propuesta, se establecen los requisitos legales que deben cumplir los sistemas de Inteligencia Artificial (IA) de alto riesgo en lo que respecta a los datos y su gobernanza, la documentación y el registro, la transparencia, la vigilancia humana, y la seguridad.

Sin embargo, dice la propuesta que las soluciones técnicas que se necesitarán para lograr el cumplimiento de tales requisitos se pueden dearrollar por el propio proveedor del sistema de Inteligencia Artificial (IA). Esta flexibilidad permitirá a los proveedores de sistemas de IA decidir cómo quieren cumplir los requisitos.

11.- ¿Qué se propone en relación a los riesgos de manipulación?

El título IV se centra en aquellos sistemas de Inteligencia Artificial (IA) que conllevan riesgos específicos de manipulación a las personas.

La propuesta propone obligaciones de transparencia a los sistemas que i) interactúen con seres humanos, ii) se utilicen para detectar emociones o determinar la asociación a categorías (sociales) concretas a partir de datos biométricos, o iii) generen o manipulen contenido (ultrafalsificaciones).

Si un sistema de Inteligencia Artificial (IA) se utiliza para generar o manipular imágenes, audios o vídeos que a simple vista parezcan contenido auténtico, debe ser obligatorio informar de que dicho contenido se ha generado por medios automatizados.

Pero añade la Exposición de Motivos que tal obligación se exceptúa por causa de fines legítimos (aplicación de la ley, libertad de expresión), lo que deja una ventana abierta, de dudosa perspectiva.

12.- ¿De qué otros riesgos alerta la Exposición de Motivos de la Ley de Inteligencia Artificial (IA)?

Dice la Exposición de Motivos que dicha tecnología puede proporcionar nuevas y poderosas herramientas para llevar a cabo prácticas de manipulación, explotación y control social.

Dichas prácticas son sumamente perjudiciales y deben estar prohibidas, pues van en contra de los valores de la Unión de respeto de la dignidad humana, libertad, igualdad, democracia y Estado de Derecho y de los derechos fundamentales que reconoce la UE, como el derecho a la no discriminación, la protección de datos y la privacidad, y los derechos del niño.

13.- ¿Qué prevé acerca de la utilización de la Inteligencia Artificial (IA) para alterar la conducta humana?

Habla de cómo lo sistemas de Inteligencia Artificial (IA) pueden desplegar componentes subliminales imperceptibles para el ser humano, con la intención de alterar el comportamiento de una persona, de modo que perjudique a esa misma persona o a otra.

La investigación relacionada con esos sistemas de Inteligencia Artificial (IA) no debe exponer a las personas físicas a perjuicios.

14.- ¿Qué riesgos comporta la Inteligencia Artificial (IA) en los grupos sociales?

Los sistemas de Inteligencia Artificial (IA) que proporcionan calificaciones sociales de personas para su uso por parte de las autoridades públicas estas pueden tener resultados discriminatorios y abocar a la exclusión a determinados grupos.

Dichos sistemas de Inteligencia Artificial (IA) clasifican la fiabilidad de las personas en función de su comportamiento social o de características personales.

La calificación social resultante de dichos sistemas puede dar lugar a un trato desfavorable de colectivos en contextos sociales que no guardan relación con el contexto donde se recabaron los datos originalmente.

Lo que dificilmente se va a evitar pues, como dice el refrán, no se le pueden poner puertas al campo.

15.- ¿Y sobre la Inteligencia Artificial (IA) para la identificación biométrica en espacios públicos?

La propuesta considera que el uso de sistemas de Inteligencia Artificial (IA) para la identificación biométrica remota «en tiempo real» de personas en espacios de acceso público invade los derechos y las libertades de las personas, puede provocar la sensación de estar bajo una vigilancia constante y disuadir a los ciudadanos de ejercer su libertad de reunión y otros derechos.

En consecuencia, la propuesta recomienda que debe prohibirse el uso de dichos sistemas, pero salvo en tres situaciones, la búsqueda de posibles víctimas de un delito, amenazas para la vida y terrorismo; y la identificación de los autores o sospechosos de determinados delitos, lo cual supone otra ventana de Overton.

16.- ¿Y en el sector sanitario a qué riesgo nos enfrentamos?

Dice la Exposición de Motivos que es importante prevenir los riesgos de seguridad de productos debido a sus componentes digitales, como son los robots cada vez más autónomos.

En el sector sanitario, donde los riesgos para la vida y la salud son especialmente elevados, los sistemas de diagnóstico y de apoyo a las decisiones humanas, constituyen una fuente de riesgo,

17.-¿Qué otros sistemas de Inteligencia Artificial (IA) se consideran de alto riesgo?

Los sistemas de Inteligencia Artificial (IA) destinados a la seguridad del tráfico rodado, el suministro de agua, gas, calefacción y electricidad, pues su fallo puede poner en peligro la vida y la salud de las personas a gran escala, así como los servicios de primera intervención en situaciones de emergencia.

También los sistemas de sistemas de Inteligencia Artificial (IA) que se utilizan en la educación, como las pruebas y exámenes. Cuando no se diseñan correctamente, pueden violar el derecho a la educación o no sufrir discriminación.

Al igual que los sistemas de sistemas de Inteligencia Artificial (IA) que se utilicen para la contratación y la selección de personal.

Dichos sistemas pueden ocasionar discriminación, por ejemplo contra las mujeres, ciertos grupos de edad, personas con discapacidad o personas de orígenes raciales o étnicos concretos o con una orientación sexual determinada.

Los sistemas de sistemas de Inteligencia Artificial (IA) empleados para controlar el rendimiento en el trabajo pueden afectar a los derechos a la protección de los datos personales y a la privacidad.

18.- ¿Afectaría también la Inteligencia Artificial (IA) al acceso de servicios y ayudas públicos?

Si, la propuesta considera dealto riesgo los sistemas de Inteligencia Artificial (IA) para evaluar la calificación de personas, ya que deciden si dichas personas pueden acceder a recursos o servicios esenciales como la vivienda, la electricidad o los servicios de telecomunicaciones.

Los sistemas de Inteligencia Artificial (IA) usados con este fin pueden discriminar a personas o grupos, por motivos de origen racial o étnico, discapacidad, edad u orientación sexual, o generar nuevas formas de discriminación.

Los sistemas de servicios de primera intervención en situaciones de emergencia empleados en la gestión de la migración, el asilo y el control fronterizo deben considerarse de alto riesgo.

19.- ¿Y en la administración de justicia existe riesgo por el uso de los sistemas de Inteligencia Artificial (IA)?

La Exposición de Motivos de la propuesta de Ley de Inteligencia Artificial (IA) considera de alto riesgo aquellos sistemas de Inteligencia Artificial (IA) cuyo objetivo es ayudar a las autoridades judiciales a interpretar los hechos y el Derecho o a aplicar la ley.

20.- ¿Se contempla el peligro de ciberataques?

Si, la la propuesta de Ley alerta de cómo los ciberataques contra sistemas de Inteligencia Artificial (IA) pueden dirigirse contra elementos específicos de la Inteligencia Artificial (IA), como los conjuntos de datos de entrenamiento (p. ej., contaminación de datos), con las consecuencias que ello conllevaría en las personas.

21.- ¿Y sobre el riesgo de suplantación?

Efectivamente, recoge la propuesta cómo los sistemas de la propuesta de Ley de Inteligencia Artificial (IA) destinados a interactuar con personas o a generar contenidos pueden conllevar riesgos de suplantación o falsificación.

Por ello, establece que los usuarios que utilicen un sistema de la propuesta de Ley de Inteligencia Artificial (IA) para generar o manipular imágenes, audios o vídeos, que puedan inducir a una persona a pensar que son auténticos, deben comunicar que han sido creados de manera artificial.

Comparte esta publicación

Suscríbete
a nuestra
Newsletter