Logo - Producto

Apuntes a vuelapluma sobre la incipiente regulación comunitaria de la Inteligencia Artificial

Inteligencia artificial - Inteligencia

Comparte este post

Facebook
Twitter
LinkedIn
WhatsApp

A lo largo de este 2021 nos hemos hecho eco de las diferentes iniciativas que la Unión Europea (UE) va desgranando en relación con la transformación digital que experimentan las economías avanzadas.

FÉLIX CANTERO

Más en particular, y por su destacada novedad, muchos medios comentaron la propuesta de reglamento del parlamento europeo y del consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la unión (COM/2021/206 final).

Es preciso matizar que no algo que haya aparecido ayer, sino que anteriormente saltaron a la palestra megahits editoriales como el Libro blanco sobre la inteligencia artificial – un enfoque europeo orientado a la excelencia y la confianza y otra serie de andanadas institucionales muy propias del momento en el que la maquinaria europea pone sus ojos sobre un asunto.

Con carácter previo a su elaboración, se evaluaron diversas opciones reguladoras con diferente intensidad interventora sobre el sector, a saber:

  • Opción 1: «Póngame una pegatina, si es usted tan amable». El mecanismo de etiquetado voluntario para saber con quién nos las estamos viendo. Una especie de PEGI (Pan European Game Information) como el que se creó en 2003 para otras cuestiones digitales –videojuegos-, salvando las distancias, obviamente, ya que jugamos con fuego real.
  • Opción 2: «Vamos a sentarnos a ver qué hacemos con esta gente de la IA». Lo que viene siendo una estrategia sectorial para el caso particular.
  • Opción 3: «Aspersor legislativo calibrado», es decir, un instrumento legislativo horizontal de la UE que se apoye en un enfoque proporcionado basado en los riesgos.
  • Opción 3+: «El caso anterior, pero un poquito más suave que me estás matando». Un instrumento legislativo horizontal de la UE que se sustente en un enfoque proporcionado basado en los riesgos junto con códigos de conducta para los sistemas de IA que no sean de alto riesgo.
  • Opción 4: «Manguerazo legislativo a discreción». un instrumento legislativo horizontal de la UE que establezca requisitos obligatorios para todos los sistemas de IA, sin detenerse a contemplar el riesgo que conlleven.

Finalmente, la opción ganadora fue la 3+ (el ‘plus’ siempre da calidad y tiene gancho), entendiendo que podría generar una tupida selva de aplicaciones beneficiosas de la IA con opción a quitar las malas hierbas y sin asfixiar los esquejes PYMEs que fueran surgiendo.

Una vez elegido cómo abordar el espinoso asunto, el quid de la cuestión recayó en sistematizar el riesgo al que nos enfrentamos, y con tal propósito la normativa establece bloques claramente diferenciados, así como una suerte de disposiciones transitorias (sunset clauses) ante lo incierto de la evolución tecnológica.

 El grupo de los ‘por aquí no paso’ (sistemas inadmisibles)

Lo son por entender que afectan de manera inaceptable la seguridad, la vida y los derechos fundamentales. Son listas revisables periódicamente. Aquí podemos meter toda la panoplia de distopías y fechorías que pueden ayudarse de la IA: manipulación del comportamiento, predicción de tendencias humanas para buscar sus puntos flacos y, sobre todo, el uso de datos biométricos y videovigilancia en tiempo real, la cual deberá estar sujeta a las pertinentes autorizaciones administrativas y judiciales (Un THX 1138 contemporáneo que empieza a despuntar en algunos lugares del mundo).

La cuestión más candente es la puerta trasera que se abre permitiendo el uso de ese tipo de videovigilancia sin dicha autorización previa en los casos en los que la seguridad está amenazada de manera inminente (ejemplo de la muy ‘peliculera’ caza del terrorista entre la multitud), siempre con el requisito de posterior convalidación. Dará que hablar.

El grupo de los que están bajo ‘libertad vigilada’ (Sistemas de IA de alto riesgo)

Por su incidencia en los derechos y libertades se permiten, pero se someten a un control estrecho para garantizar un uso ético, conforme a la norma y seguro. Nos referimos a los sistemas de IA que se emplean en sectores regulados e infraestructuras críticas.

En este grupo se encuentran, como decimos, los sistemas que afecten a los soportes básicos del país, los de identificación y categorización biométrica (no en tiempo real), procesos selectivos de personal (el método Grönholm con esteroides), control de fronteras (v. el largometraje Código 46), sistemas dirigidos a verificar el cumplimiento de la ley (Dense un garbeo por Singapur y admiren sus garbosos agentes municipales con ruedas), la evaluación de pruebas judiciales, la evaluación de la situación crediticia de las personas y, en general, la puntuación social (v. el libro The Circle, entre otros –mejor que la película al no edulcorar el final-).

En este caso, la regulación es prolija en requisitos para quienes se animen a desarrollar sistemas basados en IA que funcionen en las antedichas áreas.

Partiendo de un diseño sólido y seguro, deben contar con sistemas de evaluación y mitigación de riesgos, trazabilidad, documentación que explique su sistema a las autoridades (cosa harto compleja en ocasiones, tanto por la sofisticación de algunos sistemas como por las limitaciones de algún que otro servidor público como el que les escribe), información a las personas usuarias y, sobre todo, destacamos que se exige una alta calidad de los datos empleados para evitar sesgos y resultados discriminatorios.

Éste último aspecto, una vez detectada discriminación y desde el punto de vista jurídico, resulta notoriamente complejo de probar, como demuestran diversas experiencias que vamos registrando. El sesgo de los sistemas reproduce en muchas ocasiones tendencias sociales perniciosas que no nos podemos permitir perpetuar en su versión digital.

(A este respecto, v. Revista General de Derecho Administrativo 56 (2021) «Decisiones automatizadas y discrminación: aproximación y propuestas generales», por Alba Soriano Arnanz).

El grupo de los libres por parecer en principio inofensivos (Sistemas de Ia de riesgo medio/bajo)

Se les supone habilitados mediante tecnologías menos sofisticadas e incluye chatbots o asistentes virtuales, sistemas que identifiquen emociones… Los descendientes del matrimonio de nuestro amigo Clippy, el ayudante pelma de las primeras versiones de Microsoft Word, con un Furby.

Para la Comisión, en este caso lo relevante es la transparencia, es decir, que seamos conscientes de con quién estamos tratando para saber a qué atenernos (no como sucede a veces con según qué llamadas telefónicas comerciales, donde nos sentimos ridículos tras descubrir que llevamos un rato sincerándonos con una máquina).

 El grupo de cola, los del ‘progresa adecuadamente’ (Resto de sistemas)

Quedan fuera del ámbito del reglamento y se les anima a que se monten sus propios chiringuitos autorregulatorios con palmadas en el hombro. Muy listos no suelen ser, pero oiga, siempre hay sorpresas.

Vista la sistematización, la propuesta europea trata de que las autoridades nacionales de vigilancia del mercado interior estén al quite para que se cumpla la legislación mientras que a escala europea, será el Comité Europeo de Inteligencia Artificial quien emita normativa.

Como nota pintoresca, se prevé la posibilidad de crear «espacios controlados de prueba» (sandboxes) donde la innovación pueda ensayarse mitigándose así los eventuales efectos negativos que pudieran darse, cual infante juguetón armado con cubo y pala.

Finalmente, como toda propuesta seria que se precie, la propuesta viene acompañada de contundentes multas y sanciones (siendo las más duras de hasta treinta millones de euros o, en su caso, el seis por ciento del volumen de facturación) que llegado el caso darán para pleitear durante años para regocijo de los operadores jurídicos de todo tipo y color, como ha ocurrido en casos mastodónticos precedentes.

Entre las críticas que se escuchan figura la de haber dejado fuera la “IA militar”, es decir, las famosas armas autónomas, las cuáles comienzan a asomar de manera cada vez más peligrosa en diversos incidentes a lo largo del globo.

Los pasos siguientes dejan la pelota en el tejado del Parlamento y los Estados miembros, que teóricamente desembocarán en un Reglamento Europeo.

Si el apocalipsis de las máquinas no ha podido con nosotros, seguiremos informando.

 

Félix Cantero pertenece al Cuerpo Superior de Administradores Civiles del Estado y es autor del ensayo Inteligencia artificial y cultura pop (disponible aquí)

 

 

Artículos relacionados:

«La tecnología puede provocar un asombroso cambio social hacia una arcadia feliz y perfecta, pero fría y matemática»
Los retos de la inteligencia artificial, un desafío muy presente
«El futuro ya está aquí para fundar un nuevo tiempo y asume la forma de la Inteligencia Artificial»

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Una mirada al mundo del sector público

Entérate de todas las novedades sobre el sector público y las oposiciones: