El reto de la regulación de la Inteligencia Artificial

El término «Inteligencia Artificial» (IA) fue acuñado por el prestigioso informático John McCarthy en una conferencia que pronunció en la Universidad Dartmouth College en 1956, definiendo la IA como «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes». Estamos ante una definición excepcionalmente amplia y un tanto vaga que se ha visto superada por el avance de la tecnología.

control-reconocimiento-facial El reto de la regulación de la Inteligencia Artificial

Que la IA está transformando nuestra sociedad es un hecho. El espacio que ocupa es vasto y complicado. La mayoría de los sistemas de IA plantearán un riesgo bajo, pero habrá sistemas que entrañarán un riesgo alto para los derechos y libertades de las personas, dando lugar a situaciones no deseadas que deben abordarse al amparo de un marco normativo perfectamente definido que genere seguridad jurídica para las empresas del sector y otros agentes económicos.

La primera iniciativa intergubernamental sobre IA es la «Recomendación sobre Inteligencia Artificial del Consejo de la Organización para la Cooperación y el Desarrollo Económicos». Dicha Recomendación fue adoptada el 22 de mayo de 2019 y tiene como objetivos fomentar la innovación y la confianza en la IA, mediante la promoción de su administración responsable, el respeto a los derechos humanos y los valores democráticos. Las recomendaciones de la OCDE no son vinculantes, pero son especialmente relevantes en el Derecho Internacional, pues ayudan a los legisladores nacionales a orientar sus propias normativas.

En junio de 2019, en la Cumbre de Osaka, los líderes del G20 adoptaron los llamados «Principios sobre Inteligencia Artificial» inspirados en la Recomendación de la OCDE. Los cinco principios son: Principio 1º. Crecimiento inclusivo, desarrollo sostenible y bienestar; Principio 2º. Equidad y valores centrados en el ser humano; Principio 3º. Transparencia y explicabilidad; Principio 4º. Robustez, seguridad y protección; Principio 5º. Responsabilidad.

La Unión Europea lleva años trabajando para crear un marco normativo único, que evitará el riesgo de fragmentación del mercado interior, con una ponderación adecuada de los beneficios y los riesgos para los derechos fundamentales y las libertades de las personas.

El primer paso lo dio la Comisión Europea con la creación del «Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial» formado por cincuenta y dos miembros.

El grupo de expertos elaboró el informe titulado «Directrices éticas para una Inteligencia Artificial fiable». Para dicho grupo un sistema de IA fiable debe reunir una serie de requisitos, a saber: supervisión humana; solidez técnica y seguridad; gestión de datos y respeto por la privacidad y dignidad humana; transparencia; diversidad, no discriminación y equidad; bienestar social; sostenibilidad y respeto del medio ambiente; mitigación de los sesgos perjudiciales; auditabilidad y responsabilidad.

La fiabilidad de la IA debe apoyarse en tres componentes: a) Licitud, esto es, debe cumplir todos los preceptos legales; b) Ética, de forma que se garantice el respeto de los principios y valores éticos de una sociedad; y c) Robustez, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar daños accidentales. Lo ideal sería que los tres componentes actúen en armonía y de manera simultánea.

El respeto a la dignidad humana implica que todas las personas deben ser tratadas con el debido respeto, no como simples objetos que se pueden filtrar, ordenar, puntuar, dirigir, condicionar y manipular. Asimismo, los sistemas de IA deben ser respetuosos con la autonomía humana.

Las personas nacemos libres para tomar decisiones vitales por nosotros mismos y nada ni nadie debe condicionar la libertad individual, que se materializa en derechos fundamentales como el derecho a la privacidad, la libertad de expresión, la libertad de asociación, la libertad de empresa y de las artes y las ciencias.

El desarrollo de la IA debe asegurar que las personas no sufran sesgos injustos, discriminación ni estigmatización. También se garantizará la igualdad de oportunidades en términos de acceso a la educación, a la tecnología y a los servicios.

El grupo de expertos manifiesta una especial preocupación por la protección de la privacidad, que es un derecho fundamental que se ve especialmente afectado por algunos sistemas de IA y que guarda una estrecha relación con el principio de prevención del daño.

Otro pilar fundamental es la transparencia de los sistemas de IA. Este requisito guarda una relación estrecha con el principio de explicabilidad, que requiere que las decisiones que adopte un sistema de IA sean comprensibles para los seres humanos.

El Reglamento General de Protección de Datos (RGPD) establece en su artículo 22 punto 1 que «todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar».

El RGPD prohíbe –con carácter general– las decisiones individuales basadas únicamente en el tratamiento automatizado de datos personales. No obstante, el RGPD prevé una serie de excepciones. El artículo 22 en su punto 2 dispone que el punto 1 no será de aplicación cuando la decisión sea necesaria para la celebración o ejecución de un contrato entre el interesado y el responsable del tratamiento; o cuando esté autorizado por el Derecho de la Unión o de los Estados miembros, siempre que se establezcan medidas adecuadas para salvaguardar los derechos, libertades e intereses legítimos del interesado; o cuando el tratamiento de datos se base en el consentimiento explícito del interesado.

Una gran preocupación del grupo de expertos es la seguridad de los sistemas de IA, que deben protegerse frente agentes malintencionados, que podrían alterar los datos y el comportamiento del sistema, de forma que este adopte decisiones erróneas, injustas o, sencillamente, se desconecte. Desarrollar y adoptar medidas de seguridad para prevenir y mitigar esos riesgos, de forma proactiva, se advierte crucial para el futuro de la IA.

La solidez técnica, la resistencia a los ataques y la seguridad de los sistemas de IA, así como la existencia de un plan de repliegue deben ser una prioridad para los desarrolladores de la IA.

El 21 de abril de 2021 la Comisión Europea publicó su Propuesta de Reglamento para el Parlamento Europeo y el Consejo, por el que se establecen normas armonizadas en materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión. Es probable que la Propuesta de la Comisión Europea sufra más de una enmienda durante su tramitación parlamentaria. Habrá que estar atentos.

El Gobierno de España tiene previsto desarrollar los aspectos técnicos del proyecto piloto, con el que se probará el Reglamento comunitario de IA antes de que este entre en vigor. El Ejecutivo espera recibir el visto bueno de la Comisión Europea en el segundo semestre de 2022. Esta iniciativa surgió a propuesta del Gobierno de España y fue bien acogida por las autoridades comunitarias, si bien no hay una fecha prevista para la aprobación y entrada en vigor del nuevo Reglamento comunitario.

Al otro lado del Atlántico, también se está trabajando en el hecho de que los sistemas de IA deben ser amigables.

El «National Institute of Standards and Technology» o NIST –Agencia de la Administración de Tecnología del Departamento de Comercio de los Estados Unidos, cuyo objetivo es promover la innovación y la competencia industrial en Estados Unidos mediante avances en metrología, normas y tecnología– publicó el 17 de agosto de 2020 un interesante informe que titularon «Four Principles of Explainable Artificial Intelligence» (Cuatro principios para una Inteligencia Artificial explicable). El NIST camina por una senda similar a la que sigue el grupo de expertos designado por la Comisión Europea.

El reto de a IA es apasionante, queda mucho trabajo por hacer y es ahora cuando se deben sentar unas bases firmes para un desarrollo justo de los sistemas de IA.

Javier Casal Tavasci
Abogado con más de veinte años de ejercicio profesional. Máster por la Universidad Pontificia Comillas (ICADE) en Asesoría Jurídica de Empresas y Asesoría Fiscal, Máster en Gestión y Dirección Laboral por la Universidad de Vigo y Curso Experto en Compliance Officer por la Universidad Antonio de Nebrija. Responsable de la consultora PROTECCIÓN DATA, especializada en seguridad de la información y programas de cumplimiento normativo. Autor de más de 350 artículos sobre protección de datos (https://protecciondata.es/blog/)

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.