El pasado 13 de marzo, el Parlamento Europeo aprobó el reglamento de Inteligencia Artificial, cuyo objetivo es establecer medidas que permitan contrarrestar los riesgos para la salud, la seguridad y los derechos fundamentales que presenta el uso de esta tecnología. La Ley obliga a los desarrolladores de modelos de IA y a los agentes públicos y privados que utilicen sistemas de IA, a cumplir determinados requisitos y obligaciones, al objeto de que se pueda garantizar un uso respetuoso con los derechos humanos, así como transparente, en el sentido de que la gente sepa, por ejemplo, cuándo determinado contenido ha sido generado por inteligencia artificial.
Para ahondar en este asunto, hemos contado con la voz experta de Sandra Prior, socia responsable de consultoría de PwC en Cataluña, que ha aportado su visión sobre los detalles y el impacto de esta ley tan innovadora, en una sesión de AED Live presentada y moderada por Albert Collado, presidente de la comisión jurídico-fiscal de AED.
Las principales claves de la Ley de Inteligencia Artificial: riesgos, desafíos, impacto y cumplimiento
La experta ha comenzado su intervención dando a conocer la definición que la OCDE ha establecido sobre la IA, explicando que “se trata de un sistema basado en máquinas que, con objetivos explícitos o implícitos, infiere a partir de las entradas que recibe, cómo generar salidas como predicciones, contenido, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales. Estos sistemas pueden variar en sus niveles de autonomía y adaptabilidad y en función del espectro al que hagan referencia”.
El reglamento, que entrará en vigor de manera gradual, prevé “garantizar que los sistemas de IA introducidos en el mercado europeo sean seguros y respeten los derechos fundamentales y los valores de la Unión Europea” y además, espera “promover la adopción de una IA que esté centrada en el ser humano, sea fiable, e impulse la innovación y la inversión tecnológica”, ha señalado Prior.
Cuatro niveles de riesgos
La experta ha explicado que la Comisión plantea un enfoque basado en el riesgo que generan los diferentes usos de la IA, y determina cuatro niveles de riesgo para etiquetar los sistemas de inteligencia artificial: “riesgo mínimo, riesgo limitado, alto riesgo y riesgo inadmisible”.
- Riesgos inadmisibles: “suelen ser casos de uso que van en contra de los derechos fundamentales y de los valores de la UE, como sería usarla para influir en el comportamiento humano o la explotación de las vulnerabilidades de las personas”, destacaba.
- Alto riesgo: Según la experta, “son aquellos usos que podrían afectar significativamente a la salud, la seguridad y los derechos fundamentales, como por ejemplo, usar la IA para categorizar a las personas para procesos de contratación y selección, para la gestión de trabajadores, para realizar evaluaciones de rendimiento, etc.”. Esto requerirá “determinadas obligaciones a cumplir y un análisis del impacto real de ese caso de uso en los derechos fundamentales”, puntualizaba.
- Riesgos limitados: referidos a “obligaciones específicas en materia de transparencia. Algunos sistemas deberán vigilar especialmente esta cuestión, como es el caso de los chatbots, debido al riesgo de manipulación”, advertía.
- Riesgo nulo: Aquellos casos en los que la IA se podrá usar libremente.
El impacto del reglamento
Para Sandra Prior, “el reglamento puede tener un efecto dual en la innovación y en la competitividad. Por un lado, creo que debería estimular la innovación y proporcionar un marco claro y coherente que facilite el uso y, por otro lado, esa regulación no dejará de suponer el tener que atender a determinadas obligaciones”. Por suerte, “el alcance del reglamento es de alto espectro, es decir, afecta a todos los sectores, modelos y usuarios” y por lo tanto, “esto equiparará la dificultad de competitividad que se pueda dar”.
En cuanto al impacto empresarial, “las organizaciones se verán en la necesidad de cumplir con los requisitos de transparencia, seguridad y protección de datos que exige el reglamento”, por lo tanto, “tendrán que adaptar sus procesos de desarrollo, de despliegue de IA, sus modelos de gobierno, cómo regulan el uso de esa IA con relación a la ética, etc”, ha asegurado la socia de PwC. Es por esto que, es probable que se genere “una mayor inversión en procesos como la evaluación de riesgos y en la implantación de medidas de control para dar respuesta y estar seguros de que los casos de uso implementados cumplen con las exigencias y requisitos del reglamento”, ha opinado.
Los principales desafíos
Para la experta, los principales desafíos de la normativa son “la complejidad en la aplicación, el cumplimiento con los requisitos de evaluación y monitorización, y en algunos casos, que existan barreras de entrada por los costes de la implantación y el cumplimiento”.
Por otro lado, Prior ha enfatizado en el desafío que supone la normativa en el marco de la Administración Pública, y ha puesto sobre la mesa cuestiones como “qué limite se establecerá frente al uso de la IA, cómo se coordinan las jurisdicciones o cuál puede ser el modelo de colaboración público-privada”.
Finalmente, el debate se ha centrado en los riesgos relacionados con los datos. Prior ha destacado que “los sesgos y alucinaciones de datos tienen que evitarse a toda costa, ya que la calidad del dato va a condicionar la calidad del resultado”. “El dato debe tener una muestra representativa y equilibrada que evite los sesgos, pero también hay que estar pendientes del resultado en la salida y en caso de que haya un sesgo, una alucinación o una discriminación, poderlo gestionarlo a tiempo”, ha añadido. Para ello, ha aconsejado, “entrenar a los modelos de manera continuada en el tiempo para garantizar que la calidad del resultado no merma”, y que “las empresas establezcan códigos éticos de conducta en el uso de la IA, sobre todo cuando existen modelos de IA con los que se interactúa como usuario”.
La importancia del Comité de Ética
Para asegurar un uso responsable y ético de la IA en las compañías, Prior ha enfatizado en la importancia de contar con un comité de ética “que se encargue de la adaptación de los procesos internos y de la concienciación y divulgación del buen uso de la IA entre los empleados”.
También ha propuesto “habilitar el uso de herramientas de uso interno para evitar el uso de herramientas que no están bajo el paraguas normativo de la propia organización y promover la colaboración de las empresas con expertos, sobre todo desde una óptica de supervisión ético-social”.
Cumplimiento de la normativa
Para finalizar la sesión, se han resumido las claves del cumplimiento de la normativa, lideradas por los diferentes estados de la UE, que serán quienes implementen las sanciones y designen a las autoridades nacionales competentes para su supervisión (que además representarán al país en el Comité Europeo de Inteligencia Artificial). El reglamento establece también la creación de otros instrumentos europeos en materia de IA, como la Oficina Europea de Inteligencia Artificial, que supervisará la aplicación de las normativas y el desarrollo de los modelos más avanzados. Por su parte, el Foro Consultivo se compondrá de representantes de las partes interesadas para asesorar al Comité y la Comisión. Además, se creará la Comisión Científica de Expertos Independientes.
Uno de los principales propósitos de la UE con esta normativa es garantizar que sea pertinente a lo largo de los años, de manera que pueda actualizarse conforme evoluciona la tecnología.