¿Puede la Inteligencia Artificial ser ética y estar bien regulada?

La Inteligencia artificial generativa ha irrumpido con fuerza en el tejido empresarial, abriendo un abanico de oportunidades y también de dilemas. ¿Dónde poner los límites? ¿Quién garantiza que los sistemas no reproduzcan sesgos o vulneren la privacidad? Estas preguntas fueron el centro del reciente episodio de Enclave de Inteligencia Artificial, una iniciativa de Deloitte y enClave de Personas con la participación de Manel Carpio, socio de Ciberseguridad en Deloitte y voz autorizada en ética y regulación de IA en Europa.

Europa ha apostado por una vía regulatoria única: poner el foco en el uso que se da a la IA, no en la tecnología en sí. A diferencia del modelo estadounidense, más centrado en el control de los grandes modelos, el marco europeo clasifica los sistemas según su impacto en los derechos fundamentales.

“El mismo algoritmo puede ser de alto o mínimo riesgo dependiendo de si afecta a una persona o a una empresa”, explicó Carpio. Esta lógica responde a una voluntad clara: proteger al ciudadano sin sofocar la innovación.

Uno de los grandes retos para las empresas es garantizar que los sistemas no perpetúen desigualdades históricas. Según Carpio, los sesgos son técnicamente corregibles si se actúa desde la fase de entrenamiento del modelo, pero “requiere voluntad y supervisión”. En cambio, lograr la explicabilidad, es decir, entender por qué un sistema toma una decisión, sigue siendo un desafío crítico, especialmente en sectores regulados como el financiero o el sanitario.

Carpio fue tajante: “Una IA no debería tomar decisiones sin supervisión. La intervención humana sigue siendo indispensable”.

Uno de los campos con mayor aplicación práctica de la IA es el de los recursos humanos: cribado de currículums, procesos de selección, retención o formación. Aunque estos usos están permitidos, Europa los cataloga como de “alto riesgo”, obligando a las empresas a implementar sistemas de gestión de riesgos, garantizar la trazabilidad y asegurar la explicabilidad de los resultados.

Carpio advirtió también sobre un fenómeno emergente: “Hoy cualquier usuario puede, sin saberlo, generar un sistema de IA mediante asistentes como Copilot o GPT. Las empresas deben ser conscientes de estos nuevos riesgos”.

España ha sido pionera en constituir su agencia de supervisión: la AESIA (Agencia Española de Supervisión de Inteligencia Artificial), que en agosto comenzará a operar con plena capacidad sancionadora. Este paso refuerza la posición del país en la vanguardia del control ético de la tecnología.

Frente a la idea de que la regulación impide innovar, Carpio ofreció una lectura alternativa: “Lo que prohíbe la normativa europea es muy limitado. La mayoría de

los sistemas están permitidos; solo requieren controles adecuados”. En este sentido, añadió que establecer límites no es un freno, sino “un síntoma de madurez y una forma de asegurar que competimos todos con las mismas reglas”.

Sergio Duarte, socio de Human Capital en Deloitte, sintetizó la visión en tres conceptos clave para directivos: transparencia, diversidad y anticipación de impactos. “La IA puede ser transformadora, pero solo si está alineada con nuestros valores”. Puedes ver el episodio completo en el siguiente enlace.

ASÓCIATE

Encuentra el entorno, los profesionales, los conocimientos, las experiencias, servicios, proyectos e iniciativas más apropiados para afrontar con éxito tu carrera y favorecer el desarrollo y el crecimiento de tu negocio.

Socios corporativos

Contacta con nosotros:

 

900 67 00 97

aed@asociaciondedirectivos.org

Cataluña  |  Madrid  |  Comunidad Valenciana

Andalucía  |  Galicia  |  Canarias