Cómo afecta la Ley de IA de la UE a tu sector y fechas clave

LinkedIn
Email

La Ley de Inteligencia Artificial de la Unión Europea (Ley de IA) es una normativa histórica destinada a garantizar el desarrollo, despliegue y uso éticos y seguros de las tecnologías de IA. A medida que las organizaciones de todo el mundo se enfrentan a sus implicaciones, comprender sus principales disposiciones y plazos es crucial para que las empresas sigan cumpliendo la normativa y siendo competitivas.
Este artículo explora cómo afecta la Ley de IA a sectores clave, como las finanzas, la tecnología y los RRHH, y destaca las fechas críticas para las que hay que prepararse.

Entender la Ley de IA de la UE

La Ley de IA clasifica los sistemas de IA en función de su riesgo potencial, definiendo normas y requisitos para cada categoría:

  1. Riesgo inaceptable: se prohíben los sistemas de IA que supongan una amenaza clara para la seguridad o los derechos fundamentales, como el marcaje social por parte de los gobiernos.
  2. Alto riesgo: Los sistemas utilizados en áreas críticas como la contratación, los servicios financieros y la asistencia sanitaria están sujetos a requisitos estrictos, como evaluaciones de riesgos, transparencia y supervisión humana.
  3. Riesgo limitado: los sistemas de IA con riesgos mínimos, como los chatbots, deben cumplir los requisitos básicos de transparencia.
  4. Riesgo mínimo: La mayoría de las aplicaciones de IA orientadas al consumidor entran en esta categoría y no se enfrentan a requisitos específicos.

Para las empresas, la clasificación de alto riesgo tiene implicaciones significativas, ya que exige medidas de cumplimiento rigurosas.

Fechas clave

1 August 2024

The AI Act entered into force, marking the beginning of its phased implementation.

2 February 2025

Prohibitions on certain AI systems deemed to pose unacceptable risks became applicable.

2 August 2025

Obligations for providers of General Purpose AI (GPAI) models commence, alongside requirements for Member States to designate national competent authorities and establish rules for penalties and fines.

2 February 2026

Deadline for Commission to provide guidelines specifying the practical implementation of Rules for High-Risk AI Systems, including post-market monitoring plan.

2 August 2026

The majority of the AI Act’s provisions, including those related to high-risk AI systems, come into full effect.

2 August 2027

Obligations on high-risk systems apply to products already required to undergo third-party conformity assessments. This includes products such as toys, radio equipment, in-vitro medical devices, and agricultural vehicles. GPAI systems placed on the market before 2 August 2025 become subject to the Act’s provisions.

31 December 2030

AI systems that are components of the large-scale IT systems listed in Annex X that have been placed on the market or put into service before 2 August 2027 must be brought into compliance with the Act.

¿Qué significa esto para tu organización?

1. Retos normativos y cumplimiento

La Ley de IA introduce requisitos de cumplimiento estrictos, sobre todo para las aplicaciones de alto riesgo. Las empresas deben desarrollar marcos de gobernanza sólidos para abordar:

  • Transparencia de los datos: Garantizar que los sistemas de IA se entrenan con conjuntos de datos diversos e imparciales.
  • Rendición de cuentas: Mantener documentación y pistas de auditoría para la toma de decisiones en materia de IA.
  • Supervisión humana: Establecer mecanismos de intervención humana cuando sea necesario.

El incumplimiento puede acarrear sanciones significativas de hasta 35 millones de euros o el 7% de la facturación global anual, la cifra que sea más alta. Para las organizaciones globales, alinear las estrategias de IA en todas las jurisdicciones será fundamental para navegar por este complejo panorama normativo.

2. Servicios financieros

Las instituciones financieras que aprovechan la IA para la calificación crediticia, la detección del fraude o el asesoramiento en materia de inversiones se enfrentan a un mayor escrutinio. La Ley de IA exige:

  • Evaluaciones exhaustivas del riesgo para identificar posibles sesgos en los algoritmos.
  • Comunicación transparente del papel de la IA en la toma de decisiones, sobre todo en las aplicaciones orientadas al cliente.
  • Mejora de las medidas de ciberseguridad para mitigar los riesgos asociados a los sistemas automatizados.

Para seguir siendo competitivas, las empresas deben equilibrar la innovación con el cumplimiento de la normativa, garantizando que las herramientas de IA aporten valor sin comprometer las normas éticas.

3. Sector tecnológico

La industria tecnológica, como columna vertebral del desarrollo de la IA, debe adaptarse a unas normas de diseño y despliegue más estrictas. Las implicaciones clave incluyen:

  • Aumento de los costes de desarrollo de sistemas de IA de alto riesgo, ya que el cumplimiento de los requisitos de la Ley de IA implica pruebas y documentación exhaustivas.
  • Mayor énfasis en la explicabilidad e interpretabilidad de los modelos de IA, garantizando que las partes interesadas comprendan cómo se toman las decisiones.
  • Colaboración con los reguladores para perfeccionar las directrices y abordar las ambigüedades de la Ley.

4. Recursos Humanos

Las herramientas basadas en IA para la contratación, el control de los empleados y la evaluación del rendimiento están clasificadas como de alto riesgo en virtud de la Ley. Muchas empresas utilizan herramientas de selección de terceros que incorporan análisis de IA. Sin embargo, muchas organizaciones pueden carecer inadvertidamente de una comprensión clara del funcionamiento de estas herramientas. Como resultado, si un empleado demuestra que ha sufrido acoso o malos tratos como consecuencia del uso de estas herramientas de IA, la empresa -y no el proveedor de la herramienta- quedaría expuesta a posibles litigios. Además, cualquier herramienta de IA utilizada para controlar el comportamiento de los empleados, incluso las aparentemente benignas como el control del tiempo de trabajo, se vería probablemente sometida al escrutinio de la normativa vigente.

Los empresarios deben:

  • Realiza auditorías periódicas para garantizar que los sistemas de IA no perpetúan la discriminación.
  • Proporciona a los candidatos y empleados información clara sobre el papel de la IA en los procesos de toma de decisiones.
  • Pon en marcha procesos de supervisión humana para revisar y cuestionar las decisiones impulsadas por la IA.

Pasos para prepararse para la Ley de IA de la UE

  1. Realizar un Inventario de IA: Identificar todos los sistemas de IA en uso, evaluando su clasificación con arreglo a la Ley de IA.
  2. Reforzar la gobernanza: Crea equipos interfuncionales para supervisar el cumplimiento de la IA, con la participación de las partes interesadas jurídicas, técnicas y operativas.
  3. Supervisión a nivel directivo: La gobernanza de la IA va a ser una cuestión de nivel directivo debido a los elevados riesgos de incumplimiento, y la supervisión a nivel directivo es esencial.
  4. Recurre a expertos: Busca la orientación de consultores éticos y asesores jurídicos de AI para interpretar y aplicar eficazmente las disposiciones de la Ley.
  5. Invierte en formación: Educa a los empleados sobre las implicaciones de la Ley de IA, fomentando una cultura de uso ético de la IA.
  6. Sigue la evolución: Mantente informado sobre las actualizaciones de la Ley y los reglamentos relacionados para anticiparte y adaptarte a los cambios.

La UE va a crear una base de datos de sistemas de alto riesgo en torno a principios de agosto de 2026: otro paso preparatorio en relación con el Inventario AI es la revisión y categorización específica de cualquier sistema de alto riesgo en uso, y el compromiso con el proveedor para comprender cómo pretende responder a las obligaciones de la ley.

También debe revisarse la contratación en general de cualquier herramienta que utilice IA, y deben establecerse normas mucho antes de la plena aplicación de la ley. Por ejemplo, podrían establecerse requisitos de auditoría específicos para las herramientas de IA deterceros.

Otro punto a tener en cuenta es que, aunque la UE tiene su propia ley, habrá cuestiones transfronterizas en juego, ya que otras jurisdicciones establecen sus propios requisitos normativos y, por supuesto, es poco probable que haya una alineación total. La revisión multijurisdiccional es un problema.

En conclusión

La Ley de IA representa un cambio transformador en la forma de regular la IA, con implicaciones de gran alcance para las empresas de todos los sectores. Al comprender sus requisitos y prepararse de forma proactiva, las organizaciones no sólo pueden mitigar los riesgos, sino también posicionarse como líderes en la adopción ética de la IA. Ahora que se acercan las fechas clave, es el momento de actuar.

Fuente: https://artificialintelligenceact.eu/

Para hablar de cómo preparar tu organización para el futuro, ponte en contacto con Adriaan Hugo, Director General de nuestra práctica de consultoría sobre el cambio.

Alex-Cormack

Alex Cormack

As CEO Alex is responsible for all practices globally within Sheffield Haworth. Additionally, he oversees the Alternative Investments business. Alex focuses on senior executive search in financial services, working in partnership with a range of clients including Institutional Investors, Sovereign Wealth Funds, Asset Managers, Alternative Investors and Investment Banks. Alex has a notable track record of executing senior searches across several different functional and specialist areas, including at CEO, CIO, CFO and COO level. Alex has worked at Sheffield Haworth for 20 years and before that worked on the structured finance desk of a search firm in London. He started his career as an economic and political consultant at the European Economic and Financial Centre. Alex holds a degree in Geography from King’s College London university.

About the author:

Alex-Cormack

Alex Cormack

As CEO Alex is responsible for all practices globally within Sheffield Haworth. Additionally, he oversees the Alternative Investments business. Alex focuses on senior executive search in financial services, working in partnership with a range of clients including Institutional Investors, Sovereign Wealth Funds, Asset Managers, Alternative Investors and Investment Banks. Alex has a notable track record of executing senior searches across several different functional and specialist areas, including at CEO, CIO, CFO and COO level. Alex has worked at Sheffield Haworth for 20 years and before that worked on the structured finance desk of a search firm in London. He started his career as an economic and political consultant at the European Economic and Financial Centre. Alex holds a degree in Geography from King’s College London university.

More from Insights:

¿Y si «mantener las luces encendidas» en realidad está poniendo en peligro el futuro de tu empresa? En el implacable

Recientemente hemos hablado con Graham Ridgway, un experimentado Presidente y Asesor de empresas de software empresarial centrado en ayudar a

En este episodio, Tim Sheffield, Presidente de Sheffield Haworth, habla con Srin Madipalli, emprendedor en serie, tecnólogo y fundador tanto

En nuestra serie de entrevistas Momentos cruciales de la carrera profesional, hablamos con líderes excepcionales para descubrir los momentos que

Frances Denny (Fran), Directora General de Sheffield Haworth y responsable del grupo de trabajo sobre diversidad socioeconómica de la empresa,

SH 2025 Perspectivas Consultoría de Cambio Desde principios de 2025, el enfoque geopolítico ha cambiado, con una atención renovada a

Related Insights

Request the Report

Complete the form below to download the document

Download now

Complete the form below to download the document

Get in touch

Please complete your details below and a member of team will respond.
Estoy interesado en (marca todo lo que corresponda):

Thank you — Your Submission Was Successful

Your submission has been received and a member of our team will be in touch shortly.