La reciente entrada en vigor de la EU AI Act define cuatro niveles de riesgo para los sistemas de inteligencia artificial (IA) y las acciones necesarias para cada uno de ellos. Los sistemas de IA considerados como inaceptables quedan prohibidos bajo esta regulación. Entre ellos se encuentran aquellos que pueden afectar los derechos de las personas, la libertad, la democracia, entre otros. Los sistemas de IA más regulados serán los considerados de alto riesgo, que son aquellos con impacto, por ejemplo, en la salud y la seguridad de los individuos. Estos sistemas están sujetos a requisitos obligatorios antes de su uso y a un seguimiento posterior.

Es importante señalar que esta regulación abarca toda la cadena de valor de los sistemas de IA. Es decir, impacta tanto a los proveedores que desarrollan y comercializan esta tecnología, como a los usuarios que utilizan la misma.

🗓 Si bien la plena aplicación del reglamento de IA en Europa comenzará en el año 2026, los países de América Latina están elaborando sus propias regulaciones de IA tomando como referencia la EU AI Act.

⚠ Cuanto antes comiencen las empresas a realizar estas evaluaciones, más preparadas estarán para cumplir con la regulación y, sobre todo, con sus obligaciones hacia la sociedad.