La inteligencia artificial (IA) está transformando rápidamente diversos sectores, desde la salud hasta la educación y el transporte. Sin embargo, con su crecimiento también surgen preocupaciones sobre la ética, la privacidad y la seguridad que la misma supone. Para abordar estos desafíos, la Unión Europea ha propuesto un Reglamento de inteligencia artificial que busca establecer un marco normativo claro y efectivo; que ya incluye aspectos relativos al ámbito laboral y su incidencia en la justicia.
El Reglamento (UE) 2024/1689, del Parlamento Europeo y del Consejo, de 13 de junio de 2024, publicado el pasado 12 de julio de 2024, establece normas armonizadas sobre inteligencia artificial (IA) en la Unión Europea. Se trata de la primera norma jurídica desarrollada globalmente respecto a la inteligencia artificial; por ello es conocido como el Reglamento de Inteligencia Artificial. Dicha norma busca mejorar el funcionamiento del mercado interior y promover una IA centrada en el ser humano, garantizando la protección de la salud, la seguridad y los derechos fundamentales. Es decir, se busca una garantía de que los sistemas de IA utilizados destaquen por su seguridad y fiabilidad; tanto a nivel de los propios proveedores de sistemas de IA como de aquellos usuarios que utilicen estos sistemas con una finalidad profesional.
Como decimos, el Reglamento Europeo de inteligencia artificial supone un esfuerzo importante para regular el uso de la IA en la Unión Europea, buscando minimizar los riesgos asociados. Se aplica a proveedores y usuarios de sistemas de IA, independientemente de su origen, siempre que se utilicen en la UE. Esto incluye una amplia gama de aplicaciones, desde sistemas de identificación biométrica hasta herramientas utilizadas en la administración de justicia; cuestión que nos compete inmensamente como juristas.
Jerarquía de sistemas de IA en función del riesgo que asumen las empresas
El reglamento clasifica los sistemas de IA en diferentes niveles de riesgo. En primer lugar, los de riesgo inaceptable, que serían aquellos sistemas que representan una amenaza para la seguridad o los derechos fundamentales, como la vigilancia masiva; los de riesgo alto, previstos para aquellas aplicaciones que requieren una evaluación rigurosa, como la IA en el ámbito de la salud o la justicia. Y, por último, los de riesgo limitado y mínimo, que se ocupan de sistemas que tienen menos implicaciones y que están sujetos a requisitos más flexibles.
Esta jerarquía de riesgos supone una clasificación los sistemas de IA en diferentes categorías, con un enfoque especial en aquellos considerados de alto riesgo. Estos sistemas deben cumplir con requisitos específicos, como la gestión de riesgos y la transparencia, para garantizar que su uso no comprometa la salud, la seguridad o los derechos fundamentales de las personas.
Tal y como exponemos, dentro del mismo reglamento se clasifican los sistemas de IA según su nivel de riesgo, destacando prácticas prohibidas como la inferencia de emociones en el trabajo y la categorización biométrica.
Además, se prohíben ciertas prácticas de IA, como el uso de técnicas subliminales o la creación de perfiles que puedan causar daño a grupos vulnerables. También se establecen obligaciones para los proveedores y usuarios, así como mecanismos de supervisión y certificación para asegurar el cumplimiento de las normativas vigentes.
El reglamento también fomenta la innovación a través de sandboxes regulatorios, donde se pueden probar y desarrollar sistemas de IA bajo supervisión. Esto es especialmente útil para pequeñas y medianas empresas (PYMEs) y startup.
Las empresas que desarrollen o utilicen sistemas de IA clasificados como de alto riesgo deberán asegurarse de cumplir con los requisitos establecidos en el reglamento. Esto incluye la realización de evaluaciones de conformidad y la implementación de medidas de gestión de riesgos, así como también la garantía de la calidad de los datos utilizados.
Sin embargo, debe tomarse en consideración que adaptarse a las nuevas regulaciones puede implicar costos significativos. Las empresas deberán invertir en auditorías, formación del personal y en la creación de sistemas de gestión de calidad para garantizar que sus tecnologías de IA cumplan con los estándares requeridos.
Asimismo, las empresas deberán mantener una documentación detallada sobre el funcionamiento de sus sistemas de IA, incluyendo la calidad de los datos utilizados y los procesos de toma de decisiones. Esto no solo es necesario para cumplir con el reglamento, sino que también puede ser un factor clave para ganar la confianza de los consumidores y usuarios.
Dado que el reglamento establece que los desarrolladores y usuarios de IA son responsables de los daños causados por sus sistemas, esto significa que las empresas deben ser proactivas en la identificación y mitigación de los riesgos asociados con sus tecnologías.
Aunque para las empresas el cumplimiento normativo puede ser un desafío, también puede impulsar la innovación. Las entidades que se adapten rápidamente a las regulaciones pueden diferenciarse en el mercado al ofrecer soluciones de IA más seguras y éticas, lo que puede ser un factor decisivo para los consumidores. Incluso pueden beneficiarse de colaborar con otras organizaciones, universidades y centros de investigación para cumplir con los requisitos del reglamento. Estas alianzas pueden facilitar el intercambio de conocimientos y recursos, lo que puede ser crucial para el desarrollo de tecnologías de IA responsables.
En cuanto al impacto en la estrategia empresarial cabría indicar que las empresas deberán considerar el reglamento en su planificación estratégica. Esto puede incluir la reevaluación de proyectos de IA en curso, la priorización de iniciativas que cumplan con las regulaciones y la adaptación de modelos de negocio para alinearse con las expectativas regulatorias.
La IA en la naturaleza laboral
Existe en el reglamento un listado de aquellos sistemas de alto riesgo que afectan al ámbito laboral, abarcando la gestión de las relaciones laborales y el acceso al autoempleo, en particular en cuanto a la contratación, la selección de personal, y la toma de decisiones que afecten a las condiciones de las relaciones de índole laboral. Existen dos sistemas de IA aplicables a este ámbito. El primero sería los sistemas de IA destinados a ser utilizados para la contratación o la selección de personas físicas, en particular para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos.
Por otro lado, los sistemas de IA destinados a ser utilizados para tomar decisiones que afecten a las condiciones de las relaciones de índole laboral o a la promoción o rescisión de relaciones contractuales de naturaleza profesional, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales o para supervisar y evaluar el rendimiento y el comportamiento de las personas en el marco de dichas relaciones.
Con ello se abarca toda la dimensión laboral que implica a empresa y trabajador; desde el screening de un currículo a la gestión de la plantilla de una empresa; afectando de modo considerable a la futura perspectiva laboral e, inherentemente, a los derechos de los trabajadores.
Se parte, por tanto, de una premisa de información y/o consulta a los trabajadores o a sus representantes, sobre la decisión de poner en servicio o utilizar sistemas de IA considerados de alto riesgo en el lugar o centro de trabajo. Este deber de información conlleva el requisito u obligación de que no se afecte a ninguno de los vigentes derechos de los trabajadores.
Todos los trabajadores tendrán derecho, conforme indica el artículo 86 del reglamento a recibir de la empresa, como responsable del despliegue, explicaciones individualizadas, claras y significativas acerca del papel que el sistema de IA ha tenido en el proceso de toma de decisiones, así como de los principales elementos de la decisión adoptada respecto a su persona; siempre y cuando tal decisión se haya adoptado basándose en los resultados de salida de un sistema de IA de alto riesgo.
Evidentemente, aunque es fundamental regular la IA para evitar abusos y garantizar la transparencia, también existe el riesgo de que una regulación demasiado estricta pueda sofocar la innovación. Nos encontramos ante un delicado equilibrio entre fomentar el desarrollo tecnológico y proteger los derechos de las personas.
La implementación de estos reglamentos puede ser un desafío, ya que la tecnología avanza rápidamente y las regulaciones pueden quedar obsoletas. Por ello, el reglamento de inteligencia artificial es necesario, pero debe ser flexible y adaptativo para no limitar el potencial de esta novedosa tecnología.