Logo Dictum
M

La responsabilidad civil derivada por los daños causados por la Inteligencia Artificial (IA): necesidad de normativa aplicable

por | Feb 10, 2025

Arantxa García Gil reflexiona acerca del papel de la Inteligencia Artificial en la actualidad y en la necesidad de una regulación armonizada entre todos los estados, deteniéndose en analizar la responsabilidad civil causada por el uso de estos sistemas inteligentes (puede encontrar el enlace de descarga del artículo al final de esta página)

La era de las Inteligencias Artificiales

En la era actual donde el exceso de información nos golpea incesantemente, y parece que todo nuestro mundo se transforma bajo la influencia de robots e Inteligencia Artificial, una auténtica revolución tecnológica que nos invita a convivir con sistemas tales como Perplexity, notebookLM, gamma, ChatGPT…

Además de otros tipos de sistemas o productos como los servicios al cliente a través de chatbots en línea, reconocimiento automático de voz (ASR) o el denominado speech to text, teléfonos móviles inteligentes y hasta robots que intervienen en cirugías como parte del equipo médico, asistentes que se han convertido en casi imprescindibles para nuestras vidas, no podemos obviar que el manejo de estas herramientas y, ante todo, el uso inadecuado de las mismas, puede tener consecuencias y acarrear en ciertos casos un riesgo que conlleva una responsabilidad que conviene tener presente.

Por esta razón, los Estados se han dado cuenta que la normativa vigente no podría hacer frente por mucho tiempo a este tipo de tecnologías que evolucionan diariamente y es por ello por lo que han dado comienzo a un proceso legislativo para dictar normas especialmente creadas para las mismas y tratar de ir regulando el ámbito tecnológico.

Lamentablemente todavía nuestro ordenamiento español no cuenta con una normativa específica relativa a IA o cualquier tecnología emergente, por lo que debemos acudir a propuestas, informes, trabajos e incluso resoluciones extranjeras como las de la Unión Europea, siendo muy pocos los países que han iniciado el desarrollo legislativo de estos sistemas. Por ser, en términos jurídicos, el más cercano al Ordenamiento Español la normativa a considerar será muchas veces la de La Unión Europea, siendo la pionera en normativa sobre IA .

Teniendo en cuenta que antes que una normativa individualizada de cada país conviene más una legislación uniforme lograda a través de tratados o reglamentos europeos, este es el marco regulatorio más actual y que más se acerca a una respuesta sobre la problemática tanto a nivel extranjero, es decir, los terceros estados fuera de la UE -muchos países no tienen consolidada aún una normativa sobre IA, menos todavía referente a la responsabilidad civil de estos sistemas- como a nivel interno, para cada uno de los estados miembros de la UE

Los sistemas de IA pueden actuar de manera autónoma e impredecible, lo que dificulta determinar si las acciones de sus creadores causaron daños de manera directa. La legislación actual tampoco reconoce a los sistemas de IA como entidades jurídicas, por lo que la responsabilidad debe recaer necesariamente sobre sus creadores y operadores humanos, y las empresas que los emplean.

Así, las empresas deben implementar prácticas responsables al desarrollar y utilizar IA, priorizando consideraciones éticas y cumpliendo con las regulaciones vigentes

La UE, pionera en la legislación de los sistemas de IA

En tal sentido La Unión Europea ha emprendido diversas iniciativas sobre la materia al objeto de lograr un equilibrio entre la necesidad de contar con estas tecnologías en pos del progreso económico y la protección de los derechos fundamentales de los ciudadanos europeos, siendo que su objetivo principal es lograr una mayor seguridad jurídica y respeto de los mismos, así como seguir promoviendo el desarrollo de sistemas inteligentes

Así, la IA, como ciencia que trata de estudiar el comportamiento inteligente a partir de modelos matemáticos, encuentra en el Informe con recomendaciones destinadas a la Comisión Europea de 2020, la mejor aproximación actual a una conceptualización de la misma cuando la define como «todo sistema basado en programas informáticos o incorporado en dispositivos físicos que muestra un comportamiento que simula la inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno y la adopción de medidas, y pasar a la acción, con cierto grado de autonomía, para lograr objetivos específicos».

En un sentido similar se pronuncia el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024 cuando define la IA como un sistema basado en una máquina que está diseñado para funcionar con distintos niveles de autonomía y que puede mostrar capacidad de adaptación tras el despliegue, y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar resultados de salida, como predicciones, contenidos, recomendaciones o decisiones, que pueden influir en entornos físicos o virtuales.

Existe un debate sobre si los robots y sistemas de IA deberían tener una personalidad jurídica propia, lo que implicaría que podrían ser responsables de sus acciones de manera similar a las personas jurídicas como las empresas.

Estos puntos reflejan la necesidad de un marco legal claro y adaptado a las particularidades de la IA para gestionar adecuadamente la responsabilidad civil derivada de su uso.

Desgraciadamente, la gran mayoría de ordenamientos jurídicos carecen de regulación en esta materia, no existe una “regulación específica” para sistemas que puedan realizar tareas sin ningún control o de forma autónoma. Por este motivo se ha planteado adaptar las normas vigentes a estos supuestos.

Es en este contexto, de necesitar una regulación especializada para la IA y la robótica, cuando surge como premisa lo que autores denominan el Proyecto Robolaw. La finalidad de este proyecto, llamado «Regulación de las tecnologías emergentes en Europa: Robótica frente a la ley y la ética», surge de la necesidad de suplir las lagunas jurídicas que estaba dejando la implementación en diversos sectores cada vez más frecuente de IA. Este proyecto cumple con ser uno de los precedentes más importantes -no solo a nivel europeo, sino también como referente para terceros estados- que se encarga de poner énfasis en una legislación para las nuevas tecnologías.

De otro lado, la Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificia, supone uno de los más recientes avances en el proceso de regulación de la robótica y la inteligencia artificial.

Constituye una de las soluciones más novedosas en este ámbito a nivel mundial pues incluye una normativa especializada sobre la responsabilidad civil cuando sea ocasionado un daño por algún sistema inteligente. La Resolución, como solución a esta problemática, establece como objetivo principal que «para aprovechar eficazmente las ventajas e impedir posibles malos usos de los sistemas de IA. […] Es fundamental una legislación uniforme, basada en principios y preparada para el futuro en toda la Unión para todos los sistemas de IA….».

«[…] Parece necesario contar con un marco jurídico horizontal y armonizado basado en principios comunes con el fin de garantizar la seguridad jurídica, establecer una igualdad de normas en toda la Unión y proteger eficazmente nuestros valores europeos y los derechos de los ciudadanos»; así, se parte de la premisa de que cualquier marco jurídico en materia de responsabilidad civil orientado al futuro debe dotar de seguridad jurídica e infundir confianza en la seguridad, fiabilidad y coherencia de los productos y servicios, incluidas las tecnologías digitales.

En un contexto próximo, especial referencia merece el Primer Informe Internacional sobre la Seguridad de la IA, liderado por el renombrado experto en inteligencia artificial Yoshua Bengio, y respaldado por las ideas de casi 1.000 expertos globales, examina los riesgos críticos de la IA, enfatiza la urgencia de la colaboración internacional y describe las principales prioridades de investigación para abordar desafíos como el uso malintencionado, los impactos sistémicos y el desarrollo seguro de tecnologías avanzadas de IA

Categorías clave de riesgos de la IA

El informe identifica tres categorías principales de riesgos de la IA que requieren atención urgente:

  • Riesgos de uso malicioso, que abarcan amenazas potenciales como ciberataques y contenido dañino generado por IA.
  • Fallos del sistema, que incluyen problemas relacionados con sesgos, fiabilidad y posible pérdida de control.
  • Riesgos sistémicos, que cubren impactos sociales más amplios como la disrupción laboral, preocupaciones sobre la privacidad y efectos ambientales.

Estas categorías de riesgos destacan los desafíos multifacéticos que plantean los sistemas avanzados de IA, que van desde amenazas inmediatas a la seguridad hasta implicaciones sociales a largo plazo. La evaluación integral de estos riesgos sirve como una base crucial para que los responsables políticos e investigadores desarrollen estrategias específicas para mitigar posibles daños y garantizar un desarrollo responsable de la IA.

Desafíos en la Gestión de Riesgos

Una de las principales preocupaciones es el potencial de la IA de propósito general para crear nuevos riesgos extremos que son difíciles de anticipar y mitigar. Estos desafíos incluyen:

  • Desplazamiento masivo de empleos debido a la automatización por IA, lo que podría llevar a inestabilidad económica y disturbios sociales
  • Aumento de las capacidades para el terrorismo y otras actividades maliciosas, habilitadas por tecnologías avanzadas de IA
  • La posibilidad de que los sistemas de IA «se descontrolen» o se comporten de maneras impredecibles que podrían tener consecuencias de gran alcance

Los expertos enfatizan que las apuestas son excepcionalmente altas, con el potencial de que la IA impacte diversos aspectos de la sociedad, subrayando la necesidad de medidas proactivas y cooperación internacional para abordar estos desafíos, ya que el rápido avance de las tecnologías de IA supera los marcos regulatorios y protocolos de seguridad actuales.

La responsabilidad civil por los daños causados por la IA: ejemplos

Centrémonos en un caso concreto, cual es responsabilidad Extracontractual en lo que se refiere a los daños causados por la IA durante el uso de un coche autónomo. si este causa un accidente, que origina unos daños y perjuicios; en este sentido, especial atención merece el criterio de imputación en los vehículos conectados y autónomos.

Aquí radica el dilema, la verdadera incógnita, en determinar quién será el responsable de los daños ocasionados por un sistema inteligente y, por ende, concretar qué sujeto deberá hacer frente al pago de la indemnización por el perjuicio ocasionado: ¿será el fabricante o productor, el propietario del coche, el usuario del mismo, el vendedor o el desarrollador del software, del propio algoritmo de IA, la Compañía Aseguradora del vehículo o la máquina en sí misma? ¿Quizá cabría asumir una responsabilidad solidaria? ¿Serán los sistemas de IA los verdaderos responsables de estos daños ocasionados?

En estos supuestos, donde un sistema de conducción autónoma total basada en IA causa un accidente, ¿quién responde por ese daño? ¿Cómo determinamos la acción u omisión imputable? Y en lo que se refiere a las dificultades de establecer la relación de causalidad, sería en cualquier caso necesario reconocer una personalidad jurídica a los robots, ¿y hacerlos responsables de los daños que podrían causar o tendremos que encontrar el origen de la anomalía para imputar a una persona física? Y más inquietante si cabe, ¿debe al final la víctima del daño soportarlo por no haber sido posible encontrar un responsable?

Se puede afirmar que existe una línea roja que separa el actual sistema del riesgo de la conducción de vehículos a motor y el vehículo autónomo comunicado que no requiere la intervención del ser humano para circular. La cuestión es trascendente en esta actividad considerada de alto riesgo, ya que todo el marco regulatorio del automóvil y su aseguramiento de responsabilidad civil se basa en la posibilidad de control del conductor que gobierna el vehículo, aun cuando el vehículo disponga de múltiples dispositivos tecnológicos que hacen más cómoda la conducción, pero requieren siempre la presencia del conductor que es el que , en definitiva, toma las decisiones propias de quien tiene el gobierno del automóvil.

Tal línea roja no aparecerá mientras que, de una u otra forma, sea necesaria la mínima intervención del conductor, lo cual hace pensar que, a corto plazo, viviremos un período transitorio en el que el vehículo, a pesar de contar con múltiples dispositivos tecnológicos, siga siendo gobernado por el ser humano. Es muy previsible que este período transitorio o mixto de conducción cuasi autónoma, será aprovechado para adaptar las ciudades y las vías públicas para el uso de los vehículos autónomos comunicados. Mientras transcurra ese período, tanto el marco legal que regula la circulación del automóvil, como las soluciones aseguradoras, seguirán siendo análogas a las actuales, aunque con pequeñas adaptaciones.

La autonomía de un robot es la capacidad de tomar decisiones y aplicarlas en el mundo exterior, con independencia de todo control o influencia externos, siendo que esa autonomía es puramente tecnológica y es mayor en función del grado de sofisticación con que se haya diseñado el robot para interactuar con su entorno.

La Ley de 35/2015, de 22 de septiembre, que modifica el Texto Refundido de la Ley sobre responsabilidad civil y seguro en la circulación de vehículos a motor, aprobado por el Real Decreto Legislativo 8/2004, de 29 de octubre, establece en su art. 1.1.: «El conductor de vehículos a motor es legalmente responsable, en virtud del riesgo creado por la conducción de estos, de los daños causados a las personas o en los bienes con motivo de la circulación. En el caso de daños a las personas, de esta responsabilidad sólo quedará exonerado cuando pruebe que los daños fueron debidos a la culpa exclusiva del perjudicado o a fuerza mayor extraña a la conducción o al funcionamiento del vehículo; no se considerarán casos de fuerza mayor los defectos del vehículo ni la rotura o fallo de alguna de sus piezas o mecanismos».

La no equiparación legal a los supuestos de fuerza mayor, como causa de exoneración de responsabilidad, de los defectos del vehículo, ni la rotura o fallo de alguna de sus piezas o mecanismos, impide su invocación por parte del conductor del vehículo que será el responsable, en virtud del riesgo creado por la conducción del mismo, de los daños causados a las personas o en los bienes con motivo de la circulación.

Finalizado el período transitorio, cuando el automóvil sea plenamente autónomo y no dependa del ser humano para ningún proceso de control de la conducción, precisamente en ese momento, tanto el marco legal como los distintos seguros relacionados con la circulación de vehículos a motor (daños propios, obligatorio y voluntario de responsabilidad civil, accidentes, riesgos extraordinarios, etc.), cambiarán necesariamente para adaptarse a las necesidades de los nuevos escenarios de riesgos.

Respecto del requisito del daño, como elemento esencial de la responsabilidad civil, debe tener las siguientes características, debe ser real, es decir, que pueda probarse su existencia, evaluable económicamente y constituir una lesión física o mental, o bien daño material o inmaterial, incluso cuando hayan sido causados por incitación al odio, sesgo, discriminación o estigmatización, tales como pérdidas financieras o económicas, pérdida de empleo o de oportunidades educativas, restricción indebida de la libertad de elección o de expresión, pérdida de la privacidad y cualquier infracción del régimen jurídico aplicable que sea perjudicial para una persona.

Un problema particularmente preocupante es la posibilidad de aplicar el régimen de responsabilidad civil sin daño en los supuestos del principio de cautela o precaución formulado en el artículo 191, apartado 2, del Tratado de Funcionamiento de la Unión Europea, que faculta a las instituciones a adoptar medidas de protección sin tener que esperar a que se demuestre plenamente la realidad y gravedad de tales riesgos cuando subsistan dudas sobre la existencia o alcance de las amenazas para la salud de las personas. 

Íntimamente relacionado con la reparación del daño está el posible establecimiento de un régimen de seguro obligatorio de responsabilidad civil para las nuevas tecnologías que utilizan los sistemas de IA, como ya se aplica en España a más de ochocientas actividades. Ante el posible déficit o falta de respuesta del mercado asegurador, dicho sistema podría completarse con un fondo que garantizara la reparación de daños en los casos de ausencia de una cobertura de seguro.

¿Cuál es la responsabilidad civil por los daños causados por la IA?

En definitiva, y en resumen, ¿cuáles la responsabilidad civil de la IA? Resulta incuestionable que un nuevo régimen de Responsabilidad Civil que abarque supuestos de IA y robótica es inminente.

Se parte de una responsabilidad basada en la culpa, criterio predominante en los ordenamientos jurídicos de los países de la UE. En nuestro caso rige el criterio general del art.1902 CC, que reproduce el patrón clásico de la responsabilidad por culpa. Pero, en nuestro sistema también existe una sólida tradición de objetivación de la responsabilidad cuando la actividad desarrollada crea un riesgo evidente que excede el actuar corriente, como sucede, como hemos indicado, en la conducción de vehículos a motor. Evidentemente, la posibilidad de incluir la responsabilidad civil causada por la IA como objetiva (lo que parece claro en los casos de IA de alto riesgo) requerirá de una previsión legal específica y la asunción de la necesidad de concertar seguros obligatorios.

Así, en el caso de un sistema de IA de alto riesgo (el que funciona de forma autónoma) se abogaría por un sistema de responsabilidad objetiva del operador, y, en cambio, cuando el sistema de IA no sea de alto riesgo la responsabilidad se basará en la culpa, por lo que operador no será responsable siempre y cuando pueda demostrar que no tuvo culpa o negligencia en el daño causado.

El desarrollo tecnológico y la gran presencia social y económica que tienen los robots y la IA aumentará en muy poco tiempo, lo que obliga a establecer nuevas normas jurídicas. El debate surge cuando nos preguntamos si es adecuada la aplicación de las leyes existentes -las que llamamos tradicionales- a los cambios tecnológicos estructurales que estamos experimentando, esto es, si los principios de nuestro Derecho son suficientes para afrontar la responsabilidad que surge de la utilización de sistemas dotados con IA, o si por el contrario debería ser necesaria una legislación completamente nueva para estas situaciones.

Mirando al futuro, y tal y como plantea la iniciativa de la Comisión Europea, evitar la fragmentación en la legislación de los Estados Miembros de la UE en materia de responsabilidad civil derivada de la utilización de sistemas de IA es una prioridad para alcanzar los objetivos de Mercado Único Digital. Para ello, el mecanismo legislativo que podemos entender idóneo es el reglamentario.

La Unión Europea, consciente de los beneficios y riesgos asociados con esta tecnología, ha adoptado un enfoque regulatorio pionero mediante el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial, siendo la primera norma jurídica del mundo sobre la materia, teniendo por objeto garantizar que los sistemas de IA sean seguros, éticos y fiables. A partir del 1 de agosto de 2024, este reglamento establece un marco normativo para garantizar el desarrollo y uso seguro y ético de la IA, normativa que constituye la primera regulación general a nivel mundial de esta novedosa materia, siendo un marco legal armonizado que, a pesar de su carácter fragmentario, va a acabar condicionando el desarrollo económico y social y uso en los próximos años de modelos, sistemas y herramientas de inteligencia artificial en Europa.

A pesar de la evidente naturaleza de derecho público del Reglamento de IA, son muchas las implicaciones para diferentes ámbitos del derecho privado, que los juristas dedicados al derecho de daños, contratos o la propiedad han de tener presente. En cuanto a la responsabilidad civil que nos ocupa, El Reglamento de IA no norma sobre la responsabilidad civil por daños y perjuicios causados durante el desarrollo y uso de modelos y sistemas de inteligencia artificial, ni tampoco de establecer una pretensión indemnizatoria para su compensación en este ámbito.

Con arreglo al considerando 9, el Reglamento se aplica sin perjuicio de las demás normas vigentes en la Unión y en los EE.MM. y, en particular, del derecho general de daños y del derecho de responsabilidad del fabricante por productos defectuosos. Esta opción legislativa responde a la elaboración durante la tramitación del Reglamento de IA de dos instrumentos normativos independientes para las cuestiones relacionadas con la reparación de los daños: la Directiva sobre responsabilidad por los daños causados por productos defectuosos, aprobada recientemente, y la Propuesta de Directiva relativa a la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial.

Así, el remedio indemnizatorio no puede desligarse de otros mecanismos que, juntamente, contribuyen a que los riesgos que generan determinadas actividades peligrosas no se acaben concretando o se concreten en menos ocasiones en daños, regulando las especificaciones técnicas para hacer a los sistemas de IA de alto riesgo más seguros. Las limitaciones de entrada en el mercado así como las pertinentes evaluaciones de conformidad y, ex post, los deberes de vigilancia postcomercialización y el derecho sancionador, poder constituir uno de muchos daños, reducir el protagonismo de las acciones indemnizatorias y mitigar los costes privados y sociales de los pleitos de responsabilidad civil.

Las potenciales reclamaciones privadas por daños derivados del funcionamiento y uso de modelos y sistemas de inteligencia artificial de alto riesgo exigirán en muchos casos identificar infracciones de deberes de seguridad establecidos en el propio Reglamento de IA y valorar si estas pueden servir por si solas para acreditar la negligencia de los demandados en el pleito. Este parece ser el modelo defendido por la Comisión en su Propuesta de Directiva de Responsabilidad Civil e Inteligencia Artificial.

El artículo 4 de esta define la culpa del demandado como «el incumplimiento de un deber de diligencia establecido por el Derecho de la Unión o nacional destinado directamente a proteger frente a los daños que se hayan producido» y especifica luego determinados incumplimientos normativos que per se pueden presumirse negligentes.

En cuanto a los proveedores de sistemas de IA de alto riesgo u otros sujetos que se equiparan al proveedor, el art. 4.2 prevé los siguientes supuestos de infracciones normativas del Reglamento de IA: a) incumplimiento de los criterios de calidad sobre datos de entrenamiento (training data), validación o prueba; b) incumplimiento de los requisitos de transparencia; c) diseño o desarrollo del sistema sin que permita una vigilancia efectiva por parte de personas físicas durante el funcionamiento del sistema de IA; d) diseño o desarrollo del sistema que, en atención a su finalidad, no ofrezca niveles adecuados de precisión, solidez y ciberseguridad; e) falta de adopción inmediata de medidas correctoras necesarias para poner el sistema de IA en conformidad después de detección de incidentes o para retirarlo del mercado.

También el artículo 10.2.b) de la nueva Directiva sobre responsabilidad por los daños causados por productos defectuosos señala que «se presumirá el carácter defectuoso del producto cuando se cumpla alguna de las siguientes condiciones: […] b) el demandante demuestre que el producto no cumple los requisitos obligatorios de seguridad del producto establecidos en el Derecho de la Unión o nacional que tienen por objeto proteger contra el riesgo del daño sufrido por la persona perjudicada».

En cualquier caso, no podrá ignorarse la posibilidad de acudir a normas y doctrinas nacionales sobre solidaridad u otras modalidades de la obligación de reparar los daños y perjuicios, especialmente, cuando los diferentes operadores estén situados en jurisdicciones diferentes. En el Derecho Español, demandar junto a un proveedor privado de un sistema de IA a un organismo público de evaluación de conformidad o a un organismo notificado obligará a acudir a la jurisdicción contencioso-administrativa y a la regulación de la responsabilidad patrimonial.

Conclusiones

El Reglamento de IA ha de considerarse una normativa de mínimos en materia de deberes de seguridad para los sistemas de IA de alto riesgo, especialmente, en un campo tan dinámico y con altos niveles de innovación en estos momentos como la inteligencia artificial. Además, el Reglamento no impide la aplicación de otras normas de seguridad de producto, especialmente, cuando los sistemas de IA se utilizan como componente de seguridad de un producto o constituyen un producto con arreglo a la legislación europea sobre armonización.

También, el Reglamento ya prevé otras fuentes como actos delegados de la Comisión, códigos de buenas prácticas, códigos de conducta o estándares técnicos armonizados… que completarán y concretarán los niveles de seguridad que habrán de respetar los sistemas de IA. Además, en relación con los regulatory sandboxes, el Reglamento de IA prevé que el cumplimiento normativo podrá únicamente evitar la imposición de multas administrativas, pero no la responsabilidad civil.

En relación con el derecho de daños, el Reglamento también prevé que el número de personas afectadas y el nivel de los daños que hayan sufrido y las acciones emprendidas por el operador de un sistema de IA para mitigar los perjuicios sufridos por las personas afectadas serán considerados como factores para decidir la imposición de sanciones administrativas y su cuantía (arts. 99.7 y 101.1 RIA).

Al respecto hemos de precisar que actualmente se encuentra se pretende lograr una armonización total, sin dejar lugar a la posible fragmentación normativa que pudiera derivarse de transposiciones dispares. Esta uniformidad será necesaria para facilitar el resarcimiento de los damnificados de manera uniforme en toda la UE con independencia del Estado Miembro en el que se hallen, así como para impedir que este factor suponga una barrera al comercio europeo y a los objetivos de Mercado Único Digital.

En definitiva entiendo que de lo que debemos estar completamente seguros y aunados es en la creación de normas éticas firmes que, combinadas con procedimientos de indemnización sólidos y justos, aborden la problemática de los sistemas inteligentes eliminando el riesgo de los usuarios que sufran un menoscabo causado por IA a un sistema de indemnización injusto, tal y como estableció el Parlamento Europeo en la ya citada anterior Resolución de 2020.

Todas estas propuestas buscan garantizar que el desarrollo y uso de la IA sea ético, responsable y beneficioso para la sociedad, abordando preocupaciones como la privacidad, la equidad, la transparencia y la responsabilidad, todo ello para alcanzar un futuro mejor en armonía con la utilización de la valiosa IA que ya forma parte de nuestra cotidianeidad.

Descargue en PDF el artículo de Actualidad Profesional correspondiente al e-Dictum nº 151 (febrero de 2025)

Share This