Cargando. Por favor, espere

Adaptar o reformular la Directiva 85/374 sobre responsabilidad por daños causados por productos defectuosos a la inteligencia artificial

Adaptar o reformular la Directiva 85/374 sobre responsabilidad por daños causados por productos defectuosos a la inteligencia artificial

Carmen Muñoz García.

Profesora Titular de Universidad de la UCM

Codirectora del Grupo de Investigación UCM «Derecho de Daños. Derecho de la contratación»

Diario La Ley, Nº 59, Sección Ciberderecho, 1 de Marzo de 2022, Wolters Kluwer

LA LEY 1868/2022

Comentarios
Resumen

Estamos inmersos en una completa revolución tecnológica que hace completamente aconsejable y necesaria la adecuación de las normas existentes a las nuevos sistemas, con conceptos nuevos y otros actualizados y con cadenas de valor en las que intervienen múltiples agentes hasta ahora desconocidos o irrelevantes para la Directiva 85/374 sobre responsabilidad por productos defectuosos. Por lo pronto, la propuesta de Reglamento sobre Inteligencia Artificial (2021), a pesar de ser el primer marco normativo sobre la materia, no se ocupa de la responsabilidad civil. De ahí que teniendo en cuenta las relevantes aportaciones que este marco incorpora, sea necesario analizar el concreto régimen especial de responsabilidad civil por producto defectuoso contenido en la Directiva 85/374. Iniciada consulta pública sobre como adaptar este texto a la IA, no podemos perder de vista que incluir estos sistemas de IA en dicho marco normativo no podrá suponer reducir garantías para los perjudicados.

El objeto de este trabajo es analizar el régimen de responsabilidad civil por los daños que se causen en el contexto del desarrollo de sistemas de inteligencia artificial (IA).

Hasta el momento, la Directiva 85/374 (LA LEY 1943/1985), sobre la responsabilidad por los daños causado por productos defectuosos, viene garantizando la protección de cualquier perjudicadoen un contexto de responsabilidad objetiva del productor, como marco normativo adecuado y admitido por los mercados. Sin embargo, los retos a los que nos enfrentamos ante las nuevas realidades digitales, entre ellas la IA, han determinado la necesidad de regular estos sistemas tecnológicosdesde un enfoque que está basado en función del riesgo que generan para los ciudadanos.

De ahí la propuesta actual de la Comisión europea de una «Ley de Inteligencia Artificial» en este sentido, pero además, y en conexión con esta, la necesidad de abordar la actualización de la Directiva sobre responsabilidad por productos defectuoso para responder a los problemas derivados de la los daños causados por nuevos productos que incorporan sistemas de inteligencia artificial. Ambas normativas, la de IA y la de responsabilidad por productos defectuosos, previsiblemente, constituirán el marco común de la IA.

Y aunque queda pendiente un largo recorrido por parte de la UE y de los EE.MM respecto a ambos textos, habrá que ver si a resultas de la revisión de la Directiva 85/374 (LA LEY 1943/1985) (i) esta logra alcanzar la plena tutela hasta ahora conseguida con su aplicación, y (ii) si se cumple, tras su adaptación, el objetivo de mantener las mismas garantías para los ciudadanos, independientemente de si el daño es causado por un sistema de IA o no, o de si tiene lugar física o virtualmente.

Tal pretensión se refleja en muchos de los textos y actuaciones recientes de la Unión, al declarar que dicho objetivo constituye uno de los principios rectores de la iniciativa reguladora. Se trata de dar a los ciudadanos el mismo nivel de protección dispensado hasta la actualidad frente a productos defectuosos, en el nuevo contexto tecnológico como así se refleja, entre otros, en el anexo a la resolución del Parlamento Europeo de 20 de octubre de 2020. Cualquier otra alternativa supondría un error que dejaría a los perjudicados en clara situación de indefensión. Confiemos en que la adaptación no abandone el régimen de la Directiva 85/374 (LA LEY 1943/1985).

I. En busca de un marco jurídico armonizado de responsabilidad civil para la IA

La Comisión Europea impulsa la reforma de la Directiva 85/374/CEE (LA LEY 1943/1985) (1) sobre responsabilidad por los daños causados por productos defectuosos (consulta publicada el 25 de octubre de 2021), para adaptarla a los profundos cambios producidos por la digitalización, y muy especialmente, para dar respuesta a los muchos retos pendientes que plantea la IA. Para esta última, se ha presentado un primer y gran marco reglamentario. Por lo que, el punto de partida de la inevitable reforma de la Directiva 85/374 (LA LEY 1943/1985), lo es la Propuesta de Reglamento en materia de Inteligencia Artificial publicada el 21 de abril de 2021, de la Comisión Europea (2) , que aunque adopte la forma y el fondo de un Reglamento, se pretende que sea conocida como «Ley de Inteligencia Artificial» (en adelante, «propuesta LIA» o «LIA», o simplemente, «propuesta de Reglamento»).

En dicho marco normativo aparece como objetivo que, habrán de armonizarse normas que deberán tener en cuenta los intereses de productores, proveedores y empresarios de estas tecnologías emergentes, y los de los usuarios de las mismas. Y aunque esta propuesta de Reglamento no será aplicable a aquellos «usuarios» que utilicen un sistema de IA «cuando su uso se enmarque en una actividad personal de carácter no profesional», entiendo que serán de aplicación, entre otras, las definiciones y clasificaciones de estos tipos de sistemas, y que tendrán incidencia al tiempo de fijar la responsabilidad civil por productos defectuosos vía adaptación de la Directiva 85/374 (LA LEY 1943/1985). El iter pendiente no será fácil, pero si queremos que el desarrollo e implementación de estas nuevas tecnologías, principalmente la inteligencia artificial, sean aceptadas por el conjunto de la sociedad por ofrecer un marco normativo seguro, fiable, que facilite la innovación y su desarrollo, y que responda frente a los riesgos creados, habrán de garantizarse los derechos fundamentales y valores de la Unión.

Así es, previo a esta reforma que ahora se impulsa en materia de productos defectuosos, para responder en nuevos contextos tecnológicos, la Comisión europea presentó el 21 de abril de 2021 una Propuesta de Reglamento en materia de Inteligencia artificial, con el objetivo de la Unión de «preservar su liderazgo tecnológico y garantizar que los europeos puedan aprovechar nuevas tecnologías» y que estas «se desarrollen y funcionen de acuerdo con los valores, los derechos fundamentales y los principios de la UE». Para ello, el firme propósito de la Comisión es: (i) abordar la progresiva implantación de los distintos desarrollos de la inteligencia artificial, beneficiosos para el conjunto de la sociedad, y (ii) contemplar y abordar los riesgos para la seguridad y los derechos fundamentales de los usuarios. Se trata de presentar normas armonizadas que posibiliten «un marco jurídico destinado a lograr que la IA sea fiable» y que basándose en «los valores y derechos fundamentales de la UE», por un lado, genere confianza y seguridad entre los usuarios potenciales, y por otro, impulse a las empresas en el compromiso con el desarrollo, la innovación y puesta en el mercado de estos sistemas de IA (3) .

Sea como fuere, la Propuesta de Reglamento ha generado ya un enorme impacto en la materia. Por lo pronto, pone negro sobre blanco y apunta a otras normas europeas con plena vigencia en este marco regulatorio horizontal, aplicable a cualquier sector, o bien porque ya se utilizan estas nuevas tecnologías, o porque se utilizarán en un futuro. Así, precisa la necesaria coherencia de la Propuesta con otras normas del acervo comunitario. Por lo que advierte que deben tenerse en cuenta, la Carta de los Derechos de la UE, y el Derecho derivado de la Unión vigente en materia de: protección de datos, protección de los consumidores, no discriminación e igualdad de género. Lo que nos lleva, entre otros marcos existentes, al RGPD, a la Directiva 85/374 (LA LEY 1943/1985), sobre responsabilidad por los daños causados por productos defectuosos, o a la Directiva 2001/95 (LA LEY 13727/2001) sobre seguridad general de los productos (4) .

Por lo pronto, la propuesta de una legislación horizontal sobre la IA en abril de 2021, ha mostrado un sistema con caracteres claramente disruptivos y ajenos al régimen normativo de 1985 (nuevas definiciones y sujetos participantes en la cadena de valor de la IA, los datos o la capacidad de aprendizaje, entre otros) que obliga a la adaptación de la Directiva referida. La Consulta ha estado abierta desde 18 de octubre de 2021 al 10 de enero de 2022, y la masiva participación desde los distintos países, instituciones, organizaciones o particulares, es solo la muestra de que el marco normativo vigente sobre responsabilidad del productor por daños por productos defectuosos, frente a cualquier perjudicado, habrá de adaptarse a estas tecnologías innovadoras y vendrá a complementar la normativa sobre IA.

Esto último no es nuevo, el Informe de la Comisión sobre la aplicación de la Directiva 85/374 (LA LEY 1943/1985), de 7 de mayo de 2018 (5) , ya advirtió que aun cuando la norma europea sobre responsabilidad por productos defectuosos sigue siendo «una herramienta adecuada» para responder a los productos tecnológicos, era difícil de aplicar a productos en la economía digital y circular. Por lo que sugería que, ante los múltiples interrogantes que se presentan, la Comisión llevara a cabo una consulta general con todas las partes interesadas, con la pretensión de abordar la adecuada aplicación de la Directiva ante las tecnologías digitales emergentes. Precisa que es necesario aclarar y adaptar conceptos jurídicos como «producto», «productor», «defecto» «daño» y «carga de la prueba» a la nueva realidad tecnológica. Advirtió también, la dificultad que supone para los usuarios, el obtener una compensación por daños, ante la propia imposibilidad de probar el defecto en productos complejos. Las casi cuatro décadas de vigencia útil de la Directiva, que ha garantizado que los productores respondan «de los daños causados por los defectos de sus productos» (art. 1 de la Directiva), frente a cualquier perjudicado, empieza a ser insuficiente cuando los retos que tienen que ver con la inteligencia artificial introduce nuevos elementos, complejos, intangibles, y en muchos casos ingobernables, que es probable que escapan del control del productor.

II. Por qué impulsar la adaptación de la Directiva 85/374

Así las cosas, es obligado que nos adentremos en la reforma impulsada desde la UE de la Directiva 85/374 (LA LEY 1943/1985) sobre responsabilidad por daños causados por productos defectuosos, ante la dificultad de su aplicación a productos que contienen tecnología digital, y que en su mayoría presentarán gran complejidad a los efectos de determinar tanto la causa del daño como el sujeto al que le es atribuible.

Así es, una de las piedras angulares sobre las que reposa la responsabilidad extracontractual está en la identificación de la causa del daño y en la atribución de quién debe responder por el mismo, imputación objetiva e imputación subjetiva (atribución), como las dos caras de la misma moneda. Pero si esto, hasta ahora, en materia de producto defectuoso y consiguiente aplicación de la Directiva 85/374 (LA LEY 1943/1985) y normativas de los EE.MM, no ha estado exento de dificultades, es evidente que los nuevos desarrollos de la inteligencia artificial en todos los sectores sociales y económicos, su implantación, y el progresivo funcionamiento autónomo en la asunción de actuaciones hasta ahora realizadas por humanos y/o gobernadas por estos, requieren de normas claras y armonizadas. Sin duda, hay que garantizar que, cuando se materialice el riesgo y se produzca el daño, el perjudicado sea resarcido por el perjuicio causado por un producto —o servicio—, automatizado.

Ahora bien, esto, con la normativa vigente sobre responsabilidad civil por producto defectuoso, contenida tanto en la Directiva 85/374 (LA LEY 1943/1985) como en nuestra norma interna en la Ley General de Defensa de consumidores y usuarios (en adelante TRLGDCU (LA LEY 11922/2007), o TR 1/2007), artículos 128 y ss., y con una eficiencia y validez que se acerca a las cuatro décadas, parece que no posibilita soluciones válidas para los productos con sistemas de IA. Tengamos en cuenta que, las fuentes de riesgo provienen de otros elementos que nos han sido ajenos hasta época muy reciente, los algoritmos, los datos, y el software creado, junto a que por su posibilidad de aprendizaje habrán de ser tenidos en cuenta.

III. Algunas de las medidas precedentes adoptadas por la UE para promover la IA

La Propuesta de Reglamento en materia de Inteligencia Artificial forma parte de un paquete integral más amplio de medidas que fue iniciado en la Unión Europea con el Proyecto RoboLaw (2012-2014) (6) , y al que le han sucedido no pocos documentos emitidos por la UE, como muestra no solo del interés por la materia desde todos los ámbitos internacionales, sino también del papel preponderante por el que ha optado la UE para promover la IA y hacerlo en un marco seguro para los ciudadanos. Para iniciar el proceso de armonización de la normativa europea en la materia, las instituciones de la Unión, en un plazo muy breve, se han valido de distintos instrumentos que, se pueden sintetizar en los siguientes hitos:

  • a) la Resolución del Parlamento Europeo de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL) (7) ;
  • b) la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité económico y social Europeo y al Comité de las Regiones sobre «Inteligencia artificial para Europa», de 25 de abril de 2018, en la que entre otros aspectos, la Comisión anuncia la publicación de un documento de orientación para la interpretación de la Directiva 85/374 (LA LEY 1943/1985), sobre responsabilidad por los daños causados por productos defectuosos (que será el último y 5º informe existente hasta la fecha), y que intentará resolver si este da respuesta a los nuevos sistemas de IA, IoT y robótica. En esta Comunicación definirá, en términos aún difusos, qué se entiende por IA (8) .
  • c) el Informe de la Comisión, de 7 de mayo de 2018, sobre la aplicación de la Directiva 85/374 (LA LEY 1943/1985) acerca de la responsabilidad por los daños causados por productos defectuosos (9) , que, aunque inicialmente tenía por finalidad hacer un diagnóstico de los grandes cambios que se han producido entre 1985 y 2018, dio un paso más. Por primera vez, apunta a los grandes retos a los que nos enfrentamos en cuestiones como la digitalización, el internet de las cosas, la IA y la ciberseguridad. Y tras un análisis preliminar, determina que hay que promover una consulta general, alcanzar acuerdos con todas las partes, elaborar una orientación pormenorizada de cómo aplicar la Directiva en la actualidad, y abordar un marco normativo propicio en materia de responsabilidad por productos, adecuado a la regulación industrial inteligente. A lo que concluye que, la Directiva 85/374 (LA LEY 1943/1985), útil y eficaz hasta ahora, sería objeto de análisis por un grupo de expertos. Estos centrarían su estudio en dos aspectos claves: por un lado, era preciso examinar la correcta interpretación, aplicación, y no descartada actualización de la Directiva, para conocida la evolución jurisprudencial tanto de la UE como de los EE.MM, examinar las implicaciones de las emergentes tecnologías en el ámbito de la responsabilidad por productos. Por otro, había que evaluar si el régimen general de responsabilidad por productos defectuosos es adecuado para responder antes las nuevas tecnologías y si sigue posibilitando el ansiado equilibrio entre estabilidad de inversiones y confianza de los consumidores. Es más, aunque concluye que la Directiva «es una herramienta útil para proteger a los perjudicados y garantizar la competencia en el mercado único», se cuestiona si sigue siendo «eficaz» para garantizar la compensación a los particulares en los nuevos contextos. Veremos, sin embargo, que después de todo, será necesaria una revisión en profundidad. No olvidemos, y así se advierte que, tanto la seguridad como la responsabilidad de los productos —en caso de producirse daños— constituyen un aspecto fundamental para el crecimiento exponencial de la IA, y que el principio general de responsabilidad objetiva en este contexto de producto defectuoso, habría de mantenerse sin cambios.
  • d) el «Informe sobre responsabilidad derivada de la inteligencia artificial y otras tecnologías digitales emergentes», emitido en noviembre de 2019 por el Grupo de Expertos creado por la Comisión Europea en marzo de 2018. Este, con la pretensión de dar respuesta a si la Directiva de productos defectuosos y la configuración de la responsabilidad civil, según los distintos informes, es capaz de dar soluciones a las tecnologías emergentes, en concreto, a las nuevas realidades cambiantes surgidas con la robótica y la IA. En dicho informe se pone de manifiesto la conveniencia de admitir un sistema de responsabilidad objetiva y de hacer este compatible con supuestos en los que, el adecuado uso por el usuario, nos deriva a un sistema de responsabilidad subjetiva o basado en la culpa. Se expresa, además, el rechazo pleno a cualquier atribución de personalidad jurídica a este conjunto de tecnologías de rápida evolución como son los robots o cualquier ente autónomo asociado a la IA.
  • e) el compromiso político de la Presidenta Von der Leyen, de que la Comisión presentaría propuestas de legislación en materia de IA empezó a dar sus frutos, y así, el 19 de febrero de 2020, la Comisión publica el «Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza». En este, por la convergencia de tecnologías digitales disruptivas y cambiantes, decididamente aceptadas por los beneficios socioeconómicos que la IA representa, se abordan los problemas y riesgos derivados de su desarrollo y utilización. Entonces queda fijado un doble objetivo: promover la adopción de la IA y abordar los riesgos vinculados a determinados usos de esta tecnología. Para alcanzar esta ambivalente pretensión, se pone de manifiesto que, hay que promover la IA en un marco jurídico seguro y fiable para los ciudadanos y otros usuarios, con la premisa de que la IA «debe ser un instrumento para las personas y una fuerza positiva en la sociedad, y su fin último debe ser incrementar el bienestar humano».
  • f) Tras el Libro Blanco, y con las prioridades políticas de la Comisión en materia de IA muy definidas, el 20 de octubre de 2020, por el Parlamento Europeo, se publican una serie de resoluciones destinadas a la Comisión en las que partiendo de la creciente evolución de la IA y de las tecnologías emergentes similares, se proponen actuaciones legislativas concretas que garantice un marco jurídico seguro para el adecuado desarrollo e implementación de la IA: cuestiones como la ética (10) , los derechos de propiedad intelectual (11) y la responsabilidad civil (12) son el objeto de estas resoluciones del Parlamento. A estas, le han seguido otras actuaciones del Parlamento en el año 2021 (sobre IA en el ámbito penal y su utilización por autoridades policiales y judiciales en dicho contexto, o sobre la IA en los sectores educativo, cultural y audiovisual).

    Ahora bien, por primera vez, se expone que es necesario fijar un régimen de responsabilidad propio en materia de IA, y que este deberá estar condicionado a un amplio debate jurídico. Y aunque en el texto se contienen conceptos y reglas específicas que proporcionen un marco jurídico horizontal y armonizado para todos los sistemas de IA, se fija como propósito adaptar la Directiva 85/374 (LA LEY 1943/1985) sobre responsabilidad por daños causados por un producto defectuoso al mundo digital, sin variar la definición de productor del art. 3 de la Directiva aludida. Además, el concepto sobre IA es todavía ambiguo (13) , y comprende diversidad de sistemas que a su vez conllevan diferentes niveles de riesgos. Esto último, desaconseja una respuesta unívoca en materia de responsabilidad civil. Y terminó por plasmarse en consecuencias jurídicas muy relevantes: para los sistemas de alto riesgo se proclama la responsabilidad objetiva, y para los otros sistemas de IA de no alto riesgo, se fija la responsabilidad basada en culpa presunta (arts. 4.1 y 8.1 y 2 del texto reglamentario contenido en la Resolución de 20 de octubre de 2020). Con todo, de adoptarse este régimen, habrá que ver cómo es de compatible con un claro objetivo que late en cualquier actuación normativa de las instituciones europeas en la Europa digital: que la persona afectada o cualquier tercero que sufra un daño por un sistema de IA, pueda alcanzar el mismo nivel de protección que obtendría cuando los daños se producen por productos en los que no exista «acción u omisión» de un sistema de IA.

    De ahí que no sea ocioso recordar que, en la Directiva 85/374 (LA LEY 1943/1985), el productor responde con carácter objetivo frente a cualquier perjudicado por los daños causados por productos defectuosos. También advierte esta Resolución que, las normas específicas para estos sistemas solo deben adoptar la forma de Reglamento, y que será un aspecto clave abordar el tema de la responsabilidad civil. Por lo pronto, la Propuesta de Reglamento en materia de Inteligencia Artificial, nos da el marco sobre la materia pero para regular la responsabilidad civil, habrá que esperar a la reforma de la Directiva 85/374 (LA LEY 1943/1985).

    En definitiva, la Resolución con recomendaciones destinadas a la Comisión sobre un específico régimen de responsabilidad civil en materia de inteligencia artificial (14) , fija como aspectos fundamentales que: el acto legislativo apropiado que contenga las normas comunes y armonizadas para los sistemas de IA debe hacerse vía Reglamento, teniendo en cuenta que, la responsabilidad civil para el daño causado por un sistema de IA es un aspecto clave de esta Propuesta. Además, advierte que no es necesaria una revisión completa de los regímenes de responsabilidad civil que se han mostrado adecuados y eficaces hasta la fecha, si bien, reconoce que, la complejidad, su grado de conectividad, su opacidad o falta de transparencia, la vulnerabilidad, la posibilidad de ser modificados mediante actualizaciones, o su capacidad de aprendizaje autónomo, constituye un hándicap insoslayable. También lo es el elevado número de agentes participantes o intervinientes en las cadenas de valor que participan en el desarrollo de estos sistemas (programadores, proveedores, operador final o inicial, fabricantes, ususarios,…), lo que determina que sea preciso realizar adaptaciones específicas y coordinadas para posibilitar la responsabilidad civil cuando proceda.

    Por todos esos condicionantes, fijar los elementos de la responsabilidad no será fácil. La concurrencia de causas o la intervención de múltiples agentes, nos muestra un panorama demasiado incierto y cambiante. Aunque sí se pone el foco de atención en el «operador de un sistema de IA» como el primer responsable visible para el perjudicado, comparable —dice— al propietario de un vehículo. Ahora bien, este sujeto, el denominado «operador», no se limitará solo al que controla el riesgo asociado al sistema, sino que como máximo garante para la reparación del daño a la persona afectada, comprende: al proveedor, al usuario, al representante autorizado, al importador y al distribuidor, según se le ha definido poco después en el art. 3.8 de la Propuesta de Reglamento.

    De ahí, y de otros conceptos a revisar, que el Parlamento confíe a la Comisión la necesaria revisión de la Directiva 85/374 (LA LEY 1943/1985) y le inste a que evalúe si la Directiva sobre responsabilidad por los daños causados por productos defectuosos debe transformarse en un reglamento, para la armonización completa, aunque no uniforme (dependiendo del riesgo), y que analice cómo llevar a cabo la identificación: del posible responsable, de la prueba del defecto de un producto —aunque tampoco excluye la prueba de su culpa— y de la relación de causalidad con el daño. También advierte que cualquier actualización del marco de responsabilidad por los productos debe ir de la mano de la actualización de la Directiva 2001/95/CE del Parlamento Europeo y del Consejo, de 3 de diciembre de 2001 (LA LEY 13727/2001), relativa a la seguridad general de los productos. Al fin y a la postre se trata de garantizar que los sistemas de IA sean seguros y protegidos desde el diseño. Definitivamente, se declaran aspectos fundamentales de actuación normativa inmediata, para crear el marco común de responsabilidad civil para los sistemas de IA en la UE: la elaboración de una propuesta de Reglamento sobre IA y la revisión de la Directiva 85/374 (LA LEY 1943/1985).

  • g) Así, el 21 de abril de 2021, se publica la Propuesta de Reglamento por la que se establecen normas armonizadoras en materia de inteligencia artificial, y que toma como punto de partida la clasificación y categorías de sistema de IA. De ahí el enfoque del título II sobre «prácticas de inteligencia artificial prohibidas», que basado en los riesgos, distingue entre los usos de la IA que generan i) un riesgo prohibido o inaceptable, ii) un riesgo alto, y iii) un riesgo bajo o mínimo. De ahí que el tratamiento normativo que se propone dependa de se conceptúe como de un tipo u otro. El concepto se modifica, frente al texto anterior, y aunque es principalmente técnico, pretendidamente neutro, y con vocación de soportar los avances tecnológicos, determina que debe basarse en las principales características funcionales del software, y en particular en su capacidad para generar objetivos definidos por seres humanos. Así, en el art. 3.1) conceptúa como sistema de IA: «el software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa». Y aunque contiene todo un marco normativo reglamentario sobre inteligencia artificial, con objetivos específicos, con concepciones y configuraciones sobre riesgos posibles, medidas para evitarlos y subsanarlos y con obligaciones para los «operadores» (el proveedor, el usuario, el representante autorizado, el importador y el distribuidor), que garanticen que la IA sea segura y se desarrolle y utilice conforme con las obligaciones asociadas a los derechos fundamentales, deja fuera de su ámbito el tratamiento de las cuestiones de responsabilidad civilfrente a los perjudicados. Por tanto, quedan pendiente los daños causados, vinculados a las nuevas tecnologías, más concretamente a los sistemas de inteligencia artificial. Para esto último, habrá que esperar a la modificación de la Directiva sobre responsabilidad por daños causados por productos defectuosos. Queda también al margen, como ya dejó de manifiesto al propuesta de Reglamento, las reglas de responsabilidad de los prestadores de servicios intermedios (considerando 12).
  • h) con estos mimbres, el 25 de octubre de 2021, por la Comisión europea, se publica la consulta pública para la reforma de la Directiva 85/374/CEE (LA LEY 1943/1985) del Consejo, en materia de responsabilidad por los daños causados por productos defectuosos, para adaptarla a la era digital, especialmente a la inteligencia artificial (15) . Lo que resulte de esta reformulación de la Directiva constituirá, a buen seguro, el auténtico régimen normativo de la responsabilidad civil por daños causados por la IA.

    Salta a la vista que los instrumentos de los que se han valido las instituciones de la Unión son incesantes y variados para dar respuesta inmediata a una materia que no admite dilaciones. En efecto, si con estas actuaciones, con el Reglamento, y las reformas de Directivas que sean precisas, conseguimos colocar a Europa a la vanguardia de un marco normativo seguro, transparente y eficaz, como se hiciese con la protección de datos de las personas físicas, será más fácil alcanzar los objetivos europeos, entre ellos: «preservar su liderazgo tecnológico y garantizar que los europeos puedan aprovechar nuevas tecnologías que se desarrollen y funcionen de acuerdo con los valores, los derechos fundamentales y los principios de la UE». Eso sí, sin menoscabar la tutela que sea precisa para los ciudadanos, que deberán tener el mismo nivel de protección y de garantía, con independencia de si el daño es causado por un sistema de IA o por uno que está al margen de esta tecnología.

IV. Marco común normativo de la responsabilidad por producto defectuoso ¿y en la IA?

Según se desprende de las Conclusiones del Informe de abril de 2018, acerca de la necesaria actualización de la Directiva 85/374 (LA LEY 1943/1985), esta adaptación debe tener en cuenta que (i) el marco legal sobre la responsabilidad por productos en el ámbito de la UE, además de ser una herramienta útil para proteger a los perjudicados y garantizar la competencia en el mercado único, es una norma imprescindible e incuestionable; (ii) el objetivo es que se siga garantizando un equilibrio justo entre los intereses de consumidores y de todos los productores, en un marco «favorable y fiable», que permita la innovación y el liderazgo tecnológico europeo seguro; (iii) el principio general de responsabilidad objetiva de la Directiva se mantenga sin cambios, y cumpla con la función principal de la responsabilidad civil: la reparación de daños, y además, con la de prevención del mismo. Así se desprende de la conclusión —final—, y a modo de desiderátum de este Informe, ante la denominada «cuarta revolución industrial», al expresar que, «Un marco de seguridad coherente y tecnológicamente neutro debería prevenir los accidentes en la medida de lo posible. No obstante, cuando estos se producen, nuestro marco de responsabilidad debería garantizar que los perjudicados obtienen una reparación». Clara responsabilidad objetiva y sin atajos en la pretendida reforma de la Directiva 85/374 (LA LEY 1943/1985), que ya se vislumbra en el Informe de 2018. Y que responde a la idea inicial del texto vigente: desde el momento en que el productor pone el producto riesgo en el mercado, responde por los defectos de sus productos (art. 1 de la Directiva). Y responde por los daños que este cause al perjudicado, debiendo este probar el daño, el defecto y la relación causal entre el defecto y el daño (art. 4 de la Directiva), no así la culpa.

Con estos mimbres, y con carácter previo a conocer el contenido de la consulta, no obstante, es oportuno proceder a recordar en qué términos se fija dicho sistema de responsabilidad civil en la Directiva, para verificar que la adaptación a las nuevas tecnologías, no suponga una minoración de garantías para el individuo/usuario frente a la persona que puso el sistema de IA en el mercado y creó el riesgo, llegando finalmente a causar un daño o perjuicio. Vayamos pues por partes, a analizar desde la perspectiva europea, esos conceptos de la responsabilidad civil por productos de la Directiva 85/374 (LA LEY 1943/1985), ampliamente aceptados hasta la irrupción de la IA —con los amplios y expansivos automatismos que esta supone, y con los crecientes riesgos que conlleva—. De nuevo, se trata de garantizar la máxima armonización normativa en toda la UE, adaptándola a las nuevas y emergentes tecnologías.

1. Ámbito de aplicación

Inicialmente la Directiva 85/374 (LA LEY 1943/1985) entendía por «producto» cualquier bien mueble, aun cuando está incorporado a otro bien mueble o a uno inmueble, incluida la electricidad. Quedaban excluidas las materias primas agrícolas y los productos de la caza. A este último efecto, se entiende por «materias primas agrícolas» los productos de la tierra, la ganadería y la pesca, salvo aquellos productos que hayan sufrido una transformación inicial. Tras la Directiva 1999/34, de 10 de mayo, se modifica el art. 2 de la Directiva 85/374 (LA LEY 1943/1985) y se considera «producto» a efectos de esta norma: cualquier bien mueble, aun cuando esté incorporado a otro bien mueble o a un bien inmueble. También se entenderá por «producto» la electricidad. Quedando finalmente incluidos los productos de la ganadería, agricultura, pesca y caza (16) . Algún Estado miembro, como el nuestro, será más expansivo (17) .

A efectos de la tutela por la norma europea, es defectuoso el producto cuando no ofrece la seguridad que puede esperarse del mismo teniendo en cuenta todas las circunstancias, especialmente: (a) la presentación del producto; (b) el uso razonable del producto; (c) el momento de la puesta en circulación del producto. Dejando claro que no podrá ser considerado defectuoso si la única razón es que posteriormente se ha puesto en circulación un producto más perfeccionado (18) . Hecho por otro lado, completamente de sentido común, una vez que los avances, los distintos modelos del mismo producto, y el mayor número de prestaciones que se van generando, determinan la variabilidad en el precio de un mismo producto —según modelo y versiones más completas y complejas—. El iphone 7, el 11 ó el 13 pro, son solo un ejemplo de un mismo producto múltiplemente versionado.

No me parece desacertado mantener la clasificación de defectos de productos (de fabricación, de diseño, de información), que con ocasión de facilitar el estudio, fue elaborada por la jurisprudencia norteamericana y que ha sido ilustrativa y divulgativa para el conjunto de la doctrina y jurisprudencia. Si sirve para clarificar, ¿por qué no?

2. Sujetos obligados y sujetos responsables

Para la mejor protección «del consumidor» frente a los daños causados por productos defectuosos, el considerando 4 de la Directiva 85/374 (LA LEY 1943/1985) prevé que todo aquel que participa en un proceso de producción, deba responder «en caso de que el producto acabado o una de sus partes o bien las materias primas que hubiera suministrado fueran defectuosos». Si bien aparece fijado como máximo responsable el productor, que responde de los daños causados por los defectos de sus productos, prescindiendo del elemento culpa, de manera objetiva, por la puesta en circulación del producto por el riesgo creado (art. 1 Directiva 85/374 (LA LEY 1943/1985)). Se considera como tal, según art. 3 de la Directiva: «la persona que fabrica un producto acabado, que produce una materia prima o que fabrica una parte integrante, y toda aquella persona que se presente como productor poniendo su nombre, marca o cualquier otro signo distintivo en el producto». De esta manera, se hace responsable a todo aquel que participa en un proceso de producción, y se hace extensible a «toda persona que importe un producto en la Comunidad con vistas a su venta, alquiler, arrendamiento financiero o cualquier otra forma de distribución en el marco de su actividad comercial», que será considerada como productor del mismo (19) .

El suministrador, proveedor o distribuidor de los productos en el mercado, cualquiera que sea el título o contrato en virtud del cual realice la distribución, responde con carácter subsidiario en los casos en los que el fabricante real —productor— no pueda ser identificado, a menos que, dentro de un plazo razonable (20) , indique al perjudicado la identidad del productor o importador. Igual ocurre en el caso de los productos importados, si en estos no estuviera indicado el nombre del importador, aunque se indique el del productor. Hasta aquí no parece que haya resquicios una vez que, a falta del productor real, la ley acude al productor aparente, como así precisa el art. 3.3 de la Directiva (21) .

Si fuesen varios los responsables del daño, la norma impone la solidaridad, por lo que el perjudicado podrá reclamar a cualquiera de ellos la reparación íntegra del daño, con el consiguiente derecho a repetir, propio de las obligaciones solidarias, que se regirá por las normas internas de cada Estado miembro (22) .

Con todo lo anterior, si el objeto es proteger al consumidor perjudicado con la máxima eficiencia, y para ello debe responder todo aquél que participa en el proceso de producción, parece que no bastará con los conceptos al uso de la norma vigente ante los elementos disruptivos de las nuevas tecnologías. Las características de los sistemas de IA, la complejidad de la cadena de valor de la que forma parte, los principales sujetos que participan —algunos hasta ahora ajenos a la responsabilidad—, y los enormes riesgos que conlleva su puesta en circulación y su uso, determinan la necesaria implementación de obligaciones dirigidas principalmente a proveedores y usuarios, pero también a otros que deben cooperar con los primeros «terceros pertinentes, y en especial los involucrados en la venta y el suministro de software, herramientas y componentes de software, modelos pre-entrenados y datos, o los proveedores de servicios de red» para el cumplimiento de las obligaciones del Reglamento (considerando 60 de la propuesta de LIA). Dicho lo cual, la nueva regulación, deberá revisar y definir a estos nuevos sujetos, determinar obligaciones para todos los intervinientes en el desarrollo y uso de estos sistemas, para así poder fijar las consiguientes responsabilidades de cada uno de los agentes, sin perjuicio de la solidaridad amparada por la Directiva 85/374 (LA LEY 1943/1985).

Por lo pronto, el considerando 53 de la propuesta de Reglamento determina sin lugar a dudas que: «Conviene que una persona física o jurídica concreta, definida como el proveedor, asuma la responsabilidad asociada a la introducción en el mercado o puesta en servicio de un sistema de IA de alto riesgo, con independencia de si dicha persona física o jurídica es o no quien diseñó o desarrolló el sistema». Este proveedor, en definitiva, es el mismo que en la Directiva 85/374 (LA LEY 1943/1985), aparece como «productor», y que responden por la mera puesta en circulación del producto en el mercado.

Dicho esto, la propuesta de Reglamento sobre IA se muestra más ambiciosa cuando no se limita a fijar obligaciones y responsabilidades para el «proveedor», sino que acude a un término más expansivo y ambicioso que comprende a cualquier participante en la introducción en el mercado de estos sistemas de IA, la puesta en servicio y la utilización de los mismos. El nuevo término a acuñar, más global, es el de «operador», que conforme al art. 3.8 del texto incluye: al proveedor, al usuario, al representante autorizado, al importador y al distribuidor, e incluirá «operadores públicos y privados para garantizar la igualdad de condiciones» (exposición de motivos, apartado 5.2.1). Además, estarán sujetos a todas las obligaciones que les imponga el texto definitivo, en atención al riesgo que implique la incorporación del sistema al mercado, sujetos a requisitos, a evaluación ex ante, e incluso, a una supervisión ex post (exposición de motivos, apartados 3.5, 5.2.1, 5.2.3, 5.2.4 y 5.2.6, principalmente), que posibilitará la compensación por daños.

3. Sujeto protegido

La Directiva 85/374 (LA LEY 1943/1985) protege al «perjudicado» (art. 4 Directiva), aunque todo el texto gira en torno al consumidor. Nuestro normativa sobre consumidores, en el art. 128 del TRLGDCU (LA LEY 11922/2007) fija, sin ambages, que: «Todo perjudicado tiene derecho a ser indemnizado» por los daños o perjuicios causados por los bienes o servicios.

Sin embargo, la Propuesta para la IA menciona solo en ocho ocasiones al «consumidor», y otras tantas a los «ciudadanos» frente a «los empresarios», principalmente para incidir en el propósito de que los primeros obtengan un elevado nivel de protección y confíen en las nuevas tecnologías, y en que los segundos, con un marco normativo adecuado, tengan seguridad y desarrollen este tipo de sistemas. El texto se aplicará a los proveedores y usuarios de sistemas de IA, y aunque pudiera parecer que estos, los «usuarios», son los grandes amparados por los riesgos que generan los sistemas de IA, no serán protegidos en todo caso. A estos, al igual que a los proveedores, se les imponen obligaciones previsibles, proporcionadas y claras, y se les incluye como sujetos potencialmente responsables del adecuado uso de los sistemas de IA. En particular, dice el considerando 58, «los usuarios deben utilizar los sistemas de IA de alto riesgo conforme a las instrucciones de uso», para concretar en el considerando 59 que: «el usuario del sistema de IA debe ser la persona física o jurídica, la autoridad pública, la agencia o el organismo de otra índole bajo cuya autoridad se utilice el sistema de IA, salvo cuando su uso se enmarque en una actividad personal de carácter no profesional».

El art. 3 de la propuesta, dedicado a definiciones utilizadas en el texto, nos proporciona un concepto de usuario como principal participante en la cadena de valor de la IA, con obligaciones y responsabilidades. Este, que es «toda persona física o jurídica, autoridad pública, agencia u organismo de otra índole que utilice un sistema de IA bajo su propia autoridad…» no comprende el supuesto en el que «su uso se enmarque en una actividad personal de carácter no profesional». Este usuario, que no está sujeto a las obligaciones y responsabilidades del texto, en el caso de resultar perjudicado por cualquier daño o perjuicio producido en el contexto de un sistema de IA, tiene en todo caso, el amparo de la Directiva 85/374 (LA LEY 1943/1985).

Por todo lo anterior, podemos afirmar que más que un texto de protección para las personas, es un texto que configura los distintos sistemas de inteligencia artificial según el tipo de riesgo que genera, y que como marco reglamentario sobre IA, pretende impulsar su desarrollo, y proteger los derechos de los ciudadanos en un contexto regulado y seguro. Si bien, y aunque constituye en un instrumento en beneficio de la sociedad y de los ciudadanos, habrá que buscar la protección en normativa específica. Por ejemplo, en materia de responsabilidad civil, habrá que acudir a la Directiva 85/374 (LA LEY 1943/1985), y en su momento, al texto que resulte de la reforma impulsada recientemente, al igual que en materia de protección de datos, o derechos de propiedad intelectual.

4. Responsabilidad objetiva y causas de exoneración

Con el objeto de que el perjudicado pueda ser indemnizado por los daños causados por productos defectuosos, es preciso que pruebe: (i) el defecto; (ii) el daño; y (iii) la relación de causalidad entre el producto defectuoso y los daños producidos (art. 4 Directiva y 139 TR). Basta pues, que el producto sea defectuoso, y que pruebe la relación de causalidad, lo que puede entrañar no pocas dificultades para el perjudicados sobre quien recae la carga de la prueba. Ahora bien, esto, la prueba del defecto, no parece que sea una cuestión fácil en el ámbito de la inteligencia artificial.

La Directiva consagra un sistema de responsabilidad del productor (fabricante o importador) —también del suministrador en el caso previsto en el art. 3.3 de la Directiva (23) de naturaleza objetiva. Lo que no impide, como así admite la norma, la exoneración de responsabilidad al productor —fabricante o importador— siempre que pruebe, según art. 7 de la Directiva (24) :

  • a) Que no había puesto en circulación el producto.
  • b) Que, dadas las circunstancias del caso, es posible presumir que el defecto no existía en el momento en que se puso en circulación el producto.
  • c) Que el producto no había sido fabricado para la venta o cualquier otra forma de distribución con finalidad económica, ni fabricado, importado, suministrado o distribuido en el marco de una actividad profesional o empresarial.
  • d) Que el defecto se debió a que el producto fue elaborado conforme a normas imperativas existentes.
  • e) Que el estado de los conocimientos científicos y técnicos existentes en el momento de la puesta en circulación no permitía apreciar la existencia del defecto.

La previsión de la Directiva admite, como no podía ser de otra manera, la reducción o supresión de la responsabilidad «cuando el daño sea causado conjuntamente por un defecto del producto y por culpa del perjudicado o de una persona de la que el perjudicado deba responder» (art. 8.2 de la Directiva), por lo que para su moderación o supresión habrá de valorase la más acertada aplicación de la relación de causalidad. ¿Y si en el resultado dañoso interviene un tercero? Esta, la intervención del tercero junto con el defecto del producto, no reducirá la responsabilidad del obligado a responder, si bien, aquél que satisfizo la indemnización, podrá reclamar del tercero la parte que corresponda a su participación en el daño (arts. 8 Directiva). En este último supuesto, dada la intervención de un tercero, habrá de tenerse en cuenta la responsabilidad solidaria y el derecho de repetición contemplado en el art. 5 y 8.1 de la Directiva, si bien, según esta última disposición: «la responsabilidad del productor no disminuirá cuando el daño haya sido causado conjuntamente por un defecto del producto y por la intervención de un tercero».

Al hilo de la responsabilidad objetiva, y admitidas las excepciones tasadas del art. 7 de la Directiva 85/374 (LA LEY 1943/1985), otro artículo de la citada norma, el 15.1, letra b), reconoce a los Estados miembros que, en materia de responsabilidad por productos defectuosos puedan optar, en determinados aspectos, tasados, por otras alternativas: y así, permite que se responda por los denominados «riesgos del desarrollo» (letra e del artículo 7). Esto, que permite a los EE.MM «disponer en su legislación que el productor sea responsable incluso si demostrara que, en el momento en que él puso el producto en circulación, el estado de los conocimientos técnicos y científicos no permitía detectar la existencia del defecto», posibilitó que en nuestro Derecho interno, tras comunicar a la Comisión europea el texto de la propuesta, e informados los demás Estados miembros, se diese el visto bueno a que en nuestro ordenamiento interno, el productor responda también por los «riesgos del desarrollo» en medicamentos, alimentos y productos alimentarios.

Con todo lo dicho a lo largo de esta publicación, y teniendo en cuenta el sistema de responsabilidad objetiva proclamado en la Directiva 85/374 (LA LEY 1943/1985), podemos afirmar con rotundidad que, Europa apuesta por un nivel de protección máximo pero con el compromiso de todos los intervinientes, no solo en la adecuada puesta en circulación o en servicio de sistemas de IA, sino también en el uso adecuado del mismo. Ahora bien, la propuesta de Reglamento, que en nada se ocupa de la responsabilidad a la que se refiere la Directiva 85/374 (LA LEY 1943/1985), sí pone en valor en la exposición del motivos (apartado 1.1) que poco antes a esta propuesta, el 20 de octubre de 2020, se aprobaron una serie de resoluciones relativas a la IA, entre ellas, la que constituye nuestro punto de partida al hilo del apartado II de esta publicación y que contiene «algunas de las medidas precedentes adoptada por la UE para promover la IA», en concreto la que aparece como hito letra i), y a la que nos remitimos en este punto. Baste recordar que dicha resolución, es específica sobre el régimen de responsabilidad civil en materia de inteligencia artificial. Esta, sin ambages, además de advertir de la necesidad de adaptar la Directiva 85/374 (LA LEY 1943/1985) al mundo digital y abordar los nuevos retos, precisa que las reclamaciones por daños se centrarán contra el operador de un sistema de IA, que responderá objetivamente (en los sistemas de alto riesgo), sin que pueda eludir esta alegando que actuó con la diligencia debida ni cuando fuese causado «por una actividad, un dispositivo o un proceso autónomo gobernado por su sistema de IA». En este caso, solo podrá exonerarse si medió fuerza mayor. Por lo que este estará obligado a concertar un seguro de responsabilidad civil. A diferencia del régimen objetivo anterior, para el resto de sistemas, que no lo sean de alto riesgo, la responsabilidad será subjetiva en base al criterio de la culpa presunta. El art. 4 y 8 de la resolución de 20 de octubre de 2020, no dejan lugar a dudas.

5. Daños cubiertos y daños no indemnizables al amparo de la Directiva 85/374

El art. 9 de la Directiva 85/374 (LA LEY 1943/1985) fija como daños indemnizables: (i) los daños personales, por muerte y lesiones corporales (art. 8.a de la Directiva y art. 128 TRLGDCU (LA LEY 11922/2007)). Y como en estas últimas estarían incluidas tanto las lesiones los de carácter físico como psíquico, no cabe duda, que quedan comprendidos los gastos de curación y el lucro cesante. Y aunque la norma no se opone a la indemnización del «pretium dolors» u otros daños morales si así lo prevén los ordenamientos internos, no aparecen esto bajo su expresa cobertura. No es ocioso concretar que sí están excluidos los daños morales del régimen objetivo de responsabilidad por producto defectuoso en nuestro ordenamiento interno (art. 128.2º); (ii) daños materiales: siempre que estos afecten a bienes o servicios objetivamente destinados al uso o consumo privados, y en tal concepto hayan sido utilizados principalmente por el dañado, previa deducción de una franquicia de 500 euros (art. 8.b de la Directiva y art. 141 a) TR). Quedan excluidos los daños en el propio producto defectuoso, que habrán de ser indemnizados conforme a la legislación de cada Estado miembro. Una precisión más del texto, de cara a las nuevas realidades virtuales, en la Directiva no hay obstáculo a que según los ordenamientos internos, se indemnicen «los daños inmateriales».

Nada dice la propuesta de LIA de abril de 2021 respecto de los daños indemnizables, aunque sí lo hace la resolución del Parlamento Europeo de 20 de octubre de 2020. Baste recordar que esta constituye el primer texto específico sobre responsabilidad extracontractual por el funcionamiento de sistemas de IA, y que en él se fijan recomendaciones a la Comisión para que dé un régimen propio en esta materia, vía adaptación de la Directiva 85/374 (LA LEY 1943/1985), a ser posible en forma de Reglamento. En el texto se pide al legislador que el nuevo marco normativo debe cubrir «los daños o perjuicios a la vida, la salud, la integridad física, la propiedad y los daños morales significativos que den lugar a una pérdida económica comprobable por encima de un umbral, armonizado en el Derecho de la Unión en materia de responsabilidad civil, que equilibre el acceso a la justicia de las personas afectadas con los intereses de otras personas implicadas. La Comisión debe reevaluar y ajustar en el Derecho de la Unión los umbrales relativos a los perjuicios. Por daño moral significativo debe entenderse un daño como consecuencia del cual la persona afectada sufre un perjuicio considerable, un menoscabo objetivo y demostrable de sus intereses personales y una pérdida económica calculada teniendo en cuenta, por ejemplo, las cifras medias anuales de ingresos anteriores y otras circunstancias pertinentes». A continuación añade que: «el presente Reglamento también debe determinar el importe y el alcance de la indemnización, así como el plazo de prescripción para presentar demandas en materia de responsabilidad civil. El presente Reglamento debe establecer un límite máximo de indemnización significativamente inferior que el recogido en la Directiva sobre responsabilidad por los daños causados por productos defectuosos, ya que el Reglamento solo se refiere al daño o perjuicio de una sola persona resultante de una única utilización de un sistema de IA, mientras que dicha Directiva se refiere a una serie de productos o, incluso, a una línea de productos con el mismo defecto» (considerando 16 de la Resolución).

V. Objetivo de la consulta

Ya lo hemos advertido: a pesar de reiterarse en múltiples ocasiones que la Directiva 85/374 (LA LEY 1943/1985) sobre productos defectuosos, era herramienta adecuada para responder a los problemas derivados de la adopción de la IA, es claro que: los riesgos por el uso y puesta en circulación en el mercado de estos sistemas de alto riesgo, junto con la interacción de los mismos con las personas, con capacidad para crear, modificar imágenes o audios, aprender y suministrar información o decisiones, exige una clara delimitación de obligaciones para quien pone en el mercado estos sistemas. Además, será imprescindible una mayor y específica regulación relativa a la responsabilidad de productos, como a la relativa a la seguridad de los mismos. Pensemos por un momento en las múltiples consecuencias producidas a los usuarios por las tecnologías que suponen un alto riesgo, y que a día de hoy parecen incontestables a través de la norma europea vigente. O al menos, podrían no parecer suficientemente amparadas. El coche autónomo o la cirugía robótica son una realidad.

Pues bien, tras la Propuesta de Reglamento sobre IA, y constituyendo esta una parte fundamental de la Estrategia para el Mercado Único Digital de la UE, que garantice normas armonizadas sobre el desarrollo, la introducción en el mercado de la Unión y el uso de productos y servicios que empleen tecnologías de IA o se suministren como sistema de IA independiente, se pone de relieve que existen iniciativas individualizadas de algunos EE.MM en la materia. Esto, que dificulta los objetivos marcados con anterioridad en cuanto a fortalecer la competitividad en un mercado armonizado y seguro, hace necesario que la iniciativa europea se plasme en una norma armonizadora lo antes posible y que se dé respuesta, entre otras cuestiones a temas candentes y decisivos. Entre ellos, el de la responsabilidad civil.

Con estos precedentes, ante los retos y oportunidades, pero también ante los riesgos de las tecnologías disruptivas, se pretenden fijar principios generales, obligaciones de los agentes intervinientes, y la responsabilidad frente a los usuarios no responsables. De ahí que en la consulta pública de la Comisión europea para la reforma de directiva 85/374 (LA LEY 1943/1985), abierta del 18 de octubre de 2021 al 10 de enero de 2022, se reconozca que, el uso y regulación de ciertos sistemas de IA en la propuesta de Reglamento, junto la dificultad de identificación de la persona potencialmente responsable, la prueba del defecto de un producto complejo y el vínculo causal con el daño, por no hablar de la prueba de la culpa si fuera precisa, requieren de importantes modificaciones de la Directiva. Considera así la Comisión que, la necesidad de: (1) implementar y desarrollar sistemas de inteligencia artificial (2) generar confianza en los potenciales usuarios, y (3) abordar riesgos para la seguridad y los derechos fundamentales, entraña grandesdificultades. Y es así porque de cara a los dañados, hay que aplicar la Directiva a productos en la economía digital y circular, y posibilitar que los perjudicados obtengan una compensación por los daños producidos por sistemas de IA, donde la prueba del defecto del producto complejo y del daño que este causa, puede resultar imposible.

Por otro lado, y aunque en el texto de la consulta se incide en las virtudes de la norma que ahora se pretende adaptar y reformular (a sabiendas de que como sistema armonizado ha sido plenamente eficaz para indemnizar a los perjudicados que sufren daños por productos defectuosos), y que «se aplica a todos los productos móviles con independencia de la tecnología que utilicen, por lo que también se aplica a los productos basados en la IA», insiste en la necesaria modificación. Añadiendo, junto a las dificultades expresadas anteriormente que, muchos de los conceptos vigentes han quedado desfasados respecto a productos de la economía digital y circular. Esto, junto a lo ya referido: dificultad de identificación de los posibles responsables, del defecto del producto, de la relación causal, y como no, de la prueba de la conducta lesiva y del defecto que causa el daño, no aconseja más dilaciones en la adaptación de la Directiva 85/374 (LA LEY 1943/1985). Veremos si varía el actual criterio de imputación objetiva de la norma, al margen de la culpa, o si se opta por un criterio de imputación subjetiva basada en la conducta reprobable. De adoptarse este último criterio, entiendo, el dañado quedaría en una situación de desprotección mucho más perjudicial del que le ha sido dispensado hasta la actualidad, o de lo que lo es mientras no se modifique el texto.

VI. A modo de conclusión

Se han expuesto de manera breve los retos jurídicos que plantea el desarrollo, comercialización y uso de los sistemas de IA, y que estos requieren de una armonización plena en la materia, de acuerdo con valores y principios de la UE. La propuesta de una Ley de Inteligencia Artificial, vía reglamento —para evitar la fragmentación normativa en los EE.MM.—, contiene: (i) un concepto flexible y neutro acerca de que se entiende por este sistema; (ii) un ámbito de aplicación territorial y subjetivo amplio, por el que imponen obligaciones proporcionadas a todos los participantes en la cadena de valor de la IA; (iii) la clasificación de los sistemas de IA en torno a cuatro niveles de riesgo: 1) sistemas prohibidos; 2) de alto riesgo —para los que se imponen significativas obligaciones aplicables a los proveedores y usuarios de dichos sistemas—; 3) de riesgo medio/ bajo; y 4) restos de sistemas de IA, en principio, no sujetos a la ley de IA. También contiene (iv) obligaciones para todos los participantes, y sanciones para según qué tipo de incumplimiento. Además de supervisiones pre y post puesta en circulación. Dejando fuera de su marco reglamentario la responsabilidad civil de los participantes.

Por lo que, para analizar el régimen especial que habrá de aplicarse a los daños ocasionados por el desarrollo de los sistemas de IA, habrá de estarse a lo contenido en la Directiva 85/374 (LA LEY 1943/1985). Por el momento, si se producen daños por productos defectuosos, el régimen vigente será el de esta norma supranacional, independientemente de que el producto incluya o no un sistema de IA. Veremos, si con los datos que nos proporcionan las actuaciones llevadas a cabo por la UE, como la Resolución del Parlamento Europeo de 20 de octubre de 2020, la adaptación que se lleve a cabo de la Directiva 85/374 (LA LEY 1943/1985), será capaz de dar la misma protección que hasta ahora nos ha proporcionado dicha norma eficiente y garantista.

Vaya por delante que si el enfoque de la responsabilidad objetiva está basado principalmente en el riesgo, cuesta entender que las propuestas de reforma de la Directiva 85/374 (LA LEY 1943/1985) sobre la responsabilidad por producto defectuosos, abandonen este fundamento. Sirva de base que los problemas derivados de los rasgos disruptivos de los sistemas de IA como la complejidad, la opacidad, la dependencia de datos o la autonomía, exponen a los ciudadanos a mayores riesgos, y que estos han de ser valorados y supervisados. Es más, deben obligar a controles periódicos que reequilibren expectativas, seguridad e indemnidad ¿o es que se debe responderse menos por los daños causados por el coche autónomo que por el coche manual o automático? Si así fuese, estaríamos contraviniendo el sentido de la Directiva 85/374 (LA LEY 1943/1985) que tan buenos resultados nos ha dado hasta el momento presente.

En línea con todo lo antedicho, son cuestiones claves que habrán de concretarse de manera indubitada para lograrimputaciones justas en materia de responsabilidad civil, por daños causados por productos con sistema de IA, así como posibilitar la reparación de los perjuicios producidos por quien se beneficia de la puesta en circulación del producto, entre otras, las siguientes:

  • 1. El riesgo es el criterio de atribución de responsabilidad objetiva, y este, propio de leyes especiales, y específico respecto de los daños causados por productos defectuosos, debe primar frente a cualquier otro, no vaya a ser, que no haya quién responda. El criterio de la culpa, parece que debe ser la excepción, es más, entiendo que debe ser un criterio de atribución puramente residual. No puede faltar considerar el uso indebido por el usuario al objeto de fijar la reparación. La concurrencia de causas, como viene siendo habitual, nos traerá algún que otro quebradero de cabeza.
  • 2. Habrá que delimitar cuáles son las obligaciones de cada uno de los participantes en la puesta en circulación del producto, su uso y sus actualizaciones, para que fijadas estas sea posible fijar las responsabilidades.
  • 3. Determinado lo anterior, la solidaridad es la mejor de las opciones, pero no valdrá, en mi opinión, que todos respondan por igual. La obligación de responder de los daños causados no encaja en estos supuestos, o a mí me lo parece, en un reparto equitativo de cuotas. Al fin y al cabo, desvirtuaría el sentido de la prevención o la función disuasoria que se pretende respecto de los distintos agentes. No vaya a ser que relajemos actuaciones —acciones y omisiones—, porque al fin y a la postre, vamos a responder igual que el resto de los agentes.
  • 4. Y no olvidemos que si para adaptar la Directiva a la era digital, especialmente a los sistemas de IA, adoptamos nuevos conceptos, contemplamos a todos los agentes que participan en estas nuevas tecnologías, y proporcionamos una cobertura más precisa a los intangibles, exigiendo una cumplida prueba de la culpa, podríamos terminar por modificar el criterio de responsabilidad objetiva para los tangibles, y habremos desvirtuado el sentido de la Directiva 85/374 (LA LEY 1943/1985). Y no solo de la norma vigente, también del Informe de la Comisión sobre su aplicación, de 7 de mayo de 2018. De igual modo, contravendría el sentido de la Resolución del Parlamento de 20 de octubre de 2020, al que la propuesta de Reglamento sobre IA de 21 de abril de 2021, le otorga valor de progreso y adaptación en la materia.
(1)

Directiva 85/374/CEE del Consejo, de 25 de julio de 1985 (LA LEY 1943/1985), relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados Miembros en materia de responsabilidad por los daños causados por productos defectuosos https://eur-lex.europa.eu/legal-content/ES/ALL/?uri=celex%3A31985L0374

Ver Texto
(2)

Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52021PC0206

Ver Texto
(3)

Todo lo anterior se desprende de la Exposición de motivos de la Propuesta: apartado 1, sub-epígrafe 1.1. sobre «razones y objetivos de la Propuesta».

Ver Texto
(4)

La Directiva 2001/95 (LA LEY 13727/2001), conocida como la Directiva sobre la Seguridad General de los Productos (DSGP), requiere que las empresas se aseguren de que los artículos en venta sean seguros y que se tomen las medidas correctivas cuando se constate que no es tal el caso. Introduce un sistema de alerta rápida de la UE para productos no alimenticios peligrosos. Exige que las empresas garanticen que los artículos a la venta sean seguros y que adopten medidas correctivas cuando se constate que no es ese el caso. Entendiendo por «producto»: todo artículo destinado a la venta al consumidor o que pueda ser usado por el consumidor, ya sea nuevo, usado o reacondicionado. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A32001L0095

Ver Texto
(5)

Por primera vez, y tras cuatro Informes precedentes, la Comisión evalúa si es adecuada la Directiva 85/374 (LA LEY 1943/1985), para dar respuesta a productos mucho más complejos como consecuencia de las tecnologías digitales emergentes. Vid. Informe https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52018DC0246&from=FR

Ver Texto
(6)

El informe final: Regulación de las tecnologías robóticas emergentes en Europa: la robótica frente al derecho y la ética.

http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelinesregulatingrobotics_20140922.pdf

Ver Texto
(7)

https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.html

Ver Texto
(8)

Así aparece en el texto: «El término «inteligencia artificial» (IA) se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción —con cierto grado de autonomía– con el fin de alcanzar objetivos específicos. Los sistemas basados en la IA pueden consistir simplemente en un programa informático (p. ej. asistentes de voz, programas de análisis de imágenes, motores de búsqueda, sistemas de reconocimiento facial y de voz), pero la IA también puede estar incorporada en dispositivos de hardware (p. ej. Robots avanzados, automóviles autónomos, drones o aplicaciones del internet de las cosas)». Los ejemplos no faltan a lo largo del texto: La IA, además de facilitarnos la vida, nos está ayudando a resolver algunos de los principales retos a los que se enfrenta nuestro mundo: desde el tratamiento de las enfermedades crónicas o la reducción de las tasas de mortalidad en los accidentes de tráfico, la lucha contra el cambio climático o la previsión de las amenazas a la ciberseguridad.

Ver Texto
(9)

Este informe se centra en valorar la eficiencia de esta norma en el ámbito de la IA, a diferencia de los informes precedentes, el último del año 1999. https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52018DC0246&from=FR

Ver Texto
(10)

La propuesta gira en torno a la repercusión negativa que las características de la IA puede tener en los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la UE (LA LEY 12415/2007). Señalando que el ser humano debe ser el centro y el beneficiado por esta tecnología, y donde las empresas que utilicen esta tecnología —según el nivel de riesgo que puedan generar— superen un test de responsabilidad ética y estén sujetas a revisiones periódicas. A mayor riesgo mayores obligaciones.

https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_EN.html

Ver Texto
(11)

Pone de relieve en la Exposición de motivos de la resolución que: La evaluación del conjunto de DPI a la luz de esta evolución debe ser una prioridad en este ámbito del Derecho de la Unión, que sirva para fomentar un entorno propicio para la creatividad y la innovación recompensando a los creadores. El papel de la intervención humana sigue siendo fundamental para la programación de dispositivos que utilizan la IA, la selección de los datos entrantes y el ajuste de los resultados obtenidos. Si bien, habrá que tener en cuenta que cuando las creaciones sean generadas, únicamente, por los sistemas de IA, estos por no estar ligados a la identidad del autor, no están a priori protegidos por los derechos de autor, aunque habrá que buscarles un acomodo normativo. La seguridad jurídica, también está en juego en estos casos.

https://www.europarl.europa.eu/doceo/document/A-9-2020-0176_ES.html

Ver Texto
(12)

Sobre esta resolución, nos ocupamos a lo largo de este trabajo https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_ES.html

Ver Texto
(13)

El texto, ante la diversidad de sistemas de IA existentes, y ante la previsión de adaptarse a todos los

sistemas de IA que puedan sucederse en el futuro, pretende incluir el mayor número de tecnologías distintas, incluidas —dice—, la simple estadística, el aprendizaje automático y el aprendizaje profundo. Con esta pretensión, en el art. 3, letra a), se propone como definición de «sistema de inteligencia artificial»: todo sistemabasado en programas informáticos o incorporado en dispositivos físicos quemuestra un comportamiento que simula la inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno y la actuación,con cierto grado de autonomía, para lograr objetivos específicos.

Ver Texto
(14)

Fue, en efecto, este texto del Parlamento Europeo para la Comisión, el que fijó los criterios determinantes de la responsabilidad civil en el uso de las nuevas tecnologías, advirtiendo que la cobertura adecuada de esta será clave para garantizar la confianza por los usuarios en estos sistemas, y por tanto, repercutirá indiscutiblemente en el éxito del liderazgo tecnológico, según apartado 26 de la Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial. https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_ES.html

Ver Texto
(15)

Consulta pública: https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_en

Ver Texto
(16)

Así se recoge en el siguiente link: https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A01999L0034-19990604

Ver Texto
(17)

A los efectos de los daños causados por productos defectuosos, en el Derecho español, el TRLGDCU (LA LEY 11922/2007), en el libro III, art. 136, incluirá también un producto más, al objeto de la responsabilidad por daños pro productos: el gas. Así, la citada disposición fija como concepto legal de producto: «cualquier bien mueble, aún cuando esté unido o incorporado a otro bien mueble o inmueble, así como el gas y la electricidad».

Ver Texto
(18)

El art. 137 TR español, fija iguales criterios, si bien incorporará uno más, y que es resultado de la doctrina del TJUE, una vez que establece como criterio evaluador un dato objetivo por comparativo, si tenemos en cuenta que «en todo caso, el producto es defectuoso s no ofrece la seguridad normalmente ofrecida por los demás ejemplares de la misma especie».

Ver Texto
(19)

Por lo que, conforme nuestro art. 138 TRLGDCU (LA LEY 11922/2007), es productor «el fabricante o importador en la Unión Europea de: a) un producto terminado; b) cualquier elemento integrado en un producto terminado; c) una materia prima. Además del definido en el art. 5 TR: "fabricante del bien o al prestador del servicio —esta remisión general al prestador de servicios en este artículo inicial de la ley permite extender el régimen de la responsabilidad por productos defectuosos al prestador de servicios del art. 147— o su intermediario, o al importador del bien o servicio en el territorio de la Unión Europea, así como a cualquier persona que se presente como tal al indicar en el bien, ya sea en el envase, el envoltorio o cualquier otro elemento de protección presentación, o servicio su nombre, marca u otro signo distintivo"».

Ver Texto
(20)

En el Derecho español, el plazo es de tres meses (art. 138.2 TRLGDCU (LA LEY 11922/2007))

Ver Texto
(21)

En nuestro Derecho, además de contemplar estos supuestos en los términos de la norma europea, contempla que el proveedor responderá, como si fuera el productor, cuando haya suministrado el producto a sabiendas de la existencia del defecto (art. 146 TR).

Ver Texto
(22)

En el Derecho español, el art. 1145 CC (LA LEY 1/1889) así lo contempla, fijando el plazo de prescripción para el ejercicio del derecho, el de un año a contar desde el pago de la indemnización (art. 1143 CC (LA LEY 1/1889)).

Ver Texto
(23)

En el Derecho español, la responsabilidad del proveedor, aunque subsidiaria, puede darse en los casos previstos arts. 138.2 y 146 TR.

Ver Texto
(24)

Más proteccionista para los perjudicados el Derecho español, que en el caso de los medicamentos, alimento o productos alimentarios destinados al consumo humano, no permite al productor exonerarse de responsabilidad en el supuesto de riesgos del desarrollo (art. 140.3 TRLGDCU (LA LEY 11922/2007)).

Ver Texto
Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll