Cargando. Por favor, espere

«La transformación digital de la justicia es un proceso que ya se ha iniciado pero en el que todavía queda mucho camino por recorrer»

Joaquín Delgado Martín «In personam»

«La transformación digital de la justicia es un proceso que ya se ha iniciado pero en el que todavía queda mucho camino por recorrer»

  • 17-2-2022 | Joaquín Delgado Martín

Joaquín Delgado Martín, Magistrado de la Audiencia Nacional

Joaquín Delgado Martín es Magistrado de la Audiencia Nacional. Su trayectoria investigadora, en sintonía con la profesional, está al más alto nivel científico. En sus distintas aportaciones ha abordado, de forma integral, entre otras muchísimas temáticas jurídicas, la prueba, con especial incidencia en la órbita digital. Entre sus publicaciones más recientes, destacamos «Tecnología para afrontar los efectos de la pandemia sobre la Justicia» (Diario La Ley n.o 9781, 2021); «¿Cómo afrontar la complejidad de la prueba digital?» (Derecho digital e innovación digital n.o 2, 2019); o «Investigación del entorno virtual: el registro de dispositivos digitales tras la reforma de la LO 13/2015 (LA LEY 15163/2015)» (Diario La Ley n.o 8693, 2016); Investigación tecnológica y prueba digital en todas las jurisdicciones (Ed. La Ley-Wolters Kluwer, 2ª edición, 2018); Judicial Tech: el proceso digital y la transformación tecnológica de la justicia (Ed. La Ley-Wolters Kluwer, 2020); así como destacar su participación en el Informe Innovación y Tendencias del Sector Legal 2022 (Fundación Wolters Kluwer), analizando el tema «Justicia del dato y justicia predictiva». De ahí que en este número monográfico, destinado a la problemática de la digitalización de la prueba y la influencia de la IA en esta fase —la probatoria— nuclear del proceso, desde la coordinación de este número de la Revista LA LEY Probática —Sonia Calaza y Mercedes Llorente—, hayamos considerado que este gran especialista es una de las personas más adecuadas para «iluminar» este trayecto procesal tan difícil de transitar: la prueba tras el advenimiento de la digitalización y de la IA.

Pregunta. ¿Su vocación de Magistrado le acompaña desde la infancia o se ha venido afianzando con el paso de los años?

Joaquín Delgado Martín.- Efectivamente, mi vocación judicial parte de la infancia y está directamente relacionada con ser hijo de juez. Pasados los años, mantengo la ilusión por fortalecer el papel del juez en la protección de los derechos, especialmente en un triple ámbito.

En primer lugar, la tutela judicial de los más vulnerables (menores, discapacitados, víctimas especialmente de violencia de género…), que enlaza con la idea de una Justicia para todos de los Objetivos de Desarrollo Sostenible (ODS 16). Próximamente Wolters Kluwer publicará un libro que he coordinado sobre el menor en el proceso judicial.

En segundo lugar, los desafíos que la tecnología ofrece a la justicia: tanto en la implantación de soluciones tecnológicas para mejorar el sistema judicial, especialmente aquellas que tienen componentes disruptivos (inteligencia artificial, plataformas on line de resolución de litigios y tecnología blockchain); como en la protección frente a los ataques más graves procedentes de las tecnologías, especialmente los ciberdelitos, la utilización de las tecnologías para la prueba (especialmente la llamada prueba digital) y la protección de datos personales en el proceso.

En tercer lugar, la dimensión internacional de la jurisdicción, tanto en cooperación judicial internacional, ahora incrementado con mi trabajo en la Sala Penal de la Audiencia Nacional (extradiciones, órdenes europeas de detención, decomiso…); como en el seguimiento del Derecho Europeo y de la jurisprudencia del TJUE y el TEDH, como consecuencia de ser miembro de la Red Judicial de Especialistas en Derecho de la UE (REDUE).

Y en el futuro próximo me gustaría profundizar en la aplicación de la idea de sostenibilidad en la justicia.

P. La Justicia ha cambiado drásticamente desde hace 20 años. Y ello debido, en buena medida, a la democratización de las —ya no tan— nuevas tecnologías de la información y la comunicación. El nivel de litigiosidad en la red ha aumentado, pero también las fórmulas de detección de esa litigiosidad: ¿Cree que la Justicia española avanza a la velocidad de vértigo de la sociedad o la realidad va muy por delante?

JDM.- Esta pregunta pone encima de la mesa las relaciones entre tecnología y justicia, que me atrevo a reconducir a cinco afirmaciones:

  • Primera: el ordenamiento jurídico y el sistema de justicia van siempre por detrás de la tecnología. Y cuando el cambio tecnológico se ha acelerado considerablemente, como ha ocurrido durante estos últimos años, esta asincronía se acrecienta.
  • Segunda: la tecnología determina que la justicia tenga que enfrentarse a enormes desafíos, de tal manera que ha de ser capaz de tutelar de forma adecuada los derechos de las personas y empresas en el ámbito digital y en ciberespacio.
  • Tercera: la tecnología puede ayudar a afrontar los relevantes cambios cuantitativos que ha sufrido la litigiosidad durante los últimos años, siempre que gestionemos adecuadamente los riesgos para las garantías procesales y los derechos fundamentales, que son mayores cuantos más elementos de disrupción tenga la concreta solución tecnológica implantada.
  • Cuarta: la implantación de cualquier solución tecnológica en la justicia supone un cambio cultural y organizativo que ha ser gestionado adecuadamente, teniendo en cuenta a todas las personas y colectivos afectados, tanto en la propia fase de diseño como en su período de implantación y seguimiento posterior.
  • Quinta: la existencia de la brecha digital (acceso a un software/hardware/internet y tenencia de las habilidades necesarias) puede afectar al propio derecho de acceso a la justicia, especialmente de las personas que se encuentren en condición de vulnerabilidad, por lo que ha de ser tenida en cuenta en todas las políticas públicas judiciales.

Respondiendo a la pregunta sobre la velocidad del avance, es necesario tener en cuenta que la transformación digital de la justicia es un proceso que ya se ha iniciado pero en el que todavía queda mucho camino por recorrer. Y la duración de este proceso podrá acortarse, permitiendo un avance efectivo, si se tienen en cuenta varios factores críticos que tienen en común el siguiente elemento: no basta con aplicar tecnología, sino que tiene que ser complementada con otras cuestiones de naturaleza organizativa, que se concretan en los puntos clave siguientes:

  • En primer lugar, hay que mejorar el marco de gobernanza que se está demostrando poco adecuado, mediante la creación de una entidad con personalidad jurídica y presupuesto propios (como pudiera ser un consorcio o similar), encargada de implantar soluciones tecnológicas en el sistema judicial, que coadyuve a la actuación de las Administraciones prestacionales, y que permita utilizar con agilidad los fondos Covid de la Unión Europea.
  • En segundo lugar, frente a la actual normativa que cabe calificar como escasa y fraccionaria, resulta necesario regular en las leyes procesales la aplicación de las diferentes soluciones tecnológicas en el proceso.
  • En tercer lugar, la aplicación de las tecnológicas ha de ir acompañada de reformas de la organización judicial: implantación efectiva del nuevo sistema de organización del soporte de la función jurisdiccional (la llamada «Nueva Oficina Judicial»); y adaptación de la organización territorial de la justicia a las necesidades del siglo XXI (definición de la planta y demarcación judicial y creación de los tribunales de instancia).

P. Desde siempre, los procesalistas hemos venido hablando de «verdad formal», «verdad material»; ahora también de «verdad digital»: ¿A Usted le parece razonable tanta calificación de la «verdad» cuando, en puridad, debiera identificarse con la «única realidad de los hechos»?

JDM.- Tradicionalmente asistimos a la tensión entre verdad material y verdad formal en el proceso; y la realidad que surge del ciberespacio aporta elementos que están relativizando el propio valor de la idea de verdad, en los términos que vemos al contestar la siguiente pregunta.

Es cierto que durante los últimos años se ha puesto el acento en la dimensión del proceso como mecanismo de solución de conflictos, de tal forma que el sistema de justicia tiene la finalidad principal de contribuir a pacificar la sociedad. Sin embargo, no hay que olvidar que el proceso tiene como esencia la resolución del conflicto por un tercero imparcial (dotado de garantía de independencia), tras las pruebas practicadas de conformidad con las normas procesales y que son valoradas aplicando las reglas de valoración probatoria establecidas por el ordenamiento. De esta forma, la «verdad» que salga del proceso es una «verdad judicial», que tiene el valor de haberse obtenido siguiendo las «reglas de juego» y con pleno respeto de los derechos de todos los implicados. El Diccionario RAE define arte en una de sus acepciones como «capacidad, habilidad para hacer algo» y en otra como «maña, astucia»; de esta manera la justicia se configura, pues, como el arte de armonizar la verdad material y la verdad judicial (Carlos Berbell y Yolanda Rodríguez).

P. Últimamente se habla mucho de un hipotético «derecho a la verdad» al que algunos, incluso, pretenden elevar a rango de constitucional. ¿Qué opinión le merece este supuesto derecho? ¿Cree que tendrá recorrido? Y en caso afirmativo ¿Recorrido ordinario, orgánico o, incluso, constitucional?

JDM.- En el mundo del primer cuarto del siglo XXI se está relativizando el uso y el valor de la verdad, con fenómenos como la posverdad, con un mayor peso de las emociones frente a los hechos objetivos, fake news, deepfakes... Y lo que más me preocupa, parece que la sociedad es cada vez más tolerante a la mentira.

Las fuentes de las mentiras se encuentran ligadas al soporte tecnológico que permite y amplifica su difusión, es decir, las redes digitales como Internet. Frecuentemente nos encontramos con informaciones falsas, erróneas y/o imprecisas en las redes sociales (RRSS), con tres características preocupantes: la universalización, dado que cualquiera puede interactuar en estas RRSS; la usabilidad, con la facilidad de acceder desde cualquier lugar y en cualquier momento; y la viralidad, porque las RRSS permiten que la mentira llegue lejos y muy velozmente, de tal manera que quien insertó la información pierde el control sobre la misma.

Además, gran parte de nuestra población (especialmente los jóvenes) acceden a la información a través de las RRSS, muchas veces de forma exclusiva. De esta manera, estamos asistiendo a una relativización de la importancia de los medios de comunicación formales (prensa escrita, radio y televisión) en el proceso de formación de la opinión pública, lo que afecta directamente al funcionamiento del Estado de Derecho.

En este contexto, considero que resulta necesario revalorizar el derecho a la verdad o, desde otra perspectiva, el derecho a no ser engañado (Garrigues Walker). Deberíamos abrir un debate social sobre la construcción de este derecho, que podría gozar de una protección constitucional dado que tiene una conexión directa con la propia calidad de la democracia. Por otra parte, su régimen jurídico ha de tener muy en cuenta el soporte tecnológico que está magnificando la mentira: internet y las redes sociales.

P. La prueba electrónica se encuentra, en buena medida, a la intemperie de la Ley. ¿Cree que debe ser regulada o su regulación podría perturbar los designios del principio de libre valoración?

JDM.- La prueba digital cuenta en nuestro ordenamiento con un régimen jurídico fragmentario y disperso. La normativa procesal española específica (artículos 299 (LA LEY 58/2000), 326 (LA LEY 58/2000) y 384 de la Ley de Enjuiciamiento Civil (LA LEY 58/2000)) resulta insuficiente; y ello pese al pequeño avance que ha supuesto la regulación de los efectos probatorios de los documentos electrónicos en los que intervenga un servicio electrónico de confianza, mediante la reciente reforma del artículo 326 LEC (LA LEY 58/2000) (por Ley 6/2020 de 11 de noviembre (LA LEY 21517/2020)).

En todo caso, resulta necesario regular el régimen jurídico de la obtención, proposición, admisión, práctica y valoración de la prueba digital. Estas normas deberían referirse a los siguientes elementos básicos:

  • 1. Validez y admisión como prueba. No se ha de negar la admisión de los datos digitales como prueba en el proceso por el único motivo de que se encuentren en un soporte o registro electrónico.
  • 2. Regulación de la forma de admisión y práctica de la prueba digital en juicio, especialmente importante si se tiene en cuenta que este tipo de datos (en soporte digital) solamente pueden ser leídos (percibidos por los sentidos de las personas) con la utilización de un sistema informático o dispositivo electrónico similar. De esta manera, la prueba de practicarse de manera conforme a su propia naturaleza y de conformidad con el concreto soporte digital utilizado.
  • 3. Normas sobre verosimilitud de la prueba adaptadas a la realidad digital: regulación de las condiciones de autenticidad e integridad de los datos (fiabilidad), es decir, de la cadena de custodia aplicada a la prueba digital.
  • 4. Normas de valoración de la prueba digital por el juez, que complementen el principio de libre valoración probatoria. En este marco destacan las reglas de distribución de la carga de la prueba adaptadas a la realidad de la prueba digital: en principio, la parte que aporta la prueba digital (datos en formato electrónico) tiene la carga de probar su autenticidad e integridad; sin embargo, la normativa puede establecer presunciones de autenticidad e integridad en determinados supuestos, ligados tanto a la postura procesal de las partes (por ejemplo, en caso de falta de impugnación por la parte contraria) como a la propia realidad tecnológica (por ejemplo, aportación de los datos digitales por la parte con la utilización de servicios de confianza) y a otros elementos (como puede ser la utilización de medios de identidad digital).

P. La cadena de custodia presenta, con carácter general, una gran problemática, que se agudiza, en el caso particular de la prueba digital por la dificultad de garantizar esa «mismidad» de la que nos habla la jurisprudencia: el famoso «código hash» es el nuevo Rey de la cadena de custodia. ¿Esto sí debiera regularse con toda su casuística o considera que debemos depositar nuestra confianza en el «buen hacer» de nuestros juzgadores?

JDM.- La aplicación de la cadena de custodia a las evidencias digitales se concreta en la acreditación de la autenticidad del origen (se garantiza la fuente de la que proceden los datos) y la integridad del contenido (los datos no han sido alterados de manera no autorizada) de tal manera que quede garantizado que la información (datos) sometida al tribunal de enjuiciamiento es la misma que la que fue incautada o aprehendida. Efectivamente, el mayor problema concurre cuando la prueba se obtiene y aporta el proceso por una de las partes, quienes han de realizar la ocupación y preservación de la información respetando los derechos fundamentales de los afectados (licitud) y garantizando su autenticidad e integridad (fiabilidad) hasta que es presentada ante el tribunal.

Como bien indica la pregunta, el código hash es el rey de la cadena de custodia, porque su aplicación (algoritmo matemático que se realiza sobre el conjunto de los datos contenidos en un concreto dispositivo o soporte digital) genera un resultado de 32 o más dígitos de tal forma que, si se modifica un solo bit del conjunto de datos sobre el que se ha realizado, el valor del hash es diferente; y, en sentido contrario, si el hash del material original y de la copia coinciden, se puede afirmar que se trata de los mismos datos. Su aplicación permite acreditar la autenticidad e integridad de la información hasta que sea presentada al tribunal y valorada por el mismo. Tras la obtención de hash, pueden realizarse todas las copias de la información (clonado o volcado de la información) que resulten necesarias para el examen forense de su contenido; y que estén a disposición de las otras partes para garantizar la contradicción y para posibilidad de realizar contra-pericias.

Sin embargo, la principal problemática surge en los momentos anteriores a la obtención de hash: el acceso a la información (datos), su ocupación y su preservación hasta la obtención del código. Cuando la evidencia digital se encuentra en un dispositivo electrónico (ordenador, smartphone, Tablet…), resulta necesaria la incautación o confiscación del soporte material que contiene los datos (evidencia digital), documentando todas las circunstancias en que tiene lugar y las medidas de seguridad adoptadas en relación con dicho soporte material. Cuando se trata de obtención de la evidencia por un particular, puede resultar especialmente útil la intervención notarial y/o de un perito informático, así como de posibles testigos sobre la forma de realización de la ocupación, sin perjuicio de la documentación mediante grabación y toma de imágenes.

Si se trata de obtener y preservar información en la web o en Redes Sociales, los particulares pueden acudir a la utilización de servicios de confianza contemplados por el Reglamento (UE) 910/2014 (LA LEY 13356/2014) (eIDAS) y por la Ley 6/2020, de 11 de noviembre (LA LEY 21517/2020); lo que resulta especialmente relevante tras la nueva regla de valoración probatoria introducida por la reforma del artículo 326.3 (LA LEY 58/2000) y 4 de la Ley de Enjuiciamiento Civil (LA LEY 58/2000).

Sin perjuicio de que sería adecuada la regulación legal de estas cuestiones en los procesos ante todas la jurisdicciones, puede resultar oportuno la elaboración de un instrumento de soft law (guía, recomendaciones…) elaborado de forma multidisciplinar (juristas, informáticos, expertos en seguridad…) con la participación de los distintos colectivos del sector justicia implicados (jueces, fiscales, abogados, procuradores, graduados sociales, peritos informáticos, policías, detectives privados…) a través de las entidades que los representen.

P. La IA está jugando un papel esencial en materia de Justicia predictiva y va a más. ¿Les resulta útil algún mecanismo de IA en la AN? ¿Nos puede ilustrar un poco al respecto?

JDM.- El sistema judicial, como sector, presenta una serie de características que determinan con carácter general un riesgo elevado de que la aplicación de las soluciones IA atenten contra los derechos de las personas, muchos de ellos protegidos como derechos fundamentales (tutela judicial efectiva, derecho de defensa y a un proceso con todas las garantías, libertad de información la publicidad de actuaciones); o incluso puede llegar a afectar a principios básicos del Estado de Derecho como la independencia judicial. Y la aplicación de IA puede dar lugar a problemas de discriminación, usurpación de identidad o fraude, pérdidas financieras, daño para la reputación, pérdida de confidencialidad de datos sujetos al secreto profesional, reversión no autorizada de la seudonimización o cualquier otro perjuicio económico o social significativo (considerando 75 del RGPD). En este sentido, la Propuesta de Reglamento del Parlamento y del Consejo de 21 de abril de 2021, por el que se establecen normas armonizadas en materia de inteligencia artificial, considera de alto riesgo las soluciones IA cuyo objetivo es ayudar a las autoridades judiciales a investigar e interpretar los hechos y el Derecho y a aplicar la ley a unos hechos concretos.

Y estos riesgos son potencialmente aún más graves en el proceso penal, dada la presencia de derechos fundamentales tan relevantes como la presunción de inocencia, el derecho de defensa (incluido el derecho a guardar silencio), la libertad y la seguridad de la persona, así como el derecho a un juicio justo y a un recurso efectivo. En este sentido, cabe destacar la Resolución del Parlamento Europeo, de 6 de octubre de 2021, sobre la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales.

Las soluciones IA pueden resultar muy útiles para la detección, clasificación y análisis de la información, especialmente en aquellos supuestos en los que su magnitud es considerable; lo que puede resultar de utilidad en múltiples macroprocesos que se tramitan en el Audiencia Nacional, tanto en fase de instrucción como en la de enjuiciamiento.

En un proceso penal seguido por una diversidad de delitos y con una multiplicidad de investigados, la IA puede ayudar a manejar la cantidad enorme de información del proceso, no solamente para la tramitación, sino también para individualizar y sistematizar dicha información en relación con un determinado investigado (o un concreto bien o persona jurídica) sobre el que tiene que resolver el órgano judicial (prisión/libertad provisional, solicitud de levantamiento de medida cautelar, sobreseimiento provisional parcial…). Cabe recordar que suelen existir muchos bienes afectados por el proceso (aprehendidos, embargados o sobre los que pesa algún tipo de medida provisional); y frecuentemente concurren entramados societarios, uso de sociedades pantalla, ingeniería financiera para ocultar la relación con el delito y/o con los investigados. Y no hay que olvidar que, en caso de existencia de piezas separadas del proceso principal, muchas de las informaciones serán comunes y/o relevantes en todas o varias piezas.

P. Si, tal y como está sucediendo, la regulación de la prueba electrónica presenta grandes vacíos legales ¿qué es lo que usted cree va a pasar cuando la prueba que derive de los sistemas de IA comience a incorporarse al proceso? ¿Como ve esa unión de prueba e IA?

JDM.- Es verdad que las aplicaciones de IA pueden ser utilizadas tanto para la acreditación de hechos, como para la valoración de la prueba practicada.

En relación con la primera dimensión, se puede aplicar, por ejemplo, para la simulación virtual de la reconstrucción de un crimen o de un accidente laboral o de tráfico; o para el tratamiento de imágenes grabadas para mejorar su calidad a efectos de identificación de los responsables de un delito, o de sus circunstancias. En estos casos, ¿cómo se ha de aportar al proceso? Dada la aplicación de elementos científicos, probablemente estas pruebas se incorporarán al juicio a través del medio probatorio pericial.

Sin embargo, desde mi perspectiva de juez, me gustaría profundizar en la segunda dimensión, es decir, a las posibilidades de la IA para asistir al tribunal en la valoración probatoria, apreciando cada una de las pruebas practicadas conforme al principio de libre valoración (sana crítica…). De esta manera, cabe aplicar soluciones IA ligadas a la naturaleza de cada medio probatorio: testifical, pericial, documental, interrogatorio acusado/demandante-do…

Uno de los mayores desafíos de la función jurisdiccional radica en analizar la credibilidad del testimonio en las pruebas personales. En este ámbito están surgiendo soluciones de inteligencia artificial que aportan herramientas que permitirían valorar las declaraciones y detectar mentiras, construyendo algoritmos, con fundamento en diferentes elementos tales como gestos, movimientos de manos y otras partes del cuerpo, movimientos oculares y microexpresiones, tiempos de respuesta, entre otros; incluso sería posible llegar a construir robots capaces de detectar la verdad/mentira de forma autónoma examinando la declaración grabada en formato de audio/video de alta calidad. Estas reflexiones nos conducen a las neurociencias que analizan el comportamiento del cerebro y los fundamentos biológicos de la conducta del ser humano.

En relación con la prueba pericial, cabe plantear la posibilidad de aplicar soluciones IA para la aplicación de los diferentes criterios de valoración judicial del dictamen, examinando la cualificación del perito autor del informe; las fuentes de conocimiento usadas para la práctica del dictamen; el método científico usado y las operaciones llevadas a cabo por el perito; y las conclusiones del informe, que han de ser apreciadas en relación con las otras posibles periciales obrantes en autos y con el conjunto de la prueba practicada.

Y la IA también puede asistir al juez en la valoración conjunta de todas las pruebas practicadas; por ejemplo, a la hora de valorar si una hipótesis incluye todos los datos de las pruebas practicadas.

Sin embargo, este tipo de soluciones de IA plantea enormes problemas (algunos insoslayables) referidos a tres elementos: su fiabilidad probatoria, es decir, la verosimilitud que cabe deducir de su aplicación; el respeto de la dignidad humana y de los derechos fundamentales; y el respeto de las garantías procesales, especialmente el ejercicio del derecho de defensa mediante una efectiva contradicción. Estas cuestiones dificultan considerablemente el uso de muchas de estas soluciones IA, e incluso han de impedirlo.

Como quiera que nos podemos encontrar con gran heterogeneidad de aplicaciones IA, habrá que examinar los riesgos para los derechos de las personas inherentes a la concreta solución en presencia, exigiendo en todo caso el respeto a la dignidad y libertad de la persona; y siendo especialmente rigurosos en relación con el sujeto pasivo del proceso penal, dada la concurrencia en el mismo del derecho a no declarar contra sí mismo y no confesarse culpable, así como el principio de presunción de inocencia.

P. El TS ha creado una nueva dimensión del derecho a la intimidad en el ámbito electrónico, en concreto, el «derecho al entorno digital». ¿Cree que estamos suficientemente protegidos o las TICs están arroyando —sin paliativos legales— el ámbito más íntimo, privado y, seguramente, también el más valioso de las personas?

JDM.- La investigación del entorno digital de una persona puede incrementar la eficacia de la persecución y prueba de actividades en multitud de ámbitos de la actividad humana, pero también lleva consigo un importante riesgo de lesividad para los derechos fundamentales de las personas investigadas, especialmente la intimidad, el secreto de comunicaciones y la protección de datos personales. De esta manera, resulta imprescindible brindar una tutela judicial eficaz del entorno virtual, esto es, concurre la «necesidad de dispensar una protección jurisdiccional frente a la necesidad del Estado de invadir, en las tareas de investigación y castigo de los delitos, ese entorno digital» (STS 342/2013, de 17 de abril (LA LEY 37037/2013)).

La justicia ha de enfrentarse a la problemática generada por el uso masivo de los datos, con la necesidad de tutelar adecuadamente el derecho a la protección de datos personales. Abordando en concreto la tutela de los datos personales que se encuentran en los procesos judiciales (muchos de ellos de categoría especial), cabe valorar positivamente que la adaptación de la LOPJ (LA LEY 1694/1985) a las normas de la UE y la propia LOPDGDD (LA LEY 19303/2018) de la normativa de protección de datos de los tratamientos con fines jurisdiccionales, a través de la Disposición final tercera de la LO 7/2021 (LA LEY 11831/2021); aunque resulta necesario actualizar tanto de las normas reglamentarias que afecten a esta materia, como de la normativa procesal, para posibilitar el adecuado ejercicio de los derechos de información, acceso, rectificación, supresión, oposición y limitación (artículo 236 septies.1 LOPJ (LA LEY 1694/1985)). En todo caso, y pese a estas reformas legislativas, aún queda mucho camino por recorrer, donde va a ser importante el ejercicio de las competencias otorgadas al CGPJ y a la FGE por la LOPJ (LA LEY 1694/1985) (artículo 236 octies) y de las competencias de autoridad de protección de datos en los tratamientos con fines jurisdiccionales atribuidas a Dirección de Supervisión y Control de Protección de Datos del CGPJ (artículo 236 nonies).

Asimismo, la justicia ha de enfrentarse a las amenazas procedentes de internet contra todo tipo de derechos y bienes jurídicos (riesgos de ciberseguridad, crecimiento exponencial de los ciberdelitos, atentados contra la intimidad, mensajes de odio, informaciones falsas….); frente a estas amenazas, el sistema judicial ha de contar con los elementos necesarios para investigar y probar los ciberdelitos de forma ágil (frente a la volatilidad de la huella digital) y con pleno respeto de los derechos fundamentales (frente a los peligros de restringir ilegítimamente los derechos ligados a la privacidad), protegiendo especialmente a los más vulnerables (menores, discapacitados…).

También constituye un reto el fortalecimiento de los mecanismos de acreditación y protección de la identidad digital frente al gran peligro de las suplantaciones, para la realización de cualquier negocio jurídico, pero también para la intervención en actuaciones judiciales telemáticas (tanto orales como escritas); en este campo cabe destacar la idea de una identidad digital europea (propuesta eIDAS 2), así como el aprovechamiento de las ventajas de fiabilidad que aporta la tecnología blockchain, que puede afectar a la actividad probatoria e incluso a la forma de entender la fe pública. Y sin olvidar la necesidad de aportar como prueba elementos digitales, lo que nos enfrenta al régimen jurídico de la obtención, proposición, práctica y valoración de la prueba electrónica (e-evidence) que se analiza en otra pregunta.

P. Hasta aquí hemos hablado de la influencia de la digitalización y de la IA en la prueba. Pero ¿usted cree que llegará la robotización judicial en este siglo?

JDM.- La contestación a esta pregunta es compleja, con un amplio margen de matizaciones. No se trata de negar todo uso judicial de la IA alegando que es un método potencialmente opaco, sesgado y lastrado; ni tampoco de abrirle las puertas de par en par, eclipsados por sus enormes posibilidades y argumentando que también la decisión del juez humano está sesgada por sus propias convicciones, opiniones y teorías jurídicas. SELBST, profesor de la Universidad de California, afirma que «siempre que las nociones filosóficas de la justicia se convierten en expresiones matemáticas, pierden sus matices, su flexibilidad, su maleabilidad. Eso no quiere decir que algunas de las eficiencias de hacerlo no valgan la pena. Yo solo tengo mis dudas».

Si por robotización judicial entendemos la resolución automatizada de un conflicto por parte del sistema de justicia, cabe señalar que técnicamente es posible, especialmente cuando concurran los siguientes elementos: procesos que se repiten con un contenido idéntico o muy similar (litigación en masa); cuando exista homogeneidad o gran similitud de las acciones de los demandantes y/o de las contestaciones; decisión jurisdiccional uniforme en la gran mayoría de los casos; escasa complejidad; y presencia de prueba documental. Por otra parte, la tecnología también puede desempeñar un relevante papel en el desarrollo de los medios alternativos o adecuados de resolución de conflictos, implementando aplicativos de e-mediación en los que la IA aporta elementos muy potentes.

Sin embargo, genera numerosas incertidumbres jurídicas, algunas de ellas de extrema gravedad. En primer lugar, es exigible fiabilidad en una doble dimensión: la calidad y volumen de los datos que se utilizan (elección, recogida, modelización), lo que deviene especialmente importante en un sector como la justicia en la que la calidad de los datos viene presentando carencias; y el propio diseño del algoritmo, así como y el seguimiento y revisión/actualización de su aplicación. Y se han de evitar en todo caso sesgos (desviaciones inadecuadas en el proceso de inferencia), tanto intencionales como fortuitos, en las diferentes fases de diseño, entrenamiento, implementación y seguimiento de la concreta solución IA.

En segundo lugar, hay que garantizar la transparencia algorítmica, de tal forma que la solución IA sea transparente en sus decisiones, es decir, es necesario que se pueda inferir o deducir una «explicación comprensible» sobre los criterios que fundamentan la obtención del resultado, ligado al adecuado respeto al derecho a la tutela judicial efectiva y ligada al deber de motivación de las resoluciones judiciales. En este sentido, de ninguna manera cabe admitir los sistemas decaja negra, porque no pueden ofrecer una explicación suficiente de cómo la aplicación de la solución IA llega a un determinado resultado.

En tercer lugar, los derechos y libertades fundamentales deben garantizarse a lo largo de todo el ciclo de vida de la solución de IA (diseño, desarrollo, despliegue y uso). Y se han de respetar las garantías del proceso debido; especialmente aquellas que se pueden encontrar sometidas a un mayor riesgo: acceso a la justicia sin discriminación (sobre todo frente a los obstáculos en las situaciones de vulnerabilidad), respeto de la contradicción, igualdad de armas y efectiva asistencia letrada. En todo caso, las decisiones automatizadas que se adopten solamente pueden fundamentarse en los datos o informaciones obrantes en el proceso, y que se hayan incorporado al mismo con pleno respeto de los derechos de las partes y las garantías procesales.

Por último, la posibilidad de decisión automatizada ha de ser prevista de forma expresa por una norma legal, que regule de forma suficiente sus presupuestos y condiciones; o bien ha de fundamentarse en un consentimiento explícito de la persona afectada. Y el justiciable debe ser informado en un lenguaje claro y comprensible sobre la naturaleza vinculante o no de las soluciones propuestas por las herramientas IA, las diversas opciones posibles, y su derecho a asistencia legal y a un tribunal; así como sobre cualquier posibilidad de tratamiento de un caso por IA, tanto antes como durante un proceso judicial, y ha de tener la posibilidad de oponerse, de tal forma que sea escuchado directamente por un tribunal (Carta Ética Europea sobre utilización de la inteligencia artificial en los sistemas judiciales y su entorno-CEPEJ 2018). Y, en todo caso, la decisión judicial automatizada ha de poder ser supervisada y controlada por persona humana: derecho a obtenerintervención humana (artículo 22 RGPD (LA LEY 6637/2016) y artículo 11 Directiva 2016/680 (LA LEY 6638/2016)).

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll