Cargando. Por favor, espere

El Colegio de Abogados de California elaborará unas directrices sobre el uso de la IA por la abogacía

  • 24-5-2023 | LA LEY
  • Ante la idea, constatada por una reciente encuesta, de que muchos abogados ya han adoptado la IA generativa como un medio para completar de manera más eficiente las tareas habituales que realizan cotidianamente, considerándola "generalmente fiable" o "extremadamente fiable", el Colegio del Estado va a elaborar unas pautas para sobre su uso.
Portada

Carlos B Fernández. A la espera de que la imparable burbuja actual en torno a la inteligencia artificial alcance su nivel de saturación y, con ello, se pueda volver a hablar de otros temas relacionados con la tecnología y el Derecho, no cesan de llegar noticias sobre nuevas propuestas regulatorias de la IA desde los más diversos ámbitos.

Una de las últimas que hemos conocido ha sido la iniciativa puesta en marcha por el Colegio de Abogados de California, uno de los que cuenta con mayor número de abogados del país, para que, de cara al próximo otoño, un comité del mismo elabore unas recomendaciones para regular su uso en la abogacía.

Según informa Cheryl Miller en Law.com, Rubén Durán, presidente de la junta de síndicos del colegio (bar’s board of trustees), pidió formalmente al Comité de Responsabilidad y Conducta Profesional del mismo, más conocido como COPRAC, que elabore una guía al efecto para los abogados o, eventualmente, una opinión consultiva para el próximo mes de noviembre.

Y es que, según una encuesta realizada entre más de 800 profesionales del Derecho por la empresa de análisis de datos Outsell, muchos abogados ya han adoptado la idea de la IA generativa como un medio para completar de manera más eficiente las tareas habituales que realizan cotidianamente, pues una gran mayoría de los encuestados considera que la IA es "generalmente fiable" o "extremadamente fiable".

Sin embargo, en declaraciones a Legaltech News, el vicepresidente de Outsell, Hugh Logue, destacó lo preocupante de este dato, dadas las conocidas imprecisiones y potenciales trampas que plantea esta tecnología. Quizás el problema no sea la aversión al riesgo de los abogados, sino el que tengan demasiada fe ciega en la tecnología emergente, apuntó Logue.

No sorprende por ello que, con motivo de una reunión ordinaria de la Junta de síndicos celebrada el pasado 18 de mayo, Durán señalase que la IA generativa "ya ha cambiado la forma en que muchos abogados ejercen la abogacía", y aunque puede aportar muchos beneficios a sus usuarios, "incluyendo eficiencias y un mejor acceso a la justicia en las condiciones adecuadas", también plantea posibles riesgos para los profesionales, como la divulgación de información confidencial o la prestación de un asesoramiento inexacto a causa de las alucinaciones que puede sufrir esta tecnología, con las consiguientes consecuencias en cuanto a la responsabilidad derivada de dichos hechos. Todas ellas cuestiones que “no podemos ignorar”, añadió.

Propuesta de la ABA

Hace tres años, la American Bar Association instó a tribunales y abogados a abordar "las nuevas cuestiones éticas y jurídicas" relacionadas con el uso de la IA en la abogacía. En febrero, la Cámara de Delegados de la ABA adoptó una resolución en la que pedía a los desarrolladores de IA que se aseguraran de que sus productos estuvieran bajo control humano y asumieran la responsabilidad de cualquier daño que pudieran causar.

En concreto, en su resolución, la ABA instó a las organizaciones que diseñan, desarrollan, despliegan y utilizan sistemas y capacidades de inteligencia artificial a seguir las siguientes directrices:

1) Los desarrolladores, integradores, proveedores y operadores ("Desarrolladores") de sistemas y capacidades de IA deben garantizar que sus productos, servicios, sistemas y capacidades están sujetos a la autoridad, supervisión y control humanos;

2) Las personas y organizaciones a cargo de estos sistemas deben responder de las consecuencias causadas por su uso de productos, servicios, sistemas y capacidades de IA, incluido cualquier daño o perjuicio legalmente reconocible causado por sus acciones o por el uso de sistemas o capacidades de IA, a menos que hayan tomado medidas razonables para mitigar dicho daño o perjuicio; y

3) Los desarrolladores deben garantizar la transparencia y trazabilidad de sus productos, servicios, sistemas y capacidades de IA, protegiendo al mismo tiempo la propiedad intelectual asociada, documentando las decisiones clave tomadas en relación con el diseño y el riesgo de los conjuntos de datos, procedimientos y resultados subyacentes a sus productos, servicios, sistemas y capacidades de IA.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll