La inteligencia artificial (IA) es una tecnología que cada vez tiene más presencia e impacto en la sociedad, así como en el ámbito jurídico. Permite,a través de un conjunto de tecnologías, que las computadoras realicen una variedad de funciones avanzadas, como el reconocimiento de imágenes, el procesamiento del lenguaje natural, traducir lenguaje hablado y escrito, analizar datos, hacer recomendaciones, la toma de decisiones, el aprendizaje automático y mucho más.
La IA aporta una serie de beneficios como la automatización flujos de trabajo y procesos, la reducción de errores humanos, la eliminación de las tareas repetitivas, rapidez y precisión, disponibilidad infinita, aceleración de los procesos de investigación y desarrollo al poder analizar grandes cantidades de datos con rapidez, etc., y tiene un gran potencial para mejorar la eficiencia, la calidad y la accesibilidad de los servicios públicos y privados, incluyendo el ámbito de la justicia.
De este modo la IA puede ofrecer ventajas en el ámbito jurídico y en la administración de justicia, como la agilización de procesos, la reducción de costes, la mejora de la calidad y la accesibilidad de los servicios legales.
Sin embargo, la IA también plantea importantes desafíos éticos, jurídicos y sociales, especialmente en lo que respecta al respeto de los derechos fundamentales, como el derecho a la igualdad, a la privacidad, a la protección de datos o al debido proceso. En particular, el derecho de defensa, que es uno de los pilares del Estado de derecho y de la tutela judicial efectiva, puede verse afectado por el uso de la IA en el ámbito judicial.
El derecho de defensa implica que toda persona tiene derecho a ser asistida por un abogado de su elección, a acceder a las pruebas y alegaciones de la parte contraria, a ser oída por un tribunal predeterminado por la ley imparcial e independiente, a impugnar las decisiones judiciales y a recurrir a instancias superiores. Estos derechos pueden verse comprometidos si se utilizan sistemas de IA que no sean transparentes, explicables, auditables o controlables por los operadores jurídicos y por los propios afectados.
Algunos de los riesgos que plantea la IA para el derecho de defensa son:
- La falta de transparencia y explicabilidad de los algoritmos que se utilizan para generar resultados o recomendaciones, lo que dificulta el control y la impugnación de las decisiones basadas en ellos.
- La posible discriminación o sesgo algorítmico, que puede afectar a determinados colectivos o individuos por razones de género, edad, origen, religión, etc.
- La vulneración del secreto profesional y la confidencialidad de las comunicaciones entre abogado y cliente, si se utilizan sistemas de IA que recopilan o analizan datos sensibles sin el consentimiento o conocimiento de las partes.
- La pérdida de autonomía y responsabilidad profesional de los abogados, si se delega en la IA funciones que requieren un juicio ético o una valoración jurídica.
- La desigualdad de acceso y recursos entre las partes, si se produce una brecha digital o una asimetría informativa derivada del uso o no uso de la IA.
Es decir, si se utiliza un sistema de IA para analizar las pruebas o para determinar la probabilidad de culpabilidad o inocencia de una persona, ¿cómo se puede garantizar que el sistema no tenga sesgos o errores que perjudiquen al acusado? ¿Cómo se puede asegurar que el acusado tenga acceso a la información y a los criterios que utiliza el sistema para llegar a sus conclusiones? ¿Cómo se puede impugnar o revisar las decisiones basadas en la IA si no se conocen los algoritmos o los datos que las sustentan?
Citaremos los siguientes ejemplos dañinos de la utilización de programas informáticos basados en la IA:
- El programa “Turnitin”, utilizado por las universidades para detectar plagios en los trabajos presentados por los alumnos, determinó que un trabajo de fin de máster era un plagio, suspendiendo al alumno. Considerando el alumno que esta decisión era incorrecta, se presentaron alegaciones y se concluyó que el programa tenía un defecto de diseño al considerar como plagio toda cita que no estuviera entrecomillada, lo que implicó que revisado el trabajo por un profesor se aprobara al alumno y el programa fuera modificado.
- El programa “Bosco” de gestión de la concesión del bono social eléctrico, se determinó que era deficitario al discriminar a los progenitores solteros denegando la concesión de la ayuda por este motivo.
- El programa “Compass”, utilizado en los EE.UU. para ayudar a los jueces a determinar el riesgo de reiteración de delitos, resulto que tenía sesgos discriminatorios por razón de la raza y la situación social de la persona, teniendo que ser corregido el algoritmo.
- El Sistema de Seguimiento Integral en los casos de Violencia de Género (Sistema VioGén), se descubrió que en sus decisiones tenía más peso, que otros aspectos, el origen o nacionalidad de las personas.
Ante estos riesgos, es necesario establecer un marco regulatorio que garantice que la IA se utilice de forma compatible con los principios y valores constitucionales, y que respete los derechos fundamentales de las personas, siendo también imprescindible fomentar una cultura de responsabilidad y rendición de cuentas por parte de los desarrolladores, proveedores y usuarios de la IA, así como promover una formación específica y una alfabetización digital para los operadores jurídicos y para los ciudadanos.
En este sentido, contamos en nuestro ordenamiento juridico con, entre otras, las siguientes normas que podemos hacer valer en garantía del derecho de defensa ante situaciones causadas por la utilización de la IA:
- La Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales.
- El Reglamento (UE) 2016/679, del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos.
- La Ley 34/2002, de 11 de julio, de servicios de la sociedad de la información y de comercio electrónico.
- Mencionar la propuesta, que está siendo tramitada, de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión, que en principio, ante la imposibilidad de regular al detalle todos los aspectos relacionados con la IA exigirá el cumplimiento de unos determinados requisitos a las aplicaciones basadas en la IA “peligrosas” que explotan vulnerabilidades de la persona, que utilicen técnicas subliminales de manipulación intencionada, que utilicen sistemas de vigilancia biométrica, de emociones, los sistemas de inteligencia policial predictiva y técnicas de scoring social.
En base a esta normativa podemos ejercer nuestro derecho de defensa ante situaciones generadas por aplicaciones informáticas basadas en la IA que no cumplan los requisitos de calidad, fiabilidad, transparencia, explicabilidad, seguridad o auditoría exigidos por la ley.
En definitiva, la IA puede ser una herramienta útil para mejorar el funcionamiento del sistema judicial, siempre y cuando se utilice con criterios de legalidad, proporcionalidad, necesidad y precaución. De lo contrario, puede convertirse en una amenaza para el derecho de defensa y para el Estado de derecho.