Explorando la caja negra: IA y proceso penal
Francisco Javier Bedecarratz Scholz
Profesor asociado de Derecho Penal de la Universidad Autónoma de Chile
La incorporación de la inteligencia artificial (IA) y los métodos de aprendizaje automático en la investigación de hechos punibles ha comenzado a transformar significativamente el proceso penal en distintas partes del mundo. En Chile ya se han implementado de forma incipiente estas tecnologías para identificar a sospechosos mediante reconocimiento facial automatizado[1], así como descubrir organizaciones delictivas mediante minería de datos en vastos conjuntos de información[2]. La promesa es seductora: una investigación penal más rápida y eficaz, con evidencia que potencialmente puede incorporarse como prueba en el proceso. Ello es jurídicamente viable, de conformidad con el sistema de libertad de prueba consagrado en el artículo 295 del Código Procesal Penal.
Sin embargo, estas herramientas basadas en IA presentan un desafío central: operan como “cajas negras”. Los métodos algorítmicos usados por la IA para arribar a un resultado determinado, que en el contexto de la investigación penal pueden traducirse en reconocer a sospechosos mediante grabaciones en tiempo real, realizar análisis forense de mezclas de ADN, o bien detectar los denominados deepfakes[3], por nombrar solo algunos, son opacos y difícilmente verificables por los intervinientes de un proceso. Lo anterior implica que no es posible inteligir completamente cómo el sistema ha procesado los datos para generar una conclusión determinada.
La opacidad característica de estos sistemas se debe en gran medida a la estructura de los algoritmos utilizados por la IA, particularmente aquellos basados en aprendizaje automático y aprendizaje profundo. Estos algoritmos emplean redes neuronales artificiales organizadas en múltiples capas ocultas, que procesan vastas cantidades de datos para identificar patrones “escondidos” y ofrecer soluciones, como un diagnóstico médico, el otorgamiento de un crédito o la decisión sobre un asunto jurídico controvertido. En el caso del reconocimiento facial, por ejemplo, el algoritmo analiza las características faciales de un sujeto a través de millones de parámetros ajustados durante el entrenamiento, pero sin proporcionar una explicación clara de cómo llegó a asociar una imagen específica con una persona en particular. Para profundizar en el ejemplo, el sistema puede indicar que un individuo fue identificado en el sitio del suceso —hecho de singular trascendencia para determinar su participación punible— pero los cálculos probabilísticos y las suposiciones subyacentes en el modelo de IA pueden ser demasiado intrincados para ser reproducidos o comprendidos plenamente.
En el proceso penal, esta falta de transparencia dificulta una evaluación de la fiabilidad y validez de evidencia obtenida a través de estas tecnologías, lo cual puede repercutir en la afectación de principios centrales del proceso penal, tanto desde la perspectiva de los intervinientes como para el Tribunal a cargo de la causa.
Para los intervinientes en el proceso penal, la incorporación de pruebas basadas en IA puede entrar en conflicto con las garantías del debido proceso. En particular, el principio de contradicción —pilar fundamental del proceso penal adversarial— implica la posibilidad de que las partes controviertan la información presentada por la contraparte, ya sea mediante argumentación o a través de la prueba rendida[4]. El ejercicio de este derecho tiene como prius lógico la capacidad de los intervinientes para conocer, analizar y criticar los fundamentos específicos por los cuales un sistema algorítmico ha arribado a una conclusión determinada. Sin embargo, la complejidad inherente de las estructuras utilizadas por los sistemas de IA genera una barrera, en tanto los intervinientes carecen del conocimiento técnico necesario para comprender mínimamente los procesos algorítmicos, lo que dificulta o imposibilita contradecir o refutar la prueba presentada por la contraparte.
Para el Tribunal, la falta de transparencia incide directamente en la posibilidad de desempeñar correctamente su función de valoración de la prueba rendida en juicio. Conforme al sistema de la sana crítica racional adoptado por el legislador en el artículo 297 del Código Procesal Penal, el juzgador debe valorar la prueba con libertad, pero basándose en las reglas de la lógica, las máximas de la experiencia y los conocimientos científicamente afianzados. En virtud de la sana crítica, este tiene la obligación de fundamentar sus decisiones relacionadas con la prueba, explicitando el razonamiento que lo llevó a considerar ciertos hechos como probados o no, tal como ordena el inciso final de la norma citada. Esto implica analizar críticamente cada medio de prueba, evaluando su fiabilidad, pertinencia y coherencia con el resto de la evidencia presentada. De esta manera, se busca garantizar la transparencia y racionalidad en la toma de decisiones judiciales, así como permitir el control de la sentencia por los intervinientes a través del régimen de recursos[5].
La valoración de la prueba es un proceso epistémico[6], que involucra cuestiones fundamentales sobre el conocimiento y la justificación de los hechos realmente sucedidos en el proceso. Al desempeñar este rol, los jueces no solo aplican normas jurídicas, sino que también deben determinar lo que aconteció en la realidad, para lo cual recurre a las tres reglas antes enunciadas con respecto a la evidencia presentada. Sin embargo, la opacidad algorítmica genera un conflicto en el seno de este proceso epistémico, pues se comprometen las posibilidades del Tribunal para verificar racionalmente la fiabilidad de la evidencia basada en IA, así como de fundamentar su decisión respecto de ella. En específico, no es posible aplicar las reglas de la lógica si se desconoce el proceso de cálculo interno del sistema que produjo la recomendación. Las máximas de la experiencia se vuelven, en muchos casos, anacrónicas respecto de una tecnología especializada y compleja, cuyo conocimiento escapa a lo cotidiano, y en la que fenómenos como la “alucinación de IA” apenas comienzan a ser comprendidos. Por su parte, los conocimientos científicamente afianzados no son accesibles para un Tribunal que busca evaluar si la evidencia generada por la IA cumple con el estándar científico, cuando el funcionamiento técnico específico del algoritmo permanece velado. Lo anterior genera un obstáculo relevante para que esta prueba pueda ser valorada conforme al estándar dispuesto por el artículo 297 del Código Procesal Penal.
En la literatura jurídica sobre IA, la problemática de la caja negra a menudo se tematiza bajo los conceptos de “transparencia” o “explicabilidad”. Un sistema de IA se considera explicable, si los fundamentos de su respuesta pueden ser comprendidos por seres humanos a través de una representación externa y simplificada[7]. Se han propuesto diversas soluciones para lograr este atributo en los sistemas de IA generativa, con un nivel suficiente que cumpla con los estándares exigidos por el Código Procesal Penal.
Como punto de partida, no es viable implementar sistemas de IA con “código propietario”, es decir, de naturaleza privada y protegidos por normativa de propiedad intelectual; de lo contrario, se podrían alcanzar resultados absurdos desde el punto de vista procesal, como ocurrió en el caso Wisconsin versus Loomis en Estados Unidos[8]. En este caso, el uso de un algoritmo propietario en la evaluación del riesgo de reincidencia del acusado generó controversia debido a la imposibilidad de escrutar su funcionamiento interno, afectando el derecho a una defensa efectiva y al debido proceso. En consecuencia, es fundamental que el código fuente de los sistemas de IA utilizados en el proceso penal sea público y contrastable por los intervinientes. Solo bajo estas condiciones será posible analizar y cuestionar los métodos y criterios empleados por el algoritmo para arribar a una conclusión determinada, asegurando la transparencia y la posibilidad de contradicción.
Por otra parte, es necesario implementar enfoques técnicos para lograr una adecuada explicabilidad de los sistemas algorítmicos. Esto puede lograrse, por ejemplo, implementando redes neuronales que, además de realizar las predicciones, estén diseñadas para ofrecer interpretaciones comprensibles de su funcionamiento interno, los cuales se denominan modelos de “White box” o inherentemente interpretables. Otro ejemplo es el uso de métodos post-hoc de interpretación, es decir, sistemas secundarios que proporcionan explicaciones para las respuestas del modelo principal de IA, indicando los factores y ponderaciones más relevantes empleados por este último para alcanzar un resultado específico. Independientemente del método elegido, garantizar la explicabilidad de la IA es esencial para que la evidencia presentada pueda cumplir con el mandato del artículo 297, en relación con el artículo 342 letra c), del Código Procesal Penal, y evitar que las sentencias sean objeto de cuestionamientos mediante el recurso de nulidad.
Mientras estas condiciones no se satisfagan, no será admisible el uso de sistemas algorítmicos opacos en el proceso penal, en aras de los principios del debido proceso y, especialmente, el derecho a una defensa adecuada. No podemos olvidar que la prudencia es compañera inseparable de la justicia; así como la transparencia y la explicabilidad son esenciales para garantizar decisiones judiciales fundamentadas. Es imperativo, por tanto, que la incorporación de la IA en el proceso penal se realice con cautela y bajo estrictos estándares que aseguren el respeto de los derechos fundamentales y los principios procesales establecidos en nuestro ordenamiento jurídico. Solo de esta manera podremos aprovechar los beneficios que ofrecen estas tecnologías, sin comprometer la integridad de nuestro sistema de justicia penal.
[1] “Anuncian licitación del sistema automatizado de identificación biométrica para la Región Metropolitana.” Subsecretaría del Interior, 25 de septiembre de 2024. Consultado en: https://www.subinterior.gob.cl/noticias/2024/09/25/anuncian-licitacion-del-sistema-automatizado-de-identificacion-biometrica-para-la-region-metropolitana/.
[2] “Operación Influencer: Inteligencia artificial permitió detener a banda que se dedicaba a encerronas.” BioBioChile, 12 de mayo de 2023. Consultado en: https://www.biobiochile.cl/noticias/nacional/chile/2023/05/12/operacion-influencer-inteligencia-artificial-permitio-detener-a-banda-que-se-dedicaba-a-encerronas.shtml.
[3] Se hace referencia con este concepto a imágenes, videos o audios producidos o manipulados mediante IA generativa, con el objetivo de crear contenido falsificado pero que parece auténtico. Se ha indagado su uso malicioso en campañas de desinformación, discurso de odio o bien como una forma de ardid en las defraudaciones. Cfr. Bedecarratz Scholz, Francisco. “Inteligencia artificial y delitos informáticos: hacia un modelo de prevención para el entorno digital.” En Inteligencia artificial y Derecho: Desafíos y perspectivas, editado por Michelle Azuaje y Pablo Contreras, Valencia: Tirant lo Blanch, 2021, 248-249.
[4] Duce, Mauricio, y Cristián Riego. Proceso Penal. Santiago: Editorial Jurídica de Chile, 2007, 378-379.
[5] Horvitz Lennon, María Inés, y Julián López Masle. Derecho Procesal Penal Chileno, Tomo II. Santiago: Editorial Jurídica de Chile, 2004, 151.
[6] Decap Fernández, Mauricio. La prueba de los hechos en el proceso penal. Santiago: Der Ediciones, 2019, 365.
[7] Bro?ek, Bartosz, Micha? Furman, Marek Jakubiec, et al. “The Black Box Problem Revisited: Real and Imaginary Challenges for Automated Legal Decision Making.” Artificial Intelligence and Law 32 (2024): 427 y ss. https://doi.org/10.1007/s10506-023-09356-9.
[8] State v. Loomis, 881 N.W.2d 749,371 Wis.2d 235 (Wis. 2016).