edición general

El Tribunal Supremo fija 20 criterios para valorar la suficiencia de la prueba indiciaria cuando no hay prueba directa

#35 Simplemente añadir que una IA realmente hace lo mismo que un humano, o incluso peor porque suelen funcionar como una "caja negra" (es decir, no sabes qué ha aprendido y no puede justificarlo, si la IA aprende que los negros cometen más delitos (incluso si aprende un sesgo humano*) lo que hará será condenar más a negros. Por lo demás, me parece perfecto que los jueces tengan criterios, pero las pruebas no pueden ser subjetivas.

Ahí entraría más en juego que los jueces apliquen la ley con más o menos arte, pero o hay hechos probados o no los hay.

* También puede aprender esos sesgos accidentalmente o por otros factores, supongamos que hay dos colectivos que se dedican a robar, pero el colectivo A es más astuto y les pillan menos. Al final la IA tenderá a condenar más al colectivo B en igualdad de condiciones porque lo que aprende es que B roba más, cuando en realidad es solo que se les pilla más.

menéame