Seleccionar página

Investigadores en China afirman haber desarrollado la primera inteligencia artificial (IA) del mundo capaz de analizar archivos de casos y acusar a las personas de delitos. El dispositivo orwelliano ya puede identificar la disidencia contra el estado y sugerir sentencias para supuestos criminales, eliminando a las personas del proceso de enjuiciamiento y supervisión humana.

No el robot fiscal real.

El programa puede presentar un cargo basado en una descripción escrita del caso con un 97% de precisión, afirma el equipo de la Academia de Ciencias de China que desarrolló el sistema, pero muchos ven esto como un dispositivo que puede usarse potencialmente para fines nefastos.

Los casos que el robot puede procesar incluyen delitos comunes que incluyen cosas como la subversión del poder político del Estado y el sabotaje de la unidad nacional delitos vagos a menudo imputados contra disidentes y que la ONU cree que pueden usarse contra la comunicación de pensamientos o ideas. El hecho de que una IA pueda enjuiciar una discrepancia en las opiniones o creencias poco ortodoxas genera preocupación sobre lo que constituyen estos términos y si el estado podría usar el sistema para ampliar su definición legal sin que nadie se responsabilice de las crecientes limitaciones civiles.

Eliminar el proceso de decisión humano del sistema legal

El robot fue construido y probado en la Fiscalía Popular de Shanghái Pudong, la fiscalía de distrito más extensa y activa del país, donde el equipo lo ampliará para incluir más delitos y un mayor número de casos.

Según el profesor Shi Yong, director del laboratorio de gestión del conocimiento y big data de la Academia de Ciencias de China, la tecnología podría reducir la carga de trabajo diaria de los fiscales, permitiéndoles concentrarse en tareas más desafiantes. Aquí casi insinúa una doctrina automatizada con su comentario: El sistema puede reemplazar a los fiscales en el proceso de toma de decisiones hasta cierto punto.

El South China Morning Post informó que el algoritmo, una fórmula matemática única que compone la IA, puede ejecutarse en una computadora de escritorio estándar y presentar cargos basados ​​en 1,000 rasgos ilegales o discordantes extraídos de la descripción del caso generado por humanos.

Los ingenieros perfeccionaron la máquina utilizando más de 17 000 casos entre 2015 y 2020. Actualmente, puede identificar y presentar cargos por los ocho delitos más comunes cometidos en Shanghái: fraude con tarjetas de crédito, apuestas, conducción peligrosa, robo, fraude, lesiones intencionales, obstrucción de funciones oficiales, y buscar peleas y provocar problemas, un término utilizado para apaciguar a los inconformistas. Pero, por ahora, el sistema no tiene ningún papel en el proceso de toma de decisiones y no sugiere la duración de las penas de prisión.

A pesar de esto, ya existe el temor de que no se mantenga al día con los estándares sociales cambiantes y podría usarse para someter a los librepensadores progresistas.

La inteligencia artificial en la aplicación de la ley se está generalizando

La tecnología de inteligencia artificial ya existe en la aplicación de la ley, pero esta sería la primera vez que presenta cargos.

Por ejemplo, el reconocimiento de imágenes y el análisis forense digital ayudan con los casos en Alemania; Al mismo tiempo, China ha utilizado una herramienta conocida como Sistema 206 desde 2016 para evaluar la evidencia, las condiciones para un arresto y si el sospechoso representa algún peligro para el público.

Avanzando en la carrera global de IA, las autoridades chinas lanzaron el primer tribunal cibernético del país en 2017, lo que permitió que las partes en juicios relacionados con cibernéticos, como el comercio electrónico, aparecieran a través de video frente a jueces basados ​​en IA. Si bien la idea es ayudar al sistema a lidiar con una mayor cantidad de casos, los jueces humanos siguen monitoreando cada paso antes de tomar una decisión.

Porque tomar tales decisiones requeriría una máquina para identificar y traducir el lenguaje humano complejo a un formato que una computadora pudiera entender. Se necesita un programa conocido como procesamiento de lenguaje natural (NLP) para analizar texto, grabaciones o imágenes creadas o cargadas por humanos y requiere supercomputadoras a las que los fiscales no pueden acceder.

En un paso hacia un sistema NLP en una computadora básica, el equipo planea actualizar su máquina para reconocer delitos menos comunes y presentar múltiples cargos contra un solo sospechoso.

La IA también se está utilizando para monitorear a los funcionarios gubernamentales.

Mientras tanto, China está haciendo un uso agresivo de la IA en casi todos los sectores gubernamentales en un intento por mejorar la eficiencia, reducir la corrupción y fortalecer el control. Según los investigadores, algunas ciudades han utilizado máquinas para monitorear los círculos sociales y las actividades de los empleados del gobierno para detectar la corrupción; no se menciona si el estado usa el sistema para detectar rasgos pendencieros en los funcionarios o sus pares.

Mientras tanto, los tribunales del país también han estado utilizando esta tecnología para ayudar a los jueces a procesar documentos legales y tomar decisiones como aceptar o rechazar una apelación. Y la mayoría de las prisiones chinas ahora han adoptado IA para rastrear el estado físico y mental de los prisioneros, con la intención de reducir la violencia. Esto ocurre en un momento en que las autoridades están utilizando la tortura, la agresión sexual y los trabajos forzados para subyugar a los prisioneros, con muchos campos de reeducación para minorías étnicas y religiosas que ahora operan fuera de la jurisdicción legal.

Un fiscal en Guangzhou, que pidió no ser identificado, expresó su preocupación por el nuevo juez y jurado computarizados: La precisión del 97 por ciento puede ser alta desde un punto de vista tecnológico, pero siempre habrá una posibilidad de error. ¿Quién asumirá la responsabilidad cuando suceda? ¿El fiscal, la máquina o el diseñador del algoritmo? Agregó que muchos fiscales humanos no querrán que las computadoras interfieran en su trabajo y agregó: la IA puede ayudar a detectar un error, pero no puede reemplazar a los humanos al tomar una decisión.

En resumen, será interesante ver qué sucede cuando las circunstancias atenuantes se eliminan de un sistema legal y se reemplazan con un programa de pensamiento único para todos.

"