Arquivo da tag: #AcademiaChinesa

E se você pudesse ser julgado por inteligência artificial

Aqui no Brasil as distorções do sistema de Justiça são alvo de reclamações diárias, inclusive dos próprios operadores da Justiça. E se a gente deixasse as máquinas decidirem? Não seria qualquer máquina, seriam essas super sofisticadas, de Inteligência Artificial.

Se você já teve um processo que demorou décadas ou foi vítima de erros de funcionários do Estado, provavelmente a tentação bateu. A máquina seria provavelmente mais rápida, mais imparcial e cometeria menos erros, certo?

Agora vamos ao caso concreto. No final do ano passado, a China anunciou a criação do primeiro Ministério Público de Inteligência Artificial. O aprimoramento do “System 206” tem a habilidade de indiciar pessoas pelos 8 crimes mais comuns na maior procuradoria do país, com índice de acerto de 97%.

É um sistema de Inteligência Artificial comandado pelo Partido Comunista Chinês que pode mandar pessoas para a cadeia por crimes como “provocar problemas”. A tipificação penal inclui delitos como fraude de cartão de crédito, crimes de jogos, direção perigosa e também coisas subjetivas como obstruir deveres das autoridades e dissenso político.

Mais adiante eu vou contar para você que países de ideologias democráticas, como os Estados Unidos e alguns da União Europeia tiveram ideias parecidas e estão aplicando. Sistemas preditivos de delitos são tentadores mesmo para quem já viu o filme Minority Report na virada do milênio.

Agora eu explico quais os princípios de operação do “System 206” e até onde vai a autonomia dele. Desde 2016 os procuradores chineses já têm apoio de inteligência artificial por este sistema. A função dele era verificar a solidez das provas e a periculosidade real dos acusados, mas não podia sugerir penas ou interferir nos processos.

A diferença do sistema desenvolvido na Academia Chinesa de Ciências pelo time do professor Shy Yong é que ele pode efetivamente indiciar pessoas e obter 97% de acerto com as condenações que pede. Até determinado ponto, ele tem autonomia para substituir decisões humanas, embora as decisões finais jamais venham da máquina.

E como é possível “treinar” uma máquina para isso? Basicamente da mesma forma que treinamos os seres humanos, pela experiência. Entre 2015 e 2020, a equipe de cientistas submeteu 17 mil casos diferentes das 8 modalidades mais comuns de crime ao aprendizado das máquinas.

Imagine que um promotor trabalhe em 17 mil casos diferentes de apenas 8 tipos penais dos mais comuns numa mesma localidade. A gente diria que se trata de alguém bem experiente. Mas aí é que vem a comparação da complexidade do pensamento humano com o processamento da Inteligência Artificial.

O primeiro grande desafio era ensinar a Inteligência Artificial a eliminar do seu processo decisório os detalhes que são irrelevantes para o caso. Todo processo tem isso, uma história enorme em que há detalhes importantíssimos para o veredito e outros apenas ilustrativos. Para seres humanos já é desafiador separar o joio do trigo e acabamos tendo surpresas, imagine ensinar uma máquina.

O outro obstáculo era afinar a linguagem. Máquinas e seres humanos lidam com linguagem de maneiras diferentes. Em processos penais, o processamento da Inteligência Artificial tem de levar em conta todas as nuances da linguagem humana, o que é um baita desafio.

Para nós, humanos mortais, parece a descrição de mais um filme de ficção científica. Mas o trabalho foi feito durante 5 anos e publicado em uma revista científica de prestígio com revisão pelos pares. Outros cientistas tiveram acesso aos dados e referendaram a capacidade do sistema para processar criminalmente pessoas.

O grande drama é que o sistema legal é falho quando gerido por humanos. Há falhas que comprometem de maneira desumana vidas e destinos. A Inteligência Artificial poderia corrigir isso? Ou seria mais um passo para que governos totalitários tivessem justificativas morais para suas ações?

O trabalho dos cientistas mostrou que a Promotoria Pública por Inteligência Artificial tem acerto de 97%. Não há medidas exatas dos acertos por promotores humanos na mesma localidade.

Os próprios cientistas admitem que há 3% de erros. Mas não são números, são pessoas que podem perder a liberdade injustamente. A grande questão é quem se responsabiliza nestes casos.

Quando a Inteligência Artificial erra na acusação – e isso vai acontecer – quem é o responsável? O juiz que aceita os argumentos? Os promotores que trabalham no caso? Ou é quem programou o sistema? Não sabemos, só sabemos quem paga o pato: o acusado. Também não sabemos a quem ele poderia recorrer.

Neste caso específico, colocamos atenção sobre quem controla o sistema. O Partido Comunista Chinês já tem, mesmo sem Inteligência Artificial, um altíssimo índice de condenações de divergentes políticos.

Não existe um sistema judiciário independente da lógica política do país, estão interligados. “Aqueles que falam ou agem de maneira considerada inaceitável para o Partido, como dissidentes, religiosos, advogados de direitos e jornalistas cidadãos, são frequentemente acusados ​​de crimes vagamente definidos, como ‘provocar brigas e causar problemas’ ou ‘subversão do poder de Estado’. São invariavelmente condenados em um sistema de justiça com uma taxa de condenação de 99,9 por cento”, pontua Frank Dong, correspondente do Epoch Times.

Então o problema de usar Inteligência Artificial na Justiça está em quem é o dono? Antes fosse. Existe uma desconfiança – não uma certeza – de que governos autoritários podem dominar sistemas de persecução penal administrados por máquinas.

Infelizmente, isso não significa que sistemas democráticos consigam entregar justiça nos sistemas de persecução penal administrados por máquinas. É isso o que se verificou em diversas experiências nos Estados Unidos e Europa.

Diversos departamentos judiciários e de polícia nos Estados Unidos recorreram ao uso de Inteligência Artificial nos últimos anos. Um ensaio provocativo da revista Venture Beat traz a principal questão: máquinas são capazes de entender o mundo da mesma forma que os seres humanos?

O Judiciário dos Estados Unidos descobriu pela experiência que o preconceito existente em cada um de nós afetava a objetividade da inteligência artificial. Isso aconteceu também com sistemas para concessão de crédito bancário e contratação em empresas.

Há grupos sociais que vão analisar estes obstáculos sob o ângulo de conspirações dos opressores. Na verdade, é algo mais simples. A Inteligência Artificial é programada de acordo com as experiências existentes e passadas, sejam elas boas ou ruins.

Nós, humanos, temos uma visão diferente de futuro. Nossos planos não são os de repetir experiências do passado, são de melhorar. E é essa a grande divergência entre os julgamentos humanos e aqueles de Inteligência Artificial, cada um com suas falhas específicas.

Nunca teremos julgamentos perfeitos e jamais teremos uma Inteligência Artificial que entenda regras humanas plenamente ou humanos infalíveis. Há uma grande questão posta diante da defesa da liberdade: somos mais ou menos livres com a decisão das máquinas?

Inteligência Artificial pode ser muito útil para ajudar equipes humanas a filtrar dados e chegar a conclusões mais objetivas. No entanto, a tecnologia não é infalível como gostamos de imaginar, é programada por seres humanos.

Estamos diante de um dilema que não é do futuro, é do presente. Conseguimos distorcer a realidade a favor dos nossos com mais força pelas máquinas ou pela vontade humana? Confesso que não sei.

Analisar essa questão sem preconceitos e com a mente aberta é um dever de todos nós, cidadãos. A tecnologia não tem reversão, só avança. A sede de poder também. Nosso instinto de sobrevivência e os princípios de liberdade são nossas âncoras em tempos de mudanças.