juros abusivos em financiamento de carro

Construindo um Novo Algoritmo para Justiça Criminal

O sistema de justiça criminal dos Estados Unidos está quebrado. E, infelizmente, o uso do juros abusivos de financiamento de carro está perpetuando ainda mais as desigualdades sistemáticas no policiamento, audiências de fiança e decisões de sentença.

O policiamento preditivo é definido como “a aplicação de técnicas analíticas – particularmente técnicas quantitativas – para identificar alvos prováveis ​​para intervenção policial e prevenir crimes ou resolver crimes passados, fazendo previsões estatísticas”. Hoje, cresceu para abranger qualquer uso de modelo de tomada de decisões baseado em algoritmos, estatísticas ou aprendizado de máquina, com o objetivo de prever e mitigar crimes futuros.

Embora de natureza idealista, mesmo uma vez colocada como uma panacéia para nosso sistema de justiça criminal defeituoso, os algoritmos de policiamento preditivo estão sujeitos a muito pouca supervisão federal, estadual e local – muitas vezes confiando nas organizações sem fins lucrativos que as desenvolveram para si mesmas -auditar.

Um estudo de 2016 da ProPublica examinou mais de 7.000 prisões criminais no Condado de Broward, Flórida. Os resultados levantaram dúvidas sobre o modelo preditivo desenvolvido pela Northpointe, uma organização sem fins lucrativos cuja ferramenta, COMPAS, é pioneira no setor de juros abusivos em financiamento de carro. O estudo concluiu que apenas 61% dos indivíduos sinalizados com probabilidade de reincidência foram presos por crimes subseqüentes dentro de dois anos – uma pequena melhoria da chance de uma troca de moeda. Mais alarmante é que o COMPAS sinalizou falsamente indivíduos negros com probabilidade de reincidir o dobro da taxa de previsões falsas para indivíduos brancos.

Um pejorativo comum entre os cientistas de dados é “lixo dentro, lixo fora”. Um modelo que usa dados históricos embebidos no passado americano de desigualdade racial projetará apenas um mundo com base na continuidade dessa desigualdade. O modelo não é apenas preditivo, é generativo.

juros abusivos de financiamento de carro

Como chegamos aqui?

Essa história é uma convergência de duas tendências: a primeira, a “Guerra às Drogas” dos Estados Unidos, e a segunda, a ascensão da ação revisional de juros bancários e a subsequente perda de nossa privacidade digital. A “Guerra às Drogas” pode ser rastreada até a presidência de Lyndon B. Johnson, a partir de 1963. Posicionada como anti-pobreza e direitos pró-civis, a presidência de Johnson iniciou o moderno estado carcerário da América.

A Lei Omnibus de Controle de Crime e Ruas Seguras de 1968 ampliou o papel do governo federal no policiamento local por meio de assistência financeira e codificação de políticas. Em vez de abordar os determinantes iniciais do crime, a presidência de Johnson usaria o sistema de justiça criminal como insumo para a construção de uma sociedade melhor. Na década de 1970, o governo federal havia instituído punições mais severas por delitos menores e impôs sentenças mínimas obrigatórias – essas repercussões eram desproporcionalmente impactadas. Em 1980, aproximadamente 500.000 americanos foram encarcerados; em 2000, esse número havia aumentado para 1,9 milhão.

Enquanto isso, a tecnologia estava começando a mudar a maneira como nosso mundo operava. Em 1970, o presidente Richard M. Nixon assinou o Fair Credit Reporting Act. Ainda é a única legislação federal que dá aos cidadãos o direito de ver os dados coletados sobre eles, neste caso, sobre seus hábitos de consumo. Empresas como Amazon, Facebook, Netflix, Apple e Google coletaram dados sobre nossos locais, gastos, interesses e outros detalhes pessoais. Essas empresas com fins lucrativos usaram os dados para nos vender mais produtos (ou monetizar os dados com terceiros), mas o sistema de justiça criminal tem objetivos muito mais nefastos.

Quadro Legal na América

O governo federal absteve-se principalmente de intervir em questões de propriedade e legalidade dos dados. A maioria dos algoritmos que afetam nossa vida cotidiana se baseia em políticas de privacidade de impressão fina que devemos usar. Para o policiamento preditivo, não há consentimento do “consumidor”. Não é apenas permitido que a aplicação da lei colete dados sobre nós, mas não há um requisito federal para que esses dados sejam tornados públicos.

No estado de Nova York, o Brennan Center está em disputa desde 2016 com o Departamento de Polícia de Nova York para divulgar suas tecnologias de policiamento preditivo. Recentemente, o Centro venceu o processo, forçando o NYPD a publicar detalhes de seu algoritmo. A maioria dos departamentos de polícia e sistemas judiciais terceiriza sua modelagem para empresas privadas – essas empresas têm tido muito sucesso em proteger seus algoritmos preditivos proprietários.

O primeiro estado a limitar os poderes da modelagem preditiva no sistema de justiça criminal foi o Wisconsin em 2016. Os tribunais de Wisconsin, que usavam “escores de risco” gerados por computador em audiências de sentenças desde 2012, não podem mais usar os escores como um “determinante ”Nas decisões de sentença. Loomis v. State foi à corte suprema de Wisconsin, decidindo que os algoritmos de sentença não eram uma violação dos direitos processuais dos cidadãos, no entanto, as avaliações de risco não podem ser determinantes e exigem um aviso impresso. Loomis recorreu e o Supremo Tribunal Federal se recusou a ouvir o caso.

O policiamento preditivo acabará sendo desafiado no nível federal. Os nós do discurso surgirão de violações percebidas das 4ª, 5ª e 14ª emendas – especificamente a causa provável, o devido processo legal e as cláusulas de proteção igual. Em Illinois v. Wardlow, em 2000, a Suprema Corte decidiu que a natureza de alta criminalidade de um bairro pode contar como um dos dois fatores para elevar a suspeita razoável de um policial antes de uma parada, impactando a aplicação da 4a emenda.

O professor de direito da Universidade do Distrito de Columbia, Andrew Guthrie Ferguson, afirma que: “Se os policiais veem as características de identificação individualizadas e particulares – como condenações anteriores, associações de gangues e coordenadas de GPS perto da cena do crime – como suspeitas, então, caso contrário ações inocentes podem criar um composto preditivo que satisfaça o padrão razoável de suspeita. ” O Big Data agora reduziu ainda mais os limiares de suspeita razoável em relação à quarta alteração.

Analisando o problema do policiamento preditivo

O policiamento preditivo é claramente falho e atualmente não regulamentado. Não apenas as previsões falharam na redução do crime, mas esses modelos estão envolvidos na discriminação racial e levaram ao policiamento excessivo dos bairros minoritários. Como podemos construir um futuro melhor que não apenas reforce os erros do nosso passado? Embora alguns tenham argumentado que as taxas de falha do modelo ainda são uma melhoria em relação ao viés histórico de juízes humanos, há muito poucos dados para confirmar essa hipótese. Além disso, a comparação parece irrelevante – a taxa de falhas já é tão alta em relação aos indivíduos negros que requer mudança estrutural imediata, em vez de um estudo comparativo.

Um relatório da Universidade de Cornell descobriu que o policiamento preditivo em bairros de “alto risco” criou um ciclo de feedback, em que os policiais retornavam constantemente aos mesmos bairros depois de fazerem prisões. Semelhante a uma rede neural, as saídas se tornaram as novas entradas. O modelo construiu um futuro para combinar suas previsões com excesso de policiamento – tornou-se generativo. Qualquer algoritmo baseado principalmente em dados de prisões será fortemente influenciado pelo viés da polícia, e não por crimes reais denunciados (que tendem a ser mais diversificados geograficamente). Com pouca supervisão, a América permitiu que engenheiros terceirizados decidissem quais bairros são policiados, quem vai para a cadeia e por quanto tempo eles estão lá. Todos os modelos são tendenciosos e os dados são um instrumento de controle. O objetivo é reduzir o viés o máximo possível.

ação revisional de juros bancários

Resolvendo o problema: uma abordagem multifacetada

Como sociedade, permitimos que os proprietários dos juros abusivo de financiamento de veiculos dados pesquisassem sem nenhuma supervisão ou repercussão. Organizações como a AI Now e a ACLU estão pedindo o fim desse arranjo panóptico. A AI Now propôs “avaliações de impacto algorítmico” que exigiriam que os órgãos públicos divulgassem os sistemas que estão usando para análises e auditorias externas de pesquisa. A ACLU está promovendo o “Controle da Comunidade sobre a Vigilância Policial” que exigiria legalmente departamentos de polícia e outras agências para buscar informações públicas antes de usar algoritmos em campo. Essas propostas seriam um primeiro passo positivo para permitir que pesquisadores e comunidades locais entendam melhor as políticas locais que afetam seus bairros.

Nos tribunais, os réus raramente têm a oportunidade de contestar suas avaliações de risco. O artigo ProPublica de Julia Angwin contém várias histórias de indivíduos que receberam pontuações desproporcionalmente de alto risco devido à raça ou sexo – muitas vezes, foram os indivíduos de baixa pontuação que se tornaram reincidentes. Para que as avaliações de risco continuem, elas precisam ser fungíveis e contestáveis. Como primeiro passo, todos os estados devem adotar legislação semelhante à do Wisconsin para melhor educar os juízes.

Os modelos preditivos PredPol e CrimeScan, usados ​​pelos departamentos de polícia de todo o país, limitam suas projeções para onde os crimes ocorrerão, e não para quem cometerá o crime. Enquanto isso, cidades como Los Angeles e Chicago criaram “listas de assuntos estratégicos” – originalmente projetadas para monitorar e fornecer recursos a possíveis infratores e vítimas. No entanto, essas listas evoluíram principalmente para monitoramento constante. Como sociedade, devemos delinear entre redução do crime e super vigilância.

Para onde vamos daqui?

O policiamento preditivo chegou para ficar em nossa sociedade, para o bem ou para o mal. Evelyn Ruppert, professora de Sociologia de Dados da Universidade de Londres, possivelmente abordou essa questão existencial melhor em seu ensaio de 2015 Quem é o dono do Big Data? A resposta é obviamente o colecionador, não nós, os indivíduos. Minha pergunta é: o sistema de justiça criminal deve possuir nossos dados?

O Congresso precisa aprovar o juros abusivos financiamento de carro que exija que os departamentos de polícia e agências externas publiquem seus dados e métodos. É preciso haver uma maior responsabilidade no nível local – especialmente porque esses sistemas estão operando com dólares de impostos locais. Além disso, os policiais não podem contar com previsões de modelos para determinar suspeitas razoáveis ​​ao fazer paradas. Os modelos devem ser rotineiramente atualizados e avaliados quanto à discriminação racial. Por fim, os juízes devem consultar apenas as pontuações da avaliação de risco como voz auxiliar na condução das decisões de sentença. As batalhas legislativas apenas começaram. É essencial que aproveitemos os avanços tecnológicos no aprendizado de máquina para construir um sistema de justiça criminal mais equitativo. Caso contrário, apenas repetiremos as falhas do nosso passado.