CYBER-VIGILÂNCIA E PRECONCEITOS SOCIAIS


CYBER-VIGILÂNCIA E PRECONCEITOS SOCIAIS

 

A combinação entre inteligência artificial e tecnologias de vigilância civil pode ser preocupante: estaríamos entrando em uma era de opressão algorítmica?

3 JUL 2020 | COMPORTAMENTOS EMERGENTES

POR GLOBO

Rastreadores de dados monitoram a nossa atividade online, enquanto celulares e relógios inteligentes registram nossos movimentos e as suas câmeras gravam nossas vidas. Plataformas digitais podem chegar a dizer se você está tendo um caso ou se deseja ou não realizar um empréstimo. 

Tecnologias de vigilância doméstica e civil estão se tornando cada vez mais populares, tanto com o uso de drones ou dispositivos de reconhecimento de voz embutidos em qualquer celular smart. Escapar da cyber-vigilância, ou de um constante monitoramento, pode parecer desafiador quando o uso da tecnologia se tornou uma necessidade básica na casa de quase todos os brasileiros.

Ainda que desafiados pela exclusão digital que percorre quase 30% da população brasileira que não possui acesso à internet, esses dados comprovam que o uso desses dispositivos atravessa a nossa concepção de sociedade. Em outras palavras, o mundo que conhecemos está dependente do desenvolvimento tecnológico e refém do impacto que a tecnologia pode repercutir.

Em áreas urbanas, por exemplo, sistemas de CFTV (sistema de videovigilância) são colocados em praças públicas e em estabelecimentos privados, e tecnologias de reconhecimento facial se tornam cada vez mais aceitáveis, uma vez que alimentam bancos de dados com rostos de cidadãos e informações pessoais usados para identificar perfis criminais. 

Recentemente, a prefeitura de São Paulo lançou o projeto City Câmeras, que, até 2020, planeja incluir 10 mil câmeras por toda a cidade para auxiliar os corpos policiais a monitorar a atividade criminal que ocorre em áreas urbanas. Além do monitoramento, esse sistema será capaz de reconhecer indivíduos com histórico criminal e, com isso, dar apoio a sistemas de prevenção ao crime.

CCTV camera

Imagem: "CCTV camera" por freefotouk é uma licença de creativecommons de acordo com CC BY-NC 2.0

Saber que estamos sendo constantemente vigiados pode ser perturbador para muitos. No entanto, o uso de tecnologias sofisticadas com o auxílio da inteligência artificial proporcionou a muitas pesquisas científicas a oportunidade de acelerar descobrimentos nunca antes alcançados pelo homem sem o auxílio da tecnologia. Deep Learning, por exemplo, é uma ramificação do aprendizado de máquina (Machine Learning) que, através de redes neurais, como o processamento de linguagem natural ou o reconhecimento de fala, atualiza as oportunidades algorítmicas de um sistema de inteligência artificial de maneira mais objetiva e sofisticada. Google Translate e Siri (o assistente pessoal da Apple) são dois exemplos populares de Deep Learning. Hoje em dia, também é utilizado para criar padrões computacionais capazes de reconhecer patologias como o câncer.

A IA NOS AJUDA A ENTENDER O MUNDO. AO FORNECER ORIENTAÇÕES PERSONALIZADAS SOBRE COMO GUIAR NOSSAS DECISÕES, GANHA CADA VEZ MAIS NOSSA CONFIANÇA. OBVIAMENTE, AO FACILITAR AS NOSSAS VIDAS, DEVEMOS CONCORDAR COM UMA VIGILÂNCIA CASUAL. QUANTO MAIS INFORMAÇÕES COMPARTILHARMOS, MAIS PERSONALIZADA SERÁ ESSA ORIENTAÇÃO.

A eficácia dessas ferramentas depende da precisão e da quantidade de dados que podemos fornecer. Diante dos muitos desafios que a humanidade e o planeta enfrentam, será que não estamos obrigados a sacrificar certas liberdades individuais para acelerar o desenvolvimento dessas ferramentas? É possível proteger nossa independência e ainda coletar os dados necessários para produzir um mundo melhor por meio da IA? 

À medida que o Machine Learning se infiltra na sociedade, começamos a perceber que os algoritmos nem sempre são perfeitos. Em julho de 2019, por conta da falta de precisão no sistema de reconhecimento facial utilizado pela polícia do Rio de Janeiro, uma mulher foi detida por engano. Embora o Machine Learning seja uma forma contínua de discriminação estatística, o tipo de preconceito abordado é normalmente direcionado a uma parcela da população, colocando grupos privilegiados em uma vantagem sistemática sobre grupos desprivilegiados. Em alguns casos, algoritmos são treinados a encontrar profissionais que encaixam melhor em processos seletivos para uma vaga de trabalho. 

As preocupações com a privacidade surgem junto com o aumento do uso de padrões predispostos usados para programar esses algoritmos. Quando aceitamos os Termos e Condições de uma página web, consentimos que a utilização dos nossos dados será feita com fins que sequer somos capazes de calcular. Os dados privados de qualquer indivíduo se tornam objetos valiosos, os quais são organizados de acordo com os interesses de quem programa esses dados.

OS ALGORITMOS PODEM SER MATEMATICAMENTE SÓLIDOS MAS AO MESMO TEMPO, SE SUAS PREVISÕES SÃO BASEADAS EM DADOS DEFEITUOSOS, GERALMENTE CONTENDO PRECONCEITOS HISTÓRICOS E SOCIAIS INERENTES E DIFÍCEIS DE DETECTAR, SE MANIFESTARÃO EM PREVISÕES OBTUSAS E DISCRIMINATÓRIAS.

Em um estudo realizado pela Universidade de Stanford, algoritmos de reconhecimento facial foram criados para detectar a orientação sexual de uma pessoa, tomando como referência uma base de dados imensurável de imagens faciais de homens e mulheres catalogados de acordo com a orientação sexual de cada um. Com os dados aportados, uma estrutura de similaridades e pontos em comum gerava uma regra que resultava num padrão que associava um determinado estereótipo.

Imagem: Universidade de Stanford

Tal exemplo demonstra que existem mecanismos que atribuem características pessoais como uma base numérica para realçar diferenças.

“A categoria cor da pele é aquela utilizada pela Polícia Civil, porta de entrada oficial dos indivíduos no Sistema de Justiça, para caracterizar os indivíduos vítimas ou autores de crimes. Inclusive, vale destacar que o critério de classificação é o da atribuição da cor pelo escrivão de Polícia, funcionário responsável pelo registro da ocorrência policial.”

AS CLASSIFICAÇÕES RACIAIS, POR EXEMPLO, DE ACORDO COM O ESTUDO REALIZADO PELA A DIVISÃO DE ESTUDOS SOCIOECONÔMICOS DA FUNDAÇÃO SEADE EM 2004

Se atribuímos esses dados na estrutura algorítmica de seleção de possíveis culpados, apresentamos resultados enviesados, perigosamente denotados por questões sociais muito mais profundas que vão além da cor da pele de uma pessoa.

Tecnologias de reconhecimento facial podem levar à redução de resultados injustos e recomendar mudanças específicas em como os modelos matemáticos interpretam os dados, mas isso somente será possível se esses dados são organizados de maneira ética. É necessário um programa que não perpetue um sistema centenário que gera desvantagens para certos grupos da sociedade. Ao examinar estruturas algorítmicas de reconhecimento facial, a quantidade de dados que influi em variáveis sensíveis – raça, gênero, classe e religião – pode exercer sobre os dados uma medida de relação estimada, significando que os resultados obtidos podem ser facilmente enviesados. 

Pesquisadores que alimentam essas bases de dados devem assumir a responsabilidade ao realizar medidas preventivas para tornar o modelo imune a esses vieses. Uma maneira direta e eficaz para evitar distorções nos modelos de aprendizado de máquina, seria através da contratação de uma equipe mais diversificada de engenheiros e engenheiras de software, além de cientistas de dados, incluindo pessoas de diferentes origens, gênero e classe. Atualmente, podemos encontrar a Liga da Justiça Algorítmica (AJL) que luta contra os preconceitos sociais na estruturação de dados gerada por tecnologias de inteligência artificial.

Como os algoritmos tendem a criar uma visão generalizada da sociedade, invadindo todos os âmbitos sociais, políticos, culturais e econômicos, se não estruturamos esses dados de maneira justa e anti-preconceituosa, essas ferramentas servirão para reforçar hábitos discriminatórios. 

Não é só uma questão de vigilância, segurança ou da utilização dos nossos dados. De forma evolutiva, nós acabamos construindo uma relação estreita com a tecnologia, na qual muitos indivíduos dependem integralmente do auxílio de dispositivos inteligentes. A questão está em como gerar espaços algorítmicos que sejam iguais para todos.  

Para preencher a lacuna e minimizar possíveis conflitos baseados em discriminação “automática”, uma solução abrangente precisa ser estabelecida em termos legais e técnicos. Caso contrário, em um mercado não controlado e com acesso a ferramentas cada vez mais inteligentes e poderosas, gradualmente e imperceptivelmente, podemos aumentar a desigualdade social e reproduzir práticas opressivas de maneira matemática.

Arte: Gabriela Costa / Imagens: iStock by Getty Images e Flat Icon / Texto: Laura del Vecchio

 

Fonte: https://gente.globo.com/cyber-vigilancia-e-preconceitos-sociais/


Categorias:

Tecnologia | Preconceito | Internet | Redes Sociais | Manipulação | Privacidade |