Cotidiano

Riscos da inteligência artificial levantam alerta e suscitam respostas

Com o crescimento da importância e visibilidade da inteligência artificial (IA) estão aumentando também as preocupações com as consequências negativas da utilização dessas tecnologias. Diante dos riscos e efeitos prejudiciais, governos, pesquisadores, associações civis e até mesmo empresas vêm discutindo os cuidados e medidas necessários para mitigar esses resultados prejudiciais.

O arco de riscos e perigos é diverso. Para além do tema mais notório do futuro do trabalho, possíveis complicações vão da discriminação de determinados segmentos até a própria mudança da noção de humanidade e da prevalência desta sobre as máquinas, passando por ameaças à privacidade e danos na organização de mercados e abusos no emprego de armas.

A inteligência artificial envolve processamento complexo que demanda uma grande quantidade de dados para sua eficácia. Por isso, o funcionamento adequado destes sistemas, e eventuais ganhos advindos, pressiona por uma coleta crescente de informações. Tais soluções podem amplificar a já forte preocupação com a proteção de dados pessoais.

Em agosto do ano passado, foi tornado público que o Google trabalhava em um projeto (Project Nightingale) pelo qual coletava dados de milhões de pacientes dos Estados Unidos por meio de acordos com empresas sem que essas pessoas soubessem. O Google é uma das empresas de ponta nesse campo, utilizando inteligência artificial em diversos produtos, do mecanismo de busca ao tradutor, entre outros.

O Facebook, outro conglomerado importante no emprego de aplicações com inteligência artificial, também vem historicamente aprofundando formas de coleta de informações de usuários. Em depoimento ao Congresso dos Estados Unidos em abril de 2018, o diretor-executivo, Mark Zuckerberg, admitiu que a empresa coleta dados inclusive de quem não é seu usuário.

Pesquisa do Pew Research Center divulgada em 2019 com cidadãos norte-americanos apontou que cerca de 80% dos ouvidos estavam preocupados com sua privacidade e sentiam-se sem controle de suas informações pessoais frente a empresas e aos governos. Já outro estudo, da Unysis, colocou o Brasil como sexto país em que os cidadãos estão mais receosos em relação ao acesso às suas informações online.

Essas preocupações vêm ensejando a aprovação de leis em diversos países, como o regulamento geral da União Europeia, cuja vigência iniciou em 2018, e a Lei Geral de Proteção de Dados ( lei brasileira Nº 13.709), que entrará em vigor em agosto deste ano. Mais de 100 países já possuem legislações deste tipo, um mapa global pode ser visto no levantamento da consultoria DLA Piper.

Discriminação

Uma vez que os sistemas de inteligência artificial vem ganhando espaço em análises e decisões diversas, essas opções passam a afetar diretamente as vidas das pessoas, inclusive discriminando determinados grupos em processos diversos, como em contratações de empregados, concessão de empréstimos, acesso a direitos e benefícios e policiamento. Uma das aplicações mais polêmicas são os mecanismos de reconhecimento facial, que podem determinar se uma pessoa pode receber um auxílio, fazer check in ou até mesmo ir para a cadeia.

Na China, uma ferramenta chamada SenseVideo passou a ser vendida no ano passado com funcionalidades de reconhecimento de faces e de objetos. Mas a iniciativa mais polêmica tem sido o uso de câmeras para monitorar atos e movimentações de cidadãos com o intuito de estabelecer notas sociais para cada pessoa, que podem ser usadas para finalidades diversas, inclusive diferenciar acesso a serviços ou até mesmo gerar sanções.

No Brasil, soluções deste tipo vêm sendo utilizadas tanto para empresas como o Sistema de Proteção ao Crédito (SPC) como para monitoramento de segurança por câmeras, como nos estados do Ceará, Bahia e Rio de Janeiro. Neste último, no segundo dia de funcionamento, uma mulher foi presa por engano, confundida com uma fugitiva.

Em fevereiro de 2018, dois pesquisadores do renomado Instituto de Tecnologia de Massachusetts (MIT, sigla em inglês) e da Universidade de Stanford, Joy Buolamwini e Timnit Gebru, testaram sistemas e constataram que as margens de erro eram bastante diferentes de acordo com a cor da pele: 0,8% no caso de homens brancos e de 20% a 34% no caso de mulheres negras. Estudo do governo dos Estados Unidos, publicado no ano passado, avaliou 189 ferramentas deste tipo, descobrindo que as taxas de falsos positivos eram entre 10 e 100 vezes maior para negros e asiáticos do que para brancos.

Os questionamentos levaram estados e cidades a banir a tecnologia, inclusive São Francisco, a sede das maiores corporações de tecnologia do mundo; e Cambridge, onde fica o Instituto de Tecnologia de Massachusetts. A Comissão Europeia anunciou, no início do ano, a possibilidade de banir o reconhecimento facial, tema que está em debate no bloco. No Brasil, ao contrário, há dois projetos de lei obrigando o reconhecimento facial em determinadas situações, como em presídios.

Projetos de inteligência artificial podem promover a discriminação também em políticas públicas. Na província de Saltas, na Argentina, a administração local lançou uma plataforma tecnológica de intervenção social em parceria com a Microsoft com o intuito de identificar meninas com potencial de gravidez precoce a partir da análise de dados pessoas, como nome e endereço.

“Além dos métodos estatísticos serem malfeitos, a iniciativa tem presunções sexistas, racistas e classistas sobre determinado bairro ou segmento da população. O trabalho é focado em meninas, somente, presumindo que os garotos não precisam aprender sobre direitos sexuais e reprodutivos. Temos que tomar cuidado para que segmentos já segregados não sejam mais discriminados sob uma máscara de opções neutras da tecnologia”, observa a diretora da organização Coding Rights e pesquisadora do Berkman Klein Center da Universidade de Harvard, Joana Varón, que elaborou um artigo sobre a experiência.

A analista de políticas para América Latina da organização internacional Eletronic Frontier Foundation, Veridiana Alimonti, ressalta questões a serem observadas nas decisões automatizadas. Os parâmetros dos modelos são construídos por um humano, que tem concepções e objetivos determinados. E seu emprego em larga escala traz riscos ao devido processo em decisões que afetam a vida das pessoas a partir de sistemas que muitas vezes não possuem transparência tanto no seu desenvolvimento quanto na sua aplicação.

“É preciso que haja resposta a medida em relação a esse tipo de decisão. É preciso ter dimensão do impacto que isso tem e salvaguardas de direitos que precisam ser protegidos, seja antes na escolha da ferramenta ou para ter pessoa específica que possa ter condição de revisão e que seja efetiva, e não que simplesmente se crie um processo em que essa reclamação leve a uma nova análise pelo sistema”, argumenta.

Concentração

A capacidade de influência a partir dessa gama variada de decisões é ainda maior quando um determinado agente possui poder de mercado. Na área de tecnologia, grandes conglomerados dominam seus nichos de mercado e lideram a adoção de inteligência artificial, como Microsoft, Amazon, Google, Apple e Facebook nos Estados Unidos; e Tencent e Alibaba na China.

O Google possui mais de 90% do mercado de buscas e mais de 70% do mercado de navegadores, bem como controla a maior plataforma audiovisual do mundo, o Youtube. O Facebook alcançou 2,5 bilhões de usuários e controla os três principais aplicativos do mundo: Facebook, FB Messenger e Whatsapp, além do Instagram.

Quanto mais participação de mercado e mais usuários, mais dados são coletados. E se essas informações pessoais são consideradas por entidades internacionais como a Organização para a Cooperação e o Desenvolvimento Econômico (OCDE) e o Fórum Econômico Mundial (FEM) um ativo econômico chave, quem controla amplas bases passa a deter uma vantagem competitiva chave, podendo reforçar seu domínio e prejudicar concorrentes.

“Essa nova economia parece muito mais tendente à concentração e centralização. É muito mais difícil vencer barreiras monopolistas neste setor do que em outro. Essa monopolização dos dados significa uma monopolização da capacidade de monetizá-los e gerar novos avanços tecnológicos com base neles. A disputa pelos dados é uma disputa central e parte considerável destes serviços está fazendo pelo mundo todo”, analisa o professor de sociologia econômica da Universidade Federal do Ceará Edemilson Paraná.

Armas autônomas

Um dos riscos objeto de atenção mais forte tem sido o crescimento de armas inteligentes, como drones e tanques autônomos, descritas como a terceira revolução das guerras após a pólvora e as armas nucleares. Entre 2000 e 2017, eles subiram de 2 para mais de 50 em todo o mundo. Os países que mais desenvolvem essas máquinas são Estados Unidos, Israel, Rússia, França e China. Tais aparelhos elevam os riscos das decisões autônomas, uma vez que essas passam a envolver a decisão sobre vida e morte de indivíduos.

Em 2015, mais de mil pesquisadores da área de inteligência artificial e especialistas como o falecido físico Stephen Hawking, o co-fundador da Apple Steve Wozniak e o cérebro por trás da Tesla e da SpaceX Elon Musk assinaram uma carta aberta cobrando que as Nações Unidas banissem o uso de armas autônomas como drones. Uma campanha foi criada para essa finalidade, chamada Parem os Robôs Assassinos, advogando pela proibição da produção e do uso de armas totalmente automatizadas. Em fóruns internacionais e nas Nações Unidas, governos discutem a regulação ou o veto ao emprego dessas tecnologias, ainda sem conclusão.

Esse conjunto de riscos, contudo, vem provocando uma atenção relativa das empresas que lidam com inteligência artificial. Levantamento da McKinsey de novembro de 2019 apontou também que 40% das companhias ouvidas identificam e priorizam os riscos relacionados a essa tecnologia. Os impactos negativos que mobilizam maior atenção das empresas ouvidas foram a cibersegurança (62%), cumprimento da lei (50%), privacidade (45%), explicabilidade (39%), reposição de força de trabalho (35%), reputação organizacional (34%) e tratamento justo (26%). Na comparação entre utilizadores intensos de inteligência artificial e demais setores, a preocupação com parâmetros no uso de dados ocorre em 76% dos primeiros e 18% dos segundos. A garantia de mecanismos de explicação foi relatada por 54% dos primeiros, contra 17% do segundos.

Princípios éticos

Esse amplo conjunto de riscos e polêmicas ensejou a ampliação do debate sobre os cuidados e medidas a serem tomadas para mitigar tais ameaças e potencializar o uso de máquinas inteligentes para finalidades adequadas. Centenas de pesquisadores subscreveram um documento chamado Princípios de Asilomar, em referência ao local onde uma conferência foi realizada sobre o tema, na Califórnia em 2017.

O texto afirma princípios como segurança, responsabilidade, privacidade e benefício da sociedade. Pontua também cuidados como explicação e capacidade de auditoria em caso de decisões, falhas e desvios (inclusive no campo jurídico), respeito aos valores e direitos humanos, compartilhamento dos benefícios e ganhos econômicos promovidos por máquinas inteligentes, controle humano e não-subversão das dinâmicas humanas.

Nos últimos anos, empresas de tecnologia também apresentaram suas balizas. A Microsoft, por exemplo, lançou seus princípios: imparcialidade, confiabilidade, transparência, privacidade e segurança, inclusão e responsabilidade. O Google também anunciou valores e diretrizes para o desenvolvimento dessas tecnologias: benefício social, mitigação do reforço de vieses, segurança, transparência, incorporação de princípios de segurança no seu desenho técnico, expressar parâmetros científicos de ponta e ser disponibilizada para usos de acordo com esses princípios.

O principal relatório sobre inteligência artificial no mundo (AI Index, elaborado pela Universidade de Stanford) registrou em sua edição de 2019 que 19% das empresas ouvidas pelo levantamento relataram alguma medida para promover a explicabilidade dos seus algoritmos. Outras 13% informaram atuar para lidar com problemas como vieses e discriminação, buscando formas de amplificar a equidade e o tratamento justo de seus sistemas.

Governos e organismos internacionais também entraram na discussão. Em abril do ano passado, a Comissão Europeia divulgou diretrizes para uma inteligência artificial centrada nas pessoas. Elas reforçam a relevância da participação e o controle dos seres humanos, com objetos técnicos que promovam o papel e os direitos das pessoas, e não prejudiquem estes.

Uma orientação complementar é a garantia de que os sistemas considerem a diversidade de segmentos e representações humanas (incluindo gênero, raça e etnia, orientação sexual e classe social, entre outros) evitando atuações que gerem discriminação.

Segundo o documento, os sistemas de inteligência artificial devem ser robustos e seguros, de modo a evitar erros ou a terem condição de lidar com estes, corrigindo eventuais inconsistências.

Ao mesmo tempo, o texto destaca a necessidade de assegurar a transparência dos sistemas, bem como a garantia de sua rastreabilidade e explicabilidade, para que não haja dificuldades na compreensão de sua atuação. Essas soluções técnicas devem assegurar a privacidade e o controle dos cidadãos sobre seus dados. As informações coletadas sobre um indivíduo não podem ser utilizadas para prejudicá-lo, como em decisões automatizadas que o discriminam em relação a alguém.

Organização para a Cooperação e o Desenvolvimento Econômico (OCDE) defende que a inteligência artificial deve beneficiar as pessoas e o planeta ao promover crescimento inclusivo, desenvolvimento sustentável e bem-estar. O desenvolvimento deve respeitar as legislações e os direitos humanos, valores democráticos e a diversidade, com salvaguardas como permitir a intervenção humana quando necessário.

A OCDE reforça a importância da transparência e da explicabilidade de modo que pessoas possam entender o funcionamento e as decisões tomadas e questioná-las se desejarem. Tais tecnologias devem ser seguras e não oferecer riscos para as pessoas; e os indivíduos, as empresas e as organizações por trás deles devem ser responsabilizados se for o caso.

Joana Varon, da Coding Rights, contudo, pondera que muitas empresas pautam uma agenda de ética e inteligência artificial de modo que tais diretrizes não atrapalhem seus negócios.

“Este debate de ética e inteligência artificial acaba levando a uma interpretação de que a simples autorregulação das empresas seria suficiente. Devemos falar é de direitos humanos e nas relações de poder existentes na sociedade”, advoga.

Uma abordagem mais forte emerge também nas discussões sobre políticas públicas e regulação do tema, objeto de outra reportagem desta série.