Cotidiano

Brasil discute estratégia para inteligência artificial

A relevância da inteligência artificial (IA)e os riscos da sua adoção vêm ensejando movimentos por governos para implantar ações ou regular essa tecnologia. Nos últimos anos, diversos países lançaram estratégias, políticas nacionais ou legislações que atingem de forma geral ou parcial tais soluções técnicas. No Brasil, o governo colocou em consulta pública uma proposta de estratégia, que após receber contribuições deverá ser publicada em breve.

Parte dos países possui políticas mais amplas que incluem IA, em geral, focadas em indústria 4.0. É o caso da Iniciativa Digital da Dinamarca, do Programa Holandês para Empresas Inteligentes e da Plataforma Indústria 4.0 da Áustria. Contudo, com o crescimento da IA e a aposta nesses equipamentos em áreas diversas, da economia à política, os Estados passaram a debater políticas específicas sobre o tema.

Um dos pioneiros foi a China. O governo do país lançou em 2017 o “Plano de Desenvolvimento da Inteligência Artificial da Próxima Geração”. A meta era que o país se equiparasse ao líder global na área, os Estados Unidos, em 2020 e chegasse em 2030 dominando o campo. Um órgão foi criado para coordenar a implementação (Escritório de Promoção do Plano de IA) e um comitê de aconselhamento. A integração com o setor privado conta com uma “Aliança para o Desenvolvimento da IA”.

O plano indica a necessidade de elaborar uma “nova geração de teoria básica sobre a IA no mundo”, além de construir uma tecnologia de IA de forma cooperativa, elevando a capacidade técnica do país em relação ao restante do mundo, envolvendo soluções em realidade virtual, microprocessadores, processamento em linguagem natural. Uma plataforma integrada foi elencada como base para dar apoio a aplicações e soluções a serem desenvolvidas por atores públicos e privados no país. Entre as metas está a aceleração da formação de talentos em ocupações de ponta na construção de sistemas de IA e o fomento a bens e serviços como hardware inteligentes (a exemplo de robôs), carros autônomos, realidade virtual e aumentada e componentes da Internet das Coisas.

Europa e EUA

Em 2018, a Comissão Europeia lançou sua estratégia e um plano coordenado para o tema, visando orientar a construção de políticas nacionais dos estados-membros e fortalecer seu esforço de consolidar um mercado digital único. Sua abordagem foi afirmada como “centrada nos humanos”. A estratégia é focada em quatro frentes: ampliar os investimentos na área, preparação para impactos socioeconômicos, desenvolvimento de um arcabouço ético e de um modelo regulatório adequado.

O plano assume que o bloco precisa ampliar investimentos para não perder a corrida global pelo domínio da tecnologia, instituindo uma meta de aportes de empresas e instituições públicas na casa dos US$ 20 bilhões por ano. Entre os focos estão repasses para startups inovadoras e tecnologias de ponta. Para incentivar o desenvolvimento, a Europa atua para robustecer e integrar centros de pesquisa com estudos sobre o assunto, bem como promove projetos-piloto para testar as soluções propostas, no âmbito da criação de “hubs” de inovação digital no bloco.

As iniciativas de preparação envolvem a mitigação dos riscos trazidos por essas tecnologias. É o caso das mudanças no trabalho e das habilidades necessárias para as atividades produtivas. Uma das medidas será a ampliação de mestrados e doutorados em IA. Outro eixo é a construção da confiança por meio de um ambiente seguro de fluxo de dados.

Em 2018, entrou em vigor o Regulamento Geral de Proteção de Dados do bloco, considerado modelo de legislação protetiva. Contudo, o fato dos dados serem matéria-prima da IA demanda o uso de muitos registros, criando desafio de facilitar o fluxo de informações sem descuidar do respeito aos direitos dos titulares. Para além dos dados, são necessários computadores para operar o processamento. A Europa possui uma iniciativa de computação de alta performance visando avançar na sofisticação de sua estrutura informatizada com redução do consumo de energia. No plano regulatório, o intuito é construir modelos “flexíveis o suficiente para promover inovação enquanto garantam altos níveis de proteção e segurança”.

Já os Estados Unidos divulgaram sua estratégia nacional “IA para o Povo Americano” baseada em cinco pilares:

» Promover pesquisa e desenvolvimento sustentáveis no tema;
» Liberar recursos para o campo;
» Remover barreiras para a inovação em IA;
» Empoderar os trabalhadores americanos com educação focada em IA e oportunidades de treinamento, e;
» Promover um ambiente internacional que dê suporte da inovação e uso responsável da IA pelos EUA.

O plano estabelece ações para fomento da tecnologia na indústria, focando em alguns setores: transporte, saúde, manufatura, finanças, agricultura, previsão do tempo, segurança e defesa nacionais. Entre iniciativas estão a facilitação dos procedimentos para a operação de carros autônomos em estradas do país, aceleração de autorização de equipamentos de IA no sistema de saúde e atuação específica do escritório de patentes para viabilizar novos registros de soluções em IA.

Brasil

No Brasil, há legislações que tratam de temas relacionados à IA, como a Lei Geral de Proteção de Dados (LGPD). O governo lançou uma consulta pública no fim de 2019 sinalizando diretrizes e apresentando indagações aos participantes sobre os caminhos que uma estratégia nacional deveria seguir. Segundo o texto da consulta, a estratégia deve ter por objetivo “potencializar o desenvolvimento e a utilização da tecnologia para promover o avanço científico e solucionar problemas concretos do país, identificando áreas prioritárias nas quais há maior potencial de obtenção de benefícios”.

A sondagem busca colher subsídios sobre determinados temas que são comuns às políticas nacionais, como incentivo à pesquisa e desenvolvimento e iniciativas para a requalificação da força de trabalho. 

Um dos desafios colocados pela consulta é a identificação dos segmentos econômicos com potencial de gerar ganhos econômicos ao país e obter protagonismo na concorrência global. “Essas áreas possibilitam dar visibilidade para o país em termos internacionais, gerar empregos com maiores salários, atrair grandes empresas da área de TI[tecnologia da informação], gerar produtos e aplicações da IA para as diversas necessidades dos setores público e privado e, também, preparar o país para a necessidade de requalificação que a tecnologia vem impondo em nível global”, pontua o texto.

Na segurança pública, área objeto de intensas polêmicas no campo, a consulta reconhece os questionamentos internacionais no tocante a aplicações como reconhecimento facial e técnicas como policiamento preditivo, evitando adotar uma posição e questionando os participantes acerca das melhores respostas.

O texto indica a necessidade de instituir um ecossistema de governança de IA tanto no setor público quanto no privado para observar critérios como a explicabilidade, o combate aos vieses e a inclusão de parâmetros de privacidade, segurança e direitos humanos no desenvolvimento dos sistemas. Tomando o debate internacional sobre valores, princípios éticos e abordagens de direitos humanos aplicadas à IA, a consulta indaga os participantes sobre quais mecanismos são os mais adequados à concretização desses princípios e ao estabelecimento de salvaguardas, questionando se seria o caso de uma lei geral para o assunto.

Para pesquisadores, empresários e ativistas consultados pela Agência Brasil, o tema é complexo e enseja distintos mecanismos de políticas públicas e regulação para promover soluções adequadas e evitar consequências prejudiciais a indivíduos e grupos sociais.

O cientista de dados da startup Semantix, que comercializa aplicações de IA, defende que as políticas públicas limitem-se ao apoio às empresas atuando na área. “É importante fazer alinhamento com o estímulo à inovação, dar estímulo para startup que adota IA. Assegurar que essas empresas tenham incentivo fiscal ou incentivo a fundo perdido. Hoje estamos distantes do que ocorre nos outros países. Precisamos diminuir essa diferença para atingir inovação”, recomenda.

Um dos aspectos é o da garantia da concorrência neste mercado. Na avaliação do coordenador da Associação de Pesquisa Data Privacy Brasil, Rafael Zanatta, um eixo importante da regulação é o tratamento dos dados como ativo econômico. Uma vez que grandes conglomerados se utilizam de grandes bases de dados como vantagens competitivas (como redes sociais e mecanismos de busca), em outros países vem crescendo a discussão sobre o tratamento dos dados como uma infraestrutura pública.

“Organizações internacionais como OCDE, FMI e Banco Mundial têm relatórios dizendo que um dos maiores problemas é a alta concentração econômica, com grupos entrincheirados com grandes bases de dados. Uma das modalidades é aplicar regulações que delimitem conjuntos de dados obrigatoriamente compartilhados. Descentralizar o acesso, mas protegendo dados pessoais”, argumenta Zanatta.

O pesquisador da Fundação Konrad Adenauer e autor de livros sobre o tema Eduardo Magrani acredita que em breve será preciso dar resposta à emergência das máquinas inteligentes como agentes. “Quais as características que nos fazem humanos e em que ponto as máquinas vão ser merecedoras destes direitos? Minha opinião é que no estágio atual a gente ainda não precisa atribuir uma personalidade eletrônica. Mas precisamos preparar terreno porque a IA pode dobrar a cada 18, 24 meses. A medida que for ganhando autonomia a gente vai precisar atribuir alguns direitos e eventualmente até uma personalidade eletrônica”, sugere.

Legislação

Para além da Estratégia Nacional, projetos de lei já foram apresentados no Congresso Nacional visando regular o campo. O PL 5051 de 2019, do senador Styvenson Valentim (PODEMOS/RN) estabelece princípios ao uso da IA no país, como respeito à dignidade humana e aos direitos humanos, transparência e auditoria dos sistemas, garantia da privacidade e supervisão humana. Além disso, responsabiliza os criadores ou proprietários dos sistemas por danos causados por eles.

O PL 2120 de 2020, do deputado Eduardo Bismack (PDT/CE) também estabelece fundamentos e princípios, como desenvolvimento tecnológico, proteção de dados, livre concorrência, respeito aos direitos humanos, não discriminação, explicabilidade, centralidade do ser humano, segurança, transparência e fiscalização do cumprimento das normas legais. As partes afetadas por um sistema passam a ter direitos, como informações claras sobre os critérios adotados e sobre uso de dados sensíveis. Para o deputado, diante do cenário da relevância da IA e de seu potencial, “torna-se apropriada a edição de legislação sobre a matéria, tornando obrigatórios os princípios consagrados no âmbito internacional e disciplinando direitos e deveres”.

Na avaliação do coordenador do Centro de Pesquisa em IA da Universidade de São Paulo e professor da Escola Politécnica da instituição, Fábio Gozman, medidas devem ser específicas em relação aos potenciais prejuízos sob risco de prejudicar a inovação no campo. “É preciso identificar problemas e atuar sobre eles. Seria importante definir claramente o que é uma violação de privacidade, um deepfake [vídeo alterado artificialmente para parecer real]. Isso não significa só proibir coisas, o que pode dificultar ter bônus na sua economia”, observa.

O diretor de relações governamentais da IBM no Brasil, Andriei Gutierrez, vai em sentido semelhante. “Hoje o país não está maduro para você avançar em qualquer regulação geral. Com uma lei geral corre risco de afetar aplicações das quais nossa sociedade depende. Se obrigar revisão de decisões automatizadas por humano, o risco é você ter sérias consequências”. Já para a analista de políticas para América Latina da organização internacional Eletronic Frontier Foundation Veridina Alimonti, a ausência de mecanismos que assegurem a revisão humana pode tornar esse recurso figurativo.

Para o professor da Faculdade de Comunicação da Universidade de Brasília Sivaldo Pereira, a regulação do tema passa por um amplo debate sobre temas como regras sobre o poder de tomada de decisão das máquinas; níveis de autonomia; mecanismos de controle dos sistemas que podem subverter os seus autores; limites no uso de IA para algumas questões sensíveis, passando ainda por diretrizes sobre a criação de códigos (como necessidade de diversidade étnica, cultural, de classe etc. tanto nas equipes que escrevem códigos quanto no público por meio do qual o algoritmo é treinado, pois isso reflete diretamente nas características do produto final). “É preciso criar uma política regulatória centrada no elemento humano e não apenas deficiência técnica do sistema”, defende o docente.