IA: MERCADO ESPERA QUE MARCO PROTEJA PESSOAS E INOVAÇÃO

IA: MERCADO ESPERA QUE MARCO PROTEJA PESSOAS E INOVAÇÃO

Insumo das operações de seguros, os dados dos clientes devem ser tratados levando em conta os riscos pessoais e o patrimônio protegido.

Por: Letícia Nunes

Com previsão de votação no Congresso Nacional ainda neste semestre, o PL 2338/23, que regulamenta o uso da inteligência artificial no Brasil, promete, apesar das dúvidas que ainda o cercam, colocar o País na vanguarda das discussões sobre o tema em todo o mundo. O ano eleitoral serviu de combustível para acelerar a tramitação, já que recursos como o chamado deepfake — alteração em rostos e vozes de pessoas com resultados verossímeis, por meio de IA — podem interferir na campanha, ainda de forma mais incisiva do que ocorreu com as fakenews nos últimos pleitos.

 

Mas não é apenas no campo político que a necessidade de impor regras ao uso da inteligência artificial é defendida: o mercado de trabalho, a vida acadêmica, a privacidade individual e tantos outros aspectos da sociedade estão sendo fortemente impactados pela IA.

 

O projeto chamado informalmente de Marco Legal da Inteligência Artificial, elaborado por uma comissão de juristas e apresentado pelo presidente do Senado, Rodrigo Pacheco, objetiva “proteger os direitos fundamentais” e garantir “sistemas seguros e confiáveis”. Com 45 artigos, o PL 2338/23 baseia-se na ideia de “centralidade da pessoa humana” — ou seja, para qualquer criação feita a partir da inteligência artificial, é necessário antes observar os interesses da população.

 

Há cerca de outras 50 proposições circulando entre a Câmara dos Deputados e o Senado, que também pretendem regulamentar a IA. Em comum, a maioria delas aborda aspectos como o uso de deepfake para criar imagens e áudios falsos de pessoas para uso político, publicitário ou em pornografia; reprodução e manipulação de voz e imagem de pessoas que já morreram; direitos autorais e plágio em obras criadas por IA; utilização do reconhecimento facial; sanções específicas para crimes cometidos com uso de IA; aplicação da IA nos sistemas da administração pública federal, estadual e municipal; e criação de regras para veículos autônomos terrestres.

 

TRÂMITE CÉLERE

 

O volume de projetos retrata a importância que os parlamentares vêm dispensando ao tema, já que se trata de uma discussão recente — embora algumas proposições datem de 2019, a maioria delas foi apresentada no ano passado. Neste conjunto, porém, somente o PL 2338/23 conseguiu tramitar com celeridade, inclusive com a criação de uma Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), cuja única finalidade é deliberar sobre ele. De certa maneira, o projeto de lei reúne os principais temas das demais proposições.

 

Na prática, o projeto regulamenta conceitos, fundamentos e princípios para o desenvolvimento e o uso de sistemas de inteligência artificial no Brasil, impactando um largo espectro de situações. Isso inclui, por exemplo, os direitos das pessoas afetadas por sistemas de inteligência artificial, os riscos eventualmente contidos nos sistemas de IA a serem identificados por meio de avaliação preliminar, a disseminação de notícias falsas e até a substituição de trabalhadores por máquinas.

 

Apesar da criação de uma comissão temporária, o PL seguirá a tramitação normal no Congresso. Após aprovação na primeira instância, seguirá para a Comissão de Constituição e Justiça (CCJ), antes de ser levado ao plenário do Senado. A última etapa é a aprovação na Câmara dos Deputados.

 

“É preciso compreender o ambiente de regulação, o investimento e a compreensão do uso da inteligência artificial na vida das pessoas. Não foi e não está sendo fácil promover uma regulação na União Europeia e nos Estados Unidos. O mundo acompanha atento o que é regulamentação e o que pode trazer dificuldades para o desenvolvimento e inovação de IA”, afirmou o relator do PL, senador Eduardo Gomes, durante participação no Mobile World Congresso, na Espanha, no fim de fevereiro.

 

O relator observou que, quando o Congresso começou a discutir inteligência artificial, o entendimento planetário sobre o tema era um. Mas, com os avanços velozes da tecnologia, novos pontos de vista surgiram.

 

“Há uma parte majoritária do uso da inteligência artificial que é boa. Portanto, as dificuldades e as análises de risco devem ser feitas com responsabilidade e, principalmente, devem caminhar juntamente com as políticas públicas do Governo, que se movimenta para fazer um trabalho em sintonia na questão da inteligência artificial e sua regulação. Não é apenas um segmento, mas um procedimento que envolve a vida de todos, um ambiente mundial de compreensão sobre inteligência artificial”, disse Eduardo Gomes.

 

MUNDO CORPORATIVO

 

Enquanto os debates prosseguem no Congresso, empresas e entidades de classe também se mobilizam para entender vantagens e desvantagens do uso da inteligência artificial em seus negócios. Questões como a proteção de dados, o uso de novas tecnologias e até o impacto da IA na empregabilidade estão na pauta do mundo corporativo — e não sem motivos.

 

Um levantamento realizado pela consultoria Page Interim, especializada em recrutamento e gestão de profissionais para projetos temporários, constatou que 76,6% dos entrevistados no Brasil acreditam que a IA vai atingir, de uma forma ou de outra, os postos de trabalho em suas áreas de atuação. No total, foram ouvidos 5.354 profissionais da América Latina. Os brasileiros observaram que vem aumentando o número de empresas que apostam no uso da inteligência artificial em setores estratégicos e que isso pode ter efeito na oferta de vagas.

 

No caso do setor de seguros, um ponto crucial está relacionado ao tratamento de dados — tema que também foi citado pelos entrevistados da Page Interim. As operações de seguros têm dados dos clientes como insumo e, por isso, é fundamental que o tratamento dessas informações leve em conta os riscos de cada pessoa ou patrimônio protegido.

 

“O projeto de lei precisa de aperfeiçoamento para atingir o objetivo de ser um marco na proteção à pessoa e, ao mesmo tempo, um indutor do desenvolvimento social, econômico e tecnológico do País. No uso da inteligência artificial, conceitos que imponham limitações a essa atividade são preocupantes. É o caso da definição do conceito de discriminação que está muito amplo e deveria focar em práticas ilícitas ou abusivas, e não em processos de distinção de dados que são cruciais para diversas atividades, como a de seguros”, observa a diretora da Diretoria Jurídica da CNseg, Glauce Carvalhal.

 

O advogado Antônio Sérgio Altieri de Moraes Pitombo, do escritório Moraes Pitombo, pós-doutor em Democracia e Direitos Humanos pela Faculdade de Direito da Universidade de Coimbra, pontua que a necessidade de regular a inteligência artificial no País deve estar vinculada a uma ideia de áreas de desenvolvimento, do ponto de vista econômico e social, que podem ser afetadas pelo uso intensivo de IA.
“Temos que pensar, por exemplo, na questão da privacidade, que é um direito fundamental da pessoa humana, e em setores tecnológicos e de comunicação que possam ser atingidos pela inteligência artificial, gerando problemas para o País e para a economia. Alguns setores financeiros podem sofrer impactos por informação de má qualidade criada pela inteligência artificial. Então, áreas sensíveis para a sociedade e a economia devem ter regulação”, afirma.

 

Pitombo conta que atuou em um caso de uso indevido da imagem de uma pessoa, que serviu para a criação de uma cena por meio da inteligência artificial. “A inteligência artificial está servindo como um colaborador nas atividades-fim das empresas. E quando a IA respeita a privacidade das pessoas, mostra-se um recurso fundamental para o desenvolvimento das atividades empresariais e econômicas”, complementa.

 

Para Glauce Carvalhal, eis aí um fator imprescindível quanto se fala na regulação da inteligência artificial: a necessidade de que as novas normas protejam direitos sem interferir na atividade empresarial.

 

“O setor segurador é altamente inovador, e essa inovação é muito importante para o consumidor, já que ela permite oferecer produtos mais aderentes às necessidades, melhorar o tempo de subscrição de riscos e reduzir os prazos para o pagamento de indenizações. Portanto, é uma questão crucial permitir que o uso da IA continue fomentando as inovações e a melhoria de processos e que a regulação desta tecnologia seja baseada no risco.

 

Na sua opinião, a intervenção regulatória deve ser proporcional aos riscos que a tecnologia pode trazer a direitos e liberdades individuais, sob pena de representar um obstáculo injustificável ao desenvolvimento econômico e à inovação tecnológica, não apenas ao setor de seguros, mas ao País de forma geral.

 


 

Na última semana de fevereiro, o Tribunal Superior Eleitoral (TSE) aprovou 12 resoluções que, entre outras regras, barram o uso de inteligência artificial nas eleições. Candidatos, partidos, coligações e federações partidárias que concorrerão a prefeituras e câmaras de vereadores em 2024 não poderão, por exemplo, recorrer a deepfakes na propaganda eleitoral. A decisão do TSE resolveu um problema relacionado ao PL 2338/23: mesmo que seja votado ainda neste ano, ele só valerá para o próximo pleito, ou seja, para a disputa de 2026.

 

De qualquer modo, o avanço do projeto de lei no Congresso e as novas normas do TSE alinham o Brasil aos países que mais trabalham pela regulamentação da inteligência artificial. Intensas negociações permitiram que a União Europeia aprovasse, no início de fevereiro, por unanimidade, um conjunto de regras sobre a aplicação da IA. O objetivo da regulação, batizada de Lei da IA, é garantir que o desenvolvimento e o uso da ferramenta nos Estados-membros ocorram de maneira segura e responsável em relação aos direitos fundamentais dos europeus. O pacote de medidas ainda precisa ser votado pelo Parlamento Europeu.

 

Além da União Europeia, China, Canadá e Reino Unido também têm avançado na regulamentação da inteligência artificial. No Reino Unido, por exemplo, as autoridades criaram uma lista de princípios para o uso seguro da ferramenta. Já a China exige que os provedores de serviços apresentem avaliações de segurança antes de lançar produtos de inteligência artificial em massa. No Canadá, a Lei de Inteligência Artificial e Dados garante o desenvolvimento de uma IA responsável, com o objetivo de proteger os cidadãos.

 

Porém, nos Estados Unidos, sede de algumas das maiores empresas de tecnologia do planeta, a regulamentação ainda está longe de ser abordada como uma questão nacional. Apenas algumas cidades e estados aprovaram legislação que restringe o uso da IA em certas áreas, como investigações policiais e contratações.