Inteligência Artificial: em busca de proteção e responsabilização
Discussão sobre a tecnologia avançada, com preocupações em relação à regulação, deve avançar em 2025

Falar sobre Inteligência Artificial (IA) não é mais falar sobre o futuro. Ela já está presente no nosso dia a dia e estará cada vez mais inserida em diferentes atividades, das mais cotidianas às mais elaboradas. Com o avanço da capacidade computacional e o surgimento de novas tecnologias, ferramentas como redes neurais, processamento de linguagem natural e aprendizado profundo possibilitam que a IA extrapole as soluções lógicas para reconhecer padrões de uso e até mesmo de emoções. O intuito principal é aprender com os dados gerados e cada vez mais garantir a personalização do uso.
Se, por um lado, é possível agregar agilidade, por outro, o uso equivocado ou irresponsável pode resultar em consequências gravíssimas, como em casos de ataques cibernéticos, violação à privacidade, decisões antiéticas, disseminação de preconceito, geração de informações inverídicas e criação de imagens falsas. Com o avanço tecnológico e com situações comprovadas de mau uso, estão sendo discutidas em todo o mundo legislações para regulamentar tais ferramentas, e a tendência é que elas avancem muito ainda em 2025, com governo, iniciativa privada, universidades e pesquisadores trabalhando juntos em prol do aperfeiçoamento da cibersegurança. Afinal, esse é um interesse tanto de quem tem trabalhado na criação de novas tecnologias, quanto da sociedade de modo geral, que pode ser diretamente prejudicada.
O debate é global e contempla questões como responsabilidade em situações que possam ser prejudiciais a alguém, seja propositalmente ou por erro na leitura de dados, além de invasão de privacidade, segurança de dados e liberdade para inovação. Apesar da IA não ser nova, com origem entre os anos de 1940 e 1950, é recente a disseminação da sua utilização. No mesmo contexto, sabe-se que ainda há mais o que surgir. Para o professor do curso de Ciência da Computação da Escola Politécnica da PUCRS Michael da Costa Móra, a evolução tecnológica tem sido rápida, porém existe uma dificuldade em entender até onde ela poderá chegar. "Há uma discussão muito forte sobre qual o limite disso."
"A ambição é de que se possa atingir a um comportamento inteligente geral, com rápidas interações, mas o que encontramos ainda são sistemas que fazem generalização de dados e, por isso, ainda com muitos erros", destaca o pesquisador. Tais motivos dificultam a criação de regulamentações e, para a advogada Paula Beckenkamp, especialista em Proteção de Dados e IA, não há, atualmente, propriedade para ter uma matéria mais completa sem fazer um trabalho de futurologia.
Regulamentação no Brasil e no mundo
Ainda em um debate recente, o Brasil avançou pouco em legislações sobre o assunto. Incluído na pauta do Senado em maio de 2023, o Projeto de Lei 2338 tramita no Congresso Nacional. "Estamos ainda longe de ter uma regulação para a área. O projeto ainda é muito raso em comparação ao que já existe em outras partes do mundo", afirma Paula. Há também no Congresso outras propostas com normativas mais pontuais relacionadas ao tema.
Em julho, o Governo Federal também lançou um Plano Brasileiro de Inteligência Artificial (PBIA) 2024-2028, o qual tem o objetivo de posicionar o Brasil como referência em inovação, contemplando o apoio no processo regulatório e de governança. O Executivo anunciou que investirá aproximadamente R$ 23 bilhões durante os quatro anos na área, sendo R$ 103,25 milhões na parte de regulação. No entanto, os números são pequenos quando comparados com grandes potências como EUA - R$ 63 bilhões de investimentos públicos entre 2021 e 2024.
O advogado Moysés Benito Crespo Perez Neto, consultor nas áreas de Inteligência, Direito Digital e Proteção de Dados, esclarece que os processos são demorados, pois exigem cautela para que não deixe lacunas ou seja restritivo demais. A exemplo do modelo da União Europeia (UE), o AI Act entrou em vigor em maio de 2024, após quatro anos de desenvolvimento e foi pioneiro no mundo. O texto é abrangente e robusto, com categorias de risco e prazo para adequação entre seis e 36 meses, dependendo da classificação. Nos Estados Unidos, o estado da Califórnia, onde está instalada grande parte das mais relevantes empresas de tecnologia, também já conta com legislações sobre o tema, porém, ao contrário da UE, optou pela criação de leis separadamente para cada aspecto, algumas delas já em vigor desde outubro de 2024. Quase um ano antes, o então presidente Joe Biden havia assinado uma espécie de decreto com, por exemplo, padrões de segurança, como testes mais rígidos por parte das empresas desenvolvedoras.
Para os dois especialistas, os modelos já existentes, que ainda devem sofrer alterações, podem servir de inspiração para o Brasil, mas que um modelo próprio deverá ser criado. "Somos um país em desenvolvimento, com muitos problemas locais, o que exige um olhar focado para a nossa realidade. Pensar em questões como violência urbana, discriminação de gênero, raça ou religiosa, são importantes de serem observadas aqui", exemplifica Paula. De acordo com ela, o modelo californiano foca na ajuda ao desenvolvimento das novas tecnologias e no empreendedorismo, enquanto o europeu protege, principalmente, o consumidor.
Outra preocupação levantada pela dupla de advogados é que grande parte das empresas brasileiras é de pequeno e médio porte. Então, a legislação não pode tirá-las do mercado, com exigências inalcançáveis. "É preciso ter cuidado para que não torne tudo restritivo demais, prejudique a inovação e afaste avanços econômicos", pontua Perez.
Nos Estados Unidos, em 2018, um carro autônomo da Uber atropelou uma mulher de 49 anos causando um acidente fatal. Na ocasião, havia uma pessoa dentro do veículo para supervisionar seu funcionamento. O tema acendeu as discussões sobre a responsabilização em casos como esse: se seria da empresa proprietária da tecnologia ou da pessoa que supervisionava. Com a mesma gravidade, Móra considera que os sistemas direcionados ao setor de saúde instigam uma reflexão maior. "Com soluções que são capazes de gerar um diagnóstico ou laudo a partir de uma imagem, qual será a responsabilidade de um profissional que não verifica se o conteúdo está correto? São decisões que podem mudar permanentemente a vida de alguém. Então qual o nível de erro que pode ser aceito?", questiona.
O advogado defende que as normativas brasileiras devem ser criadas pensando em cada um dos setores afetados pela IA. "No agronegócio, por exemplo, as necessidades são diferentes da área da saúde, que também difere da financeira", cita. Além disso, a criação de um órgão regulador geral, com segmentações para olhar para essas particularidades, é o caminho ideal. Atualmente, no Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) é a que tem atendido às demandas do tema, pois garante aos usuários que a empresa tenha responsabilidade sobre a coleta, tratativa, armazenamento e compartilhamento dos dados.
IA e crimes cibernéticos
As perdas causadas por crimes cibernéticos somaram US$ 12,5 bilhões em 2023 no mundo, segundo o FBI. De acordo com o Panorama de Ameaças para a América Latina 2024, o Brasil é o segundo país com mais ataques cibernéticos no planeta, ficando atrás apenas dos Estados Unidos. Ainda que com poucos casos registrados, o uso de IA é uma preocupação. Com a IA generativa, a qual deve se expandir ainda mais em um futuro próximo com muito mais facilidade para a criação de conteúdos mais precisos em suas diferentes linguagens a partir de dados prévios, a criminalidade tem mais instrumentos para convencer a vítima.
Conforme o titular da Delegacia de Repressão aos Crimes Informáticos e Defraudações do Departamento Estadual de Investigações Criminais (DEIC), João Vitor Herédia, essa é uma realidade nova, com ocorrências pontuais, principalmente com deep fakes, quando são utilizadas imagens ou áudios de pessoas para simular algum discurso inverídico. "Algumas situações foram registradas durante as enchentes, por exemplo, com campanhas enganosas de arrecadação e falsos sites de vendas de produtos, com o uso de fotos de pessoas públicas e famosas para estelionato", exemplifica.
De acordo com o pesquisador da PUCRS, as ferramentas para identificação do uso de IA ainda são incipientes, o que exige do público uma atenção maior. "Ainda não temos ferramentas para serem usadas por todos para atentarem para conteúdos falsos. Estamos mais acostumados com o texto, mas é difícil fazer a verificação de vídeos e de áudios. Então, o ideal é sempre manter o senso crítico, mesmo com temas em que costumamos concordar, e cruzar as informações com fontes oficiais", aconselha o professor.
Uma fatia do mercado busca soluções para identificar com maior facilidade os crimes. No entanto, sempre há quem também explore maneiras de burlá-las. "Assim como a sociedade se adapta, a criminalidade também se adapta ao uso de novas tecnologias", afirma Herédia. Apesar de equipamentos, softwares e policiais especializados em tecnologia com técnicas avançadas de investigação para responsabilizar os culpados, a Polícia Civil enfrenta a dificuldade do aumento de volume dos crimes nos meios digitais. Para acompanhar esse acréscimo, de acordo com o delegado, será criado em 2025 um Departamento de Repressão aos Crimes Cibernéticos, para expandir a estrutura de uma delegacia no Estado para três. A medida objetiva preparar melhor o órgão público na identificação de crimes informáticos de forma ampla, mas também os que fazem uso de IA.
Iniciativas como essa, assim como a regulação tendem a trazer mais segurança para empresas, órgãos públicos e usuários nos próximos anos. Contudo, conforme os especialistas, a educação digital e a conscientização sobre o tema também devem ser trabalhadas desde a infância para que a população aprenda bem cedo os riscos e os caminhos para a proteção nos meios digitais. "Somos migrantes digitais e não temos uma cultura de proteção de dados. Estamos no processo, pois temos mecanismos para ter controle do que pode ser acessado, mas não há conhecimento. É preciso maior sensibilização desde a escola", conclui Perez.