Insights

IA e Privacidade: desafios regulatórios para proteção de dados

Por:
Caroline Moraes de Lima,
Izabela Ferreira
gradient-technology-background
Destaques

Atualmente é inevitável falar de inteligência artificial (IA), considerando sua escala extraordinária de evolução e espaço que ela tem ocupado no dia a dia das pessoas, tanto em atividades pessoais, quanto no cotidiano corporativo e comercial. Por isso, é importante entender o que é essa tecnologia, o seu funcionamento e impactos, principalmente em relação à privacidade e à proteção de dados pessoais.

A inteligência artificial é um sistema desenvolvido com o objetivo de desempenhar diferentes níveis de autonomia e que, a partir dos dados que recebe, possui a capacidade de aprendizado, ou seja, de adaptar e aprimorar a sua funcionalidade de geração de resultados, como previsões comportamentais, elaboração de conteúdos e orientar as tomadas de decisões. 

Por se tratar de uma ferramenta que depende de dados em larga escala para alimentar seus algoritmos e potencializar seu desempenho, a coleta de dados pessoais para essa finalidade teve um aumento significativo nos últimos anos, que em sua grande maioria ocorre sem o consentimento dos titulares desses dados e pode resultar em tratamentos de dados que extrapolam as expectativas dos titulares e resultam em impactos significativos à privacidade dos indivíduos. 

Proteção de dados e legislação internacional

A IA pode trazer muitos benefícios para a sociedade quando aplicada de forma correta, como na área da saúde, por exemplo, que pode ser utilizada para garantir maior precisão em diagnósticos médicos.

Em contrapartida, um dos seus principais riscos está atrelado à violação da privacidade e proteção de dados, uma vez que os dados pessoais podem ser tratados pela ferramenta para realizar previsões comportamentais e, a partir disso, sem o conhecimento dos titulares, publicizar informações pessoais com potencial discriminatório ou de alto impacto ao titular dos dados, principalmente quando há utilização de dados sensíveis, como gênero, biometria, traços de personalidade, origem étnica, interesses pessoais, idade,  tatuagens e cor de cabelo.

Diante da evolução da IA e das implicações que o seu uso indevido pode causar, a necessidade de observância à privacidade tem sido muito debatida nos últimos anos. Na União Europeia, por exemplo, a discussão sobre o tema vem ocorrendo desde 2018, ano em que a Comissão Europeia criou um grupo de especialistas sobre inteligência artificial, com o objetivo de realização de estudos sobre o tema para estabelecer regras e diretrizes que garantissem o pleno desenvolvimento da tecnologia, mas sem que causasse qualquer prejuízo aos direitos fundamentais das pessoas.

Como resultado dessa iniciativa, no dia 12/07/2024, a Lei de Inteligência Artificial da União Europeia foi publicada no Diário Oficial do bloco, com entrada em vigor em 01/08/2024 e a aplicação das disposições legais será feita em fases, iniciadas em fevereiro de 2025. A legislação estabeleceu níveis de riscos para cada caso e diferentes obrigações a serem cumpridas pelos desenvolvedores, a depender da criticidade.

Na lei europeia, a utilização dessa ferramenta nas relações de trabalho, por exemplo, foi classificada na categoria de risco elevado, como em processos de recrutamento e seleção ou promoções e demissões, uma vez que pode estabelecer padrões de discriminação, como contra mulheres, pessoas com deficiência ou de uma determinada origem racial ou étnica ou orientação sexual. 

Outro tópico importante da lei é a proibição de utilização de sistemas de IA para identificação biométrica em tempo real em espaços públicos, salvo em situações excepcionais que se faça necessária por motivos de interesse público, como para busca de vítimas ou em casos de ameaças terroristas. O texto da lei europeia ainda destaca que o direito à privacidade e à proteção de dados pessoais deve ser garantido durante todo o ciclo de vida do sistema de IA, a partir da aplicação dos princípios já estabelecidos em legislação sobre proteção de dados, como a minimização e a anonimização. 

Cenário nacional

No Brasil, os debates sobre o assunto acontecem desde 2020 e o Projeto de Lei 2338 que estabelece princípios, regras e direitos sobre o uso de inteligência artificial foi aprovado pelo Plenário do Senado em 10/12/2024 e aguarda análise pela Câmara dos Deputados.

De forma bem similar ao que foi estabelecido pela União Europeia, o PL também categoriza os sistemas de IA em grupos de riscos e estabelece as responsabilidades de acordo com o nível de criticidade. Para classificar o risco, o sistema deverá ser submetido a uma avaliação prévia que deve ser aplicada pelos desenvolvedores, fornecedores ou operadores do sistema. 

No texto aprovado pelo Senado, é possível identificar algumas alterações do projeto inicial, como o caráter facultativo desta avaliação preliminar dos sistemas de IA, que só será obrigatória para os sistemas generativos e de propósito geral. No entanto, será considerada uma medida de boa prática quando aplicada para os casos facultativos.

Adicionalmente, o projeto de lei também prevê que, caso um sistema de IA seja classificado como de alto risco, deverá ser realizada uma avaliação de impacto por profissionais com conhecimentos técnicos, científicos, regulatórios e jurídicos. 

Projeto de lei possui um capítulo específico sobre a proteção de dados pessoais para o desenvolvimento e uso da IA, onde estabelece os seus princípios norteadores, sendo eles: dignidade humana, proteção dos dados pessoais, consentimento informado, transparência, não discriminação e educação e conscientização.

Estruturas de governança de IA

A partir da análise da legislação europeia e do projeto de lei do Brasil, verifica-se a preocupação dos legisladores em relação à utilização de dados pessoais no desenvolvimento de ferramentas de inteligência artificial, considerando o alto risco que pode oferecer aos titulares, a depender do seu contexto.

A regulamentação do uso de sistemas de inteligência artificial é complexa e possui seus desafios, principalmente para as definições de regras e de uma estrutura de governança robusta para uso nas empresas, mas é essencial para garantir que não sejam utilizados para fins discriminatórios ou qualquer outra finalidade ilícita, e que caso aconteça, os agentes sejam devidamente responsabilizados.

Como a Grant Thornton Brasil pode ajudar?

Oferecemos abordagens customizadas para atender as necessidades da sua empresa em proteção da privacidade e de dados sensíveis. 

Contate nossos especialistas