Se aprovada, a eliminação ocorrerá a partir de 9 de janeiro.
A Governança de Inteligência Artificial (IA) refere-se ao conjunto de práticas, normas e diretrizes que visam garantir que as ferramentas e sistemas de IA sejam desenvolvidos e utilizados de forma ética, segura e responsável. Este tema torna-se cada vez mais relevante a medida que a IA se integra ao cotidiano da sociedade, redefinindo fronteiras em diversos campos de conhecimento e da atividade humana. A capacidade das máquinas de aprender, tomar decisões e operar de forma autônoma cria uma nova dinâmica entre seres humanos e tecnologia, impulsionando inovações em educação, indústrias, saúde e serviços[1][2][3].
Com isso, surge o desafio de como a sociedade deve lidar com a complexidade dessas inovações em IA — um problema que a governança de IA visa abordar, assegurando o respeito aos direitos humanos e prevenindo que as tecnologias perpetuem injustiças sociais. Isso é feito por meio de questões centrais como a mitigação de vieses, a transparência de algoritmos e a promoção de equidade. Também são discutidas a necessidade de adaptação de políticas públicas, do setor privado e do sistema educacional para preparar as futuras gerações para uma sociedade cada vez mais tecnológica[3].
Aspectos Éticos e Sociais
Viés Algorítmico
O viés algorítmico é um fenômeno que ocorre quando algoritmos de aprendizado de máquina produzem resultados injustos ou discriminatórios devido a erros sistemáticos em seus dados de treinamento. Estudos demonstram que a IA pode amplificar vieses sociais existentes, resultando em discriminação sistêmica[4]. Um dos vieses mais comuns a serem abordados está relacionado a questões raciais e estereótipos, bem como à exclusão de pessoas com base em sua origem étnica ou posição socioeconômica. Por isso, a integração de diferentes bases de dados para o treinamento, teste e validação de sistemas de IA em instituições públicas e privadas é fundamental para garantir revisões periódicas e a constante atualização dos resultados obtidos[5]. A necessidade de combater o viés algorítmico é fundamental para que a tecnologia cumpra seu propósito de melhorar as condições de vida.
Discriminação
A IA tende a perpetuar desigualdades sociais, uma vez que aprende a partir de bases de dados que podem refletir preconceitos e desigualdades existentes[6]. Um exemplo prático de discriminação por IA ocorre em processos de recrutamento e seleção, nos quais seu uso pode perpetuar padrões semelhantes entre os candidatos escolhidos, prejudicando a inclusão de minorias ou grupos com pouca representação. Isso contribui para tornar a organização cada vez mais homogênea, comprometendo a diversidade, frequentemente apresentada como um dos valores centrais no discurso de muitas empresas.[7]. A regulação jurídica da IA é necessária para evitar a discriminação e garantir que as tecnologias sejam utilizadas de forma justa e equitativa[8].
Privacidade
A proteção da privacidade é um aspecto crucial na governança da IA. As capacidades únicas da IA introduzem novos tipos de riscos à privacidade. Por exemplo, sua habilidade de identificar atividades de indivíduos mesmo com vídeos de baixa qualidade e de prever resultados futuros gera preocupações inéditas no processamento de informações. A IA também cria uma nova categoria de riscos associada à pseudociência da frenologia/fisiognomia, ao permitir a construção de classificadores infundados que correlacionam atributos físicos com traços sociais, emocionais e de personalidade. Além disso, a IA amplia os riscos de disseminação de dados por sua capacidade de gerar mídia realista e semelhante à humana, como vídeos falsos hiper-realistas de pessoas. Tecnologias de IA podem levar a uma vigilância mais invasiva e em maior escala do que antes, agravar problemas de uso secundário de dados, exclusão, insegurança, exposição não autorizada e acessibilidade aumentada no processamento e compartilhamento de informações pessoais. Elas também ampliam as formas de invasão do espaço pessoal dos indivíduos, tornando os desafios de proteção de privacidade ainda mais complexos[9].
Desemprego
A automação impulsionada pela IA tem o potencial de eliminar milhões de empregos em diversos setores, como processamento de dados e contabilidade. Um relatório do Fórum Econômico Mundial de 2020 estima que até 85 milhões de empregos podem ser perdidos devido à automação[10]. No entanto, a automação também pode criar novas oportunidades de emprego em setores emergentes, impulsionando o crescimento econômico[11].
Desigualdade
A implementação da IA pode acentuar desigualdades sociais existentes, especialmente em contextos onde o acesso à tecnologia é desigual. A interação entre o mundo digital e o real exige uma reavaliação das políticas públicas para garantir que a IA promova equidade e inclusão social[12].
Casos Reais
Viés Algorítmico
Um exemplo marcante de viés algorítmico ocorreu em 2018, no setor de recursos humanos, quando a Amazon implementou um sistema de IA para analisar currículos e selecionar candidatos automaticamente. No entanto, o algoritmo apresentava discriminação contra mulheres, pois foi treinado com dados históricos que refletiam a predominância masculina na indústria de tecnologia. Como consequência, candidatas do sexo feminino recebiam pontuações mais baixas.[8]
Outro caso emblemático aconteceu nos Estados Unidos, onde o sistema de IA COMPAS foi empregado para prever a probabilidade de reincidência de réus no âmbito judicial. Pesquisas apontaram que o COMPAS frequentemente classificava de forma injusta réus negros como de alto risco de reincidência, enquanto subestimava o risco associado a réus brancos. Esse viés resultou em decisões mais severas para determinados grupos, perpetuando desigualdades raciais no sistema de justiça.[8]
Discriminação
Uma mulher negra nos Estados Unidos foi erroneamente identificada como criminosa por um sistema de reconhecimento facial baseado em IA, o caso ocorreu em 2020 e está diretamente ligado aos problemas de viés em sistemas de reconhecimento facial usados por autoridades policiais. A mulher, Porcha Woodruff, foi acusada injustamente de um roubo que não cometeu, baseado unicamente na correspondência feita por um algoritmo de reconhecimento facial. evidenciando vieses raciais presentes nesses sistemas, causando assim a discriminação baseado em como o modelo foi treinado.[13]
No Brasil ocorreu um caso similar com Thaís Santos em um evento em Aracaju(SE); Thaís foi abordada devido a um erro de identificação da IA utilizada pela polícia.[14]
Privacidade
O uso inadequado de IA pode levar à coleta e processamento indevidos de dados pessoais, comprometendo a privacidade dos indivíduos. Estudos destacam a importância de uma governança robusta para proteger informações sensíveis no ambiente de trabalho. O próprio Chat GPT utiliza as informações fornecidas no chat para treinar seu modelo de IA[15][16]
Desemprego
O Fundo Monetário Internacional (FMI) alertou que a IA pode afetar 40% dos empregos globalmente, com algumas funções sendo completamente automatizadas, resultando em desemprego e exigindo requalificação da força de trabalho.[17]
Desigualdade
A adoção de IA sem medidas adequadas pode aprofundar desigualdades existentes, especialmente quando os benefícios da tecnologia não são distribuídos de forma equitativa. É crucial implementar políticas que assegurem que a IA contribua para a equidade social.[18][19]
Estruturas e Modelos de Governança
Normas e Regulamentações
Europa
O Regulamento Geral sobre a Proteção de Dados (GDPR) da União Europeia, criado em 2016, incorpora diretrizes que visam proteger os dados pessoais dos usuários em um ambiente cada vez mais dominado pela IA[20]. A coleta de dados deve ser realizada com o consentimento explícito dos usuários, garantindo que suas informações sejam tratadas de maneira ética. A GDPR também versa sobre a transparência na tomada de decisões automatizadas, incluindo o direito de obter uma explicação sobre a lógica envolvida, que afeta também o uso de IA[21]. Em 2024, surge o Regulamento sobre Inteligência Artificial da União Europeia, sendo o primeiro marco legal focado em inteligência artificial. Visa assegurar que os sistemas de IA sejam desenvolvidos e utilizados de forma responsável, aplicando-se tanto a fornecedores quanto a implementadores de sistemas de IA. O foco principal foi no gerenciamento de riscos, criando uma estrutura governamental para lidar com aplicações de alto risco, tanto em nível continental quanto em nível nacional[22].
Brasil
A Lei Geral de Proteção de Dados Pessoais, promulgada em 2018, assim como a GDPR, possui diretrizes sobre transparência de algoritmos e o direito de receber explicações pelo controlador dos dados sobre a lógica por trás das decisões automatizadas[23]. Sobre leis mais específicas sobre IA temos o Projeto de Lei 2.338/2023, que substitui o PL 21/2020, e trata-se de um marco regulatório para desenvolvimento e uso de IA, prevendo proteção a obras artísticas e criadores de conteúdo. Esse PL tem um propósito bem parecido com o Regulamento sobre Inteligência Artificial da União Europeia, classificando sistemas de inteligência artificial de acordo com o risco, levando em conta o impacto na vida humana e nos direitos fundamentais[24].
Estados Unidos
Nos EUA, temos a Executive Order on AI (2023) que promove a pesquisa e desenvolvimento de IA no país, com foco em garantir que a IA seja usada de forma ética e segura, dispondo de diversas diretrizes. Esse documento propôs, entre outras coisas, o desenvolvimento de uma política nacional de IA e incentivou a colaboração entre os setores público e privado[25]. Além disso, o NIST lançou em 2024 uma estrutura de gerenciamento de riscos para organizações associadas com IA, focado em melhorar a confiabilidade de sistemas desenvolvidos[26]. No congresso estadunidense, em 2020, também tivemos diversas leis sobre governança de IA, estabelecendo diretrizes de como os órgãos públicos deveriam agir em projetos utilizando IA, além de promover seu uso para melhorar serviços públicos, fomentar pesquisas, desenvolvimento e implementação da tecnologia no país, sempre levando em conta suas consequências e estabelecendo padrões éticos, com foco na transparência e no impacto social[27][28].
Iniciativas de Organizações Internacionais
Organizações internacionais, como a ONU e a UNESCO, têm avançado na criação de diretrizes globais para a governança da IA. A UNESCO, por exemplo, aprovou a Recomendação sobre a Ética da Inteligência Artificial, que estabelece um marco de ação global para garantir que a IA seja utilizada de maneira ética e responsável[29].
Iniciativa do Serviço Nacional de Saúde do Reino Unido, o NHS AI Lab é um modelo de governança focado em tecnologias de IA, com o foco em criar um ambiente de fomento de ferramentas e inovações focados na área de saúde e assistência social[30]. Um exemplo de projeto bem-sucedido desse modelo de governança foi um modelo de IA capaz de detectar retinopatia diabética em exames oftalmológicos[31]. A governança de IA aplicada inclui auditorias frequentes e a revisão de viés nos dados usados para treinar os modelos, garantindo que diferentes grupos populacionais sejam representados adequadamente. O uso responsável da tecnologia, regulado por diretrizes éticas de transparência e consentimento informado, resultou em diagnósticos mais rápidos e precisos para pacientes em larga escala[32].
Desafios e Oportunidades
Limitações na Regulamentação
A regulamentação da IA enfrenta desafios significativos devido à natureza multifacetada e à rapidez com que a tecnologia se desenvolve. Primeiramente, a diversidade de aplicações de IA é vasta, abrangendo desde a personalização de conteúdo em plataformas digitais até a tomada de decisões críticas em setores como saúde e justiça. Essa amplitude torna complexa a tarefa de criar regulamentações específicas e eficazes que abordem adequadamente as preocupações éticas e de governança em cada contexto.
Além disso, a rápida evolução tecnológica da IA cria um ambiente em constante mudança, onde as leis muitas vezes não conseguem acompanhar o ritmo das inovações. Isso resulta em lacunas regulatórias, onde tecnologias emergentes operam em áreas cinzentas, não claramente abordadas pela legislação existente. As propostas regulatórias, tentando abraçar a vasta gama de aplicações de IA, acabam sendo genéricas demais, o que pode diluir sua eficácia e deixar de capturar os aspectos únicos de determinados usos da IA que requerem supervisão mais rigorosa[33][34].
Promoção de Inovações Éticas e Responsáveis
A governança de IA é essencial para promover inovações que aliam tecnologia avançada a princípios éticos sólidos. A integração desses princípios durante o desenvolvimento de aplicações de IA é crucial para prevenir vieses discriminatórios, salvaguardar a privacidade dos usuários e manter a confiança pública. Auditorias algorítmicas e transparência nos processos são medidas práticas que ajudam a assegurar que os sistemas de IA sejam justos e equitativos.
Além das medidas técnicas, a governança de IA envolve a capacitação dos profissionais da área e o diálogo com a sociedade civil. Essas ações colaborativas buscam criar diretrizes inclusivas e justas, garantindo que a IA seja uma ferramenta de empoderamento social. Ao adotarem práticas éticas, as empresas não apenas atendem às expectativas regulatórias e de mercado, mas também contribuem para um ecossistema tecnológico mais responsável e alinhado com o bem-estar social[35][36].