Pela primeira vez, a Inteligência Artificial (IA) foi regulamentada no território americano. Pois é, a decisão foi tomada após um vídeo deepfake de Joe Biden, atual presidente dos Estados Unidos, proferindo um discurso presidencial falso. “Quando foi que eu disse isso?” foi a reação do presidente ao assistir.
A ordem é significativa e entra em vigor pouco tempo depois da primeira lei envolvendo inteligência artificial no mundo, lei essa aprovada pelo Parlamento Europeu em junho deste ano (2023). Com o avanço constante da IA, o mundo todo quer descobrir como regular essa tecnologia. Afinal, ela é extremamente poderosa e nas mãos erradas, pode ser bem preocupante.
Neste artigo, iremos mergulhar nesta lei para entender o que é deepfake e o que muda com as regulamentações da IA. Portanto, bora seguir.
Deepfake?
Em suma, é uma técnica de IA que envolve a criação de conteúdo multimídia falso e realista. Os deepfakes usam algoritmos de aprendizado profundo, especialmente Redes Neurais Convolucionais (CNNs) e Redes Generativas Adversariais (GANs). O termo “deepfake” vem da combinação das palavras “deep learning” (aprendizado profundo) e “fake” (falso).
Em essência, um deepfake é um vídeo, áudio ou imagem que parecem genuínos, mas na verdade foram criados artificialmente por algoritmos de machine learning.
Essa tecnologia pode superpor rostos em vídeos, criar discursos falsos com áudios, ou até mesmo gerar imagens de pessoas que não existem na realidade.
O decreto de Biden sobre a Inteligência Artificial
Em 30 de outubro de 2023, o presidente dos EUA, Joe Biden, assinou a primeira ordem executiva (algo como um decreto) para regulamentar a IA no país. Assinado na segunda-feira (30), o texto estabelece padrões de segurança e “define ações abrangentes para proteger os americanos dos riscos potenciais dos sistemas de IA”.
Em uma cerimônia na Casa Branca, Biden disse que “a IA já está ao nosso redor e que é preciso governar essa tecnologia”. Segundo a agência Associated Press, os EUA são a casa dos principais desenvolvedores da tecnologia. Alguns deles são Google, Meta, Microsoft e muitas outras startups, como a OpenAI, dona do ChatGPT.
O decreto presidencial é um conjunto de iniciativas para regulamentar a IA – algumas boas e outras parecendo um tanto incompletas. O objetivo é abordar danos que vão desde os imediatos, como os deepfakes gerados pela IA, até os secundários, como a perda de empregos, e aqueles a longo prazo, como a ameaça existencial muito contestada que a IA pode representar para os seres humanos.
O Congresso dos EUA está demorando a aprovar regulamentações significativas para grandes empresas de tecnologia. Este decreto presidencial é provavelmente uma tentativa de contornar um Congresso que muitas vezes ficou em posição de impasse, bem como de iniciar alguma ação.
Principais pontos do decreto:
Padrões de segurança e proteção para IA:
Acima de tudo, os desenvolvedores de sistemas de IA terão que compartilhar seus resultados de testes de segurança e outras informações críticas com o governo americano. Empresas deverão realizar testes para garantir que os sistemas de IA estejam seguros. O Instituto Nacional de Padrões e Tecnologia (NIST) “definirá os padrões rigorosos para testes extensivos de equipes vermelhas para garantir a segurança antes da divulgação pública”, diz o texto.
Proteção de privacidade:
Biden pede que o congresso aprove uma legislação bipartidária de privacidade de dados, para proteger todos os norte-americanos, especialmente crianças.
Equidade e direitos civis:
O decreto prevê a criação de um conselho interagências para monitorar e mitigar os impactos da IA na equidade e nos direitos civis, especialmente para grupos vulneráveis ou marginalizados. O conselho deverá elaborar um plano de ação para prevenir e combater a discriminação, o viés e a injustiça algorítmica.
Direitos do consumidor:
Para conter fraudes e enganos, o Departamento de Comércio dos EUA terá que desenvolver orientações, como adoção de marcas d’água, que ajudam pessoas a identificar um conteúdo criado por IA. Além disso, o decreto estabelece que os consumidores têm o direito de saber quando estão interagindo com um sistema de IA e de solicitar uma revisão humana das decisões tomadas por IA.
Empregos:
O texto prevê a criação de um relatório para identificar potenciais riscos da IA no mercado de trabalho, como a substituição, a desqualificação ou a precarização dos trabalhadores. O relatório também deverá propor medidas para promover a educação, a capacitação, a recolocação e a proteção social dos trabalhadores afetados pela IA.
Inovação e concorrência:
O decreto incentiva o investimento público e privado em pesquisa, desenvolvimento e infraestrutura de IA, bem como a cooperação entre os setores acadêmico, industrial e governamental. O decreto também visa garantir a competitividade dos EUA no cenário global de IA, evitando práticas desleais e abusivas de outros países ou empresas.
Liderança internacional e governança da IA:
A regulamentação também pede que os EUA acelerem parcerias com outros países e organizações para garantir que a IA “seja segura e confiável”. O decreto defende que os EUA liderem os esforços para estabelecer normas, padrões e princípios internacionais para a IA, baseados nos valores democráticos e nos direitos humanos. Aliás, o decreto também reconhece a necessidade de abordar os desafios de segurança nacional e de defesa relacionados à IA.
Governança da Inteligência Artificial:
O decreto cria um comitê executivo para coordenar e supervisionar as ações do governo federal relacionadas à IA. O comitê será composto por representantes de vários departamentos e agências, e será responsável por implementar o decreto, monitorar o progresso, avaliar os resultados e propor ajustes. O comitê também deverá consultar especialistas, partes interessadas e o público sobre as questões de IA.
As implicações e os desafios da regulamentação da IA
O decreto de Biden sobre a IA é um passo importante e histórico para regular uma tecnologia que tem impactos profundos e abrangentes na sociedade. A lei reconhece os benefícios e os riscos da IA, e busca equilibrar a proteção dos cidadãos com o estímulo à inovação. Aliás, o decreto também coloca os EUA na vanguarda das discussões sobre a governança da IA, e pode influenciar outros países e regiões a seguirem o mesmo caminho.
No entanto, o decreto também apresenta alguns desafios e limitações, que podem dificultar a sua efetividade e a sua implementação. Alguns desses desafios são:
A falta de definição clara do que é Inteligência Artificial:
O decreto não define o que é IA, nem quais são os tipos ou os níveis de IA que estão sujeitos à regulamentação. Isso pode gerar confusão, inconsistência e arbitrariedade na aplicação das regras, bem como brechas para que alguns sistemas de IA escapem do escopo do decreto. Além disso, a IA é uma tecnologia dinâmica e evolutiva, que pode mudar rapidamente e desafiar as categorias existentes. Por isso, é preciso ter uma definição clara e flexível do que é IA, que possa se adaptar às novas realidades e aos novos desafios.
A dependência da cooperação do Congresso e das empresas:
O decreto depende da cooperação do Congresso e das empresas de tecnologia para ser efetivo. Por exemplo, o decreto pede que o Congresso aprove uma legislação de privacidade de dados, que é essencial para proteger os cidadãos dos abusos da IA. No entanto, o Congresso está dividido e paralisado por questões políticas e ideológicas, e pode não ter vontade ou capacidade de aprovar uma lei tão complexa e controversa. Da mesma forma, o decreto pede que as empresas de tecnologia compartilhem seus resultados de testes de segurança e outras informações críticas com o governo.
A falta de mecanismos de fiscalização e sanção:
O decreto não estabelece quais são os mecanismos de fiscalização e sanção para garantir o cumprimento das regras de IA. Isso pode comprometer a eficácia e a credibilidade da regulamentação, pois pode haver casos de descumprimento, negligência ou má-fé por parte dos desenvolvedores ou dos usuários de IA. Além disso, o decreto não define quais são as instâncias ou as autoridades competentes para fiscalizar, julgar e punir as infrações relacionadas à IA. Por isso, é preciso criar um sistema de accountability, que envolva a participação de órgãos públicos, entidades privadas e sociedade civil. Assim, será possível monitorar, avaliar e responsabilizar os atores envolvidos na IA.
A complexidade e a diversidade dos cenários de Inteligência Artificial:
O decreto tenta abordar uma variedade de cenários e de questões relacionadas à IA, mas pode não ser capaz de contemplar todos os casos e as especificidades de cada um. A IA é uma tecnologia que pode ser aplicada em diferentes domínios, contextos e finalidades, e que pode gerar diferentes impactos e desafios, dependendo de vários fatores, como o tipo, o nível, o escopo, a escala, a qualidade, a finalidade, a origem, o destino, etc. Por isso, é preciso ter uma abordagem diferenciada e proporcional para cada cenário de IA, que considere as particularidades e as nuances de cada um, e que evite soluções genéricas ou uniformes.
A necessidade de coordenação e harmonização com outros países e regiões:
O decreto reconhece que a IA é uma tecnologia global, que transcende as fronteiras nacionais, e que requer uma coordenação e uma harmonização com outros países e regiões. No entanto, o decreto pode enfrentar resistências ou divergências de outros atores internacionais, que podem ter visões, interesses ou abordagens diferentes sobre a IA. Por exemplo, a China é um dos principais concorrentes na corrida pela liderança da IA. Aliás, o país tem uma visão mais autoritária e menos transparente sobre a tecnologia. A União Europeia também tem uma proposta de regulamentação da IA, que pode ser mais restritiva e mais protetiva do que a dos EUA. Por isso, é preciso diálogo e uma cooperação multilateral, que respeite a diversidade e a soberania dos países e regiões. Porém, que também promova a convergência e a compatibilidade das normas, padrões e princípios da IA.
Em última análise…
A Inteligência Artificial é uma tecnologia que tem impactos profundos e abrangentes na sociedade, e que requer uma regulamentação adequada e equilibrada, que garanta o respeito aos direitos humanos, à privacidade, à transparência, à responsabilidade, à segurança, entre outros princípios, mas que também estimule a inovação, a competitividade, a pesquisa e a educação na área de IA, sem criar barreiras ou excessos regulatórios.
O decreto de Biden sobre a IA é um passo importante e histórico para regular a IA nos EUA, e pode influenciar outros países e regiões a seguirem o mesmo caminho. No entanto, o decreto também apresenta alguns desafios e limitações, que podem dificultar a sua efetividade e a sua implementação. Alguns desses desafios são: a falta de definição clara do que é IA, a dependência da cooperação do Congresso e das empresas, a falta de mecanismos de fiscalização e sanção, a complexidade e a diversidade dos cenários de IA, e a necessidade de coordenação e harmonização com outros países e regiões.
A regulamentação da IA é um tema complexo e dinâmico. Decerto exige uma constante atualização e adaptação, bem como uma ampla participação e colaboração de todos os atores envolvidos.