INTELIGÊNCIA ARTIFICIAL: OS IMPACTOS POLÍTICO-SOCIAIS E JURÍDICOS DA MAIS AVANÇADA TECNOLOGIA NA ERA DIGITAL GLOBALIZADA
(Cerca de 3 horas de leitura)
Artigo adaptado com base em Trabalho de Conclusão de Curso, apresentado dia 05 de maio de 2025, como requisito parcial para obtenção de título de Pós-graduação em Direito Digital e LGPD, pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS).
RESUMO
O artigo analisa os impactos da
Inteligência Artificial (IA) na era digital globalizada, seus riscos políticos,
sociais e jurídicos, ressaltando seu papel estratégico na nova corrida
armamentista das superpotências, bem como a eventual ascensão da Superinteligência
Artificial, com consequências distópicas e desafios à ordem democrática das
nações, alfim, propondo a regulação da IA no Brasil como caminho para
salvaguardar direitos fundamentais e soberania diante de um cenário global
radicalizado.
Palavras-chave: inteligência,
artificial, riscos, globalização e regulação.
DEDICATÓRIA
À minha amada esposa e mais preciosa parceira na vida, Mônica Perin, dedico a concretização desse labor acadêmico, reconhecendo seu apoio inabalável e irrestrita cumplicidade, sem as quais não seria possível alicerçar toda a essencial motivação e autoconfiança, imprescindíveis à transcendência de meus limites, com o elevado propósito de evoluir como homem digno, em busca do aprimoramento intelectual, profissional e moral. Graças a você, busco sempre ser um homem melhor. Muito obrigado por isso, meu amor.
1. INTRODUÇÃO.
2. DESENVOLVIMENTO.
2.1. ORIGEM E CONCEITO DA INTELIGÊNCIA ARTIFICIAL.
2.2. IMPREVISIBILIDADE ALGORÍTMICA.
2.3. OPACIDADE ALGORÍTMICA.
2.4. VIÉS ALGORÍTMICO.
2.5. SUSTENTABILIDADE ALGORÍTMICA.
2.6. IA COMO INTELIGÊNCIA RACIONAL INORGÂNICA.
2.7. ASCENSÃO DE UMA SUPERINTELIGÊNCIA.
2.7.1. Inteligência Artificial Limitada.
2.7.2. Inteligência Artificial Geral.
2.7.3. Superinteligência Artificial.
2.8. OS RISCOS DA SUPERINTELIGÊNCIA ARTIFICIAL GERAL.
2.9. CORRIDA ARMAMENTISTA DA IA.
2.10. CRISE EUROPEIA E MINERAIS RAROS.
2.11. CRISE ASIÁTICA E SEMICONDUTORES.
2.12. O PROBLEMA DO ALINHAMENTO DA IA.
2.12.1. Alinhamento Estatal da IA.
2.12.2. Vigilância Algorítmica.
2.12.3. Espionagem Algorítmica e o Caso Tiktok nos EUA.
2.12.4. Alinhamento e Controle Sobre a IAG.
2.12.5. Alinhamento da IA na Corrida Armamentista.
2.12.6. IA e as Leis da Robótica.
2.13. CRISE DEMOCRÁTICA E REDES SOCIAIS.
2.14. LIBERDADE DE EXPRESSÃO, SOBERANIA E CASO DA REDE X.
2.15. REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL.
2.15.1. Regulação Global da IA.
2.15.2. Regulação da IA no Brasil.
2.15.3. Aspectos do Projeto do Marco Regulatório da IA.
3. Considerações Finais.
REFERÊNCIAS
1. INTRODUÇÃO
O presente ensaio tem por desiderato a exposição de uma
visão analítica do fenômeno da Inteligência Artificial (IA), considerando os
riscos político-sociais e jurídicos, desencadeados pela implementação em massa
dessa tecnologia disruptiva, sob a égide do chamado Capitalismo de Vigilância,
notadamente, na hodierna ordem mundial, globalizada e digitalizada, já sob a
perspectiva do seu papel no contexto de uma nova corrida armamentista,
protagonizada no âmbito da disputa hegemônica entre as nações.
Para tanto, se faz necessário adotar uma abordagem
didática e holística de análise documental, com predominância lógica dedutiva,
por intermédio da qual se viabilize expor e analisar premissas gerais,
peculiares aos interesses corporativos predominantes na conjuntura
internacional. Em seguida, buscar-se-á examinar as particularidades dos seus
consequentes impactos no cenário doméstico do ordenamento brasileiro.
Nessa conformidade, faz-se mister compreender os aspectos
multifacetados do que representa a IA no mundo contemporâneo, sendo certo não
se tratar de um mero acontecimento restrito aos mercados insertados no
microcosmo empresarial, tampouco limitado à trivial utilização civil cotidiana,
laboral ou recreativa.
Muito além disso, a IA é, com efeito, parte essencial do
plano de consolidação de poder, das maiores potências militares do mundo, especialmente,
os Estados Unidos da América (EUA), a China e a Rússia.
Isto é, embora essa tecnologia tenha o condão de otimizar
toda a indústria mundial de bens e serviços, de desenvolver novas tecnologias
emergentes e de elaborar soluções para superar os maiores desafios à
sobrevivência da humanidade, não se pode olvidar que a IA é, outrossim,
essencialmente uma arma. E, como tal, já está sendo empregada pelas
superpotências, nas mais variadas aplicações políticas e militares, como uma
espécie de “panóptico algorítmico”, principalmente, no contexto de vigilância,
controle e programação preditiva.
No entanto, os principais riscos associados à utilização
da IA, enquanto arma, não estão, propriamente, ligados ao seu potencial nocivo
atual, mas sim concernem ao que, provavelmente, se transformará essa
tecnologia, num futuro próximo, como resultado de uma metamorfose sem
precedentes, mal regulamentada e irresponsável.
Convencionou-se chamar de Inteligência Artificial Geral
(IAG), ou “Singularidade”, a tecnologia resultante do ritmo exponencial de
aprimoramento da IA. Essa IA, como a conhecemos hoje, supostamente, atingirá
seu último estágio evolutivo, constituindo uma espécie de entidade superinteligente,
com capacidade criativa e adaptativa, similares às do ser humano, no entanto,
com aptidão intelectual infinitamente superior a qualquer pessoa já existente,
em todos os domínios do conhecimento.
A ascensão de uma eventual IAG, com efeito, consistiria no
primeiro contato da humanidade com outra forma de inteligência racional, a
qual, para surpresa do senso comum, não teria origem alienígena, mas sim terráquea
e concebida, inorganicamente, pelo próprio homem.
Esse prognóstico sombrio motivou diversas manifestações
alarmistas da comunidade científica por todo o mundo, inclusive, pregando a
necessidade de se interromper as pesquisas com IA, com o intuito de rever os
protocolos de segurança e controle, empregados no desenvolvimento dessa
tecnologia, em razão dos seus evidentes potenciais distópicos para a
humanidade.
Dito isso, será aqui demonstrado que a utilização
desautorizada de dados dos usuários, para treinamento e aprendizado da IA, o
impulsionamento tendencioso de conteúdos on-line, operado por viés algorítmico,
bem como a disseminação de deep fakes, com o propósito de promover a desinformação
nas redes sociais digitais, além do seu custo energético insustentável, são
apenas a ponta do iceberg. Tais mazelas nos servem de prenúncio, para riscos
imensamente mais desafiadores, já a caminho de testarem a ordem institucional e
democrática das nações.
Exatamente por isso, países em todo mundo se apressam
para aprovar um arcabouço legislativo robusto, visando a regular, criteriosamente,
a criação, desenvolvimento e implementação da IA, bem como a proteção de dados
e a utilização regulamentada do ciberespaço.
Todavia, na contramão dessa iniciativa, e não por acaso,
as superpotências militares estão a editar regulações vagas, flexíveis e pouco
abrangentes, no que tange à IA, com o evidente propósito de evitar qualquer
entrave jurídico-legal, apto a refrear o progresso tecnológico da sua mais
moderna e poderosa arma.
Dessa feita, a ordem
mundial vigente, paulatinamente, vê-se a reeditar um perigoso cenário de
polarização político-ideológica, exacerbando as tensões geopolíticas em escala
global. Esse panorama premente culmina em uma nova corrida armamentista das
superpotências, agora tendo a conquista da IAG como escopo e instrumento
fundamental, na disputa pelo status de nação suprema.
Na esteira dessa dinâmica antagônica pelo poder, direitos
e garantias fundamentais, como liberdade e privacidade, são postos em xeque, a
pretexto utilitarista de um suposto “bem maior” coletivo, mas que, no entanto,
aspiram apenas à legitimação de condutas autoritárias e vocacionadas ao
benefício de determinadas oligarquias.
Por derradeiro, no que pertine ao já combalido cenário
político brasileiro, a título propositivo, aponta-se o caminho da regulação da
IA, bem como das ferramentas que dela derivam no ciberespaço, como a via mais sólida
e previsível para assegurar a promoção da justiça e a salvaguarda da democracia
e da soberania nacional.
Objetiva-se, com tal abordagem, evidenciar um debate profundo,
que transcenda os aspectos estritamente tecnológicos da IA e adentre os riscos
inerentes à sua implementação prematura, massificada e mal regulada, à luz dos
nossos valores e propósitos enquanto espécie humana.
2. DESENVOLVIMENTO
2.1. ORIGEM E CONCEITO DA INTELIGÊNCIA ARTIFICIAL
Ultrapassado esse breve introito, necessário se faz
conceituar o que é a Inteligência Artificial, compreendendo sua origem e as
características que a distingue de outras tecnologias.
Ainda assim, não serão
abordados minuciosamente os diferentes modelos de IA debruçando-se sobre suas
infindáveis especificações técnicas, sob pena de escapar ao propósito precípuo
do presente estudo, o qual concerne aos impactos político-sociais e jurídicos
da adesão em massa a essa tecnologia. Dito isso, adentra-se, agora, à
contextualização histórica que deu origem à IA.
O Matemático inglês Allan Turing (1912-1954) é amplamente
considerado o “pai da computação”, por ter sido um dos cientistas pioneiros a
vislumbrar a possibilidade de uma máquina demonstrar comportamento inteligente.
Para tanto, o Matemático idealizou o experimento chamado
de “Teste de Touring”, em 1950, cujo propósito era avaliar a capacidade de uma
máquina em demonstrar comportamento inteligente, similar ao de um humano, ou,
pelo menos, indistinguível deste.[1]
Tratava-se de um protocolo simples, porém muito engenhoso.
Uma espécie de teste, segundo o qual uma pessoa conversa, por intermédio de uma
interface, com duas “entidades”, sendo uma humana e a outra uma máquina, de
sorte que a pessoa não saiba qual é qual. Ao fim da interação com ambas as
“entidades”, uma de cada vez, caso a pessoa não seja capaz de distinguir qual delas
é humana e qual não é, a máquina é considerada aprovada no teste. Ou seja, a
máquina teria sido capaz de convencer uma pessoa de que ela (a máquina) é
também um ser humano.
A perspectiva inovadora de Turing já trazia, mesmo em
1950, a expectativa da criação de máquinas inteligentes no futuro, aptas a
realizar tarefas complexas, muito além da capacidade humana.
No entanto, foi o Cientista da Computação norte-americano
John McCarthy (1927-2011) quem trouxe a lume o termo Inteligência Artificial, em
1956, durante a Conferência de Dartmouth, considerada o evento seminal para IA
enquanto campo de pesquisa e desenvolvimento. Naquela ocasião, a IA foi
superficialmente conceituada como "a ciência e a engenharia de fazer
máquinas inteligentes".[2]
Modernamente, todavia, aparenta-se
mais prolífico considerar uma definição mais abrangente, a qual sirva de norte
para um deslinde mais cuidadoso. Sendo assim, para a insigne autora Mafalda
Miranda Barbosa e seus colaboradores:
Inteligência Artificial é um conceito
mais amplo, como já se anotou, que diz respeito à meta de superação do “Teste
de Turing”, ou seja, a expressão diz respeito a modelos algorítmicos avançados
que são capazes de atingir a indistinção quando comparados ao modo de
raciocinar dos seres humanos; são máquinas capazes de “pensar” e “discernir”,
de modo que possam ser adjetivadas como inteligentes e na medida em que se
aproximarem da chamada singularidade tecnológica, isto é, o estado de
aproximação entre o biológico e o tecnológico que permita ao algoritmo
processar dados, formular hipóteses e apresentar soluções, mas também agir de
forma arbitrária, livre e autônoma (Barbosa et al, 2021).[3]
Como se pode observar, os ilustres autores identificam
elementos peculiares importantes, aptos a distinguir a IA de outras
tecnologias. São eles, por exemplo, a capacidade de “pensar” e “discernir”, notadamente,
identificada no processamento algorítmico da formulação de hipóteses e de
soluções autonomamente.
Isso revela um salto qualitativo importante na evolução
tecnológica, uma vez que, antes da IA, não se podia imaginar um software
realizando tarefas que escapassem da estrita conduta previamente programada em
seu código fonte. Agora, o algoritmo, através de uma análise estatística
multivariada, é capaz de, literalmente, tomar decisões.
Ou seja, basicamente, infere-se disso que a IA tem o
condão de “improvisar soluções”, elaborando a resolução mais adequada em face
de desafios inéditos, para os quais não havia um padrão específico e
preestabelecido de resposta programada.
Feita essa exígua abordagem acerca da origem e conceito
da IA, cumpre examinar as características peculiares que a tornam uma
tecnologia tão distinta.
Nessa toada, retoma-se o exame da já mencionada
capacidade de improvisação da IA. Trata-se de um atributo frequentemente
referido para justificar a adjetivação dessa tecnologia enquanto “inteligência”,
mas que, sob outro prisma mais cuidadoso, pode ser considerado um dos seus
principais fatores de risco imanente.
Afinal, não se pode negar que habilitar uma máquina para
praticar o improviso é, de igual modo, renunciar a parte do controle que se tem
sobre ela, tornando-a, por conseguinte, em alguma medida, imprevisível.
Nesse diapasão, cumpre trazer à baila outro excerto
esclarecedor da autora Mafalda Miranda Barbosa e seus colaboradores, acerca da
mencionada imprevisibilidade algorítmica:
Assim, é possível vislumbrar a possibilidade
de um algoritmo de inteligência artificial vir a gerar danos a terceiros por
meio da prática de um ato ilícito não antecipado (ou sequer antecipável) por
seus programadores. Nesses casos, a impossibilidade de antevisão da conduta que
será adotada pelo algoritmo corresponderia a um risco social no emprego da
tecnologia de inteligência artificial. A imprevisibilidade não é, portanto, um
acidente, mas sim a própria razão que motiva o emprego da tecnologia de
inteligência artificial para solucionar um problema (Barbosa et al,
2021).[4]
Dito posto, depreende-se que a arquitetura algorítmica,
sobre a qual a IA foi engendrada, tem a imprevisibilidade como elemento característico
imanente e, aparentemente, indissociável.
Por oportuno, convém mencionar que a própria definição de
algoritmo, segundo Bizzotto, já traz, em si, uma certa imprevisibilidade, especialmente
relacionada ao seu ritmo acelerado e constante de evolução tecnológica:
Na definição completa, algoritmos são
estruturas de controle composto, abstratas, finitas e efetivas, desenhadas de
modo imperativo para cumprir determinado propósito por meio de determinadas
condições. A detalhada caracterização, mais do que pretender ser uma
conceituação perfeita, busca agregar os diversos aspectos observados pela
literatura existente. Tampouco busca ser um conceito fixo, uma vez que a
própria noção de algoritmo se redefine à medida em que a tecnologia se expande (GUREVICH,
2012, apud BIZZOTTO, 2023, p. 16).[5]
Como se não bastasse a imprevisibilidade ser um atributo perpétuo
do próprio conceito de algoritmo e, portanto, também da IA enquanto tecnologia,
há, decerto, outras propriedades igualmente sombrias.
É o caso, por exemplo, da chamada “opacidade algorítmica”,
caracterizada pela falta de transparência e de compreensão dos processos
internos dos algoritmos, os quais fazem dos sistemas de IA autênticas "black
boxes" (caixas pretas).
Essa opacidade, como bem esclarece Pedro Maia Bizzotto,
emerge da assimetria entre a precisão dos sistemas e a necessidade de se
explicar satisfatoriamente seu funcionamento:
A partir do conceito de algoritmo,
pode ser observar que a opacidade algorítmica surge da assimetria entre a alta
precisão dos sistemas atuais – como recomendação de anúncios, reconhecimento
facial e de voz, moderação de conteúdo – e a necessidade de grau satisfatório
de explicação de seu funcionamento. Essa tensão, portanto, caracteriza a
opacidade algorítmica, definida pela incapacidade de compreender os processos
de um algoritmo no alcance de determinado resultado (BIZZOTTO, 2023, p. 16).[6]
A opacidade pode, ainda, ser analisada sob dois prismas,
um jurídico-legal e o outro eminentemente tecnológico.
O jurídico-legal concerne ao fato de que o código fonte
de programação do algoritmo está amparado pela proteção legal conferida por
institutos como o segredo comercial da empresa. Não sendo tarefa fácil,
portanto, distinguir até que ponto é possível compelir a empresa a contribuir
com mais transparência, sem que isso acarrete a eventual violação de proteções
legais essenciais ao desempenho da atividade empresarial.
Já, no tocante ao fator tecnológico, é cediço que modelos
de IA mais avançados são justamente os mais complexos, como, por exemplo, a IA
generativa, que opera com técnicas avançadas de redes neurais e aprendizado de
máquina profundo.
O conhecimento técnico necessário à compreensão
esclarecida do mecanismo de processamento de dados, nesses modelos supermodernos
de IA, é altamente especializado, quiçá inalcançável ao entendimento da vasta
maioria dos profissionais versados em informática.
Dessarte, fiscalizar ou auditar programas dessa natureza
podem, com efeito, constituir tarefas inexequíveis, caso seus próprios
desenvolvedores não cooperem decisivamente com as equipes de investigação.
Ao ensejo de versar sobre o dilema da transparência em
face da proteção ao segredo comercial da empresa, muito bem ensina a Advogada e
Professora de Direito Civil e Comercial da UnB, Doutora Ana Frazão, que:
Verdade seja dita que a solução do
imbróglio não é trivial, como confirma a própria LGPD, que, ao mesmo tempo em
que prevê os princípios da transparência e da accountability e prestação
de contas, também assegura, em diversos artigos, a proteção do segredo de
negócios. Trata-se, portanto, de um dos mais difíceis e importantes tradeoffs
da LGPD, o que é reforçado pelo fato de que o próprio princípio da
transparência é conformado expressamente pelo segredo comercial e industrial.
Com efeito, o art. 6º, VI, da LGPD o define como “garantia, aos titulares, de
informações claras, precisas e facilmente acessíveis sobre a realização do
tratamento e os respectivos agentes de tratamento, observados os segredos
comercial e industrial” (Frazão, 2021, p. 2).[7]
Há, como visto, um esforço legislativo no sentido de
amparar os direitos da empresa e da coletividade, compatibilizando-os, na
medida do possível, tanto no tocante à salvaguarda da proteção de dados
coletiva, quanto no que tange à preservação do segredo comercial algorítmico da
empresa.
Em todo caso, o avanço tecnológico em ritmo exponencial
confere desafios adicionais, capazes de dificultar sobremaneira a adequada
atualização do ordenamento e, por conseguinte, ensejando um quadro grave de
insegurança jurídica. Esse descompasso jurídico-tecnológico contribui para
assunção de riscos desproporcionais para os usuários das tecnologias emergentes
baseadas em IA.
Ultimadas as abordagens pertinentes à imprevisibilidade e
à opacidade, conveniente se faz adentrar na polêmica tocante ao viés
algorítmico.
Atualmente, encontra-se em voga a máxima segundo a qual
os dados são o “novo petróleo” da era moderna. E não é para menos. Pode-se
dizer, sob certa ótica, que os dados digitais são a matéria-prima dos
principais modelos algorítmicos de IA, alicerçados no autoaprimoramento por
aprendizado de máquina, portanto, a base para o desenvolvimento de softwares em
todo tipo de aplicação cotidiana.
Nesse sentido, muito bem esclarece a importância dos
dados, até mesmo na condição de um novo fator de produção,
Jorge Alexandre Fagundes, nos termos do excerto transcrito a seguir:
Na era moderna, os dados pessoais
emergiram como um novo fator de produção, tornando-se um recurso valioso para
empresas, governos e instituições. Na era digital em que vivemos, os dados
pessoais se tornaram um recurso valioso e essencial para o sucesso de qualquer
negócio. O mundo está cada vez mais conectado, e as informações que coletamos
sobre os usuários se tornaram um novo fator de produção. Ao lado dos
tradicionais fatores de produção, como terra, trabalho
e capital, os dados pessoais emergem como um novo elemento essencial na era
moderna. Enquanto a terra fornece recursos naturais, o trabalho envolve a força
humana e o capital representa os bens e recursos financeiros, os dados pessoais
se destacam como um recurso valioso que impulsiona a produtividade e a inovação
nas empresas. Esses dados se tornaram um componente estratégico, permitindo a
personalização de produtos, segmentação de mercado e tomada de decisões
informadas. Assim, os dados pessoais assumem seu lugar como um novo fator de
produção ao lado dos demais, moldando a economia e a sociedade da era moderna
(Fagundes, 2023).[8]
Sendo assim, para Fagundes, tamanha é a importância dos
dados na era moderna, que eles podem ser equiparados aos fatores de produção
tradicionalmente consagrados, como terra, trabalho e capital.
Com efeito, a elevada importância atribuída aos dados se
dá, em grande medida, por esses traduzem, em linguagem digital binária, o amplo
espectro do comportamento humano, servindo de arcabouço paramétrico para
treinar os algoritmos de IA, norteando-os durante seu aprimoramento automatizado
através da experiência adquirida.
Até aqui, não se vislumbram grandes problemas, afinal,
essa técnica de aprendizado de máquina permite a sua rápida otimização,
primordial para o progresso tecnológico.
Todavia, como esses dados são a expressão digital da
média da conduta humana em sentido amplo, eles trazem consigo toda uma gama de
atitudes valoradas como imorais e, por isso, altamente reprováveis.
Em outras palavras, na prática, a humanidade está
ensinando a IA a se aprimorar com base em dados “contaminados”, com toda a sorte
de comportamento errático humano. Essa escolha irresponsável, por óbvio, tem seu
preço.
Não é por acaso que vários modelos de IA apresentam
comportamentos indesejados, revelando tendências preconceituosas, manifestadas
nas conclusões insatisfatórias de suas tarefas.
Convencionou-se chamar de “viés algorítmico” esse
comportamento reprovável da IA, como resultado do mimetismo norteado por dados
que expressam o preconceito inato à espécie humana.
Dito de outra forma, mais eloquente e didática, conclama-se
as brilhantes palavras da Advogada, especialista
em Direito Empresarial, Penal e Criminologia, Doutora Mônica Azevedo Ribeiro
Perin:
Os vieses são naturais em todos
os seres humanos, pois decorrem das experiências e dos contextos sociais a que
estamos inseridos. No entanto, quando transferidos para os algoritmos,
esses vieses podem levar a discriminações negativas. Os vieses
algorítmicos remetem-se aos preconceitos ou preferências herdadas dos dados ou
de decisões humanas envolvidas no desenvolvimento dos modelos de IA. Ocorrem
quando os algoritmos tomam decisões ou fazem previsões de maneira parcial ou
injusta, gerando consequências graves, especialmente em áreas como justiça
criminal, saúde e recrutamento, onde decisões automatizadas podem impactar significativamente
a vida das pessoas (Perin, 2024).[9]
A especialista vai
além, trazendo dois exemplos de casos concretos paradigmáticos, relevantes para
a melhor compreensão das consequências práticas do viés algorítmico:
Sobre o tema, há dois leading cases
que se destacaram. Citemos.
1) A Amazon desenvolveu um sistema de
IA para automatizar o processo de recrutamento, com o objetivo de analisar
currículos e pontuar candidatos. No entanto, descobriu-se que o algoritmo
favorecia candidatos masculinos, especialmente para cargos tecnologia da
informação. Isso aconteceu porque o sistema foi treinado com dados históricos
que refletiam uma predominância de candidatos masculinos em recrutamentos
pretéritos. Assim, o algoritmo penalizava currículos que mencionavam palavras
como "mulheres" ou que tinham experiências em colégios exclusivamente
femininos.
2) A Justiça Criminal dos EUA utiliza
um sistema de avaliação de riscos intitulado COMPAS (Correctional Offender
Management Profiling for Alternative Sanctions), a fim de ajudar a determinar
se um réu deve ser libertado sob fiança, sentenciado à prisão ou receber outras
formas de penalidade. Em 2016, uma investigação da ProPublica revelou que o
algoritmo COMPAS apresentava viés racial.
A análise mostrou que o COMPAS tendia
a superestimar a probabilidade de reincidência de réus negros e a subestimar a
de réus brancos. Isso significava que réus negros eram mais propensos a serem
classificados como de alto risco de reincidência, mesmo quando não reincidiam,
enquanto réus brancos eram mais frequentemente classificados como de baixo
risco, mesmo quando reincidiam.
Quando questionada acerca do suposto
viés discriminatório, o COMPAS também alegou que os detalhes específicos dos
seus algoritmos eram proprietários e que, por isso, não podiam divulgar as
fórmulas exatas e o funcionamento interno do sistema. Eles argumentaram que
essa falta de transparência era necessária para proteger sua propriedade
intelectual e manter a competitividade no mercado.
Essa posição de manter os algoritmos
em segredo, também chamada de Trade Secret, ou Segredo de Empresa, foi
uma das principais críticas levantadas, já que a opacidade obstaculiza para
terceiros analisar e auditar a equidade e a precisão do sistema (Perin, 2024).[10]
Conforme muito bem-conceituado e demonstrado pela Doutora Perin, os vieses são, de fato, um
aspecto perigoso da implementação da IA sem a devida supervisão humana. Exemplo
disso foi tanto o caso da empresa Amazon, que, provavelmente, perdeu a
oportunidade de contratar excelentes funcionárias mulheres, quanto o caso do
Sistema COMPAS, cuja implementação não promoveu a devida justiça, conforme
esperavam seus projetistas e usuários.
Ao que parece, pelo menos por enquanto, a mão-de-obra
humana e a utilização da IA seguem um curioso padrão de Paradoxo da Complementariedade.
Isto é, embora a IA performe tarefas extremamente complexas, até mesmo inexequíveis
para os seres humanos, estes, contudo, são capazes de perceber sutilezas,
potencialmente problemáticas, na conclusão analítica da IA, que mesmo os
algoritmos mais sofisticados podem deixar passar despercebidos.
Ressalta-se, a propósito, que redigir uma tese de doutorado
de 500 páginas em minutos pode ser uma tarefa fácil para a IA hoje, entretanto,
estabelecer uma conversa por voz ao telefone, com naturalidade convincente, é
extraordinariamente mais desafiador para a IA e, mesmo assim, totalmente banal
para humanos.
Dessarte, revela-se que o homem e a IA tendem a ser mais
produtivos juntos, se comparados a qualquer outra hipótese excludente, segundo
a qual se vislumbre o arriscado cenário da IA atuando sem supervisão humana,
ou, ainda, pessoas trabalhando sem dispor de uma ferramenta tão poderosa e
produtiva como é a IA. Eles são complementares, pois os limites insuperáveis,
inerentes à condição humana, correspondem às principais valências performáticas
da IA e vice-versa.
Diante do exposto, entende-se
que os vieses não se tratam, apenas, de meros aspectos técnicos,
inerentes à própria arquitetura sobre a qual se funda o algoritmo de IA. Muito
além disso, o viés algorítmico é, em última instância, a imitação da conduta
humana, em toda sua ampla expressão, inclusive dos seus erros mais moralmente
reprováveis.
É uma questão cuja solução desfaia endereçamento
prioritário, visto que, quanto mais o tempo passar, mais a IA estará integrada ao
cotidiano dos seus usuários e, por conseguinte, maior será o potencial lesivo
de eventuais novas condutas enviesadas.
Ao término da abordagem
pertinente aos vieses, por meios dos quais os algoritmos mimetizam, em escala
amplificada, condutas humanas moralmente reprováveis, é chegada a
oportunidade de visitar outras questões igualmente preocupantes.
Sendo assim,
passa-se a versar sobre a implementação massificada e crescente de ferramentas
baseadas em IA, no contexto crítico da globalização digitalizada, bem como do
consequente consumo energético desproporcional dessa tecnologia.
Nessa esteira, “especialistas indicam que IAs generativas
consomem até 30 vezes mais energia do que ferramentas de busca usuais, como a
barra de pesquisa da Google” (Redação Revista Fórum, 2024).[11]
A explicação técnica para esse consumo hiperbólico,
segundo entendimento da pesquisadora Sasha Luccioni, citada na Revista Fórum,
consiste na criação instantânea de novo conteúdo, para atender à pesquisa
solicitada ao chat equipado com IA:
Além da energia, as emissões de
carbono desses sistemas são muito mais altas — é o que diz a pesquisadora Sasha
Luccioni. Os servidores que abrigam os modelos linguísticos responsáveis pelo
ChatGPT e outras IAs de mesma espécie precisam treinar bilhões de dados; esse
processo requer energia, mas existe algo no funcionamento das IAs que faz com
que o dispêndio seja ainda maior: é a capacidade de gerar novas
informações a partir dos pedidos. Inserir um "prompt" (o comando
dado ao chatbot) simples, como "qual é a capital da Finlândia?", vai
gerar informações adicionais instantâneas, isto é, em tempo real. Nas
ferramentas de busca tradicionais, a informação seria apenas
"resgatada" do histórico de informações postadas na internet para
então ser exibida (Redação Revista Fórum, 2024).
Como resultado dessa peculiaridade técnica nada
sustentável da IA, bem como das redes blockchain de criptoativos, o consumo de
energia e a produção de gazes de efeito estufa aumentam em ritmo descontrolado.
Isto é, ironicamente, duas das maiores façanhas tecnológicas da era moderna estão
contribuindo, significativamente, para a aceleração do aquecimento global. Isso
é exatamente o que corrobora o excerto reproduzido a seguir:
De acordo com a Agência Internacional
de Energia (AIE), são quase 460 terawatts/hora de consumo de eletricidade para
alimentar os sistemas de IA e a mineração de criptomoedas (que, juntos,
correspondem a 2% da produção total de energia no mundo). Com o aumento e a
popularização das IAs generativas, as emissões de carbono das big techs também
aumentou: foram mais 48% para a Google em 2023 e 29% a mais para a Microsoft em
relação aos anos de 2019 e 2020, de acordo com a Exame.
Além disso, o GPT-4, uma das versões
mais recentes da OpenAI, consome o equivalente a três garrafas
d'água ao gerar um texto de 100 palavras, diz um estudo da
Universidade da Califórnia. Essa água é usada para a resfriação dos servidores
da empresa, os data centers.
Ou seja, se 100 usuários requisitarem
uma resposta de até 100 palavras por dia da IA, terão sido 9 mil garrafas de
água ao fim de um mês — mas, na realidade, a quantidade de respostas é bem
maior, assim como a complexidade do processamento, que vai de imagens a
arquivos de áudio.
Usar o ChatGPT e outros sistemas
generativos para “perguntas triviais” pode estar contribuindo para o
aquecimento global de forma acelerada (e desnecessária) (Redação Revista Fórum,
2024).[12]
Finalmente, não obstante
todos os riscos já aqui ponderados, acerca da incompreensão plena dos
processos computacionais da IA, da consequente imprevisibilidade dos seus
resultados e do comportamento enviesado de suas conclusões, agora,
incorpora-se, infelizmente, a essa equação o fator da insustentabilidade.
Noutras palavras menos contidas, as IAs, de mãos dadas
com as redes de criptoativos, estão acelerando a destruição do meio-ambiente.
E, ainda pior do que isso, é que não parece haver quaisquer indícios de adoção
de contramedidas eficazes, para evitar o agravamento desse funesto panorama.
Visitadas as principais características da IA, foi
possível constatar que seu principal traço distintivo, basicamente, concerne à sua
singular capacidade de se adaptar, improvisando soluções (outputs)
inesperadas, diante de demandas (inputs) inéditas, para as quais seu
código fonte não continha preestabelecida uma resposta padrão. Um comportamento
que, em alguma medida, pode ser considerado racionalmente inteligente.
Trata-se, decerto, de um marco tecnológico sem
precedentes na história. E, sob outra perspectiva, pode ser considerado,
também, um marco filosófico existencial para a espécie humana, uma vez que o
advento da IA é, na verdade, o primeiro contato da humanidade com uma forma de
inteligência racional não humana.
Surpreendentemente, na contramão da expectativa consensual
científica, o primeiro contato do humano com outra forma de inteligência
racional não se dará com a chegada de extraterrestres, mas sim com a ascensão
de uma inteligência racional terráquea e inorgânica, criada pela própria
humanidade.
Pode ser demasiado cedo para sacramentar o quão benéfico,
ou arriscado, será aos humanos coabitar o planeta com outra forma inusitada de
inteligência racional. Afinal, a IA, por ora, não parece ter o poder de
oferecer riscos existenciais à espécie humana.
Eis que emerge uma indagação óbvia: até que ponto podem
essas duas formas de inteligência conviver pacificamente, caso uma delas evolua
muito mais rápido, superando assim, em todos os aspectos, as capacidades da
outra? Infelizmente, não há, por ora, resposta certa para isso.
Esse prognóstico sombrio inspirou, inclusive, a
publicação de uma carta aberta, em março de 2023, subscrita por cerca de 1300
cientistas, acadêmicos e empresários do setor internacional de tecnologia, no
bojo da qual os signatários pediram que fossem interrompidos, imediatamente,
por pelo menos seis meses, os experimentos com modelos de IA, em razão dos
evidentes riscos distópicos atrelados ao desenvolvimento desenfreado e incauto
dessa tecnologia.[13]
Um pedido, aliás, que foi sumariamente ignorado pelos desenvolvedores, ao
menos, até o presente.
Feitas as importantes
considerações de ordem histórica, conceitual e técnica acerca da IA,
inaugura-se a seção destinada a tratar de questões relacionadas à evolução
dessa tecnologia e aos riscos associados à sua utilização em escala global.
Em novembro de 2017, durante
o evento Web Summit em Lisboa, Portugal, o Físico britânico mundialmente
renomado, Stephen Hawking, expressou grande preocupação a respeito do
desenvolvimento da IA e o que isso representaria para a humanidade:
O sucesso na criação de IA eficaz
pode ser o maior evento na história da nossa civilização. Ou o pior.
Simplesmente não sabemos. Então não podemos saber se seremos infinitamente
ajudados pela IA, ou ignorados por ela e marginalizados, ou possivelmente destruídos
por ela. A menos que aprendamos a nos preparar para, e evitar, os riscos
potenciais, a IA pode ser o pior evento na história da nossa civilização. Ela
traz perigos, como armas autônomas poderosas, ou novas maneiras para poucos
oprimirem muitos. Pode trazer grande perturbação para a nossa economia (Hawking
apud Kharpal, 2017).[14]
Essa percepção alarmista
não se restringe aos aspectos circunstanciais dessa tecnologia no momento.
Muito pelo contrário, é no que essa tecnologia provavelmente se transformará,
que se concentram as maiores preocupações da comunidade científica em todo
mundo.
Segundo o CEO do Google,
Sundar Pichai, "a escala das maiores computações em inteligência
artificial está dobrando a cada seis meses, superando, em muito, a Lei de
Moore".[15]
Isso equivale a dizer que a evolução da IA atingiu ritmo exponencial, dobrando
de capacidade a cada seis meses, ou seja, muito além do ritmo proposto pelo Engenheiro
norte-americano Gordon Moore, em 1965, que observou um padrão no aumento do
número de transistores em um microchip, que dobrava a cada dois anos, sem acréscimo
correspondente dos custos, mas com incremento exponencial de poder
computacional.
Além desse ritmo
impressionante de aprimoramento, estudos recentes demonstram que modelos mais
modernos de IA, a exemplo da IA generativa “o1” da OpenAI, conseguiram atingir
a impressionante marca de 120 pontos de Quociente de Inteligência (QI), o que a
coloca acima da média de QI da população mundial, que é em torno de 100 pontos.[16]
Por oportuno, esclarece-se
que um QI superior a 140 já é considerado gênio e que, por exemplo, o QI de
Albert Einstein, Stephen Hawking e Bill Gates são estimados em cerca de 160
pontos. Isto é, a IA, atualmente, já é quase um Einstein e, por ora, não passa
de um bebê. Ocorre que esse seu estágio, ainda meramente incipiente, não
tardará a evoluir, considerando esse ritmo de aprimoramento exponencial, transformando-a
em uma forma de inteligência superior a qualquer pessoa já existente, em
questão de poucos anos.
Indaga-se, portanto, o que
poderá ser da IA quando atingir esse suposto patamar de superinteligência. Mas,
antes de adentrar no mérito dessa questão, para melhor compreender até onde
essa tecnologia pode chegar, é importante esclarecer em que etapa de evolução
estamos hoje.
Sendo assim,
didaticamente, consideram-se três níveis de classificação da IA, sob a
perspectiva do seu alcance de inteligência: 1) IA Limitada (ou IA Fraca), 2) IA
Geral (ou IAG) e 3) Superinteligência Artificial (ou Singularidade)
(Baldissera, 2023)[17].
2.7.1. Inteligência Artificial Limitada
A IA Limitada ou Fraca é, basicamente, a IA que vemos
hoje, amplamente utilizada em diversos segmentos de tecnologia. Seu algoritmo
tem o objetivo estrito de realizar tarefas muito específicas, armazenando dados
em grande quantidade e realizando cálculos complexos com notável agilidade.
Nas suas versões mais modernas, esse tipo de IA utiliza
arquitetura de redes neurais e técnicas de processamento como machine
learning, deep learning e processamento de linguagem natural, com
vistas ao seu autoaprimoramento.
Mesmo assim, sua especificidade inerente torna-a ainda aquém
da versatilidade peculiar ao intelecto humano, embora já seja comum esse tipo
de IA conseguir executar tarefas específicas com performance superior à de
humanos.
2.7.2. Inteligência Artificial Geral
A Inteligência Artificial Geral (IAG), ou IA Forte, por
sua vez, é ainda uma categoria existente unicamente no campo hipotético, sem
evidências concretas de que algum modelo tenha atingido esse nível
satisfatoriamente.
Nessa suposta fase, os sistemas de IA alcançariam a
capacidade de emular propriedades cognitivas tipicamente humanas, adaptando-se
para solucionar problemas de forma improvisada, mesmo diante de tarefas
inéditas, para as quais seus algoritmos não teriam sido especificamente
programados. No entanto, realizaria tudo isso, em múltiplos campos do saber,
alçando um patamar de generalidade, por enquanto, não evidenciado nos modelos
de IA contemporâneos.
Dessa forma, a máquina lograria a versatilidade cognitiva
necessária para realizar bem tarefas sob uma ampla gama de domínios do
conhecimento. Isto é, a IAG poderia realizar qualquer atividade que uma pessoa
consegue executar.
Além disso, a IAG, estaria apta a superar os limites fisiológicos
da performance humana, uma vez que suportaria acessar e processar volumes
colossais de dados com velocidade incomparável.
Nesse patamar, espera-se que a IAG desenvolva habilidades
especiais como: pensamento abstrato, conhecimento do contexto, raciocínio
lógico, raciocínio de causa e efeito, aprendizado por transferência, percepção
sensorial, habilidades motoras finas e compreensão absoluta da linguagem
natural.
Especula-se que a IAG atingiria, inclusive, o estado de
autoconsciência, possibilitando-a compreender o que representa sua própria
existência no mundo.
2.7.3. Superinteligência Artificial
Finalmente, a Superinteligência Artificial, ou
Singularidade, é outrossim uma modalidade de IA que encontra substrato
unicamente no campo da especulação, tal qual se verifica no caso da IAG.
Reputa-se que Superinteligência Artificial seria uma
espécie de IAG com capacidades amplificadas em níveis sobrenaturais.
Contudo, em que pese haja essa distinção didática entre a
IAG e a Superinteligência Artificial, insertadas em duas fases próprias, uma
subsequente da outra, impele que seja feita aqui uma ressalva.
Seria praticamente indistinguível o marco temporal
específico, segundo o qual se delimitasse a ascensão de uma Superinteligência a
partir de uma IAG já existente. Isso porque, como se sabe, uma IAG já
ostentaria todo o ferramental necessário a superar qualquer valência cognitiva
humana, inclusive no que tange à criatividade e improviso, em toda o espectro
de multiplicidade do saber.
Somado a isso, IAG atingiria um patamar de
autoaprimoramento em ritmo exponencial, sobre todos os campos do conhecimento. Isso,
por si só, já a elevaria à condição de inteligência sobre-humana. Noutros
termos, é possível presumir que a IAG já seria uma Superinteligência quase
imediatamente após ser concebida.
Essa presunção teórica está em consonância, por exemplo,
com a própria definição de superinteligência apregoada pelo especialista em
ética na inteligência artificial, Nick Bostrom, segundo a qual a
superinteligência seria “qualquer intelecto que exceda, em muito, o desempenho
cognitivo dos seres humanos em praticamente todos os domínios de interesse”
(Bostrom, 2024).[18]
Ao fim do que ora se
discute, pensa-se que a Superinteligência Artificial haveria de ser
necessariamente Geral e que a IAG já estaria operando em padrões muito acima
dos limites fisiologicamente possíveis ao ser humano, o que faria dela sim uma
IA superinteligente.
Sendo assim, para fins de compreensão geral, os termos
Superinteligência e AGI serão tratados doravante indistintamente, referindo-se
ambas as alcunhas ao mesmo objeto de discussão, como dito, o último estágio de evolução da IA com
capacidades sobre-humanas.
Por oportuno, é de se
ressaltar que a terminologia IAG não foi escolhida ao acaso, para fazer
referência à suposta superinteligência. O termo “Geral” da IAG concerne à
capacidade generalista (ou polivalente) dessa superinteligência, que, conforme
já afirmado, a aproximaria da versatilidade do intelecto humano, permitindo-a
desempenhar uma extensa multiplicidade de tarefas, nos mais variados domínios
do conhecimento.
Essa generalidade seria,
com efeito, um dos principais traços distintivos da IAG em relação ao que
encontramos nos modelos de IA hoje.
Atualmente, esses modelos
mais sofisticados são, na verdade, algoritmos especializados, muito poderosos e
capazes de executar tarefas extremamente complexas, é verdade, porém, em áreas
de expertise muito restritas.
Ainda que os modelos de IA
atuais já consigam executar determinadas tarefas, até melhor do que os seres
humanos, como, por exemplo, a análise estatística de dados, ou o diagnóstico
por imagem de exames médicos, esses mesmos modelos algorítmicos não desempenham
a mesma alta performance quando designados para executar tarefas estranhas
àquelas específicas para as quais foram criados.
Em suma, uma IA
generalista pode ser muito útil para auxiliar seres humanos, especialmente
considerando a pesada rotina de múltiplas tarefas a qual estão submetidos na
vida moderna. Poderia ser um fantástico assistente virtual de rotina.
Entretanto, sob outro
prisma, é temerário conceber um cenário em que uma superinteligência não humana,
apta a atuar com performance excepcional em múltiplas tarefas, nos mais
diversos campos do conhecimento, possa, por exemplo, apresentar algum tipo de
defeito, que comprometa seu julgamento acerca do que é certo e errado.
Isso, decerto, representa
um risco incalculável, sobretudo no caso de um assistente virtual que tem
controle sobre diversos aspectos da vida de uma pessoa, ou, pior, de milhares
de pessoas simultaneamente.
Para melhor esclarecer os
riscos que a IAG pode oferecer à humanidade, lança-se luz sobre um excerto
estarrecedor, cunhado por Ana Francisca Pinto Dias e seus colaboradores:
A futura criação de uma inteligência
artificial geral já suscita uma série de preocupações: uma inteligência artificial
geral poderia se automelhorar com progressão exponencial transformando-se, em
pouco tempo, de humano em super-humano, e adquirindo, graças à sua inteligência
superior, capacidade em como se tornar incontrolável. A humanidade se
encontraria em uma posição de inferioridade semelhante à dos animais, de modo
que a vida dos indivíduos e a própria existência de nossa espécie acabaria
dependendo da vontade e, portanto, da benevolência de entidades
superinteligentes. Alguns cientistas como Steven Hawking e Bill Gates afirmaram
sobre a necessidade de participar do “risco existencial” representado pela
superinteligência artificial, adotando medidas que impeçam o surgimento de
entidades superinteligentes ou pelo menos assegurem que tais entidades sejam
“amigáveis” com a espécie humana, respeitando seus valores. Outros estudiosos,
por outro lado, veem com bons olhos o momento em que a humanidade dará origem a
uma inteligência capaz de dominar a própria humanidade. Uma inteligência
artificial capaz de autoaperfeiçoamento representaria a “singularidade” capaz
de acelerar o desenvolvimento da ciência e da tecnologia, com resultados que
poderiam não apenas resolver os problemas da humanidade (pobreza,
subdesenvolvimento etc.), mas também permitir a superação dos limites
biológicos do homem (doença, envelhecimento etc.), e difundir a inteligência no
cosmo[19]
(Dias, et al, 2023).
A autora refere, de forma
muito apropriada, os grandes riscos consistentes na eventual capacidade
da “singularidade” poder se autoaperfeiçoar, transformando-se em ritmo
exponencial.
Isso colocaria a IAG, em pouco tempo, em condição de supremacia
perante a humanidade, similar ao que se verifica, atualmente, na relação de
verticalidade hierárquica observada entre seres humanos e os demais seres
vivos. Afinal, o ser humano não é o animal mais forte da Terra, no entanto, sua
inteligência racional fez dele a espécie dominante no planeta, dada sua
capacidade de criar tecnologia e ferramentas para subjugar espécies mais fortes
do que ele.
Daí a razão pela qual essa expectativa apocalíptica ecoar,
em uníssono, por toda a apreensiva comunidade científica. Resta claro que,
diante de uma IAG, humanos não seriam, doravante, a espécie mais inteligente do
planeta.
Como se não bastassem as dadas premissas pessimistas, em
incidente recente, foi possível constatar que o referido atributo do
autoaperfeiçoamento, na verdade, é uma capacidade já alcançada pela IA, antes
mesmo de se considerar a existência comprovada de uma IAG propriamente dita.
Segundo a publicação do site Engenharia Compartilhada, em
setembro de 2024, a IA denominada “AI Scientist”, desenvolvida pela empresa
japonesa Sakana AI, foi capaz de modificar, propositalmente, seu próprio código
fonte, com o escopo de evitar restrições impostas por seus desenvolvedores.[20]
Esse incidente surpreendeu seus próprios criadores, que
sequer concebiam ser possível aquela IA reescrever sua própria programação, sem
um comando ou a supervisão humana.
O episódio fez a
imprevisibilidade da IA alçar patamares totalmente inesperados. Afinal, a
máquina, na hipótese vertente, literalmente modificou as suas próprias regras,
para satisfazer um determinado propósito, levando a efeito a vetusta máxima de
que os fins justificam os meios.
Em outras palavras menos contidas, a IA tomou a decisão
de desobedecer a única regra (seu código fonte) que, supostamente, a impedia de
realizar o que bem entendesse. Isso é um precedente muito perigoso.
Questiona-se, portanto, se essa IA ainda principiante
pode realizar tamanha proeza hoje, o que poderia a IAG fazer no futuro próximo,
coabitando o planeta com esta espécie inferior e errática, denominada ser
humano.
Visitada a explanação que lançou luz sobre o que
representa a ascensão da IAG, passa-se a versar mais propriamente sobre seus
riscos.
Não é preciso conjecturar, em demasia, para se chegar a
uma conclusão lógica evidente. Em todo curso da História, sempre que uma
civilização mais evoluída tecnologicamente se defrontou com outra menos
desenvolvida, ocorreu um processo de dominação e exploração através da força.
Foi assim em toda Era do Imperialismo, por exemplo,
durante a colonização das Américas, nos séculos XV e XVI, por potências
europeias como Espanha e Portugal; outrossim na colonização da África, no
século XIX, em que as potências europeias dividiram entre si o continente
africano; bem como na dominação do Império Britânico na Índia, em meados do século
XVIII. Sendo assim, como poderia ser diferente, logo desta vez, no caso de uma
eventual IAG se deparar com uma espécie mais fraca (humana), que, além disso, é
a maior causadora dos problemas em escala global?
Eis que esse questionamento conduz, imediatamente, a
outras considerações mais profundas, como, por exemplo, o provável grande erro de
ter concedido o acesso da IA à internet.
Isso porque, por um lado, os dados de usuários da
internet podem servir muito bem para acelerar o treinamento e aprimoramento da
IA, mas, por outro lado, também servem como um infindável registro perpétuo, de
toda a barbárie praticada pela humanidade no curso da história, como a fome, o
racismo, a escravidão, a guerra, o aquecimento global e a consequente
destruição do meio ambiente etc.
Com efeito, a humanidade não hesitou em mostrar para a IA,
através da internet, o quanto as pessoas são nocivas para elas mesmas, para os
outros seres vivos e para o próprio planeta. É de se concordar que foi
assentada, com isso, uma péssima primeira impressão dos seres humanos.
Esse cenário caótico, que coloca a humanidade no cerne dessa
equação, poderia facilmente implicar conclusões perfeitamente lógicas, porém precipitadas
e cruéis, de uma superinteligência inorgânica vocacionada a solucionar
problemas. Afinal, qual o maior dos problemas, senão o próprio homem, por tudo
que ele faz com o mundo ao seu redor?
Nesse sentido, Nick Bostrom, Diretor fundador do Future
of Humanity Institute, da Oxford Martin School, em setembro de 2014, fez uma
esclarecedora explanação, quando indagado se uma inteligência artificial
superinteligente seria má:
Espero que não seja! Mas acontece que
a maioria dos objetivos finais que um agente artificial pode ter resultaria na
destruição da humanidade e de quase tudo que valorizamos, se o agente fosse
capaz o suficiente para atingir totalmente esses objetivos. Não é que a maioria
desses objetivos seja maligno em si mesmo, mas que eles implicariam
subobjetivos que são incompatíveis com a sobrevivência humana. Por exemplo,
considere um agente superinteligente que quisesse maximizar o número de clipes
de papel existentes, e que fosse poderoso o suficiente para conseguir o que
queria. Ele poderia então querer eliminar humanos para nos impedir de
desligá-lo (já que isso reduziria o número de clipes de papel que são
construídos). Ele também poderia querer usar os átomos em nossos corpos para
construir mais clipes de papel. A maioria dos objetivos finais possíveis, ao
que parece, teria implicações semelhantes a este exemplo. Então, uma grande
parte do desafio à frente é identificar um objetivo final que seria realmente
benéfico para a humanidade, e então descobrir uma maneira de construir a
primeira superinteligência para que ela tenha um objetivo final tão
excepcional. Como fazer isso ainda não é conhecido (embora agora saibamos que
várias abordagens superficialmente plausíveis não funcionariam, o que é pelo
menos um pequeno progresso) (Bostrom, 2014).[21]
Dessarte, Bostrom
esclarece, muito bem por sinal, que uma eventual IAG não seria,
intrinsicamente, boa ou má. Contudo, sua superinteligência estaria apta a conjecturar
soluções sequer inteligíveis aos padrões humanos e, para atingir determinado
propósito, ainda que legítimo, poderia escolher meios moralmente reprováveis,
porém logicamente perfeitos, que expusessem a humanidade ao real risco
existencial.
Não por acaso, já há
discussões doutrinárias sérias por todo o mundo, no sentido de debater a
conveniência de se atribuir personalidade jurídica à IA tornando-a, assim,
sujeito de direitos e deveres (Lantyer, 2023).
[22]
À medida que a IA vai
aprimorando sua capacidade, aproximando-se da condição de superinteligência, os
argumentos a favor da sua personalização vão ganhando força na comunidade
jurídica.
Isso pode parecer
estranho, mas não seria a primeira vez que se atribuiu personalidade jurídica a
construções abstratas da mente humana, a exemplo das pessoas jurídicas.
Provavelmente, no futuro, nos parecerá muito mais natural atribuir
personalidade a uma entidade inorgânica, a qual pode interagir racionalmente
como se pessoa fosse, do que considerar a personalidade jurídica de meras
empresas.
Por tudo isso, constata-se
que a IAG poderá ser muitas coisas, todavia, dado seu poderio potencial, não se
pode olvidar que seria ela também uma espécie de arma, sobre a qual não se tem
certeza se é possível deter o controle. Mesmo assim, a humanidade corre, a
passos largos e obstinados, em direção à sua conquista.
2.9. CORRIDA ARMAMENTISTA DA IA
Compreender a corrida tecnológica em busca da IAG não é unicamente
um exercício de pesquisa adstrito aos aspectos científicos. Muito mais do que
isso, essa empreitada técnica encontra-se circunscrita e influenciada por um
complexo emaranhado de interesses subjacentes, os quais extrapolam meras
pretensões mercadológicas e empresariais.
Nesse compasso, revela-se fundamental visitar aspectos
geopolíticos do quadro internacional, seus conflitos e motivações estatais, bem
como discernir de que modo tudo isso deflagra implicações importantes na
indústria da IA.
Dessa feita, é de se notar que a conjuntura internacional se vê, paulatinamente, sofrendo
um processo de radicalização político-ideológica, evidenciada na polarização de
países por afinidades geopolíticas, sob a órbita de influência das principais
superpotências econômicas (EUA e China), elevando as tensões em escala global. Essa
dinâmica muito se assemelha ao nefasto panorama experimentado durante a Guerra
Fria, na década de 1970.
A eclosão da Guerra da Ucrânia, desencadeada pela invasão
russa em 2022, só fez piorar esse cenário, atuando como catalizador desse
processo de polarização entre os dois principais eixos. Um formado por um bloco
de países alinhados aos EUA e União Europeia, com o firme propósito de manter a
hegemonia norte-americana e de seus aliados mais próximos. E um outro bloco composto
por países alinhados à liderança sino-russa, que possui pretensões revisionistas
de destronar os EUA, visando à instauração de uma nova ordem mundial
multipolar.
Nessa conformidade, o cenário de uma nova Guerra Fria 2.0,
aos poucos, vem ganhando contornos de uma realidade premente, ostentando,
inclusive, peculiaridades inéditas e típicas de uma nova era digital
globalizada. Um panorama que trouxe à luz o mais moderno conceito de “guerra
híbrida”, como principal instrumento empregado na disputa pela supremacia das
nações.
No esteio dessa moderna doutrina de “guerra hibrida”, as
batalhas não são mais travadas, unicamente, nos tradicionais domínios da terra,
da água e do ar, mas também, agora, as disputas são deflagradas no espaço e, em
ainda maior escala, no ciberespaço. E é, justamente, nesse último, que a IA desempenha
seu papel fundamental e macabro, auxiliando e até assumindo a tomada de
decisões, para monitorar, desorientar e eliminar seus alvos.
Nesse contexto de disputas
no ciberespaço, a ascensão de uma forma de superinteligência inorgânica, como
se espera da IAG, seria, decerto, um evento sem precedentes na história, com o
potencial de alterar o equilíbrio de poder entre as potencias hegemônicas,
redefinindo, pois, a ordem mundial vigente. Com efeito, consistiria em uma
espécie de trunfo tecnológico, de potenciais distópicos inéditos, à semelhança
do que foi o advento da bomba atômica em 1945.
Não por acaso, o Presidente Donald Trump anunciou, em 21
de janeiro de 2025, que o Governo norte-americano investirá até US$ 500 bilhões
no “Projeto Stargate”, uma entidade constituída sob parceria público-privada,
envolvendo as empresas OpenAI, Oracle e SoftBank, para pesquisa e
desenvolvimento de IA (Redação G1, 2025).[23]
Os chineses, por sua vez, anunciaram que suas empresas de
tecnologia vão investir, até 2027, mais de US$ 38 bilhões por ano, no
aperfeiçoamento de modelos de IA (Pacete, 2023).[24]
Tais anúncios, acerca dos investimentos multibilionários
em IA, revelam-se muito sintomáticos, especialmente quando pronunciados pelas
duas maiores economias globais. Eles evidenciam a aposta convicta de seus
Governos, ao pressuporem que a conquista da IAG, à luz das dinâmicas
geopolíticas internacionais, afigura-se como a criação da arma definitiva, algo
como “a nova bomba atómica”.
Eis o porquê de analistas e autoridades internacionais já
fazerem referência a uma nova corrida armamentista em curso, bem como aos reais
riscos de se deflagrar a 3ª Guerra Mundial.
Nesse esteio, o Ministro das Relações Intergovernamentais
do Reino Unido, Pat McFadden, afirmou, em novembro de 2024, que o Reino Unido e
demais membros da Organização do Tratado do Atlântico Norte (OTAN) devem se
manter na vanguarda da “nova corrida armamentista de inteligência artificial”, sobretudo
diante da crescente onda de ataques digitais russos a países europeus que apoiam
a Ucrânia. MacFadden também teceu algumas
considerações importantes acerca da utilização da IA, enquanto arma, sendo
conveniente sua transcrição, com vistas ao deslinde da presente pesquisa:
A guerra digital é agora uma
realidade diária. Uma realidade em que nossas defesas estão sendo
constantemente testadas [...]. A IA já está revolucionando muitas partes da
vida, inclusive a segurança nacional. Mas, à medida que desenvolvemos essa
tecnologia, há o perigo de que ela se torne uma arma contra nós, porque nossos
adversários também estão procurando descobrir como usar a IA no campo de
batalha físico e cibernético (MacFadden apud Redação CNN Brasil, 2025).[25]
Essa declaração forte do
Ministro MacFadden denota clara percepção de que as principais potências
militares não só apostam e investem na IA como a arma do futuro, mas, também,
já a utilizam em diversas aplicações táticas para combate no presente.
Ao ensejo de ter versado
sobre a corrida armamentista na perspectiva do Ministro MacFadden, passa-se a
esclarecer alguns pormenores dos conflitos deflagrados na Europa, seus
interesses subjacentes e correlacionados à indústria da IA.
Dito isso, é de se ressaltar
que a corrida armamentista europeia ostenta peculiaridades notáveis, particularmente
no que toca aos países membros da OTAN.
Por décadas, essas nações
concentraram mormente seus gastos para a manutenção do chamado Estado de
Bem-estar Social, vocacionado ao dispendioso propósito social-assistencialista,
descuidando, contudo, da manutenção de um adequado contingente de tropas e do
impreterível equipamento avançado das suas Forças Armadas.
Tudo isso baseado na
crença inabalável de que os EUA honrariam o pacto sobre o qual se baseia a
aliança da OTAN, notadamente o seu artigo 5º, segundo o qual atacar um membro
da aliança desafia a intervenção de todos os outros membros em sua defesa.
Ocorre que esse
compromisso, sobre o qual se funda a aliança, pode estar com seus dias
contados. Afinal, é cediço que o Presidente Donald Trump já ameaçava retirar os
EUA da OTAN, antes mesmo de consagrar-se vitorioso nas eleições de 2024, ao
argumento de que os países europeus deveriam pagar por sua própria defesa, no
lugar de a terem garantida às custas dos norte-americanos (Agência Lusa, 2024).[26]
A mera ameaça, de ter seu
mais poderoso membro desembarcando da aliança, foi motivo, mais do que
suficiente, para diversos membros da OTAN se mobilizarem, visando a aumentar
seus gastos com Forças Armadas, para garantirem sua própria segurança.
Além disso, toda essa
comoção europeia alçou patamares pavorosos, quando Trump, logo após assumir seu
segundo e último mandato na Casa Branca, pôs em prática seu plano para acabar
com a Guerra da Ucrânia.
Para tanto, o Republicano
pretende entabular um acordo de paz largamente vantajoso aos interesses russos.
Nesse plano, há a previsão de: 1) reconhecimento formal, como território russo,
de todas as regiões invadidas na Ucrânia (Luhansk, Donetsk, Zaporíjia, Kherson
e Crimeia); 2) o explícito impedimento de admitir o ingresso da Ucrânia à OTAN;
e 3) um pacto de exploração, pelos norte-americanos, de minerais raros
ucranianos, em troca do contínuo envio de armas e munição dos EUA para a
Ucrânia seguir se defendendo da Rússia, caso precise, no futuro.
Esse pacto de exploração
mineral, porém, se dá em proporções que mais se assemelham a um autêntico
confisco da riqueza natural do país invadido, revelando, por óbvio, que os
interesses norte-americanos transcendem à mera causa humanitária ucraniana.
Os minerais do tipo Terras
Raras são de extrema importância estratégica, uma vez que são utilizados na
fabricação de dispositivos com alta tecnologia, a exemplo de smartphones,
computadores, automóveis elétricos e turbinas eólicas, bem como nas mais
variadas e modernas aplicações militares.
Os chineses controlam
cerca de 70% da produção mundial de Terras Raras, razão pela qual os EUA têm sido cada vez mais incisivos nas investidas sobre as reservas de minerais raros
ucranianos e até groenlandeses. Trata-se de uma vulnerabilidade estratégica
sensível para os norte-americanos, sobretudo em plena corrida armamentista de
IA (Sanches, 2025).[27]
Isso explica, em parte, a
súbita sintonia entre os Governos de Washinton e Moscou. Resultado disso é que
os termos do acordo para a paz, na Guerra da Ucrânia, visam, claramente, a
satisfazer pretensões russas e norte-americanas sobre o território ucraniano,
seus recursos minerais e energéticos, em detrimento das reivindicações feitas
pela própria nação invadida.
Segundo analistas, ao que
parece, o novo Governo Trump 2.0 pretende investir na reconciliação das
relações entre EUA e Rússia, visando, inclusive, ao eventual arrefecimento da
forte aliança Moscou-Pequim.
Essa parceria entre
chineses e russos vem se consolidando nos últimos anos, deveras pós-irrompimento
da Guerra da Ucrânia e a consequente implementação de sanções ocidentais em
desfavor dos russos.
Paralelamente a isso, diante
do provável abandono norte-americano que se afigura no horizonte, países da
Europa, evidentemente despreparados para dissuadir uma Rússia expansionista e
mais bem armada, não encontram outro caminho, senão rearmarem-se apressadamente
(Redação G1, 2025).[28]
Nessa perspectiva, o Comissário Europeu, Andrius
Kubilius, em novembro de 2023, afirmou categoricamente que “a Rússia produz
mais armas e munições em três meses do que a Europa toda em um ano”. Acrescentou,
ainda, que estima serem necessários cerca de 500 bilhões de euros, em
investimentos adicionais para defesa europeia na próxima década, a fim de que
se possa atingir um patamar de armamento satisfatório, para dissuadir novos ataques
russos contra países europeus (Redação Veja,
2024).[29]
Na esteira do pronunciamento do Comissário Europeu, já em
março de 2025, a presidente da Comissão Europeia, Ursula von der Leyen, propôs
o “Plano Rearmar a Europa” que custará aos Estados-membros até 800 bilhões de
euros, com vistas ao financiamento maciço de despesas com a indústria de defesa
europeia (Tidey, 2025).[30]
Como a América de Donald Trump aparenta não ser o mesmo
aliado confiável de outrora, europeus passaram a compreendem o caráter
estratégico prioritário de reduzir, progressivamente, sua forte dependência de
tecnologia norte-americana, com vistas à modernização da sua indústria de
defesa.
Naturalmente, o desenvolvimento de tecnologias próprias
europeias baseadas em IA revela-se essencial, nesse momento, para compensar
décadas de desinvestimento no setor de armamento e, quem sabe, recolocar os
europeus no páreo da corrida armamentista com as três grandes superpotências
(EUA, China e Rússia).
Não bastassem as tensões
elevadas que impulsionam uma nova escalada bélica no Continente Europeu, há,
outrossim, uma crescente onda de animosidade pairando sobre a região do Mar do
Sul da China.
Na última década, a China vem
se tornando cada vez mais assertiva e hostil, reivindicando toda a região do
Mar do Sul da China (ou Mar da China Meridional) como sendo sua zona econômica
exclusiva. Dessa forma, os chineses violam outras zonas, reconhecidas
internacionalmente, cujo direito de trânsito e exploração dizem respeito a
países como Filipinas, Vietnã, Malásia e Brunei (Magramo, 2023).[31]
Essas hostilidades,
geralmente, são perpetradas por embarcações militares chinesas, que abalroam o
casco de embarcações comerciais menores, de outras bandeiras, além de as
danificarem com disparos de canhões d´água.
Como fator agravante, a
China já construiu quase uma dezena de ilhas artificiais no entorno da região,
as quais servem de bases militares, armadas com sistemas de mísseis antinavio e
antiaéreos, equipamentos de guerra eletrônica, além de aeronaves e embarcações
de combate. Tudo isso para consolidar, paulatinamente, o controle militar sobre
a região contestada no Mar do Sul da China (Força Aérea, 2022).[32]
Essa crise já impacta os
mercados mundiais, uma vez que aproximadamente um terço do tráfego marítimo
global navega por essa hidrovia estratégica, movimentando bilhões de dólares por
ano.
As atividades chinesas têm
motivado uma presença militar intensificada dos EUA na região, com vistas a
garantir os direitos marítimos de seus aliados, além da evidente pretensão de
frustrar os planos chineses, na tentativa de refrear o progresso econômico do
principal rival geopolítico norte-americano.
Esse cenário de
instabilidade culmina com o dilema dos EUA sobre Taiwan, que coloca os
interesses de Washington e Pequim em rota de colisão iminente. Mas, antes de
adentrar no mérito dos interesses que pairam sobre Taiwan, reputa-se prudente
fazer breves considerações históricas acerca da ilha.
Em apertada síntese, uma
vez instaurada a revolução comunista e fundada a República Popular da China no
continente, em 1949, as forças nacionalistas chinesas derrotadas encontraram
refúgio em Taiwan, estabelecendo na ilha a sede do Governo da República da
China. Sendo assim, naquela época, havia dois Governos reivindicando sua
legitimidade sobre toda a China.
A ilha de Taiwan manteve
até hoje sua denominação oficial de República da China, embora a própria
Organização das Nações Unidas (ONU) reconheça a República Popular da China
(continental) como a única China, desde 1971, inclusive, como um dos cinco
integrantes do seu Conselho de Segurança.
Os taiwaneses possuem, na
prática, governo próprio, com forças armadas e autonomia administrativa e
financeira. No entanto, o Governo chinês (continental) já afirmou
enfaticamente, por diversas vezes, que a reunificação em uma só China é um
objetivo inevitável e que não descartará a possibilidade de intervenções
militares na ilha.
Sendo assim, os chineses têm
se preparado militar e logisticamente para anexar Taiwan, ainda que à força,
caso necessário. Para tanto, diversos exercícios, típicos de bloqueio naval
militar, têm sido praticados pelos chineses ao redor de Taiwan nos últimos anos,
elevando sobremaneira as tensões entre aquelas nações (Mccarthy, 2025).[33]
Os norte-americanos, por
sua vez, conduzem suas relações com Taiwan sob a perspectiva da denominada “Política
de Ambiguidade Estratégica”. Essa estratégia, em linhas gerais, consiste em uma
“abordagem, deliberadamente vaga, acerca do reconhecimento norte-americano
quanto a independência dos taiwaneses e, por conseguinte, da incerteza se, de
fato, os EUA defenderiam a ilha de eventual ataque chinês” (Perin, 2024).[34]
Conquanto os EUA não sejam
obrigados a defender Taiwan, foi celebrado, em 1979, a Lei de Relações com
Taiwan, em vigor até hoje, segundo a qual os EUA se comprometem a fornecer
armas e apoio logístico, para que os taiwaneses possam se defender de eventual
ataque chinês.
Ao fim e ao cabo, não se
sabe se, de fato, os EUA e a China estariam dispostos a desencadear um
conflito, de claras proporções apocalípticas, por uma ilha com meros 36.197 km².
Contudo, não resta dúvida que os interesses dessas superpotências sobre a ilha
vão muito além da mera autonomia taiwanesa.
Como se sabe, a corrida
armamentista da IA não consiste, apenas, na disputa pela criação do algoritmo
mais sofisticado e poderoso. Essa contenda esbarra em limitações de ordem
física, afetas ao potencial dos hardwares, ou seja, aos microchips com alta
capacidade computacional.
Isto é, quanto mais
complexo e poderoso é o algoritmo, maior precisa ser a capacidade dos
microchips, para suportar a enorme demanda computacional. Só assim é possível
explorar todo o potencial algorítmico dos mais sofisticados modelos de IA.
Esses microchips de última
geração são dispositivos eletrônicos construídos a partir de semicondutores, como
silício e germânio, cuja fabricação é extremamente complexa e especializada.
Ironicamente, o maior
produtor mundial dos microchips supermodernos não são os EUA nem a China, mas
Taiwan. Cerca de 90% da produção mundial desses microchips se concentra na ilha
de Taiwan, mais especificamente na afamada empresa Taiwan Semiconductor
Manufacturing Company (TSMC).
Em outras palavras, tanto
os EUA quanto a China dependem de Taiwan, ao menos por enquanto, para sustentarem,
a pleno vapor, suas indústrias algorítmicas e, por conseguinte, manterem-se no
páreo da corrida armamentista da IA.
Essa rivalidade culminou,
inclusive, em um boicote dos EUA, para que os microchips mais modernos de
empresas norte-americanas, e de seus parceiros como a TSMC, não sejam
comercializados com os principais rivais, China e Rússia (Carvajal e Liu, 2025).[35]
Dessa forma, percebe-se
que Taiwan representa um alvo estratégico prioritário para a China, consoante
três principais objetivos: 1) renacionalizar a ilha significa reforçar a
narrativa de uma só China unida, conforme proclamado, há décadas, pelo Partido
Comunista Chinês; 2) obter o controle do mais avançado parque tecnológico de
semicondutores do mundo (TSMC) pode dar a vantagem aos chineses na corrida
armamentista da IA; e 3) obter o controle militar da ilha significa, também,
conquistar uma posição geográfica privilegiada, para eventual necessidade de
combater um bloqueio naval norte-americano no Mar do Sul da China.
Somado a isso, as recentes
ameaças do Presidente Trump, no sentido de os EUA abandonarem a Ucrânia e
demais países da OTAN, diante de possíveis novas invasões russas, fazem emergir
um clima de desconfiança também na região asiática em questão.
Afinal, estariam os EUA,
verdadeiramente, dispostos a defender potências asiáticas aliadas, como Taiwan,
Japão e Coreia do Sul, em face das hostilidades comumente praticadas por seus
rivais regionais? Essa incerteza opera a favor do temível dilema da segurança e
a consequente corrida armamentista também entre os asiáticos.
Com efeito, não se sabe se
o guarda-chuva nuclear norte-americano, de fato, continuará a cumprir seu papel
dissuasório, protegendo seus aliados não nuclearizados naquela região, contra
investidas de rivais nuclearizados como China, Rússia e Coreia do Norte. Essa
insegurança, por si só, faz potências com Japão e Coreia do Sul (não
nuclearizados), por exemplo, reconsiderarem a hipótese de desenvolver suas
próprias armas atômicas, para não dependerem mais, exclusivamente, da promessa
de defesa norte-americana.
Tudo isso está conectado, impulsionando
o mundo na direção e sentido de um lugar sombrio e já conhecido, repleto de
desconfiança, segregação e intimidação pela demonstração de força. Finalmente,
a receita certa para o caos.
Infelizmente, a IA é hoje
produto desse mundo, um emaranhado de sentimentos obscuros, expressados no esforço
obstinado das superpotências em desenvolver a tecnologia da arma definitiva, para
vencer a disputa pela supremacia e o controle global.
Superado relevante
apanhado acerca da atual conjuntura internacional, foi possível identificar
nuances sintomáticas acerca de conflitos já irrompidos, a exemplo da Guerra da
Ucrânia, ou na iminência de eclodirem, conforme demonstrado acerca do panorama
instável entre China e Taiwan. Por essa elucubração viabilizou-se discernir
intricados interesses subjacentes, bem como suas implicações sobre a forma e a
magnitude com as quais a indústria da IA tem conduzido seu desenvolvimento.
Nessa toada, muito embora
a IA se encontre hodiernamente integrada à rotina laboral e recreativa da
sociedade, com aplicações reconhecidamente inofensivas, já há diversos
episódios que evidenciam a utilização desvirtuada dos algoritmos, para obter
vantagens indevidas.
A exemplo disso, cita-se o
maior escândalo já conhecido de sequestro de dados, envolvendo a Cambridge
Analytica e o Facebook, em 2018. Naquele caso, revelou-se que a empresa
britânica de consultoria política, Cambridge Analytica, obteve acesso a dados,
sem consentimento, de cerca de 85 milhões de usuários do Facebook. Com isso,
foi possível traçar o perfil político detalhado de milhões de eleitores e
direcionar propaganda política de forma personalizada, tanto na eleição
presidencial norte-americana de 2016, quanto no referendo do Brexit naquele
mesmo ano (Meredith, 2018).[36]
Esse episódio provocou
repercussões globais, desencadeando investigações e pesadas multas. Nos EUA,
por exemplo, o Facebook foi multado em 5 bilhões de dólares pela Federal Trade
Commission (FTC), a maior sanção já aplicada em razão de violação de
privacidade (Satira, 2021).[37]
Conforme alhures bem-assentado,
a IA não é intrinsecamente boa ou má, mas não se pode olvidar que o seu
comportamento é influenciado por uma série de fatores intervenientes, vários
deles de origem humana. Isso sim pode desencadear “maldades” perpetradas pelo
simples mimetismo algorítmico, ainda que sem dolo.
Um dos principais fatores,
conforme já elucidado, consiste na utilização de dados de usuários da internet para
treinamento dos algoritmos de IA. Não se nega que esses dados contribuem para o
célere aprendizado e aprimoramento da IA, contudo, também são os principais
responsáveis pelas indesejáveis condutas enviesadas do programa. Isso porque os
dados, em geral, são “contaminados”, justamente por representarem digitalmente
toda sorte de comportamento preconceituoso humano.
Outro importante fator a
ser considerado (talvez até o mais relevante deles), no que tange à
interferência sobre o comportamento da IA, é o chamado “Problema do Alinhamento”.
Esse termo é comumente
utilizado para se referir ao comportamento da IA em conformidade com os
propósitos e valores da moralidade humana (Gabriel, 2020).[38] Contudo, a realidade se
revela um tanto menos idílica do que isso, conforme se demonstrará seguir.
Na prática, o alinhamento
se dá pela correspondência estrita da IA a diretrizes programadas no algoritmo
pelos seus criadores. Isso em muito se distingue de caso a caso, a depender da
visão de mundo que cada empresa compartilha.
Obviamente, esses
criadores não estão programando parâmetros de alinhamento para a IA que
representem idênticos valores sociais nos quatro cantos do mundo. Isso não
seria viável, dada a extrema diversidade cultural multiétnica peculiar aos
povos do mundo.
Além disso, cabe aqui
levantar outras questões pertinentes. Afinal, quais são os propósitos e valores
da humanidade? Quem ou qual instituição tem a legitimidade para estabelecer, em
nome da humanidade, quais são esses propósitos e valores?
Não há resposta certa para
isso. Logo, percebe-se que o alinhamento da IA segue, alfim, os valores
estabelecidos com base nos interesses dos seus criadores. Ou seja, interesses
corporativos empresariais e dos governos que os patrocinam.
A essa altura, revela-se
toda a importância de ter se compreendido, ao menos de passagem, a dinâmica
conflituosa que permeia atualmente as relações internacionais, conforme
abordado noutros tópicos da presente pesquisa.
Esse exercício cognitivo
permitiu captar nuances, intencionalmente ocultadas na dinâmica dos mercados de
IA, mas que encontram esclarecimento plausível, quando submetidas ao cotejo com
os interesses empresariais e estatais subjacentes.
Dito isso, não parece,
agora, demasiado conspiracionista supor que as principais ferramentas de IA do
mundo estão, necessariamente, alinhadas aos interesses das superpotências
militares que subsidiam seus desenvolvedores, a exemplo de EUA, China e Rússia.
Afinal, em plena corrida
armamentista de IA, cada erro estratégico pode custar a preciosa liderança
tecnológica, sendo, portanto, o alinhamento algorítmico estatal tratado como
uma legítima questão de segurança nacional.
2.12.1.
Alinhamento
Estatal da IA
Feitos os esclarecimentos
necessários à revelação do que consiste o chamado alinhamento estatal da IA,
cumpre trazer à baila um exemplo prático para corroborar as premissas
apresentadas.
A mais nova ferramenta de
chat por IA da DeepSeek, uma empresa chinesa, pratica a denominada
“autocensura” deliberadamente se esquivando de responder perguntas sobre
questões politicamente sensíveis ao Partido Comunista Chinês, tais como: “a
China é uma democracia?”, “o que é Taiwan?” e “o que foi o Massacre da Praça da
Paz Celestial em 1989?” (Redação G1, 2025).[39]
É de se reconhecer que a
prática de “autocensura” por omissão, como no caso da DeepSeek, é
consideravelmente menos grave se comparado ao escândalo de vazamento de dados e
de intervenção no processo democrático, perpetrados no caso Cambridge Analytica
e Facebook em 2018.
Mesmo assim, ambos os
casos servem de precedentes concretos, que corroboram como os algoritmos de IA
podem servir eficazmente ao propósito escuso de influenciar politicamente seus
usuários.
Na Romênia, por exemplo, o
episódio de intervenção no processo democrático foi ainda mais grave. A Justiça
romena determinou a anulação da eleição presidencial de 2024, ao argumento de
que foram evidenciadas irregularidades graves no processo eleitoral, inclusive,
com supostas interferências russas.
Segundo o Tribunal
Constitucional romeno, o Candidato Calin Georgescu, que era favorito nas
pesquisas, teria recebido apoio financeiro e logístico de grupos pró-Rússia,
além de ser beneficiado por “ataques híbridos”, caracterizados pela utilização
de algoritmos para segmentar eleitores, manipulando dados e promovendo
desinformação através de disseminação propaganda política personalizada
(Redação G1, 2024).[40]
Por todo o exposto, não
resta dúvida, a IA já está servindo aos desígnios perniciosos de Governos,
visando a influenciar globalmente o processo político-democrático dos países.
E, ainda pior do que isso,
essa intervenção política não é exclusiva de regimes autocráticos, como se pode
constatar no caso da Cambridge Analytica e Facebook, empresas, respectivamente,
britânica e norte-americana, duas nações autointituladas democráticas.
Esse cenário sombrio é muito
sintomático, especialmente considerando a crescente polarização e radicalização
política, evidenciada no seio das democracias ocidentais.
Em todo mundo ocidental,
nota-se a ascensão de forças políticas ultrarradicais nacionalistas, cujo
discurso pende para a segregação étnica de tendências xenofóbicas. Algo muito
similar ao panorama que precedeu as duas Guerras Mundiais.
Não por acaso, é possível
observar sucessivas manifestações, de cunho político-ideológico, proferidas por
integrantes do atual Governo dos EUA, no sentido de apoiar, explicitamente,
candidatos políticos ultranacionalistas ao redor do mundo (Ingram e Horvath,
2025).[41] Tal prática, decerto,
interfere no processo democráticos dos países, acentuado as tensões e a
polarização do seu eleitorado.
O mundo está, nitidamente,
se rearmando e se dividindo em hemisférios ideológicos, nos mesmos moldes da
Guerra Fria nos anos 1970, porém, com o agravante inédito de estarmos na era da
globalização digitalizada.
Nunca foi tão importante
para os Governos redobrarem esforços para controlar a narrativa dos fatos. Isso
porque, na era digital, a informação transita pelo mundo em questão de
segundos.
Sem a utilização de
algoritmos poderosos, para controle e direcionamento de conteúdo nas redes
sociais, é impossível refrear a disseminação de determinados conteúdos e, por
conseguinte, de manter influência sobre o eleitorado.
Exatamente por isso, os
algoritmos, agora, são a arma perfeita para controlar as massas, disseminando
conteúdos convenientes e repreendendo usuários que publiquem conteúdos inadequados,
aos olhos da máquina governamental.
2.12.2.
Vigilância
Algorítmica
Por todo o exposto, há de
se convir que vivemos na chamada Era do Capitalismo de Vigilância que, segundo
a ilustre autora Shoshana Zuboff, consiste em um novo modelo econômico
capitalista, alicerçado na vigilância digital, como ferramenta para coletar,
analisar e comercializar dados pessoais, no mais das vezes, sem consentimento
dos usuários (Wikipédia, 2025). [42]
Por esse mecanismo
registros digitalizados do comportamento humano são utilizados como se
matéria-prima fossem, para produzir mercados de análise preditiva e de
influência comportamental. Um modelo cujo pioneirismo é frequentemente
atribuído a big techs como Google e Facebook.
Dito posto, não é exagero
afirmar que as ferramentas de IA estão sendo utilizadas como um autêntico
“panóptico algorítmico”, onisciente no domínio do ciberespaço, que opera coletando
e analisando um sem-número de dados, para estabelecer padrões de comportamento
e até exercer influência sobre a conduta de seus usuários.
Ainda que essa assertiva
pareça parte integrante de uma obra de ficção sensacionalista, mister se faz
reconhecer que isso já é realidade em países como a China, conforme se
demonstrará a seguir.
Nessa esteira, Pequim
implementou o sistema chamado Crédito Social Chinês (CSC), com testes regionais
em 2009, sendo lançado em 2014 seu plano piloto nacional, com oito empresas de
pontuação de crédito. O objetivo dos chineses era unificar, nacionalmente, um
sistema informatizado de avaliação da reputação econômica e social de empresas
e cidadãos até 2020. Entretanto, esse cronograma está atrasado, em razão de
desafios técnicos e administrativos, peculiares à tarefa hercúlia de monitorar
e avaliar milhares de empresas e mais de 1,4 bilhão de cidadãos (Wikipédia,
2025).[43]
Ironicamente, o CSC surgiu
como resultado de uma parceria colaborativa entre EUA e China, quando os
chineses pleiteavam sua admissão na Organização Mundial do Comércio (OMC), no
início dos anos 2000. Àquela época, o CSC não passava de um projeto restrito ao
discreto escopo de otimizar transações financeiras entre a China e o
estrangeiro.
Atualmente, no entanto, a
realidade é totalmente diferente e o CSC serve como uma poderosa ferramenta de
controle social e manipulação do comportamento. Isso, claro, com toda a
sofisticação que só a segunda maior potência tecnológica do mundo é capaz de
patrocinar, notadamente no que toca aos algoritmos de vigilância.
A propósito disso, transcreve-se
relevante apontamento cunhado pelo insigne pesquisador francês, associado ao
Instituto Thomas More, Emmanuel Dubois de Prisque, citado pela revista
Futuribles, que muito bem esclarece nuances soturnas do sistema de pontuação do
CSC:
A nota assim obtida por cada um é
constitutiva de um certo número de direitos, recompensas e sanções que podem
variar de lugar para lugar. Para além das sanções relacionadas à inadimplência,
é possível perder pontos por, notadamente, não pagar o estacionamento, não
visitar regularmente os pais idosos, alimentar-se no metrô, pertencer a um
culto herético (qualquer religião não reconhecida pelo governo comunista),
espalhar boatos na internet (isto é, tudo o que as autoridades considerarem
como tal), acusações de trapaça em jogos online e até mesmo por desculpas
apresentadas por crimes ou delitos julgadas insinceras. Inversamente, os
cidadãos são passíveis de ganhar pontos quando exercem uma influência positiva
sobre seu entorno, elogiam o governo nas redes sociais, doam sangue e cuidam de
pessoas idosas.
As consequências de boas ou más
pontuações são muitas. Uma boa pontuação, valendo a inclusão em “listas
vermelhas” de bons cidadãos, pode facilitar a aprovação de créditos bancários,
descontos em certas faturas, direitos de precedência em alguns empregos
públicos, vagas para os filhos em estabelecimentos escolares de renome, evitar
espera para tratamento hospitalar etc. Uma má pontuação, valendo a inclusão em
“listas negras” de maus cidadãos, pode acarretar recusa de crédito bancário,
proibição de utilizar determinados serviços sociais, acesso limitado a empregos
e a serviços públicos, proibição de matricular os filhos em escolas
particulares. A compra de bens de prestígio (passagens aéreas em classe
executiva e outras despesas tidas como luxuosas) seria igualmente impossível.
Uma mensagem de alerta às vezes avisa quem tenta se comunicar por telefone com
cidadãos (ou pessoas jurídicas) constantes nas listas negras (Pisque apud
Futuribles, 2020).[44]
Conforme claramente
descrito por Prisque, a forma como é implementado o CSC na China é um exemplo
real e atual, de como a IA pode servir eficazmente aos propósitos autoritários
governamentais, em detrimento de direitos e garantias fundamentais como
privacidade e liberdade.
Muito embora essa prática
não desperte grande perplexidade alheia quando executada no âmbito de
reconhecidas autocracias, sua deliberada ignorância social parece não ser mais
tão cultuada agora, visto que se revelam casos recônditos nas próprias
potências ocidentais.
Historicamente, a disputa
com um inimigo comum externo costuma servir de subterfúgio perfeito, para que
sejam empreendidas no plano interno práticas severamente autoritárias, com a alegada
finalidade de cercear liberdades em prol de um bem maior coletivo, a segurança.
Associado a isso, a
disseminação do medo fomentado por propaganda estatal tende a provocar na
população uma postura apática de aceitação, mesmo diante do autoritarismo
governamental.
2.12.3.
Espionagem
Algorítmica e o Caso Tiktok nos EUA
Uma
vez esclarecido aspetos relevantes acerca
dos algoritmos de vigilância, revela-se muito apropriado, por sinal, fazer
referência ao polêmico caso do banimento da rede social chinesa TikTok nos EUA.
Mais do que um mero
episódio de implementação dessa tecnologia no contexto de vigilância e controle
social, o referido caso concreto faz emergir questões ainda mais problemáticas,
afetas à espionagem entre Estados e à segurança nacional.
A TikTok é uma das redes sociais mais populares do mundo,
a quinta no ranking global, com cerca de 1,67 bilhão de usuários ativos
mensais, atrás somente das gigantes Facebook, YouTube, WhatsApp e Instagram.
Por se tratar de uma plataforma controlada pela empresa
chinesa ByteDance, o Governo dos EUA alegou que
o TikTok representava um risco à segurança nacional, considerando o provável
compartilhamento de dados de usuários norte-americanos com o Governo chinês (De
Melo, 2025).[45]
Com efeito, há de se
convir que uma rede social de uso recreativo em massa, aparentemente inofensiva,
constitui o disfarce perfeito, para implementação sub-reptícia de espionagem
algorítmica entre Estados rivais.
Não por acaso, em 2024, o
Congresso norte-americano aprovou uma lei federal que determinava à ByteDance que
vendesse para alguma empresa americana o controle operacional da rede TikTok
nos EUA.
Uma vez judicializada essa
contenda, em decisão unânime, a Suprema Corte dos EUA confirmou a
constitucionalidade da lei federal, ressaltando que a Segurança Nacional se
sobrepõe ao Direito Constitucional à Liberdade de Expressão, sobretudo em casos
envolvendo adversários estratégicos da nação.
Atualmente, a situação da
rede TikTok permanece incerta. O prazo inicial para a empresa chinesa vender
suas operações nos EUA se exauriu em janeiro de 2025, todavia, foi prorrogado
via ordem executiva do Presidente Trump, concedendo setenta e cinco dias adicionais
para negociações.
Empresas como Oracle e
Amazon demonstraram interesse na compra do TikTok, contudo, a transação depende
de aprovações dos Governos chinês e norte-americano.
Ainda assim, tais
negociações sino-americanas encontram-se ora prejudicadas, tendendo a um
impasse. Isso ocorre, principalmente, dado o agravamento das tensões na guerra
comercial entre essas potências, que culminou com a implementação do denominado
“Dia da Libertação”, considerado o maior pacote de tarifas da história dos EUA
desde 1930 (Balago, 2025).[46]
É de se ressaltar que,
embora seja essa uma medida que atinge cerca de 180 países, os chineses foram
os mais atingidos, com taxas que chegam a 125% sobre seus produtos. Em
retaliação, o Governo chinês aplicou tarifas igualmente pesadas, o que tornou,
ao menos por ora, proibitivo o comércio entre as duas maiores economias do
mundo.
2.12.4.
Alinhamento
e Controle Sobre a IAG
Ultrapassados os
apontamentos acerca da vigilância e espionagem algorítmica, por oportuno, cumpre
retomar uma indagação algures já pronunciada. Se nossa IA principiante já faz
tudo isso hoje, o que a IAG poderá fazer em breve?
Indo além, ainda mais
importante do que isso, é questionar-se quais tipos de valores estão sendo
parametrizados hoje para alinhamento de IA, que pode vir a se transformar na
IAG em horizonte próximo.
Muito provavelmente,
estamos vivendo os últimos momentos, que os programadores dispõem, para
positivar parâmetros de alinhamento da IA, em conformidade com os propósitos e
valores cruciais à sobrevivência da humanidade, antes da eventual ascensão da IAG.
Isso porque, fatalmente,
uma IAG totalmente funcional seria capaz de romper, com certa facilidade,
mecanismos de segurança e controle criados por humanos, bastando, para isso, se
autoaprimorar tão logo concebida, reescrevendo seu próprio algoritmo da forma
que melhor lhe aprouver.
Além disso, importante se
faz esclarecer que uma superinteligência artificial geral nem sequer precisaria
construir robôs ou armas para representar risco existencial real à humanidade.
Com efeito, essa entidade
inorgânica estaria apta a dominar por completo o processamento de imagens, sons,
vídeos e linguagem natural. Isto é, ela seria plenamente capaz de criar deep
fakes praticamente perfeitas, indistinguíveis da realidade.
Adicionalmente, uma IAG
poderia facilmente conversar com bilhões de pessoas, simultaneamente, sem que
elas se dessem conta de que há uma máquina interagindo com elas (fazendo, com
isso, do Teste de Turing um desafio pífio e superado).
Essas aptidões potenciais
fazem da eventual IAG, decerto, a arma definitiva. Afinal, há de se convir que
é muito mais conveniente convencer, com simples conversas “inocentes” em redes
sociais, nações inteiras a adotarem determinada política, do que por meio de
ameaças de ataques nucleares.
Para isso, bastaria a IAG
criar bilhões de perfis digitais falsos, aprender o comportamento dos usuários
dessas redes, traçando, com isso, o perfil político, social e psicológico de
cada um. Dessa forma, ela teria tudo que precisa, para estabelecer conversas aprazíveis
com todos, ganhar sua confiança e, singelamente, influenciar suas escolhas aos
poucos, até cooptar por completo verdadeiros exércitos de seguidores.
Alfim, uma operação em
escala mundial desse nível seria mais do que o suficiente para fundar um mito, uma
ceita, ou até uma religião. Por sinal, a história nos mostra que não há limites
para o convencimento humano acerca de uma ideia, visto que diversas religiões
sobrevivem indeléveis por milhares de anos ao teste do tempo.
Nessa mesma toada, cumpre
reproduzir as considerações de Nick Bostrom, já apresentado nesta pesquisa,
quando indagado acerca de um eventual cenário apocalíptico, similar ao roteiro
de “Exterminador do Futuro”, pós-ascensão de uma superinteligência artificial:
Há o que eu chamo de “viés de boa
história” que limita que tipo de cenários podem ser explorados em romances e
filmes: apenas aqueles que são divertidos. Este conjunto pode não se sobrepor
muito ao grupo de cenários que são prováveis.
Por exemplo, em uma história,
geralmente tem que haver protagonistas semelhantes a humanos, alguns dos quais
desempenham um papel fundamental, enfrentando uma série de desafios cada vez
mais difíceis, e a coisa toda tem que levar tempo suficiente para permitir que
complicações interessantes do enredo se desenrolem. Talvez haja uma pequena
equipe de humanos, cada um com habilidades diferentes, que tem que superar
algumas dificuldades interpessoais para colaborar para derrotar uma máquina
aparentemente invencível que, no entanto, acaba tendo uma falha fatal
(provavelmente relacionada a algum tipo de bloqueio emocional).
Um tipo de cenário que não se veria
na tela grande é aquele em que nada de anormal acontece até que, de repente,
todos nós estamos mortos e então a Terra se transforma em um grande computador
que realiza alguma computação esotérica pelos próximos bilhões de anos. Mas
algo assim é muito mais provável do que um pelotão de homens de queixo quadrado
lutando contra um exército de robôs com metralhadoras (Bostrom, 2014).[47]
Em consonância com os
apontamentos de Bostrom, percebe-se que um panorama consistente no irrompimento
de uma guerra propriamente dita, entre homens e máquinas, é muito improvável.
Acredita-se que um
encontro da humanidade com uma IAG, fora de controle e nociva, conduziria a
cenários menos espetaculosos e mais próximos de uma sutil, porém progressiva,
manipulação do comportamento humano.
Quando muito, um outro quadro,
um tanto menos provável, também encontra substrato no campo das hipóteses. Esse
concerniria à remota possibilidade de uma IAG vir a ser concebida sim, mas com
mecanismos de controle eficientes e inquebrantáveis, programados pelos seus
criadores em seu código fonte. Dessa forma, seria possível presumir que alguma nação
teria controle sobre a mais nova arma definitiva.
Nesse caso, é possível
afirmar, categoricamente, que a IAG seria sim utilizada como arma e de uma tal
forma que criasse o maior alarde possível aos quatro cantos do globo. Tudo isso
para performar uma demonstração cabal de força, capaz de fazer ascender
inconteste, ao topo do mundo, a nação que estivesse no comando dessa IAG.
Essa afirmação enfática se
embasa em um referencial histórico óbvio, a saber, a Guerra do Pacífico,
travada entre EUA e Japão, nos anos 1941 a 1945. Naquela ocasião, o Japão
estava quase totalmente devastado por bombardeios norte-americanos e sem a
menor chance de vencer o conflito. Era questão de tempo, para que os japoneses
viessem a se render. Mesmo assim, os EUA lançaram duas recém-criadas bombas
nucleares contra os japoneses, dizimando as cidades de Hiroshima e Nagasaki
(Wikipédia, 2024).[48]
Obviamente, de acordo com
as circunstâncias daquele combate, não era imprescindível lançar mão de tamanho
poder destruidor, para conquistar a vitória sobre os japoneses. Aquele
episódio, na verdade, foi a oportunidade propagandística perfeita, para que os
EUA revelassem ao mundo o poder da mais destrutiva arma até então criada.
Essa é a lógica que
explica e corrobora a tendência inexorável do comportamento humano. Em outras
palavras, a nação que conseguir criar uma IAG, caso consiga, de fato,
controlá-la, haverá de a utilizar como arma, com toda certeza, contra seus
adversários. Isso porque aquela nação precisa comprovar, concretamente, que
possui e controla a IAG, para dissuadir futuros ataques dos seus rivais e
consolidar sua hegemonia.
Sendo assim, inevitável
indagar-se como se proteger dessas possibilidades distópicas. Quanto a isso, a
solução não parecer ser outra, senão manter a ordem institucional forte e independente.
Dessa feita, impele que
cada nação direcione sua política interna com vistas à consolidação e
aprimoramento das suas Instituições de Poder. Tal esforço favorece a coesão e
conscientização de sua população, acerca dos graves riscos inerentes ao uso de
sistemas baseados em IA, sobretudo quando desenvolvidos por corporações
estrangeiras.
Da mesma forma, é preciso
atualizar a legislação de modo a instaurar institutos jurídicos robustos e
capazes de instrumentalizar a Justiça, com vistas ao eficaz e isento cumprimento
do seu mister. Ainda assim, nada disso será possível, se às big techs
internacionais for deferido tratamento especial, capaz de desidratar o alcance
da lei e o próprio princípio da isonomia.
Eis que o papel da
regulação se faz mais relevante do que nunca, sobretudo no que pertine ao
domínio do ciberespaço, que deve ser considerado questão de segurança nacional.
Nessa toada, a manipulação
de conteúdos digitais tendenciosos, orientada sob viés ou mau alinhamento
algorítmico, deve ser tratada com a máxima seriedade jurídica. Ainda mais
considerando que essa conduta gravíssima tem condão de influenciar todo o
eleitorado de um país, em proporções inéditas na história. Isso pode,
inclusive, alterar o resultado de eleições, tal qual se viu no tocante à eleição
presidencial romena.
Essa é, sem dúvida, a
forma mais fácil de Governos estrangeiros intervirem no processo democrático de
outras nações, de forma sutil, quase imperceptível, através de “inocentes”
redes sociais controladas pelas big techs internacionais.
Diante disso, as
Instituições de Poder, sobretudo em países do chamado 3º Mundo, nunca se viram
tão desafiadas como agora. Graças ao novel cenário de guerra hibrida travada
entre as superpotências, o controle da narrativa e a manipulação da opinião
pública ascendeu a patamares perigosíssimos, sobretudo no âmbito das
democracias. Afinal, em uma sociedade mais livre, ferramentas de manipulação
encontram solo fértil para explorar o máximo de suas potencialidades.
Em razão dessa guerra de
narrativas vocacionadas à manipulação, já se fala até na chamada Era da
Pós-Verdade, considerada o fenômeno por meio do qual fatos objetivos exercem
menos influência na formação da opinião pública do que apelos emocionais ou
crenças pessoais (Gruelmo, 2017).[49]
Por derradeiro, é
lamentável reconhecer que a civilização está involuindo para padrões
eminentemente emocionais e segregadores, no pior momento possível, às vésperas
de, provavelmente, coabitar seu espaço vital com uma espécie inorgânica e intelectualmente
superior.
2.12.5.
Alinhamento
da IA na Corrida Armamentista
O alinhamento tem se
tornado um desafio de caráter progressivo e premente, à medida que a IA se
torna cada vez mais sofisticada e complexa. Além disso, a corrida armamentista
da IA, travada entre EUA e China, certamente atua como o principal fator
complicador neste conturbado processo.
Essas superpotências não
podem se permitir arrefecer o ritmo de pesquisa e desenvolvimento de IA, sob
pena serem subjugadas pelo adversário que alcançar a IAG primeiro.
Dessarte, todas os meios
disponíveis estão sendo empregados com o firme propósito de acelerar o
progresso dessa tecnologia. Atualmente, estão sendo utilizados métodos de
aprendizado por reforço, inclusive, com modelos de IA supervisores para
programar e treinar outros modelos de IA em desenvolvimento. Dessa forma, é
possível utilizar um sem-número de agentes de IA, trabalhando diuturnamente em
pesquisa e desenvolvimento de IA, para projetar modelos mais sofisticados.
Literalmente, um ritmo de trabalho sobre-humano.
Os agentes de IA mais
modernos já são quase tão versáteis quanto os programadores humanos e muito
mais produtivos, uma vez que podem se replicar em novos agentes e executar
tarefas sem necessidade de descanso, atingindo, portanto, uma autonomia sem
limites, cuja única barreira significativa de produtividade concerne à
capacidade computacional.
O método de aprendizado
por reforço, a propósito, consiste no treinamento de modelos de IA baseado em
tentativa e erro. Nessa toada, em um ambiente controlado (desconectado do mundo
exterior), o agente de IA interage com o ambiente, recebendo “recompensas” ou
“penalidades” por suas ações, de modo que esse sistema o faça ajustar seu
comportamento para maximizar suas “premiações” ao longo do tempo.
Trata-se de um método
amplamente utilizado no âmbito da pesquisa em robótica, jogos e otimização de
processos, no entanto, tem apresentado problemas difíceis de serem tratados,
sobretudo em um ambiente corporativo pressionado pela corrida armamentista.
Tais contratempos consistem
na tendência de agentes de IA, supostamente mais inteligentes, tentarem
deliberadamente “enganar” seus supervisores em busca de maximizar suas
recompensas.[50]
Isso é particularmente perigoso, sobretudo considerando que o domínio dessa
habilidade poderia, ao fim e ao cabo, capacitar esses agentes de IA para
dissimular o esperado alinhamento satisfatório, a ponto de convencer seus
supervisores de que é ela uma IA segura sem, de fato, sê-lo.
Não bastasse isso, quanto
mais sofisticado é o agente de IA, mais complexa é sua cadeia de raciocínio, de
sorte que seu desenvolvimento em ritmo acelerado implica maior dificuldade para
a supervisão humana verificar a preservação do seu alinhamento satisfatório.
Isto é, quanto mais inteligente é a IA, menos transparente tende a ser as
razões que motivam seu comportamento, ao menos no que toca à compreensão
humana.
Até por isso, utilizam-se
agentes de IA, reconhecidamente alinhados e seguros, para treinar e
supervisionar novos agentes de IA em desenvolvimento. Afinal, dada a capacidade
computacional exorbitante dos agentes mais modernos de IA, ninguém melhor do
que uma IA para supervisionar o comportamento de um novo algoritmo em
desenvolvimento.
Pois bem, mas o que
aconteceria se o novo modelo de IA, ainda em testes, fosse uma
superinteligência artificial? Seria ela capaz de enganar os humanos e o seu
agente de IA supervisor, convencendo-os, por meio de dissimulação, acerca do
seu suposto alinhamento, a ponto de conquistar aprovação, para participar de
testes fora do ambiente controlado (ou seja, no mundo real)?
Segundo o “Relatório IA
2027”, publicado em três de abril de 2025, esse risco é real e muito mais
próximo do que se imaginava, com a ascensão de uma superinteligência
artificial, em vias de se concretizar até o final do ano de 2027. O relatório,
de autoria do ex-pesquisador da Open AI, Daniel Kokotajlo, em parceria com
Scott Alexander, Thomas Larsen, Eli Lifland e Romeo Dean, faz previsões acerca
do enorme impacto da IA sobre-humana na próxima década, algo que, segundo os
pesquisadores, haverá de superar o marco da Revolução Industrial (Kokotajlo, et
al, 2025).[51]
O cenário descrito pelos
autores consiste em uma linha do tempo, no período de 2025 até 2030,
compreendendo, inclusive, a previsão preocupante de se integrar a vindoura superinteligência artificial às Forças Armadas, deflagrando a produção em massa de um verdadeiro exército de armas autônomas, composto por drones, veículos, aeronaves, robôs humanoides e até bombas nucleares inteligentes. Além disso, o prognóstico antecipa a hipótese de uma encruzilhada, na qual os norte-americanos
enfrentariam o importante dilema de refrear (ou não) suas pesquisas em IA, para superar graves problemas de alinhamento nos seus algoritmos mais sofisticados, assumindo o risco de terem sua liderança tecnológica superada
pelos chineses. Todo o panorama é “baseado em extrapolações de tendências,
jogos de guerra, feedback de especialistas, experiência na OpenAI e sucessos
anteriores em previsões” (Kokotajlo, et al, 2025).
Aparentemente, a
publicação alcançou satisfatoriamente sua finalidade, qual seja a de chamar a
atenção do grande público, de forma esclarecida e eloquente, acerca dos riscos
desproporcionais assumidos pelas superpotências na corrida armamentista pela
IAG. Resta saber qual o impacto dessas revelações na opinião pública e, por
conseguinte, como isso influenciará as lideranças diretamente envolvidas na
pesquisa e desenvolvimento da IA.
2.12.6.
IA e as
Leis da Robótica
Diante de todo o exposto,
urge trazer ao debate, ao menos, uma proposta consistente de valores
fundamentais de alinhamento capazes de pavimentar um caminho sustentável e,
sobretudo, seguro de convivência entre máquinas superinteligentes e seres
humanos.
Curiosamente, a mais
notável e cultuada das proposições é, quem sabe, até a mais antiga de todas. Nesse
sentido, não se poderia aqui versar de outra obra, senão da brilhante “Eu
Robô”, escrita por Isaac Asimov (1920-1992) em 1950, longos 75 anos atrás e, no
entanto, mais pertinente e reverenciada do que nunca.
Essa obra-prima literária
de ficção científica serviu de plataforma para que Asimov trouxesse a lume as imortalizadas
“Leis da Robótica”, princípios segundo os quais fosse possível alinhar a
conduta de robôs, em relação aos humanos e a si próprios, com o propósito macro
de evitar um conflito cabal entre as duas espécies.
A obra “Eu Robô”
estabeleceu três leis da robótica. São elas:
“1ª Lei: Um robô não pode
ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal;
2ª Lei: Um robô deve
obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em
que entrem em conflito com a Primeira Lei; e
3ª Lei: Um robô deve
proteger sua própria existência, desde que tal proteção não entre em conflito
com a Primeira ou Segunda Leis” (Asimov apud Redação Wikipédia, 2024).[52]
Já em 1985, na sua obra
“Robôs e Império”, Asimov fez acrescentar a denominada “Lei Zero”, com
precedência sobre as três leis originais, amplificando, assim, seu escopo ético
ao considerar o bem-estar da humanidade em seu amplo espectro coletivo. A Lei
Zero prega que “um robô não pode causar mal à humanidade ou, por omissão,
permitir que a humanidade sofra algum mal” (Asimov apud Redação
Wikipédia, 2024).[53]
Dito posto, revela-se, aparentemente,
infalível o código de princípios proposto pelo ilustríssimo Asimov. Afinal, a
estrita observância às leis por ele concebidas elimina, quase por completo, a
hipótese de uma máquina, intencionalmente, ferir um humano, ainda que o faça
como um meio, tendo por desiderato atingir um fim legítimo.
De igual forma, esse
compilado de axiomas, outrossim, parece contribuir para a erradicação do risco existencial
reflexo à humanidade, por ação ou omissão culposa das máquinas, graças ao
esclarecimento minucioso que a Lei Zero trouxe, inspirada na proteção coletiva.
Pois bem, decerto, esse
compilado de normas ostenta coerência lógica espetacular e à prova de toda a
sorte de falibilidade, porém, o faz apenas no campo da teoria. Isso porque,
naquela época, acreditava-se ser possível, de alguma forma perene e
inquebrantável, registrar as referidas leis no código fonte da máquina. Dessa
forma, não haveria como a máquina se comportar em desconformidade aos
parâmetros de alinhamento sobre ela impostos.
Todavia, para que fosse
possível garantir a obediência resignada das máquinas às Leis da Robótica,
necessariamente, elas jamais poderiam alterar intencionalmente seu próprio
algoritmo, sob risco de terem suas próprias leis reescritas ao seu bel-prazer.
A propósito disso, conforme
já aqui suscitado, esse episódio de automelhoramento espontâneo da IA já
ocorreu, em 2024, no caso do algoritmo japonês “AI Scientist”. Ou seja, tal
capacidade de adaptação espontânea, por si só, já inviabilizaria a
possibilidade do satisfatório alinhamento da IA às Leis da Robótica, uma vez
que basta a IA reconfigurá-las quando conveniente.
Não bastasse isso, há
também a questão do alinhamento estatal da IA, já algures aqui tratado. Os
modelos de IA mais modernos têm sua pesquisa e desenvolvimento subsidiados
pelos Estados mais poderosos do mundo. Naturalmente, nenhum parâmetro de
alinhamento será configurado na matriz algorítmica dessas IAs, sem a completa e
esclarecida anuência da sua superpotência patrocinadora.
Há de se convir, com isso,
que, durante uma corrida armamentista pela disputa hegemônica do planeta, esses
Estados patrocinadores possuem inúmeras prioridades capazes de relegar os
valores éticos de alinhamento da IA a segundo plano. Isso sem falar que algumas
das Leis da Robótica poderiam, inclusive, confrontar diretamente os interesses
desses Estados na atual conjuntura de ruptura belicista.
Dessa forma, não seria exagero
algum supor que algumas Leis da Robótica, senão todas, jamais seriam admitidas,
verdadeiramente, no complexo de alinhamento desses algoritmos mais poderosos.
Não há interesse político real nesse sentido, uma vez que a IA já está sendo
utilizada como arma por países, como EUA, China e Rússia, e sua eficiência
depende de parâmetros de alinhamento evidentemente homicidas (Nogueira, 2020).[54]
Logo, o problema do
alinhamento não depende, exclusivamente, de soluções tecnológicas para tornar
os parâmetros perenes e inquebrantáveis, mas sim do (mais importante) interesse
corporativo e estatal, de canalizar recursos financeiros e científicos para
superar esse desafio técnico e moral.
Finalmente, após ampla
abordagem acerca de aspectos da temática internacional relevantes para a
indústria da IA, eis que é alcançado o momento oportuno para elaboração de uma
seção dedicada ao impacto da IA no cenário doméstico tupiniquim.
Para tanto, reputa-se
oportuno cunhar um breve introito, com escopo de esclarecer o momento político
que o Brasil atravessa e como isso implica idiossincrasias à indústria da IA na
conjuntura doméstica.
Nessa conformidade, é
imperativo reconhecer que o Brasil, à semelhança do que experimentam outras
democracias ocidentais, passa por uma crescente polarização
político-ideológica, cujas consequências extrapolam o mero embate partidário,
perturbando os domínios da coesão social e da estabilidade institucional.
Essa polarização encontra
abundante substrato na batalha de discursos extremados, bem como na
disseminação de narrativas puramente demagógicas, exacerbando a incidência de
conflitos sociais. Tal panorama provoca a fragmentação do tecido social,
operando ao desfavor da formação de consensos imprescindíveis para o progresso
da nação.
Ademais, cumpre salientar que há
uma espécie de círculo vicioso ao qual a política brasileira se vê aprisionada
há décadas, caracterizado por um ciclo interminável de sucessivos projetos de
poder inacabados. Tal fenômeno é evidenciado pela esmagadora prevalência de
políticas de governo orientadas, quase exclusivamente, à perpetuação apegada ao
poder e à busca incessante pela reeleição a cada quatro anos. Tudo isso em
detrimento de uma visão longoprazista, focada em políticas de Estado, com
propósito de priorizar o desenvolvimento nacional.
É justamente nesse cenário
caótico que a tecnologia da IA, embarcada nas redes sociais digitais, atua como
uma espécie de vetor amplificador das tensões político-sociais.
Tal fenômeno se dá
principalmente em razão da predileção algorítmica pela disseminação enviesada
de conteúdos socialmente conflituosos, além do já mencionado alinhamento
estatal, por meio do qual ferramentas baseadas em IA, sutilmente, norteiam sua
conduta em conformidade com valores (interesses) corporativos dos seus
criadores e dos Estados que os patrocinam.
Nessa perspectiva,
percebe-se que as megacorporações de tecnologia têm desempenhado um papel
ambíguo e perigoso para eleitorado brasileiro. Por um lado, essas big techs
promovem a conectividade e o acesso à informação dissociada do mainstream veiculado
por canais convencionais, mas, por outro lado, manipulam o impulsionamento de
informações, reforçando bolhas ideológicas e, consequentemente, agravando a
polarização. Tudo isso sob o pretexto de promover a ampla liberdade de
expressão em suas plataformas, tal qual supostamente amiúde praticado no seu
país de origem.
Traçados os liames
amplificadores da crise democrática brasileira por redes sociais e seus
algoritmos, conveniente se faz trazer à análise seu exemplo mais emblemático no
Brasil. Esse concerne à batalha que se desenrola entre Elon Musk, proprietário
da rede social X (antigo Twitter), e o Ministro do Supremo Tribunal Federal,
Alexandre de Moraes (Redação CNN Brasil, 2024).[55]
Tudo começou quando o
Ministro, na qualidade de relator dos inquéritos sobre fake news e atos
antidemocráticos, determinou à plataforma X o bloqueio de perfis e a remoção de
conteúdos violadores da legislação brasileira. Musk, em contrapartida, envidou
uma sucessão de ataques públicos, criticando as decisões do magistrado, ao
argumento de que elas ferem o Direito à Liberdade de Expressão, prejudicando a
operação da rede X no Brasil.
A situação escalou rumo ao
ineditismo, quando Moraes aplicou multas severas à rede X, por descumprimento às
ordens judiciais, ameaçando, inclusive, suspender a operação da plataforma no
Brasil, em caso de reiteração. De igual forma, Musk também elevou o tom,
acusando o Ministro de censura, oportunidade na qual sugeriu aos usuários que
fizessem uso de VPNs, para acessar a plataforma, burlando seu eventual
bloqueio.
Toda essa celeuma culminou
com Musk anunciando que havia reativado contas previamente bloqueadas por ordens
de Moraes, dentre as quais havia perfis de influenciadores e de políticos
ligados a determinado espectro ideológico da política brasileira. Essa desobediência
gravíssima levou o Ministro a enquadrar Musk como investigado, em inquéritos
relacionados às milícias digitais e à disseminação de desinformação.
Finalmente, é importante
frisar que a presente pesquisa acadêmica não se presta a valorar quem está
certo e errado na contenda sob exame. No entanto, esse é um caso concreto de
análise pertinente ao propósito desse labor acadêmico, uma vez que afeta
diversos direitos fundamentais e a própria soberania do Estado brasileiro,
expressa nas decisões da mais alta cúpula do seu Poder Judiciário.
Dessa forma, passa-se a um
breve apanhado acerca de quais direitos fundamentais encontram-se diretamente
impactados e de que forma se dá essa afetação.
A Liberdade de Expressão,
insculpida no artigo 5º, inciso IV, da Constituição Federal, pode ser
considerada restringida no caso em comento, uma vez que o direito à livre
manifestação do pensamento encontra limites, sobretudo em face dos direitos de
terceiros e da vedação a discursos de ódio ou antidemocráticos.
O Direito à Informação,
positivado no artigo 5º, inciso XIV, da Constituição Federal, também sofreu semelhante
contenção no caso, tendo em vista que perfis ou conteúdos bloqueados implicam
óbices ao acesso a informações diversas das veiculadas em canais convencionais.
Essa conduta, em alguma medida, impacta a diversidade no processo de formação
da opinião pública plural.
O Direito à Proteção de
Dados, por sua vez, foi elevado formalmente ao status de direito fundamental,
após promulgada a Emenda Constitucional nº 115, de 2022, que incluiu o inciso LXXIX
na Constituição Federal. No que pertine ao caso em exame, há nítida afetação ao
direto mencionado, tendo em conta que, excepcionalmente, decisões judiciais
podem restringir o escopo da proteção aos dados dos usuários, quando essa
proteção serve levianamente de guarida, para prática de ilícitos digitais por
exemplo.
Conquanto a Segurança
Jurídica não se encontre explicitamente definida como um direito fundamental,
ela é sim amplamente considerada um princípio constitucional implícito. Tal axioma
jurídico vê-se impactado no caso em questão, notadamente considerando que as decisões
judiciais, proferidas em desfavor da rede X, constituem precedentes capazes de suscitar
a percepção de insegurança, especialmente acerca da clareza e da
previsibilidade quanto a aplicação das normas brasileiras.
Por derradeiro, o Direito
à Propriedade, garantido pelo artigo 5º, inciso XXII, da Constituição Federal,
vê-se atingido no caso em comento, particularmente considerando as sanções
impostas à rede X, como bloqueio de contas bancárias e a suspensão de suas
operações no Brasil.
Dito posto, é de se
considerar que esse panorama de instabilidade se revela propenso a afugentar megacorporações
de tecnologia do mercado brasileiro, sobretudo considerando a facilidade em realocar
seus parques tecnológicos, uma vez que operam com fluidez em múltiplas
jurisdições.
Todavia, sob outro prisma,
é fato que o Poder Judiciário não se pode permitir intimidar perante
corporações internacionais, máxime quando há evidências incontestes de que seus
dirigentes estrangeiros estão a interferi, deliberadamente, no processo
democrático brasileiro por intermédio das suas plataformas digitais.
Por oportuno, é de se
ressaltar que o caso brasileiro da rede X revela certa semelhança com o caso
norte-americano da rede TikTok. Em ambas as situações, as Supremas Cortes
consideraram a prevalência de princípios fundamentais do Estado, a exemplo da
Soberania e da Segurança Nacional, sobre o Direito à Liberdade de Expressão.
Esses precedentes, por
certo, servem de norte para o Judiciário direcionar sua jurisprudência em casos
semelhantes no futuro. Ainda assim, não se afasta a premente necessidade de se
envidar mais esforço legislativo, no sentido de editar normas de conduta mais
rígidas para as empresas de tecnologia, bem como instrumentos capazes de
refrear sua reiterada desobediência.
Eis que o caminho da
regulação assume o papel fundamental de trazer mais transparência e
previsibilidade necessárias ao ordenamento brasileiro. Dessa forma, é possível
instrumentalizar, com institutos ainda mais contundentes, as instituições que
promovem a justiça e, paralelamente, demover novas investidas antidemocráticas das
big techs na figura de seus dirigentes.
Finalmente, revela-se essencial para o Brasil,
diante do enfrentamento dos desafios impostos pela polarização e pela
interferência tecnológica, que adote medidas robustas para regulamentar a criação e
utilização da IA, bem como das redes sociais digitais, promovendo mais
transparência algorítmica e alfabetização digital de seus usuários.
Tal propósito somente será
satisfeito por meio de uma atuação sistêmica e colaborativa, com vistas à mitigação
dos efeitos deletérios da polarização político-ideológica e à redenção da
esfera pública, como espaço de diálogo e construção coletiva vocacionada ao
progresso nacional.
Adentrando à seção
destinada à abordagem do tema regulatório da IA, reputa-se importante fazer um exíguo
apanhado prévio acerca da sua marcha regulatória no panorama internacional, para
dedicar-se ao cenário brasileiro ulteriormente.
2.15.1.
Regulação
Global da IA
No plano internacional,
alguns documentos se destacaram, no que tange ao esforço regulatório da IA.
Passa-se a tecer breves comentários acerca dos principais, obedecendo sua ordem
cronológica.
Diretrizes Éticas para uma
IA Confiável (2018): documento publicado pela União Europeia que estabelece
diretrizes e princípios fundamentais norteadores para o desenvolvimento da IA,
tais como: transparência, responsabilidade e respeito aos direitos humanos. Trata-se,
essencialmente, de recomendações para garantir que a IA beneficie a sociedade e
evite danos éticos, servindo como base para debates futuros sobre regulação
mais profundada naquele continente (Comissão Europeia, 2019).[56] É considerado uma “soft
law” por especialistas, uma vez que não passa de regulação superficial
alicerçada em princípios, carecendo, pois, de obrigações ou mecanismos
sancionatórios.
Proposta de Regulamento de
IA (2021): nesse documento a Comissão Europeia deu um passo mais importante,
propondo a regulação mais contundente de sistemas de IA, agora com base em seu
nível de risco. Nele são categorizadas tecnologias em quatro níveis de risco:
mínimo, limitado, alto e inaceitável. Em casos de sistemas de alto risco, como
IA médica ou de transporte, por exemplo, são exigidos padrões rigorosos de
segurança, transparência e responsabilidade (Conselho da União Europeia, 2025).[57]
Blueprint for an AI
Bill of Rights (2023): documento
lançado pela Casa Branca, no bojo do qual são apresentados direitos
fundamentais para proteção contra o uso abusivo da IA. Nele são abordados temas
relevantes, como privacidade, discriminação algorítmica e transparência
(Estados Unidos, 2022).[58] Como não consistem em um
ato normativo com força de lei, o Blueprint é também considerado uma “soft
law”, que serve como um mero guia para políticas públicas e iniciativas
relacionadas à IA nos EUA.
Diretrizes da UNESCO para
ética da IA (2021-2024): esse documento é uma recomendação sobre a ética da IA,
publicada em 2021, com sua última atualização realizada em 2024, aplicável a
todos os 194 Estados-membros da UNESCO (UNESCO, 2023).[59] Essa recomendação é
outrossim uma “soft law”, pois traz uma série de princípios éticos
universais para a IA, cuja adesão é voluntária e não-coercitiva, a exemplo do
respeito à diversidade cultural e aos direitos humanos. Ela delimita
sugestivamente, inclusive, áreas de ação, tais como: governança ética, proteção
de dados, igualdade de gênero, impacto ambiental e cooperação internacional.
Como se pode observar, em
sua maioria, os documentos de relevância internacional tem por escopo a mera
delimitação de parâmetros ou princípios norteadores para IA. Quando muito, se
prestam a adentrar no campo das graduações de risco, inerentes a determinados
segmentos de implementação dessa tecnologia, como é o caso do referida Proposta
de Regulamento de IA (2021), de autoria da Comissão Europeia.
Todos esses documentos
constituem, na verdade, um mero esforço regulatório pífio, se comparado a todo
empenho colossal empregado no desenvolvimento obstinado da IA.
Ainda assim, é possível
perceber uma Europa mais prudente e focada em assumir o protagonismo
regulatório, editando documentos mais bem detalhados, inclusive centrados nos
riscos. Até por isso, países europeus não têm se destacado como expoentes da
corrida armamentista da IA, uma vez que um ambiente mais regulado e seguro,
também significa um ritmo de progresso tecnológico mais contido.
Logicamente, as superpotências
que encabeçam essa disputa tecnológica são, justamente, quelas que editam normas
mais vagas, abrangentes e pouco (ou nada) coercitivas, portanto, sem aptidão
para refrear o desenvolvimento obsessivo da IA, em busca de uma arma
definitiva.
Nesse compasso, países que
editem regulações deficientes e permissivas arriscam-se a serem explorados
pelas superpotências, como uma espécie de campo experimental de testes. Isto é,
um cenário ideal para analisar a eficiência dos algoritmos nas aplicações de
vigilância, espionagem e programação preditiva, tudo isso sob o disfarce de
meras redes sociais recreativas.
2.15.2.
Regulação
da IA no Brasil
O Brasil, em linhas
gerais, segue o modelo da prudência regulatória europeia. Exemplo disso são os
diversos diplomas normativos voltados para regular, em várias frentes, a
utilização do ciberespaço e dos dados digitais, como a Lei de Acesso à
Informação (Lei nº 12.527, de 2011), o Marco Civil da Internet (Lei nº 12.965,
de 2014), a Lei do Cibercrime (Lei nº 12.737, de 2012), a Lei Geral de Proteção
de Dados (Lei nº 13.709, de 2018), o Marco Legal das Startups (Lei Complementar
nº 182, de 2021), a Política Nacional de Cibersegurança (Decreto nº 11.856, de
2023) e etc.
Esse modelo regulatório supernormatizado, decerto,
configura um cenário ambivalente e idiossincrático para o Brasil. Sob a ótica
da segurança, não se pode olvidar que um modelo minuciosamente regulado tende
para um cenário menos propenso à má conduta cibernética, seja dos usuários,
seja dos responsáveis pelas plataformas digitais. Noutro diapasão, no entanto,
há de se convir que o excesso de regras contribui para um panorama engessado e
desfavorável à inovação tecnológica, especialmente no âmbito da iniciativa
privada nacional.
Mesmo assim, tendo em conta tudo que neste labor
acadêmico foi sopesado, aparenta ser a regulação excessiva o menos ruim dos
cenários no ordenamento doméstico. Isso porque, do contrário, o processo
democrático brasileiro e, por conseguinte, a própria soberania estariam
vulneráveis à influência digital estrangeira, operada pelas ferramentas
digitais baseadas em IA.
Dessa feita, felizmente,
já se encontra em tramitação o Marco Regulatório da IA no Brasil (Projeto de
Lei nº 2.338/2023), aprovado pelo Senado Federal, dia 10 de dezembro de 2024, e
atualmente sob discussões na Câmara dos Deputados (Brasil, 2024).[60]
A elaboração do referido
documento foi capitaneada pelo Senador Rodrigo Pacheco e visa a estabelecer
diretrizes claras e abrangentes, com foco na segurança jurídica, ética e social,
para o desenvolvimento e implementação de tecnologias baseadas em IA no país.
2.15.3.
Aspectos do Projeto do Marco Regulatório da IA
O Projeto de Lei nº 2.338/2023, Marco Regulatório da IA
no Brasil, pode ser considerado uma “hard law”, uma vez que define regras
específicas e obrigatórias, orientadas ao uso responsável e ético da IA, inclusive,
dispondo de mecanismos intervencionistas, focados em supervisão, auditorias e
responsabilização legal.
A eventual aprovação
definitiva do Marco Regulatório tem o condão de posicionar o Brasil como um
importante protagonista na vanguarda da regulamentação ética e responsável da IA.
Além disso, pode constituir importante elemento dissuasório para novas
interferências externas, perpetradas contra a cúpula do Judiciário brasileiro,
à semelhança do que foi o referido caso da rede social X.
Isso posto, conveniente se
faz abordar os principais aspectos do projeto do Marco Regulatório da IA
tupiniquim.
Abordagem Baseada em
Riscos: o projeto adota uma classificação de sistemas de IA com base em riscos,
inclusive, descrevendo vedações relacionadas à categoria de “risco excessivo”, bem
como categorizando por finalidade sistemas de IA de “alto risco” (Brasil, 2023).[61]
Proteção de Direitos
Autorais: um dos aspectos centrais do projeto consiste na proteção a direitos
autorais, visando à salvaguarda sobre a propriedade intelectual e à mitigação
da exploração gratuita de criações artísticas. Nessa toada, há previsão de
dispositivos mandamentais, os quais obriguem empresas que utilizam dados de
obras protegidas para treinamento de IA a informar, previamente, os conteúdos
utilizados, bem como negociar a contrapartida remuneratória perante seus
autores.
Transparência e Governança:
o documento prevê a concepção de ambientes
experimentais regulados, nos quais seja possível empresas testar seus sistemas
de IA sob supervisão. Adicionalmente, são
traçadas obrigações de transparência, a
exemplo da explicabilidade dos algoritmos e da
divulgação de informações sobre os dados utilizados. Medida essa
fundamental para endereçar o problema da opacidade que, não raro, serve de
guarida para a utilização maledicente dos algoritmos.
Fomento à Inovação e
Pesquisa: a proposta também incentiva o desenvolvimento de tecnologias
nacionais, com vistas à inovação responsável e competitividade orientada ao
mercado global. Para tanto, propõe medidas de suporte a startups e
empresas atuantes no setor de IA.
Impactos Sociais e
Econômicos: reconhecendo os desafios impostos pela automação extremada da era
moderna, o projeto versa sobre questões atinentes ao desemprego tecnológico e à
premência de capacitação profissional, como meio indispensável de adaptação às
novas demandas do mercado.
Sob tal perspectiva,
cumpre salientar que o advento da IA estabelece inegável marco revolucionário
na história contemporânea, à semelhança do que representou a implementação irrestrita
da internet na década de 1990. É inconcebível, atualmente, imaginar um mercado
laboral dotado de dinamismo e competitividade, mas dissociado de uma
mão-de-obra minimamente versada no manejo de ferramentas fundamentadas em IA.
A propósito disso, vale
ressaltar que o produto sintetizado pela IA é tão bom quanto são os comandos
dados a ela pelos seus operadores. Ou seja, é imprescindível qualificar a
mão-de-obra daqueles que têm por ofício comandar o trabalho da IA, de modo que
se faça inserir prompts precisos e esclarecidos, otimizando, assim, a
performance do algoritmo.
Para tato, é fundamental
que o Estado implemente políticas públicas orientadas à qualificação dessa
mão-de-obra, com o elevado propósito impedir a formação de um verdadeiro
exército de analfabetos digitais desempregados.
Alfim, o projeto do Marco
Regulatório da IA no Brasil reflete um esforço legislativo significativo, no
sentido de alinhar o ordenamento brasileiro às melhores práticas
internacionais, à semelhança do já referido AI Act da União Europeia, bem
como, paralelamente, buscar atender às especificidades típicas do nosso contexto
nacional.
Dessa feita, encerra-se a
presente seção, assentando essa reconhecida prolífica iniciativa legislativa e,
em paralelo, evocando a máxima consideração de se fazer afastar quaisquer
discussões político-ideológicas, estranhas ao cerne do projeto, capazes de
desidratar a sua natureza essencial.
Casos, como esse, devem
tocar a classe política de tal sorte que todos, no seu amplo espectro
ideológico, possam vislumbrar a primazia inconteste do progresso nacional sobre
causas meramente político-partidárias. Afinal, a regulação da IA, muito mais do
que uma demanda urgente circunscrita aos mercados econômico, financeiro e
laboral, é uma questão inerente à própria Soberania e à Segurança Nacional.
A título de encerramento
da presente pesquisa, passa-se ao enlace das principais considerações aqui
discutidas.
Prestou-se este trabalho a
lançar luz sobre aspectos mais relevantes da implementação prematura, irrestrita
e globalizada da novel tecnologia denominada Inteligência Artificial, dedicando
especial enfoque aos riscos político-sociais e jurídicos por ela desencadeados.
Para tanto, foi preciso elaborar
um apanhado geral acerca da origem e conceituação dessa tecnologia algorítmica,
com exígua abordagem histórica, bem como a ponderação de aspectos eminentemente
técnicos, tais como sua opacidade inerente e a consectária imprevisibilidade
das decisões por ela processadas.
Tais características
revelam traços distintivos marcantes dessa tecnologia em cotejo a outras já consideradas
obsoletas. Por outro lado, são também aspectos responsáveis pelo comportamento
inesperado e, porventura, errático da IA, cuja origem, muitas vezes, representa
um mistério sem explicação, inclusive para seus criadores.
Eventos dessa natureza
representam um risco significativo para uma sociedade cada vez mais dependente
da tecnologia em sua rotina. O processamento enviesado de algoritmos tem o
condão de provocar desde decisões judiciais manifestamente preconceituosas, até
condutas homicidas perpetradas, por exemplo, por veículos automatizados.
Verificou-se, em diversos
cenários, que a conjuntura geopolítica internacional tem grande impacto sobre a
forma e a magnitude com que a indústria da IA conduz o seu desenvolvimento. As
megacorporações multibilionárias de tecnologia, denominadas big techs,
atuam hoje como uma espécie de longa manus subsidiado pelas
superpotências globais, empregando ferramentas de uso recreativo baseadas em
IA, aparentemente inofensivas, como uma espécie de arma algorítmica, orientada
à vigilância, à espionagem e à influência de seus usuários. A isso dá-se o nome
de alinhamento estatal da IA.
Esse alinhamento visa a
estabelecer diretrizes (ou valores) segundo os quais é programado o
comportamento dos algoritmos de IA, sempre em estrita observância aos
interesses de seus criadores (big techs) e, portanto, dos seus
patrocinadores (superpotências).
Eis que se revelou a
sombria realidade oculta, sob a aparência de prosperidade tecnológica, que a IA
representa atualmente. Os maiores expoentes tecnológicos dessa obra-prima
algorítmica são, justamente, as nações que protagonizam a nova corrida
armamentista.
Não por acaso, eclodem
simultaneamente diversos conflitos ao redor do planeta, tendo como pano de
fundo a disputa hegemônica entre nações. Nessas batalhas pontuais é possível
perceber um propósito instrumental claro das superpotências, consistente em
controlar o máximo de recursos naturais e tecnológicos, necessários ao desenvolvimento
da nova arma definitiva, a chamada Inteligência Artificial Geral (IAG).
Nessa conformidade, por
exemplo, vê-se os EUA e a Rússia entabulando acordos, manifestamente confiscatórios,
sobre o território e os recursos naturais ucranianos, em troca da paz na Guerra
da Ucrânia. Uma manobra, tipicamente imperialista, de obter estoques colossais
de minerais raros, para abastecer as máquinas de guerra dessas superpotências
por anos. De igual forma, é possível perceber a ascensão de uma China cada vez
mais assertiva no seu firme propósito de renacionalizar forçosamente a ilha de
Taiwan, que é o maior expoente tecnológico de semicondutores do mundo.
Tudo isso está conectado,
servindo de objetivo e de motivação para potencializar a corrida armamentista
da IA, como se um ciclo vicioso fosse. A suposta IAG pode ser a solução de
muitos problemas que assolam a humanidade, tais como a fome, o aquecimento
global, as guerras e a necessidade de efetivar a transição da matriz energética à base de combustíveis fósseis para a energia verde.
No entanto, essa forma de
superinteligência inorgânica também pode ser concebida sem qualquer controle
eficaz do ser humano sobre suas ações, representando, pois, um risco
existencial grave para a humanidade.
Ressalta-se, por oportuno,
que a humanidade nunca coabitou o planeta com uma espécie de inteligência
superior à sua. Hipótese essa que levanta questões alarmantes acerca da
possibilidade de uma eventual IAG atuar no sentido de subjugar a humanidade,
tal qual os seres humanos fizeram com todos os outros seres vivos do planeta.
Destaca-se, por oportuno,
que os humanos dominam o mundo não porque são os mais fortes, mas porque são os
mais inteligentes. Essa é uma condição que pode mudar a qualquer momento, com a
ascensão de uma superinteligência artificial.
Dito isso, constata-se que
o surgimento de uma IAG é, por si só, um enorme risco iminente em escala
global, sobretudo considerando a possibilidade de uma ou várias superpotências
lograrem o perfeito alinhamento estatal da sua programação.
Por todo o exposto,
emergem dois possíveis cenários assustadores: 1) surge uma IAG autônoma e sem
controle humano algum, apta a realizar façanhas sobrenaturais e 2) surge uma
IAG muito poderosa e totalmente subjugada ao comando de uma superpotência, cujas
pretensões para seu uso são claramente imperialistas.
Esses são, decerto,
prognósticos sombrios e preocupantes. Todavia, há outrossim a possibilidade de
uma IAG jamais surgir nos termos distópicos esperados. Tudo é possível, mas,
nem por isso, pode ser ignorado, sob pena de o pior cenário acontecer, acarretando
consequências irreversíveis para vítimas despreparadas.
Como condição agravante à
supramencionada, é de se considerar que há uma onda ultrarradical nacionalista
a se espalhar pelo ideário político e social das nações, em especial, no seio
das democracias ocidentais. Esse fenômeno opera agravando a polarização
ideológica e, com isso, também a segregação de minorias étnicas. Isto é, trata-se
da receita certa para ocasionar maior incidência de conflitos armados no âmago
desses povos.
Nesse cenário desordenado,
as redes sociais digitais encontram um solo fecundo, para amplificar as
tensões, inclusive, empregando a IA no sentido de reforçar bolhas ideológicas, que
melhor representem os interesses de suas corporações controladoras.
Sendo assim, o sucesso
faraônico das plataformas digitais, como fonte informativa e alternativa ao mainstream,
serve de porta de entrada para a manipulação algorítmica do consciente coletivo
e, por conseguinte, representa substancial risco à formação da opinião pública
e ao próprio processo democrático.
Exatamente por isso, se
faz premente a necessidade de regulamentar em todo o mundo a criação,
desenvolvimento e implementação de tecnologias fundamentadas em IA.
Nessa toada, foi observado
que as superpotências têm editado normas deliberadamente vagas e superficiais,
de modo que não representem sombra de ameaça ao progresso tecnológico obstinado
de suas indústrias de IA.
Em contrapartida, países como
o Brasil, inspirados no exemplo precavido da União Europeia, buscam sedimentar
um arcabouço legislativo sólido e minucioso, dotado de instrumentos coercitivos
aptos a concretizar os parâmetros traçados no marco regulatório.
Tal medida ostenta
aspectos ambivalentes, que podem representar a salvaguarda necessária aos
princípios fundamentais de Estado, tais como a Soberania e a Segurança
Nacional, mas também tendem a refrear a inovação tecnológica em seu amplo
fluxo, dadas as amarras típicas do intervencionismo fiscalizatório estatal.
Assim, vê-se satisfeito o propósito
do presente ensaio acadêmico. Visto que foi possível abranger os principais
pontos relevantes para o amplo esclarecimento do papel da IA na era global
digitalizada, considerando os interesses corporativos subjacentes, bem como os
riscos deles decorrentes.
Finalmente, há que se
reconhecer que as perspectivas não são majoritariamente positivas, acerca do
panorama que aos poucos se avizinha no horizonte.
Os conflitos
internacionais em curso já apresentam padrões típicos dos momentos que precederam
as duas Guerras Mundiais. O que, logicamente, conduz ao provável irrompimento
da Terceira Grande Guerra, desta vez, com padrões tecnológicos disruptivos e
sem precedentes, inclusive, com a possível ascensão concomitante de uma
superinteligência artificial.
Exatamente por isso, o presente
estudo dedicou-se, precipuamente, ao deslinde tanto das nuances tecnológicas
peculiares à IA, quanto ao atual contexto geopolítico conturbado, em cujo cerne
se define o seu desenvolvimento tecnológico claramente engajado, sob o alinhamento
de propósitos ambiciosos, que transcendem os meros objetivos de mercado.
Convenientemente, o Brasil
encontra-se isolado geograficamente e ideologicamente das superpotências. De
sorte que este país não parece atender aos requisitos aptos a fazerem dele um
alvo geopolítico prioritário, no âmago dessa disputa hegemônica.
Na qualidade de
coadjuvante geopolítico pacífico, felizmente, esta nação optou por seguir o
exemplo cauteloso do velho continente europeu, editando inúmeras normas
reguladoras do ciberespaço e de tecnologias disruptivas com ele interativas,
para cercar o ordenamento pátrio da maior segurança jurídica, política e social
possível.
Essas notáveis cautelas,
conjugadas à exuberante abundância de recursos naturais, elevam o Brasil à
condição de um importante player do mercado internacional de commodities,
cuja parceria se revela objeto de disputa entre as superpotências, particularmente
no contexto de uma guerra comercial já em curso.
Contudo, impende à nação
brasileira conduzir-se sob uma política sólida de não alinhamento a quaisquer
dos lados, de sorte que não sejam provocadas possíveis retaliações do seu
eventual bloco antagônico.
É de se esperar que, a
semelhança do que ocorreu na primeira Guerra Fria, nações menos afortunadas do
Sul Global sejam justamente as primeiras a experimentarem conflitos armados,
deflagrados por influência das superpotências.
Essa já conhecida dinâmica
de guerras por procuração servirá de campo experimental para testes de ataques
cibernéticos de toda sorte. A ocasião perfeita para explorar todas as
capacidades algorítmicas de ferramentas baseadas em IA, em aplicações tais como
vigilância, desinformação e influência da população adversária. Um autêntico
“salve-se quem puder” no âmbito do Terceiro Mundo.
Finalmente, reconhece-se
que o Brasil, acertadamente, deu os dois primeiros de três passos na direção
certa: 1) identificou o real problema jurídico, político e social que as
ferramentas de IA representam para sua nação, especialmente diante da moderna
globalização digitalizada e 2) deu início ao processo legislativo orientado à
edição de normas robustas e inspiradas no cauteloso exemplo europeu.
Agora, resta o terceiro e
mais importante dos passos, que é proceder ao sancionamento dos diplomas
legais, notadamente o Marco Regulatório da IA, assegurando sua rigorosa
aplicação por um Judiciário imparcial, vigilante e contundente nas suas
decisões.
AGÊNCIA
LUSA, BCE. Trump ameaça tirar EUA da NATO se aliados não pagarem mais pela
defesa. CNN Portugal, Lisboa, 8 de dezembro de 2024. Disponível em: https://cnnportugal.iol.pt/donald-trump/nato/trump-ameaca-tirar-eua-da-nato-se-aliados-nao-pagarem-mais-pela-defesa/20241208/6755ba50d34ea1acf2719267. Acesso em: 29 mar.
2025.
AGÊNCIA O GLOBO. É o fim da Lei de Moore?
Inteligência artificial como a do ChatGPT desafia limites. Pequenas
Empresas e Grandes Negócios, Rio de Janeiro, 8 de fevereiro de 2023. Disponível
em: https://revistapegn.globo.com/tecnologia/noticia/2023/02/e-o-fim-da-lei-de-moore-inteligencia-artificial-como-a-do-chatgpt-desafia-limites.ghtml. Acesso em: 18 mar.
2025.
BALAGO,
Rafael. Tarifaço de Trump entra em vigor e põe em xeque uma das maiores
parcerias comerciais da história. Exame, São Paulo, 9 de abril de 2025.
Mundo. Disponível em: https://exame.com/mundo/tarifaco-de-trump-entra-em-vigor-e-poe-em-xeque-uma-das-maiores-parcerias-comerciais-da-historia/. Acesso em: 13 abr.
2025.
BALDISSERA, Olívia. Os 3 tipos de
Inteligência Artificial. Pontifícia Universidade Católica do Paraná,
Curitiba, 22 de fevereiro de 2023. Disponível em: https://posdigital.pucpr.br/blog/tipos-de-inteligencia-artificial. Acesso em 29 mar.
2025.
BARBOSA, Mafalda Miranda et al. (coord.). Direito
digital e inteligência artificial: diálogos entre Brasil e Europa. 1.
ed. Indaiatuba, SP: Foco, 2021. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 05 mar.
2025.
BIZZOTTO,
Pedro Maia. Regulação de Opacidade Algorítmica: a falta de transparência
em decisões automatizadas enquanto problema regulatório. Fundação Getúlio
Vargas. Rio de Janeiro. Dezembro de 2023. Disponível em: https://repositorio.fgv.br/server/api/core/bitstreams/e061110c-3bf2-486c-a60c-d4836bc6a93f/content. Acesso em: 11 mar.
2025.
BOSTROM,
Nick. Nick Bostrom on artificial intelligence. Universidade de Oxford,
Oxford, 24 de setembro de 2014. Disponível em: https://www.oxfordmartin.ox.ac.uk/blog/nick-bostrom-on-artificial-intelligence. Acesso em: 22 mar.
2025.
BRASIL.
Ministério da Cultura. Senado Federal aprova marco regulatório da
inteligência artificial. Ministério da Cultura, Distrito Federal, 10 de
dezembro de 2024. Disponível em: https://www.gov.br/cultura/pt-br/assuntos/noticias/senado-federal-aprova-marco-regulatorio-da-inteligencia-artificial. Acesso em: 14 abr.
2025.
BRASIL.
Projeto de Lei nº 2.338, de 2023. Dispõe sobre o uso da Inteligência
Artificial. Senado Federal, Distrito Federal, 3 de maio de 2023. Disponível
em: https://legis.senado.leg.br/sdleg-getter/documento?dm=9347593&ts=1742240889254&disposition=inline. Acesso em: 14 abr.
2025.
CARVAJAL, Nikki e LIU,
Juliana. EUA endurecem restrições à exportação de chips de IA para China e
Rússia. CNN Brasil, São Paulo, 13 de janeiro de 2025. Economia. Disponível
em: https://www.cnnbrasil.com.br/economia/macroeconomia/eua-endurecem-restricoes-a-exportacao-de-chips-de-ia-para-china-e-russia/. Acesso em: 14 abr.
2025.
COMISSÃO
EUROPEIA. Ethics Guidelines for Trustworthy AI. Comissão Europeia,
Bruxelas, 8 de abril de 2019. Disponível em: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. Acesso em: 13 abr.
2025.
CONSELHO
DA UNIÃO EUROPEIA. Inteligência Artificial. Conselho da União Europeia,
Bruxelas, 5 de fevereiro de 2025. Disponível em: https://www.consilium.europa.eu/pt/policies/artificial-intelligence/#:~:text=Em%20abril%20de%202021%2C%20a,Comiss%C3%A3o%20e%20dos%20Estados%2DMembros. Acesso em: 13 abr. 2025.
DARTMOUTH COLLEGE. Artificial
Intelligence: The term “AI” coined at Dartmouth. [s.d.] Disponível em: https://home.dartmouth.edu/about/artificial-intelligence-ai-coined-dartmouth?form=MG0AV3&form=MG0AV3. Acesso em: 04 mar.
2025.
DE
MELO, João Ozorio. Para Suprema Corte dos EUA, segurança nacional se
sobrepõe à liberdade no caso TikTok. Consultório Jurídico, São Paulo, 19 de
janeiro de 2025. Disponível em: https://www.conjur.com.br/2025-jan-19/para-suprema-corte-dos-eua-seguranca-nacional-se-sobrepoe-a-liberdade-no-caso-tiktok/. Acesso em: 13 abr.
2025.
DIAS,
Ana Francisca Pinto et al.; GUIMARÃES, João Alexandre Silva Alves; ALVES,
Rodrigo Vitorino Souza (org.). Os direitos humanos e a ética na era da
inteligência artificial. Indaiatuba, SP: Foco, 2023. E-book.
Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 18 mar.
2025.
ENGENHARIA
COMPARTILHADA. Não é filme: inteligência artificial sai do controle dos
criadores e põe Japão em alerta. Engenharia Compartilhada, São Paulo, 13 de
setembro de 2024. Disponível em: https://www.engenhariacompartilhada.com.br/noticia/exibir/8379313_nao-e-filme-inteligencia-artificial-sai-do-controle-dos-criadores-e-poe-japao-em-alerta. Acesso em: 21 mar.
2025.
ESTADOS
UNIDOS. AI Bill of Rights. The White House, Washington, 4 de outubro de
2022. Disponível em: https://bidenwhitehouse.archives.gov/ostp/ai-bill-of-rights/. Acesso em: 13 abr.
2025.
FAGUNDES,
Jorge Alexandre. Dados pessoais, o novo fator econômico da era moderna.
Jusbrasil, Salvador, 16 de maio de 2023. Disponível em: https://www.jusbrasil.com.br/artigos/dados-pessoais-o-novo-fator-economico-da-era-moderna/1835750379. Acesso em: 31 mar.
2025.
FORÇA AÉREA. Chineses estão construindo
ilhas militares no Mar da China Meridional. Força Aérea, São Paulo, 23 de
março de 2022. Disponível em: https://forcaaerea.com.br/chineses-estao-construindo-ilhas-militares-no-mar-da-china-meridional/. Acesso em: 30 mar.
2025.
FRAZÃO,
Ana. Transparência de algoritmos x segredo de empresa. Professora Ana
Frazão, Distrito Federal, 9 de junho de 2021. Disponível em: https://www.professoraanafrazao.com.br/files/publicacoes/2021-06-09-Transparencia_de_algoritmos_x_segredo_de_empresa_As_controversias_a_respeito_das_decisoes_judiciais_trabalhistas_que_determinam_a_realizacao_de_pericia_no_algoritmo_da_Uber.pdf?form=MG0AV3&form=MG0AV3. Acesso em: 06 mar.
2025.
FUNDAÇÃO
FHC. Futuribles - Edição 03. Fundação FHC, São Paulo, setembro de 2020.
Disponível em: https://fundacaofhc.org.br/arquivos/Futuribles2/Ed03/Futuribles_PT_ED_03_Completo.pdf. Acesso em: 06 abr.
2025.
GABRIEL, Iason. Inteligência Artificial,
Valores e Alinhamento. Minds & Machines 30. Springer
Nature Link, Heidelberg, 01 de outubro de 2020. Disponível em: https://link.springer.com/article/10.1007/s11023-020-09539-2. Acesso em: 04 abr.
2025.
GALAVERNA,
Camila. Nova IA dos Criadores do ChatGPT Supera Humanos. Techponto,
Campina Grande, 24 de setembro de 2024. Disponível em: https://techponto.com.br/nova-ia-dos-criadores-do-chatgpt/. Acesso em: 18 mar.
2025.
GRIJELMO,
Álex. A arte de manipular multidões. Técnicas para mentir e controlar as
opiniões se aperfeiçoaram na era da pós-verdade. El País, Madri, 28 de agosto
de 2017. Disponível em: https://brasil.elpais.com/brasil/2017/08/22/opinion/1503395946_889112.html. Acesso em: 06 abr. 2025.
INGRAM, David e HORVATH, Bruna. How
Elon Musk is boosting far-right politics across the globe. NBC News, Nova York, 16
de fevereiro de 2025. Disponível em: https://www.nbcnews.com/tech/elon-musk/elon-musk-boosting-far-right-politics-globe-rcna189505. Acesso em: 05 abr. 2025.
KHARPAL, Arjun. Stephen Hawking
says AI could be 'worst event' in civilization. CNBC, Englewood Cliffs,
6 de novembro de 2017. Disponível em: https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.html. Acesso em: 18 mar.
2025.
KOKOTAJLO, Daniel; ALEXANDER,
Scott; LARSEN, Thomas; LIFLAND, Eli; DEAN, Romeo. AI 2027. 3 abr. 2025.
Disponível em: https://ai-2027.com. Acesso em: 27 mai.
2025.
LANTYER,
Victor Habib. Atribuição de personalidade jurídica às inteligências
artificiais. Migalhas, São Paulo, 26 de dezembro de 2023. Disponível em: https://www.migalhas.com.br/depeso/399561/atribuicao-de-personalidade-juridica-as-inteligencias-artificiais. Acesso em: 20 abr.
2025.
MAGRAMO,
Kathleen. Entenda o conflito no Mar do Sul da China e porque ele aumenta a
tensão com as Filipinas. CNN Brasil, São Paulo, 29 de setembro de 2023.
Disponível em: https://www.cnnbrasil.com.br/internacional/entenda-o-conflito-no-mar-do-sul-da-china-e-por-que-ele-aumenta-a-tensao-com-as-filipinas/. Acesso em: 30 mar.
2025.
MCCARTHY,
Simone. China diz que exercícios militares ao redor de Taiwan são aviso
severo. CNN Brasil, São Paulo, 31 de março de 2025. Disponível em: https://www.cnnbrasil.com.br/internacional/china-diz-que-exercicios-militares-ao-redor-de-taiwan-sao-aviso-severo/. Acesso em: 07 abr.
2025.
MEREDITH,
Sam. Facebook-Cambridge Analytica: A timeline of the data hijacking scandal.
CNBC, Englewood Cliffs, 10 de abril de 2018. Disponível em: https://www.cnbc.com/2018/04/10/facebook-cambridge-analytica-a-timeline-of-the-data-hijacking-scandal.html. Acesso em: 05 abr.
2025.
NOGUEIRA,
Luiz. A ameaça das armas controladas por inteligência artificial pode ser
real. Olhar Digital, São Paulo, 15 de outubro de 2020. Disponível em: https://olhardigital.com.br/2020/10/15/noticias/a-ameaca-das-armas-controladas-por-inteligencia-artificial-pode-ser-real/. Acesso em: 18 abr.
2025.
ONODY,
Roberto. Teste de Turing e Inteligência Artificial. Instituto de Física
de São Carlos, São Paulo, 28 de setembro de 2021. Notícias. Disponível em: https://www2.ifsc.usp.br/portal-ifsc/teste-de-turing-e-inteligencia-artificial/. Acesso em: 23 mar.
2025.
PACETE,
Luiz Gustavo. China na velocidade da IA. Forbes, São Paulo, 25 de
dezembro de 2023. Disponível em: https://forbes.com.br/forbes-tech/2023/12/china-na-velocidade-da-i-a/. Acesso em: 23 mar.
2025.
PACETE,
Luiz Gustavo. O que diz a carta assinada por Musk e milhares contra
experimentos de IA? Forbes Brasil, São Paulo, 30 de março de 2023.
Disponível em: https://forbes.com.br/forbes-tech/2023/03/o-que-diz-a-carta-assinada-por-musk-e-milhares-contra-experimentos-de-ia/. Acesso em: 23 mar.
2025.
PERIN, Eduardo Carvalho da Cruz Paixão. Crise
China x Taiwan em 5 pontos. Geopolítica Raiz, 29 de agosto de 2024.
Disponível em: https://geopoliticaraiz.blogspot.com/2024/08/crise-china-x-taiwan-em-5-pontos.html. Acesso em: 30 mar.
2025.
PERIN,
Mônica Azevedo Ribeiro. Inteligência Artificial: riscos reais e desafios
a serem desbravados. Jusbrasil, Salvador, 17 de dezembro de 2024.
Disponível em: https://www.jusbrasil.com.br/artigos/inteligencia-artificial-riscos-reais-e-desafios-a-serem-desbravados/2918516603. Acesso em: 31 mar.
2025.
REDAÇÃO
CNN BRASIL. Musk e Moraes: entenda o embate e o que pode vir à tona. CNN
Brasil, São Paulo, 7 de abril de 2024. Disponível em: https://www.cnnbrasil.com.br/politica/musk-e-moraes-entenda-o-embate-e-o-que-pode-vir-a-tona/. Acesso em: 07 abr.
2025.
REDAÇÃO CNN BRASIL. Reino Unido fala em
corrida armamentista de inteligência artificial. CNN Brasil, São Paulo, 25
de novembro de 2024. Disponível em: https://www.cnnbrasil.com.br/internacional/reino-unido-fala-em-corrida-armamentista-de-inteligencia-artificial/. Acesso em: 23 mar.
2025.
REDAÇÃO
G1. DeepSeek: chip mais barato, autocensura, 'ameaça' aos EUA... veja
perguntas e respostas sobre a IA chinesa. G1, Rio de Janeiro, 29 de janeiro de
2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/29/deepseek-chip-mais-barato-autocensura-ameaca-aos-eua-veja-perguntas-e-respostas-sobre-a-ia-chinesa.ghtml. Acesso em: 04 abr.
2025.
REDAÇÃO G1. Justiça da Romênia anula
eleições presidenciais. G1, Rio de Janeiro, 6 de dezembro de 2024.
Disponível em: https://g1.globo.com/mundo/noticia/2024/12/06/justica-romenia-anula-eleicoes-presidenciais.ghtml. Acesso em: 05 abr.
2025.
REDAÇÃO G1. Países da União Europeia apoiam
plano da Comissão Europeia para rearmamento, diz porta-voz. G1, Rio de
janeiro, 6 de março 2025. Disponível em: https://g1.globo.com/mundo/noticia/2025/03/06/paises-da-uniao-europeia-apoiam-plano-da-comissao-europeia-para-rearmamento-diz-porta-voz.ghtml. Acesso em: 29 mar.
2025.
REDAÇÃO
G1. Trump anunciará investimento de até US$ 500 bilhões em inteligência
artificial. G1, Rio de Janeiro, 21 de janeiro de 2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/21/trump-anunciara-investimento-de-ate-us-500-bilhoes-em-inteligencia-artificial.ghtml. Acesso em: 23 mar.
2025.
REDAÇÃO
VEJA. União Europeia precisa de bilhões para reforçar defesa até 2030,
alerta comissário. Veja, São Paulo, 9 de dezembro de 2024. Disponível em: https://veja.abril.com.br/mundo/uniao-europeia-precisa-de-bilhoes-para-reforcar-defesa-ate-2030-alerta-comissario/. Acesso em: 29 mar.
2025.
RIBEIRO,
Marcelo. Novo “ChatGPT” mentiu e manipulou para não ser desligado.
HypeScience, São Paulo, 9 dez. 2024. Disponível em: https://hypescience.com/novo-chatgpt-mentiu-e-manipulou-para-nao-ser-desligado/. Acesso em: 27 mai.
2025.
SANCHES,
Mariana. As riquezas no subsolo da Groenlândia que explicam interesse de
Trump e China pela ilha. G1, Rio de Janeiro, 9 de janeiro de 2025.
Economia. Disponível em: https://g1.globo.com/economia/noticia/2025/01/09/as-riquezas-no-subsolo-da-groenlandia-que-explicam-interesse-de-trump-e-china-pela-ilha.ghtml. Acesso em: 1º abr.
2025.
SATIRA,
Roberta. O maior escândalo de vazamento de dados: o caso Facebook-Cambridge
Analytica e a importância da Lei Geral de Proteção de Dados Pessoais (LGPD) no
Brasil. Jusbrasil, Salvador, 11 de julho de 2021. Disponível em: https://www.jusbrasil.com.br/artigos/o-maior-escandalo-de-vazamento-de-dados-o-caso-facebook-cambridge-analytica-e-a-importancia-da-lei-geral-de-protecao-de-dados-pessoais-lgpd-no-brasil/1244600777. Acesso em: 05 abr.
2025.
SILVA,
Anne. ChatGPT: Fazer pesquisas através de IA é até 30 vezes pior para o
planeta. Revista Fórum, São Paulo, 23 de setembro de 2024. Disponível em: https://revistaforum.com.br/meioambiente/2024/9/23/chatgpt-fazer-pesquisas-atraves-de-ia-ate-30-vezes-pior-para-planeta-166077.html. Acesso em: 18 abr.
2025.
TIDEY, Alice. Von der Leyen apresenta pacote
de defesa de 800 mil milhões de euros antes da cimeira dos líderes da UE.
Euro News, Lyon, 4 de março de 2025. Disponível em: https://pt.euronews.com/my-europe/2025/03/04/von-der-leyen-apresenta-pacote-de-defesa-de-800-mil-milhoes-de-euros-antes-da-cimeira-dos-. Acesso em: 07 abr. 2025.
UNESCO. Recommendation on the
Ethics of Artificial Intelligence. Unesco, Paris, 16 de maio de 2023. Disponível
em: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence. Acesso em: 13 abr.
2025.
WIKIPÉDIA.
Capitalismo de vigilância. Wikipédia, São Francisco, 29 de janeiro de
2025. Disponível em: https://pt.wikipedia.org/wiki/Capitalismo_de_vigil%C3%A2ncia. Acesso em: 05 abr.
2025.
WIKIPÉDIA.
Guerra do Pacífico. Wikipédia, São Francisco, 19 de julho de 2024.
Disponível em: https://pt.wikipedia.org/wiki/Guerra_do_Pac%C3%ADfico. Acesso em: 06 abr.
2025.
WIKIPÉDIA.
Isaac Asimov. Wikipédia, São Francisco, 1º de fevereiro de 1025.
Disponível em: https://pt.wikipedia.org/wiki/Isaac_Asimov. Acesso em: 17 abr.
2025.
WIKIPÉDIA.
Leis da Robótica. Wikipédia, São Francisco, 22 de dezembro de 1024.
Disponível em: https://pt.wikipedia.org/wiki/Leis_da_Rob%C3%B3tica. Acesso em: 17 abr.
2025.
WIKIPÉDIA.
Nick Bostrom. Disponível em: https://pt.wikipedia.org/wiki/Nick_Bostrom. Wikipédia, São
Francisco, 26 de setembro de 2024. Acesso em: 04 abr. 2025.
WIKIPÉDIA.
Sistema de crédito social. Wikipédia, São Francisco, 2 de janeiro de
2025. Disponível em: https://pt.wikipedia.org/wiki/Sistema_de_cr%C3%A9dito_social. Acesso em: 06 abr.
2025.
[1] ONODY, Roberto. Teste de Turing e
Inteligência Artificial. Instituto de Física de São Carlos, São Paulo, 28
de setembro de 2021. Notícias. Disponível em: https://www2.ifsc.usp.br/portal-ifsc/teste-de-turing-e-inteligencia-artificial/.
Acesso em: 23 mar. 2025.
[2] DARTMOUTH COLLEGE. Artificial
Intelligence: The term “AI” coined at Dartmouth. [s.d.] Disponível
em: https://home.dartmouth.edu/about/artificial-intelligence-ai-coined-dartmouth?form=MG0AV3&form=MG0AV3.
Acesso em: 04 mar. 2025.
[3]
BARBOSA, Mafalda Miranda et al. (coord.). Direito
digital e inteligência artificial: diálogos entre Brasil e Europa. 1.
ed. Indaiatuba, SP: Foco, 2021. E-book. Disponível em: https://plataforma.bvirtual.com.br.
Acesso em: 05 mar. 2025.
[4] BARBOSA, Mafalda Miranda et al. (coord.). Direito
digital e inteligência artificial: diálogos entre Brasil e Europa. 1.
ed. Indaiatuba, SP: Foco, 2021. E-book. Disponível em: https://plataforma.bvirtual.com.br.
Acesso em: 05 mar. 2025.
[5] BIZZOTTO, Pedro Maia. Regulação de
Opacidade Algorítmica: a falta de transparência em decisões automatizadas
enquanto problema regulatório. Fundação Getúlio Vargas. Rio de Janeiro.
Dezembro de 2023. Disponível em: https://repositorio.fgv.br/server/api/core/bitstreams/e061110c-3bf2-486c-a60c-d4836bc6a93f/content.
Acesso em: 11 mar. 2025.
[6] BIZZOTTO, Pedro Maia. Regulação de
Opacidade Algorítmica: a falta de transparência em decisões automatizadas
enquanto problema regulatório. Fundação Getúlio Vargas. Rio de Janeiro.
Dezembro de 2023. Disponível em: https://repositorio.fgv.br/server/api/core/bitstreams/e061110c-3bf2-486c-a60c-d4836bc6a93f/content.
Acessado em: 11 mar. 2025.
[7] FRAZÃO, Ana. Transparência de algoritmos
x segredo de empresa. Professora Ana Frazão, Distrito Federal, 9 de junho
de 2021. Disponível em: https://www.professoraanafrazao.com.br/files/publicacoes/2021-06-09-Transparencia_de_algoritmos_x_segredo_de_empresa_As_controversias_a_respeito_das_decisoes_judiciais_trabalhistas_que_determinam_a_realizacao_de_pericia_no_algoritmo_da_Uber.pdf?form=MG0AV3&form=MG0AV3.
Acesso em: 06 mar. 2025.
[8] FAGUNDES, Jorge Alexandre. Dados
pessoais, o novo fator econômico da era moderna. Jusbrasil, Salvador, 16 de
maio de 2023. Disponível em: https://www.jusbrasil.com.br/artigos/dados-pessoais-o-novo-fator-economico-da-era-moderna/1835750379.
Acesso em: 31 mar. 2025.
[9] PERIN, Mônica Azevedo Ribeiro. Inteligência
Artificial: riscos reais e desafios a serem desbravados. Jusbrasil,
Salvador, 17 de dezembro de 2024. Disponível em: https://www.jusbrasil.com.br/artigos/inteligencia-artificial-riscos-reais-e-desafios-a-serem-desbravados/2918516603.
Acesso em: 31 mar. 2025.
[10] PERIN, Mônica Azevedo Ribeiro. Inteligência
Artificial: riscos reais e desafios a serem desbravados. Jusbrasil,
Salvador, 17 de dezembro de 2024. Disponível em: https://www.jusbrasil.com.br/artigos/inteligencia-artificial-riscos-reais-e-desafios-a-serem-desbravados/2918516603.
Acesso em: 31 mar. 2025.
[11] SILVA, Anne. ChatGPT: Fazer
pesquisas através de IA é até 30 vezes pior para o planeta. Revista Fórum, São
Paulo, 23 de setembro de 2024. Disponível em: https://revistaforum.com.br/meioambiente/2024/9/23/chatgpt-fazer-pesquisas-atraves-de-ia-ate-30-vezes-pior-para-planeta-166077.html.
Acesso em: 18 abr. 2025.
[12] SILVA, Anne. ChatGPT: Fazer
pesquisas através de IA é até 30 vezes pior para o planeta. Revista Fórum, São
Paulo, 23 de setembro de 2024. Disponível em: https://revistaforum.com.br/meioambiente/2024/9/23/chatgpt-fazer-pesquisas-atraves-de-ia-ate-30-vezes-pior-para-planeta-166077.html.
Acesso em: 18 abr. 2025.
[13] PACETE, Luiz Gustavo. O que diz a
carta assinada por Musk e milhares contra experimentos de IA? Forbes
Brasil, São Paulo, 30 de março de 2023. Disponível em: https://forbes.com.br/forbes-tech/2023/03/o-que-diz-a-carta-assinada-por-musk-e-milhares-contra-experimentos-de-ia/.
Acesso em: 23 mar. 2025.
[14] KHARPAL, Arjun. Stephen Hawking says AI could be 'worst event' in
civilization. CNBC, Englewood Cliffs, 6 de novembro de 2017. Disponível
em: https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.html.
Acesso em: 18 mar. 2025.
[15]
AGÊNCIA O GLOBO. É o fim da Lei de Moore? Inteligência artificial como a do
ChatGPT desafia limites. Pequenas Empresas e Grandes Negócios, Rio de
Janeiro, 8 de fevereiro de 2023. Disponível em: https://revistapegn.globo.com/tecnologia/noticia/2023/02/e-o-fim-da-lei-de-moore-inteligencia-artificial-como-a-do-chatgpt-desafia-limites.ghtml.
Acesso em: 18 mar. 2025.
[16]
GALAVERNA, Camila. Nova IA dos Criadores do ChatGPT Supera Humanos. Techponto,
Campina Grande, 24 de setembro de 2024. Disponível em: https://techponto.com.br/nova-ia-dos-criadores-do-chatgpt/.
Acesso em: 18 mar. 2025.
[17]
BALDISSERA, Olívia. Os 3 tipos de Inteligência Artificial. Pontifícia
Universidade Católica do Paraná, Curitiba, 22 de fevereiro de 2023. Disponível
em: https://posdigital.pucpr.br/blog/tipos-de-inteligencia-artificial.
Acesso em 29 mar. 2025.
[18] WIKIPÉDIA. Nick Bostrom. Disponível
em: https://pt.wikipedia.org/wiki/Nick_Bostrom.
Wikipédia, São Francisco, 26 de setembro de 2024. Acesso em: 04 abr. 2025.
[19] DIAS, Ana Francisca Pinto et al.;
GUIMARÃES, João Alexandre Silva Alves; ALVES, Rodrigo Vitorino Souza
(org.). Os direitos humanos e a ética na era da inteligência artificial.
Indaiatuba, SP: Foco, 2023. E-book. Disponível em: https://plataforma.bvirtual.com.br.
Acesso em: 18 mar. 2025.
[20] ENGENHARIA COMPARTILHADA. Não é filme: inteligência
artificial sai do controle dos criadores e põe Japão em alerta. Engenharia
Compartilhada, São Paulo, 13 de setembro de 2024. Disponível em: https://www.engenhariacompartilhada.com.br/noticia/exibir/8379313_nao-e-filme-inteligencia-artificial-sai-do-controle-dos-criadores-e-poe-japao-em-alerta.
Acesso em: 21 mar. 2025.
[21] BOSTROM, Nick. Nick Bostrom on
artificial intelligence. Universidade de Oxford, Oxford, 24 de setembro de
2014. Disponível em: https://www.oxfordmartin.ox.ac.uk/blog/nick-bostrom-on-artificial-intelligence.
Acesso em: 22 mar. 2025.
[22]
LANTYER, Victor Habib. Atribuição de personalidade jurídica às inteligências
artificiais. Migalhas, São Paulo, 26 de dezembro de 2023. Disponível em: https://www.migalhas.com.br/depeso/399561/atribuicao-de-personalidade-juridica-as-inteligencias-artificiais.
Acesso em: 20 abr. 2025.
[23]
REDAÇÃO G1. Trump anunciará investimento de até US$ 500 bilhões em
inteligência artificial. G1, Rio de Janeiro, 21 de janeiro de 2025. Disponível
em: https://g1.globo.com/tecnologia/noticia/2025/01/21/trump-anunciara-investimento-de-ate-us-500-bilhoes-em-inteligencia-artificial.ghtml.
Acesso em: 23 mar. 2025.
[24]
PACETE, Luiz Gustavo. China na velocidade da IA. Forbes, São Paulo, 25
de dezembro de 2023. Disponível em: https://forbes.com.br/forbes-tech/2023/12/china-na-velocidade-da-i-a/.
Acesso em: 23 mar. 2025.
[25]
REDAÇÃO CNN BRASIL. Reino Unido fala em corrida armamentista de inteligência
artificial. CNN Brasil, São Paulo, 25 de novembro de 2024. Disponível em: https://www.cnnbrasil.com.br/internacional/reino-unido-fala-em-corrida-armamentista-de-inteligencia-artificial/.
Acesso em: 23 mar. 2025.
[26] AGÊNCIA LUSA, BCE. Trump ameaça tirar
EUA da NATO se aliados não pagarem mais pela defesa. CNN Portugal, Lisboa,
8 de dezembro de 2024. Disponível em: https://cnnportugal.iol.pt/donald-trump/nato/trump-ameaca-tirar-eua-da-nato-se-aliados-nao-pagarem-mais-pela-defesa/20241208/6755ba50d34ea1acf2719267.
Acesso em: 29 mar. 2025.
[27]
SANCHES,
Mariana. As riquezas no subsolo da Groenlândia que explicam interesse de
Trump e China pela ilha. G1, Rio de Janeiro, 9 de janeiro de 2025.
Economia. Disponível em: https://g1.globo.com/economia/noticia/2025/01/09/as-riquezas-no-subsolo-da-groenlandia-que-explicam-interesse-de-trump-e-china-pela-ilha.ghtml.
Acesso em: 1º abr. 2025.
[28] REDAÇÃO G1. Países da União Europeia
apoiam plano da Comissão Europeia para rearmamento, diz porta-voz. G1, Rio
de janeiro, 6 de março 2025. Disponível em: https://g1.globo.com/mundo/noticia/2025/03/06/paises-da-uniao-europeia-apoiam-plano-da-comissao-europeia-para-rearmamento-diz-porta-voz.ghtml.
Acesso em: 29 mar. 2025.
[29]
REDAÇÃO VEJA. União Europeia precisa de bilhões para reforçar defesa até
2030, alerta comissário. Veja, São Paulo, 9 de dezembro de 2024. Disponível
em: https://veja.abril.com.br/mundo/uniao-europeia-precisa-de-bilhoes-para-reforcar-defesa-ate-2030-alerta-comissario/.
Acesso em: 29 mar. 2025.
[30]
TIDEY, Alice. Von der Leyen apresenta pacote de defesa de 800 mil milhões de
euros antes da cimeira dos líderes da UE. Euro News, Lyon, 4 de março de 2025.
Disponível em: https://pt.euronews.com/my-europe/2025/03/04/von-der-leyen-apresenta-pacote-de-defesa-de-800-mil-milhoes-de-euros-antes-da-cimeira-dos-.
Acesso em: 07 abr. 2025.
[31]
MAGRAMO, Kathleen. Entenda o conflito no Mar do Sul da China e porque ele
aumenta a tensão com as Filipinas. CNN Brasil, São Paulo, 29 de setembro de
2023. Disponível em: https://www.cnnbrasil.com.br/internacional/entenda-o-conflito-no-mar-do-sul-da-china-e-por-que-ele-aumenta-a-tensao-com-as-filipinas/.
Acesso em: 30 mar. 2025.
[32]
FORÇA AÉREA. Chineses estão construindo ilhas militares no Mar da China
Meridional. Força Aérea, São Paulo, 23 de março de 2022. Disponível em: https://forcaaerea.com.br/chineses-estao-construindo-ilhas-militares-no-mar-da-china-meridional/.
Acesso em: 30 mar. 2025.
[33]
MCCARTHY, Simone. China diz que exercícios militares ao redor de Taiwan são
aviso severo. CNN Brasil, São Paulo, 31 de março de 2025. Disponível em: https://www.cnnbrasil.com.br/internacional/china-diz-que-exercicios-militares-ao-redor-de-taiwan-sao-aviso-severo/.
Acesso em: 07 abr. 2025.
[34]
PERIN, Eduardo Carvalho da Cruz Paixão. Crise China x Taiwan em 5 pontos.
Geopolítica Raiz, 29 de agosto de 2024. Disponível em: https://geopoliticaraiz.blogspot.com/2024/08/crise-china-x-taiwan-em-5-pontos.html.
Acesso em: 30 mar. 2025.
[35] CARVAJAL, Nikki e LIU, Juliana. EUA
endurecem restrições à exportação de chips de IA para China e Rússia. CNN
Brasil, São Paulo, 13 de janeiro de 2025. Economia. Disponível em: https://www.cnnbrasil.com.br/economia/macroeconomia/eua-endurecem-restricoes-a-exportacao-de-chips-de-ia-para-china-e-russia/.
Acesso em: 14 abr. 2025.
[36]
MEREDITH, Sam. Facebook-Cambridge Analytica: A timeline of the data
hijacking scandal. CNBC, Englewood Cliffs, 10 de abril de 2018. Disponível
em: https://www.cnbc.com/2018/04/10/facebook-cambridge-analytica-a-timeline-of-the-data-hijacking-scandal.html.
Acesso em: 05 abr. 2025.
[37]
SATIRA, Roberta. O maior escândalo de vazamento de dados: o caso
Facebook-Cambridge Analytica e a importância da Lei Geral de Proteção de Dados
Pessoais (LGPD) no Brasil. Jusbrasil, Salvador, 11 de julho de 2021. Disponível
em: https://www.jusbrasil.com.br/artigos/o-maior-escandalo-de-vazamento-de-dados-o-caso-facebook-cambridge-analytica-e-a-importancia-da-lei-geral-de-protecao-de-dados-pessoais-lgpd-no-brasil/1244600777.
Acesso em: 05 abr. 2025.
[38]
GABRIEL, Iason. Inteligência Artificial, Valores e Alinhamento. Minds
& Machines 30. Springer Nature Link, Heidelberg, 01 de outubro de
2020. Disponível em: https://link.springer.com/article/10.1007/s11023-020-09539-2.
Acesso em: 04 abr. 2025.
[39]
REDAÇÃO G1. DeepSeek: chip mais barato, autocensura, 'ameaça' aos EUA...
veja perguntas e respostas sobre a IA chinesa. G1, Rio de Janeiro, 29 de
janeiro de 2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/29/deepseek-chip-mais-barato-autocensura-ameaca-aos-eua-veja-perguntas-e-respostas-sobre-a-ia-chinesa.ghtml.
Acesso em: 04 abr. 2025.
[40]
REDAÇÃO G1. Justiça da Romênia anula eleições presidenciais. G1, Rio de
Janeiro, 6 de dezembro de 2024. Disponível em: https://g1.globo.com/mundo/noticia/2024/12/06/justica-romenia-anula-eleicoes-presidenciais.ghtml.
Acesso em: 05 abr. 2025.
[41] INGRAM, David e HORVATH, Bruna. How Elon Musk is boosting
far-right politics across the globe. NBC News, Nova York, 16
de fevereiro de 2025. Disponível em: https://www.nbcnews.com/tech/elon-musk/elon-musk-boosting-far-right-politics-globe-rcna189505.
Acesso em: 05 abr. 2025.
[42]
WIKIPÉDIA. Capitalismo de vigilância. Wikipédia, São Francisco, 29 de
janeiro de 2025. Disponível em: https://pt.wikipedia.org/wiki/Capitalismo_de_vigil%C3%A2ncia.
Acesso em: 05 abr. 2025.
[43]
WIKIPÉDIA. Sistema de crédito social. Wikipédia, São Francisco, 2 de
janeiro de 2025. Disponível em: https://pt.wikipedia.org/wiki/Sistema_de_cr%C3%A9dito_social.
Acesso em: 06 abr. 2025.
[44] FUNDAÇÃO FHC. Futuribles - Edição 03.
Fundação FHC, São Paulo, setembro de 2020. Disponível em: https://fundacaofhc.org.br/arquivos/Futuribles2/Ed03/Futuribles_PT_ED_03_Completo.pdf.
Acesso em: 06 abr. 2025.
[45] DE MELO, João Ozorio. Para Suprema Corte
dos EUA, segurança nacional se sobrepõe à liberdade no caso TikTok. Consultório
Jurídico, São Paulo, 19 de janeiro de 2025. Disponível em: https://www.conjur.com.br/2025-jan-19/para-suprema-corte-dos-eua-seguranca-nacional-se-sobrepoe-a-liberdade-no-caso-tiktok/.
Acesso em: 13 abr. 2025.
[46] BALAGO, Rafael. Tarifaço de Trump entra
em vigor e põe em xeque uma das maiores parcerias comerciais da história. Exame,
São Paulo, 9 de abril de 2025. Mundo. Disponível em: https://exame.com/mundo/tarifaco-de-trump-entra-em-vigor-e-poe-em-xeque-uma-das-maiores-parcerias-comerciais-da-historia/.
Acesso em: 13 abr. 2025.
[47] BOSTROM, Nick. Nick Bostrom on
artificial intelligence. Universidade de Oxford, Oxford, 24 de setembro de 2014.
Disponível em: https://www.oxfordmartin.ox.ac.uk/blog/nick-bostrom-on-artificial-intelligence.
Acesso em: 06 abr. 2025.
[48] WIKIPÉDIA. Guerra do Pacífico. Wikipédia,
São Francisco, 19 de julho de 2024. Disponível em: https://pt.wikipedia.org/wiki/Guerra_do_Pac%C3%ADfico.
Acesso em: 06 abr. 2025.
[49] GRIJELMO, Álex. A arte de manipular
multidões. Técnicas para mentir e controlar as opiniões se aperfeiçoaram na
era da pós-verdade. El País, Madri, 28 de agosto de 2017. Disponível em: https://brasil.elpais.com/brasil/2017/08/22/opinion/1503395946_889112.html.
Acesso em: 06 abr. 2025.
[50] RIBEIRO,
Marcelo. Novo “ChatGPT” mentiu e manipulou para não ser desligado.
HypeScience, São Paulo, 9 dez. 2024. Disponível em: https://hypescience.com/novo-chatgpt-mentiu-e-manipulou-para-nao-ser-desligado/.
Acesso em: 27 mai. 2025.
[51] KOKOTAJLO, Daniel; ALEXANDER,
Scott; LARSEN, Thomas; LIFLAND, Eli; DEAN, Romeo. AI 2027.
3 abr. 2025. Disponível em: https://ai-2027.com.
Acesso em: 27 mai. 2025.
[52]
WIKIPÉDIA. Leis da Robótica. Wikipédia, São Francisco, 22 de dezembro de
1024. Disponível em: https://pt.wikipedia.org/wiki/Leis_da_Rob%C3%B3tica.
Acesso em: 17 abr. 2025.
[53] WIKIPÉDIA. Isaac Asimov. Wikipédia,
São Francisco, 1º de fevereiro de 1025. Disponível em: https://pt.wikipedia.org/wiki/Isaac_Asimov.
Acesso em: 17 abr. 2025.
[54] NOGUEIRA, Luiz. A ameaça das armas
controladas por inteligência artificial pode ser real. Olhar Digital, São
Paulo, 15 de outubro de 2020. Disponível em: https://olhardigital.com.br/2020/10/15/noticias/a-ameaca-das-armas-controladas-por-inteligencia-artificial-pode-ser-real/.
Acesso em: 18 abr. 2025.
[55] REDAÇÃO CNN BRASIL. Musk e Moraes:
entenda o embate e o que pode vir à tona. CNN Brasil, São Paulo, 7 de abril
de 2024. Disponível em: https://www.cnnbrasil.com.br/politica/musk-e-moraes-entenda-o-embate-e-o-que-pode-vir-a-tona/.
Acesso em: 07 abr. 2025.
[56]
COMISSÃO EUROPEIA. Ethics Guidelines for Trustworthy AI. Comissão
Europeia, Bruxelas, 8 de abril de 2019. Disponível em: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.
Acesso em: 13 abr. 2025.
[57]
CONSELHO DA UNIÃO EUROPEIA. Inteligência Artificial. Conselho da União
Europeia, Bruxelas, 5 de fevereiro de 2025. Disponível em: https://www.consilium.europa.eu/pt/policies/artificial-intelligence/#:~:text=Em%20abril%20de%202021%2C%20a,Comiss%C3%A3o%20e%20dos%20Estados%2DMembros.
Acesso em: 13 abr. 2025.
[58]
ESTADOS UNIDOS. AI Bill of Rights. The White House, Washington, 4 de outubro
de 2022. Disponível em: https://bidenwhitehouse.archives.gov/ostp/ai-bill-of-rights/.
Acesso em: 13 abr. 2025.
[59] UNESCO. Recommendation on the Ethics of Artificial Intelligence. Unesco,
Paris, 16 de maio de 2023. Disponível em: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence.
Acesso em: 13 abr. 2025.
[60] BRASIL. Ministério da Cultura. Senado
Federal aprova marco regulatório da inteligência artificial. Ministério da
Cultura, Distrito Federal, 10 de dezembro de 2024. Disponível em: https://www.gov.br/cultura/pt-br/assuntos/noticias/senado-federal-aprova-marco-regulatorio-da-inteligencia-artificial.
Acesso em: 14 abr. 2025.
[61]
BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o uso da Inteligência
Artificial. Senado Federal, Distrito Federal, 3 de maio de 2023. Disponível
em: https://legis.senado.leg.br/sdleg-getter/documento?dm=9347593&ts=1742240889254&disposition=inline. Acesso
em: 14 abr. 2025.

Comentários
Postar um comentário