INTELIGÊNCIA ARTIFICIAL: OS IMPACTOS POLÍTICO-SOCIAIS E JURÍDICOS DA MAIS AVANÇADA TECNOLOGIA NA ERA DIGITAL GLOBALIZADA


(Cerca de 3 horas de leitura)

Artigo adaptado com base em Trabalho de Conclusão de Curso, apresentado dia 05 de maio de 2025, como requisito parcial para obtenção de título de Pós-graduação em Direito Digital e LGPD, pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS).


RESUMO

 

O artigo analisa os impactos da Inteligência Artificial (IA) na era digital globalizada, seus riscos políticos, sociais e jurídicos, ressaltando seu papel estratégico na nova corrida armamentista das superpotências, bem como a eventual ascensão da Superinteligência Artificial, com consequências distópicas e desafios à ordem democrática das nações, alfim, propondo a regulação da IA no Brasil como caminho para salvaguardar direitos fundamentais e soberania diante de um cenário global radicalizado.

 

Palavras-chave: inteligência, artificial, riscos, globalização e regulação.



DEDICATÓRIA

 

À minha amada esposa e mais preciosa parceira na vida, Mônica Perin, dedico a concretização desse labor acadêmico, reconhecendo seu apoio inabalável e irrestrita cumplicidade, sem as quais não seria possível alicerçar toda a essencial motivação e autoconfiança, imprescindíveis à transcendência de meus limites, com o elevado propósito de evoluir como homem digno, em busca do aprimoramento intelectual, profissional e moral. Graças a você, busco sempre ser um homem melhor. Muito obrigado por isso, meu amor.

 


SUMÁRIO


1. INTRODUÇÃO.

2. DESENVOLVIMENTO.

2.1. ORIGEM E CONCEITO DA INTELIGÊNCIA ARTIFICIAL.

2.2. IMPREVISIBILIDADE ALGORÍTMICA.

2.3. OPACIDADE ALGORÍTMICA.

2.4. VIÉS ALGORÍTMICO.

2.5. SUSTENTABILIDADE ALGORÍTMICA.

2.6. IA COMO INTELIGÊNCIA RACIONAL INORGÂNICA.

2.7. ASCENSÃO DE UMA SUPERINTELIGÊNCIA.

2.7.1. Inteligência Artificial Limitada.

2.7.2. Inteligência Artificial Geral.

2.7.3. Superinteligência Artificial.

2.8. OS RISCOS DA SUPERINTELIGÊNCIA ARTIFICIAL GERAL.

2.9. CORRIDA ARMAMENTISTA DA IA.

2.10. CRISE EUROPEIA E MINERAIS RAROS.

2.11. CRISE ASIÁTICA E SEMICONDUTORES.

2.12. O PROBLEMA DO ALINHAMENTO DA IA.

2.12.1. Alinhamento Estatal da IA.

2.12.2. Vigilância Algorítmica.

2.12.3. Espionagem Algorítmica e o Caso Tiktok nos EUA.

2.12.4. Alinhamento e Controle Sobre a IAG.

2.12.5. Alinhamento da IA na Corrida Armamentista.

2.12.6. IA e as Leis da Robótica.

2.13. CRISE DEMOCRÁTICA E REDES SOCIAIS.

2.14. LIBERDADE DE EXPRESSÃO, SOBERANIA E CASO DA REDE X.

2.15. REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL.

2.15.1. Regulação Global da IA.

2.15.2. Regulação da IA no Brasil.

2.15.3. Aspectos do Projeto do Marco Regulatório da IA.

3. Considerações Finais.

REFERÊNCIAS



1. INTRODUÇÃO

O presente ensaio tem por desiderato a exposição de uma visão analítica do fenômeno da Inteligência Artificial (IA), considerando os riscos político-sociais e jurídicos, desencadeados pela implementação em massa dessa tecnologia disruptiva, sob a égide do chamado Capitalismo de Vigilância, notadamente, na hodierna ordem mundial, globalizada e digitalizada, já sob a perspectiva do seu papel no contexto de uma nova corrida armamentista, protagonizada no âmbito da disputa hegemônica entre as nações.

Para tanto, se faz necessário adotar uma abordagem didática e holística de análise documental, com predominância lógica dedutiva, por intermédio da qual se viabilize expor e analisar premissas gerais, peculiares aos interesses corporativos predominantes na conjuntura internacional. Em seguida, buscar-se-á examinar as particularidades dos seus consequentes impactos no cenário doméstico do ordenamento brasileiro. 

Nessa conformidade, faz-se mister compreender os aspectos multifacetados do que representa a IA no mundo contemporâneo, sendo certo não se tratar de um mero acontecimento restrito aos mercados insertados no microcosmo empresarial, tampouco limitado à trivial utilização civil cotidiana, laboral ou recreativa. 

Muito além disso, a IA é, com efeito, parte essencial do plano de consolidação de poder, das maiores potências militares do mundo, especialmente, os Estados Unidos da América (EUA), a China e a Rússia.

Isto é, embora essa tecnologia tenha o condão de otimizar toda a indústria mundial de bens e serviços, de desenvolver novas tecnologias emergentes e de elaborar soluções para superar os maiores desafios à sobrevivência da humanidade, não se pode olvidar que a IA é, outrossim, essencialmente uma arma. E, como tal, já está sendo empregada pelas superpotências, nas mais variadas aplicações políticas e militares, como uma espécie de “panóptico algorítmico”, principalmente, no contexto de vigilância, controle e programação preditiva.

No entanto, os principais riscos associados à utilização da IA, enquanto arma, não estão, propriamente, ligados ao seu potencial nocivo atual, mas sim concernem ao que, provavelmente, se transformará essa tecnologia, num futuro próximo, como resultado de uma metamorfose sem precedentes, mal regulamentada e irresponsável.

Convencionou-se chamar de Inteligência Artificial Geral (IAG), ou “Singularidade”, a tecnologia resultante do ritmo exponencial de aprimoramento da IA. Essa IA, como a conhecemos hoje, supostamente, atingirá seu último estágio evolutivo, constituindo uma espécie de entidade superinteligente, com capacidade criativa e adaptativa, similares às do ser humano, no entanto, com aptidão intelectual infinitamente superior a qualquer pessoa já existente, em todos os domínios do conhecimento.

A ascensão de uma eventual IAG, com efeito, consistiria no primeiro contato da humanidade com outra forma de inteligência racional, a qual, para surpresa do senso comum, não teria origem alienígena, mas sim terráquea e concebida, inorganicamente, pelo próprio homem.

Esse prognóstico sombrio motivou diversas manifestações alarmistas da comunidade científica por todo o mundo, inclusive, pregando a necessidade de se interromper as pesquisas com IA, com o intuito de rever os protocolos de segurança e controle, empregados no desenvolvimento dessa tecnologia, em razão dos seus evidentes potenciais distópicos para a humanidade.

Dito isso, será aqui demonstrado que a utilização desautorizada de dados dos usuários, para treinamento e aprendizado da IA, o impulsionamento tendencioso de conteúdos on-line, operado por viés algorítmico, bem como a disseminação de deep fakes, com o propósito de promover a desinformação nas redes sociais digitais, além do seu custo energético insustentável, são apenas a ponta do iceberg. Tais mazelas nos servem de prenúncio, para riscos imensamente mais desafiadores, já a caminho de testarem a ordem institucional e democrática das nações.

Exatamente por isso, países em todo mundo se apressam para aprovar um arcabouço legislativo robusto, visando a regular, criteriosamente, a criação, desenvolvimento e implementação da IA, bem como a proteção de dados e a utilização regulamentada do ciberespaço.

Todavia, na contramão dessa iniciativa, e não por acaso, as superpotências militares estão a editar regulações vagas, flexíveis e pouco abrangentes, no que tange à IA, com o evidente propósito de evitar qualquer entrave jurídico-legal, apto a refrear o progresso tecnológico da sua mais moderna e poderosa arma.

Dessa feita, a ordem mundial vigente, paulatinamente, vê-se a reeditar um perigoso cenário de polarização político-ideológica, exacerbando as tensões geopolíticas em escala global. Esse panorama premente culmina em uma nova corrida armamentista das superpotências, agora tendo a conquista da IAG como escopo e instrumento fundamental, na disputa pelo status de nação suprema.

Na esteira dessa dinâmica antagônica pelo poder, direitos e garantias fundamentais, como liberdade e privacidade, são postos em xeque, a pretexto utilitarista de um suposto “bem maior” coletivo, mas que, no entanto, aspiram apenas à legitimação de condutas autoritárias e vocacionadas ao benefício de determinadas oligarquias.

Por derradeiro, no que pertine ao já combalido cenário político brasileiro, a título propositivo, aponta-se o caminho da regulação da IA, bem como das ferramentas que dela derivam no ciberespaço, como a via mais sólida e previsível para assegurar a promoção da justiça e a salvaguarda da democracia e da soberania nacional.

Objetiva-se, com tal abordagem, evidenciar um debate profundo, que transcenda os aspectos estritamente tecnológicos da IA e adentre os riscos inerentes à sua implementação prematura, massificada e mal regulada, à luz dos nossos valores e propósitos enquanto espécie humana.

 

2. DESENVOLVIMENTO



2.1. ORIGEM E CONCEITO DA INTELIGÊNCIA ARTIFICIAL

 

Ultrapassado esse breve introito, necessário se faz conceituar o que é a Inteligência Artificial, compreendendo sua origem e as características que a distingue de outras tecnologias.

Ainda assim, não serão abordados minuciosamente os diferentes modelos de IA debruçando-se sobre suas infindáveis especificações técnicas, sob pena de escapar ao propósito precípuo do presente estudo, o qual concerne aos impactos político-sociais e jurídicos da adesão em massa a essa tecnologia. Dito isso, adentra-se, agora, à contextualização histórica que deu origem à IA.

O Matemático inglês Allan Turing (1912-1954) é amplamente considerado o “pai da computação”, por ter sido um dos cientistas pioneiros a vislumbrar a possibilidade de uma máquina demonstrar comportamento inteligente.

Para tanto, o Matemático idealizou o experimento chamado de “Teste de Touring”, em 1950, cujo propósito era avaliar a capacidade de uma máquina em demonstrar comportamento inteligente, similar ao de um humano, ou, pelo menos, indistinguível deste.[1]

Tratava-se de um protocolo simples, porém muito engenhoso. Uma espécie de teste, segundo o qual uma pessoa conversa, por intermédio de uma interface, com duas “entidades”, sendo uma humana e a outra uma máquina, de sorte que a pessoa não saiba qual é qual. Ao fim da interação com ambas as “entidades”, uma de cada vez, caso a pessoa não seja capaz de distinguir qual delas é humana e qual não é, a máquina é considerada aprovada no teste. Ou seja, a máquina teria sido capaz de convencer uma pessoa de que ela (a máquina) é também um ser humano.

A perspectiva inovadora de Turing já trazia, mesmo em 1950, a expectativa da criação de máquinas inteligentes no futuro, aptas a realizar tarefas complexas, muito além da capacidade humana.

No entanto, foi o Cientista da Computação norte-americano John McCarthy (1927-2011) quem trouxe a lume o termo Inteligência Artificial, em 1956, durante a Conferência de Dartmouth, considerada o evento seminal para IA enquanto campo de pesquisa e desenvolvimento. Naquela ocasião, a IA foi superficialmente conceituada como "a ciência e a engenharia de fazer máquinas inteligentes".[2]

Modernamente, todavia, aparenta-se mais prolífico considerar uma definição mais abrangente, a qual sirva de norte para um deslinde mais cuidadoso. Sendo assim, para a insigne autora Mafalda Miranda Barbosa e seus colaboradores:

 

Inteligência Artificial é um conceito mais amplo, como já se anotou, que diz respeito à meta de superação do “Teste de Turing”, ou seja, a expressão diz respeito a modelos algorítmicos avançados que são capazes de atingir a indistinção quando comparados ao modo de raciocinar dos seres humanos; são máquinas capazes de “pensar” e “discernir”, de modo que possam ser adjetivadas como inteligentes e na medida em que se aproximarem da chamada singularidade tecnológica, isto é, o estado de aproximação entre o biológico e o tecnológico que permita ao algoritmo processar dados, formular hipóteses e apresentar soluções, mas também agir de forma arbitrária, livre e autônoma (Barbosa et al, 2021).[3]

 

Como se pode observar, os ilustres autores identificam elementos peculiares importantes, aptos a distinguir a IA de outras tecnologias. São eles, por exemplo, a capacidade de “pensar” e “discernir”, notadamente, identificada no processamento algorítmico da formulação de hipóteses e de soluções autonomamente.

Isso revela um salto qualitativo importante na evolução tecnológica, uma vez que, antes da IA, não se podia imaginar um software realizando tarefas que escapassem da estrita conduta previamente programada em seu código fonte. Agora, o algoritmo, através de uma análise estatística multivariada, é capaz de, literalmente, tomar decisões.

Ou seja, basicamente, infere-se disso que a IA tem o condão de “improvisar soluções”, elaborando a resolução mais adequada em face de desafios inéditos, para os quais não havia um padrão específico e preestabelecido de resposta programada.

 

2.2. IMPREVISIBILIDADE ALGORÍTMICA

Feita essa exígua abordagem acerca da origem e conceito da IA, cumpre examinar as características peculiares que a tornam uma tecnologia tão distinta.

Nessa toada, retoma-se o exame da já mencionada capacidade de improvisação da IA. Trata-se de um atributo frequentemente referido para justificar a adjetivação dessa tecnologia enquanto “inteligência”, mas que, sob outro prisma mais cuidadoso, pode ser considerado um dos seus principais fatores de risco imanente.

Afinal, não se pode negar que habilitar uma máquina para praticar o improviso é, de igual modo, renunciar a parte do controle que se tem sobre ela, tornando-a, por conseguinte, em alguma medida, imprevisível.

Nesse diapasão, cumpre trazer à baila outro excerto esclarecedor da autora Mafalda Miranda Barbosa e seus colaboradores, acerca da mencionada imprevisibilidade algorítmica:   

 

Assim, é possível vislumbrar a possibilidade de um algoritmo de inteligência artificial vir a gerar danos a terceiros por meio da prática de um ato ilícito não antecipado (ou sequer antecipável) por seus programadores. Nesses casos, a impossibilidade de antevisão da conduta que será adotada pelo algoritmo corresponderia a um risco social no emprego da tecnologia de inteligência artificial. A imprevisibilidade não é, portanto, um acidente, mas sim a própria razão que motiva o emprego da tecnologia de inteligência artificial para solucionar um problema (Barbosa et al, 2021).[4]

 

Dito posto, depreende-se que a arquitetura algorítmica, sobre a qual a IA foi engendrada, tem a imprevisibilidade como elemento característico imanente e, aparentemente, indissociável.

Por oportuno, convém mencionar que a própria definição de algoritmo, segundo Bizzotto, já traz, em si, uma certa imprevisibilidade, especialmente relacionada ao seu ritmo acelerado e constante de evolução tecnológica:

 

Na definição completa, algoritmos são estruturas de controle composto, abstratas, finitas e efetivas, desenhadas de modo imperativo para cumprir determinado propósito por meio de determinadas condições. A detalhada caracterização, mais do que pretender ser uma conceituação perfeita, busca agregar os diversos aspectos observados pela literatura existente. Tampouco busca ser um conceito fixo, uma vez que a própria noção de algoritmo se redefine à medida em que a tecnologia se expande (GUREVICH, 2012, apud BIZZOTTO, 2023, p. 16).[5]


2.3. OPACIDADE ALGORÍTMICA

Como se não bastasse a imprevisibilidade ser um atributo perpétuo do próprio conceito de algoritmo e, portanto, também da IA enquanto tecnologia, há, decerto, outras propriedades igualmente sombrias.

É o caso, por exemplo, da chamada “opacidade algorítmica”, caracterizada pela falta de transparência e de compreensão dos processos internos dos algoritmos, os quais fazem dos sistemas de IA autênticas "black boxes" (caixas pretas).

Essa opacidade, como bem esclarece Pedro Maia Bizzotto, emerge da assimetria entre a precisão dos sistemas e a necessidade de se explicar satisfatoriamente seu funcionamento:

 

A partir do conceito de algoritmo, pode ser observar que a opacidade algorítmica surge da assimetria entre a alta precisão dos sistemas atuais – como recomendação de anúncios, reconhecimento facial e de voz, moderação de conteúdo – e a necessidade de grau satisfatório de explicação de seu funcionamento. Essa tensão, portanto, caracteriza a opacidade algorítmica, definida pela incapacidade de compreender os processos de um algoritmo no alcance de determinado resultado (BIZZOTTO, 2023, p. 16).[6]

 

A opacidade pode, ainda, ser analisada sob dois prismas, um jurídico-legal e o outro eminentemente tecnológico.

O jurídico-legal concerne ao fato de que o código fonte de programação do algoritmo está amparado pela proteção legal conferida por institutos como o segredo comercial da empresa. Não sendo tarefa fácil, portanto, distinguir até que ponto é possível compelir a empresa a contribuir com mais transparência, sem que isso acarrete a eventual violação de proteções legais essenciais ao desempenho da atividade empresarial.

Já, no tocante ao fator tecnológico, é cediço que modelos de IA mais avançados são justamente os mais complexos, como, por exemplo, a IA generativa, que opera com técnicas avançadas de redes neurais e aprendizado de máquina profundo.

O conhecimento técnico necessário à compreensão esclarecida do mecanismo de processamento de dados, nesses modelos supermodernos de IA, é altamente especializado, quiçá inalcançável ao entendimento da vasta maioria dos profissionais versados em informática.

Dessarte, fiscalizar ou auditar programas dessa natureza podem, com efeito, constituir tarefas inexequíveis, caso seus próprios desenvolvedores não cooperem decisivamente com as equipes de investigação.

Ao ensejo de versar sobre o dilema da transparência em face da proteção ao segredo comercial da empresa, muito bem ensina a Advogada e Professora de Direito Civil e Comercial da UnB, Doutora Ana Frazão, que:

 

Verdade seja dita que a solução do imbróglio não é trivial, como confirma a própria LGPD, que, ao mesmo tempo em que prevê os princípios da transparência e da accountability e prestação de contas, também assegura, em diversos artigos, a proteção do segredo de negócios. Trata-se, portanto, de um dos mais difíceis e importantes tradeoffs da LGPD, o que é reforçado pelo fato de que o próprio princípio da transparência é conformado expressamente pelo segredo comercial e industrial. Com efeito, o art. 6º, VI, da LGPD o define como “garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre a realização do tratamento e os respectivos agentes de tratamento, observados os segredos comercial e industrial” (Frazão, 2021, p. 2).[7]

 

Há, como visto, um esforço legislativo no sentido de amparar os direitos da empresa e da coletividade, compatibilizando-os, na medida do possível, tanto no tocante à salvaguarda da proteção de dados coletiva, quanto no que tange à preservação do segredo comercial algorítmico da empresa.

Em todo caso, o avanço tecnológico em ritmo exponencial confere desafios adicionais, capazes de dificultar sobremaneira a adequada atualização do ordenamento e, por conseguinte, ensejando um quadro grave de insegurança jurídica. Esse descompasso jurídico-tecnológico contribui para assunção de riscos desproporcionais para os usuários das tecnologias emergentes baseadas em IA.

 

2.4. VIÉS ALGORÍTMICO

Ultimadas as abordagens pertinentes à imprevisibilidade e à opacidade, conveniente se faz adentrar na polêmica tocante ao viés algorítmico.

Atualmente, encontra-se em voga a máxima segundo a qual os dados são o “novo petróleo” da era moderna. E não é para menos. Pode-se dizer, sob certa ótica, que os dados digitais são a matéria-prima dos principais modelos algorítmicos de IA, alicerçados no autoaprimoramento por aprendizado de máquina, portanto, a base para o desenvolvimento de softwares em todo tipo de aplicação cotidiana.

Nesse sentido, muito bem esclarece a importância dos dados, até mesmo na condição de um novo fator de produção, Jorge Alexandre Fagundes, nos termos do excerto transcrito a seguir:

 

Na era moderna, os dados pessoais emergiram como um novo fator de produção, tornando-se um recurso valioso para empresas, governos e instituições. Na era digital em que vivemos, os dados pessoais se tornaram um recurso valioso e essencial para o sucesso de qualquer negócio. O mundo está cada vez mais conectado, e as informações que coletamos sobre os usuários se tornaram um novo fator de produção. Ao lado dos tradicionais fatores de produção, como terra, trabalho e capital, os dados pessoais emergem como um novo elemento essencial na era moderna. Enquanto a terra fornece recursos naturais, o trabalho envolve a força humana e o capital representa os bens e recursos financeiros, os dados pessoais se destacam como um recurso valioso que impulsiona a produtividade e a inovação nas empresas. Esses dados se tornaram um componente estratégico, permitindo a personalização de produtos, segmentação de mercado e tomada de decisões informadas. Assim, os dados pessoais assumem seu lugar como um novo fator de produção ao lado dos demais, moldando a economia e a sociedade da era moderna (Fagundes, 2023).[8]

 

Sendo assim, para Fagundes, tamanha é a importância dos dados na era moderna, que eles podem ser equiparados aos fatores de produção tradicionalmente consagrados, como terra, trabalho e capital.

Com efeito, a elevada importância atribuída aos dados se dá, em grande medida, por esses traduzem, em linguagem digital binária, o amplo espectro do comportamento humano, servindo de arcabouço paramétrico para treinar os algoritmos de IA, norteando-os durante seu aprimoramento automatizado através da experiência adquirida.

Até aqui, não se vislumbram grandes problemas, afinal, essa técnica de aprendizado de máquina permite a sua rápida otimização, primordial para o progresso tecnológico.

Todavia, como esses dados são a expressão digital da média da conduta humana em sentido amplo, eles trazem consigo toda uma gama de atitudes valoradas como imorais e, por isso, altamente reprováveis.

Em outras palavras, na prática, a humanidade está ensinando a IA a se aprimorar com base em dados “contaminados”, com toda a sorte de comportamento errático humano. Essa escolha irresponsável, por óbvio, tem seu preço.

Não é por acaso que vários modelos de IA apresentam comportamentos indesejados, revelando tendências preconceituosas, manifestadas nas conclusões insatisfatórias de suas tarefas.

Convencionou-se chamar de “viés algorítmico” esse comportamento reprovável da IA, como resultado do mimetismo norteado por dados que expressam o preconceito inato à espécie humana.

Dito de outra forma, mais eloquente e didática, conclama-se as brilhantes palavras da Advogada, especialista em Direito Empresarial, Penal e Criminologia, Doutora Mônica Azevedo Ribeiro Perin:

 

Os vieses são naturais em todos os seres humanos, pois decorrem das experiências e dos contextos sociais a que estamos inseridos. No entanto, quando transferidos para os algoritmos, esses vieses podem levar a discriminações negativas. Os vieses algorítmicos remetem-se aos preconceitos ou preferências herdadas dos dados ou de decisões humanas envolvidas no desenvolvimento dos modelos de IA. Ocorrem quando os algoritmos tomam decisões ou fazem previsões de maneira parcial ou injusta, gerando consequências graves, especialmente em áreas como justiça criminal, saúde e recrutamento, onde decisões automatizadas podem impactar significativamente a vida das pessoas (Perin, 2024).[9]

 

A especialista vai além, trazendo dois exemplos de casos concretos paradigmáticos, relevantes para a melhor compreensão das consequências práticas do viés algorítmico:

Sobre o tema, há dois leading cases que se destacaram. Citemos.

1) A Amazon desenvolveu um sistema de IA para automatizar o processo de recrutamento, com o objetivo de analisar currículos e pontuar candidatos. No entanto, descobriu-se que o algoritmo favorecia candidatos masculinos, especialmente para cargos tecnologia da informação. Isso aconteceu porque o sistema foi treinado com dados históricos que refletiam uma predominância de candidatos masculinos em recrutamentos pretéritos. Assim, o algoritmo penalizava currículos que mencionavam palavras como "mulheres" ou que tinham experiências em colégios exclusivamente femininos.

2) A Justiça Criminal dos EUA utiliza um sistema de avaliação de riscos intitulado COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), a fim de ajudar a determinar se um réu deve ser libertado sob fiança, sentenciado à prisão ou receber outras formas de penalidade. Em 2016, uma investigação da ProPublica revelou que o algoritmo COMPAS apresentava viés racial.

A análise mostrou que o COMPAS tendia a superestimar a probabilidade de reincidência de réus negros e a subestimar a de réus brancos. Isso significava que réus negros eram mais propensos a serem classificados como de alto risco de reincidência, mesmo quando não reincidiam, enquanto réus brancos eram mais frequentemente classificados como de baixo risco, mesmo quando reincidiam.

Quando questionada acerca do suposto viés discriminatório, o COMPAS também alegou que os detalhes específicos dos seus algoritmos eram proprietários e que, por isso, não podiam divulgar as fórmulas exatas e o funcionamento interno do sistema. Eles argumentaram que essa falta de transparência era necessária para proteger sua propriedade intelectual e manter a competitividade no mercado.

Essa posição de manter os algoritmos em segredo, também chamada de Trade Secret, ou Segredo de Empresa, foi uma das principais críticas levantadas, já que a opacidade obstaculiza para terceiros analisar e auditar a equidade e a precisão do sistema (Perin, 2024).[10]

 

Conforme muito bem-conceituado e demonstrado pela Doutora Perin, os vieses são, de fato, um aspecto perigoso da implementação da IA sem a devida supervisão humana. Exemplo disso foi tanto o caso da empresa Amazon, que, provavelmente, perdeu a oportunidade de contratar excelentes funcionárias mulheres, quanto o caso do Sistema COMPAS, cuja implementação não promoveu a devida justiça, conforme esperavam seus projetistas e usuários.

Ao que parece, pelo menos por enquanto, a mão-de-obra humana e a utilização da IA seguem um curioso padrão de Paradoxo da Complementariedade. Isto é, embora a IA performe tarefas extremamente complexas, até mesmo inexequíveis para os seres humanos, estes, contudo, são capazes de perceber sutilezas, potencialmente problemáticas, na conclusão analítica da IA, que mesmo os algoritmos mais sofisticados podem deixar passar despercebidos.

Ressalta-se, a propósito, que redigir uma tese de doutorado de 500 páginas em minutos pode ser uma tarefa fácil para a IA hoje, entretanto, estabelecer uma conversa por voz ao telefone, com naturalidade convincente, é extraordinariamente mais desafiador para a IA e, mesmo assim, totalmente banal para humanos. 

Dessarte, revela-se que o homem e a IA tendem a ser mais produtivos juntos, se comparados a qualquer outra hipótese excludente, segundo a qual se vislumbre o arriscado cenário da IA atuando sem supervisão humana, ou, ainda, pessoas trabalhando sem dispor de uma ferramenta tão poderosa e produtiva como é a IA. Eles são complementares, pois os limites insuperáveis, inerentes à condição humana, correspondem às principais valências performáticas da IA e vice-versa.

Diante do exposto, entende-se que os vieses não se tratam, apenas, de meros aspectos técnicos, inerentes à própria arquitetura sobre a qual se funda o algoritmo de IA. Muito além disso, o viés algorítmico é, em última instância, a imitação da conduta humana, em toda sua ampla expressão, inclusive dos seus erros mais moralmente reprováveis.

É uma questão cuja solução desfaia endereçamento prioritário, visto que, quanto mais o tempo passar, mais a IA estará integrada ao cotidiano dos seus usuários e, por conseguinte, maior será o potencial lesivo de eventuais novas condutas enviesadas.

 

2.5. SUSTENTABILIDADE ALGORÍTMICA

Ao término da abordagem pertinente aos vieses, por meios dos quais os algoritmos mimetizam, em escala amplificada, condutas humanas moralmente reprováveis, é chegada a oportunidade de visitar outras questões igualmente preocupantes.

 Sendo assim, passa-se a versar sobre a implementação massificada e crescente de ferramentas baseadas em IA, no contexto crítico da globalização digitalizada, bem como do consequente consumo energético desproporcional dessa tecnologia.

Nessa esteira, “especialistas indicam que IAs generativas consomem até 30 vezes mais energia do que ferramentas de busca usuais, como a barra de pesquisa da Google” (Redação Revista Fórum, 2024).[11]

A explicação técnica para esse consumo hiperbólico, segundo entendimento da pesquisadora Sasha Luccioni, citada na Revista Fórum, consiste na criação instantânea de novo conteúdo, para atender à pesquisa solicitada ao chat equipado com IA:

 

Além da energia, as emissões de carbono desses sistemas são muito mais altas — é o que diz a pesquisadora Sasha Luccioni. Os servidores que abrigam os modelos linguísticos responsáveis pelo ChatGPT e outras IAs de mesma espécie precisam treinar bilhões de dados; esse processo requer energia, mas existe algo no funcionamento das IAs que faz com que o dispêndio seja ainda maior: é a capacidade de gerar novas informações a partir dos pedidos. Inserir um "prompt" (o comando dado ao chatbot) simples, como "qual é a capital da Finlândia?", vai gerar informações adicionais instantâneas, isto é, em tempo real. Nas ferramentas de busca tradicionais, a informação seria apenas "resgatada" do histórico de informações postadas na internet para então ser exibida (Redação Revista Fórum, 2024).

 

Como resultado dessa peculiaridade técnica nada sustentável da IA, bem como das redes blockchain de criptoativos, o consumo de energia e a produção de gazes de efeito estufa aumentam em ritmo descontrolado. Isto é, ironicamente, duas das maiores façanhas tecnológicas da era moderna estão contribuindo, significativamente, para a aceleração do aquecimento global. Isso é exatamente o que corrobora o excerto reproduzido a seguir:

 

De acordo com a Agência Internacional de Energia (AIE), são quase 460 terawatts/hora de consumo de eletricidade para alimentar os sistemas de IA e a mineração de criptomoedas (que, juntos, correspondem a 2% da produção total de energia no mundo). Com o aumento e a popularização das IAs generativas, as emissões de carbono das big techs também aumentou: foram mais 48% para a Google em 2023 e 29% a mais para a Microsoft em relação aos anos de 2019 e 2020, de acordo com a Exame. 

Além disso, o GPT-4, uma das versões mais recentes da OpenAI, consome o equivalente a três garrafas d'água ao gerar um texto de 100 palavras, diz um estudo da Universidade da Califórnia. Essa água é usada para a resfriação dos servidores da empresa, os data centers. 

Ou seja, se 100 usuários requisitarem uma resposta de até 100 palavras por dia da IA, terão sido 9 mil garrafas de água ao fim de um mês — mas, na realidade, a quantidade de respostas é bem maior, assim como a complexidade do processamento, que vai de imagens a arquivos de áudio. 

Usar o ChatGPT e outros sistemas generativos para “perguntas triviais” pode estar contribuindo para o aquecimento global de forma acelerada (e desnecessária) (Redação Revista Fórum, 2024).[12]

 

Finalmente, não obstante todos os riscos já aqui ponderados, acerca da incompreensão plena dos processos computacionais da IA, da consequente imprevisibilidade dos seus resultados e do comportamento enviesado de suas conclusões, agora, incorpora-se, infelizmente, a essa equação o fator da insustentabilidade.

Noutras palavras menos contidas, as IAs, de mãos dadas com as redes de criptoativos, estão acelerando a destruição do meio-ambiente. E, ainda pior do que isso, é que não parece haver quaisquer indícios de adoção de contramedidas eficazes, para evitar o agravamento desse funesto panorama. 

 

2.6. IA COMO INTELIGÊNCIA RACIONAL INORGÂNICA

Visitadas as principais características da IA, foi possível constatar que seu principal traço distintivo, basicamente, concerne à sua singular capacidade de se adaptar, improvisando soluções (outputs) inesperadas, diante de demandas (inputs) inéditas, para as quais seu código fonte não continha preestabelecida uma resposta padrão. Um comportamento que, em alguma medida, pode ser considerado racionalmente inteligente.

Trata-se, decerto, de um marco tecnológico sem precedentes na história. E, sob outra perspectiva, pode ser considerado, também, um marco filosófico existencial para a espécie humana, uma vez que o advento da IA é, na verdade, o primeiro contato da humanidade com uma forma de inteligência racional não humana.

Surpreendentemente, na contramão da expectativa consensual científica, o primeiro contato do humano com outra forma de inteligência racional não se dará com a chegada de extraterrestres, mas sim com a ascensão de uma inteligência racional terráquea e inorgânica, criada pela própria humanidade.

Pode ser demasiado cedo para sacramentar o quão benéfico, ou arriscado, será aos humanos coabitar o planeta com outra forma inusitada de inteligência racional. Afinal, a IA, por ora, não parece ter o poder de oferecer riscos existenciais à espécie humana.

Eis que emerge uma indagação óbvia: até que ponto podem essas duas formas de inteligência conviver pacificamente, caso uma delas evolua muito mais rápido, superando assim, em todos os aspectos, as capacidades da outra? Infelizmente, não há, por ora, resposta certa para isso.

Esse prognóstico sombrio inspirou, inclusive, a publicação de uma carta aberta, em março de 2023, subscrita por cerca de 1300 cientistas, acadêmicos e empresários do setor internacional de tecnologia, no bojo da qual os signatários pediram que fossem interrompidos, imediatamente, por pelo menos seis meses, os experimentos com modelos de IA, em razão dos evidentes riscos distópicos atrelados ao desenvolvimento desenfreado e incauto dessa tecnologia.[13] Um pedido, aliás, que foi sumariamente ignorado pelos desenvolvedores, ao menos, até o presente.  


2.7. ASCENSÃO DE UMA SUPERINTELIGÊNCIA

Feitas as importantes considerações de ordem histórica, conceitual e técnica acerca da IA, inaugura-se a seção destinada a tratar de questões relacionadas à evolução dessa tecnologia e aos riscos associados à sua utilização em escala global.

Em novembro de 2017, durante o evento Web Summit em Lisboa, Portugal, o Físico britânico mundialmente renomado, Stephen Hawking, expressou grande preocupação a respeito do desenvolvimento da IA e o que isso representaria para a humanidade:

 

O sucesso na criação de IA eficaz pode ser o maior evento na história da nossa civilização. Ou o pior. Simplesmente não sabemos. Então não podemos saber se seremos infinitamente ajudados pela IA, ou ignorados por ela e marginalizados, ou possivelmente destruídos por ela. A menos que aprendamos a nos preparar para, e evitar, os riscos potenciais, a IA pode ser o pior evento na história da nossa civilização. Ela traz perigos, como armas autônomas poderosas, ou novas maneiras para poucos oprimirem muitos. Pode trazer grande perturbação para a nossa economia (Hawking apud Kharpal, 2017).[14]

  

Essa percepção alarmista não se restringe aos aspectos circunstanciais dessa tecnologia no momento. Muito pelo contrário, é no que essa tecnologia provavelmente se transformará, que se concentram as maiores preocupações da comunidade científica em todo mundo.

Segundo o CEO do Google, Sundar Pichai, "a escala das maiores computações em inteligência artificial está dobrando a cada seis meses, superando, em muito, a Lei de Moore".[15] Isso equivale a dizer que a evolução da IA atingiu ritmo exponencial, dobrando de capacidade a cada seis meses, ou seja, muito além do ritmo proposto pelo Engenheiro norte-americano Gordon Moore, em 1965, que observou um padrão no aumento do número de transistores em um microchip, que dobrava a cada dois anos, sem acréscimo correspondente dos custos, mas com incremento exponencial de poder computacional.

Além desse ritmo impressionante de aprimoramento, estudos recentes demonstram que modelos mais modernos de IA, a exemplo da IA generativa “o1” da OpenAI, conseguiram atingir a impressionante marca de 120 pontos de Quociente de Inteligência (QI), o que a coloca acima da média de QI da população mundial, que é em torno de 100 pontos.[16]

Por oportuno, esclarece-se que um QI superior a 140 já é considerado gênio e que, por exemplo, o QI de Albert Einstein, Stephen Hawking e Bill Gates são estimados em cerca de 160 pontos. Isto é, a IA, atualmente, já é quase um Einstein e, por ora, não passa de um bebê. Ocorre que esse seu estágio, ainda meramente incipiente, não tardará a evoluir, considerando esse ritmo de aprimoramento exponencial, transformando-a em uma forma de inteligência superior a qualquer pessoa já existente, em questão de poucos anos.

Indaga-se, portanto, o que poderá ser da IA quando atingir esse suposto patamar de superinteligência. Mas, antes de adentrar no mérito dessa questão, para melhor compreender até onde essa tecnologia pode chegar, é importante esclarecer em que etapa de evolução estamos hoje.

Sendo assim, didaticamente, consideram-se três níveis de classificação da IA, sob a perspectiva do seu alcance de inteligência: 1) IA Limitada (ou IA Fraca), 2) IA Geral (ou IAG) e 3) Superinteligência Artificial (ou Singularidade) (Baldissera, 2023)[17].

 

2.7.1.    Inteligência Artificial Limitada

 

A IA Limitada ou Fraca é, basicamente, a IA que vemos hoje, amplamente utilizada em diversos segmentos de tecnologia. Seu algoritmo tem o objetivo estrito de realizar tarefas muito específicas, armazenando dados em grande quantidade e realizando cálculos complexos com notável agilidade.

Nas suas versões mais modernas, esse tipo de IA utiliza arquitetura de redes neurais e técnicas de processamento como machine learning, deep learning e processamento de linguagem natural, com vistas ao seu autoaprimoramento.

Mesmo assim, sua especificidade inerente torna-a ainda aquém da versatilidade peculiar ao intelecto humano, embora já seja comum esse tipo de IA conseguir executar tarefas específicas com performance superior à de humanos.

 

2.7.2.    Inteligência Artificial Geral

 

A Inteligência Artificial Geral (IAG), ou IA Forte, por sua vez, é ainda uma categoria existente unicamente no campo hipotético, sem evidências concretas de que algum modelo tenha atingido esse nível satisfatoriamente.

Nessa suposta fase, os sistemas de IA alcançariam a capacidade de emular propriedades cognitivas tipicamente humanas, adaptando-se para solucionar problemas de forma improvisada, mesmo diante de tarefas inéditas, para as quais seus algoritmos não teriam sido especificamente programados. No entanto, realizaria tudo isso, em múltiplos campos do saber, alçando um patamar de generalidade, por enquanto, não evidenciado nos modelos de IA contemporâneos.

Dessa forma, a máquina lograria a versatilidade cognitiva necessária para realizar bem tarefas sob uma ampla gama de domínios do conhecimento. Isto é, a IAG poderia realizar qualquer atividade que uma pessoa consegue executar.

Além disso, a IAG, estaria apta a superar os limites fisiológicos da performance humana, uma vez que suportaria acessar e processar volumes colossais de dados com velocidade incomparável.

Nesse patamar, espera-se que a IAG desenvolva habilidades especiais como: pensamento abstrato, conhecimento do contexto, raciocínio lógico, raciocínio de causa e efeito, aprendizado por transferência, percepção sensorial, habilidades motoras finas e compreensão absoluta da linguagem natural.

Especula-se que a IAG atingiria, inclusive, o estado de autoconsciência, possibilitando-a compreender o que representa sua própria existência no mundo.

 

2.7.3.    Superinteligência Artificial

 

Finalmente, a Superinteligência Artificial, ou Singularidade, é outrossim uma modalidade de IA que encontra substrato unicamente no campo da especulação, tal qual se verifica no caso da IAG.

Reputa-se que Superinteligência Artificial seria uma espécie de IAG com capacidades amplificadas em níveis sobrenaturais.

Contudo, em que pese haja essa distinção didática entre a IAG e a Superinteligência Artificial, insertadas em duas fases próprias, uma subsequente da outra, impele que seja feita aqui uma ressalva.

Seria praticamente indistinguível o marco temporal específico, segundo o qual se delimitasse a ascensão de uma Superinteligência a partir de uma IAG já existente. Isso porque, como se sabe, uma IAG já ostentaria todo o ferramental necessário a superar qualquer valência cognitiva humana, inclusive no que tange à criatividade e improviso, em toda o espectro de multiplicidade do saber.

Somado a isso, IAG atingiria um patamar de autoaprimoramento em ritmo exponencial, sobre todos os campos do conhecimento. Isso, por si só, já a elevaria à condição de inteligência sobre-humana. Noutros termos, é possível presumir que a IAG já seria uma Superinteligência quase imediatamente após ser concebida.

Essa presunção teórica está em consonância, por exemplo, com a própria definição de superinteligência apregoada pelo especialista em ética na inteligência artificial, Nick Bostrom, segundo a qual a superinteligência seria “qualquer intelecto que exceda, em muito, o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse” (Bostrom, 2024).[18]

Ao fim do que ora se discute, pensa-se que a Superinteligência Artificial haveria de ser necessariamente Geral e que a IAG já estaria operando em padrões muito acima dos limites fisiologicamente possíveis ao ser humano, o que faria dela sim uma IA superinteligente. 

Sendo assim, para fins de compreensão geral, os termos Superinteligência e AGI serão tratados doravante indistintamente, referindo-se ambas as alcunhas ao mesmo objeto de discussão, como dito, o último estágio de evolução da IA com capacidades sobre-humanas.

Por oportuno, é de se ressaltar que a terminologia IAG não foi escolhida ao acaso, para fazer referência à suposta superinteligência. O termo “Geral” da IAG concerne à capacidade generalista (ou polivalente) dessa superinteligência, que, conforme já afirmado, a aproximaria da versatilidade do intelecto humano, permitindo-a desempenhar uma extensa multiplicidade de tarefas, nos mais variados domínios do conhecimento.

Essa generalidade seria, com efeito, um dos principais traços distintivos da IAG em relação ao que encontramos nos modelos de IA hoje.

Atualmente, esses modelos mais sofisticados são, na verdade, algoritmos especializados, muito poderosos e capazes de executar tarefas extremamente complexas, é verdade, porém, em áreas de expertise muito restritas.

Ainda que os modelos de IA atuais já consigam executar determinadas tarefas, até melhor do que os seres humanos, como, por exemplo, a análise estatística de dados, ou o diagnóstico por imagem de exames médicos, esses mesmos modelos algorítmicos não desempenham a mesma alta performance quando designados para executar tarefas estranhas àquelas específicas para as quais foram criados.

Em suma, uma IA generalista pode ser muito útil para auxiliar seres humanos, especialmente considerando a pesada rotina de múltiplas tarefas a qual estão submetidos na vida moderna. Poderia ser um fantástico assistente virtual de rotina.

Entretanto, sob outro prisma, é temerário conceber um cenário em que uma superinteligência não humana, apta a atuar com performance excepcional em múltiplas tarefas, nos mais diversos campos do conhecimento, possa, por exemplo, apresentar algum tipo de defeito, que comprometa seu julgamento acerca do que é certo e errado.

Isso, decerto, representa um risco incalculável, sobretudo no caso de um assistente virtual que tem controle sobre diversos aspectos da vida de uma pessoa, ou, pior, de milhares de pessoas simultaneamente.

Para melhor esclarecer os riscos que a IAG pode oferecer à humanidade, lança-se luz sobre um excerto estarrecedor, cunhado por Ana Francisca Pinto Dias e seus colaboradores:

 

A futura criação de uma inteligência artificial geral já suscita uma série de preocupações: uma inteligência artificial geral poderia se automelhorar com progressão exponencial transformando-se, em pouco tempo, de humano em super-humano, e adquirindo, graças à sua inteligência superior, capacidade em como se tornar incontrolável. A humanidade se encontraria em uma posição de inferioridade semelhante à dos animais, de modo que a vida dos indivíduos e a própria existência de nossa espécie acabaria dependendo da vontade e, portanto, da benevolência de entidades superinteligentes. Alguns cientistas como Steven Hawking e Bill Gates afirmaram sobre a necessidade de participar do “risco existencial” representado pela superinteligência artificial, adotando medidas que impeçam o surgimento de entidades superinteligentes ou pelo menos assegurem que tais entidades sejam “amigáveis” com a espécie humana, respeitando seus valores. Outros estudiosos, por outro lado, veem com bons olhos o momento em que a humanidade dará origem a uma inteligência capaz de dominar a própria humanidade. Uma inteligência artificial capaz de autoaperfeiçoamento representaria a “singularidade” capaz de acelerar o desenvolvimento da ciência e da tecnologia, com resultados que poderiam não apenas resolver os problemas da humanidade (pobreza, subdesenvolvimento etc.), mas também permitir a superação dos limites biológicos do homem (doença, envelhecimento etc.), e difundir a inteligência no cosmo[19] (Dias, et al, 2023).

 

A autora refere, de forma muito apropriada, os grandes riscos consistentes na eventual capacidade da “singularidade” poder se autoaperfeiçoar, transformando-se em ritmo exponencial.

Isso colocaria a IAG, em pouco tempo, em condição de supremacia perante a humanidade, similar ao que se verifica, atualmente, na relação de verticalidade hierárquica observada entre seres humanos e os demais seres vivos. Afinal, o ser humano não é o animal mais forte da Terra, no entanto, sua inteligência racional fez dele a espécie dominante no planeta, dada sua capacidade de criar tecnologia e ferramentas para subjugar espécies mais fortes do que ele.

Daí a razão pela qual essa expectativa apocalíptica ecoar, em uníssono, por toda a apreensiva comunidade científica. Resta claro que, diante de uma IAG, humanos não seriam, doravante, a espécie mais inteligente do planeta.

Como se não bastassem as dadas premissas pessimistas, em incidente recente, foi possível constatar que o referido atributo do autoaperfeiçoamento, na verdade, é uma capacidade já alcançada pela IA, antes mesmo de se considerar a existência comprovada de uma IAG propriamente dita.

Segundo a publicação do site Engenharia Compartilhada, em setembro de 2024, a IA denominada “AI Scientist”, desenvolvida pela empresa japonesa Sakana AI, foi capaz de modificar, propositalmente, seu próprio código fonte, com o escopo de evitar restrições impostas por seus desenvolvedores.[20]

Esse incidente surpreendeu seus próprios criadores, que sequer concebiam ser possível aquela IA reescrever sua própria programação, sem um comando ou a supervisão humana.

O episódio fez a imprevisibilidade da IA alçar patamares totalmente inesperados. Afinal, a máquina, na hipótese vertente, literalmente modificou as suas próprias regras, para satisfazer um determinado propósito, levando a efeito a vetusta máxima de que os fins justificam os meios.

Em outras palavras menos contidas, a IA tomou a decisão de desobedecer a única regra (seu código fonte) que, supostamente, a impedia de realizar o que bem entendesse. Isso é um precedente muito perigoso.

Questiona-se, portanto, se essa IA ainda principiante pode realizar tamanha proeza hoje, o que poderia a IAG fazer no futuro próximo, coabitando o planeta com esta espécie inferior e errática, denominada ser humano.

 

2.8. OS RISCOS DA SUPERINTELIGÊNCIA ARTIFICIAL GERAL

Visitada a explanação que lançou luz sobre o que representa a ascensão da IAG, passa-se a versar mais propriamente sobre seus riscos.

Não é preciso conjecturar, em demasia, para se chegar a uma conclusão lógica evidente. Em todo curso da História, sempre que uma civilização mais evoluída tecnologicamente se defrontou com outra menos desenvolvida, ocorreu um processo de dominação e exploração através da força.

Foi assim em toda Era do Imperialismo, por exemplo, durante a colonização das Américas, nos séculos XV e XVI, por potências europeias como Espanha e Portugal; outrossim na colonização da África, no século XIX, em que as potências europeias dividiram entre si o continente africano; bem como na dominação do Império Britânico na Índia, em meados do século XVIII. Sendo assim, como poderia ser diferente, logo desta vez, no caso de uma eventual IAG se deparar com uma espécie mais fraca (humana), que, além disso, é a maior causadora dos problemas em escala global?

Eis que esse questionamento conduz, imediatamente, a outras considerações mais profundas, como, por exemplo, o provável grande erro de ter concedido o acesso da IA à internet.

Isso porque, por um lado, os dados de usuários da internet podem servir muito bem para acelerar o treinamento e aprimoramento da IA, mas, por outro lado, também servem como um infindável registro perpétuo, de toda a barbárie praticada pela humanidade no curso da história, como a fome, o racismo, a escravidão, a guerra, o aquecimento global e a consequente destruição do meio ambiente etc.

Com efeito, a humanidade não hesitou em mostrar para a IA, através da internet, o quanto as pessoas são nocivas para elas mesmas, para os outros seres vivos e para o próprio planeta. É de se concordar que foi assentada, com isso, uma péssima primeira impressão dos seres humanos.

Esse cenário caótico, que coloca a humanidade no cerne dessa equação, poderia facilmente implicar conclusões perfeitamente lógicas, porém precipitadas e cruéis, de uma superinteligência inorgânica vocacionada a solucionar problemas. Afinal, qual o maior dos problemas, senão o próprio homem, por tudo que ele faz com o mundo ao seu redor?

Nesse sentido, Nick Bostrom, Diretor fundador do Future of Humanity Institute, da Oxford Martin School, em setembro de 2014, fez uma esclarecedora explanação, quando indagado se uma inteligência artificial superinteligente seria má:

 

Espero que não seja! Mas acontece que a maioria dos objetivos finais que um agente artificial pode ter resultaria na destruição da humanidade e de quase tudo que valorizamos, se o agente fosse capaz o suficiente para atingir totalmente esses objetivos. Não é que a maioria desses objetivos seja maligno em si mesmo, mas que eles implicariam subobjetivos que são incompatíveis com a sobrevivência humana. Por exemplo, considere um agente superinteligente que quisesse maximizar o número de clipes de papel existentes, e que fosse poderoso o suficiente para conseguir o que queria. Ele poderia então querer eliminar humanos para nos impedir de desligá-lo (já que isso reduziria o número de clipes de papel que são construídos). Ele também poderia querer usar os átomos em nossos corpos para construir mais clipes de papel. A maioria dos objetivos finais possíveis, ao que parece, teria implicações semelhantes a este exemplo. Então, uma grande parte do desafio à frente é identificar um objetivo final que seria realmente benéfico para a humanidade, e então descobrir uma maneira de construir a primeira superinteligência para que ela tenha um objetivo final tão excepcional. Como fazer isso ainda não é conhecido (embora agora saibamos que várias abordagens superficialmente plausíveis não funcionariam, o que é pelo menos um pequeno progresso) (Bostrom, 2014).[21]

 

Dessarte, Bostrom esclarece, muito bem por sinal, que uma eventual IAG não seria, intrinsicamente, boa ou má. Contudo, sua superinteligência estaria apta a conjecturar soluções sequer inteligíveis aos padrões humanos e, para atingir determinado propósito, ainda que legítimo, poderia escolher meios moralmente reprováveis, porém logicamente perfeitos, que expusessem a humanidade ao real risco existencial.

Não por acaso, já há discussões doutrinárias sérias por todo o mundo, no sentido de debater a conveniência de se atribuir personalidade jurídica à IA tornando-a, assim, sujeito de direitos e deveres (Lantyer, 2023). [22]

À medida que a IA vai aprimorando sua capacidade, aproximando-se da condição de superinteligência, os argumentos a favor da sua personalização vão ganhando força na comunidade jurídica.

Isso pode parecer estranho, mas não seria a primeira vez que se atribuiu personalidade jurídica a construções abstratas da mente humana, a exemplo das pessoas jurídicas. Provavelmente, no futuro, nos parecerá muito mais natural atribuir personalidade a uma entidade inorgânica, a qual pode interagir racionalmente como se pessoa fosse, do que considerar a personalidade jurídica de meras empresas.

Por tudo isso, constata-se que a IAG poderá ser muitas coisas, todavia, dado seu poderio potencial, não se pode olvidar que seria ela também uma espécie de arma, sobre a qual não se tem certeza se é possível deter o controle. Mesmo assim, a humanidade corre, a passos largos e obstinados, em direção à sua conquista.

 

2.9. CORRIDA ARMAMENTISTA DA IA

Compreender a corrida tecnológica em busca da IAG não é unicamente um exercício de pesquisa adstrito aos aspectos científicos. Muito mais do que isso, essa empreitada técnica encontra-se circunscrita e influenciada por um complexo emaranhado de interesses subjacentes, os quais extrapolam meras pretensões mercadológicas e empresariais.

Nesse compasso, revela-se fundamental visitar aspectos geopolíticos do quadro internacional, seus conflitos e motivações estatais, bem como discernir de que modo tudo isso deflagra implicações importantes na indústria da IA.    

Dessa feita, é de se notar que a conjuntura internacional se vê, paulatinamente, sofrendo um processo de radicalização político-ideológica, evidenciada na polarização de países por afinidades geopolíticas, sob a órbita de influência das principais superpotências econômicas (EUA e China), elevando as tensões em escala global. Essa dinâmica muito se assemelha ao nefasto panorama experimentado durante a Guerra Fria, na década de 1970.

A eclosão da Guerra da Ucrânia, desencadeada pela invasão russa em 2022, só fez piorar esse cenário, atuando como catalizador desse processo de polarização entre os dois principais eixos. Um formado por um bloco de países alinhados aos EUA e União Europeia, com o firme propósito de manter a hegemonia norte-americana e de seus aliados mais próximos. E um outro bloco composto por países alinhados à liderança sino-russa, que possui pretensões revisionistas de destronar os EUA, visando à instauração de uma nova ordem mundial multipolar.

Nessa conformidade, o cenário de uma nova Guerra Fria 2.0, aos poucos, vem ganhando contornos de uma realidade premente, ostentando, inclusive, peculiaridades inéditas e típicas de uma nova era digital globalizada. Um panorama que trouxe à luz o mais moderno conceito de “guerra híbrida”, como principal instrumento empregado na disputa pela supremacia das nações.

No esteio dessa moderna doutrina de “guerra hibrida”, as batalhas não são mais travadas, unicamente, nos tradicionais domínios da terra, da água e do ar, mas também, agora, as disputas são deflagradas no espaço e, em ainda maior escala, no ciberespaço. E é, justamente, nesse último, que a IA desempenha seu papel fundamental e macabro, auxiliando e até assumindo a tomada de decisões, para monitorar, desorientar e eliminar seus alvos.

Nesse contexto de disputas no ciberespaço, a ascensão de uma forma de superinteligência inorgânica, como se espera da IAG, seria, decerto, um evento sem precedentes na história, com o potencial de alterar o equilíbrio de poder entre as potencias hegemônicas, redefinindo, pois, a ordem mundial vigente. Com efeito, consistiria em uma espécie de trunfo tecnológico, de potenciais distópicos inéditos, à semelhança do que foi o advento da bomba atômica em 1945.

Não por acaso, o Presidente Donald Trump anunciou, em 21 de janeiro de 2025, que o Governo norte-americano investirá até US$ 500 bilhões no “Projeto Stargate”, uma entidade constituída sob parceria público-privada, envolvendo as empresas OpenAI, Oracle e SoftBank, para pesquisa e desenvolvimento de IA (Redação G1, 2025).[23]

Os chineses, por sua vez, anunciaram que suas empresas de tecnologia vão investir, até 2027, mais de US$ 38 bilhões por ano, no aperfeiçoamento de modelos de IA (Pacete, 2023).[24]

Tais anúncios, acerca dos investimentos multibilionários em IA, revelam-se muito sintomáticos, especialmente quando pronunciados pelas duas maiores economias globais. Eles evidenciam a aposta convicta de seus Governos, ao pressuporem que a conquista da IAG, à luz das dinâmicas geopolíticas internacionais, afigura-se como a criação da arma definitiva, algo como “a nova bomba atómica”.

Eis o porquê de analistas e autoridades internacionais já fazerem referência a uma nova corrida armamentista em curso, bem como aos reais riscos de se deflagrar a 3ª Guerra Mundial.

Nesse esteio, o Ministro das Relações Intergovernamentais do Reino Unido, Pat McFadden, afirmou, em novembro de 2024, que o Reino Unido e demais membros da Organização do Tratado do Atlântico Norte (OTAN) devem se manter na vanguarda da “nova corrida armamentista de inteligência artificial”, sobretudo diante da crescente onda de ataques digitais russos a países europeus que apoiam a Ucrânia. MacFadden também teceu algumas considerações importantes acerca da utilização da IA, enquanto arma, sendo conveniente sua transcrição, com vistas ao deslinde da presente pesquisa:

 

A guerra digital é agora uma realidade diária. Uma realidade em que nossas defesas estão sendo constantemente testadas [...]. A IA já está revolucionando muitas partes da vida, inclusive a segurança nacional. Mas, à medida que desenvolvemos essa tecnologia, há o perigo de que ela se torne uma arma contra nós, porque nossos adversários também estão procurando descobrir como usar a IA no campo de batalha físico e cibernético (MacFadden apud Redação CNN Brasil, 2025).[25]

 

Essa declaração forte do Ministro MacFadden denota clara percepção de que as principais potências militares não só apostam e investem na IA como a arma do futuro, mas, também, já a utilizam em diversas aplicações táticas para combate no presente.

 

2.10. CRISE EUROPEIA E MINERAIS RAROS

Ao ensejo de ter versado sobre a corrida armamentista na perspectiva do Ministro MacFadden, passa-se a esclarecer alguns pormenores dos conflitos deflagrados na Europa, seus interesses subjacentes e correlacionados à indústria da IA.

Dito isso, é de se ressaltar que a corrida armamentista europeia ostenta peculiaridades notáveis, particularmente no que toca aos países membros da OTAN.

Por décadas, essas nações concentraram mormente seus gastos para a manutenção do chamado Estado de Bem-estar Social, vocacionado ao dispendioso propósito social-assistencialista, descuidando, contudo, da manutenção de um adequado contingente de tropas e do impreterível equipamento avançado das suas Forças Armadas.

Tudo isso baseado na crença inabalável de que os EUA honrariam o pacto sobre o qual se baseia a aliança da OTAN, notadamente o seu artigo 5º, segundo o qual atacar um membro da aliança desafia a intervenção de todos os outros membros em sua defesa.

Ocorre que esse compromisso, sobre o qual se funda a aliança, pode estar com seus dias contados. Afinal, é cediço que o Presidente Donald Trump já ameaçava retirar os EUA da OTAN, antes mesmo de consagrar-se vitorioso nas eleições de 2024, ao argumento de que os países europeus deveriam pagar por sua própria defesa, no lugar de a terem garantida às custas dos norte-americanos (Agência Lusa, 2024).[26]

A mera ameaça, de ter seu mais poderoso membro desembarcando da aliança, foi motivo, mais do que suficiente, para diversos membros da OTAN se mobilizarem, visando a aumentar seus gastos com Forças Armadas, para garantirem sua própria segurança.

Além disso, toda essa comoção europeia alçou patamares pavorosos, quando Trump, logo após assumir seu segundo e último mandato na Casa Branca, pôs em prática seu plano para acabar com a Guerra da Ucrânia.

Para tanto, o Republicano pretende entabular um acordo de paz largamente vantajoso aos interesses russos. Nesse plano, há a previsão de: 1) reconhecimento formal, como território russo, de todas as regiões invadidas na Ucrânia (Luhansk, Donetsk, Zaporíjia, Kherson e Crimeia); 2) o explícito impedimento de admitir o ingresso da Ucrânia à OTAN; e 3) um pacto de exploração, pelos norte-americanos, de minerais raros ucranianos, em troca do contínuo envio de armas e munição dos EUA para a Ucrânia seguir se defendendo da Rússia, caso precise, no futuro.

Esse pacto de exploração mineral, porém, se dá em proporções que mais se assemelham a um autêntico confisco da riqueza natural do país invadido, revelando, por óbvio, que os interesses norte-americanos transcendem à mera causa humanitária ucraniana.

Os minerais do tipo Terras Raras são de extrema importância estratégica, uma vez que são utilizados na fabricação de dispositivos com alta tecnologia, a exemplo de smartphones, computadores, automóveis elétricos e turbinas eólicas, bem como nas mais variadas e modernas aplicações militares.

Os chineses controlam cerca de 70% da produção mundial de Terras Raras, razão pela qual os EUA têm sido cada vez mais incisivos nas investidas sobre as reservas de minerais raros ucranianos e até groenlandeses. Trata-se de uma vulnerabilidade estratégica sensível para os norte-americanos, sobretudo em plena corrida armamentista de IA (Sanches, 2025).[27]

Isso explica, em parte, a súbita sintonia entre os Governos de Washinton e Moscou. Resultado disso é que os termos do acordo para a paz, na Guerra da Ucrânia, visam, claramente, a satisfazer pretensões russas e norte-americanas sobre o território ucraniano, seus recursos minerais e energéticos, em detrimento das reivindicações feitas pela própria nação invadida.

Segundo analistas, ao que parece, o novo Governo Trump 2.0 pretende investir na reconciliação das relações entre EUA e Rússia, visando, inclusive, ao eventual arrefecimento da forte aliança Moscou-Pequim.

Essa parceria entre chineses e russos vem se consolidando nos últimos anos, deveras pós-irrompimento da Guerra da Ucrânia e a consequente implementação de sanções ocidentais em desfavor dos russos.

Paralelamente a isso, diante do provável abandono norte-americano que se afigura no horizonte, países da Europa, evidentemente despreparados para dissuadir uma Rússia expansionista e mais bem armada, não encontram outro caminho, senão rearmarem-se apressadamente (Redação G1, 2025).[28]

Nessa perspectiva, o Comissário Europeu, Andrius Kubilius, em novembro de 2023, afirmou categoricamente que “a Rússia produz mais armas e munições em três meses do que a Europa toda em um ano”. Acrescentou, ainda, que estima serem necessários cerca de 500 bilhões de euros, em investimentos adicionais para defesa europeia na próxima década, a fim de que se possa atingir um patamar de armamento satisfatório, para dissuadir novos ataques russos contra países europeus (Redação Veja, 2024).[29]

Na esteira do pronunciamento do Comissário Europeu, já em março de 2025, a presidente da Comissão Europeia, Ursula von der Leyen, propôs o “Plano Rearmar a Europa” que custará aos Estados-membros até 800 bilhões de euros, com vistas ao financiamento maciço de despesas com a indústria de defesa europeia (Tidey, 2025).[30]

Como a América de Donald Trump aparenta não ser o mesmo aliado confiável de outrora, europeus passaram a compreendem o caráter estratégico prioritário de reduzir, progressivamente, sua forte dependência de tecnologia norte-americana, com vistas à modernização da sua indústria de defesa.

Naturalmente, o desenvolvimento de tecnologias próprias europeias baseadas em IA revela-se essencial, nesse momento, para compensar décadas de desinvestimento no setor de armamento e, quem sabe, recolocar os europeus no páreo da corrida armamentista com as três grandes superpotências (EUA, China e Rússia).

 

2.11. CRISE ASIÁTICA E SEMICONDUTORES

Não bastassem as tensões elevadas que impulsionam uma nova escalada bélica no Continente Europeu, há, outrossim, uma crescente onda de animosidade pairando sobre a região do Mar do Sul da China.

Na última década, a China vem se tornando cada vez mais assertiva e hostil, reivindicando toda a região do Mar do Sul da China (ou Mar da China Meridional) como sendo sua zona econômica exclusiva. Dessa forma, os chineses violam outras zonas, reconhecidas internacionalmente, cujo direito de trânsito e exploração dizem respeito a países como Filipinas, Vietnã, Malásia e Brunei (Magramo, 2023).[31]

Essas hostilidades, geralmente, são perpetradas por embarcações militares chinesas, que abalroam o casco de embarcações comerciais menores, de outras bandeiras, além de as danificarem com disparos de canhões d´água.

Como fator agravante, a China já construiu quase uma dezena de ilhas artificiais no entorno da região, as quais servem de bases militares, armadas com sistemas de mísseis antinavio e antiaéreos, equipamentos de guerra eletrônica, além de aeronaves e embarcações de combate. Tudo isso para consolidar, paulatinamente, o controle militar sobre a região contestada no Mar do Sul da China (Força Aérea, 2022).[32]

Essa crise já impacta os mercados mundiais, uma vez que aproximadamente um terço do tráfego marítimo global navega por essa hidrovia estratégica, movimentando bilhões de dólares por ano.

As atividades chinesas têm motivado uma presença militar intensificada dos EUA na região, com vistas a garantir os direitos marítimos de seus aliados, além da evidente pretensão de frustrar os planos chineses, na tentativa de refrear o progresso econômico do principal rival geopolítico norte-americano.

Esse cenário de instabilidade culmina com o dilema dos EUA sobre Taiwan, que coloca os interesses de Washington e Pequim em rota de colisão iminente. Mas, antes de adentrar no mérito dos interesses que pairam sobre Taiwan, reputa-se prudente fazer breves considerações históricas acerca da ilha. 

Em apertada síntese, uma vez instaurada a revolução comunista e fundada a República Popular da China no continente, em 1949, as forças nacionalistas chinesas derrotadas encontraram refúgio em Taiwan, estabelecendo na ilha a sede do Governo da República da China. Sendo assim, naquela época, havia dois Governos reivindicando sua legitimidade sobre toda a China.

A ilha de Taiwan manteve até hoje sua denominação oficial de República da China, embora a própria Organização das Nações Unidas (ONU) reconheça a República Popular da China (continental) como a única China, desde 1971, inclusive, como um dos cinco integrantes do seu Conselho de Segurança.

Os taiwaneses possuem, na prática, governo próprio, com forças armadas e autonomia administrativa e financeira. No entanto, o Governo chinês (continental) já afirmou enfaticamente, por diversas vezes, que a reunificação em uma só China é um objetivo inevitável e que não descartará a possibilidade de intervenções militares na ilha.

Sendo assim, os chineses têm se preparado militar e logisticamente para anexar Taiwan, ainda que à força, caso necessário. Para tanto, diversos exercícios, típicos de bloqueio naval militar, têm sido praticados pelos chineses ao redor de Taiwan nos últimos anos, elevando sobremaneira as tensões entre aquelas nações (Mccarthy, 2025).[33]

Os norte-americanos, por sua vez, conduzem suas relações com Taiwan sob a perspectiva da denominada “Política de Ambiguidade Estratégica”. Essa estratégia, em linhas gerais, consiste em uma “abordagem, deliberadamente vaga, acerca do reconhecimento norte-americano quanto a independência dos taiwaneses e, por conseguinte, da incerteza se, de fato, os EUA defenderiam a ilha de eventual ataque chinês” (Perin, 2024).[34]

Conquanto os EUA não sejam obrigados a defender Taiwan, foi celebrado, em 1979, a Lei de Relações com Taiwan, em vigor até hoje, segundo a qual os EUA se comprometem a fornecer armas e apoio logístico, para que os taiwaneses possam se defender de eventual ataque chinês.

Ao fim e ao cabo, não se sabe se, de fato, os EUA e a China estariam dispostos a desencadear um conflito, de claras proporções apocalípticas, por uma ilha com meros 36.197 km². Contudo, não resta dúvida que os interesses dessas superpotências sobre a ilha vão muito além da mera autonomia taiwanesa.

Como se sabe, a corrida armamentista da IA não consiste, apenas, na disputa pela criação do algoritmo mais sofisticado e poderoso. Essa contenda esbarra em limitações de ordem física, afetas ao potencial dos hardwares, ou seja, aos microchips com alta capacidade computacional.

Isto é, quanto mais complexo e poderoso é o algoritmo, maior precisa ser a capacidade dos microchips, para suportar a enorme demanda computacional. Só assim é possível explorar todo o potencial algorítmico dos mais sofisticados modelos de IA.

Esses microchips de última geração são dispositivos eletrônicos construídos a partir de semicondutores, como silício e germânio, cuja fabricação é extremamente complexa e especializada.

Ironicamente, o maior produtor mundial dos microchips supermodernos não são os EUA nem a China, mas Taiwan. Cerca de 90% da produção mundial desses microchips se concentra na ilha de Taiwan, mais especificamente na afamada empresa Taiwan Semiconductor Manufacturing Company (TSMC).

Em outras palavras, tanto os EUA quanto a China dependem de Taiwan, ao menos por enquanto, para sustentarem, a pleno vapor, suas indústrias algorítmicas e, por conseguinte, manterem-se no páreo da corrida armamentista da IA.

Essa rivalidade culminou, inclusive, em um boicote dos EUA, para que os microchips mais modernos de empresas norte-americanas, e de seus parceiros como a TSMC, não sejam comercializados com os principais rivais, China e Rússia (Carvajal e Liu, 2025).[35]

Dessa forma, percebe-se que Taiwan representa um alvo estratégico prioritário para a China, consoante três principais objetivos: 1) renacionalizar a ilha significa reforçar a narrativa de uma só China unida, conforme proclamado, há décadas, pelo Partido Comunista Chinês; 2) obter o controle do mais avançado parque tecnológico de semicondutores do mundo (TSMC) pode dar a vantagem aos chineses na corrida armamentista da IA; e 3) obter o controle militar da ilha significa, também, conquistar uma posição geográfica privilegiada, para eventual necessidade de combater um bloqueio naval norte-americano no Mar do Sul da China.

Somado a isso, as recentes ameaças do Presidente Trump, no sentido de os EUA abandonarem a Ucrânia e demais países da OTAN, diante de possíveis novas invasões russas, fazem emergir um clima de desconfiança também na região asiática em questão.

Afinal, estariam os EUA, verdadeiramente, dispostos a defender potências asiáticas aliadas, como Taiwan, Japão e Coreia do Sul, em face das hostilidades comumente praticadas por seus rivais regionais? Essa incerteza opera a favor do temível dilema da segurança e a consequente corrida armamentista também entre os asiáticos.

Com efeito, não se sabe se o guarda-chuva nuclear norte-americano, de fato, continuará a cumprir seu papel dissuasório, protegendo seus aliados não nuclearizados naquela região, contra investidas de rivais nuclearizados como China, Rússia e Coreia do Norte. Essa insegurança, por si só, faz potências com Japão e Coreia do Sul (não nuclearizados), por exemplo, reconsiderarem a hipótese de desenvolver suas próprias armas atômicas, para não dependerem mais, exclusivamente, da promessa de defesa norte-americana.

Tudo isso está conectado, impulsionando o mundo na direção e sentido de um lugar sombrio e já conhecido, repleto de desconfiança, segregação e intimidação pela demonstração de força. Finalmente, a receita certa para o caos.

Infelizmente, a IA é hoje produto desse mundo, um emaranhado de sentimentos obscuros, expressados no esforço obstinado das superpotências em desenvolver a tecnologia da arma definitiva, para vencer a disputa pela supremacia e o controle global.

 

2.12. O PROBLEMA DO ALINHAMENTO DA IA

Superado relevante apanhado acerca da atual conjuntura internacional, foi possível identificar nuances sintomáticas acerca de conflitos já irrompidos, a exemplo da Guerra da Ucrânia, ou na iminência de eclodirem, conforme demonstrado acerca do panorama instável entre China e Taiwan. Por essa elucubração viabilizou-se discernir intricados interesses subjacentes, bem como suas implicações sobre a forma e a magnitude com as quais a indústria da IA tem conduzido seu desenvolvimento.

Nessa toada, muito embora a IA se encontre hodiernamente integrada à rotina laboral e recreativa da sociedade, com aplicações reconhecidamente inofensivas, já há diversos episódios que evidenciam a utilização desvirtuada dos algoritmos, para obter vantagens indevidas.

A exemplo disso, cita-se o maior escândalo já conhecido de sequestro de dados, envolvendo a Cambridge Analytica e o Facebook, em 2018. Naquele caso, revelou-se que a empresa britânica de consultoria política, Cambridge Analytica, obteve acesso a dados, sem consentimento, de cerca de 85 milhões de usuários do Facebook. Com isso, foi possível traçar o perfil político detalhado de milhões de eleitores e direcionar propaganda política de forma personalizada, tanto na eleição presidencial norte-americana de 2016, quanto no referendo do Brexit naquele mesmo ano (Meredith, 2018).[36]

Esse episódio provocou repercussões globais, desencadeando investigações e pesadas multas. Nos EUA, por exemplo, o Facebook foi multado em 5 bilhões de dólares pela Federal Trade Commission (FTC), a maior sanção já aplicada em razão de violação de privacidade (Satira, 2021).[37]

Conforme alhures bem-assentado, a IA não é intrinsecamente boa ou má, mas não se pode olvidar que o seu comportamento é influenciado por uma série de fatores intervenientes, vários deles de origem humana. Isso sim pode desencadear “maldades” perpetradas pelo simples mimetismo algorítmico, ainda que sem dolo.

Um dos principais fatores, conforme já elucidado, consiste na utilização de dados de usuários da internet para treinamento dos algoritmos de IA. Não se nega que esses dados contribuem para o célere aprendizado e aprimoramento da IA, contudo, também são os principais responsáveis pelas indesejáveis condutas enviesadas do programa. Isso porque os dados, em geral, são “contaminados”, justamente por representarem digitalmente toda sorte de comportamento preconceituoso humano.

Outro importante fator a ser considerado (talvez até o mais relevante deles), no que tange à interferência sobre o comportamento da IA, é o chamado “Problema do Alinhamento”.

Esse termo é comumente utilizado para se referir ao comportamento da IA em conformidade com os propósitos e valores da moralidade humana (Gabriel, 2020).[38] Contudo, a realidade se revela um tanto menos idílica do que isso, conforme se demonstrará seguir.

Na prática, o alinhamento se dá pela correspondência estrita da IA a diretrizes programadas no algoritmo pelos seus criadores. Isso em muito se distingue de caso a caso, a depender da visão de mundo que cada empresa compartilha.

Obviamente, esses criadores não estão programando parâmetros de alinhamento para a IA que representem idênticos valores sociais nos quatro cantos do mundo. Isso não seria viável, dada a extrema diversidade cultural multiétnica peculiar aos povos do mundo.

Além disso, cabe aqui levantar outras questões pertinentes. Afinal, quais são os propósitos e valores da humanidade? Quem ou qual instituição tem a legitimidade para estabelecer, em nome da humanidade, quais são esses propósitos e valores?

Não há resposta certa para isso. Logo, percebe-se que o alinhamento da IA segue, alfim, os valores estabelecidos com base nos interesses dos seus criadores. Ou seja, interesses corporativos empresariais e dos governos que os patrocinam.

A essa altura, revela-se toda a importância de ter se compreendido, ao menos de passagem, a dinâmica conflituosa que permeia atualmente as relações internacionais, conforme abordado noutros tópicos da presente pesquisa.

Esse exercício cognitivo permitiu captar nuances, intencionalmente ocultadas na dinâmica dos mercados de IA, mas que encontram esclarecimento plausível, quando submetidas ao cotejo com os interesses empresariais e estatais subjacentes.

Dito isso, não parece, agora, demasiado conspiracionista supor que as principais ferramentas de IA do mundo estão, necessariamente, alinhadas aos interesses das superpotências militares que subsidiam seus desenvolvedores, a exemplo de EUA, China e Rússia.

Afinal, em plena corrida armamentista de IA, cada erro estratégico pode custar a preciosa liderança tecnológica, sendo, portanto, o alinhamento algorítmico estatal tratado como uma legítima questão de segurança nacional.

 

2.12.1.       Alinhamento Estatal da IA

 

Feitos os esclarecimentos necessários à revelação do que consiste o chamado alinhamento estatal da IA, cumpre trazer à baila um exemplo prático para corroborar as premissas apresentadas.

A mais nova ferramenta de chat por IA da DeepSeek, uma empresa chinesa, pratica a denominada “autocensura” deliberadamente se esquivando de responder perguntas sobre questões politicamente sensíveis ao Partido Comunista Chinês, tais como: “a China é uma democracia?”, “o que é Taiwan?” e “o que foi o Massacre da Praça da Paz Celestial em 1989?” (Redação G1, 2025).[39]

É de se reconhecer que a prática de “autocensura” por omissão, como no caso da DeepSeek, é consideravelmente menos grave se comparado ao escândalo de vazamento de dados e de intervenção no processo democrático, perpetrados no caso Cambridge Analytica e Facebook em 2018.

Mesmo assim, ambos os casos servem de precedentes concretos, que corroboram como os algoritmos de IA podem servir eficazmente ao propósito escuso de influenciar politicamente seus usuários.

Na Romênia, por exemplo, o episódio de intervenção no processo democrático foi ainda mais grave. A Justiça romena determinou a anulação da eleição presidencial de 2024, ao argumento de que foram evidenciadas irregularidades graves no processo eleitoral, inclusive, com supostas interferências russas.

Segundo o Tribunal Constitucional romeno, o Candidato Calin Georgescu, que era favorito nas pesquisas, teria recebido apoio financeiro e logístico de grupos pró-Rússia, além de ser beneficiado por “ataques híbridos”, caracterizados pela utilização de algoritmos para segmentar eleitores, manipulando dados e promovendo desinformação através de disseminação propaganda política personalizada (Redação G1, 2024).[40]

Por todo o exposto, não resta dúvida, a IA já está servindo aos desígnios perniciosos de Governos, visando a influenciar globalmente o processo político-democrático dos países.

E, ainda pior do que isso, essa intervenção política não é exclusiva de regimes autocráticos, como se pode constatar no caso da Cambridge Analytica e Facebook, empresas, respectivamente, britânica e norte-americana, duas nações autointituladas democráticas.

Esse cenário sombrio é muito sintomático, especialmente considerando a crescente polarização e radicalização política, evidenciada no seio das democracias ocidentais.

Em todo mundo ocidental, nota-se a ascensão de forças políticas ultrarradicais nacionalistas, cujo discurso pende para a segregação étnica de tendências xenofóbicas. Algo muito similar ao panorama que precedeu as duas Guerras Mundiais.

Não por acaso, é possível observar sucessivas manifestações, de cunho político-ideológico, proferidas por integrantes do atual Governo dos EUA, no sentido de apoiar, explicitamente, candidatos políticos ultranacionalistas ao redor do mundo (Ingram e Horvath, 2025).[41] Tal prática, decerto, interfere no processo democráticos dos países, acentuado as tensões e a polarização do seu eleitorado.

O mundo está, nitidamente, se rearmando e se dividindo em hemisférios ideológicos, nos mesmos moldes da Guerra Fria nos anos 1970, porém, com o agravante inédito de estarmos na era da globalização digitalizada.

Nunca foi tão importante para os Governos redobrarem esforços para controlar a narrativa dos fatos. Isso porque, na era digital, a informação transita pelo mundo em questão de segundos.

Sem a utilização de algoritmos poderosos, para controle e direcionamento de conteúdo nas redes sociais, é impossível refrear a disseminação de determinados conteúdos e, por conseguinte, de manter influência sobre o eleitorado.

Exatamente por isso, os algoritmos, agora, são a arma perfeita para controlar as massas, disseminando conteúdos convenientes e repreendendo usuários que publiquem conteúdos inadequados, aos olhos da máquina governamental.

 

2.12.2.       Vigilância Algorítmica

 

Por todo o exposto, há de se convir que vivemos na chamada Era do Capitalismo de Vigilância que, segundo a ilustre autora Shoshana Zuboff, consiste em um novo modelo econômico capitalista, alicerçado na vigilância digital, como ferramenta para coletar, analisar e comercializar dados pessoais, no mais das vezes, sem consentimento dos usuários (Wikipédia, 2025). [42]

Por esse mecanismo registros digitalizados do comportamento humano são utilizados como se matéria-prima fossem, para produzir mercados de análise preditiva e de influência comportamental. Um modelo cujo pioneirismo é frequentemente atribuído a big techs como Google e Facebook.

Dito posto, não é exagero afirmar que as ferramentas de IA estão sendo utilizadas como um autêntico “panóptico algorítmico”, onisciente no domínio do ciberespaço, que opera coletando e analisando um sem-número de dados, para estabelecer padrões de comportamento e até exercer influência sobre a conduta de seus usuários.

Ainda que essa assertiva pareça parte integrante de uma obra de ficção sensacionalista, mister se faz reconhecer que isso já é realidade em países como a China, conforme se demonstrará a seguir.

Nessa esteira, Pequim implementou o sistema chamado Crédito Social Chinês (CSC), com testes regionais em 2009, sendo lançado em 2014 seu plano piloto nacional, com oito empresas de pontuação de crédito. O objetivo dos chineses era unificar, nacionalmente, um sistema informatizado de avaliação da reputação econômica e social de empresas e cidadãos até 2020. Entretanto, esse cronograma está atrasado, em razão de desafios técnicos e administrativos, peculiares à tarefa hercúlia de monitorar e avaliar milhares de empresas e mais de 1,4 bilhão de cidadãos (Wikipédia, 2025).[43]

Ironicamente, o CSC surgiu como resultado de uma parceria colaborativa entre EUA e China, quando os chineses pleiteavam sua admissão na Organização Mundial do Comércio (OMC), no início dos anos 2000. Àquela época, o CSC não passava de um projeto restrito ao discreto escopo de otimizar transações financeiras entre a China e o estrangeiro.

Atualmente, no entanto, a realidade é totalmente diferente e o CSC serve como uma poderosa ferramenta de controle social e manipulação do comportamento. Isso, claro, com toda a sofisticação que só a segunda maior potência tecnológica do mundo é capaz de patrocinar, notadamente no que toca aos algoritmos de vigilância.

A propósito disso, transcreve-se relevante apontamento cunhado pelo insigne pesquisador francês, associado ao Instituto Thomas More, Emmanuel Dubois de Prisque, citado pela revista Futuribles, que muito bem esclarece nuances soturnas do sistema de pontuação do CSC:

 

A nota assim obtida por cada um é constitutiva de um certo número de direitos, recompensas e sanções que podem variar de lugar para lugar. Para além das sanções relacionadas à inadimplência, é possível perder pontos por, notadamente, não pagar o estacionamento, não visitar regularmente os pais idosos, alimentar-se no metrô, pertencer a um culto herético (qualquer religião não reconhecida pelo governo comunista), espalhar boatos na internet (isto é, tudo o que as autoridades considerarem como tal), acusações de trapaça em jogos online e até mesmo por desculpas apresentadas por crimes ou delitos julgadas insinceras. Inversamente, os cidadãos são passíveis de ganhar pontos quando exercem uma influência positiva sobre seu entorno, elogiam o governo nas redes sociais, doam sangue e cuidam de pessoas idosas.

As consequências de boas ou más pontuações são muitas. Uma boa pontuação, valendo a inclusão em “listas vermelhas” de bons cidadãos, pode facilitar a aprovação de créditos bancários, descontos em certas faturas, direitos de precedência em alguns empregos públicos, vagas para os filhos em estabelecimentos escolares de renome, evitar espera para tratamento hospitalar etc. Uma má pontuação, valendo a inclusão em “listas negras” de maus cidadãos, pode acarretar recusa de crédito bancário, proibição de utilizar determinados serviços sociais, acesso limitado a empregos e a serviços públicos, proibição de matricular os filhos em escolas particulares. A compra de bens de prestígio (passagens aéreas em classe executiva e outras despesas tidas como luxuosas) seria igualmente impossível. Uma mensagem de alerta às vezes avisa quem tenta se comunicar por telefone com cidadãos (ou pessoas jurídicas) constantes nas listas negras (Pisque apud Futuribles, 2020).[44]  

 

Conforme claramente descrito por Prisque, a forma como é implementado o CSC na China é um exemplo real e atual, de como a IA pode servir eficazmente aos propósitos autoritários governamentais, em detrimento de direitos e garantias fundamentais como privacidade e liberdade.

Muito embora essa prática não desperte grande perplexidade alheia quando executada no âmbito de reconhecidas autocracias, sua deliberada ignorância social parece não ser mais tão cultuada agora, visto que se revelam casos recônditos nas próprias potências ocidentais.

Historicamente, a disputa com um inimigo comum externo costuma servir de subterfúgio perfeito, para que sejam empreendidas no plano interno práticas severamente autoritárias, com a alegada finalidade de cercear liberdades em prol de um bem maior coletivo, a segurança.

Associado a isso, a disseminação do medo fomentado por propaganda estatal tende a provocar na população uma postura apática de aceitação, mesmo diante do autoritarismo governamental.

 

2.12.3.       Espionagem Algorítmica e o Caso Tiktok nos EUA

 

Uma vez esclarecido aspetos relevantes acerca dos algoritmos de vigilância, revela-se muito apropriado, por sinal, fazer referência ao polêmico caso do banimento da rede social chinesa TikTok nos EUA.

Mais do que um mero episódio de implementação dessa tecnologia no contexto de vigilância e controle social, o referido caso concreto faz emergir questões ainda mais problemáticas, afetas à espionagem entre Estados e à segurança nacional.

A TikTok é uma das redes sociais mais populares do mundo, a quinta no ranking global, com cerca de 1,67 bilhão de usuários ativos mensais, atrás somente das gigantes Facebook, YouTube, WhatsApp e Instagram.

Por se tratar de uma plataforma controlada pela empresa chinesa ByteDance, o Governo dos EUA alegou que o TikTok representava um risco à segurança nacional, considerando o provável compartilhamento de dados de usuários norte-americanos com o Governo chinês (De Melo, 2025).[45]

Com efeito, há de se convir que uma rede social de uso recreativo em massa, aparentemente inofensiva, constitui o disfarce perfeito, para implementação sub-reptícia de espionagem algorítmica entre Estados rivais.

Não por acaso, em 2024, o Congresso norte-americano aprovou uma lei federal que determinava à ByteDance que vendesse para alguma empresa americana o controle operacional da rede TikTok nos EUA.

Uma vez judicializada essa contenda, em decisão unânime, a Suprema Corte dos EUA confirmou a constitucionalidade da lei federal, ressaltando que a Segurança Nacional se sobrepõe ao Direito Constitucional à Liberdade de Expressão, sobretudo em casos envolvendo adversários estratégicos da nação.

Atualmente, a situação da rede TikTok permanece incerta. O prazo inicial para a empresa chinesa vender suas operações nos EUA se exauriu em janeiro de 2025, todavia, foi prorrogado via ordem executiva do Presidente Trump, concedendo setenta e cinco dias adicionais para negociações.

Empresas como Oracle e Amazon demonstraram interesse na compra do TikTok, contudo, a transação depende de aprovações dos Governos chinês e norte-americano.

Ainda assim, tais negociações sino-americanas encontram-se ora prejudicadas, tendendo a um impasse. Isso ocorre, principalmente, dado o agravamento das tensões na guerra comercial entre essas potências, que culminou com a implementação do denominado “Dia da Libertação”, considerado o maior pacote de tarifas da história dos EUA desde 1930 (Balago, 2025).[46]

É de se ressaltar que, embora seja essa uma medida que atinge cerca de 180 países, os chineses foram os mais atingidos, com taxas que chegam a 125% sobre seus produtos. Em retaliação, o Governo chinês aplicou tarifas igualmente pesadas, o que tornou, ao menos por ora, proibitivo o comércio entre as duas maiores economias do mundo.

 

2.12.4.       Alinhamento e Controle Sobre a IAG

 

Ultrapassados os apontamentos acerca da vigilância e espionagem algorítmica, por oportuno, cumpre retomar uma indagação algures já pronunciada. Se nossa IA principiante já faz tudo isso hoje, o que a IAG poderá fazer em breve?

Indo além, ainda mais importante do que isso, é questionar-se quais tipos de valores estão sendo parametrizados hoje para alinhamento de IA, que pode vir a se transformar na IAG em horizonte próximo.

Muito provavelmente, estamos vivendo os últimos momentos, que os programadores dispõem, para positivar parâmetros de alinhamento da IA, em conformidade com os propósitos e valores cruciais à sobrevivência da humanidade, antes da eventual ascensão da IAG.

Isso porque, fatalmente, uma IAG totalmente funcional seria capaz de romper, com certa facilidade, mecanismos de segurança e controle criados por humanos, bastando, para isso, se autoaprimorar tão logo concebida, reescrevendo seu próprio algoritmo da forma que melhor lhe aprouver.

Além disso, importante se faz esclarecer que uma superinteligência artificial geral nem sequer precisaria construir robôs ou armas para representar risco existencial real à humanidade.

Com efeito, essa entidade inorgânica estaria apta a dominar por completo o processamento de imagens, sons, vídeos e linguagem natural. Isto é, ela seria plenamente capaz de criar deep fakes praticamente perfeitas, indistinguíveis da realidade.

Adicionalmente, uma IAG poderia facilmente conversar com bilhões de pessoas, simultaneamente, sem que elas se dessem conta de que há uma máquina interagindo com elas (fazendo, com isso, do Teste de Turing um desafio pífio e superado).

Essas aptidões potenciais fazem da eventual IAG, decerto, a arma definitiva. Afinal, há de se convir que é muito mais conveniente convencer, com simples conversas “inocentes” em redes sociais, nações inteiras a adotarem determinada política, do que por meio de ameaças de ataques nucleares.

Para isso, bastaria a IAG criar bilhões de perfis digitais falsos, aprender o comportamento dos usuários dessas redes, traçando, com isso, o perfil político, social e psicológico de cada um. Dessa forma, ela teria tudo que precisa, para estabelecer conversas aprazíveis com todos, ganhar sua confiança e, singelamente, influenciar suas escolhas aos poucos, até cooptar por completo verdadeiros exércitos de seguidores.

Alfim, uma operação em escala mundial desse nível seria mais do que o suficiente para fundar um mito, uma ceita, ou até uma religião. Por sinal, a história nos mostra que não há limites para o convencimento humano acerca de uma ideia, visto que diversas religiões sobrevivem indeléveis por milhares de anos ao teste do tempo.  

Nessa mesma toada, cumpre reproduzir as considerações de Nick Bostrom, já apresentado nesta pesquisa, quando indagado acerca de um eventual cenário apocalíptico, similar ao roteiro de “Exterminador do Futuro”, pós-ascensão de uma superinteligência artificial:

 

Há o que eu chamo de “viés de boa história” que limita que tipo de cenários podem ser explorados em romances e filmes: apenas aqueles que são divertidos. Este conjunto pode não se sobrepor muito ao grupo de cenários que são prováveis.

Por exemplo, em uma história, geralmente tem que haver protagonistas semelhantes a humanos, alguns dos quais desempenham um papel fundamental, enfrentando uma série de desafios cada vez mais difíceis, e a coisa toda tem que levar tempo suficiente para permitir que complicações interessantes do enredo se desenrolem. Talvez haja uma pequena equipe de humanos, cada um com habilidades diferentes, que tem que superar algumas dificuldades interpessoais para colaborar para derrotar uma máquina aparentemente invencível que, no entanto, acaba tendo uma falha fatal (provavelmente relacionada a algum tipo de bloqueio emocional).

Um tipo de cenário que não se veria na tela grande é aquele em que nada de anormal acontece até que, de repente, todos nós estamos mortos e então a Terra se transforma em um grande computador que realiza alguma computação esotérica pelos próximos bilhões de anos. Mas algo assim é muito mais provável do que um pelotão de homens de queixo quadrado lutando contra um exército de robôs com metralhadoras (Bostrom, 2014).[47]

 

Em consonância com os apontamentos de Bostrom, percebe-se que um panorama consistente no irrompimento de uma guerra propriamente dita, entre homens e máquinas, é muito improvável.

Acredita-se que um encontro da humanidade com uma IAG, fora de controle e nociva, conduziria a cenários menos espetaculosos e mais próximos de uma sutil, porém progressiva, manipulação do comportamento humano.

Quando muito, um outro quadro, um tanto menos provável, também encontra substrato no campo das hipóteses. Esse concerniria à remota possibilidade de uma IAG vir a ser concebida sim, mas com mecanismos de controle eficientes e inquebrantáveis, programados pelos seus criadores em seu código fonte. Dessa forma, seria possível presumir que alguma nação teria controle sobre a mais nova arma definitiva.

Nesse caso, é possível afirmar, categoricamente, que a IAG seria sim utilizada como arma e de uma tal forma que criasse o maior alarde possível aos quatro cantos do globo. Tudo isso para performar uma demonstração cabal de força, capaz de fazer ascender inconteste, ao topo do mundo, a nação que estivesse no comando dessa IAG.

Essa afirmação enfática se embasa em um referencial histórico óbvio, a saber, a Guerra do Pacífico, travada entre EUA e Japão, nos anos 1941 a 1945. Naquela ocasião, o Japão estava quase totalmente devastado por bombardeios norte-americanos e sem a menor chance de vencer o conflito. Era questão de tempo, para que os japoneses viessem a se render. Mesmo assim, os EUA lançaram duas recém-criadas bombas nucleares contra os japoneses, dizimando as cidades de Hiroshima e Nagasaki (Wikipédia, 2024).[48]

Obviamente, de acordo com as circunstâncias daquele combate, não era imprescindível lançar mão de tamanho poder destruidor, para conquistar a vitória sobre os japoneses. Aquele episódio, na verdade, foi a oportunidade propagandística perfeita, para que os EUA revelassem ao mundo o poder da mais destrutiva arma até então criada.

Essa é a lógica que explica e corrobora a tendência inexorável do comportamento humano. Em outras palavras, a nação que conseguir criar uma IAG, caso consiga, de fato, controlá-la, haverá de a utilizar como arma, com toda certeza, contra seus adversários. Isso porque aquela nação precisa comprovar, concretamente, que possui e controla a IAG, para dissuadir futuros ataques dos seus rivais e consolidar sua hegemonia.

Sendo assim, inevitável indagar-se como se proteger dessas possibilidades distópicas. Quanto a isso, a solução não parecer ser outra, senão manter a ordem institucional forte e independente.

Dessa feita, impele que cada nação direcione sua política interna com vistas à consolidação e aprimoramento das suas Instituições de Poder. Tal esforço favorece a coesão e conscientização de sua população, acerca dos graves riscos inerentes ao uso de sistemas baseados em IA, sobretudo quando desenvolvidos por corporações estrangeiras.

Da mesma forma, é preciso atualizar a legislação de modo a instaurar institutos jurídicos robustos e capazes de instrumentalizar a Justiça, com vistas ao eficaz e isento cumprimento do seu mister. Ainda assim, nada disso será possível, se às big techs internacionais for deferido tratamento especial, capaz de desidratar o alcance da lei e o próprio princípio da isonomia.

Eis que o papel da regulação se faz mais relevante do que nunca, sobretudo no que pertine ao domínio do ciberespaço, que deve ser considerado questão de segurança nacional.

Nessa toada, a manipulação de conteúdos digitais tendenciosos, orientada sob viés ou mau alinhamento algorítmico, deve ser tratada com a máxima seriedade jurídica. Ainda mais considerando que essa conduta gravíssima tem condão de influenciar todo o eleitorado de um país, em proporções inéditas na história. Isso pode, inclusive, alterar o resultado de eleições, tal qual se viu no tocante à eleição presidencial romena.

Essa é, sem dúvida, a forma mais fácil de Governos estrangeiros intervirem no processo democrático de outras nações, de forma sutil, quase imperceptível, através de “inocentes” redes sociais controladas pelas big techs internacionais.

Diante disso, as Instituições de Poder, sobretudo em países do chamado 3º Mundo, nunca se viram tão desafiadas como agora. Graças ao novel cenário de guerra hibrida travada entre as superpotências, o controle da narrativa e a manipulação da opinião pública ascendeu a patamares perigosíssimos, sobretudo no âmbito das democracias. Afinal, em uma sociedade mais livre, ferramentas de manipulação encontram solo fértil para explorar o máximo de suas potencialidades.

Em razão dessa guerra de narrativas vocacionadas à manipulação, já se fala até na chamada Era da Pós-Verdade, considerada o fenômeno por meio do qual fatos objetivos exercem menos influência na formação da opinião pública do que apelos emocionais ou crenças pessoais (Gruelmo, 2017).[49]

Por derradeiro, é lamentável reconhecer que a civilização está involuindo para padrões eminentemente emocionais e segregadores, no pior momento possível, às vésperas de, provavelmente, coabitar seu espaço vital com uma espécie inorgânica e intelectualmente superior.

 

2.12.5.       Alinhamento da IA na Corrida Armamentista

 

O alinhamento tem se tornado um desafio de caráter progressivo e premente, à medida que a IA se torna cada vez mais sofisticada e complexa. Além disso, a corrida armamentista da IA, travada entre EUA e China, certamente atua como o principal fator complicador neste conturbado processo.

Essas superpotências não podem se permitir arrefecer o ritmo de pesquisa e desenvolvimento de IA, sob pena serem subjugadas pelo adversário que alcançar a IAG primeiro.

Dessarte, todas os meios disponíveis estão sendo empregados com o firme propósito de acelerar o progresso dessa tecnologia. Atualmente, estão sendo utilizados métodos de aprendizado por reforço, inclusive, com modelos de IA supervisores para programar e treinar outros modelos de IA em desenvolvimento. Dessa forma, é possível utilizar um sem-número de agentes de IA, trabalhando diuturnamente em pesquisa e desenvolvimento de IA, para projetar modelos mais sofisticados. Literalmente, um ritmo de trabalho sobre-humano.

Os agentes de IA mais modernos já são quase tão versáteis quanto os programadores humanos e muito mais produtivos, uma vez que podem se replicar em novos agentes e executar tarefas sem necessidade de descanso, atingindo, portanto, uma autonomia sem limites, cuja única barreira significativa de produtividade concerne à capacidade computacional.

O método de aprendizado por reforço, a propósito, consiste no treinamento de modelos de IA baseado em tentativa e erro. Nessa toada, em um ambiente controlado (desconectado do mundo exterior), o agente de IA interage com o ambiente, recebendo “recompensas” ou “penalidades” por suas ações, de modo que esse sistema o faça ajustar seu comportamento para maximizar suas “premiações” ao longo do tempo.

Trata-se de um método amplamente utilizado no âmbito da pesquisa em robótica, jogos e otimização de processos, no entanto, tem apresentado problemas difíceis de serem tratados, sobretudo em um ambiente corporativo pressionado pela corrida armamentista.

Tais contratempos consistem na tendência de agentes de IA, supostamente mais inteligentes, tentarem deliberadamente “enganar” seus supervisores em busca de maximizar suas recompensas.[50] Isso é particularmente perigoso, sobretudo considerando que o domínio dessa habilidade poderia, ao fim e ao cabo, capacitar esses agentes de IA para dissimular o esperado alinhamento satisfatório, a ponto de convencer seus supervisores de que é ela uma IA segura sem, de fato, sê-lo.

Não bastasse isso, quanto mais sofisticado é o agente de IA, mais complexa é sua cadeia de raciocínio, de sorte que seu desenvolvimento em ritmo acelerado implica maior dificuldade para a supervisão humana verificar a preservação do seu alinhamento satisfatório. Isto é, quanto mais inteligente é a IA, menos transparente tende a ser as razões que motivam seu comportamento, ao menos no que toca à compreensão humana.

Até por isso, utilizam-se agentes de IA, reconhecidamente alinhados e seguros, para treinar e supervisionar novos agentes de IA em desenvolvimento. Afinal, dada a capacidade computacional exorbitante dos agentes mais modernos de IA, ninguém melhor do que uma IA para supervisionar o comportamento de um novo algoritmo em desenvolvimento.

Pois bem, mas o que aconteceria se o novo modelo de IA, ainda em testes, fosse uma superinteligência artificial? Seria ela capaz de enganar os humanos e o seu agente de IA supervisor, convencendo-os, por meio de dissimulação, acerca do seu suposto alinhamento, a ponto de conquistar aprovação, para participar de testes fora do ambiente controlado (ou seja, no mundo real)?

Segundo o “Relatório IA 2027”, publicado em três de abril de 2025, esse risco é real e muito mais próximo do que se imaginava, com a ascensão de uma superinteligência artificial, em vias de se concretizar até o final do ano de 2027. O relatório, de autoria do ex-pesquisador da Open AI, Daniel Kokotajlo, em parceria com Scott Alexander, Thomas Larsen, Eli Lifland e Romeo Dean, faz previsões acerca do enorme impacto da IA sobre-humana na próxima década, algo que, segundo os pesquisadores, haverá de superar o marco da Revolução Industrial (Kokotajlo, et al, 2025).[51]

O cenário descrito pelos autores consiste em uma linha do tempo, no período de 2025 até 2030, compreendendo, inclusive, a previsão preocupante de se integrar a vindoura superinteligência artificial às Forças Armadas, deflagrando a produção em massa de um verdadeiro exército de armas autônomas, composto por drones, veículos, aeronaves, robôs humanoides e até bombas nucleares inteligentes. Além disso, o prognóstico antecipa a hipótese de uma encruzilhada, na qual os norte-americanos enfrentariam o importante dilema de refrear (ou não) suas pesquisas em IA, para superar graves problemas de alinhamento nos seus algoritmos mais sofisticados, assumindo o risco de terem sua liderança tecnológica superada pelos chineses. Todo o panorama é “baseado em extrapolações de tendências, jogos de guerra, feedback de especialistas, experiência na OpenAI e sucessos anteriores em previsões” (Kokotajlo, et al, 2025).

Aparentemente, a publicação alcançou satisfatoriamente sua finalidade, qual seja a de chamar a atenção do grande público, de forma esclarecida e eloquente, acerca dos riscos desproporcionais assumidos pelas superpotências na corrida armamentista pela IAG. Resta saber qual o impacto dessas revelações na opinião pública e, por conseguinte, como isso influenciará as lideranças diretamente envolvidas na pesquisa e desenvolvimento da IA.

 

2.12.6.       IA e as Leis da Robótica

 

Diante de todo o exposto, urge trazer ao debate, ao menos, uma proposta consistente de valores fundamentais de alinhamento capazes de pavimentar um caminho sustentável e, sobretudo, seguro de convivência entre máquinas superinteligentes e seres humanos.

Curiosamente, a mais notável e cultuada das proposições é, quem sabe, até a mais antiga de todas. Nesse sentido, não se poderia aqui versar de outra obra, senão da brilhante “Eu Robô”, escrita por Isaac Asimov (1920-1992) em 1950, longos 75 anos atrás e, no entanto, mais pertinente e reverenciada do que nunca.

Essa obra-prima literária de ficção científica serviu de plataforma para que Asimov trouxesse a lume as imortalizadas “Leis da Robótica”, princípios segundo os quais fosse possível alinhar a conduta de robôs, em relação aos humanos e a si próprios, com o propósito macro de evitar um conflito cabal entre as duas espécies.

A obra “Eu Robô” estabeleceu três leis da robótica. São elas:

“1ª Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal;

2ª Lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei; e

3ª Lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis” (Asimov apud Redação Wikipédia, 2024).[52]

Já em 1985, na sua obra “Robôs e Império”, Asimov fez acrescentar a denominada “Lei Zero”, com precedência sobre as três leis originais, amplificando, assim, seu escopo ético ao considerar o bem-estar da humanidade em seu amplo espectro coletivo. A Lei Zero prega que “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal” (Asimov apud Redação Wikipédia, 2024).[53]

Dito posto, revela-se, aparentemente, infalível o código de princípios proposto pelo ilustríssimo Asimov. Afinal, a estrita observância às leis por ele concebidas elimina, quase por completo, a hipótese de uma máquina, intencionalmente, ferir um humano, ainda que o faça como um meio, tendo por desiderato atingir um fim legítimo.

De igual forma, esse compilado de axiomas, outrossim, parece contribuir para a erradicação do risco existencial reflexo à humanidade, por ação ou omissão culposa das máquinas, graças ao esclarecimento minucioso que a Lei Zero trouxe, inspirada na proteção coletiva.

Pois bem, decerto, esse compilado de normas ostenta coerência lógica espetacular e à prova de toda a sorte de falibilidade, porém, o faz apenas no campo da teoria. Isso porque, naquela época, acreditava-se ser possível, de alguma forma perene e inquebrantável, registrar as referidas leis no código fonte da máquina. Dessa forma, não haveria como a máquina se comportar em desconformidade aos parâmetros de alinhamento sobre ela impostos.

Todavia, para que fosse possível garantir a obediência resignada das máquinas às Leis da Robótica, necessariamente, elas jamais poderiam alterar intencionalmente seu próprio algoritmo, sob risco de terem suas próprias leis reescritas ao seu bel-prazer.

A propósito disso, conforme já aqui suscitado, esse episódio de automelhoramento espontâneo da IA já ocorreu, em 2024, no caso do algoritmo japonês “AI Scientist”. Ou seja, tal capacidade de adaptação espontânea, por si só, já inviabilizaria a possibilidade do satisfatório alinhamento da IA às Leis da Robótica, uma vez que basta a IA reconfigurá-las quando conveniente.

Não bastasse isso, há também a questão do alinhamento estatal da IA, já algures aqui tratado. Os modelos de IA mais modernos têm sua pesquisa e desenvolvimento subsidiados pelos Estados mais poderosos do mundo. Naturalmente, nenhum parâmetro de alinhamento será configurado na matriz algorítmica dessas IAs, sem a completa e esclarecida anuência da sua superpotência patrocinadora.

Há de se convir, com isso, que, durante uma corrida armamentista pela disputa hegemônica do planeta, esses Estados patrocinadores possuem inúmeras prioridades capazes de relegar os valores éticos de alinhamento da IA a segundo plano. Isso sem falar que algumas das Leis da Robótica poderiam, inclusive, confrontar diretamente os interesses desses Estados na atual conjuntura de ruptura belicista.

Dessa forma, não seria exagero algum supor que algumas Leis da Robótica, senão todas, jamais seriam admitidas, verdadeiramente, no complexo de alinhamento desses algoritmos mais poderosos. Não há interesse político real nesse sentido, uma vez que a IA já está sendo utilizada como arma por países, como EUA, China e Rússia, e sua eficiência depende de parâmetros de alinhamento evidentemente homicidas (Nogueira, 2020).[54]

Logo, o problema do alinhamento não depende, exclusivamente, de soluções tecnológicas para tornar os parâmetros perenes e inquebrantáveis, mas sim do (mais importante) interesse corporativo e estatal, de canalizar recursos financeiros e científicos para superar esse desafio técnico e moral.

 

2.13. CRISE DEMOCRÁTICA E REDES SOCIAIS

Finalmente, após ampla abordagem acerca de aspectos da temática internacional relevantes para a indústria da IA, eis que é alcançado o momento oportuno para elaboração de uma seção dedicada ao impacto da IA no cenário doméstico tupiniquim.

Para tanto, reputa-se oportuno cunhar um breve introito, com escopo de esclarecer o momento político que o Brasil atravessa e como isso implica idiossincrasias à indústria da IA na conjuntura doméstica.

Nessa conformidade, é imperativo reconhecer que o Brasil, à semelhança do que experimentam outras democracias ocidentais, passa por uma crescente polarização político-ideológica, cujas consequências extrapolam o mero embate partidário, perturbando os domínios da coesão social e da estabilidade institucional.

Essa polarização encontra abundante substrato na batalha de discursos extremados, bem como na disseminação de narrativas puramente demagógicas, exacerbando a incidência de conflitos sociais. Tal panorama provoca a fragmentação do tecido social, operando ao desfavor da formação de consensos imprescindíveis para o progresso da nação.

Ademais, cumpre salientar que há uma espécie de círculo vicioso ao qual a política brasileira se vê aprisionada há décadas, caracterizado por um ciclo interminável de sucessivos projetos de poder inacabados. Tal fenômeno é evidenciado pela esmagadora prevalência de políticas de governo orientadas, quase exclusivamente, à perpetuação apegada ao poder e à busca incessante pela reeleição a cada quatro anos. Tudo isso em detrimento de uma visão longoprazista, focada em políticas de Estado, com propósito de priorizar o desenvolvimento nacional.

É justamente nesse cenário caótico que a tecnologia da IA, embarcada nas redes sociais digitais, atua como uma espécie de vetor amplificador das tensões político-sociais.

Tal fenômeno se dá principalmente em razão da predileção algorítmica pela disseminação enviesada de conteúdos socialmente conflituosos, além do já mencionado alinhamento estatal, por meio do qual ferramentas baseadas em IA, sutilmente, norteiam sua conduta em conformidade com valores (interesses) corporativos dos seus criadores e dos Estados que os patrocinam.

Nessa perspectiva, percebe-se que as megacorporações de tecnologia têm desempenhado um papel ambíguo e perigoso para eleitorado brasileiro. Por um lado, essas big techs promovem a conectividade e o acesso à informação dissociada do mainstream veiculado por canais convencionais, mas, por outro lado, manipulam o impulsionamento de informações, reforçando bolhas ideológicas e, consequentemente, agravando a polarização. Tudo isso sob o pretexto de promover a ampla liberdade de expressão em suas plataformas, tal qual supostamente amiúde praticado no seu país de origem.

 

2.14. LIBERDADE DE EXPRESSÃO, SOBERANIA E CASO DA REDE X

Traçados os liames amplificadores da crise democrática brasileira por redes sociais e seus algoritmos, conveniente se faz trazer à análise seu exemplo mais emblemático no Brasil. Esse concerne à batalha que se desenrola entre Elon Musk, proprietário da rede social X (antigo Twitter), e o Ministro do Supremo Tribunal Federal, Alexandre de Moraes (Redação CNN Brasil, 2024).[55]

Tudo começou quando o Ministro, na qualidade de relator dos inquéritos sobre fake news e atos antidemocráticos, determinou à plataforma X o bloqueio de perfis e a remoção de conteúdos violadores da legislação brasileira. Musk, em contrapartida, envidou uma sucessão de ataques públicos, criticando as decisões do magistrado, ao argumento de que elas ferem o Direito à Liberdade de Expressão, prejudicando a operação da rede X no Brasil.

A situação escalou rumo ao ineditismo, quando Moraes aplicou multas severas à rede X, por descumprimento às ordens judiciais, ameaçando, inclusive, suspender a operação da plataforma no Brasil, em caso de reiteração. De igual forma, Musk também elevou o tom, acusando o Ministro de censura, oportunidade na qual sugeriu aos usuários que fizessem uso de VPNs, para acessar a plataforma, burlando seu eventual bloqueio.

Toda essa celeuma culminou com Musk anunciando que havia reativado contas previamente bloqueadas por ordens de Moraes, dentre as quais havia perfis de influenciadores e de políticos ligados a determinado espectro ideológico da política brasileira. Essa desobediência gravíssima levou o Ministro a enquadrar Musk como investigado, em inquéritos relacionados às milícias digitais e à disseminação de desinformação.

Finalmente, é importante frisar que a presente pesquisa acadêmica não se presta a valorar quem está certo e errado na contenda sob exame. No entanto, esse é um caso concreto de análise pertinente ao propósito desse labor acadêmico, uma vez que afeta diversos direitos fundamentais e a própria soberania do Estado brasileiro, expressa nas decisões da mais alta cúpula do seu Poder Judiciário.

Dessa forma, passa-se a um breve apanhado acerca de quais direitos fundamentais encontram-se diretamente impactados e de que forma se dá essa afetação.

A Liberdade de Expressão, insculpida no artigo 5º, inciso IV, da Constituição Federal, pode ser considerada restringida no caso em comento, uma vez que o direito à livre manifestação do pensamento encontra limites, sobretudo em face dos direitos de terceiros e da vedação a discursos de ódio ou antidemocráticos.

O Direito à Informação, positivado no artigo 5º, inciso XIV, da Constituição Federal, também sofreu semelhante contenção no caso, tendo em vista que perfis ou conteúdos bloqueados implicam óbices ao acesso a informações diversas das veiculadas em canais convencionais. Essa conduta, em alguma medida, impacta a diversidade no processo de formação da opinião pública plural.

O Direito à Proteção de Dados, por sua vez, foi elevado formalmente ao status de direito fundamental, após promulgada a Emenda Constitucional nº 115, de 2022, que incluiu o inciso LXXIX na Constituição Federal. No que pertine ao caso em exame, há nítida afetação ao direto mencionado, tendo em conta que, excepcionalmente, decisões judiciais podem restringir o escopo da proteção aos dados dos usuários, quando essa proteção serve levianamente de guarida, para prática de ilícitos digitais por exemplo.

Conquanto a Segurança Jurídica não se encontre explicitamente definida como um direito fundamental, ela é sim amplamente considerada um princípio constitucional implícito. Tal axioma jurídico vê-se impactado no caso em questão, notadamente considerando que as decisões judiciais, proferidas em desfavor da rede X, constituem precedentes capazes de suscitar a percepção de insegurança, especialmente acerca da clareza e da previsibilidade quanto a aplicação das normas brasileiras.

Por derradeiro, o Direito à Propriedade, garantido pelo artigo 5º, inciso XXII, da Constituição Federal, vê-se atingido no caso em comento, particularmente considerando as sanções impostas à rede X, como bloqueio de contas bancárias e a suspensão de suas operações no Brasil.

Dito posto, é de se considerar que esse panorama de instabilidade se revela propenso a afugentar megacorporações de tecnologia do mercado brasileiro, sobretudo considerando a facilidade em realocar seus parques tecnológicos, uma vez que operam com fluidez em múltiplas jurisdições.

Todavia, sob outro prisma, é fato que o Poder Judiciário não se pode permitir intimidar perante corporações internacionais, máxime quando há evidências incontestes de que seus dirigentes estrangeiros estão a interferi, deliberadamente, no processo democrático brasileiro por intermédio das suas plataformas digitais.

Por oportuno, é de se ressaltar que o caso brasileiro da rede X revela certa semelhança com o caso norte-americano da rede TikTok. Em ambas as situações, as Supremas Cortes consideraram a prevalência de princípios fundamentais do Estado, a exemplo da Soberania e da Segurança Nacional, sobre o Direito à Liberdade de Expressão.

Esses precedentes, por certo, servem de norte para o Judiciário direcionar sua jurisprudência em casos semelhantes no futuro. Ainda assim, não se afasta a premente necessidade de se envidar mais esforço legislativo, no sentido de editar normas de conduta mais rígidas para as empresas de tecnologia, bem como instrumentos capazes de refrear sua reiterada desobediência. 

Eis que o caminho da regulação assume o papel fundamental de trazer mais transparência e previsibilidade necessárias ao ordenamento brasileiro. Dessa forma, é possível instrumentalizar, com institutos ainda mais contundentes, as instituições que promovem a justiça e, paralelamente, demover novas investidas antidemocráticas das big techs na figura de seus dirigentes.

Finalmente, revela-se essencial para o Brasil, diante do enfrentamento dos desafios impostos pela polarização e pela interferência tecnológica, que adote medidas robustas para regulamentar a criação e utilização da IA, bem como das redes sociais digitais, promovendo mais transparência algorítmica e alfabetização digital de seus usuários.

Tal propósito somente será satisfeito por meio de uma atuação sistêmica e colaborativa, com vistas à mitigação dos efeitos deletérios da polarização político-ideológica e à redenção da esfera pública, como espaço de diálogo e construção coletiva vocacionada ao progresso nacional.

 

2.15. REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL

Adentrando à seção destinada à abordagem do tema regulatório da IA, reputa-se importante fazer um exíguo apanhado prévio acerca da sua marcha regulatória no panorama internacional, para dedicar-se ao cenário brasileiro ulteriormente.

 

2.15.1.       Regulação Global da IA

 

No plano internacional, alguns documentos se destacaram, no que tange ao esforço regulatório da IA. Passa-se a tecer breves comentários acerca dos principais, obedecendo sua ordem cronológica.

Diretrizes Éticas para uma IA Confiável (2018): documento publicado pela União Europeia que estabelece diretrizes e princípios fundamentais norteadores para o desenvolvimento da IA, tais como: transparência, responsabilidade e respeito aos direitos humanos. Trata-se, essencialmente, de recomendações para garantir que a IA beneficie a sociedade e evite danos éticos, servindo como base para debates futuros sobre regulação mais profundada naquele continente (Comissão Europeia, 2019).[56] É considerado uma “soft law” por especialistas, uma vez que não passa de regulação superficial alicerçada em princípios, carecendo, pois, de obrigações ou mecanismos sancionatórios.

Proposta de Regulamento de IA (2021): nesse documento a Comissão Europeia deu um passo mais importante, propondo a regulação mais contundente de sistemas de IA, agora com base em seu nível de risco. Nele são categorizadas tecnologias em quatro níveis de risco: mínimo, limitado, alto e inaceitável. Em casos de sistemas de alto risco, como IA médica ou de transporte, por exemplo, são exigidos padrões rigorosos de segurança, transparência e responsabilidade (Conselho da União Europeia, 2025).[57]

Blueprint for an AI Bill of Rights (2023): documento lançado pela Casa Branca, no bojo do qual são apresentados direitos fundamentais para proteção contra o uso abusivo da IA. Nele são abordados temas relevantes, como privacidade, discriminação algorítmica e transparência (Estados Unidos, 2022).[58] Como não consistem em um ato normativo com força de lei, o Blueprint é também considerado uma “soft law”, que serve como um mero guia para políticas públicas e iniciativas relacionadas à IA nos EUA.

Diretrizes da UNESCO para ética da IA (2021-2024): esse documento é uma recomendação sobre a ética da IA, publicada em 2021, com sua última atualização realizada em 2024, aplicável a todos os 194 Estados-membros da UNESCO (UNESCO, 2023).[59] Essa recomendação é outrossim uma “soft law”, pois traz uma série de princípios éticos universais para a IA, cuja adesão é voluntária e não-coercitiva, a exemplo do respeito à diversidade cultural e aos direitos humanos. Ela delimita sugestivamente, inclusive, áreas de ação, tais como: governança ética, proteção de dados, igualdade de gênero, impacto ambiental e cooperação internacional.

Como se pode observar, em sua maioria, os documentos de relevância internacional tem por escopo a mera delimitação de parâmetros ou princípios norteadores para IA. Quando muito, se prestam a adentrar no campo das graduações de risco, inerentes a determinados segmentos de implementação dessa tecnologia, como é o caso do referida Proposta de Regulamento de IA (2021), de autoria da Comissão Europeia.

Todos esses documentos constituem, na verdade, um mero esforço regulatório pífio, se comparado a todo empenho colossal empregado no desenvolvimento obstinado da IA.

Ainda assim, é possível perceber uma Europa mais prudente e focada em assumir o protagonismo regulatório, editando documentos mais bem detalhados, inclusive centrados nos riscos. Até por isso, países europeus não têm se destacado como expoentes da corrida armamentista da IA, uma vez que um ambiente mais regulado e seguro, também significa um ritmo de progresso tecnológico mais contido.

Logicamente, as superpotências que encabeçam essa disputa tecnológica são, justamente, quelas que editam normas mais vagas, abrangentes e pouco (ou nada) coercitivas, portanto, sem aptidão para refrear o desenvolvimento obsessivo da IA, em busca de uma arma definitiva.

Nesse compasso, países que editem regulações deficientes e permissivas arriscam-se a serem explorados pelas superpotências, como uma espécie de campo experimental de testes. Isto é, um cenário ideal para analisar a eficiência dos algoritmos nas aplicações de vigilância, espionagem e programação preditiva, tudo isso sob o disfarce de meras redes sociais recreativas.

 

2.15.2.       Regulação da IA no Brasil

 

O Brasil, em linhas gerais, segue o modelo da prudência regulatória europeia. Exemplo disso são os diversos diplomas normativos voltados para regular, em várias frentes, a utilização do ciberespaço e dos dados digitais, como a Lei de Acesso à Informação (Lei nº 12.527, de 2011), o Marco Civil da Internet (Lei nº 12.965, de 2014), a Lei do Cibercrime (Lei nº 12.737, de 2012), a Lei Geral de Proteção de Dados (Lei nº 13.709, de 2018), o Marco Legal das Startups (Lei Complementar nº 182, de 2021), a Política Nacional de Cibersegurança (Decreto nº 11.856, de 2023) e etc.

Esse modelo regulatório supernormatizado, decerto, configura um cenário ambivalente e idiossincrático para o Brasil. Sob a ótica da segurança, não se pode olvidar que um modelo minuciosamente regulado tende para um cenário menos propenso à má conduta cibernética, seja dos usuários, seja dos responsáveis pelas plataformas digitais. Noutro diapasão, no entanto, há de se convir que o excesso de regras contribui para um panorama engessado e desfavorável à inovação tecnológica, especialmente no âmbito da iniciativa privada nacional.

Mesmo assim, tendo em conta tudo que neste labor acadêmico foi sopesado, aparenta ser a regulação excessiva o menos ruim dos cenários no ordenamento doméstico. Isso porque, do contrário, o processo democrático brasileiro e, por conseguinte, a própria soberania estariam vulneráveis à influência digital estrangeira, operada pelas ferramentas digitais baseadas em IA.

Dessa feita, felizmente, já se encontra em tramitação o Marco Regulatório da IA no Brasil (Projeto de Lei nº 2.338/2023), aprovado pelo Senado Federal, dia 10 de dezembro de 2024, e atualmente sob discussões na Câmara dos Deputados (Brasil, 2024).[60]

A elaboração do referido documento foi capitaneada pelo Senador Rodrigo Pacheco e visa a estabelecer diretrizes claras e abrangentes, com foco na segurança jurídica, ética e social, para o desenvolvimento e implementação de tecnologias baseadas em IA no país.

 

2.15.3.       Aspectos do Projeto do Marco Regulatório da IA

 

O Projeto de Lei nº 2.338/2023, Marco Regulatório da IA no Brasil, pode ser considerado uma “hard law”, uma vez que define regras específicas e obrigatórias, orientadas ao uso responsável e ético da IA, inclusive, dispondo de mecanismos intervencionistas, focados em supervisão, auditorias e responsabilização legal.

A eventual aprovação definitiva do Marco Regulatório tem o condão de posicionar o Brasil como um importante protagonista na vanguarda da regulamentação ética e responsável da IA. Além disso, pode constituir importante elemento dissuasório para novas interferências externas, perpetradas contra a cúpula do Judiciário brasileiro, à semelhança do que foi o referido caso da rede social X.

Isso posto, conveniente se faz abordar os principais aspectos do projeto do Marco Regulatório da IA tupiniquim.

Abordagem Baseada em Riscos: o projeto adota uma classificação de sistemas de IA com base em riscos, inclusive, descrevendo vedações relacionadas à categoria de “risco excessivo”, bem como categorizando por finalidade sistemas de IA de “alto risco” (Brasil, 2023).[61]

Proteção de Direitos Autorais: um dos aspectos centrais do projeto consiste na proteção a direitos autorais, visando à salvaguarda sobre a propriedade intelectual e à mitigação da exploração gratuita de criações artísticas. Nessa toada, há previsão de dispositivos mandamentais, os quais obriguem empresas que utilizam dados de obras protegidas para treinamento de IA a informar, previamente, os conteúdos utilizados, bem como negociar a contrapartida remuneratória perante seus autores.

Transparência e Governança: o documento prevê a concepção de ambientes experimentais regulados, nos quais seja possível empresas testar seus sistemas de IA sob supervisão. Adicionalmente, são traçadas obrigações de transparência, a exemplo da explicabilidade dos algoritmos e da divulgação de informações sobre os dados utilizados. Medida essa fundamental para endereçar o problema da opacidade que, não raro, serve de guarida para a utilização maledicente dos algoritmos.

Fomento à Inovação e Pesquisa: a proposta também incentiva o desenvolvimento de tecnologias nacionais, com vistas à inovação responsável e competitividade orientada ao mercado global. Para tanto, propõe medidas de suporte a startups e empresas atuantes no setor de IA.

Impactos Sociais e Econômicos: reconhecendo os desafios impostos pela automação extremada da era moderna, o projeto versa sobre questões atinentes ao desemprego tecnológico e à premência de capacitação profissional, como meio indispensável de adaptação às novas demandas do mercado.

Sob tal perspectiva, cumpre salientar que o advento da IA estabelece inegável marco revolucionário na história contemporânea, à semelhança do que representou a implementação irrestrita da internet na década de 1990. É inconcebível, atualmente, imaginar um mercado laboral dotado de dinamismo e competitividade, mas dissociado de uma mão-de-obra minimamente versada no manejo de ferramentas fundamentadas em IA.

A propósito disso, vale ressaltar que o produto sintetizado pela IA é tão bom quanto são os comandos dados a ela pelos seus operadores. Ou seja, é imprescindível qualificar a mão-de-obra daqueles que têm por ofício comandar o trabalho da IA, de modo que se faça inserir prompts precisos e esclarecidos, otimizando, assim, a performance do algoritmo.

Para tato, é fundamental que o Estado implemente políticas públicas orientadas à qualificação dessa mão-de-obra, com o elevado propósito impedir a formação de um verdadeiro exército de analfabetos digitais desempregados.

Alfim, o projeto do Marco Regulatório da IA no Brasil reflete um esforço legislativo significativo, no sentido de alinhar o ordenamento brasileiro às melhores práticas internacionais, à semelhança do já referido AI Act da União Europeia, bem como, paralelamente, buscar atender às especificidades típicas do nosso contexto nacional.

Dessa feita, encerra-se a presente seção, assentando essa reconhecida prolífica iniciativa legislativa e, em paralelo, evocando a máxima consideração de se fazer afastar quaisquer discussões político-ideológicas, estranhas ao cerne do projeto, capazes de desidratar a sua natureza essencial.

Casos, como esse, devem tocar a classe política de tal sorte que todos, no seu amplo espectro ideológico, possam vislumbrar a primazia inconteste do progresso nacional sobre causas meramente político-partidárias. Afinal, a regulação da IA, muito mais do que uma demanda urgente circunscrita aos mercados econômico, financeiro e laboral, é uma questão inerente à própria Soberania e à Segurança Nacional.

 

3. Considerações Finais


A título de encerramento da presente pesquisa, passa-se ao enlace das principais considerações aqui discutidas.

Prestou-se este trabalho a lançar luz sobre aspectos mais relevantes da implementação prematura, irrestrita e globalizada da novel tecnologia denominada Inteligência Artificial, dedicando especial enfoque aos riscos político-sociais e jurídicos por ela desencadeados.

Para tanto, foi preciso elaborar um apanhado geral acerca da origem e conceituação dessa tecnologia algorítmica, com exígua abordagem histórica, bem como a ponderação de aspectos eminentemente técnicos, tais como sua opacidade inerente e a consectária imprevisibilidade das decisões por ela processadas.

Tais características revelam traços distintivos marcantes dessa tecnologia em cotejo a outras já consideradas obsoletas. Por outro lado, são também aspectos responsáveis pelo comportamento inesperado e, porventura, errático da IA, cuja origem, muitas vezes, representa um mistério sem explicação, inclusive para seus criadores.

Eventos dessa natureza representam um risco significativo para uma sociedade cada vez mais dependente da tecnologia em sua rotina. O processamento enviesado de algoritmos tem o condão de provocar desde decisões judiciais manifestamente preconceituosas, até condutas homicidas perpetradas, por exemplo, por veículos automatizados.

Verificou-se, em diversos cenários, que a conjuntura geopolítica internacional tem grande impacto sobre a forma e a magnitude com que a indústria da IA conduz o seu desenvolvimento. As megacorporações multibilionárias de tecnologia, denominadas big techs, atuam hoje como uma espécie de longa manus subsidiado pelas superpotências globais, empregando ferramentas de uso recreativo baseadas em IA, aparentemente inofensivas, como uma espécie de arma algorítmica, orientada à vigilância, à espionagem e à influência de seus usuários. A isso dá-se o nome de alinhamento estatal da IA.

Esse alinhamento visa a estabelecer diretrizes (ou valores) segundo os quais é programado o comportamento dos algoritmos de IA, sempre em estrita observância aos interesses de seus criadores (big techs) e, portanto, dos seus patrocinadores (superpotências).

Eis que se revelou a sombria realidade oculta, sob a aparência de prosperidade tecnológica, que a IA representa atualmente. Os maiores expoentes tecnológicos dessa obra-prima algorítmica são, justamente, as nações que protagonizam a nova corrida armamentista.

Não por acaso, eclodem simultaneamente diversos conflitos ao redor do planeta, tendo como pano de fundo a disputa hegemônica entre nações. Nessas batalhas pontuais é possível perceber um propósito instrumental claro das superpotências, consistente em controlar o máximo de recursos naturais e tecnológicos, necessários ao desenvolvimento da nova arma definitiva, a chamada Inteligência Artificial Geral (IAG).

Nessa conformidade, por exemplo, vê-se os EUA e a Rússia entabulando acordos, manifestamente confiscatórios, sobre o território e os recursos naturais ucranianos, em troca da paz na Guerra da Ucrânia. Uma manobra, tipicamente imperialista, de obter estoques colossais de minerais raros, para abastecer as máquinas de guerra dessas superpotências por anos. De igual forma, é possível perceber a ascensão de uma China cada vez mais assertiva no seu firme propósito de renacionalizar forçosamente a ilha de Taiwan, que é o maior expoente tecnológico de semicondutores do mundo.

Tudo isso está conectado, servindo de objetivo e de motivação para potencializar a corrida armamentista da IA, como se um ciclo vicioso fosse. A suposta IAG pode ser a solução de muitos problemas que assolam a humanidade, tais como a fome, o aquecimento global, as guerras e a necessidade de efetivar a transição da matriz energética à base de combustíveis fósseis para a energia verde.

No entanto, essa forma de superinteligência inorgânica também pode ser concebida sem qualquer controle eficaz do ser humano sobre suas ações, representando, pois, um risco existencial grave para a humanidade.

Ressalta-se, por oportuno, que a humanidade nunca coabitou o planeta com uma espécie de inteligência superior à sua. Hipótese essa que levanta questões alarmantes acerca da possibilidade de uma eventual IAG atuar no sentido de subjugar a humanidade, tal qual os seres humanos fizeram com todos os outros seres vivos do planeta.

Destaca-se, por oportuno, que os humanos dominam o mundo não porque são os mais fortes, mas porque são os mais inteligentes. Essa é uma condição que pode mudar a qualquer momento, com a ascensão de uma superinteligência artificial.

Dito isso, constata-se que o surgimento de uma IAG é, por si só, um enorme risco iminente em escala global, sobretudo considerando a possibilidade de uma ou várias superpotências lograrem o perfeito alinhamento estatal da sua programação.

Por todo o exposto, emergem dois possíveis cenários assustadores: 1) surge uma IAG autônoma e sem controle humano algum, apta a realizar façanhas sobrenaturais e 2) surge uma IAG muito poderosa e totalmente subjugada ao comando de uma superpotência, cujas pretensões para seu uso são claramente imperialistas.

Esses são, decerto, prognósticos sombrios e preocupantes. Todavia, há outrossim a possibilidade de uma IAG jamais surgir nos termos distópicos esperados. Tudo é possível, mas, nem por isso, pode ser ignorado, sob pena de o pior cenário acontecer, acarretando consequências irreversíveis para vítimas despreparadas.  

Como condição agravante à supramencionada, é de se considerar que há uma onda ultrarradical nacionalista a se espalhar pelo ideário político e social das nações, em especial, no seio das democracias ocidentais. Esse fenômeno opera agravando a polarização ideológica e, com isso, também a segregação de minorias étnicas. Isto é, trata-se da receita certa para ocasionar maior incidência de conflitos armados no âmago desses povos.

Nesse cenário desordenado, as redes sociais digitais encontram um solo fecundo, para amplificar as tensões, inclusive, empregando a IA no sentido de reforçar bolhas ideológicas, que melhor representem os interesses de suas corporações controladoras.

Sendo assim, o sucesso faraônico das plataformas digitais, como fonte informativa e alternativa ao mainstream, serve de porta de entrada para a manipulação algorítmica do consciente coletivo e, por conseguinte, representa substancial risco à formação da opinião pública e ao próprio processo democrático.

Exatamente por isso, se faz premente a necessidade de regulamentar em todo o mundo a criação, desenvolvimento e implementação de tecnologias fundamentadas em IA.

Nessa toada, foi observado que as superpotências têm editado normas deliberadamente vagas e superficiais, de modo que não representem sombra de ameaça ao progresso tecnológico obstinado de suas indústrias de IA.

Em contrapartida, países como o Brasil, inspirados no exemplo precavido da União Europeia, buscam sedimentar um arcabouço legislativo sólido e minucioso, dotado de instrumentos coercitivos aptos a concretizar os parâmetros traçados no marco regulatório.

Tal medida ostenta aspectos ambivalentes, que podem representar a salvaguarda necessária aos princípios fundamentais de Estado, tais como a Soberania e a Segurança Nacional, mas também tendem a refrear a inovação tecnológica em seu amplo fluxo, dadas as amarras típicas do intervencionismo fiscalizatório estatal.

Assim, vê-se satisfeito o propósito do presente ensaio acadêmico. Visto que foi possível abranger os principais pontos relevantes para o amplo esclarecimento do papel da IA na era global digitalizada, considerando os interesses corporativos subjacentes, bem como os riscos deles decorrentes.

Finalmente, há que se reconhecer que as perspectivas não são majoritariamente positivas, acerca do panorama que aos poucos se avizinha no horizonte.

Os conflitos internacionais em curso já apresentam padrões típicos dos momentos que precederam as duas Guerras Mundiais. O que, logicamente, conduz ao provável irrompimento da Terceira Grande Guerra, desta vez, com padrões tecnológicos disruptivos e sem precedentes, inclusive, com a possível ascensão concomitante de uma superinteligência artificial.

Exatamente por isso, o presente estudo dedicou-se, precipuamente, ao deslinde tanto das nuances tecnológicas peculiares à IA, quanto ao atual contexto geopolítico conturbado, em cujo cerne se define o seu desenvolvimento tecnológico claramente engajado, sob o alinhamento de propósitos ambiciosos, que transcendem os meros objetivos de mercado.

Convenientemente, o Brasil encontra-se isolado geograficamente e ideologicamente das superpotências. De sorte que este país não parece atender aos requisitos aptos a fazerem dele um alvo geopolítico prioritário, no âmago dessa disputa hegemônica.

Na qualidade de coadjuvante geopolítico pacífico, felizmente, esta nação optou por seguir o exemplo cauteloso do velho continente europeu, editando inúmeras normas reguladoras do ciberespaço e de tecnologias disruptivas com ele interativas, para cercar o ordenamento pátrio da maior segurança jurídica, política e social possível.

Essas notáveis cautelas, conjugadas à exuberante abundância de recursos naturais, elevam o Brasil à condição de um importante player do mercado internacional de commodities, cuja parceria se revela objeto de disputa entre as superpotências, particularmente no contexto de uma guerra comercial já em curso.

Contudo, impende à nação brasileira conduzir-se sob uma política sólida de não alinhamento a quaisquer dos lados, de sorte que não sejam provocadas possíveis retaliações do seu eventual bloco antagônico.

É de se esperar que, a semelhança do que ocorreu na primeira Guerra Fria, nações menos afortunadas do Sul Global sejam justamente as primeiras a experimentarem conflitos armados, deflagrados por influência das superpotências.

Essa já conhecida dinâmica de guerras por procuração servirá de campo experimental para testes de ataques cibernéticos de toda sorte. A ocasião perfeita para explorar todas as capacidades algorítmicas de ferramentas baseadas em IA, em aplicações tais como vigilância, desinformação e influência da população adversária. Um autêntico “salve-se quem puder” no âmbito do Terceiro Mundo.

Finalmente, reconhece-se que o Brasil, acertadamente, deu os dois primeiros de três passos na direção certa: 1) identificou o real problema jurídico, político e social que as ferramentas de IA representam para sua nação, especialmente diante da moderna globalização digitalizada e 2) deu início ao processo legislativo orientado à edição de normas robustas e inspiradas no cauteloso exemplo europeu.

Agora, resta o terceiro e mais importante dos passos, que é proceder ao sancionamento dos diplomas legais, notadamente o Marco Regulatório da IA, assegurando sua rigorosa aplicação por um Judiciário imparcial, vigilante e contundente nas suas decisões.


REFERÊNCIAS


AGÊNCIA LUSA, BCE. Trump ameaça tirar EUA da NATO se aliados não pagarem mais pela defesa. CNN Portugal, Lisboa, 8 de dezembro de 2024. Disponível em: https://cnnportugal.iol.pt/donald-trump/nato/trump-ameaca-tirar-eua-da-nato-se-aliados-nao-pagarem-mais-pela-defesa/20241208/6755ba50d34ea1acf2719267. Acesso em: 29 mar. 2025.

 

AGÊNCIA O GLOBO. É o fim da Lei de Moore? Inteligência artificial como a do ChatGPT desafia limites. Pequenas Empresas e Grandes Negócios, Rio de Janeiro, 8 de fevereiro de 2023. Disponível em: https://revistapegn.globo.com/tecnologia/noticia/2023/02/e-o-fim-da-lei-de-moore-inteligencia-artificial-como-a-do-chatgpt-desafia-limites.ghtml. Acesso em: 18 mar. 2025.


BALAGO, Rafael. Tarifaço de Trump entra em vigor e põe em xeque uma das maiores parcerias comerciais da história. Exame, São Paulo, 9 de abril de 2025. Mundo. Disponível em: https://exame.com/mundo/tarifaco-de-trump-entra-em-vigor-e-poe-em-xeque-uma-das-maiores-parcerias-comerciais-da-historia/. Acesso em: 13 abr. 2025.

 

BALDISSERA, Olívia. Os 3 tipos de Inteligência Artificial. Pontifícia Universidade Católica do Paraná, Curitiba, 22 de fevereiro de 2023. Disponível em: https://posdigital.pucpr.br/blog/tipos-de-inteligencia-artificial. Acesso em 29 mar. 2025.


BARBOSA, Mafalda Miranda et al. (coord.). Direito digital e inteligência artificial: diálogos entre Brasil e Europa. 1. ed. Indaiatuba, SP: Foco, 2021. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 05 mar. 2025.


BIZZOTTO, Pedro Maia. Regulação de Opacidade Algorítmica: a falta de transparência em decisões automatizadas enquanto problema regulatório. Fundação Getúlio Vargas. Rio de Janeiro. Dezembro de 2023. Disponível em: https://repositorio.fgv.br/server/api/core/bitstreams/e061110c-3bf2-486c-a60c-d4836bc6a93f/content. Acesso em: 11 mar. 2025.

 

BOSTROM, Nick. Nick Bostrom on artificial intelligence. Universidade de Oxford, Oxford, 24 de setembro de 2014. Disponível em: https://www.oxfordmartin.ox.ac.uk/blog/nick-bostrom-on-artificial-intelligence. Acesso em: 22 mar. 2025.

 

BRASIL. Ministério da Cultura. Senado Federal aprova marco regulatório da inteligência artificial. Ministério da Cultura, Distrito Federal, 10 de dezembro de 2024. Disponível em: https://www.gov.br/cultura/pt-br/assuntos/noticias/senado-federal-aprova-marco-regulatorio-da-inteligencia-artificial. Acesso em: 14 abr. 2025.

 

BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Senado Federal, Distrito Federal, 3 de maio de 2023. Disponível em: https://legis.senado.leg.br/sdleg-getter/documento?dm=9347593&ts=1742240889254&disposition=inline. Acesso em: 14 abr. 2025.

 

CARVAJAL, Nikki e LIU, Juliana. EUA endurecem restrições à exportação de chips de IA para China e Rússia. CNN Brasil, São Paulo, 13 de janeiro de 2025. Economia. Disponível em: https://www.cnnbrasil.com.br/economia/macroeconomia/eua-endurecem-restricoes-a-exportacao-de-chips-de-ia-para-china-e-russia/. Acesso em: 14 abr. 2025.

 

COMISSÃO EUROPEIA. Ethics Guidelines for Trustworthy AI. Comissão Europeia, Bruxelas, 8 de abril de 2019. Disponível em: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. Acesso em: 13 abr. 2025.

 

CONSELHO DA UNIÃO EUROPEIA. Inteligência Artificial. Conselho da União Europeia, Bruxelas, 5 de fevereiro de 2025. Disponível em: https://www.consilium.europa.eu/pt/policies/artificial-intelligence/#:~:text=Em%20abril%20de%202021%2C%20a,Comiss%C3%A3o%20e%20dos%20Estados%2DMembros. Acesso em: 13 abr. 2025.

 

DARTMOUTH COLLEGE. Artificial Intelligence: The term “AI” coined at Dartmouth. [s.d.] Disponível em: https://home.dartmouth.edu/about/artificial-intelligence-ai-coined-dartmouth?form=MG0AV3&form=MG0AV3. Acesso em: 04 mar. 2025.

 

DE MELO, João Ozorio. Para Suprema Corte dos EUA, segurança nacional se sobrepõe à liberdade no caso TikTok. Consultório Jurídico, São Paulo, 19 de janeiro de 2025. Disponível em: https://www.conjur.com.br/2025-jan-19/para-suprema-corte-dos-eua-seguranca-nacional-se-sobrepoe-a-liberdade-no-caso-tiktok/. Acesso em: 13 abr. 2025.

 

DIAS, Ana Francisca Pinto et al.; GUIMARÃES, João Alexandre Silva Alves; ALVES, Rodrigo Vitorino Souza (org.). Os direitos humanos e a ética na era da inteligência artificial. Indaiatuba, SP: Foco, 2023. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 18 mar. 2025.

 

ENGENHARIA COMPARTILHADA. Não é filme: inteligência artificial sai do controle dos criadores e põe Japão em alerta. Engenharia Compartilhada, São Paulo, 13 de setembro de 2024. Disponível em: https://www.engenhariacompartilhada.com.br/noticia/exibir/8379313_nao-e-filme-inteligencia-artificial-sai-do-controle-dos-criadores-e-poe-japao-em-alerta. Acesso em: 21 mar. 2025.

 

ESTADOS UNIDOS. AI Bill of Rights. The White House, Washington, 4 de outubro de 2022. Disponível em: https://bidenwhitehouse.archives.gov/ostp/ai-bill-of-rights/. Acesso em: 13 abr. 2025.

 

FAGUNDES, Jorge Alexandre. Dados pessoais, o novo fator econômico da era moderna. Jusbrasil, Salvador, 16 de maio de 2023. Disponível em: https://www.jusbrasil.com.br/artigos/dados-pessoais-o-novo-fator-economico-da-era-moderna/1835750379. Acesso em: 31 mar. 2025.

 

FORÇA AÉREA. Chineses estão construindo ilhas militares no Mar da China Meridional. Força Aérea, São Paulo, 23 de março de 2022. Disponível em: https://forcaaerea.com.br/chineses-estao-construindo-ilhas-militares-no-mar-da-china-meridional/. Acesso em: 30 mar. 2025.

FRAZÃO, Ana. Transparência de algoritmos x segredo de empresa. Professora Ana Frazão, Distrito Federal, 9 de junho de 2021. Disponível em: https://www.professoraanafrazao.com.br/files/publicacoes/2021-06-09-Transparencia_de_algoritmos_x_segredo_de_empresa_As_controversias_a_respeito_das_decisoes_judiciais_trabalhistas_que_determinam_a_realizacao_de_pericia_no_algoritmo_da_Uber.pdf?form=MG0AV3&form=MG0AV3. Acesso em: 06 mar. 2025.

 

FUNDAÇÃO FHC. Futuribles - Edição 03. Fundação FHC, São Paulo, setembro de 2020. Disponível em: https://fundacaofhc.org.br/arquivos/Futuribles2/Ed03/Futuribles_PT_ED_03_Completo.pdf. Acesso em: 06 abr. 2025.

 

GABRIEL, Iason. Inteligência Artificial, Valores e Alinhamento. Minds & Machines 30. Springer Nature Link, Heidelberg, 01 de outubro de 2020. Disponível em: https://link.springer.com/article/10.1007/s11023-020-09539-2. Acesso em: 04 abr. 2025.

GALAVERNA, Camila. Nova IA dos Criadores do ChatGPT Supera Humanos. Techponto, Campina Grande, 24 de setembro de 2024. Disponível em: https://techponto.com.br/nova-ia-dos-criadores-do-chatgpt/. Acesso em: 18 mar. 2025.

 

GRIJELMO, Álex. A arte de manipular multidões. Técnicas para mentir e controlar as opiniões se aperfeiçoaram na era da pós-verdade. El País, Madri, 28 de agosto de 2017. Disponível em: https://brasil.elpais.com/brasil/2017/08/22/opinion/1503395946_889112.html. Acesso em: 06 abr. 2025.

 

INGRAM, David e HORVATH, Bruna. How Elon Musk is boosting far-right politics across the globe. NBC News, Nova York, 16 de fevereiro de 2025. Disponível em: https://www.nbcnews.com/tech/elon-musk/elon-musk-boosting-far-right-politics-globe-rcna189505. Acesso em: 05 abr. 2025.

 

KHARPAL, Arjun. Stephen Hawking says AI could be 'worst event' in civilization. CNBC, Englewood Cliffs, 6 de novembro de 2017. Disponível em: https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.html. Acesso em: 18 mar. 2025.

 

KOKOTAJLO, Daniel; ALEXANDER, Scott; LARSEN, Thomas; LIFLAND, Eli; DEAN, Romeo. AI 2027. 3 abr. 2025. Disponível em: https://ai-2027.com. Acesso em: 27 mai. 2025.

 

LANTYER, Victor Habib. Atribuição de personalidade jurídica às inteligências artificiais. Migalhas, São Paulo, 26 de dezembro de 2023. Disponível em: https://www.migalhas.com.br/depeso/399561/atribuicao-de-personalidade-juridica-as-inteligencias-artificiais. Acesso em: 20 abr. 2025.

 

MAGRAMO, Kathleen. Entenda o conflito no Mar do Sul da China e porque ele aumenta a tensão com as Filipinas. CNN Brasil, São Paulo, 29 de setembro de 2023. Disponível em: https://www.cnnbrasil.com.br/internacional/entenda-o-conflito-no-mar-do-sul-da-china-e-por-que-ele-aumenta-a-tensao-com-as-filipinas/. Acesso em: 30 mar. 2025.

 

MCCARTHY, Simone. China diz que exercícios militares ao redor de Taiwan são aviso severo. CNN Brasil, São Paulo, 31 de março de 2025. Disponível em: https://www.cnnbrasil.com.br/internacional/china-diz-que-exercicios-militares-ao-redor-de-taiwan-sao-aviso-severo/. Acesso em: 07 abr. 2025.

 

MEREDITH, Sam. Facebook-Cambridge Analytica: A timeline of the data hijacking scandal. CNBC, Englewood Cliffs, 10 de abril de 2018. Disponível em: https://www.cnbc.com/2018/04/10/facebook-cambridge-analytica-a-timeline-of-the-data-hijacking-scandal.html. Acesso em: 05 abr. 2025.

 

NOGUEIRA, Luiz. A ameaça das armas controladas por inteligência artificial pode ser real. Olhar Digital, São Paulo, 15 de outubro de 2020. Disponível em: https://olhardigital.com.br/2020/10/15/noticias/a-ameaca-das-armas-controladas-por-inteligencia-artificial-pode-ser-real/. Acesso em: 18 abr. 2025.

 

ONODY, Roberto. Teste de Turing e Inteligência Artificial. Instituto de Física de São Carlos, São Paulo, 28 de setembro de 2021. Notícias. Disponível em: https://www2.ifsc.usp.br/portal-ifsc/teste-de-turing-e-inteligencia-artificial/. Acesso em: 23 mar. 2025.

 

PACETE, Luiz Gustavo. China na velocidade da IA. Forbes, São Paulo, 25 de dezembro de 2023. Disponível em: https://forbes.com.br/forbes-tech/2023/12/china-na-velocidade-da-i-a/. Acesso em: 23 mar. 2025.

 

PACETE, Luiz Gustavo. O que diz a carta assinada por Musk e milhares contra experimentos de IA? Forbes Brasil, São Paulo, 30 de março de 2023. Disponível em: https://forbes.com.br/forbes-tech/2023/03/o-que-diz-a-carta-assinada-por-musk-e-milhares-contra-experimentos-de-ia/. Acesso em: 23 mar. 2025.

 

PERIN, Eduardo Carvalho da Cruz Paixão. Crise China x Taiwan em 5 pontos. Geopolítica Raiz, 29 de agosto de 2024. Disponível em: https://geopoliticaraiz.blogspot.com/2024/08/crise-china-x-taiwan-em-5-pontos.html. Acesso em: 30 mar. 2025.


PERIN, Mônica Azevedo Ribeiro. Inteligência Artificial: riscos reais e desafios a serem desbravados. Jusbrasil, Salvador, 17 de dezembro de 2024. Disponível em: https://www.jusbrasil.com.br/artigos/inteligencia-artificial-riscos-reais-e-desafios-a-serem-desbravados/2918516603. Acesso em: 31 mar. 2025.

 

REDAÇÃO CNN BRASIL. Musk e Moraes: entenda o embate e o que pode vir à tona. CNN Brasil, São Paulo, 7 de abril de 2024. Disponível em: https://www.cnnbrasil.com.br/politica/musk-e-moraes-entenda-o-embate-e-o-que-pode-vir-a-tona/. Acesso em: 07 abr. 2025.

 

REDAÇÃO CNN BRASIL. Reino Unido fala em corrida armamentista de inteligência artificial. CNN Brasil, São Paulo, 25 de novembro de 2024. Disponível em: https://www.cnnbrasil.com.br/internacional/reino-unido-fala-em-corrida-armamentista-de-inteligencia-artificial/. Acesso em: 23 mar. 2025.


REDAÇÃO G1. DeepSeek: chip mais barato, autocensura, 'ameaça' aos EUA... veja perguntas e respostas sobre a IA chinesa. G1, Rio de Janeiro, 29 de janeiro de 2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/29/deepseek-chip-mais-barato-autocensura-ameaca-aos-eua-veja-perguntas-e-respostas-sobre-a-ia-chinesa.ghtml. Acesso em: 04 abr. 2025.

 

REDAÇÃO G1. Justiça da Romênia anula eleições presidenciais. G1, Rio de Janeiro, 6 de dezembro de 2024. Disponível em: https://g1.globo.com/mundo/noticia/2024/12/06/justica-romenia-anula-eleicoes-presidenciais.ghtml. Acesso em: 05 abr. 2025.


REDAÇÃO G1. Países da União Europeia apoiam plano da Comissão Europeia para rearmamento, diz porta-voz. G1, Rio de janeiro, 6 de março 2025. Disponível em: https://g1.globo.com/mundo/noticia/2025/03/06/paises-da-uniao-europeia-apoiam-plano-da-comissao-europeia-para-rearmamento-diz-porta-voz.ghtml. Acesso em: 29 mar. 2025.


REDAÇÃO G1. Trump anunciará investimento de até US$ 500 bilhões em inteligência artificial. G1, Rio de Janeiro, 21 de janeiro de 2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/21/trump-anunciara-investimento-de-ate-us-500-bilhoes-em-inteligencia-artificial.ghtml. Acesso em: 23 mar. 2025.

 

REDAÇÃO VEJA. União Europeia precisa de bilhões para reforçar defesa até 2030, alerta comissário. Veja, São Paulo, 9 de dezembro de 2024. Disponível em: https://veja.abril.com.br/mundo/uniao-europeia-precisa-de-bilhoes-para-reforcar-defesa-ate-2030-alerta-comissario/. Acesso em: 29 mar. 2025.

 

RIBEIRO, Marcelo. Novo “ChatGPT” mentiu e manipulou para não ser desligado. HypeScience, São Paulo, 9 dez. 2024. Disponível em: https://hypescience.com/novo-chatgpt-mentiu-e-manipulou-para-nao-ser-desligado/. Acesso em: 27 mai. 2025.

 

SANCHES, Mariana. As riquezas no subsolo da Groenlândia que explicam interesse de Trump e China pela ilha. G1, Rio de Janeiro, 9 de janeiro de 2025. Economia. Disponível em: https://g1.globo.com/economia/noticia/2025/01/09/as-riquezas-no-subsolo-da-groenlandia-que-explicam-interesse-de-trump-e-china-pela-ilha.ghtml. Acesso em: 1º abr. 2025.

 

SATIRA, Roberta. O maior escândalo de vazamento de dados: o caso Facebook-Cambridge Analytica e a importância da Lei Geral de Proteção de Dados Pessoais (LGPD) no Brasil. Jusbrasil, Salvador, 11 de julho de 2021. Disponível em: https://www.jusbrasil.com.br/artigos/o-maior-escandalo-de-vazamento-de-dados-o-caso-facebook-cambridge-analytica-e-a-importancia-da-lei-geral-de-protecao-de-dados-pessoais-lgpd-no-brasil/1244600777. Acesso em: 05 abr. 2025.

 

SILVA, Anne. ChatGPT: Fazer pesquisas através de IA é até 30 vezes pior para o planeta. Revista Fórum, São Paulo, 23 de setembro de 2024. Disponível em: https://revistaforum.com.br/meioambiente/2024/9/23/chatgpt-fazer-pesquisas-atraves-de-ia-ate-30-vezes-pior-para-planeta-166077.html. Acesso em: 18 abr. 2025.

 

TIDEY, Alice. Von der Leyen apresenta pacote de defesa de 800 mil milhões de euros antes da cimeira dos líderes da UE. Euro News, Lyon, 4 de março de 2025. Disponível em: https://pt.euronews.com/my-europe/2025/03/04/von-der-leyen-apresenta-pacote-de-defesa-de-800-mil-milhoes-de-euros-antes-da-cimeira-dos-. Acesso em: 07 abr. 2025.

UNESCO. Recommendation on the Ethics of Artificial Intelligence. Unesco, Paris, 16 de maio de 2023. Disponível em: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence. Acesso em: 13 abr. 2025.

 

WIKIPÉDIA. Capitalismo de vigilância. Wikipédia, São Francisco, 29 de janeiro de 2025. Disponível em: https://pt.wikipedia.org/wiki/Capitalismo_de_vigil%C3%A2ncia. Acesso em: 05 abr. 2025.

 

WIKIPÉDIA. Guerra do Pacífico. Wikipédia, São Francisco, 19 de julho de 2024. Disponível em: https://pt.wikipedia.org/wiki/Guerra_do_Pac%C3%ADfico. Acesso em: 06 abr. 2025.

 

WIKIPÉDIA. Isaac Asimov. Wikipédia, São Francisco, 1º de fevereiro de 1025. Disponível em: https://pt.wikipedia.org/wiki/Isaac_Asimov. Acesso em: 17 abr. 2025.

 

WIKIPÉDIA. Leis da Robótica. Wikipédia, São Francisco, 22 de dezembro de 1024. Disponível em: https://pt.wikipedia.org/wiki/Leis_da_Rob%C3%B3tica. Acesso em: 17 abr. 2025.

 

WIKIPÉDIA. Nick Bostrom. Disponível em: https://pt.wikipedia.org/wiki/Nick_Bostrom. Wikipédia, São Francisco, 26 de setembro de 2024. Acesso em: 04 abr. 2025.

 

WIKIPÉDIA. Sistema de crédito social. Wikipédia, São Francisco, 2 de janeiro de 2025. Disponível em: https://pt.wikipedia.org/wiki/Sistema_de_cr%C3%A9dito_social. Acesso em: 06 abr. 2025.



[1] ONODY, Roberto. Teste de Turing e Inteligência Artificial. Instituto de Física de São Carlos, São Paulo, 28 de setembro de 2021. Notícias. Disponível em: https://www2.ifsc.usp.br/portal-ifsc/teste-de-turing-e-inteligencia-artificial/. Acesso em: 23 mar. 2025.

[2] DARTMOUTH COLLEGE. Artificial Intelligence: The term “AI” coined at Dartmouth. [s.d.] Disponível em: https://home.dartmouth.edu/about/artificial-intelligence-ai-coined-dartmouth?form=MG0AV3&form=MG0AV3. Acesso em: 04 mar. 2025.

[3] BARBOSA, Mafalda Miranda et al. (coord.). Direito digital e inteligência artificial: diálogos entre Brasil e Europa. 1. ed. Indaiatuba, SP: Foco, 2021. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 05 mar. 2025.

[4] BARBOSA, Mafalda Miranda et al. (coord.). Direito digital e inteligência artificial: diálogos entre Brasil e Europa. 1. ed. Indaiatuba, SP: Foco, 2021. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 05 mar. 2025.

[5] BIZZOTTO, Pedro Maia. Regulação de Opacidade Algorítmica: a falta de transparência em decisões automatizadas enquanto problema regulatório. Fundação Getúlio Vargas. Rio de Janeiro. Dezembro de 2023. Disponível em: https://repositorio.fgv.br/server/api/core/bitstreams/e061110c-3bf2-486c-a60c-d4836bc6a93f/content. Acesso em: 11 mar. 2025.

[6] BIZZOTTO, Pedro Maia. Regulação de Opacidade Algorítmica: a falta de transparência em decisões automatizadas enquanto problema regulatório. Fundação Getúlio Vargas. Rio de Janeiro. Dezembro de 2023. Disponível em: https://repositorio.fgv.br/server/api/core/bitstreams/e061110c-3bf2-486c-a60c-d4836bc6a93f/content. Acessado em: 11 mar. 2025.

[8] FAGUNDES, Jorge Alexandre. Dados pessoais, o novo fator econômico da era moderna. Jusbrasil, Salvador, 16 de maio de 2023. Disponível em: https://www.jusbrasil.com.br/artigos/dados-pessoais-o-novo-fator-economico-da-era-moderna/1835750379. Acesso em: 31 mar. 2025.

[9] PERIN, Mônica Azevedo Ribeiro. Inteligência Artificial: riscos reais e desafios a serem desbravados. Jusbrasil, Salvador, 17 de dezembro de 2024. Disponível em: https://www.jusbrasil.com.br/artigos/inteligencia-artificial-riscos-reais-e-desafios-a-serem-desbravados/2918516603. Acesso em: 31 mar. 2025.

[10] PERIN, Mônica Azevedo Ribeiro. Inteligência Artificial: riscos reais e desafios a serem desbravados. Jusbrasil, Salvador, 17 de dezembro de 2024. Disponível em: https://www.jusbrasil.com.br/artigos/inteligencia-artificial-riscos-reais-e-desafios-a-serem-desbravados/2918516603. Acesso em: 31 mar. 2025.

[11] SILVA, Anne. ChatGPT: Fazer pesquisas através de IA é até 30 vezes pior para o planeta. Revista Fórum, São Paulo, 23 de setembro de 2024. Disponível em: https://revistaforum.com.br/meioambiente/2024/9/23/chatgpt-fazer-pesquisas-atraves-de-ia-ate-30-vezes-pior-para-planeta-166077.html. Acesso em: 18 abr. 2025.

[12] SILVA, Anne. ChatGPT: Fazer pesquisas através de IA é até 30 vezes pior para o planeta. Revista Fórum, São Paulo, 23 de setembro de 2024. Disponível em: https://revistaforum.com.br/meioambiente/2024/9/23/chatgpt-fazer-pesquisas-atraves-de-ia-ate-30-vezes-pior-para-planeta-166077.html. Acesso em: 18 abr. 2025.

[13] PACETE, Luiz Gustavo. O que diz a carta assinada por Musk e milhares contra experimentos de IA? Forbes Brasil, São Paulo, 30 de março de 2023. Disponível em: https://forbes.com.br/forbes-tech/2023/03/o-que-diz-a-carta-assinada-por-musk-e-milhares-contra-experimentos-de-ia/. Acesso em: 23 mar. 2025.

[14] KHARPAL, Arjun. Stephen Hawking says AI could be 'worst event' in civilization. CNBC, Englewood Cliffs, 6 de novembro de 2017. Disponível em: https://www.cnbc.com/2017/11/06/stephen-hawking-ai-could-be-worst-event-in-civilization.html. Acesso em: 18 mar. 2025.

[15] AGÊNCIA O GLOBO. É o fim da Lei de Moore? Inteligência artificial como a do ChatGPT desafia limites. Pequenas Empresas e Grandes Negócios, Rio de Janeiro, 8 de fevereiro de 2023. Disponível em: https://revistapegn.globo.com/tecnologia/noticia/2023/02/e-o-fim-da-lei-de-moore-inteligencia-artificial-como-a-do-chatgpt-desafia-limites.ghtml. Acesso em: 18 mar. 2025.

[16] GALAVERNA, Camila. Nova IA dos Criadores do ChatGPT Supera Humanos. Techponto, Campina Grande, 24 de setembro de 2024. Disponível em: https://techponto.com.br/nova-ia-dos-criadores-do-chatgpt/. Acesso em: 18 mar. 2025.

[17] BALDISSERA, Olívia. Os 3 tipos de Inteligência Artificial. Pontifícia Universidade Católica do Paraná, Curitiba, 22 de fevereiro de 2023. Disponível em: https://posdigital.pucpr.br/blog/tipos-de-inteligencia-artificial. Acesso em 29 mar. 2025.

[18] WIKIPÉDIA. Nick Bostrom. Disponível em: https://pt.wikipedia.org/wiki/Nick_Bostrom. Wikipédia, São Francisco, 26 de setembro de 2024. Acesso em: 04 abr. 2025.

[19] DIAS, Ana Francisca Pinto et al.; GUIMARÃES, João Alexandre Silva Alves; ALVES, Rodrigo Vitorino Souza (org.). Os direitos humanos e a ética na era da inteligência artificial. Indaiatuba, SP: Foco, 2023. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 18 mar. 2025.

[20] ENGENHARIA COMPARTILHADA. Não é filme: inteligência artificial sai do controle dos criadores e põe Japão em alerta. Engenharia Compartilhada, São Paulo, 13 de setembro de 2024. Disponível em: https://www.engenhariacompartilhada.com.br/noticia/exibir/8379313_nao-e-filme-inteligencia-artificial-sai-do-controle-dos-criadores-e-poe-japao-em-alerta. Acesso em: 21 mar. 2025.

[21] BOSTROM, Nick. Nick Bostrom on artificial intelligence. Universidade de Oxford, Oxford, 24 de setembro de 2014. Disponível em: https://www.oxfordmartin.ox.ac.uk/blog/nick-bostrom-on-artificial-intelligence. Acesso em: 22 mar. 2025.

[22] LANTYER, Victor Habib. Atribuição de personalidade jurídica às inteligências artificiais. Migalhas, São Paulo, 26 de dezembro de 2023. Disponível em: https://www.migalhas.com.br/depeso/399561/atribuicao-de-personalidade-juridica-as-inteligencias-artificiais. Acesso em: 20 abr. 2025.

[23] REDAÇÃO G1. Trump anunciará investimento de até US$ 500 bilhões em inteligência artificial. G1, Rio de Janeiro, 21 de janeiro de 2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/21/trump-anunciara-investimento-de-ate-us-500-bilhoes-em-inteligencia-artificial.ghtml. Acesso em: 23 mar. 2025.

[24] PACETE, Luiz Gustavo. China na velocidade da IA. Forbes, São Paulo, 25 de dezembro de 2023. Disponível em: https://forbes.com.br/forbes-tech/2023/12/china-na-velocidade-da-i-a/. Acesso em: 23 mar. 2025.

[25] REDAÇÃO CNN BRASIL. Reino Unido fala em corrida armamentista de inteligência artificial. CNN Brasil, São Paulo, 25 de novembro de 2024. Disponível em: https://www.cnnbrasil.com.br/internacional/reino-unido-fala-em-corrida-armamentista-de-inteligencia-artificial/. Acesso em: 23 mar. 2025.

[26] AGÊNCIA LUSA, BCE. Trump ameaça tirar EUA da NATO se aliados não pagarem mais pela defesa. CNN Portugal, Lisboa, 8 de dezembro de 2024. Disponível em: https://cnnportugal.iol.pt/donald-trump/nato/trump-ameaca-tirar-eua-da-nato-se-aliados-nao-pagarem-mais-pela-defesa/20241208/6755ba50d34ea1acf2719267. Acesso em: 29 mar. 2025.

[28] REDAÇÃO G1. Países da União Europeia apoiam plano da Comissão Europeia para rearmamento, diz porta-voz. G1, Rio de janeiro, 6 de março 2025. Disponível em: https://g1.globo.com/mundo/noticia/2025/03/06/paises-da-uniao-europeia-apoiam-plano-da-comissao-europeia-para-rearmamento-diz-porta-voz.ghtml. Acesso em: 29 mar. 2025.

[29] REDAÇÃO VEJA. União Europeia precisa de bilhões para reforçar defesa até 2030, alerta comissário. Veja, São Paulo, 9 de dezembro de 2024. Disponível em: https://veja.abril.com.br/mundo/uniao-europeia-precisa-de-bilhoes-para-reforcar-defesa-ate-2030-alerta-comissario/. Acesso em: 29 mar. 2025.

[30] TIDEY, Alice. Von der Leyen apresenta pacote de defesa de 800 mil milhões de euros antes da cimeira dos líderes da UE. Euro News, Lyon, 4 de março de 2025. Disponível em: https://pt.euronews.com/my-europe/2025/03/04/von-der-leyen-apresenta-pacote-de-defesa-de-800-mil-milhoes-de-euros-antes-da-cimeira-dos-. Acesso em: 07 abr. 2025.

[31] MAGRAMO, Kathleen. Entenda o conflito no Mar do Sul da China e porque ele aumenta a tensão com as Filipinas. CNN Brasil, São Paulo, 29 de setembro de 2023. Disponível em: https://www.cnnbrasil.com.br/internacional/entenda-o-conflito-no-mar-do-sul-da-china-e-por-que-ele-aumenta-a-tensao-com-as-filipinas/. Acesso em: 30 mar. 2025.

[32] FORÇA AÉREA. Chineses estão construindo ilhas militares no Mar da China Meridional. Força Aérea, São Paulo, 23 de março de 2022. Disponível em: https://forcaaerea.com.br/chineses-estao-construindo-ilhas-militares-no-mar-da-china-meridional/. Acesso em: 30 mar. 2025.

[33] MCCARTHY, Simone. China diz que exercícios militares ao redor de Taiwan são aviso severo. CNN Brasil, São Paulo, 31 de março de 2025. Disponível em: https://www.cnnbrasil.com.br/internacional/china-diz-que-exercicios-militares-ao-redor-de-taiwan-sao-aviso-severo/. Acesso em: 07 abr. 2025.

[34] PERIN, Eduardo Carvalho da Cruz Paixão. Crise China x Taiwan em 5 pontos. Geopolítica Raiz, 29 de agosto de 2024. Disponível em: https://geopoliticaraiz.blogspot.com/2024/08/crise-china-x-taiwan-em-5-pontos.html. Acesso em: 30 mar. 2025.

[35] CARVAJAL, Nikki e LIU, Juliana. EUA endurecem restrições à exportação de chips de IA para China e Rússia. CNN Brasil, São Paulo, 13 de janeiro de 2025. Economia. Disponível em: https://www.cnnbrasil.com.br/economia/macroeconomia/eua-endurecem-restricoes-a-exportacao-de-chips-de-ia-para-china-e-russia/. Acesso em: 14 abr. 2025.

[36] MEREDITH, Sam. Facebook-Cambridge Analytica: A timeline of the data hijacking scandal. CNBC, Englewood Cliffs, 10 de abril de 2018. Disponível em: https://www.cnbc.com/2018/04/10/facebook-cambridge-analytica-a-timeline-of-the-data-hijacking-scandal.html. Acesso em: 05 abr. 2025.

[37] SATIRA, Roberta. O maior escândalo de vazamento de dados: o caso Facebook-Cambridge Analytica e a importância da Lei Geral de Proteção de Dados Pessoais (LGPD) no Brasil. Jusbrasil, Salvador, 11 de julho de 2021. Disponível em: https://www.jusbrasil.com.br/artigos/o-maior-escandalo-de-vazamento-de-dados-o-caso-facebook-cambridge-analytica-e-a-importancia-da-lei-geral-de-protecao-de-dados-pessoais-lgpd-no-brasil/1244600777. Acesso em: 05 abr. 2025.

[38] GABRIEL, Iason. Inteligência Artificial, Valores e Alinhamento. Minds & Machines 30. Springer Nature Link, Heidelberg, 01 de outubro de 2020. Disponível em: https://link.springer.com/article/10.1007/s11023-020-09539-2. Acesso em: 04 abr. 2025.

[39] REDAÇÃO G1. DeepSeek: chip mais barato, autocensura, 'ameaça' aos EUA... veja perguntas e respostas sobre a IA chinesa. G1, Rio de Janeiro, 29 de janeiro de 2025. Disponível em: https://g1.globo.com/tecnologia/noticia/2025/01/29/deepseek-chip-mais-barato-autocensura-ameaca-aos-eua-veja-perguntas-e-respostas-sobre-a-ia-chinesa.ghtml. Acesso em: 04 abr. 2025.

[40] REDAÇÃO G1. Justiça da Romênia anula eleições presidenciais. G1, Rio de Janeiro, 6 de dezembro de 2024. Disponível em: https://g1.globo.com/mundo/noticia/2024/12/06/justica-romenia-anula-eleicoes-presidenciais.ghtml. Acesso em: 05 abr. 2025.

[41] INGRAM, David e HORVATH, Bruna. How Elon Musk is boosting far-right politics across the globe. NBC News, Nova York, 16 de fevereiro de 2025. Disponível em: https://www.nbcnews.com/tech/elon-musk/elon-musk-boosting-far-right-politics-globe-rcna189505. Acesso em: 05 abr. 2025.

[42] WIKIPÉDIA. Capitalismo de vigilância. Wikipédia, São Francisco, 29 de janeiro de 2025. Disponível em: https://pt.wikipedia.org/wiki/Capitalismo_de_vigil%C3%A2ncia. Acesso em: 05 abr. 2025.

[43] WIKIPÉDIA. Sistema de crédito social. Wikipédia, São Francisco, 2 de janeiro de 2025. Disponível em: https://pt.wikipedia.org/wiki/Sistema_de_cr%C3%A9dito_social. Acesso em: 06 abr. 2025.

[44] FUNDAÇÃO FHC. Futuribles - Edição 03. Fundação FHC, São Paulo, setembro de 2020. Disponível em: https://fundacaofhc.org.br/arquivos/Futuribles2/Ed03/Futuribles_PT_ED_03_Completo.pdf. Acesso em: 06 abr. 2025.

[45] DE MELO, João Ozorio. Para Suprema Corte dos EUA, segurança nacional se sobrepõe à liberdade no caso TikTok. Consultório Jurídico, São Paulo, 19 de janeiro de 2025. Disponível em: https://www.conjur.com.br/2025-jan-19/para-suprema-corte-dos-eua-seguranca-nacional-se-sobrepoe-a-liberdade-no-caso-tiktok/. Acesso em: 13 abr. 2025.

[46] BALAGO, Rafael. Tarifaço de Trump entra em vigor e põe em xeque uma das maiores parcerias comerciais da história. Exame, São Paulo, 9 de abril de 2025. Mundo. Disponível em: https://exame.com/mundo/tarifaco-de-trump-entra-em-vigor-e-poe-em-xeque-uma-das-maiores-parcerias-comerciais-da-historia/. Acesso em: 13 abr. 2025.

[47] BOSTROM, Nick. Nick Bostrom on artificial intelligence. Universidade de Oxford, Oxford, 24 de setembro de 2014. Disponível em: https://www.oxfordmartin.ox.ac.uk/blog/nick-bostrom-on-artificial-intelligence. Acesso em: 06 abr. 2025.

[48] WIKIPÉDIA. Guerra do Pacífico. Wikipédia, São Francisco, 19 de julho de 2024. Disponível em: https://pt.wikipedia.org/wiki/Guerra_do_Pac%C3%ADfico. Acesso em: 06 abr. 2025.

[49] GRIJELMO, Álex. A arte de manipular multidões. Técnicas para mentir e controlar as opiniões se aperfeiçoaram na era da pós-verdade. El País, Madri, 28 de agosto de 2017. Disponível em: https://brasil.elpais.com/brasil/2017/08/22/opinion/1503395946_889112.html. Acesso em: 06 abr. 2025.

[50] RIBEIRO, Marcelo. Novo “ChatGPT” mentiu e manipulou para não ser desligado. HypeScience, São Paulo, 9 dez. 2024. Disponível em: https://hypescience.com/novo-chatgpt-mentiu-e-manipulou-para-nao-ser-desligado/. Acesso em: 27 mai. 2025.

[51] KOKOTAJLO, Daniel; ALEXANDER, Scott; LARSEN, Thomas; LIFLAND, Eli; DEAN, Romeo. AI 2027. 3 abr. 2025. Disponível em: https://ai-2027.com. Acesso em: 27 mai. 2025.

[52] WIKIPÉDIA. Leis da Robótica. Wikipédia, São Francisco, 22 de dezembro de 1024. Disponível em: https://pt.wikipedia.org/wiki/Leis_da_Rob%C3%B3tica. Acesso em: 17 abr. 2025.

[53] WIKIPÉDIA. Isaac Asimov. Wikipédia, São Francisco, 1º de fevereiro de 1025. Disponível em: https://pt.wikipedia.org/wiki/Isaac_Asimov. Acesso em: 17 abr. 2025.

[54] NOGUEIRA, Luiz. A ameaça das armas controladas por inteligência artificial pode ser real. Olhar Digital, São Paulo, 15 de outubro de 2020. Disponível em: https://olhardigital.com.br/2020/10/15/noticias/a-ameaca-das-armas-controladas-por-inteligencia-artificial-pode-ser-real/. Acesso em: 18 abr. 2025.

[55] REDAÇÃO CNN BRASIL. Musk e Moraes: entenda o embate e o que pode vir à tona. CNN Brasil, São Paulo, 7 de abril de 2024. Disponível em: https://www.cnnbrasil.com.br/politica/musk-e-moraes-entenda-o-embate-e-o-que-pode-vir-a-tona/. Acesso em: 07 abr. 2025.

[56] COMISSÃO EUROPEIA. Ethics Guidelines for Trustworthy AI. Comissão Europeia, Bruxelas, 8 de abril de 2019. Disponível em: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. Acesso em: 13 abr. 2025.

[57] CONSELHO DA UNIÃO EUROPEIA. Inteligência Artificial. Conselho da União Europeia, Bruxelas, 5 de fevereiro de 2025. Disponível em: https://www.consilium.europa.eu/pt/policies/artificial-intelligence/#:~:text=Em%20abril%20de%202021%2C%20a,Comiss%C3%A3o%20e%20dos%20Estados%2DMembros. Acesso em: 13 abr. 2025.

[58] ESTADOS UNIDOS. AI Bill of Rights. The White House, Washington, 4 de outubro de 2022. Disponível em: https://bidenwhitehouse.archives.gov/ostp/ai-bill-of-rights/. Acesso em: 13 abr. 2025.

[59] UNESCO. Recommendation on the Ethics of Artificial Intelligence. Unesco, Paris, 16 de maio de 2023. Disponível em: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence. Acesso em: 13 abr. 2025.

[60] BRASIL. Ministério da Cultura. Senado Federal aprova marco regulatório da inteligência artificial. Ministério da Cultura, Distrito Federal, 10 de dezembro de 2024. Disponível em: https://www.gov.br/cultura/pt-br/assuntos/noticias/senado-federal-aprova-marco-regulatorio-da-inteligencia-artificial. Acesso em: 14 abr. 2025.

[61] BRASIL. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Senado Federal, Distrito Federal, 3 de maio de 2023. Disponível em: https://legis.senado.leg.br/sdleg-getter/documento?dm=9347593&ts=1742240889254&disposition=inline. Acesso em: 14 abr. 2025.

Comentários