James Rickards
Cobri uma ampla variedade de crises potenciais
ao longo dos anos.
Estes incluem desastres naturais, pandemias,
agitação social e colapso financeiro. Essa é uma lista assustadora.
Uma coisa que não fiz foi cobrir a maior
calamidade potencial de todas – a guerra nuclear. Pelas razões explicadas
abaixo, agora é o momento de considerá-lo.
A guerra nuclear está de volta ao ar. O
assunto está a receber mais atenção hoje do que em qualquer momento desde a
crise dos mísseis cubanos de 1962 e suas consequências. Existem três
razões para isso.
A primeira são as acusações americanas de que
a Rússia aumentaria o uso de armas nucleares à medida que se tornasse mais
desesperada na condução da guerra na Ucrânia. Estas acusações sempre foram
falsas e são risíveis agora que a Rússia está claramente a vencer a guerra com
armas convencionais.
Ainda assim, as ameaças e contra-ameaças foram
suficientes para colocar o tema em jogo.
A segunda razão é a guerra entre Israel e o
Hamas. Novamente, a escalada é a preocupação. Um cenário não
implausível é o de que o Hezbollah no sul do Líbano abra uma segunda frente na
fronteira norte de Israel com bombardeamentos intensivos de mísseis.
Os rebeldes Houthi no Iêmen se juntariam ao
ataque. Dado que o Hezbollah e os Houthis são muçulmanos xiitas e
representantes iranianos, Israel poderia atacar o Irão como fonte da escalada.
Israel é uma potência nuclear. Com um
grupo de combate de porta-aviões dos EUA e um submarino de ataque nuclear na
região, e com as potências nucleares da Rússia e do Paquistão prontas para
ajudar o Irão, a perspectiva de uma escalada para um conflito nuclear é real.
A escalada das tensões entre o Irão e o
Paquistão nesta semana acrescenta ainda mais lenha à fogueira.
A terceira razão é a inteligência artificial e
a saída GPT. Embora a inteligência artificial possa proporcionar
oportunidades lucrativas para investidores em muitos setores do mercado, a
IA/GPT também pode ser a maior ameaça à escalada nuclear porque tem uma lógica
interna que é inconsistente com a lógica humana que manteve a paz nuclear nos
últimos 80 anos. .
Cobri extensivamente a Ucrânia e Israel, e
eles são amplamente abordados nas notícias. Mas hoje estou abordando os
riscos de guerra nuclear da AI/GPT. É uma ameaça da qual você não está
ouvindo nada, mas precisa ser abordada.
Vamos começar com um filme de ficção. O
retrato paradigmático de uma guerra nuclear acidental é o filme Fail
Safe, de 1964 . No filme, o radar dos EUA detecta uma intrusão no
espaço aéreo dos EUA por uma aeronave não identificada, mas potencialmente
hostil.
A Força Aérea dos EUA logo determina que a
aeronave é um avião civil fora de curso. Entretanto, um computador que
responde à intrusão ordena erroneamente que um grupo de bombardeiros
estratégicos dos EUA liderado pelo coronel Jack Grady inicie um ataque nuclear
a Moscovo.
Os esforços dos EUA para rescindir a ordem e
retirar os bombardeiros fracassam devido ao bloqueio soviético dos canais de
rádio. O presidente ordena que os militares abatam os bombardeiros e caças
são enviados para esse fim.
Os caças usam pós-combustores para capturar os
bombardeiros, mas falham, e o aumento do consumo de combustível faz com que
mergulhem no Mar Ártico.
Em seguida, o presidente se comunica com o
primeiro-ministro soviético, que concorda em interromper a
interferência. O presidente fala com o líder do grupo de bombardeiros para
cancelar o ataque, mas a tripulação foi treinada para desconsiderar tais apelos
como uma manobra soviética.
Os EUA oferecem então assistência técnica aos
soviéticos para ajudar a abater os bombardeiros. Os aviões são quase todos
abatidos, mas um consegue passar. O presidente coloca a esposa do coronel
Grady no rádio; ele hesita, mas logo fica preocupado em escapar dos
mísseis soviéticos. Ele então decide que a voz de sua esposa é outro
engano.
Antecipando o pior e procurando evitar uma
guerra nuclear em grande escala, o presidente ordena que um bombardeiro nuclear
dos EUA sobrevoe a cidade de Nova Iorque, sabendo que a primeira-dama está em
Nova Iorque.
No final, Moscovo é destruída por uma arma
nuclear dos EUA e o presidente ordena que uma bomba nuclear seja lançada sobre
a cidade de Nova Iorque usando o Empire State Building como marco zero. A
expectativa é que o sacrifício de Nova York em troca de Moscou acabe com a
escalada, mas isso não é retratado no filme.
O próximo passo fica em dúvida.
Embora Fail Safe tenha
60 anos, as questões que levanta e algumas reviravoltas na trama são
surpreendentemente contemporâneas. O erro informático que causou o ataque
no filme nunca é explicado tecnicamente, mas isso não é muito relevante.
Erros de computador ocorrem o tempo todo em
infraestruturas críticas e podem causar danos reais, incluindo cortes de
energia e acidentes de trem. Esses erros informáticos são hoje a essência
do debate sobre a IA nos sistemas estratégicos.
Continue lendo para ver por que…
A IA poderia iniciar uma guerra nuclear?
A IA em um contexto de comando e controle pode
funcionar mal e emitir ordens errôneas como em Fail Safe ou, mais
provavelmente, funcionar conforme projetado e ainda assim emitir prescrições
mortais baseadas em erros de engenharia, conjuntos de treinamento distorcidos
ou estranhas propriedades emergentes de correlações que os humanos mal
conseguem perceber.
Talvez o mais familiar para o público
contemporâneo sejam os esforços fracassados do
presidente e da esposa do coronel Grady para convencer o comandante do
bombardeiro a cancelar o ataque. Grady foi treinado para esperar tais esforços e tratá-los como
enganos.
Hoje, tais fraudes seriam realizadas com
transmissões de vídeo e áudio deepfake. Presumivelmente, o treino do
comandante e a rejeição dos apelos seriam os mesmos, apesar da tecnologia mais
sofisticada por trás deles. A tecnologia avança, mas aspectos do
comportamento humano permanecem inalterados.
Outro mal-entendido, este real e não fictício,
que quase causou uma guerra nuclear foi um incidente de 1983 com o codinome
Able Archer.
As raízes de Able Archer remontam a maio de
1981, quando o então secretário-geral do Partido Comunista da União Soviética,
Leonid Brezhnev, e o chefe da KGB, Yuri Andropov (mais tarde secretário-geral),
revelaram aos principais líderes soviéticos a sua opinião de que os EUA estavam
secretamente a preparar-se para lançar um ataque nuclear à União Soviética.
Andropov anunciou então um enorme esforço de
recolha de informações para rastrear as pessoas que seriam responsáveis pelo
lançamento e implementação de tal ataque, juntamente com as suas instalações e canais
de comunicação.
Ao mesmo tempo, a administração Reagan iniciou
uma série de operações militares secretas que sondaram agressivamente as águas
soviéticas com meios navais e voaram directamente para o espaço aéreo soviético
com bombardeiros estratégicos que recuaram apenas no último instante.
Estes avanços destinavam-se ostensivamente a
testar as defesas soviéticas, mas tiveram o efeito de jogar com as percepções
soviéticas de que os EUA estavam a planear um ataque nuclear.
Os analistas concordam que o maior risco de
escalada e de guerra nuclear real surge quando as percepções dos dois lados
variam de tal forma que tornam impossível uma avaliação racional da dinâmica da
escalada. Os dois lados estão em caminhos diferentes fazendo cálculos
diferentes.
As tensões aumentaram ainda mais em 1983,
quando a Marinha dos EUA voou com caças F-14 Tomcat sobre uma base militar
soviética nas Ilhas Curilas e os soviéticos responderam sobrevoando as Ilhas
Aleutas, no Alasca. Em 1º de setembro de 1983, caças soviéticos abateram o
voo 007 da Korean Air Lines sobre o Mar do Japão. Um congressista dos EUA
estava a bordo.
Em 4 de novembro de 1983, os aliados dos EUA e
da OTAN iniciaram um extenso jogo de guerra com o codinome Able Archer. O
objetivo era simular um ataque nuclear à União Soviética após uma série de
escaladas.
O problema era que as escaladas eram escritas
nos livros de instruções dos jogos de guerra, mas não eram realmente
simuladas . A transição da guerra convencional para o jogo de guerra
nuclear foi simulada.
Isto ocorreu numa altura em que os soviéticos
e o KGB procuravam activamente sinais de um ataque nuclear. As simulações
envolvendo os protocolos de Comando, Controle e Comunicações da OTAN foram
altamente realistas, incluindo a participação do Chanceler alemão Helmut Kohl e
da Primeira-Ministra do Reino Unido, Margaret Thatcher. Os soviéticos
acreditavam plausivelmente que o jogo de guerra era na verdade uma cobertura
para um ataque real.
Na crença de que os EUA estavam a planear um
primeiro ataque nuclear, os soviéticos determinaram que a sua única via para
sobreviver seria lançar um primeiro ataque preventivo próprio. Ordenaram
que fossem colocadas ogivas nucleares nos bombardeiros estratégicos do Exército
Aéreo Soviético e colocaram aviões de ataque nuclear na Polónia e na Alemanha
Oriental em alerta máximo.
Esta vida real perto da guerra nuclear teve
uma história ainda mais assustadora. Os soviéticos já haviam construído um
sistema de radar de alerta precoce com ligações de computador usando um tipo
primitivo de IA de codinome Oko.
Em 26 de setembro de 1983, apenas dois meses
antes de Able Archer, o sistema apresentou defeito e relatou a chegada de cinco
ICBMs dos Estados Unidos. Os alarmes Oko soaram e a tela do computador
exibiu “LANÇAMENTO”. Segundo os protocolos, a exibição LAUNCH não era um
aviso, mas uma ordem gerada por computador para retaliar.
O tenente-coronel Stanislov Petrov, das Forças
de Defesa Aérea Soviética, viu a ordem do computador e teve que escolher
imediatamente entre tratar a ordem como um mau funcionamento do computador ou
alertar seus oficiais superiores que provavelmente iniciariam um contra-ataque
nuclear.
Petrov era co-desenvolvedor do Oko e sabia que
o sistema cometia erros. Ele também estimou que se o ataque fosse real, os
EUA usariam muito mais do que cinco mísseis. Petrov estava certo. O
computador interpretou mal o reflexo do sol em algumas nuvens como mísseis se
aproximando.
Dadas as tensões da época e a crença da KGB de
que um ataque nuclear poderia ocorrer a qualquer momento, Petrov arriscou o
futuro da União Soviética para anular o sistema Oko. Ele confiou em uma
combinação de inferência, experiência e instinto para desativar a cadeia de
morte.
O incidente permaneceu secreto até bem depois
do fim da Guerra Fria. Com o tempo, Petrov foi elogiado como “O Homem que
Salvou o Mundo”.
A ameaça de guerra nuclear devido à IA não vem
apenas das potências com armas nucleares, mas também de terceiros e
intervenientes não estatais que utilizam a IA para criar os chamados desastres
nucleares catalíticos. O termo catalítico refere-se a agentes químicos que
causam reações voláteis entre outros compostos sem que eles próprios façam
parte da reação.
Tal como aplicado nas relações internacionais,
refere-se a agentes que podem provocar uma guerra nuclear entre as grandes
potências sem estarem eles próprios envolvidos na guerra. Isso poderia
deixar o agente fraco numa posição relativamente forte, uma vez que as grandes
potências se destruíssem.
Os sistemas AI/GPT já encontraram o seu
caminho no processo de combate nuclear. Caberá aos seres humanos manter o
seu papel marginal e orientado para os dados, e não orientado para a
decisão. Dada a história da tecnologia na guerra, desde lanças de bronze
até mísseis hipersônicos, é difícil concluir que a AI/GPT será tão
contida. Caso contrário, todos pagaremos o preço.
A Ucrânia, Gaza e a IA aumentam
consideravelmente as probabilidades de uma guerra nuclear. As implicações
financeiras disto para os investidores são simples. Em caso de guerra
nuclear, as ações, títulos, dinheiro e outros ativos financeiros não terão
valor. Bolsas e bancos estarão fechados. Os únicos bens valiosos
serão terras, ouro e prata.
É uma boa ideia ter todos os três - só para
garantir.
Comentários
Enviar um comentário