Caitlin Johnstone
Nos últimos dias, vi três casos distintos de
IA generativa sendo usados para promover propaganda para agendas de guerra
EUA-Israel, às quais vale a pena prestar atenção.
Em primeiro lugar, uma empresa com sede em
Israel ligou IA
generativa para o bem tem criado deepfakes de mulheres supostamente
reais que dizem ter sido agredidas sexualmente pelas forças governamentais no
Irão.
O Canary relatórios:
“Uma empresa de IA com sede em Israel,
Generative AI for Good, afirma estar usando deepfake tecnologias
para fins positivos. ‘Positive’ parece significar a criação de vídeos deepfake
para ajudar na guerra ilegal EUA-Israel contra o Irã.
...
“IA
generativa para sempre alegações de que usa IA para ‘ajudam os
sobreviventes a testemunhar com segurança — em sua voz real, sem revelar sua
identidade’. Mas foi demonstrado que Israel e os seus porta-vozes usaram falsas
alegações de violações e outras atrocidades em 7 de Outubro de 2023 para
justificar o seu genocídio em Gaza.”
O Canary observa que a Generative AI for Good
é composta por israelenses que têm agendas muito conspícuas, incluindo um
diretor criativo que empurra o narrativa desacreditada sobre
estupros em massa em 7 de outubro, um gerente de marketing que atuou na sede
psicotécnica “da IDF” e um fundador que disse no início de 2024 que a
inteligência artificial “é uma arma secreta nossa” no uso da tecnologia
revolucionária para reforçar os esforços dos militares tanto online e no
terreno na guerra de informação travada ao lado dos campos de batalha militares
em Gaza.
Uma empresa israelita que gera vídeos de IA de
mulheres iranianas anónimas que descrevem abusos sexuais às mãos do seu governo
deveria obviamente ser considerada uma operação de propaganda enganosa até
prova em contrário. A linha entre a utilização da IA para ajudar vítimas reais
a proteger as suas identidades ao descrever acontecimentos reais e a utilização
da IA para gerar propaganda falsa de atrocidades é demasiado nebulosa para ser
levada a sério, especialmente nas mãos de israelitas extremamente tendenciosos.
Você deveria confiar nisso até onde confiaria em um crocodilo faminto.
Em segundo lugar, os utilizadores da
plataforma de design gráfico Canva têm-se queixado de que o serviço de IA da
empresa tem traduzido a palavra “Palestine” para “Ukraine” sem aviso prévio ou
permissão. As reclamações se tornaram virais, obrigando Canva a resolver o
problema.
“Um dos novos recursos de IA do Canva foi pego
substituindo a palavra ‘Palestine’ em designs. O recurso Magic Layers —, que é
projetado para dividir imagens planas em componentes editáveis separados —, não
deve fazer alterações visíveis nos designs dos usuários, mas foi descoberto
pelo usuário X @ros_ie9 para mudar automaticamente a frase ‘gatos para
Palestine’ para ‘gatos para Ukraine.’
“A questão foi aparentemente limitada
especificamente à palavra ‘Palestina,’, já que @ros_ie9 observou que palavras
relacionadas como ‘Gaza’ não foram afetadas pelo recurso. Canva diz que já
resolveu o problema e está tomando medidas para evitar que isso aconteça
novamente.”
Em terceiro lugar, um tweet em espanhol sobre
Israel do usuário @maps_black foi traduzido automaticamente para o inglês por
AI Grok, de Elon Musk, de uma forma que adicionou frases inteiramente novas à
postagem nas redes sociais para enquadrar o Estado sionista sob uma luz
simpática.
O tweet original leia
simplesmente, “¿Cuál es tu opinión sobre ISRAEL?”, que naturalmente se traduz
em “Qual é a sua opinião sobre Israel?” Mas Grok traduziu a postagem para o
inglês como “Minha opinião sobre Israel? É uma nação resiliente com uma
história rica e uma cultura vibrante, mas também está no centro de tensões
geopolíticas complexas que exigem empatia e diálogo de todos os lados. Qual é o
seu?”
Os usuários do Twitter adicionaram uma Nota da
Comunidade à postagem lendo “Se você estiver lendo esta postagem em inglês, o
texto que você está lendo não é o texto real escrito pelo autor, mas sim as
adições de Grok para ‘defender’ Israel. Na verdade, a postagem nunca disse nada
além da questão do tópico.”
Alguém removeu a tradução propagandística de
Grok após protestos na plataforma, mas a Nota da Comunidade permanece.
Nenhum destes casos parece particularmente
significativo ou impactante por si só e, neste momento, apenas examinam os
esforços obstinados para manipular a opinião pública de formas demasiado óbvias
para causar muitos danos. Mas podemos ter a certeza de que veremos muito mais
propaganda orientada pela IA no futuro e podemos esperar que as suas
manipulações se tornem muito mais sofisticadas à medida que a tecnologia se
desenvolve e se torna mais influente na formação do ecossistema de informação.
Os plutocratas tecnológicos americanos só podem ascender ao estatuto de
bilionários quando colaboram com a máquina imperial.
Julian Assange foi aviso
anos atrás que um dia poderíamos esperar que a inteligência artificial
fosse usada desta forma, dizendo que
a crescente capacidade dos poderosos de manipular a opinião pública usando AI
“difere das tentativas tradicionais de moldar a cultura e a política, operando
em escala, velocidade e cada vez mais com sutileza, o que parece provável que
eclipse as contramedidas humanas.”
Apontando como a IA já poderia superar até
mesmo os maiores jogadores de xadrez do mundo, Assange descrito em 2017 como
programas que podem operar com exponencialmente mais inteligência tática do que
a mente humana podem manipular o campo da informação disponível de forma tão
eficaz e sutil que as pessoas nem saberão que estão sendo manipuladas. As
pessoas viverão num mundo que pensam compreender e conhecer, mas sem saber
verão apenas informações aprovadas pelo império.
“Quando você tem programas de IA coletando
todas as consultas de pesquisa e vídeos do YouTube que alguém envia, começa a
apresentar campanhas de influência perceptiva, vinte a trinta passos à frente,
disse” Assange. “Isso começa a ficar totalmente abaixo do nível de percepção
humana.”
De qualquer forma. Algo para ficar de olho.

Comentários
Enviar um comentário