Os abismos chocantes da inteligência artificial

13.09.2024
Substituir a realidade e analisá-la em profundidade: os novos programas são capazes disso.

A inteligência artificial é uma das tecnologias críticas que estão se desenvolvendo rapidamente, e sua aplicação está ocorrendo em uma ampla variedade de campos. No entanto, há casos em que essas inovações claramente não são benéficas, mas estão sendo usadas para fins destrutivos. 

O primeiro exemplo está relacionado à substituição da realidade na Venezuela. Como existe a possibilidade real de ser condenado à prisão por incitar protestos, os estrategistas da oposição dominaram um novo truque para a manipulação da mídia: eles criaram âncoras virtuais de notícias como “Bestie” e “Buddy” para publicar reportagens críticas ao governo nas mídias sociais. Essa abordagem inovadora com avatares virtuais, que faz parte do projeto “Operation Retweet”, permite que eles digam quase tudo, fugindo da responsabilidade. A “Operação Retweet”, por sua vez, faz parte das iniciativas #VenezuelaVota e #LaHoradeVenezuela.

Pela primeira vez, informações sobre isso apareceram em 16 de agosto na CNN, que é o porta-voz dos globalistas.

Os vídeos da “Operação Retweet” são publicados em plataformas de mídia social como X (antigo Twitter), YouTube, TikTok, Facebook e Instagram. Nessas plataformas digitais, avatares de inteligência artificial compartilham informações sobre questões atuais na Venezuela. O primeiro episódio, publicado em 14 de agosto, foi dedicado ao número de detidos após as eleições presidenciais e como a crise política do país está afetando a economia.

Obviamente, tudo isso é mostrado não da posição do estado de direito e da soberania, mas do ponto de vista da oposição e dos interesses do principal instigador da crise atual: os Estados Unidos.

É bem provável que o próprio método tenha sido sugerido por patrocinadores do Departamento de Estado dos EUA

A estratégia, em geral, é bastante inovadora, mesmo em termos de evasão de responsabilidade. Afinal, se um apresentador comum pode enfrentar um processo criminal por declarações claramente ilegais, o que dizer de um avatar virtual? Seu criador, jornalistas, repórteres e editores precisam ser rastreados, o que claramente complica as ações investigativas.

Uma situação semelhante, mas com uma dimensão ligeiramente diferente, está ocorrendo agora na Coreia do Sul. Há um boom de deepfakes eróticos e pornográficos gerados por IA.

Em um crime recente, estudantes do ensino médio em Busan criaram falsificações pornográficas de seus colegas e professores da escola e as publicaram em uma sala de bate-papo em grupo no KakaoTalk. Casos semelhantes ocorreram em cerca de 150 escolas de ensino médio e faculdades em todo o país. Casos semelhantes foram relatados nas mídias sociais em cerca de 150 escolas de ensino fundamental e médio em todo o país. Isso sugere um problema generalizado de crimes de deepfake cometidos por adolescentes acostumados com conteúdo digital.

De acordo com as investigações do Hankyoreh, os crimes de deepfake em unidades militares atingiram níveis graves. Sabe-se que alguns dos deepfakes envolvendo soldados do sexo feminino usavam fotografias de identificação e certificações oficiais do governo que só podiam ser acessadas na intranet militar. Como essa intranet só pode ser acessada por pessoas de dentro, isso sugere que o escopo de tais crimes é realmente amplo.

Mas há pouco que o governo possa fazer, e é por isso que o grupo coreano de direitos das mulheres Womenlink diz que as mulheres continuam a “viver sem o Estado” porque não acreditam mais que seu país lhes ofereça a proteção necessária.

No entanto, a realidade não falha apenas por causa de vândalos, como na Coreia do Sul, ou ativistas com motivação política, como na Venezuela.

Em agosto de 2024, as principais autoridades eleitorais de Michigan, Minnesota, Novo México, Pensilvânia e Washington enviaram uma carta a Elon Musk reclamando que o chatbot de inteligência artificial da plataforma X, o Grok, produziu informações falsas sobre os prazos de votação estaduais logo após a desistência do presidente Joe Biden da corrida presidencial de 2024.

Os secretários de estado solicitaram que o chatbot direcionasse os usuários que fizessem perguntas relacionadas a eleições para um site de informações sobre eleições.

Elon Musk se antecipou às exigências das autoridades. É interessante notar que Alabama, Indiana, Ohio e Texas também foram mencionados na divulgação das informações não confiáveis sobre o momento da votação, embora nenhuma carta tenha sido recebida dos líderes desses estados.

As informações falsas continuaram a ser repetidas por 10 dias. Não se sabe por que a informação foi fornecida.

Se esses casos ilustram uma distorção da realidade e sua substituição, há também a abordagem oposta: uma análise abrangente e profunda dos dados. Em teoria, ela pode ser usada em vários campos, mas agora é ativamente explorada pelos serviços militares e de inteligência dos EUA.

O diretor de dados e inovação digital da Agência Nacional de Inteligência Geoespacial (NGA), Mark Munsell, disse que a NGA começou recentemente a treinar algoritmos de inteligência artificial em seu acervo exclusivo de dados visuais e textuais. Durante décadas, a agência de inteligência dos EUA acumulou grandes quantidades de dados bem rotulados, bem organizados e cuidadosamente examinados, incluindo um arquivo inigualável de imagens de satélite. Para processá-los, a agência precisou gastar muito tempo e envolver um grande número de funcionários. Mas agora esses arquivos estão tentando ser combinados com relatórios de pessoas cuidadosamente selecionadas sobre o que elas veem nessas imagens.

Existem grandes modelos linguísticos que trabalham exclusivamente com texto: eles são treinados com texto, recebem entrada na forma de texto e produzem respostas na forma de texto. Outras formas de inteligência artificial generativa podem correlacionar texto e imagens bem o suficiente para converter as instruções escritas dos usuários em imagens ou até mesmo em vídeo.

E agora, os serviços militares e de inteligência dos EUA estão anunciando uma nova abordagem e a próxima fronteira: IA multimodal. O recurso crucial é fazer referência cruzada a diferentes tipos de informações sobre a mesma coisa, como uma imagem ou um vídeo com a legenda associada que o descreve em palavras, da mesma forma que o cérebro humano pode associar uma ideia ou uma memória com informações de todos os sentidos.

William Corvey, diretor do programa da DARPA, também destacou na mesa redonda da Intelligence and National Security Alliance (INSA) que a IA multimodal pode funcionar mesmo com sentidos que os humanos não têm, como imagens infravermelhas, sinais de rádio e radar ou sonar.

“Imagine sistemas multimodais que possam conciliar informações visuais e linguísticas e outros tipos de modalidades de sensores que podem estar disponíveis para um robô, mas que não estão disponíveis para um ser humano”, diz Corvey com admiração.

Os algoritmos modernos de IA provaram ser perfeitamente capazes de trabalhar com imagens, vídeos e todos os tipos de dados de sensores, não apenas com texto, porque podem abstrair cada um deles nas mesmas representações matemáticas.

Portanto, as forças armadas dos EUA estão tentando utilizá-la para levar dados diversos a um denominador comum e a uma orientação mais clara. E essa abordagem está sendo usada em todos os lugares.

O FBI está usando tecnologia baseada em IA para avaliar as pistas e garantir que elas sejam identificadas com precisão, priorizadas e processadas em tempo hábil.

O Open Source Enterprise da CIA lançou uma ferramenta interna de IA no estilo “Chat-GPT” para permitir que os analistas tenham “melhor acesso à inteligência de código aberto”, e a NSA abriu um “Centro de Segurança de Inteligência Artificial”, com foco na defesa da “IA da nação por meio da colaboração orientada pela Intel com o setor, o meio acadêmico, a Comunidade de Inteligência (IC) e outros parceiros governamentais”.

Embora as novas tecnologias presumivelmente proporcionem uma vantagem às forças de segurança dos EUA, o outro lado da moeda deve ser lembrado: todas essas informações serão usadas contra adversários em potencial, que em Washington incluem a China, a Rússia e outros países. E, do ponto de vista deles, essa aplicação da inteligência artificial também é destrutiva.

Fonte