Vivemos agora em uma era em que a inteligência artificial (IA) começou a permear todos os aspectos de nossa vida cotidiana, desde assistentes de voz até carros autônomos. Embora a IA possa beneficiar alguns, como todas as tecnologias novas e emergentes, ela também foi adotada por criminosos cibernéticos para uma ampla variedade de usos mal-intencionados.
Um exemplo disso são os deepfakes, um termo criado em 2017. Deepfakes são mídias digitais sintéticas altamente realistas e convincentes criadas por IA generativa usando técnicas de aprendizado de máquina (ML), redes adversárias generativas, modelos de difusão e modelos de linguagem ampla (LLMs) - ou uma combinação deles. A saída geralmente é na forma de vídeo, imagens estáticas ou áudio. Embora as falsificações profundas sejam frequentemente usadas para entretenimento e para fins criativos ou artísticos, elas também são deliberadamente usadas indevidamente por pessoas mal-intencionadas para enganar por meio de crimes cibernéticos, fraudes on-line, desinformação/desinformação política e assim por diante.
Embora a arte de criar conteúdo digital falso esteja longe de ser nova, a rápida disseminação dessa nova e poderosa tecnologia e sua acessibilidade levantam profundas preocupações éticas. A capacidade da IA de impulsionar campanhas sofisticadas de desinformação e de perpetuar muitos outros crimes cibernéticos que afetam pessoas reais, como roubo de identidade e fraude on-line, está corroendo rapidamente a confiança pública e privada em nosso mundo cada vez mais interconectado.
Neste relatório, analisaremos a fundo a tecnologia deepfake, discutiremos sua evolução e riscos, mitigações e desafios de governança, e examinaremos a cornucópia de desafios que ela representa para a sociedade e como nós, como defensores, poderemos combatê-los no futuro. Nosso objetivo é informar os líderes que estão navegando nessa questão complexa, com foco em ética, transparência e capacitação do usuário.
O que é um Deepfake?
Um deepfake é uma mídia simulada ou alterada digitalmente, criada por meio da utilização de algoritmos avançados baseados em IA para gerar conteúdo multimídia hiper-realista. Esse conteúdo artificial pode assumir várias formas, desde áudio convincente e imagens foto-realistas até vídeos realistas. A aplicação mais comum de deepfakes é substituir de forma perfeita e convincente a semelhança digital de uma pessoa pela de outra.
Isso é visto com mais frequência por meio da substituição do rosto ou da voz de um ator pela de uma pessoa famosa, como um ator ou político conhecido, para fins de entretenimento ou sátira, mas a imagem de uma pessoa "comum" também pode ser roubada. Essa falsa semelhança pode então ser usada para facilitar campanhas de bullying cibernético, notícias falsas, fraudes financeiras, desinformação etc.
O que é inteligência artificial?
A inteligência artificial em si não é nova. Tecnologias como aprendizado de máquina, redes neurais, visão computacional e outras já existem há anos. Em geral, elas usam algoritmos, que são conjuntos de expressões definidas matematicamente e destinadas a resolver uma classe de problemas específicos com base em dados. Sempre que você acessa a Internet e vê um anúncio personalizado, rola seu feed do Facebook, vê uma linha de texto preditivo em um smartphone ou clica em um vídeo recomendado no YouTube, você está vendo algoritmos baseados em IA em ação.
O aprendizado de máquina é um subcampo da IA que dá aos computadores a capacidade de aprender com o conteúdo existente sem serem explicitamente programados por humanos. O aprendizado de máquina, por si só, não cria nada novo; ele apenas aplica o raciocínio probabilístico com base no que aprendeu anteriormente sobre as relações entre todos os dados disponíveis. Por exemplo, pode parecer mágica quando você adquire um novo cachorro e, de repente, é bombardeado com anúncios on-line de produtos para cães, mas não é. Os algoritmos de aprendizado de máquina simplesmente perceberam que você tem assistido a muitos vídeos de treinamento de cachorros, deduziram que agora você tem um cachorro e chegaram à conclusão lógica de que agora você pode querer comprar produtos para cães. Esse tipo de sistema de aprendizado de máquina é chamado de mecanismo de recomendação.
A IA generativa, por outro lado, é um tipo de inteligência artificial que gera conteúdo novo e original, usando técnicas de probabilidade para gerar conteúdo que provavelmente é a melhor resposta para a solicitação ou pergunta. Ela até aprende de forma semelhante à maneira como aprendemos as coisas. Os aplicativos de IA generativa podem gerar textos, imagens, códigos de computador e muitos outros tipos de dados sintéticos. Todos os aplicativos de IA generativa são criados usando modelos de base e modelos de linguagem grandes:
- Os modelos básicos são grandes modelos de aprendizado de máquina que são pré-treinados e, em seguida, ajustados para tarefas mais específicas de compreensão e geração de linguagem. Depois de treinados, os modelos básicos podem ser ajustados pelos desenvolvedores para se especializarem em diferentes tarefas; por exemplo, compreender textos médicos, traduzir idiomas, escrever códigos ou escrever poesia. Assim como um alicerce sólido sustenta um edifício, esses modelos fornecem uma base sólida de conhecimento para os sistemas de IA.
- Modelos de linguagem grandes são modelos de aprendizagem profunda treinados em enormes conjuntos de dados (em alguns casos, em bilhões de páginas de texto) para lidar com diferentes tipos de tarefas de processamento de linguagem. Eles podem receber uma entrada de texto de um usuário humano e produzir uma saída de texto que imita a linguagem humana natural cotidiana.
Os modelos de base e os LLMs se unem para gerar resultados que consideram estatisticamente prováveis com base em uma entrada inserida por um ser humano. Eles podem fazer todos os tipos de coisas que antes só eram feitas por cérebros orgânicos, como inferir o significado do contexto, dar respostas contextualmente relevantes a perguntas, resumir textos e até mesmo executar tarefas de redação criativa.
A capacidade de receber entrada e produzir saída em linguagem humana natural é um grande avanço na história da computação, que tradicionalmente tem sido prejudicada pela necessidade do computador de uma linguagem ou comandos muito específicos. Quando os seres humanos interagem com programas de software, geralmente é necessário um certo nível de habilidade tecnológica, como a capacidade de escrever em código de computador ou conhecer uma lista de comandos específicos. Por outro lado, qualquer pessoa que saiba digitar em seu idioma nativo pode se comunicar com um LLM e pedir que ele gere uma saída. Os LLMs aprenderam os padrões e as estruturas da linguagem tão bem que podem prever quais palavras devem vir em seguida em uma frase e podem escrever tão bem que seu resultado parece ter sido escrito por um ser humano.
Os LLMs usam redes neurais artificiais que funcionam de forma semelhante à mente humana. Elas permitem que os computadores aprendam com exemplos e tomem decisões com base nesse aprendizado, assim como nós fazemos. E, como fazem os cérebros humanos, eles podem escolher entre bilhões ou trilhões de conexões potenciais para deduzir um resultado de uma entrada.
Em vez de usar linhas de código para dizer a eles como fazer isso, eles são "treinados" da mesma forma que se treina um filhote de cachorro ou um bebê humano. Um bebê não recebe um manual de instruções que lhe diz como falar, nem se senta e tem aulas de idiomas tradicionais. Em vez disso, ele ouve os adultos falarem e, com o tempo, associa certos padrões sonoros a significados específicos. Em seguida, tenta se comunicar usando esses sons e, em poucos anos, passa de um balbucio sem sentido a tentativas simples de palavras como "papai", produzindo palavras completas e, em seguida, juntando-as em frases mais complexas.
Da mesma forma, as redes neurais permitem que os programas baseados em IA identifiquem padrões em grandes volumes de dados. Durante o treinamento, a versão de IA, também conhecida como modelo, é alimentada com grandes quantidades de dados relacionados ao resultado desejado; no caso dos LLMs, eles são alimentados com linguagem humana, geralmente extraída da Internet. O objetivo do treinamento é produzir um modelo de ML capaz de compreender e responder a qualquer pergunta feita a ele.
O modelo de ML é treinado de uma ou mais das seguintes maneiras:
- Aprendizagem supervisionada: Nesse tipo de aula, os modelos de AM são alimentados com dados especificamente rotulados por humanos. Por exemplo, um algoritmo de aprendizado de máquina desenvolvido para identificar a imagem de um gato pode receber milhões de fotos de gatos de todas as raças, cores, formas e tamanhos, cada uma delas rotulada como "gato". A IA procura padrões comuns nessas fotos, como o fato de o sujeito ter quatro patas, bigodes e orelhas pontudas. Com o tempo e com o feedback dos humanos, ela aprende exatamente o que faz de um gato um gato.
- Aprendizagem não supervisionada: Aqui, o modelo de ML é instruído a procurar padrões exclusivos em dados não rotulados. Esse tipo de aprendizado pode produzir resultados interessantes porque pode encontrar padrões que não foram explicitamente solicitados a procurar. Por exemplo, ele pode analisar todos os white papers já escritos sobre física teórica e encontrar uma falha em uma teoria não percebida por cientistas humanos.
- Aprendizado por reforço: Esse tipo de treinamento usa tentativa e erro para tomar a melhor ação usando um sistema de recompensa. No aprendizado por reforço, os humanos informam ao modelo quando ele tomou as decisões corretas, o que o ajuda a aprender com o tempo quais ações tomar.
- Ajuste fino: Esse é um tipo de refinamento do treinamento genérico feito por humanos para garantir que o modelo de IA produza o melhor resultado possível em resposta a uma entrada. Assim como uma equipe de corrida de Fórmula 1™ que tenta otimizar seu carro aumentando a potência, simplificando o formato da carroceria ou reduzindo o arrasto, o desenvolvedor humano ajusta iterativamente o modelo de ML para ajustar seu desempenho com mais precisão.
- Nível de maturidade: Quanto mais tempo o modelo de ML tiver existido e quanto mais treinamento ele tiver recebido, mais "maduro" ele será. Esse nível de maturidade não se aplica apenas aos LLMs, mas a todos os tipos de modelos de IA.
Em uma nota de cautela, é importante entender que, embora os resultados dos LLMs e de outros modelos semelhantes possam parecer muito convincentes, eles ainda podem gerar resultados imprecisos. Como esses modelos são treinados com dados do mundo real extraídos da Internet, de livros, de jornais etc., eles podem absorver os preconceitos da sociedade, o que pode levar a resultados negativos em todas as áreas, desde a saúde até os recursos humanos. Eles também podem "alucinar", um fenômeno em que um LLM ou uma rede neural de IA gera involuntariamente resultados que se desviam da realidade. Essas alucinações podem assumir várias formas, desde textos sem sentido até imagens imprecisas.
Tipos de IA generativa
Um dos aspectos mais surpreendentes dos modelos de IA generativa é sua versatilidade. Quando alimentados com dados de treinamento de alta qualidade suficientes, os modelos maduros podem produzir resultados que se aproximam da criatividade humana. Por exemplo, eles podem escrever poemas ou peças de teatro, discutir casos jurídicos, fazer um brainstorming de ideias sobre um determinado tema, escrever código de computador ou música, escrever uma tese de pós-graduação, produzir planos de aula para uma classe de ensino médio e assim por diante. O único limite atual para seu uso é (ironicamente) a imaginação humana.
O mercado mais amplo de software baseado em IA e sistemas associados está crescendo tão rapidamente quanto o interesse público por eles. De acordo com um informativo recente sobre segurança cibernética - divulgado como uma joint venture entre o FBI, a National Security Agency e a Cybersecurity and Infrastructure Security Agency (CISA) - o mercado de IA generativa deverá ultrapassar US$ 100 bilhões até 2030 e crescerá a uma taxa de mais de 35% ao ano.
Alguns tipos de modelos de IA generativa incluem:
Texto para texto
Isso faz exatamente o que está escrito na caixa. Os aplicativos de IA generativa baseados em texto recebem o texto do usuário e "respondem" em linguagem humana que soa natural. O ChatGPT é um exemplo desse tipo de gerador, baseado na arquitetura GPT (Generative Pre-trained Transformer) da OpenAI. O texto inserido em uma caixa de diálogo de IA generativa é chamado de prompt.
Texto para imagem
Os geradores de texto para imagem permitem que o usuário digite uma frase descritiva, e o modelo de IA gerará automaticamente uma imagem em resposta. Por exemplo, o usuário pode pedir que ele crie uma imagem de um gato patinando ou de Einstein sentado em um banco em Paris comendo macarrão. Midjourney, DALL-E e Stable Diffusion são exemplos de geradores de texto para imagem baseados em IA. O usuário pode solicitar ao gerador que crie uma imagem usando qualquer número de parâmetros diferentes usados por um artista tradicional, como um estilo, um clima ou uma paleta de cores específicos.
Imagem-para-Imagem
Esses tipos de IA generativa podem manipular imagens em uma ampla variedade de formas artísticas. Além de renderizar imagens a partir de um prompt de texto, eles também permitem que o usuário carregue suas próprias imagens no gerador. Lá, eles podem realizar manipulações mais complexas, como combinar diferentes imagens para produzir uma composição. O Adobe Firefly (atualmente em fase de teste beta público) é um exemplo desse tipo de modelo, treinado com imagens de domínio público, Creative Commons, Wikimedia Commons e Flickr Commons, bem como com a vasta coleção de imagens licenciadas da própria empresa por meio do serviço Adobe Stock.
Texto para vídeo
Os modelos mais recentes de IA generativa podem até mesmo gerar vídeos com base em um prompt de texto. Em fevereiro de 2024, a OpenAI, organização de pesquisa baseada em IA, apresentou um novo tipo de sistema que pode gerar vídeos realistas com base em instruções de texto. O sistema de IA, batizado de Sora, pode criar rapidamente vídeos curtos que representam "cenas complexas com vários personagens, tipos específicos de movimento e detalhes precisos do objeto e do plano de fundo". A cobertura jornalística do lançamento do produto especula que o novo sistema pode alimentar as preocupações com a possibilidade de a IA espalhar informações errôneas, especialmente no próximo ano eleitoral.
Imagem para vídeo
Em abril de 2024, a Microsoft apresentou o VASA-1, um modelo de IA que pode gerar um vídeo de uma pessoa falando com base em uma única imagem e uma faixa de áudio de sua voz. A estrutura VASA, que significa "Visual Affective Skills Animator" (Animador de habilidades afetivas visuais), usa o aprendizado de máquina para gerar vídeos suaves e realistas, além de expressões faciais, movimentos da cabeça e sincronização labial com o áudio existente. Os pesquisadores treinaram o VASA-1 em um conjunto de dados que contém mais de um milhão de declarações de 6.112 celebridades, extraídas de vídeos no YouTube. Por enquanto, o gênio permanecerá na garrafa, de acordo com o site da Microsoft, que afirma: "Não temos planos de lançar uma demonstração on-line, API, produto, detalhes adicionais de implementação ou quaisquer ofertas relacionadas até termos certeza de que a tecnologia será usada de forma responsável e de acordo com os regulamentos adequados".
Deepfakes na mídia comercial
À medida que as deepfakes se tornam comuns, um passo significativo na escada evolutiva das deepfakes é a capacidade de criar um vídeo deepfake usando IA generativa.
Os principais estúdios de Hollywood já estão usando efeitos visuais com tecnologia de IA de inúmeras maneiras criativas, como recriar figuras históricas famosas ou desenvelhecer um ator mais velho. Por exemplo, o último filme "Indiana Jones" usou a tecnologia proprietária "FaceSwap" para fazer com que o ator Harrison Ford, de 82 anos, parecesse jovem novamente em uma cena de flashback de 25 minutos.
O setor musical também embarcou com entusiasmo no trem da IA com seu software "vocalswap". Embora até agora as leis tenham impedido o uso comercial da tecnologia, os fãs de música e os artistas agora podem usar a tecnologia generativa para obter uma amostra da voz de uma pessoa famosa (viva ou morta) e usá-la para gerar uma faixa que a apresenta "cantando" uma música que nunca cantou na vida real - com resultados muitas vezes controversos.
Antes de nos aprofundarmos nas aplicações do mundo real de deepfakes, vamos dar uma olhada mais de perto em como as deepfakes são criadas.
Criação de deepfakes com base facial
Os deepfakes faciais, estáticos e em movimento, podem ser gerados usando uma infinidade de ferramentas de software de IA generativa, como DeepFaceLab, Reface AI e DeepBrain AI. Cada ferramenta de software tem recursos diferentes; por exemplo, o Deep Nostalgia Ai é um aplicativo criado pelo MyHeritage que usa visão computacional e aprendizagem profunda para animar fotos de seus antepassados ou figuras históricas. À medida que esses modelos são aprimorados, o mesmo ocorre com seus resultados. As imagens falsas geradas por essas ferramentas tornaram-se assustadoramente realistas e críveis com sua facilidade de acesso e baixa barreira de entrada.
Esses aplicativos também oferecem substituição de rosto e troca de cabeça, em que os algoritmos de IA analisam meticulosamente e replicam os recursos faciais para sobrepor o rosto de uma pessoa ao de outra. Essa técnica usa modelos de dados de aprendizagem profunda para conseguir isso, manipulando a aparência de um alvo em uma mídia digital existente com a semelhança de outra pessoa.
O processo de geração de um deepfake facial pode ser dividido nas seguintes etapas:
Coleta de dados: Para gerar um deepfake, o criador deve primeiro obter imagens ou vídeos digitais nítidos dos rostos de origem e de destino. É necessário um grande volume de dados para treinar os modelos subjacentes e obter um resultado de alta qualidade. Muitas vezes, é por isso que as figuras públicas e as celebridades são os alvos mais fáceis das criações de deepfake, devido à grande quantidade de dados digitais facilmente disponíveis em domínio público.
Treinamento de modelos: A criação de um deepfake convincente depende do playoff entre modelos generativos opostos, particularmente aqueles que compõem as redes adversárias generativas (GANs). As GANs consistem em duas redes neurais: o "Gerador" e o "Discriminador".
Como o próprio nome sugere, o objetivo do Generator é gerar conteúdo falso para alimentar o Discriminator, que usa a lógica de máquina pré-programada para avaliar se o conteúdo é real ou falso. Por meio de treinamento iterativo, também conhecido como prática, o Gerador melhora constantemente sua capacidade de criar conteúdo mais realista, e o Discriminador, por sua vez, melhora a distinção entre real e falso. Esse processo torna o deepfake resultante cada vez mais realista a cada repetição de processamento.
Ajuste fino: Após o período de treinamento inicial, o modelo pode ser ajustado usando dados adicionais para melhorar a qualidade do conteúdo gerado e torná-lo mais convincente. Se desejado, outras etapas podem ser tomadas para aumentar a autenticidade de um deepfake com a aplicação de tempo, recursos e potência de computação.
Face-Swapping: O modelo treinado é então aplicado à imagem ou ao vídeo de destino. O modelo tenta mapear com precisão as características faciais da pessoa de origem para a pessoa de destino. Isso pode criar uma troca perfeita e realista se for feito com bastante cuidado e treinamento do modelo.
Pós-processamento: O objetivo geral de um deepfake é tornar o meio "falso" crível para o olho humano. Para aumentar o realismo de um deepfake, o pós-processamento pode ser usado para editar a saída final de um gerador de modelo deepfake. A suavização adicional de pixels, o ajuste da iluminação e o refinamento cuidadoso dos detalhes podem ser utilizados para melhorar a qualidade geral e a natureza realista de um deepfake.
Resultado: O resultado dos processos acima é uma substituição convincente do alvo inicial pela semelhança da vítima, de tal forma que o resultado pode ser totalmente convincente para alguém que esteja vendo a filmagem ou a imagem pela primeira vez, sem saber que se trata de uma falsificação. Esse engano pode ser aproveitado para fins de entretenimento, mas também pode ser usado como arma por criminosos cibernéticos e partidos políticos.
Inteligência artificial generativa e a ética das falsificações profundas
Com o uso da inteligência artificial generativa (GAI), agora é possível comprar um software que permite criar vídeos deepfake tão reais que pode ser difícil para uma pessoa comum distingui-los de vídeos reais. Há também programas que permitem realizar o que é conhecido como troca de "vídeo para vídeo", em que o software grava sua voz e expressões faciais e as substitui pela voz e pelo rosto de outra pessoa, por meio de milhares ou até milhões de pontos de dados capturados. O software mais recente é poderoso o suficiente para fazer isso em tempo real, abrindo a porta para todos os tipos de cenários alarmantes, como golpes de chamadas de vídeo deepfake.
Além disso, com um conjunto de dados de treinamento amplo o suficiente, o software deepfake ou "deep-voice" baseado em áudio pode ser aproveitado para gerar não apenas a fala, mas também nuances emocionais, tom e inclinação para imitar de perto a voz alvo. Recentemente, muitas figuras políticas e celebridades tiveram suas vozes clonadas para fabricar declarações falsas ou promover desinformação sem seu conhecimento ou permissão. Embora algumas tenham sido geradas para sátira e paródia, o potencial de abuso de tais manipulações é profundo e não pode ser ignorado.
Exemplos de preocupações éticas incluem a disseminação de narrativas falsas e tentativas de incitar a agitação civil e prejudicar a percepção pública ou a reputação das vítimas visadas. Exemplos recentes incluem Hillary Clinton e o presidente Joe Biden, além de outras figuras políticas na próxima eleição presidencial dos EUA em 2024.
Isso também foi visto recentemente na política britânica, quando uma campanha de falsa bandeira foi usada para atingir o prefeito de Londres, Sadiq Khan, no final de 2023. Um clipe de áudio com voz grave foi fabricado e publicado nas mídias sociais com a pretensão de mostrá-lo sugerindo a reprogramação do Dia do Armistício para acomodar um protesto pró-palestino. Embora a Polícia Metropolitana de Londres tenha analisado a situação e determinado que a criação e a distribuição do clipe não constituíam crime, Khan disse que estava claro que a intenção era "semear o ódio e a divisão".
Policiamento de Deepfakes on-line
Deepfakes nas mídias sociais
Embora as plataformas de mídia social, como o Facebook e o X (antigo Twitter), tenham feito avanços para remover e até proibir o conteúdo deepfake, o policiamento e a eficácia variam devido às dificuldades inerentes à implementação de sistemas de detecção de deepfake. Em outras palavras, se um ser humano tiver dificuldades para distinguir um vídeo deepfake de um real, os sistemas automatizados também terão dificuldades.
Em 2023, o presidente Joe Biden trabalhou para garantir o compromisso das principais empresas de IA com a marca d'água do conteúdo gerado por IA, e as empresas de tecnologia agora estão colaborando para desenvolver padrões para a marca d'água. Embora atualmente seja um processo voluntário, tornar isso obrigatório por lei seria um passo positivo na batalha contra o engano assistido por IA. É claro que os grupos criminosos não cumprirão nenhuma legislação desse tipo. Em setembro de 2023, o senador republicano de Nebraska, Pete Ricketts, criou um projeto de lei que exigiria a marca d'água de conteúdo gerado por IA, mas isso pode não ser suficiente porque as marcas d'água são facilmente removidas com software de edição.
Deborah Johnson, ex-professora de Ética Aplicada, emérita, da Universidade da Virgínia, diz que estamos entrando em águas muito turvas.
"Os deepfakes fazem parte de um problema maior de desinformação que mina a confiança nas instituições e na experiência visual - não podemos mais confiar no que vemos e ouvimos on-line. A rotulagem é provavelmente o mais simples e mais importante contra-ataque aos deepfakes - se os espectadores estiverem cientes de que o que estão vendo foi fabricado, é menos provável que sejam enganados."
O uso de deepfakes pelos criminosos cibernéticos
Exemplos de ataques Deepfake
Quando a sofisticada captura de movimento em vídeo em tempo real é combinada com áudio deepfake, os resultados podem ser tão convincentes que até os mais céticos podem ser convencidos. Em fevereiro de 2024, um funcionário do setor financeiro de uma empresa multinacional foi induzido a iniciar um pagamento de US$ 25 milhões a fraudadores que usaram a tecnologia deepfake para fingir ser o diretor financeiro da empresa. De acordo com a polícia de Hong Kong, o funcionário participou de uma videoconferência com o que ele acreditava serem membros reais da equipe, mas que, na verdade, eram todos deepfakes.
Inicialmente, o funcionário desconfiou de uma mensagem que parecia ser do diretor financeiro da empresa, solicitando a realização de uma transação secreta. No entanto, o funcionário deixou de lado suas dúvidas após a chamada de vídeo porque outras pessoas presentes pareciam e soavam como funcionários que ele reconhecia.
Esse é apenas o último de uma série de casos recentes em que os fraudadores usaram a tecnologia mais recente para reforçar um dos truques mais antigos: a arte da fraude. As autoridades de todo o mundo alertaram que o único limite para o grau de desonestidade desses atos é a imaginação dos fraudadores.
Suas táticas podem incluir qualquer um ou todos os itens a seguir:
Fraude e roubo de identidade
A arte sutil do golpe foi refinada e redefinida ao longo dos milênios, mas o nascimento da Internet permitiu que a fraude digital se tornasse uma ameaça persistente. De e-mails de phishing a pop-ups de sites, está ficando cada vez mais barato e fácil cometer crimes cibernéticos e o risco de ser pego é comparativamente pequeno.
De acordo com o Identity Theft Resource Center (ITRC), uma organização sem fins lucrativos reconhecida nacionalmente que apoia vítimas de crimes de identidade, quase 234 milhões de pessoas foram afetadas por algum tipo de comprometimento de dados nos EUA nos três primeiros trimestres de 2023. A Consumer Sentinel Network da Federal Trade Commission (FTC) recebeu mais de 5,39 milhões de denúncias em 2023, das quais 48% foram por fraude e 19% por roubo de identidade. A fraude de cartão de crédito representou aproximadamente 40% dos casos de fraude, logo seguida pelo roubo de identidade com 25%, uma estatística que inclui compras on-line e fraude de contas de pagamento, fraude de e-mail e mídia social e outros tipos diversos de roubo de identidade.
Normalmente, os golpes on-line se aproveitam das fraquezas e da suscetibilidade presumidas do indivíduo visado. Nas décadas anteriores, os fraudadores da Internet lançavam as redes mais amplas possíveis para enganar as massas, como no caso do malspam (spam com malware), mas, à medida que as tendências digitais evoluíram, também evoluíram as táticas e técnicas dos fraudadores on-line. Os deepfakes podem ser o ponto de inflexão do jogo da engenharia social, pois permitem que os fraudadores se concentrem em um indivíduo específico por uma fração do preço anterior.
Golpes de Deepfake
No mundo conjunto da mídia social e do consumismo digital, a publicidade, o marketing e o endosso de marcas desempenham um papel importante na percepção do consumidor sobre um novo produto ou serviço. No entanto, o campo da promoção digital tem visto um aumento acentuado no uso ilícito de deepfakes de celebridades e personalidades da Internet. Como apenas um dos muitos exemplos, em outubro de 2023, Tom Hanks publicou novamente um vídeo de tendência em sua conta do Instagram que parecia mostrá-lo promovendo um plano odontológico, juntamente com uma mensagem para seus fãs avisando "CUIDADO ... Eu não tenho nada a ver com isso".
Mesmo antes do surgimento dos deepfakes, inúmeras celebridades tiveram sua imagem aproveitada para promover serviços e produtos fraudulentos sem seu conhecimento ou permissão. Como um dos rostos mais reconhecidos instantaneamente do mundo, Elon Musk é explorado regularmente por golpistas. O CEO da Tesla e da SpaceX é bem conhecido por seu fascínio por criptomoedas, que foi usado como arma no passado para criar deepfakes críveis que promovem esquemas fraudulentos de criptomoedas. Esses sites de phishing enganam as vítimas para que elas cliquem em links ou criem contas, após o que o fraudador habilmente as livra de suas credenciais financeiras e de qualquer excesso de dinheiro que possam ter em suas carteiras de criptomoedas.
Chamadas de golpes de IA generativa
As chamadas de robôs e golpes são uma ameaça sempre presente, além do fator de incômodo. De acordo com as estatísticas mais recentes da Truecaller, nos 12 meses entre abril de 2023 e março de 2024, os americanos desperdiçaram cerca de 219 milhões de horas devido a golpes e chamadas robóticas e perderam um total de US$ 25,4 bilhões. A maioria dos golpes estava relacionada a fraude de cartão de crédito, roubo de identidade, fraude de Medicare e seguro e fraude de cobrança de dívidas, com a perda por vítima em média de US$ 452. A empresa observou: "A Inteligência Artificial está sendo cada vez mais usada para fazer essas chamadas fraudulentas e textos de golpes, fazendo com que pareçam mais realistas e eficazes".
O relatório Truecaller Spam and Scam de 2024 acrescenta que, nos últimos 12 meses, as táticas de fraude passaram de campanhas de chamadas automáticas em larga escala para "ataques de spearphishing mais sofisticados e orientados por IA, altamente direcionados e contextualmente relevantes. Essas campanhas direcionadas com precisão representam uma ameaça significativa devido à sua eficácia... e têm o potencial de explorar o aumento da segmentação móvel associada aos ciclos eleitorais".
Com o aprimoramento do software de alteração de voz por IA geradora e de voz profunda, é provável que essas ferramentas sejam usadas com mais frequência em ataques mais direcionados. Devido à natureza comum desse tipo de golpe de baixo nível, a maioria de nós agora está mais bem informada e é capaz de identificar sinais de alerta ao se envolver inadvertidamente com esse tipo de golpista.
No entanto, uma voz deepfake gerada de forma mais crível poderia melhorar muito a taxa de sucesso daqueles que buscam obter acesso às informações de identificação pessoal da vítima ou assumir o controle de sua conta. O objetivo de um ataque de sequestro de conta (ATO), como os comumente usados em ataques de troca de SIM, é obter controle sobre o celular da vítima para acessar qualquer serviço pertencente à vítima que dependa de autenticação multifator (MFA), como serviços bancários ou outros serviços financeiros.
Fraude de voz profunda
Nos últimos anos, o comprometimento de e-mail comercial (BEC) tem sido uma forma testada e comprovada de se infiltrar em uma organização vítima. O invasor aproveita o status de "insider confiável" da conta comprometida para cometer fraudes. No entanto, a fraude de áudio deepfake é um fenômeno relativamente novo. Uma grande variedade de startups de tecnologia está produzindo tecnologias de voz baseadas em IA cada vez mais sofisticadas, incluindo a Resemble AI do Canadá, a Aflorithmic de Londres e a Respeecher da Ucrânia.
O uso de IA de voz generativa reduziu a barreira de entrada para criar modelos de voz de fala mais realistas e avançados, a ponto de dificultar a detecção de enganos e solicitações fraudulentas. Embora a falsificação de voz e outros truques de áudio não sejam, de forma alguma, uma tecnologia nova, a tecnologia de voz profunda agora pode clonar uma voz a ponto de ser quase indistinguível da pessoa real.
Essa superfície de ataque cibernético recém-expandida é agora uma ameaça muito real para empresas de todos os tamanhos. Um exemplo seria um invasor clonar a voz de um CEO usando amostras de sua voz encontradas na Internet. Muitos executivos têm entrevistas ou apresentações em seu canal corporativo no YouTube. Em seguida, o invasor telefona para o departamento financeiro da empresa e pede para iniciar uma transferência fraudulenta usando a voz do CEO deepfake. Em combinação com geradores de números telefônicos falsos, isso pode resultar na perda de grandes somas de dinheiro de uma empresa.
Isso aconteceu de forma muito real em 2021, quando uma empresa japonesa recebeu uma demanda aparentemente legítima de um diretor de sua matriz para autorizar uma transferência de quase US$ 35 milhões. Conhecendo a voz do diretor e acostumado a tais demandas do diretor, o gerente da filial liberou o financiamento.
Embora programas de TV, como a série de ficção científica "Black Mirror", já tenham começado a explorar a natureza profundamente perturbadora dessa tecnologia em escala corporativa, experimentar pessoalmente truques de áudio em nossa vida cotidiana rompe uma barreira de confiança nunca antes vista. Aqueles de nós que cresceram assistindo a truques de mágica no circo ou na TV já sabem que muitas vezes não podemos acreditar em nossos olhos, mas pode levar mais tempo para que nós, como sociedade, percebamos que não podemos mais confiar em nossos ouvidos.
Bullying cibernético
O uso de imagens e áudio deepfake de uma pessoa real sem o seu conhecimento para cometer crimes, fraudes ou destruição maliciosa tornou-se um fenômeno generalizado nos últimos anos. Cada vez mais, e de forma preocupante, a tecnologia deepfake também é usada para criar material de exploração sem o consentimento da vítima.
A técnica de sobrepor a cabeça de uma pessoa ao corpo de outra por meio de software deepfake para criar material adulto inadequado já está bastante difundida. Como muitos de nós costumamos compartilhar em excesso grande parte de nossas vidas pessoais on-line por meio de redes sociais como o Facebook e o YouTube, o adulto médio agora tem mais fotos, vídeos e áudios seus disponíveis publicamente do que nunca, para que qualquer pessoa possa copiá-los para seus próprios objetivos maliciosos.
Uma forma frequente de ignorar as preocupações com a privacidade é: "Por que se preocupar se não tenho nada a esconder?" No entanto, para indivíduos mal-intencionados que desejam praticar bullying cibernético ou chantagem financeira, essa abundância de material de origem de livre acesso oferece a eles tudo o que precisam para criar e circular um vídeo realista que a pessoa pagaria qualquer coisa para ser excluído.
Uma nova e preocupante tendência que está chegando ao ciclo de notícias em 2024 é o número de incidentes relatados em que adolescentes usam software baseado em IA para gerar fotos de seus colegas de classe ou professores sem roupa. O problema se tornou uma epidemia entre as adolescentes nos EUA, de acordo com o The New York Times. Embora muitas vezes seja visto pelos pais ou professores como uma "transgressão juvenil", está se tornando uma extensão perturbadora do cyberbullying. Essas imagens podem ter implicações que alteram a vida das jovens vítimas.
Preocupações legais e éticas
O uso de software deepfake levanta preocupações legais e éticas sobre tópicos como liberdade de uso e expressão, direito à privacidade e, é claro, direitos autorais. Como o software deepfake baseado em IA está sendo lançado atualmente com relativamente poucas proteções, a questão crescente do ponto de vista jurídico não é se isso vai explodir nos tribunais, mas quando. As pessoas mais ricas e poderosas podem se dar ao luxo de contratar advogados para preservar sua imagem pública se ela for ameaçada, mas as pessoas com menos dinheiro e influência podem ficar legalmente indefesas se forem alvos.
Em muitos julgamentos criminais de alto nível, os réus já estão usando a "carta da IA" para questionar provas que, até recentemente, muitos pensavam ser inatacáveis. Por exemplo, em seu artigo de análise especializada, The Other Side Says Your Evidence Is A Deepfake. Now What?, o escritório de advocacia internacional WilmerHale discute essa nova defesa dos criminosos que argumentam que a mídia gravada pode ser inadmissível em um processo judicial devido ao risco de ser uma deepfake. Por outro lado, o vídeo e o áudio gerados por IA cada vez mais realistas ampliam o risco de que provas falsificadas cheguem à sala do tribunal e causem um resultado injusto.
Como um exemplo observado no documento da WilmerHale, um réu no julgamento relacionado ao motim no Capitólio dos EUA contestou a afirmação de que os vídeos de código aberto do motim no Capitólio citados pela acusação eram autênticos, abrindo caminho para alegações semelhantes no futuro.
Guerra cibernética e propaganda
Na década de 1930, a adulteração de fotos pelos soviéticos e a remoção de qualquer evidência de oposição política das imagens foram muito utilizadas por Stalin durante o Grande Expurgo, no qual quase um milhão de pessoas morreram. Esse esforço de propaganda impôs ideologias políticas com o objetivo de apagar todos os registros dos cidadãos considerados pelo ditador como inimigos do Estado e de seu regime pessoal e político.
Embora os soviéticos de quase um século atrás tenham usado técnicas manuais para adulterar fotografias e registros, em vez dos programas de computador atuais, seus esforços conseguiram influenciar o povo da União Soviética e de outros países, e os efeitos indiretos foram graves.
A atmosfera de desconfiança e o uso de vigilância generalizada persistiram por décadas. Na era atual da propaganda em massa, a desinformação deliberada por meio da adulteração da mídia audiovisual beneficia aqueles com objetivos geopolíticos e perpetua as falsidades espalhadas pelos estados-nação.
À medida que a invasão russa da Ucrânia avança em seu terceiro ano, novas formas de propaganda de guerra estão sendo usadas por ambos os lados. Em meados de 2022, um vídeo deepfake do presidente Volodymyr Zelenskyy parecia mostrar o líder ucraniano conclamando seus soldados a deporem as armas e se renderem. O vídeo falsificado foi enviado para veículos de notícias ucranianos comprometidos e circulou nas mídias sociais pró-russas e em outras plataformas digitais.
Hany Farid, professor da Universidade da Califórnia, Berkeley, e especialista em perícia de mídia digital, disse sobre o vídeo: "Ele polui o ecossistema de informações e lança uma sombra sobre todo o conteúdo, que já está lidando com a complexa névoa da guerra". Ele observa que as consequências podem ser uma maior confusão na confiança da população na mídia. "Na próxima vez que o presidente for à televisão, algumas pessoas poderão pensar: 'Espere um minuto - isso é real?
A perturbação e o medo que uma única peça de multimídia pode causar tornam a tecnologia deepfake uma adição valiosa para o arsenal de nações em guerra. À medida que mais pessoas no mundo adotam plataformas de mensagens como Telegram e WhatsApp, a desinformação se espalha como fogo e fica cada vez mais difícil separar fato de ficção.
Considerar a IA inofensiva seria um descuido perigoso. Em um artigo intitulado Why AI doesn't have to be the enemy (Por que a IA não precisa ser o inimigo), John Smith, CTO e fundador da empresa de software LiveAction, advertiu: "Atores mal-intencionados, armados com ferramentas de IA, representam uma ameaça genuína. Mas não vamos esquecer o histórico destrutivo de nossa própria espécie. Guerras, divisões sociais, devastação ambiental - a humanidade, armada com ferramentas primitivas, já causou danos imensos a si mesma e ao planeta. Isso nos leva a uma pergunta crítica: estamos projetando nossas próprias falhas na IA, temendo o monstro que nós mesmos criamos? A verdade é que a IA não é um bicho-papão externo. Ela é um reflexo de nós mesmos, uma ferramenta moldada por nossos valores e intenções."
Cronograma de abuso e mau uso notáveis do Deepfake
Exemplos de Deepfake
2017
- No final de 2017, um usuário anônimo do Reddit usou um computador doméstico para sobrepor rostos de celebridades em videoclipes pornográficos. Logo depois disso, outra pessoa lançou um aplicativo que automatizava o processo de criação de deepfakes, que foi baixado mais de 100.000 vezes em apenas dois meses.
- À medida que 2017 avançava, imagens lascivas de deepfake começaram a aparecer em toda a Internet, concentradas na comunidade do Reddit. Estrelas como Natalie Portman, Emma Watson e Taylor Swift foram apenas algumas das celebridades femininas que se tornaram objetos indesejados desses deepfakes adultos.
2018
- Em abril de 2018, o diretor de cinema Jordan Peele colaborou com um parente do BuzzFeed para criar um anúncio de serviço público deepfake mostrando o ex-presidente Barack Obama tirando sarro do então presidente Donald Trump. Para acertar a simulação, foram necessárias 56 horas de treinamento do software, mas isso serviu para aumentar a conscientização do público sobre os deepfakes.
- Em junho de 2018, a jornalista investigativa indiana e muçulmana Rana Ayyub foi alvo de uma campanha de ódio que usou um vídeo adulto deepfake criado com sua imagem.
2019
- No início de 2019, a estação de televisão KCPQ transmitiu um deepfake do então presidente Donald Trump durante seu discurso no Salão Oval, zombando de sua aparência e cor de pele. O funcionário desonesto considerado responsável foi rapidamente demitido.
- Em junho de 2019, foi lançado um site com um aplicativo para download chamado DeepNude. O DeepNude usava redes neurais, como redes adversárias generativas, para remover roupas de imagens de mulheres. O aplicativo não funcionava em fotos de homens. O aplicativo tinha uma versão para Windows® e Linux®, e a versão paga custava US$ 50. No final do mês, o aplicativo foi removido e os assinantes foram reembolsados. "Essa tecnologia não deveria estar disponível para o público", disse Katelyn Bowden, fundadora e CEO da BADASS, uma organização sem fins lucrativos dedicada a combater o abuso de imagens.
- Em setembro de 2019, um golpista usou a tecnologia deepfake para enganar uma empresa de energia do Reino Unido em US$ 243.000. Usando um software de deep-voice, o golpista imitou a voz do CEO da matriz da empresa e convenceu a empresa a transferir o dinheiro. O CEO da empresa de energia relatou que reconheceu a voz na chamada, mencionando especificamente o sotaque alemão da voz e a "melodia" de sua voz.
2020
- Um vídeo deepfake do presidente do Partido Bharatiya Janata (BJP), Manoj Tiwari, tornou-se viral no WhatsApp no país, criticando seu oponente político Arvind Kejriwal e incentivando os eleitores a votar no BJP.
- Durante a campanha presidencial de 2020 nos EUA, começaram a surgir deepfakes on-line mostrando Joe Biden em suposto declínio cognitivo, como adormecer no meio de uma entrevista, perder-se e falar errado - tudo isso reforçando os rumores de seu declínio mental e saúde debilitada.
2021
- No início de 2021, uma mulher foi presa na Pensilvânia por supostamente criar imagens deepfake das rivais de sua filha bebendo e fumando, que ela enviou aos pais delas na tentativa de expulsá-las da equipe de líderes de torcida. Ela foi acusada de assédio cibernético a uma criança e delitos relacionados.
2022
- Em março de 2022, um pequeno vídeo deepfake circulou on-line, alegando mostrar o presidente da Ucrânia, Volodymyr Zelenskyy, dirigindo-se à nação, dizendo aos soldados para deporem as armas e se renderem.
- Em junho de 2022, o FBI emitiu um alerta de que os criminosos cibernéticos estavam adotando áudio e vídeos com voz profunda para fazer entrevistas para empregos remotos em tecnologia que envolviam acesso a informações e sistemas confidenciais. Apenas um mês antes, em maio, o FBI havia alertado que espiões cibernéticos norte-coreanos poderiam estar se passando por trabalhadores estrangeiros de TI.
2023
- No início de 2023, um trabalhador da construção civil de Chicago usou a plataforma de criação de imagens geradas por IA Midjourney para fabricar uma imagem estática do Papa Francisco vestido com uma jaqueta Balenciaga branca ultramoderna. A imagem gerada por IA foi vista e compartilhada quase 20 milhões de vezes nas mídias sociais. O jornalista americano Ryan Broderick chamou o caso de "o primeiro caso real de desinformação por IA em nível de massa".
- Em maio de 2023, um vídeo deepfake apareceu nas mídias sociais da vice-presidente Kamala Harris supostamente enrolando as palavras e falando sem sentido.
- Em junho de 2023, o FBI publicou um novo aviso de que os criminosos cibernéticos estavam usando fotos e vídeos disponíveis publicamente para realizar esquemas de extorsão deepfake. "O FBI continua a receber relatos de vítimas cujas fotos ou vídeos foram alterados para conteúdo explícito", disse a agência no alerta. "As fotos ou vídeos são então divulgados publicamente nas mídias sociais ou em sites pornográficos, com o objetivo de assediar as vítimas."
- A rede de TV sul-coreana MBN recebeu uma reação mista dos telespectadores quando anunciou que estava usando um deepfake de ação ao vivo e gerado por computador da âncora regular de notícias Kim Joo-Ha para ler as principais notícias do dia. Enquanto alguns telespectadores ficaram impressionados com o realismo, outros ficaram preocupados com a possibilidade de a verdadeira Kim Joo-Ha perder seu emprego.
2024
- Em fevereiro de 2024, uma empresa multinacional perdeu US$ 25,6 milhões em um golpe depois que os funcionários de sua filial em Hong Kong foram enganados por um deepfake do diretor financeiro da empresa ordenando transferências de dinheiro por meio de uma chamada de vídeo.
- Em maio de 2024, o ChatGPT-4 foi aprovado no teste de Turing, o que representa um marco significativo no domínio da linguagem natural pela IA. Nos testes, o GPT-4 foi capaz de convencer 54% das pessoas que interagiram com ele de que era humano. O teste de Turing foi proposto por Alan Turing em 1950 e envolve um "juiz" humano conversando com um humano e uma máquina por meio de texto. Se o juiz não conseguir distinguir entre os dois, diz-se que a máquina passou no teste.
- Em junho de 2024, um videoclipe deepfake circulou nas mídias sociais estatais russas , supostamente mostrando o porta-voz do Departamento de Estado dos EUA, Matthew Miller, comentando sobre o auxílio de armas de Washington para a Ucrânia. O vídeo falso sugeria que a cidade russa de Belgorod, a apenas 25 milhas ao norte da fronteira da Ucrânia com a Rússia, era um alvo legítimo para os ataques ucranianos porque "praticamente não havia civis".
Mecanismos de detecção de deepfake e contramedidas
Análise de inconsistência
Com a análise de inconsistência, um ou mais aspectos da imagem ou do vídeo são intensamente analisados por algoritmos de aprendizado de máquina para detectar falsificações digitais. Por exemplo, os algoritmos podem detectar uma iluminação inconsistente entre o rosto original e o rosto falsificado, ou a consistência de cores da amostra original em relação à imagem suspeita de falsificação. Esse método de análise pode detectar erros cometidos na geração de imagens que não são óbvios para o olho humano.
Marca d'água digital
Quase todo mundo conhece as marcas d'água em imagens que mostram o nome de seu criador. Os exemplos incluem plataformas de licenciamento de imagens, como Getty Images ou Shutterstock. As marcas d'água digitais de criadores de conteúdo legítimos podem ajudar a verificar a origem e a autenticidade do conteúdo. Da mesma forma, se esse marcador estiver ausente, isso pode indicar que a mídia foi comprometida ou manipulada.
Recentemente, o governo Biden sugeriu marcas d'água como uma solução política para deepfakes, sugerindo que as empresas de tecnologia sejam obrigadas a marcar digitalmente o conteúdo gerado por IA. Por exemplo, em fevereiro, a OpenAI anunciou que adicionaria marcas d'água à sua ferramenta de conversão de texto em imagem DALL-E 3 , mas adverte que elas poderiam "ser facilmente removidas".
Criptografia
De forma semelhante, a incorporação de assinaturas criptográficas no conteúdo original ajuda a verificar sua legitimidade e origem. A verificação baseada em blockchain é outro método crescente para autenticar criações digitais. Esses tipos de soluções baseadas em blockchain podem ser cruciais para distinguir entre conteúdo real e fabricado.
Por exemplo, quando uma imagem ou um vídeo é criado, uma assinatura digital é gerada e anexada ao conteúdo. A assinatura digital é feita usando a chave privada do criador, que é exclusiva para ele e armazenada com segurança no blockchain. Quando alguém quiser verificar a autenticidade de um conteúdo, poderá usar a chave pública do criador (que está disponível publicamente no blockchain) para validar a assinatura digital. Se a assinatura for válida, ela confirma que o conteúdo não foi adulterado e foi de fato criado pela entidade verificada.
Digamos que uma organização de notícias queira publicar uma reportagem em vídeo sobre um evento importante. Ela pode usar um sistema de assinatura digital baseado em blockchain para garantir a autenticidade do vídeo da seguinte forma:
- O cinegrafista da organização de notícias grava o evento e gera uma assinatura digital para o vídeo usando a chave privada da organização.
- O vídeo, juntamente com a assinatura digital, é carregado na rede blockchain.
- Quando um leitor quiser verificar a autenticidade do vídeo, ele poderá acessar a chave pública da organização de notícias no blockchain e usá-la para validar a assinatura digital.
- Uma assinatura válida confirma que o vídeo não foi adulterado e foi criado pela organização de notícias verificada.
Essa abordagem ajuda a evitar a disseminação de deepfakes, fornecendo um registro inviolável da origem e da autenticidade do conteúdo. Ela também permite que os usuários verifiquem a legitimidade do conteúdo digital antes de compartilhá-lo ou consumi-lo.
Escores de confiança
Os sistemas baseados em IA podem ser capazes de gerar pontuações de confiança ou métricas de incerteza sempre que gerarem um resultado. Isso indica o nível exato de confiança ou certeza que o modelo tem em relação ao que criou. Ao analisar essas pontuações, as pessoas que usam o software podem avaliar a confiabilidade do resultado do modelo.
Divulgação de preconceitos
A divulgação de viés afirma que os dados de treinamento usados para treinar modelos de IA devem ser totalmente transparentes. A empresa que criou o software deve tornar as informações sobre os conjuntos de dados e suas respectivas tendências acessíveis aos usuários finais. Ao declarar publicamente o tamanho, a fonte e as possíveis limitações dos dados de treinamento de um software, aqueles que o utilizam terão uma melhor compreensão dos possíveis vieses que podem aparecer no resultado do modelo.
Conscientização do usuário
Muitas ameaças cibernéticas e golpes se aproveitam do usuário final, presumindo que ele é o elo mais fraco, e só são bem-sucedidos na medida em que o usuário é enganado. Isso é particularmente verdadeiro em golpes que envolvem engenharia social. Uma das técnicas de atenuação mais fortes é a conscientização e a educação do usuário.
As empresas devem implementar um programa de treinamento robusto para instruir os funcionários sobre a ameaça das deepfakes, como elas podem ser aproveitadas pelos criminosos cibernéticos, como reconhecê-las e o que fazer em caso de suspeita, e os riscos caso um agente de ameaça atinja a organização usando deepfakes. Essa educação do usuário pode ajudar muito a reduzir a superfície de ataque de deepfake.
Leis e governança
Apesar das leis atuais contra a falsificação digital, a criação de uma governança oficial em torno da mídia sintética recém-desenvolvida criada por IA é uma tarefa difícil tanto para as empresas de tecnologia quanto para os legisladores. Essa tecnologia está se acelerando em um ritmo sem precedentes, e a implementação de regras tão complexas pode ser um processo lento.
Os Estados Unidos aprovaram a DEEP FAKES Accountability Act em 2019 para defender as vítimas de "falsa personificação" e estabelecer penalidades criminais para violações relacionadas. A União Europeia também tem políticas para combater as deepfakes e é apoiada pela Lei de Serviços Digitais (DSA). Embora tenha entrado em vigor em 2022, tem sido difícil fazer com que os operadores de plataformas on-line muito grandes (VLOP) entrem em conformidade.
A polêmica Lei de Segurança Online de 2023 do Reino Unido abrange uma série de ofensas digitais e tópicos como a geração e o compartilhamento de deepfakes ilícitos.
Tendências e previsões atuais
Maior sofisticação
A IA generativa continua avançando em um ritmo impressionante. À medida que essa tendência continuar, o mesmo acontecerá com o nível de sofisticação visto na futura mídia deepfake de todos os tipos. Os criminosos cibernéticos poderão aproveitar a IA mais avançada para criar deepfakes mais convincentes para golpes mais complexos.
Interferência política/eleitoral
A mídia social é uma ferramenta poderosa durante o período eleitoral. O enorme alcance das plataformas de mídia social as torna um terreno fértil para campanhas de desinformação de agentes políticos. Nas mídias sociais, as deepfakes podem ser facilmente transformadas em armas, o que é ilustrado por muitos casos notáveis em que elas foram usadas para influenciar os eleitores. É altamente provável que continuemos a ver deepfakes usados como ferramenta de desinformação à medida que muitas eleições de alto nível ocorram ao longo de 2024.
Ataques avançados de engenharia social
A engenharia social sempre foi um componente básico do manual do agente de ameaças cibernéticas; ela pressupõe que os funcionários são o elo mais fraco da segurança de uma empresa. Quando combinados com o uso de deepfakes, esses ataques podem assumir outro nível de sofisticação, em que a mídia deepfake pode ser usada para tentar adicionar uma camada de "autenticidade" e enganar um usuário inadvertido para que ele tome uma decisão errada.
"As falsificações profundas de áudio e vídeo representam o fascinante desenvolvimento da tecnologia do século XXI, mas também são incrivelmente perigosas, representando uma enorme ameaça aos dados, ao dinheiro e às empresas".
explica Jake Moore, um especialista em segurança cibernética que passou 14 anos investigando crimes de computador na Digital Forensics Unit e na Cybercrime Team da polícia de Dorset, no Reino Unido.
"Atualmente, estamos no limiar em que os agentes mal-intencionados estão transferindo a experiência e os recursos para o uso da tecnologia mais recente para manipular pessoas que inocentemente desconhecem os domínios da tecnologia deep fake e até mesmo sua existência."
Manipulação corporativa e governamental
Os deepfakes podem ser usados para tentar prejudicar a reputação de uma empresa, bem como para afetar o preço de suas ações e a satisfação do cliente. Os deepfakes também podem ameaçar a marca de uma organização, fazer-se passar por líderes e diretores financeiros e fornecer aos malfeitores acesso potencial a redes, comunicações e outros sistemas e informações confidenciais. Quando o impacto em potencial é considerado, esse tipo de deepfake representa uma preocupação significativa para muitos CEOs, CISOs e líderes governamentais.
Exemplos de campanhas deepfake "antimarca" podem ser alcançados com a criação de vídeos deepfake de executivos de empresas transmitindo informações falsas sobre seus produtos, ou de avaliadores gerados por IA deixando falsas avaliações negativas em vídeo de uma marca ou serviço.
Mitigação de ameaças Deepfake
À medida que a tecnologia de deepfake baseada em IA amadurece e o poder geral de computação continua a disparar, tudo, desde golpes telefônicos e ataques cibernéticos a campanhas políticas, se tornará mais eficaz, pesando fortemente a favor do criminoso cibernético. A cada dia que passa, o mercado é inundado com mais ferramentas gratuitas e de fácil acesso que levam o poder da IA para as massas, para o bem ou para o mal.
Diz Shiladitya Sircar, vice-presidente sênior de engenharia de produtos e ciência de dados da BlackBerry,
"A tecnologia que pode detectar falsificações profundas está muito atrasada em relação ao ritmo de produção de novos softwares e sistemas de IA. É imperativo que designers de produtos, engenheiros e líderes trabalhem juntos para definir padrões de validação de autenticidade criptograficamente seguros para conteúdo digital."
Até lá, é aconselhável usar o bom senso e empregar as ferramentas disponíveis atualmente para reduzir o possível impacto dos golpes de deepfake em sua organização. Reunimos uma pequena lista de dicas práticas que você pode usar agora para manter você e sua empresa seguros:
Implemente a verificação em tempo real do acesso à rede. Considere instalar uma verificação de identidade capaz de operar durante as comunicações em tempo real. Uma senha não é mais suficiente, pois ela pode ser facilmente comprometida ou roubada por agentes mal-intencionados.
Instale a autenticação multifator (MFA). Essa tecnologia de verificação é uma parte importante da etapa acima, mas, para ser bem-sucedida, deve ser implementada em toda a empresa, sem exceções. Ela deve empregar uma senha gerada uma única vez ou um PIN enviado para o telefone ou dispositivo do usuário e incluir biometria, como reconhecimento facial. Esse teste de "prova de vida" pode derrotar ataques básicos e garantir que um telefone perdido ou roubado não dê a um invasor as chaves do reino da sua organização.
Proteja os dados públicos de pessoas de alto perfil em sua empresa. Quem trabalha com mídia social conhece os perigos do compartilhamento excessivo. Todos nós já vimos artigos de notícias tirando sarro de funcionários que publicaram fotos não editadas de seus escritórios on-line, com quadros brancos confidenciais ou até mesmo senhas rabiscadas em notas adesivas bem visíveis. Os mesmos perigos agora se aplicam a imagens ou vídeos de alta resolução dos líderes de sua empresa. Embora não seja possível reprimir gravações de liderança feitas por terceiros (como palestras em conferências), discuta um plano para evitar que os invasores usem seus materiais promocionais disponíveis publicamente contra você. Considere a possibilidade de colocar uma marca d'água digital nessas gravações para reduzir o risco de um invasor conseguir extrair uma imagem de qualidade da gravação.
Monitore ativamente a presença on-line da sua organização. Configure alertas automatizados do Google para o nome da sua empresa e para a sua equipe executiva e examine regularmente a presença on-line da sua empresa, como contas de mídia social e sites de notícias corporativas, para identificar e neutralizar rapidamente qualquer ameaça potencial de deepfake. O ditado que diz que "uma mentira se espalha duas vezes mais rápido que a verdade" é algo que deve ser lembrado na era hiperconectada de hoje. Os atacantes sabem que esse monitoramento pode ser menor nos fins de semana, portanto, é aconselhável implementar um sistema de alerta automatizado para neutralizar isso.
Crie defesas corporativas contra phishing. O phishing é um problema constante, mesmo com treinamento de funcionários, firewalls, antivírus e produtos de detecção e resposta de endpoint (EDR). Considere a possibilidade de participar de consórcios públicos e privados, como a Coalition for Content Provenance and Authenticity e o Project Origin, para criar resiliência contra ameaças de deepfake.
Treine a equipe para entender a natureza e os perigos das falsificações profundas. É hora de atualizar os materiais de integração e treinamento para incluir uma seção sobre deepfakes. Os materiais de treinamento devem incluir uma visão geral que discuta os possíveis usos de deepfakes para causar danos à reputação, visar executivos e convencer os funcionários a revelar credenciais de login ou transferir fundos. Os funcionários devem conhecer os procedimentos da sua empresa para denunciar suspeitas de mídia manipulada.
Os recursos de treinamento para detectar deepfakes já estão disponíveis nas seguintes fontes:
- SANS Institute - "Aprenda uma nova habilidade de sobrevivência: Identificando Deepfakes"
- Laboratório de Mídia do MIT - "Detectar DeepFakes: Como neutralizar informações criadas por IA"
- MIT - "Alfabetização na mídia"
- Microsoft - "Spot the Deepfake" (Descubra o Deepfake)
Os funcionários que trabalham com vendas, finanças e RH devem estar atentos a fraudadores que se fazem passar por clientes para acessar contas confidenciais de clientes e informações financeiras.
Estabeleça procedimentos de verificação. Treine os funcionários para que utilizem um meio secundário de verificar a autenticidade das informações caso recebam alguma solicitação inesperada por e-mail, telefone ou videochamada, principalmente se a solicitação for referente à transferência de fundos ou ao compartilhamento de credenciais corporativas. Os funcionários devem ser ensinados a sempre verificar a identidade do remetente de qualquer solicitação incomum de alto valor por meio de um canal alternativo secundário, como plataformas de mensagens seguras ou até mesmo uma ligação telefônica antiga.
Tenha um plano de resposta a incidentes (IR) em vigor para responder a um ataque de deepfake. Coloque em prática planos de contenção adequados com o centro de operações de segurança (SOC) ou com a equipe de segurança para que eles possam reduzir os danos de um ataque. Analise a probabilidade de cada tipo de ataque. Por exemplo, se você for uma startup com pouca ou nenhuma presença nas mídias sociais, é improvável (embora não impossível) que os invasores consigam encontrar vídeos publicamente disponíveis da sua equipe de liderança. Se você faz parte de uma grande organização que tem conteúdo de mídia na Internet e realiza transações financeiras virtuais, considere-se um alvo preferencial.
Certifique-se de fazer exercícios de mesa com a sua equipe para ajudar a definir o plano e descobrir quaisquer pontos fracos com antecedência. Também pode ser útil examinar seu organograma e fazer uma lista de indivíduos, administradores e executivos que podem ser alvos prováveis.
Denuncie ataques maliciosos de deepfake ao órgão governamental americano apropriado. Isso inclui o Centro de Colaboração em Segurança Cibernética da NSA para o Departamento de Defesa e o FBI (incluindo escritórios locais ou CyWatch@fbi.gov). Recomendações forenses avançadas sobre a detecção de deepfakes podem ser encontradas na recente consultoria conjunta da CISA sobre conscientização e mitigação de deepfake. A função da CISA é reunir e disseminar todas as informações relacionadas à segurança cibernética para as agências governamentais dos EUA. O site do relatório pode ser encontrado em https://www.cisa.gov/report.
Como a BlackBerry pode ajudar
Assim como o uso mal-intencionado da IA é atualmente um problema, a IA também pode ser parte da solução. É importante ressaltar que não existe uma "bala de prata" que forneça 100% de proteção contra todos os deepfakes ou que os bloqueie ativamente. A maioria dos golpes que utilizam deepfakes depende muito da engenharia social, um tipo de manipulação psicológica da qual até mesmo os mais bem-intencionados podem ser vítimas.
No entanto, existem determinadas ferramentas e soluções que podem ajudar a detectar e mitigar ameaças que usam deepfakes como parte de sua cadeia de ataque, para quebrar essa cadeia e proteger o usuário ou a organização contra danos.
Você pode aprimorar a postura de segurança cibernética da sua organização implementando sistemas avançados de detecção de ameaças que usam IA e segurança cibernética preditiva para interromper uma tentativa de ataque, bloqueando-o diretamente no endpoint.
O uso de malware exclusivo está aumentando
Aprender a se proteger é essencial, independentemente do tamanho de sua organização. Na edição de junho de 2024 do Global Threat Intelligence Report trimestral da BlackBerry, analisamos a disseminação de ataques cibernéticos detectados e bloqueados por nossos produtos para descobrir o que os agentes de ameaças buscam quando atacam as organizações. Os pesquisadores da BlackBerry observaram um aumento sem precedentes de 250% em ataques exclusivos de malware por minuto somente no último ano, com uma tendência contínua de aumento que demonstra que os invasores têm um nível particularmente alto de interesse nas organizações visadas por esses tipos de ataques.
Ismael Valenzuela, vice-presidente de pesquisa e inteligência de ameaças da BlackBerry, comenta que,
"Os agentes de ameaças podem ter como alvo funcionários individuais de uma empresa de interesse. Esses agentes mal-intencionados podem até implantar ferramentas e táticas mais exclusivas contra alvos muito específicos e normalmente de alto valor, usando software de IA generativo para criar deepfakes."
O uso de malware exclusivo ou novo está aumentando à medida que os ataques se tornam mais personalizados. Os malfeitores extorquem organizações de todos os tipos e em todos os setores, roubando seus dados confidenciais, que podem ser usados para diversos fins nefastos - para serem vendidos no mercado negro, para promover um ataque de ransomware de "extorsão dupla" (em que os dados do usuário são primeiro roubados e depois criptografados na máquina host) ou até mesmo usados para espionagem.
Os métodos de engenharia social geralmente usam deepfakes para induzir o usuário a uma falsa sensação de segurança. Quando fornecido dessa forma, o malware exclusivo representa um grande problema para as organizações que dependem de produtos antivírus (AV) tradicionais para proteção.
"As defesas tradicionais geralmente se baseiam em assinaturas de vírus estáticas", diz Valenzuela. "Os invasores podem aproveitar scripts de automação simples que criam novas peças de malware (também conhecidas como hashes exclusivos) compilando o mesmo código-fonte com variações mínimas repetidas vezes."
Essas variantes passam facilmente pelos antivírus tradicionais porque, se o antivírus não tiver encontrado esse malware antes, ele não o reconhecerá nem o bloqueará.
À medida que o cenário de ameaças evolui e a IA generativa é adicionada aos conjuntos de ferramentas usados por atacantes e defensores, a avaliação da eficácia relativa de várias ofertas de segurança baseadas em IA se torna cada vez mais importante e difícil.
Apresentando Cylance AI
A melhor defesa contra ataques cibernéticos de agentes mal-intencionados que usam IA generativa é usar a proteção de endpoints com tecnologia de IA e modelos de aprendizado de máquina, como a IA da Cylance®. Como pioneira da IA em segurança cibernética, a IA da BlackBerry Cylance é a IA preditiva mais antiga e continuamente aprimorada do setor no mercado. As equipes de ciência de dados e aprendizado de máquina da BlackBerry melhoram continuamente o desempenho e a eficácia dos modelos de nossas ferramentas de IA preditiva.
Na última década, inovamos, experimentamos e evoluímos continuamente nossa IA para produzir os melhores resultados. Alguns dos principais avanços que fizemos incluem a mudança exclusiva da rotulagem humana supervisionada em nossos primeiros modelos para uma abordagem de treinamento composto, incluindo aprendizado não supervisionado, supervisionado e ativo, tanto na nuvem quanto localmente nos endpoints que protegemos. Também otimizamos os atributos e conjuntos de dados que utilizamos para oferecer os melhores resultados preditivos, depois de examinar volumes de dados extremamente grandes ao longo do tempo.
O resultado dessa evolução contínua foi um modelo de IA que pode prever com precisão e antecipar novas ameaças. Ele aprendeu a identificar malwares comuns e exclusivos com base em seus atributos e a desativá-los, antes da execução, antes que possam causar danos. As soluções de segurança cibernética da BlackBerry® com a tecnologia Cylance AI oferecem proteção automatizada e antecipada contra ataques, além de detectar indicadores de comprometimento (IoCs) e proporcionar uma compreensão contextual mais rápida de alertas e eventos.
Por exemplo, testes recentes realizados por terceiros pelo The Tolly Group - um importante laboratório de testes independente e provedor de serviços de validação de terceiros para o setor de TI - revelam que a solução de proteção de terminais BlackBerry CylanceENDPOINT™ bloqueia 98,5% das ameaças comuns e novas, tanto on-line quanto off-line. Isso ocorre porque ela pode prever ativamente o comportamento do malware, mesmo que seja uma variante nova e exclusiva. Para atingir esse nível de eficácia, é necessário um treinamento preciso do modelo sobre o tipo correto de indicadores. Ao proteger seus endpoints de ataques automatizados e manuais, como os que usam deepfakes como parte da cadeia de ataque, essas soluções baseadas em IA podem ajudar a deter as ameaças cibernéticas antes que elas comecem.
Quando combinado com o Cylance® Assistant, nossa ferramenta de IA generativa, os analistas de SOC podem entender situações complexas com mais rapidez. Cylance O Assistant é alimentado pela IA do Cylance e está baseado na premiada inteligência contra ameaças cibernéticas da BlackBerry. Ele usa princípios de IA responsáveis e com preservação da privacidade para aumentar a privacidade e a precisão e não usa nem compartilha dados de clientes para treinar modelos. Ele prevê suas necessidades e fornece proativamente orientação especializada para ajudá-lo a fazer mais com menos.
Vamos dar uma olhada mais de perto em como a IA do Cylance pode bloquear cada estágio de uma cadeia de ataque que usa deepfakes ou IA generativa para enganar um usuário e permitir que um agente mal-intencionado acesse sua rede.
Bloqueio do acesso inicial
Para interromper um ataque, é necessário impedir que um agente mal-intencionado obtenha acesso aos endpoints corporativos em primeiro lugar. O CylanceEDGE™ da BlackBerry, com a tecnologia Cylance AI, oferece proteções de rede que impedem que os usuários visitem destinos nocivos na Web, frequentemente usados em ataques de dia zero, phishing e campanhas de engenharia social. Um exemplo pode ser um e-mail de phishing direcionado enviado a um funcionário com alto nível de acesso à rede, como um administrador de TI.
Muitas empresas treinam os funcionários para desconsiderar e-mails mal escritos com erros de digitação, mas e se o invasor usar uma ferramenta de IA generativa para criar uma carta de phishing impecável em inglês perfeito? A carta pode alegar falsamente que é do CEO ou de um membro do RH e induzir o funcionário a tomar medidas imediatas, como baixar um anexo malicioso disfarçado de formulário de imposto de renda ou clicar em um link que o envia para um domínio malicioso.
Digamos que um domínio legítimo que sua empresa usa com frequência para a folha de pagamento seja "ACMEPayroll.com". O invasor pode registrar o domínio falso "ACMEPayrollinc.com" e usá-lo para hospedar malware. Essa é uma técnica comumente usada, conhecida como spoofing de domínio. Os agentes de ameaças usam regularmente domínios e destinos maliciosos na transmissão de seus ataques, e sua crescente sofisticação os torna uma ameaça maior do que nunca. Se um funcionário for enganado por um e-mail de phishing e clicar em um link para visitar esse domínio "falso" mal-intencionado, o invasor poderá instalar malware no dispositivo corporativo, roubar as credenciais da folha de pagamento do funcionário, como nome de usuário e login, ou até mesmo implantar ransomware.
As proteções de rede da solução CylanceEDGE incluem uma combinação de listas de reputação de IP e domínio, que são selecionadas pela BlackBerry e incluem feeds comerciais e de código aberto. Se algo não corresponder a esse banco de dados de "reputação", aplicamos nossos modelos de IA/ML, que podem prever com precisão malware e identificar sites de phishing, além de bloquear tentativas de comando e controle (C2) e tunelamento de DNS. Nossos modelos são capazes de prever quando um site é usado para malware e phishing, mesmo quando esse site não está em nenhum dos feeds de outros provedores.
Ao impedir que os usuários visitem esses sites não confiáveis, o CylanceEDGE impede que o ataque seja bem-sucedido. Além disso, o CylanceEDGE protege os endpoints dos funcionários contra vários tipos de kits de ferramentas de infiltração baseados em C2, incluindo simuladores do Cobalt Strike.
Bloqueio do movimento lateral
Digamos que uma tentativa de invasão siga um caminho diferente e um usuário seja enganado por um deepfake convincente criado por IA generativa. Se o funcionário decidir tomar medidas manuais que anulem as medidas de segurança e possam conceder a um invasor acesso à rede da organização, como baixar um anexo mal-intencionado em seu laptop corporativo, o site CylanceEDGE poderá bloquear o movimento lateral do invasor e limitar os danos por meio da segmentação de aplicativos e dos princípios do Zero Trust Network Access (ZTNA).
O movimento lateral é normalmente a segunda etapa realizada após a obtenção do acesso inicial, quando o invasor tenta aprofundar sua posição na organização. Ele pode tentar aumentar os privilégios, realizar reconhecimento, extrair dados confidenciais e instalar spyware ou ransomware.
Como alternativa, se o agente da ameaça conseguir obter acesso à rede usando engenharia social para roubar diretamente as credenciais de um usuário, a arquitetura Zero Trust da solução CylanceEDGE entrará em ação. Nossos controles de acesso baseados em identidade e contexto, juntamente com nossa segmentação de aplicativos (que oculta os aplicativos da descoberta e da visibilidade pública), impedem o movimento lateral de agentes de ameaças e a disseminação de malware. Com isso em vigor, tudo e todos conectados ao seu ambiente devem provar continuamente que são confiáveis, ou o acesso será negado.
Prevenção da exfiltração de dados
CylanceEDGE também oferece detecção de tunelamento de DNS, que é frequentemente usado em tentativas de exfiltração. Aplicamos nosso banco de dados estático e modelos de aprendizado de máquina a todo o tráfego, não apenas ao tráfego destinado a destinos públicos na Internet. Também aplicamos nossos modelos ao tráfego privado nas redes de nossos clientes para procurar sinais de alerta, como o C2 beaconing. Os beacons C2 funcionam estabelecendo uma botnet ou uma infecção por malware ponto a ponto, em que a máquina infectada estabelece comunicação (beaconing) com um servidor C2 para aguardar instalação adicional ou para iniciar a exfiltração de dados da máquina ou da rede local da vítima.
O BlackBerry usa dois modelos diferentes que podem ser aplicados para evitar a exfiltração de dados. Um deles é o modelo C2, que pode detectar tentativas de comunicação C2 e bloqueá-las. Isso é feito com um modelo de aprendizado de máquina C2 que é aplicado sempre que um destino público da Internet não é conhecido, marcando-o como arriscado ou benigno. O outro é o modelo de tunelamento de DNS. Os destinos detectados em tempo de execução por meio do processamento de ML off-line serão marcados com uma nova anomalia chamada Zero-Day Detection.
Bloqueio de chamadas de golpes do Deepvoice
Se um agente de ameaças tentar contornar os controles de endpoint tentando entrar em contato com os funcionários por telefone, por exemplo, fingindo ser um membro da equipe de helpdesk da sua empresa, essas chamadas fraudulentas podem ser atenuadas pelo BlackBerry SecuSUITE®, que fornece voz e mensagens de alta segurança para iOS® e Android™. Com a confiança de governos, líderes mundiais e executivos de negócios em todo o mundo, o SecuSUITE protege contra ameaças a alvos potenciais, desde empresas comerciais até a segurança nacional, permitindo comunicações seguras em dispositivos móveis.
SecuSUITE usa prova criptográfica de identidade para evitar falsificação de identidade, para que você possa ter certeza da identidade do dispositivo com o qual está se comunicando. Isso é combinado com controles de acesso específicos do aplicativo, para garantir que a pessoa correta esteja usando o dispositivo. Ele opera como uma rede fechada em que os usuários são adicionados e excluídos administrativamente, o que significa que não há nenhum processo de inscrição disponível publicamente que possa ser abusado por criminosos cibernéticos.
Por ser um ambiente fechado e validar a identidade de todos os participantes para cada chamada feita ou mensagem enviada, o SecuSUITE elimina o risco de falsificação de identidade e chamadas de spam. Além disso, os metadados de chamadas e mensagens sobre quem está se comunicando com quem são incorporados ao fluxo de criptografia, de modo que terceiros não podem capturar e extrair esses dados para realizar esquemas de ataque social.
O aplicativo SecuSUITE para iOS e dispositivos Android selecionados atende aos mais rigorosos padrões globais de segurança cibernética, com nosso conjunto de criptografia autorizado a proteger as informações até a classificação "top secret". Ele também é credenciado e aprovado para uso restrito da OTAN. Somos certificados pelo Common Criteria e constamos da lista de produtos em conformidade com o NIAP, bem como da lista de componentes do U.S. Commercial Solutions for Classified (CSfC) da NSA.
SecuSUITE fornece criptografia de ponta a ponta e publica uma lista de usuários seguros controlada administrativamente, vinculada a números de telefone seguros, para que você não precise compartilhar o número de telefone do seu cartão SIM.
Nosso compromisso com o desenvolvimento ético de IA
Novos produtos, como o ChatGPT e outros que estão inundando o mercado atual, abriram inúmeros novos caminhos para a IA generativa, levando a um ciclo inicial de entusiasmo no qual muitas empresas de segurança cibernética estabelecidas e startups procuraram participar. No entanto, a BlackBerry adotou uma abordagem mais sustentável e de longo prazo, desenvolvendo novos recursos com base em modelos de IA generativa de nível empresarial, em vez de modelos de nível de consumidor que são propensos a vazamento de dados e violações de privacidade.
A BlackBerry, que detém inúmeras patentes relacionadas a várias formas e usos de IA - incluindo IA generativa - tem um compromisso firme com o desenvolvimento ético de IA, conforme demonstrado por nossa adoção antecipada do Código de Conduta voluntário do Canadá sobre o gerenciamento responsável de sistemas avançados de IA generativa. Não usamos nem compartilhamos dados de clientes para treinar nossos modelos.
Ao proteger sua organização com soluções baseadas em IA, como as fornecidas pela BlackBerry, você ajuda a manter seus usuários seguros, quebrando a cadeia de ataque que aproveita campanhas maliciosas de engenharia social, mesmo que deepfakes sejam usados no engano.
Considerações finais
À medida que a IA progride e confunde a linha entre o real e o artificial, não podemos deixar de pensar em contos de advertência, como a antologia "I, Robot", de Isaac Asimov, de histórias sobre robôs inteligentes com "cérebros positrônicos". As histórias, escritas na década de 1950, são igualmente relevantes hoje. Asimov previu a necessidade de regras rigorosas para governar a IA, encapsuladas de forma mais famosa em suas Três Leis da Robótica, que têm sido consideradas por muitos como uma base prática para a tomada de decisões éticas baseadas em IA em automóveis autônomos, passando silenciosamente da ficção científica para o fato científico.
Um deepfake não é um código mal-intencionado ou uma vulnerabilidade de computador, mas algo que espalha os tentáculos digitais muito além das regras de firewall e do software antivírus, para atingir os usuários finais que inadvertidamente consomem ou compartilham esse conteúdo manipulado ilicitamente. O poder da mídia social para disseminar a desinformação significa que é mais importante do que nunca ter cuidado ao ler e compartilhar informações on-line.
Embora existam ramificações legais, as ações judiciais e as contramedidas estão muito atrasadas e, atualmente, estão lutando para atenuar o impacto dessa nova tecnologia. Em última análise, estamos no início de outra era de IA e, com essa tecnologia, é fundamental permanecermos vigilantes e críticos em relação ao conteúdo que consumimos nessa esfera de influência digital, pois as linhas continuam a se tornar artificialmente opacas.