Vídeo de brasileiro arrependido de combater na Ucrânia era gerado por IA. Saiba como estes deepfakes funcionam, porque são perigosos e como as empresas se podem proteger.

Vídeo de soldado arrependido: como a IA engana em tempo de guerra
Em plena guerra na Ucrânia, começou a circular nas redes um suposto vídeo de um brasileiro, fardado, a dizer à mãe que está arrependido de se ter alistado para combater. A imagem é emotiva, a voz é convincente e a história parece verosímil. Só há um problema: o vídeo foi gerado por Inteligência Artificial.
Este caso não é isolado. Em 2024 e 2025, temos assistido a uma explosão de conteúdos falsos criados com IA – imagens, áudios e vídeos – usados para manipular emoções, influenciar opinião pública e até condicionar decisões políticas. Em contexto de guerra, como na Ucrânia, estes conteúdos tornam-se armas de desinformação.
Neste artigo vamos analisar o que está em causa neste vídeo do "brasileiro arrependido", explicar como são feitos estes conteúdos, por que são tão perigosos e, sobretudo, que lições retiram empresas portuguesas deste caso para se protegerem e utilizarem a IA de forma responsável.
1. O caso do brasileiro na Ucrânia: o que realmente aconteceu?
Segundo as publicações virais, o vídeo mostraria um jovem brasileiro, alegadamente combatente na Ucrânia, a dirigir-se à mãe em tom emocionado, a dizer que se arrepende de ter ido para a guerra. O objetivo aparente seria mostrar o "lado oculto" do conflito e desencorajar novos voluntários.
Mas uma análise mais cuidada revelou:
- O rosto apresentava microexpressões pouco naturais;
- A sincronização entre lábios e voz não era perfeita;
- O fundo do vídeo era genérico, sem detalhes verificáveis;
- Não existiam registos independentes que confirmassem a identidade do suposto soldado.
Investigadores e especialistas em verificação digital concluíram que se tratava de um vídeo sintetizado por IA, o que hoje pode ser feito com ferramentas amplamente disponíveis ao público.
Em resumo: não há qualquer prova de que aquele soldado exista. O vídeo é um produto de engenharia digital, não de realidade.
Este caso é um exemplo concreto de como a guerra de narrativas em torno da Ucrânia se trava cada vez mais no espaço digital, com IA a gerar conteúdos que parecem autênticos mas não o são.
2. Como a Inteligência Artificial cria vídeos tão realistas?
Os chamados deepfakes ou vídeos sintéticos utilizam modelos de IA treinados com milhares (ou milhões) de imagens e registos de voz para imitar rostos, expressões e formas de falar.
2.1. As três camadas principais de um vídeo falso
De forma simplificada, um vídeo como o do "soldado brasileiro arrependido" pode envolver:
-
Geração de rosto
- Criação de um rosto totalmente novo ou mistura de rostos reais;
- Aplicação de expressões faciais coerentes com o texto (tristeza, arrependimento, medo).
-
Síntese de voz
- Uso de modelos de text-to-speech avançados, muitas vezes com sotaque específico (no caso, português do Brasil);
- Ajuste de entoação emotiva para reforçar a credibilidade.
-
Composição do cenário e edição
- Fundo genérico (quarto simples, corredor, viatura militar) para não levantar questões de contexto;
- Efeitos de compressão de vídeo e pequena perda de qualidade, simulando uma gravação improvisada de telemóvel.
O resultado é um vídeo que, visto rapidamente no telemóvel, parece perfeitamente plausível.
2.2. Porque é que estes conteúdos funcionam tão bem?
Eles exploram três fragilidades humanas:
- Emoção: uma mensagem de um filho para a mãe é um gatilho emocional fortíssimo;
- Urgência: a ideia de "mensagem de última hora" reduz o espírito crítico;
- Confirmação: tende a ser mais acreditado por quem já tem uma opinião formada sobre o conflito.
É esta combinação de tecnologia sofisticada com gatilhos psicológicos que torna os deepfakes tão eficazes – e tão perigosos.
3. Desinformação em guerra: o papel da IA na propaganda
A guerra na Ucrânia não se faz apenas com tanques e drones. Faz-se também com narrativas: quem está a ganhar, quem é a vítima, quem é o agressor, quem merece apoio internacional.
3.1. IA como arma de propaganda
A Inteligência Artificial é particularmente útil para campanhas de desinformação porque permite:
- Produzir conteúdos em massa, em várias línguas, com custos muito baixos;
- Adaptar mensagens a públicos específicos (por exemplo, brasileiros, portugueses, europeus em geral);
- Criar testemunhos falsos (como o "soldado arrependido") que parecem mais credíveis do que comunicados oficiais.
Num cenário de guerra, vídeos emocionais que exploram o sofrimento humano podem:
- Desmotivar voluntários estrangeiros;
- Enfraquecer o apoio da opinião pública internacional a um dos lados;
- Gerar confusão e dúvida sobre o que é verdadeiro.
3.2. A dimensão brasileira e portuguesa
O uso de um suposto brasileiro não é inocente. O Brasil é um país lusófono e tem uma diáspora significativa em Portugal. Um vídeo em português do Brasil pode:
- Circular com facilidade em grupos de WhatsApp usados por brasileiros e portugueses;
- Influenciar percepções sobre a guerra em comunidades de língua portuguesa;
- Gerar divisões políticas em países distantes do conflito mas relevantes em termos diplomáticos e económicos.
Para Portugal, que acompanha de perto a situação na Ucrânia e é membro da UE e da NATO, este tipo de conteúdo é particularmente sensível.
4. O que as empresas portuguesas podem aprender com este caso
Embora o exemplo seja militar e geopolítico, as mesmas técnicas de IA podem ser usadas contra empresas: para atacar reputações, manipular mercados ou enganar clientes.
4.1. Riscos concretos para organizações
Alguns cenários realistas:
- Falso vídeo de um CEO a anunciar falência ou resultados negativos, gerando pânico em colaboradores e investidores;
- Áudio sintético que imita a voz de um diretor financeiro a ordenar uma transferência urgente;
- Testemunhos falsos de clientes alegando más práticas de uma marca, com voz e rosto plausíveis;
- Falsos "pedidos de ajuda" de colaboradores em contexto de crise, lançados para manchar a imagem pública.
Se um simples vídeo de um soldado inventado consegue comover milhares de pessoas, imagine o impacto de um vídeo convincente com alguém que a sua equipa julga conhecer.
4.2. Três pilares de proteção para empresas
As organizações em Portugal podem (e devem) estruturar a sua resposta em três eixos:
-
Governança e políticas internas de IA
- Definir regras claras sobre uso de IA generativa;
- Criar linhas vermelhas: o que a empresa nunca fará com IA (por exemplo, conteúdos enganosos).
-
Capacitação das equipas
- Formar colaboradores para reconhecer sinais de manipulação digital;
- Simular cenários de ataque de desinformação (exercícios tipo fire drill digital);
- Incluir literacia digital em programas de onboarding.
-
Planos de resposta a incidentes de reputação
- Ter um protocolo pronto para reagir se surgir um vídeo falso com alguém da empresa;
- Definir responsáveis, mensagens-chave e canais prioritários (intranet, email massivo, conferência de imprensa, etc.);
- Monitorizar redes sociais e mensageiros para detetar conteúdos virais cedo.
Estas medidas não eliminam o risco, mas reduzem drasticamente o potencial de dano.
5. Como qualquer pessoa pode identificar um vídeo gerado por IA
Voltando ao nosso ponto de partida – o suposto brasileiro na Ucrânia – é importante que qualquer cidadão, não apenas especialistas, saiba aplicar um mínimo de verificação crítica.
5.1. Lista rápida de verificação
Ao ver um vídeo emocional, especialmente sobre guerra ou política, faça estas perguntas:
-
Quem publicou primeiro?
Vem de um meio de comunicação conhecido ou de uma conta anónima? -
Há outras fontes a confirmar?
Mais alguém independente relata o mesmo facto? -
O rosto e a voz parecem naturais?
Observe bem: há movimentos estranhos na boca, olhos pouco expressivos, piscadelas demasiado raras? -
O contexto é claro?
Vê-se o ambiente em redor? Há detalhes verificáveis (placas, uniformes, sotaques de fundo)? -
Desperta emoção forte imediata?
Se o objetivo parece ser chocar, assustar ou comover, redobre a cautela.
5.2. Pequenos hábitos digitais que fazem a diferença
Algumas práticas simples ajudam a reduzir a probabilidade de partilhar desinformação:
- Esperar alguns minutos antes de reenviar algo muito chocante;
- Pesquisar rapidamente o tema para ver se há fact-checks recentes;
- Desconfiar de conteúdos que pedem para "partilhar antes que apaguem".
No caso do vídeo do "brasileiro arrependido", quem seguiu estes passos teve mais hipóteses de perceber cedo que algo não batia certo.
6. IA responsável: transformar um risco numa oportunidade
A mesma tecnologia que cria vídeos falsos pode ser usada para proteger pessoas, empresas e instituições – e para gerar valor real.
6.1. Boas práticas para empresas portuguesas que querem usar IA
Para aproveitar os benefícios da Inteligência Artificial sem cair em armadilhas reputacionais, as organizações devem:
- Ser transparentes quando usam IA para gerar conteúdos (por exemplo, campanhas de marketing, chatbots, tutoriais em vídeo);
- Validar dados de treino para evitar enviesamentos ou incorreções factuais graves;
- Implementar revisões humanas em conteúdos sensíveis (saúde, finanças, política, segurança);
- Adotar ferramentas de deteção de deepfakes em áreas críticas (comunicação institucional, finanças, RH).
6.2. De "ameaça" a vantagem competitiva
Empresas que dominam o uso responsável da IA conseguem:
- Responder mais rápido a crises de desinformação;
- Ganhar confiança de clientes e parceiros, mostrando critérios éticos claros;
- Otimizar processos internos (atendimento, análise de dados, apoio à decisão) sem perder o controlo humano.
Ao contrário do soldado fictício do vídeo, que é apenas um avatar criado para manipular emoções, as organizações reais precisam de credibilidade sustentável. E isso conquista-se com transparência, preparação e investimento em literacia digital.
Conclusão: não acredite em tudo o que a IA lhe mostra
O caso do alegado brasileiro arrependido de combater na Ucrânia demonstra como um vídeo gerado por Inteligência Artificial pode parecer real o suficiente para enganar milhares de pessoas. Em contexto de guerra, estes conteúdos servem objetivos de propaganda e desinformação; no mundo empresarial, podem ser usados para fraudes e ataques à reputação.
Para cidadãos e empresas portuguesas, o caminho passa por três eixos:
- fortalecer o espírito crítico;
- criar mecanismos internos de proteção e resposta;
- usar a IA de forma responsável, com regras claras e supervisão humana.
A Inteligência Artificial vai estar cada vez mais presente na nossa vida – nas notícias, no trabalho, nas redes sociais. A questão não é se confiamos na IA, mas como nos preparamos para distinguir o real do artificial. A sua organização está pronta para o próximo "vídeo viral" que pode pôr em causa a sua reputação?