Hackers usam IA para fraudar reconhecimento facial
Tudo sobre Inteligência Artificial
Uma nova e sofisticada ferramenta de deepfake está circulando na dark web, permitindo que criminosos criem identidades falsas capazes de enganar até mesmo os mais avançados sistemas de reconhecimento facial. A descoberta, feita por pesquisadores do Cato Threat Research Labs e reportada em primeira mão pela Forbes, é um alerta para instituições financeiras e empresas que dependem de verificação biométrica.
O mecanismo, comercializado na deepweb representa uma evolução preocupante nas técnicas de fraude digital. Diferentemente das falsificações tradicionais de documentos, que são relativamente fáceis de detectar, esta nova tecnologia utiliza inteligência artificial para criar personas sintéticas completas, incluindo fotos e vídeos convincentes.
Leia mais:
“A fraude de novas contas está custando bilhões de dólares por ano às empresas”, explica o relatório dos pesquisadores. Os criminosos utilizam estas identidades falsas para diversos fins ilícitos, desde a obtenção de empréstimos que nunca serão pagos até operações de lavagem de dinheiro e acesso fraudulento a benefícios governamentais.
O processo de criação dessas identidades falsas é surpreendentemente simples: primeiro, os fraudadores geram uma foto falsa usando sites de IA generativa. Em seguida, inserem esta imagem em documentos oficiais forjados, como passaportes, prestando atenção até mesmo a detalhes como carimbos oficiais. O golpe se completa com a criação de um vídeo deepfake da pessoa fictícia, programado especificamente para passar nos testes de reconhecimento facial.
Para as organizações, o desafio de detectar estas fraudes é delicado. Controles muito rígidos podem gerar alertas falsos em excesso, enquanto medidas muito simples abrem espaço para golppes. É necessário ter atenção especial a movimentos irregulares nos vídeos, linhas suspeitas ao redor de olhos e lábios, e qualidade de imagem extraordinariamente alta – possíveis indicadores de material forjado digitalmente.
“À medida que os sistemas de IA se tornam mais sofisticados, é provável que os deepfakes se tornem ainda mais convincentes”, alertam os pesquisadores. A única saída, segundo eles, é que as organizações adaptem suas defesas, inclusive adotando suas próprias aplicações de IA para proteção contra estas ameaças em evolução.