Pesquisadores desenvolveram Malware furtivo com Inteligência Artificial
A Inteligência Artificial (AI) tem sido vista como uma possível solução para detectar e combater malware automaticamente, e parar ataques cibernéticos antes que eles afetem qualquer organização.
No entanto, a mesma tecnologia também pode ser armada por agentes de ameaças para alimentar uma nova geração de malware que pode escapar das melhores defesas de segurança cibernética e infectar uma rede de computadores ou iniciar um ataque apenas quando o rosto do alvo for detectado pela câmera.
Para demonstrar este cenário, pesquisadores de segurança da IBM Research criaram o DeepLocker – uma nova geração de “ataque altamente alvejado e evasivo”, que esconde sua intenção maliciosa até atingir uma vítima específica.
Segundo o pesquisador da IBM, DeepLockervoa sem ser detectado e “desencadeia sua ação mal-intencionada assim que o modelo AI identifica o alvo por meio de indicadores como reconhecimento facial, geolocalização e reconhecimento de voz”.
Descrevendo-a como a abordagem “spray and pray” do malware tradicional, os pesquisadores acreditam que esse tipo de malware furtivo baseado em inteligência artificial é particularmente perigoso porque, como o malware de estado-nação, poderia infectar milhões de sistemas sem ser detectado.
O malware pode ocultar sua carga maliciosa em aplicativos benignos de operadoras, como software de videoconferência, para evitar a detecção pela maioria dos antivírus e scanners de malware até que ele atinja vítimas específicas identificadas por indicadores como reconhecimento de voz, reconhecimento facial, geolocalização e outros sistemas.
“O que é único no DeepLocker é que o uso de AI faz com que as” condições de disparo “para desbloquear o ataque sejam quase impossíveis de fazer engenharia reversa”, explicam os pesquisadores. “A carga maliciosa só será desbloqueada se o alvo pretendido for atingido.”
Para demonstrar as capacidades do DeepLocker, os pesquisadores projetaram uma prova de conceito, camuflando o conhecido WannaCry Ransomware em um aplicativo de videoconferência, para que ele permaneça não detectado por ferramentas de segurança, incluindo mecanismos antivírus e caixas de proteção de malware.
Com a condição de disparo integrada, o DeepLocker não desbloqueou e executou o ransomware no sistema até reconhecer a face do alvo, que pode ser correspondida usando fotos publicamente disponíveis do destino.
“Imagine que esse aplicativo de videoconferência seja distribuído e baixado por milhões de pessoas, o que é um cenário plausível atualmente em muitas plataformas públicas. Quando lançado, o aplicativo alimentava sorrateiramente os instantâneos da câmera no modelo AI incorporado, mas se comportava normalmente para todos os usuários exceto o alvo pretendido“, acrescentaram os pesquisadores.
“Quando a vítima se senta na frente do computador e usa o aplicativo, a câmera alimenta seu rosto com o aplicativo, e a carga maliciosa será executada secretamente, graças ao rosto da vítima, que era a chave pré-programada para desbloqueá-lo.”
Assim, tudo o que o DeepLocker exige é a sua foto, que pode ser facilmente encontrada em qualquer um dos seus perfis de mídia social no LinkedIn, Facebook, Twitter, Google+ ou Instagram, para segmentá-lo.
Recentemente, a Trustwave abriu uma ferramenta de reconhecimento facial chamada Social Mappe, que pode ser usada para procurar alvos em várias redes sociais de uma só vez.
O grupo IBM Research revelará mais detalhes e uma demonstração ao vivo de sua implementação de prova de conceito do DeepLocker na conferência de segurança Black Hat USA, em Las Vegas, no último dia 8 de Agosto de 2018.
Veja também:
- Microsoft lança PowerShell para Linux como um pacote instantâneo.
- Apache Tomcat corrige importantes vulnerabilidades de segurança.
- Conheça a melhor e mais premiada anti-ransonware segundo a Gartner.
Participe neste post! Comente abaixo ou compartilhe conosco no Facebook, Twitter ou Linkedin.