segunda-feira, fevereiro 23

Hackers com Inteligência Artificial: como se proteger na nova guerra invisível da internet

Atualmente, presenciamos uma mudança de paradigma: a transição de ataques cibernéticos humanizados para AI-powered cyber attacks (ataques movidos a Inteligência Artificial). As ameaças amparadas por IA já não são mais uma notícia nova. Mas muito melhor do que seres humanos que atualizam golpes,  IA não só atualiza melhor os golpes como faz em uma velocidade exponencial, tornando cada vez mais difícil a detecção e prevenção, que a cada novo ciclo, aparecem mais sofisticados.

Alguns golpes, já são conhecidos de equipes de segurança cibernéticas e infelizmente, são práticas reconhecidas até pelo público geral, de tão comuns que se tornaram. Dentre esses ataques, podemos citar: golpes de Phishing, Impersonação e Fazendas ou Fábricas de Conteúdos Falsos (as famosas fakenews). Embora os termos técnicos pareçam distantes, a realidade do conceito é de fácil compreensão assim explicada. Ataques de Phishing podem ser descritos de forma bem simples “O e-mail tinha o tom de urgência correto, o logotipo da empresa estava perfeito e, para surpresa de muitos, não havia um único erro de português. Mas o remetente não era humano.” A impersonação é a clonagem de voz ou de vídeo, por exemplo. 

Para tornar a ação dessas IAs menos eficazes e gerar mais confiança em ações tomadas por meio de tecnologias, métodos simples e por vezes vistos como “bobos’’, podem ser soluções funcionais. Antes de pensarmos em qual solução é mais eficiente, é importante lembrar que pedidos de dinheiro repentinos precisam ser analisados com precaução em qualquer situação.

Os golpes de phishing podem ser traduzidos quase que literalmente por “pesca de dados pessoais”. O hacker invade sistemas e usa malwares pra fisgar senhas ou qualquer dado relevante. Para evitar essas ações o mais indicado é checar os endereços de email, é comum que haja alteração de uma letra ou acréscimo de um símbolo nos endereços, enquanto o corpo dos emails é praticamente idêntico aos originais, manter os sistemas atualizados também torna o sistema menos vulnerável.

Em ações de deepfake de vozes e vídeos que visam extorsão e pedidos de dinheiro, uma sugestão simples é estabelecer palavras de segurança com pessoas conhecidas, confirmação por outro canal de comunicação ou até mesmo pedir um movimento anormal e inesperado, como levantar braços ou piscar um olho de cada vez. Além de analisar detalhadamente a entonação e ritmo da fala, é provável que, por alguns segundos, seja possível reconhecer que se trata de uma ação robótica e não humana.

Para se certificar que uma notícia não é fake, verificar com atenção a gramática, observar as fontes e conferir a autoria, são os passos mais óbvios e indicados para evitar cair em desinformação. Mas atualmente, já existem ferramentas automatizadas que são capazes de checar a veracidade dos fatos, como o Google Fact Check Explorer, que consegue apurar se alguma informação já foi desmentida. 

Em suma, a fronteira entre o real e o artificial se torna cada vez mais difícil de se detectar a olhos humanos. Adotar estratégias para neutralizar as ações desses agentes de IAs mal intencionados pode ser possível com hábitos simples e não apenas com complexos softwares. Em suma, concluímos que por mais sofisticado que seja um ataque cibernético, a prevenção pode estar onde menos esperamos: o discernimento humano. 

 

Amanda Carramaschi
61999936688
[email protected]