Quer criar uma imagem, saber mais sobre um tema interessante, escrever um artigo ou um texto para as redes sociais? Para estes exemplos, uma ferramenta de IA como o ChatGPT pode ajudá-lo em tudo. Mas os cibercriminosos têm à sua disposição ferramentas inteligentes semelhantes. Estas ferramentas de IA utilizadas para o crime podem criar ataques ainda mais eficazes e analisar mais facilmente as informações roubadas. Os piratas informáticos podem utilizar várias tecnologias de IA para criar e aperfeiçoar ameaças e táticas de ataque. Ferramentas como FraudGPT, XXXGPT ou WolfGPT são exemplos de como a IA pode ser explorada para fins maliciosos.
"Estas ferramentas mostram que os cibercriminosos podem adaptar a IA para tornar os ataques mais eficazes, facilitando o roubo de dados das vítimas. Por isso, é necessário repensar as estratégias de cibersegurança existentes e também analisar o enquadramento ético que rege o desenvolvimento e a utilização da IA", alerta Oded Vanunu, Head of Vulnerability Research da Check Point Software Technologies.
FraudGPT
O FraudGPT representa um marco na utilização maliciosa da tecnologia de IA, uma vez que é uma plataforma que pode ser subscrita, como qualquer outro serviço, e permite a criação de identidades falsas, e-mails de phishing eficazes, malware ou a utilização de engenharia social para enganar os utilizadores. Tudo isto pode ser feito a um nível muito elevado, de modo que mesmo pessoas com competências técnicas mínimas possam efetuar ataques complexos.
XXXGPT
A ferramenta XXXGPT é popularmente utilizada por criminosos para gerar códigos RAT que lhes permitem assumir remotamente o controlo do dispositivo da vítima e roubar dados sensíveis sem serem detetados ou alterá-los ou corrompê-los silenciosamente. Também pode gerar spyware, ransomware, keyloggers e códigos especiais para ataques direcionados. Esta ferramenta polivalente também pode criar e distribuir todo o tipo de desinformação ou material comprometedor concebido para chantagear e assediar as vítimas.
WolfGPT
O WolfGPT é conhecido pela sua complexidade e arquitetura, baseada na linguagem de programação Python. Pode criar malware encriptado e campanhas de phishing convincentes. Além disso, permite a criação de um vasto arsenal de armas cibernéticas, incluindo botnets, trojans de acesso remoto, keyloggers ou ferramentas para roubar dados e criptomoedas. É também utilizada pelos cibercriminosos para criar códigos maliciosos dirigidos a POS e para ataques direcionados a ATMs, ou para branqueamento de capitais e identificação de fragilidades em redes empresariais.
Cibersegurança e Implicações Éticas
O surgimento de modelos avançados de IA, como o FraudGPT, o XXXGPT e o WolfGPT, exige uma nova abordagem à segurança, uma vez que as defesas convencionais são insuficientes contra estas ameaças complexas e adaptáveis. Ao mesmo tempo, devem ser abordadas questões éticas relativas à responsabilidade dos criadores de IA e à forma de evitar a utilização indevida da IA em geral. Estamos a entrar numa era de IA em que a dupla utilização destas tecnologias é cada vez mais evidente. Alguns domínios que devem ser considerados:
- Regulamentação e legislação: Introduzir leis e regulamentos sólidos destinados a controlar e supervisionar o desenvolvimento e a utilização das tecnologias de IA.
- Educação: Aumentar a sensibilização do público para os riscos associados à IA e fornecer ferramentas e informações para proteção contra fraudes e abusos.
- Tecnologia: Desenvolver sistemas e algoritmos de segurança avançados que possam detetar e paralisar serviços de IA perigosos.
- Cooperação Internacional: Colaboração entre governos, organizações internacionais e empresas de tecnologia para criar normas e protocolos globais para o desenvolvimento de uma IA segura.
"A utilização indevida dos serviços de IA é uma ameaça séria que não pode ser ignorada. É essencial que governos, reguladores e empresas tecnológicas trabalhem em conjunto para desenvolver e implementar medidas para travar a utilização indevida das tecnologias de IA", conclui Oded Vanunu.