Uma investigação destacou que o sistema tem potencial para ajudar os cibercriminosos com ataques como o controle remoto dos dispositivos das vítimas.
O ChatGPT é uma das inteligências artificiais que mais se destacam no momento, pela facilidade que tem em criar textos com indicações básicas. Algo que chamou a atenção de especialistas em segurança cibernética, que apontam que o programa pode facilmente produzir códigos maliciosos.
A Check Point Research conduziu a investigação e usou as ferramentas OpenAI ChatGPT e Codex para criar e-mails maliciosos, scripts e uma cadeia de infecção completa.
Eles fizeram isso com referência ao fato de que códigos de ataque, que foram criados por meio de inteligência artificial, estão sendo divulgados em fóruns na Dark Web .
“O ChatGPT tem o potencial de alterar significativamente o cenário de ameaças cibernéticas. Agora qualquer pessoa com recursos mínimos e conhecimento de código zero pode explorá-lo facilmente”, disse Manuel Rodríguez , gerente de engenharia de segurança da empresa para a América Latina .
IA para criar ataques cibernéticos
Para a investigação, os responsáveis tinham como objetivo desenhar um código que lhes permitisse ter acesso remoto a outros computadores. Algo que eles conseguiram.
Usando as duas plataformas de inteligência artificial , eles criaram um e-mail de phishing, com um documento do Excel contendo um código malicioso capaz de baixar shells reversos, que é o método de conexão remota para o ataque.
Com o código, ele conseguiu se passar por uma empresa de hospedagem e produzir um VBA malicioso em um documento do Excel, que é a linguagem de programação da própria Microsoft para esse aplicativo de cálculo.
Por outro lado, graças ao conteúdo gerado com o IA Codex , eles conseguiram executar um shell reverso em uma máquina Windows para se conectar a um endereço IP específico e executar uma varredura completa de um computador externo remotamente.
Isso consolida um pacote de ataque completo para um cibercriminoso, que está à mão em uma ferramenta gratuita e em um processo que precisa apenas das indicações adequadas para obter um resultado que pode ajudar a disseminar ataques de computador, que em 2022 aumentaram 28%.
Uma situação que coloca em alerta o potencial da inteligência artificial, em ferramentas como ChatGPT e Codex, que também já foram utilizadas para ideias positivas, mas em mãos erradas podem causar muitos estragos.
“É fácil gerar e-mails e códigos maliciosos. Acredito que essas tecnologias de IA representam mais um passo na perigosa evolução de capacidades cibernéticas cada vez mais sofisticadas e eficazes”, alerta Rodríguez.
Os dados do ChatGPT podem ser encerrados
Uma investigação da Epoch AI , organização que estuda o desenvolvimento da inteligência artificial, garante que 2026 é o ano máximo para o qual são projetados os atuais data centers de alta qualidade, que coletam dados para a criação de conteúdo a partir dessas tecnologias. .
Isso gera um alerta em plataformas como ChatGPT, DALL·E 2 e Midjourney , que usam esse conjunto de informações para gerar seu conteúdo por meio de texto e aprendizado de máquina.
A coleta de informações para esses conjuntos de dados é feita publicamente e em larga escala para que a plataforma possa aprender corretamente. Além disso, há pessoas envolvidas no processo porque existe um filtro importante para ‘limpar’ os dados manualmente e responder adequadamente às solicitações do usuário.
Os responsáveis pelo estudo garantem que se trata de um processo lento e caro e, embora existam ferramentas, como a própria inteligência artificial , usá-las para revisar os modelos traz um alto índice de riscos que podem complicar ainda mais o processo.