GOVERNO FEDERALspot_imgspot_img
30.3 C
Manaus
quinta-feira, novembro 14, 2024
GOVERNO FEDERALspot_imgspot_img

China e Irã ultrapassam limite e usam ChatGPT para criar malware e ataques de phishing; confirma OpenAI

A OpenAI confirmou que seus engenheiros identificaram mais de 20 ataques cibernéticos orquestrados com ChatGPT e outras ferramentas de modelo de linguagem estendida (LLM). Os autores, segundo técnicos da OpenAI, são hackers chineses e iranianos que encontraram uma maneira de usar essas ferramentas de inteligência artificial (IA) para desenvolver malware, depurá-lo e realizar outras atividades maliciosas.

O outro lado da inteligência artificial

O primeiro ataque realizado com ChatGPT foi planejado por ativistas chineses e teve como alvo vários governos de países asiáticos. Este ataque empregou uma estratégia de spear-phishing conhecida como ‘SweetSpecter’. O método usa um arquivo ZIP que inclui um arquivo malicioso, de modo que, se for baixado e aberto, poderá infectar o sistema do usuário. Os engenheiros da OpenAI descobriram que o ‘SweetSpecter’ foi criado usando várias contas que usavam ChatGPT para escrever o código e descobrir vulnerabilidades.

(Imagem: Tima Miroshnichenko/Pexels)

O segundo ataque otimizado para IA foi realizado por um grupo baseado no Irã conhecido como ‘CyberAv3ngers’. Nesta ocasião, esta organização utilizou o ChatGPT para explorar vulnerabilidades e roubar senhas de usuários de computadores com macOS. E o terceiro foi planejado por um grupo conhecido como ‘Storm-0817’, também baseado no Irã. Desta vez eles usaram o ChatGPT para desenvolver software malicioso para Android capaz de roubar listas de contatos, acessar registros de chamadas e histórico do navegador.

Segundo a OpenAI, todos os ataques em que o ChatGPT participou foram realizados utilizando métodos perfeitamente conhecidos, ou seja, os hackers não parecem ter desenvolvido quaisquer métodos originais. A consequência mais óbvia destas práticas é que não desenvolveram quaisquer variantes de malware substancialmente novas. No entanto, o problema é que estes ataques cibernéticos lembram-nos como é fácil para hackers com conhecimentos mínimos utilizar a IA para desenvolver software malicioso com capacidades prejudiciais muito importantes.

A OpenAI confirmou que continuará a melhorar a sua tecnologia para evitar que seja utilizada para fins maliciosos. Segundo o Xataka, foram criadas várias equipes de trabalho especializadas em segurança e proteção que irão partilhar as suas descobertas com outras empresas e a comunidade para tentar evitar que mais ataques cibernéticos como estes se repitam. Em qualquer caso, é evidente que não só a OpenAI deve tomar estas medidas. Outras empresas que possuem modelos generativos de IA deveriam se empenhar para melhorar a segurança na área.

GOVERNO FEDERALspot_imgspot_img

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Amazonas Repórter

Tudo
spot_imgspot_img

TCE-AM apresenta no Chile primeiros resultados de auditoria sobre as medidas de combate a violência contra a mulher no Estado

O Tribunal de Contas do Estado do Amazonas (TCE-AM) está apresentando em Santiago, no Chile, os primeiros resultados da auditoria realizada em diversos países...

Amazonas Shopping e Sejusc oferecem serviços gratuitos aos idosos, nesta quarta-feira (21)

O Amazonas Shopping, em parceria com a Secretaria de Estado de Justiça, Direitos Humanos e Cidadania (Sejusc), oferece nesta quarta-feira (21) uma série de...

Sicredi dobra liberação de recursos para Economia Verde

Associados e cooperativas se unem na busca por negócios mais sustentáveis; iniciativas incluem o apoio financeiro às atividades, construção de agências sustentáveis e até...
spot_imgspot_img