GOVERNO FEDERALspot_imgspot_img
27.3 C
Manaus
quinta-feira, novembro 21, 2024
GOVERNO FEDERALspot_imgspot_img

China e Irã ultrapassam limite e usam ChatGPT para criar malware e ataques de phishing; confirma OpenAI

A OpenAI confirmou que seus engenheiros identificaram mais de 20 ataques cibernéticos orquestrados com ChatGPT e outras ferramentas de modelo de linguagem estendida (LLM). Os autores, segundo técnicos da OpenAI, são hackers chineses e iranianos que encontraram uma maneira de usar essas ferramentas de inteligência artificial (IA) para desenvolver malware, depurá-lo e realizar outras atividades maliciosas.

O outro lado da inteligência artificial

O primeiro ataque realizado com ChatGPT foi planejado por ativistas chineses e teve como alvo vários governos de países asiáticos. Este ataque empregou uma estratégia de spear-phishing conhecida como ‘SweetSpecter’. O método usa um arquivo ZIP que inclui um arquivo malicioso, de modo que, se for baixado e aberto, poderá infectar o sistema do usuário. Os engenheiros da OpenAI descobriram que o ‘SweetSpecter’ foi criado usando várias contas que usavam ChatGPT para escrever o código e descobrir vulnerabilidades.

(Imagem: Tima Miroshnichenko/Pexels)

O segundo ataque otimizado para IA foi realizado por um grupo baseado no Irã conhecido como ‘CyberAv3ngers’. Nesta ocasião, esta organização utilizou o ChatGPT para explorar vulnerabilidades e roubar senhas de usuários de computadores com macOS. E o terceiro foi planejado por um grupo conhecido como ‘Storm-0817’, também baseado no Irã. Desta vez eles usaram o ChatGPT para desenvolver software malicioso para Android capaz de roubar listas de contatos, acessar registros de chamadas e histórico do navegador.

Segundo a OpenAI, todos os ataques em que o ChatGPT participou foram realizados utilizando métodos perfeitamente conhecidos, ou seja, os hackers não parecem ter desenvolvido quaisquer métodos originais. A consequência mais óbvia destas práticas é que não desenvolveram quaisquer variantes de malware substancialmente novas. No entanto, o problema é que estes ataques cibernéticos lembram-nos como é fácil para hackers com conhecimentos mínimos utilizar a IA para desenvolver software malicioso com capacidades prejudiciais muito importantes.

A OpenAI confirmou que continuará a melhorar a sua tecnologia para evitar que seja utilizada para fins maliciosos. Segundo o Xataka, foram criadas várias equipes de trabalho especializadas em segurança e proteção que irão partilhar as suas descobertas com outras empresas e a comunidade para tentar evitar que mais ataques cibernéticos como estes se repitam. Em qualquer caso, é evidente que não só a OpenAI deve tomar estas medidas. Outras empresas que possuem modelos generativos de IA deveriam se empenhar para melhorar a segurança na área.

GOVERNO FEDERALspot_imgspot_img

Amazonas Repórter

Tudo
spot_imgspot_img

Ministério Público do Trabalho fiscalizará assédio eleitoral

A procuradora do Ministério Público do Trabalho no Amazonas (MPT-AM), Fabíola Bessa Almeida, afirmou, nesta sexta-feira, que o órgão vai receber denúncias por meio...

Mais de 90% das escolas fiscalizadas em ação do TCE-AM estão sem auto de vistoria dos Bombeiros

Das 24 escolas fiscalizadas pelo Tribunal de Contas do Amazonas (TCE-AM) durante a ‘Operação Educação’, apenas duas possuem auto de vistoria do Corpo de...

Mulheres são presas suspeitas de torturar e matar criança de 4 anos, na zona Norte de Manaus

Um menino de quatro anos deu entrada sem vida na tarde desta quarta-feira (24), por suspeita de espancamento e tortura na Unidade de Pronto...
spot_imgspot_img