A OpenAI está intensificando seus esforços para fortalecer a segurança de seus produtos e infraestrutura com um programa expandido de Bug Bounty e novas iniciativas em cibersegurança. A empresa contratou hackers especializados para realizar ataques simulados em seus sistemas, com o objetivo de identificar e corrigir falhas antes que sejam exploradas. A principal atualização é o aumento das recompensas do programa, que agora variam de US$ 20.000 a US$ 100.000. A OpenAI está promovendo uma ação por tempo limitado, oferecendo bônus para descobertas em categorias prioritárias, como vulnerabilidades do tipo IDOR, com as recompensas dobradas até o final de abril de 2025.
O programa de Bug Bounty foi lançado em 2024 e se tornou uma importante ferramenta para engajar a comunidade de segurança. Ele tem ajudado a identificar falhas críticas nos sistemas da OpenAI, oferecendo uma plataforma onde pesquisadores e especialistas podem relatar vulnerabilidades e ganhar recompensas generosas. Além disso, a OpenAI expandiu seu programa de bolsas de pesquisa em segurança cibernética, financiando projetos que abordam questões como proteção de agentes de IA e privacidade de modelos. Ao longo de dois anos, o programa analisou mais de 1.000 inscrições e financiou 28 projetos inovadores.
Uma nova adição ao programa são os “microgrants”, que oferecem suporte financeiro para equipes desenvolverem protótipos de soluções em áreas prioritárias, como prevenção de vazamento de dados e detecção de ameaças avançadas. A OpenAI também anunciou que trabalhará em colaboração com as comunidades acadêmica e empresarial para identificar falhas em código-fonte aberto, ajudando a aprimorar ferramentas de IA que possam detectar e corrigir bugs automaticamente.
Além disso, a empresa está utilizando seus próprios modelos de IA para reforçar a segurança em tempo real. Em parceria com a SpecterOps, especializada em simular ataques realistas, a OpenAI realizará testes de segurança contínuos, cobrindo ambientes de nuvem e produção. A colaboração visa integrar a segurança de forma abrangente, desde a infraestrutura interna até as operações de IA, abordando as crescentes ameaças que surgem com o avanço de novos agentes cibernéticos.
Com a presença de novos agentes como Operator e Deep Research, a OpenAI está criando estratégias para enfrentar desafios crescentes em segurança. As iniciativas incluem o desenvolvimento de defesas em várias camadas, controle avançado de acessos, criptografia e medidas específicas para prevenir ataques baseados em solicitações. A empresa está comprometida em garantir que suas ferramentas de IA sejam sustentáveis e seguras, protegendo tanto seus sistemas quanto os usuários.