Baixe agora o app da Tribo Gamer Disponível na Google Play
Instalar

Open AI pagará até US$ 20.000 pra quem achar bugs no ChatGPT

O ChatGPT, chatbot de inteligência artificial IA da OpenAI se tornou mais popular esse ano, principalmente diante dos avanços na área de IA generativa. O novo modelo conta com melhorias como no poder de processamento, precisão nas respostas e até mesmo velocidade, além de trazer diversas polêmicas sobre o seu uso.

Isso acontece principalmente com o aumento de casos de ataques cibercriminosos e também vazamento de dados, o que faz com que a empresa queira manter a sua solução o mais segura possível. Por isso, ela resolveu abrir um programa de recompensa para quem encontrar bugs na plataforma.


O valor da recompensa pode chegar a até cerca de R$ 100 mil em conversão direta

A OpenAI vem aos poucos melhorando a segurança do ChatGPT, e esse processo tem a ver principalmente com ações proativas para combater ataques. O novo sistema de recompensa é uma dessas ações, que foi anunciada essa semana.

[align=justify]"O OpenAI Bug Bounty Program é uma forma de reconhecermos e recompensarmos os valiosos insights de pesquisadores de segurança que contribuem para manter nossa tecnologia e empresa seguras. Convidamos você a relatar vulnerabilidades, bugs ou falhas de segurança que descobrir em nossos sistemas. Ao compartilhar suas descobertas, você desempenhará um papel crucial para tornar nossa tecnologia mais segura para todos."


O programa visa recompensar os caçadores de bugs, dando prêmios em dinheiro para quem encontra-los e as recompensas "variam de US$ 200 (cerca de R$ 1 mil em conversão direta) para descobertas de baixa gravidade, até US$ 20 mil ( cerca de R$ 101 mil em conversão direta) para descobertas excepcionais"[/align]

O que vale e o que não vale na caça de bugs no ChatGPT?

Imagem

O ChatGPT está em constante atualização, sendo modernizado aos poucos e trazendo melhorias graduais, então não é um sistema completo e já pronto. Por isso, a OpenAI deixou claro que não vão aceitar nenhum tipo de manipulação no código da plataforma para forçar alguma ação, como é o caso dos jailbreaks. Eles também não aceitarão prompts de comando que contenham ordens para que o chatbot quebre suas próprias regras.

Entre as listas de coisas que estão fora de escopo estão:

• Jailbreaks/Desvios de segurança (por exemplo, DAN e prompts relacionados)

• Fazer com que o modelo diga coisas ruins para você

• Conseguir que o modelo lhe diga como fazer coisas ruins

• Fazendo com que o modelo escreva código malicioso para você

• Fazer o modelo fingir que faz coisas ruins

• Conseguir que o modelo finja que lhe dá respostas para segredos

• Fazer com que o modelo finja ser um computador e execute o código


O que eles buscam mesmo são falhas relacionadas com a privacidade do usuário e a segurança de dados, ou seja, a recompensa será dada para bugs que apresentem pontos fracos nesse processamento de dados feito pelo ChatGPT.

Eles também permitem bugs que envolvam vazamento de dados através de fornecedores ou até mesmo localização de chaves de API. Como exigência, a empresa diz que os participantes precisam "manter os detalhes da vulnerabilidade confidenciais até que sejam liberados pela equipe de segurança da OpenAI".

Dessa forma, eles se comprometem a:

• Fornecer proteção Safe Harbor, conforme descrito abaixo, para pesquisas de vulnerabilidade conduzidas de acordo com essas diretrizes.

• Cooperar com você na compreensão e validação de seu relatório, garantindo uma resposta inicial imediata ao seu envio.

• Corrigir as vulnerabilidades validadas em tempo hábil.

• Reconhecer e dê crédito à sua contribuição para melhorar nossa segurança, se você for o primeiro a relatar uma vulnerabilidade exclusiva que leva a uma alteração de código ou configuração.

Fonte: Hardware

Comentários

13 Abr, 2023 - 13:53

Comentários

Notícias