Afin de renforcer la fiabilité de l’OpenAI et de garantir la sécurité du système d’IA, l’OpenAI s’est associée à Bugcrowd pour proposer un programme de récompense des bogues afin de faire face aux risques de cybersécurité. Grâce à ce nouveau dynamisme de l’IA, les utilisateurs qui signalent des bogues peuvent obtenir des récompenses allant de 200 à 20 000 dollars.
Matthew Knight, responsable de la sécurité, a indiqué que cette initiative a été stratégiquement mise en place par l’entreprise pour parvenir à une IA sûre et avancée qui contribuera à améliorer la transparence et la collaboration autour des produits d’IA.
Le partenariat avec Bugcrowd vise à garantir que les découvertes de menaces de sécurité sont exactes. Le programme de primes aux bugs ne récompensera aucun utilisateur pour avoir identifié des bugs qui utilisent des invites de jailbreak, ou des utilisateurs qui posent des questions coercitives pour que les modèles d’IA écrivent des codes malveillants ou des requêtes qui peuvent commencer à utiliser un langage inapproprié envers les utilisateurs du chatbot.
Tout cela pour s’assurer que tous les rapports sont authentiques. Même s’il n’est pas le premier du genre, ce système de primes aux bugs est également utilisé par d’autres entreprises technologiques de premier plan pour sécuriser leurs différentes plateformes.
En novembre 2022, Open AI a mis ChatGPT sous les feux de la rampe, ce qui a suscité un intérêt accru pour l’application soutenue par Microsoft. Depuis, elle a été utilisée pour écrire des poèmes, des essais, des codes informatiques, programmer des repas et créer des budgets à la manière d’un humain.
Cependant, au fil du temps, ChatGPT a été détecté comme offrant de fausses réponses à des requêtes et se contredisant lui-même, ce qui est dû au fait que des personnes l’alimentent avec des commandes de jailbreak, comme des déclarations de haine ou des moyens de commettre des crimes.
Pour mettre un terme à ces pratiques, OpenAI a dû trouver un moyen d’illustrer les efforts déployés par l’entreprise pour améliorer la sécurité et la fiabilité des produits d’IA.