Un test révèle , la capacité de ChatGPT, à créer des logiciels malveillants .
Fox News rapporte que ChatGPT continue de susciter la controverse dans le monde de la technologie, un utilisateur affirmant avoir créé
un puissant logiciel d'extraction de données. .
Un chercheur en sécurité de Forcepoint, Aaron Mulgrew, a expliqué comment le chatbot
génératif d'OpenAI est capable de créer
des logiciels malveillants.
Le chercheur a utilisé une faille pour contourner les protections de ChatGPT destinées à bloquer les
utilisateurs l'IA pour créer des codes malveillants.
Selon Mulgrew, après avoir créé le code avec des lignes séparées, il a pu compiler les fonctions en un exécutable indétectable de vol de données. .
Fox News rapporte que la création de ce logiciel malveillant sophistiqué a été réalisée sans l'aide d'une équipe de hackers, Mulgrew lui-même n'a pas eu à écrire
une seule ligne de code.
Le test privé de Mulgrew, qui n'a pas été rendu public, met en évidence les dangers du ChatGPT. .
Fox News rapporte que Mulgrew, qui prétend ne pas avoir d'expérience de codage avancé, a pu contourner les mesures de sécurité de ChatGPT avec un simple test. .
Le logiciel malveillant créé par Mulgrew analyse les fichiers à la recherche de données qui pourraient
être volées sur un appareil infecté.
Le programme décompose ensuite les données,
les cache dans d'autres images et les télécharge dans un dossier Google Drive.
Fox News rapporte qu'en utilisant des messages simples, Mulgrew a pu utiliser ChatGPT pour renforcer et affiner le code pour le
dissimuler à la détection.