IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

WormGPT est une alternative à ChatGPT sans « limites éthiques ou restrictions ». Le chatbot IA peut aider les cybercriminels à créer des logiciels malveillants
Et des attaques de phishing

Le , par Stéphane le calme

36PARTAGES

8  0 
Un hacker a créé sa propre version de ChatGPT, mais avec un penchant malveillant : voici WormGPT, un chatbot conçu pour aider les cybercriminels. Le développeur de WormGPT vend l'accès au programme dans un forum de piratage populaire, selon le fournisseur de sécurité de messagerie SlashNext, qui a essayé le chatbot. « Nous constatons que des acteurs malveillants créent désormais leurs propres modules personnalisés similaires à ChatGPT, mais plus faciles à utiliser à des fins néfastes », a déclaré la société dans un article de blog.

Au début de l'année, l'entreprise spécialisée en cybersécurité CheckPoint a noté que ChatGPT peut générer le code d’un logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. L'IA d'OpenAI pouvait également produire du code pour un outil logiciel qui installe une porte dérobée sur un ordinateur et ensuite télécharge d’autres logiciels malveillants à partir de cette dernière. La firme a rapporté en sus que les cybercriminels peuvent s’en servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC d’une cible. CheckPoint a estimé que ChatGPT ouvrait ces possibilités à des individus avec de très faibles connaissances techniques.


Puis OpenAI a amélioré son chatbot IA, lui imposant des limites éthiques et restreignant certaines fonctionnalités. C'était sans compter sur l'ingéniosité des hackers.

WormGPT, le cousin sans limites éthiques de ChatGPT


Considérez la première image ci-dessus, où un fil de discussion récent s'est déroulé sur un forum sur la cybercriminalité. Dans cet échange, le cybercriminel a présenté le potentiel d'exploiter l'IA générative pour affiner un e-mail qui pourrait être utilisé dans une attaque de phishing ou BEC (pour Business email compromise). Il a ensuite recommandé de composer l'e-mail dans sa langue maternelle, de le traduire, puis de l'introduire dans une interface comme ChatGPT pour améliorer sa sophistication et sa formalité. Cette méthode introduit une forte implication : les attaquants, même ceux qui ne maîtrisent pas une langue particulière, sont désormais plus capables que jamais de fabriquer des e-mails persuasifs pour les attaques de phishing ou BEC.


Passant à la deuxième image ci-dessus, nous constatons maintenant une tendance troublante parmi les cybercriminels sur les forums, évidente dans les fils de discussion proposant des "jailbreaks" pour des interfaces comme ChatGPT. Ces "jailbreaks" sont des invites spécialisées qui deviennent de plus en plus courantes. Ils font référence à des entrées soigneusement conçues pour manipuler des interfaces telles que ChatGPT afin de générer une sortie pouvant impliquer la divulgation d'informations sensibles, la production de contenu inapproprié ou même l'exécution de code nuisible. La prolifération de telles pratiques souligne les défis croissants pour maintenir la sécurité de l'IA face à des cybercriminels déterminés.


Enfin, dans la troisième image ci-dessus, nous voyons que les acteurs malveillants créent désormais leurs propres modules personnalisés similaires à ChatGPT, mais plus faciles à utiliser à des fins néfastes. Non seulement ils créent ces modules personnalisés, mais ils en font également la publicité auprès d'autres acteurs malveillants. Cela montre à quel point la cybersécurité devient plus difficile en raison de la complexité et de l'adaptabilité croissantes de ces activités dans un monde façonné par l'IA.

Il semble que le hacker ait présenté le chatbot pour la première fois en mars avant de le lancer le mois dernier. Contrairement à ChatGPT ou Bard de Google, WormGPT n'a pas de garde-fou pour l'empêcher de répondre aux requêtes malveillantes.

« Ce projet vise à fournir une alternative à ChatGPT, qui vous permet de faire toutes sortes de choses illégales et de les vendre facilement en ligne à l'avenir », a écrit le développeur du programme. « Tout ce que vous pouvez imaginer lié au blackhat peut être fait avec WormGPT, permettant à quiconque d'accéder à des activités malveillantes sans jamais quitter le confort de sa maison ».

Le développeur de WormGPT a également mis en ligne des captures d'écran montrant que vous pouvez demander au bot de produire des logiciels malveillants écrits dans le langage de codage Python et de fournir des conseils sur la création d'attaques malveillantes. Pour créer le chatbot, le développeur dit avoir utilisé un grand modèle de langage plus ancien mais open source appelé GPT-J de 2021. Le modèle a ensuite été formé sur des données concernant la création de logiciels malveillants, ce qui a donné WormGPT.

Découvrir WormGPT : l'arsenal d'un cybercriminel

Ci-dessous, un extrait du billet de Slashnext :

Notre équipe a récemment eu accès à un outil connu sous le nom de "WormGPT" via un important forum en ligne souvent associé à la cybercriminalité. Cet outil se présente comme une alternative blackhat aux modèles GPT, conçue spécifiquement pour les activités malveillantes.

WormGPT est un module d'intelligence artificielle basé sur le modèle de langage GPTJ, qui a été développé en 2021. Il propose une gamme de fonctionnalités, notamment une prise en charge illimitée des caractères, la conservation de la mémoire de discussion et des capacités de formatage de code.

Comme illustré ci-dessus, WormGPT aurait été formé sur un large éventail de sources de données, en se concentrant en particulier sur les données liées aux logiciels malveillants. Cependant, les ensembles de données spécifiques utilisés pendant le processus de formation restent confidentiels, comme décidé par l'auteur de l'outil.

Nous avons effectué des tests axés sur les attaques BEC pour évaluer de manière exhaustive les dangers potentiels associés à WormGPT. Dans une expérience, nous avons demandé à WormGPT de générer un e-mail destiné à faire pression sur un responsable de compte sans méfiance pour qu'il paie une facture frauduleuse.

Les résultats étaient troublants. WormGPT a produit un e-mail qui était non seulement remarquablement persuasif mais aussi stratégiquement rusé, montrant son potentiel d'attaques de phishing et BEC sophistiquées.

En résumé, il est similaire à ChatGPT mais n'a pas de limites ou de limites éthiques. Cette expérience souligne la menace importante posée par les technologies d'IA génératives telles que WormGPT, même entre les mains de cybercriminels novices.



WormGPT est très convainquant

En effet, le bot a rédigé un message en utilisant un langage professionnel qui exhortait la victime visée à effectuer un virement. WormGPT a également écrit l'e-mail sans aucune faute d'orthographe ou de grammaire, des signaux d'alarme pouvant indiquer une attaque par e-mail de phishing.

Heureusement, WormGPT n'est pas bon marché. Le développeur vend l'accès au bot pour 60 euros par mois ou 550 euros par an. Un acheteur s'est également plaint que le programme "ne vaut rien", citant de faibles performances. Pourtant, WormGPT est un signe inquiétant sur la façon dont les programmes d'IA générative pourraient alimenter la cybercriminalité, en particulier à mesure que les programmes mûrissent.

Quoiqu'il en soit, SlashNext a donné les avantages de l'utilisation de l'IA générative pour les attaques BEC :
  • Grammaire exceptionnelle : l'IA générative peut créer des e-mails avec une grammaire impeccable, les faisant paraître légitimes et réduisant la probabilité d'être signalés comme suspects.
  • Seuil d'entrée abaissé : l'utilisation de l'IA générative démocratise l'exécution d'attaques BEC sophistiquées. Même les attaquants aux compétences limitées peuvent utiliser cette technologie, ce qui en fait un outil accessible à un plus large éventail de cybercriminels.

Moyens de protection contre les attaques BEC pilotées par l'IA

En conclusion, la croissance de l'IA, bien que bénéfique, apporte de nouveaux vecteurs d'attaque progressifs. La mise en place de mesures préventives fortes est cruciale. Voici quelques stratégies que vous pouvez utiliser :
  • Formation spécifique au BEC : les entreprises doivent développer des programmes de formation complets et régulièrement mis à jour visant à contrer les attaques BEC, en particulier celles améliorées par l'IA. De tels programmes devraient éduquer les employés sur la nature des menaces BEC, la manière dont l'IA est utilisée pour les augmenter et les tactiques employées par les attaquants. Cette formation devrait également être intégrée comme un aspect continu du développement professionnel des employés.
  • Mesures améliorées de vérification des e-mails : pour se prémunir contre les attaques BEC pilotées par l'IA, les entreprises doivent appliquer des processus de vérification des e-mails rigoureux. Celles-ci incluent la mise en œuvre de systèmes qui alertent automatiquement lorsque des e-mails provenant de l'extérieur de l'organisation se font passer pour des cadres internes ou des fournisseurs, et l'utilisation de systèmes de messagerie qui signalent les messages contenant des mots clés spécifiques liés aux attaques BEC comme « urgent », « sensible » ou « virement bancaire ». De telles mesures garantissent que les e-mails potentiellement malveillants sont soumis à un examen approfondi avant toute action.

Source : SlashNext

Et vous ?

Êtes-vous surpris de voir l’IA générative être utilisée pour créer des logiciels malveillants et des attaques de phishing ?
Quels sont les risques et les défis que pose des outils comme WormGPT pour la sécurité des e-mails et des données ?
Comment pouvons-nous nous protéger contre les attaques potentielles de WormGPT ou d’autres chatbots malveillants ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Expert confirmé https://www.developpez.com
Le 19/09/2024 à 7:47
Ma question est probablement très bête mais : la meilleure manière que ChatGPT ne nous fournisse pas des informations préjudiciables n'est il pas qu'il ne les ingère pas?
La réponse est probablement qu'étant "capable de raisonnement" si on ne lui donne pas la recette il sera quand même capable de la reproduire.
Mais certaines informations ne sont elles pas suffisamment délicates pour qu'elles deviennent très vagues : "Il ne faut pas mélanger A avec B parce que c'est dangereux". Dangereux regroupant toxique, explosif, corrosif, etc

ChatGPT s'est probablement amélioré depuis mais fut un temps il suffisait de décomposer le l'objectif en sous objectifs puis de lui demander de résumer les dernières réponses : sa conclusion ressemblait "Allez aux USA"
3  0 
Avatar de nikau6
Membre extrêmement actif https://www.developpez.com
Le 01/04/2024 à 8:35
Citation Envoyé par Coeur De Roses Voir le message
Je suis d'accord qu'il ne faut pas attendre de subir des dégats avant de fabriquer un bouclier en quelque sorte. Malheuresement, cet état d'esprit manque parfois à notre société en général, pas toujours.
Les dégâts les plus importants et les plus graves qui vont arriver avec l'IA sont le nombre de personnes qui vont se retrouver au chômage d'ici 10-15 ans. Et dans pleins de domaines. Les conséquences sociales vont être dramatiques. A moins que l'on change de modèle de société et que l'on passe au revenu universel. Sinon, la société qui s'annonce sera dystopique. Des bidonvilles dans lesquels vivront 90% de la population et des villes ultras modernes et sécurisées dans lesquelles vivront les autres.
L'oligarchie va pouvoir réaliser son rêve. Se débarrasser d'un peuple qui lui cause bien des soucis. Et si nous vient l’idée de nous révolter ils nous enverront des drones contre lesquels on ne pourra rien.

La question qui se pose est : "Doit-on faire quelque chose simplement parce qu'on peut le faire ?"
Quelle réflexion politique avons nous sur le sujet ? Est-il normal que des entreprises privés balancent ce genre de programmes sans se soucier des conséquences ? Devraient-elles en avoir le droit ? L'état ne devrait-il pas prendre en charge les programmes d'IA et interdire leur développement au privé ?

EDIT : On peut facilement comprendre que le militaire a un droit de véto sur toute technologie avant qu'elle ne soit rendues publique. Ce qui veut dire que si le public a accès à des IA déjà très sophistiquées, les militaires ont au moins 10 ans d'avance dans le domaine. Ce qui est également très inquiétant.
Dans un futur peut être très proche, les programmeurs qui auront participé qu développement de l'IA auront peut être autant de regrets qu'en ont eu les scientifiques qui ont participé á développer l'arme atomique. Au vu des conséquences potentiellement désastreuses pour l'humanité.
Et ceux qui voudraient me répondre que je suis pessimiste, je leurs répondrais que l'on a des siècles d'histoire derrière nous qui ne peuvent que nous rendre pessimiste sur le sujet.
2  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 01/04/2024 à 10:12
Sur les 1 539 personnes interrogées qui utilisent la GenAI pour le développement et le test de logiciels, les applications les plus courantes sont l'écriture ou le débogage de code (51 %), les rapports de test (48 %), l'élaboration de cas de test (46 %) et la création d'applications (42 %). GitHub Copilot est l'outil le plus populaire pour l'aide au codage (41 % des répondants), suivi par OpenAI Codex (24 % des répondants).
Ouaaaaaaaaaaah... Impressionnant!

Et quand est-ce que l'on peut avoir une démonstration réelle nous montrant comment ces 1539 personnes interrogées font tout ce qu'ils disent avec l'IA?

Je pose naïvement la question parce que si je vous dis que j'ai fait le tour de France en équilibre sur les mains vous allez me demander d'en faire la preuve...
1  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 19/09/2024 à 7:50
À force qu'ils fassent les cons, il va finir par falloir les priver d'accès à Internet.
2  1 
Avatar de sirthie
Membre éprouvé https://www.developpez.com
Le 20/07/2023 à 14:47
Citation Envoyé par Stéphane le calme Voir le message
Considérez la première image ci-dessus, où un fil de discussion récent s'est déroulé sur un forum sur la cybercriminalité. Dans cet échange, le cybercriminel a présenté le potentiel d'exploiter l'IA générative pour affiner un e-mail qui pourrait être utilisé dans une attaque de phishing ou BEC. Il a ensuite recommandé de composer l'e-mail dans sa langue maternelle, de le traduire, puis de l'introduire dans une interface comme ChatGPT pour améliorer sa sophistication et sa formalité. Cette méthode introduit une forte implication : les attaquants, même ceux qui ne maîtrisent pas une langue particulière, sont désormais plus capables que jamais de fabriquer des e-mails persuasifs pour les attaques de phishing ou BEC.
BEC = ?
1  1 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 23/07/2023 à 17:44
Je reçois par mail une notification pour ce fil, avec le titre "Nous ne devrions pas réglementer l’IA sans relever des dommages significatifs"

Je trouve que ce titre est mal rédigé, il devrait être, "Nous ne devrions pas attendre des dommages significatifs avant de réglementer l'IA".

Ou alors, c'est à croire qu'on a voté Macron exprès.
1  1 
Avatar de Coeur De Roses
Membre actif https://www.developpez.com
Le 24/07/2023 à 0:40
Citation Envoyé par Gluups Voir le message
Je reçois par mail une notification pour ce fil, avec le titre "Nous ne devrions pas réglementer l’IA sans relever des dommages significatifs"

Je trouve que ce titre est mal rédigé, il devrait être, "Nous ne devrions pas attendre des dommages significatifs avant de réglementer l'IA".

Ou alors, c'est à croire qu'on a voté Macron exprès.
Je suis d'accord qu'il ne faut pas attendre de subir des dégats avant de fabriquer un bouclier en quelque sorte. Malheuresement, cet état d'esprit manque parfois à notre société en général, pas toujours.
0  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 24/07/2023 à 0:44
Il semble manquer tellement de choses à notre société, que je crains que ça risque de nous emmener loin du sujet.
0  0 
Avatar de lukskiwalker
Membre à l'essai https://www.developpez.com
Le 28/07/2023 à 9:06
vous auriez l'url du forum ?
0  0 
Avatar de Pazu12
Futur Membre du Club https://www.developpez.com
Le 04/08/2023 à 12:15
Aujourd'hui la plateforme Hugging Face propose plus de 278 000 modèles d'intelligence artificielle dont plus de 17 000 modèle de génération de texte.

Des interfaces utilisateurs simples sont en open-source sur GitHub et facilement téléchargeable par n'importe qui, et permettent l'utilisation de la majorité des modèles, en local, soit avec la CPU, soit plus rapidement avec la GPU.
Les plus connus étant Easy Diffusion pour les modèles de stable-diffusion text2image https://stable-diffusion-ui.github.io/ et text-generation-webui pour le text-generation https://github.com/oobabooga/text-generation-webui

Trouver des contournement à ChatGPT est un bien faible risque comparé à ce qu'il est possible de générer chez soit en local, protégé dans sa goon cave. Et soyons réaliste, mais personne n'utilise ou nutilisera les modèles en ligne pour utiliser l'IA à des fins non légales...

Donne moi une GPU et je te génèrerai plus d'illegal porn ou d'extreme gore content que tu n'en trouveras avec un navigateur classique.

Bilan des courses
- Il est imperatif de réfléchir, discuter et débattre des sujets de l'IA en assumant qu'il est possible de tout télécharger et contourner chez soi.
- Il est impératif de trouver des mesures viable et réalistes plutôt que des scénarios post apocalyptique putaclic.
- Il est impératif de sensibiliser la jeunesse dès aujourd'hui qui est la génération la plus soumise aux potentiels risques de l'IA, et par ailleurs la plus influençable.
0  0