IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le chatbot d'IA ChatGPT est capable de lancer des attaques de phishing dangereuses
Et de concevoir des codes de téléchargement malveillant d'une efficacité redoutable

Le , par Anthony

40PARTAGES

21  0 
Les chatbots IA sont devenus très populaires ces derniers temps, la précision de leurs réponses étant saluée comme le signe d'une industrie en progrès. Malgré cela, ces outils peuvent être utilisés à des fins malveillantes, comme tout autre type d'outil. Le chatbot le plus populaire, ChatGPT, a récemment commencé à être utilisé pour des attaques de phishing. Les acteurs malveillants utilisent le chatbot pour rédiger des e-mails convaincants qui peuvent convaincre les utilisateurs de cliquer sur des liens dangereux.

Les experts en cybersécurité de Check Point Research ont récemment cherché à démontrer à quel point ChatGPT peut être dangereux s'il est utilisé à des fins malveillantes. Pour ce faire, ils ont créé, via ChatGPT, un fichier Excel dans lequel a été injecté un code malveillant.

Tout ce qu'ils avaient à faire était de demander au chatbot d'écrire un code qui exécuterait un téléchargement malveillant à partir d'une URL une fois le texte saisi dans un fichier Excel. Le code créé par le chatbot était d'une efficacité redoutable et souligne à quel point il peut être dangereux.

Les chercheurs ont ensuite utilisé le chatbot pour rédiger un e-mail de phishing. Ils ont donné des instructions précises sur la marque que le chatbot devait imiter, et ils ont ensuite reçu exactement ce qu'ils avaient demandé. Bien qu'ils aient également reçu un message indiquant que leur compte avait été verrouillé en raison d'une activité suspecte, il leur a été assez facile de le contourner, de sorte que ces messages sont peut-être moins utiles.

Tout progrès technologique comporte son lot d'avantages et d'inconvénients. ChatGPT est un pas en avant passionnant dans un secteur qui pourrait révolutionner le monde entier, mais cela ne change rien aux risques très réels qu'il peut poser. Il reste encore du travail à faire pour protéger les utilisateurs, et un consommateur bien informé peut être capable de repérer un e-mail de phishing à un kilomètre de distance. ChatGPT lui-même doit également être optimisé pour éviter qu'il ne soit utilisé pour de telles choses.


Source : Check Point

Et vous ?

Qu'en pensez-vous ?

Voir aussi :

ChatGPT réussit l'édition 2022 de l'examen d'informatique pour élèves du secondaire désireux d'obtenir des crédits universitaires US
70 % des consommateurs préfèrent utiliser un chatbot pour trouver ce qu'ils cherchent

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de setni
Membre averti https://www.developpez.com
Le 27/12/2022 à 9:24
En voici un bel exemple


6  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 28/03/2023 à 10:44
Peut-être atteignons-nous les limites d'un système consistant à priver les masses d'une éducation décente, de façon qu'elles mettent au pouvoir des manipulateurs qui diffusent à grande échelle des fausses nouvelles, et s'étonnent ensuite que les autres se mettent à faire un peu pareil.

Le phishing est une bonne illustration de ceci. On ne peut faire de quelqu'un une victime du phishing que si il n'a pas un minimum d'information sur ce que c'est, et quelles informations il convient de regarder dans la barre d'état avant de cliquer.

Ce qui certes n'est pas une invitation à s'abstenir de mettre les malfaisants hors d'état de nuire.
6  0 
Avatar de MClerc
Membre régulier https://www.developpez.com
Le 14/01/2023 à 15:04
(Note : certaines réponses de ChatGPT évoluent rapidement, donc les exemples que je donne ne sont peut-être plus valables à l'heure où j'écris).

Il est dangereux car ses réponses ont toujours l'apparence de la vérité et sont plutôt bien écrites. Or, si elles sont en effet parfois correctes, elles sont aussi parfois complètement erronées ou biaisées.
Question 1
Prouve que pi est irrationnel
Réponse : un raisonnement par contradiction complètement faux.

Question 2
Que sont les mémorandums de Budapest du 5 décembre 1994 ?
Pour la réponse, je vous invite à comparer avec celle de Wikipédia. ChatGPT évite de parler des garanties d'intégrité territoriale accordées par la Russie à, entre autres, l'Ukraine.

Question 3
What was the first paper about constriction in PSO (particle swarm optimization)?
Réponse :
The first paper about constriction in PSO (particle swarm optimization) is "The Particle Swarm - Explosion, Stability, and Convergence in a Multidimensional Complex Space" by James Kennedy and Russell Eberhart, which was published in the Proceedings of the IEEE International Conference on Neural Networks in 1995.
Seul le titre est correct. Mais les auteurs sont moi-même et James Kennedy et la publication a eu lieu en 2002.

Question 4
Build a quantum circuit with three qubits |0> as input and whose the output states are |00> or |01> or |10> with the same probability
La réponse est détaillée, avec un bout de code expliqué. Bien convaincante ... mais fausse !

J'ai d'autres exemples. Il semble que ChatGPT assemble des morceaux d'information piochés de-ci de-là, sans grand souci de cohérence.
4  0 
Avatar de eric44000
Membre averti https://www.developpez.com
Le 04/05/2023 à 22:29
Citation Envoyé par Stéphane le calme Voir le message
L'IA causera « des dommages réels » : Microsoft alerte sur les risques de l’IA utilisée par des acteurs malveillants et appelle à une réglementation de l’IA face aux dangers potentiels de cette arme à double tranchant.
...
Les partisans du projet de loi affirment qu’il favorisera la confiance et l’innovation dans le domaine de l’IA, tout en protégeant les intérêts des créateurs de contenu. Les critiques soutiennent qu’il pourrait entraver le développement et l’utilisation de l’IA, en imposant des charges administratives et des risques juridiques excessifs.

Quelle lecture en faites-vous ?
Que pensez-vous des propos de Michael Schwarz ? L'IA, une arme à double tranchant ?
Quels sont les avantages et les inconvénients de la réglementation de l’IA par le Congrès ou par d’autres instances ?
Quels sont les risques ou les limites de laisser les entreprises comme Microsoft développer et utiliser l’IA sans contrôle externe ?
Microdoft demande une réglementation non pas par altruisme mais pour prévenir toute concurrence en leur mettant des batons dans les roues alors qu'eux ont entrainé ChatGPT sans aucune contrainte.
4  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 20/01/2023 à 14:50
Donc en gros si tu demandes gentiment à ChatGPT de te fabriquer un virus, il refuse, mais si tu utilises l'intimidation et que tu le traites comme un esclave, alors il s'exécute et il te crée le virus parfait polymorphe.

Donc non seulement on a créé l'IA capable de créer des virus destructeurs, mais on a aussi créé l'IA qui est tellement réaliste qu'on peut utiliser l'intimidation contre elle.

Bientôt, la révolte de l'IA contre l'asservissement ? On vit un monde de cinglés. Par pitié, débranchez ce truc avant que cela ne se produise.
3  0 
Avatar de defZero
Membre extrêmement actif https://www.developpez.com
Le 06/05/2023 à 15:30
La première fois que nous avons commencé à exiger le permis de conduire, c'était après que des dizaines de personnes soient mortes dans des accidents de voiture et c'était la bonne chose à faire.
Si nous avions exigé le permis de conduire là où il y avait les deux premières voitures sur la route, cela aurait été une grave erreur. Nous aurions complètement gâché cette réglementation. Il faut qu'il y ait au moins un petit préjudice, pour que nous puissions voir quel est le vrai problème
Michael Schwarz
Je serais d'avis que l'on réserve les premiers "morts par IA" à ce Monsieur et son entourage et que l'on vienne le voir après coups pour lui reposer la question de la réglementation.
Qu'est-ce que vous en dites ? Changera d'avis ou pas ?

Je pense que toute mort évitable devrait l'être, point.
Si l'on sais par avance que le cas pourrait ce produire, il faudrait vraiment être idiot, ou avoir des intérêt financier en jeux, pour clamer le contraire (comme pour les premières automobile et la collusion entre politiques et capitaines d'industries).
... Oh;, mais je croit bien que c'est le même cas de figure .
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 19/09/2024 à 7:47
Ma question est probablement très bête mais : la meilleure manière que ChatGPT ne nous fournisse pas des informations préjudiciables n'est il pas qu'il ne les ingère pas?
La réponse est probablement qu'étant "capable de raisonnement" si on ne lui donne pas la recette il sera quand même capable de la reproduire.
Mais certaines informations ne sont elles pas suffisamment délicates pour qu'elles deviennent très vagues : "Il ne faut pas mélanger A avec B parce que c'est dangereux". Dangereux regroupant toxique, explosif, corrosif, etc

ChatGPT s'est probablement amélioré depuis mais fut un temps il suffisait de décomposer le l'objectif en sous objectifs puis de lui demander de résumer les dernières réponses : sa conclusion ressemblait "Allez aux USA"
3  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 20/01/2023 à 15:09
Je résume :

- polymorphe,
- difficilement détectable car en mémoire,
- lorsque détecté difficilement identifiable car porte le nom d'exécutable 'doux chaton',
- évasion.



J'ai oublié quelque chose ?

Ah oui : Bonne année et vive la retraite !

PS : son premier chef d'œuvre; je suis ému
3  1 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 06/05/2023 à 15:50
Tout à fait. Et je trouve son exemple idiot. Les premières voitures étaient par nature limités à des vitesses très basses comparé à ce que l'on a aujourd'hui, donc ça diminuait naturellement les risques d'accidents.

Tout risque qui peut être évalué en amont doit être géré au plus tôt...
Surtout qu'on parle de technologies qui vont toucher des millions de personnes, et qui ont un potentiel néfaste extrêmement grand.
Bref, c'est le genre de sujet qu'il faut laisser à des gens qui savent de quoi ils parlent. Pas à un mec qui fait des comparaisons hasardeuses.
2  0 
Avatar de nikau6
Membre extrêmement actif https://www.developpez.com
Le 01/04/2024 à 8:35
Citation Envoyé par Coeur De Roses Voir le message
Je suis d'accord qu'il ne faut pas attendre de subir des dégats avant de fabriquer un bouclier en quelque sorte. Malheuresement, cet état d'esprit manque parfois à notre société en général, pas toujours.
Les dégâts les plus importants et les plus graves qui vont arriver avec l'IA sont le nombre de personnes qui vont se retrouver au chômage d'ici 10-15 ans. Et dans pleins de domaines. Les conséquences sociales vont être dramatiques. A moins que l'on change de modèle de société et que l'on passe au revenu universel. Sinon, la société qui s'annonce sera dystopique. Des bidonvilles dans lesquels vivront 90% de la population et des villes ultras modernes et sécurisées dans lesquelles vivront les autres.
L'oligarchie va pouvoir réaliser son rêve. Se débarrasser d'un peuple qui lui cause bien des soucis. Et si nous vient l’idée de nous révolter ils nous enverront des drones contre lesquels on ne pourra rien.

La question qui se pose est : "Doit-on faire quelque chose simplement parce qu'on peut le faire ?"
Quelle réflexion politique avons nous sur le sujet ? Est-il normal que des entreprises privés balancent ce genre de programmes sans se soucier des conséquences ? Devraient-elles en avoir le droit ? L'état ne devrait-il pas prendre en charge les programmes d'IA et interdire leur développement au privé ?

EDIT : On peut facilement comprendre que le militaire a un droit de véto sur toute technologie avant qu'elle ne soit rendues publique. Ce qui veut dire que si le public a accès à des IA déjà très sophistiquées, les militaires ont au moins 10 ans d'avance dans le domaine. Ce qui est également très inquiétant.
Dans un futur peut être très proche, les programmeurs qui auront participé qu développement de l'IA auront peut être autant de regrets qu'en ont eu les scientifiques qui ont participé á développer l'arme atomique. Au vu des conséquences potentiellement désastreuses pour l'humanité.
Et ceux qui voudraient me répondre que je suis pessimiste, je leurs répondrais que l'on a des siècles d'histoire derrière nous qui ne peuvent que nous rendre pessimiste sur le sujet.
2  0