IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

91 % des responsables de la sécurité estiment que l'IA va surpasser les équipes de sécurité
Et 58 % d'entre eux pensent que les risques de l'IA sont pires que ses avantages, d'après Bugcrowd

Le , par Anthony

1PARTAGES

6  0 
Selon un nouveau rapport de Bugcrowd, 91 % des responsables de la sécurité estiment que l'IA va surpasser les équipes de sécurité.

L'IA est clairement considérée comme une arme à double tranchant. Malgré les projets d'embauche, 70 % d'entre eux déclarent qu'ils prévoient de réduire les effectifs des équipes de sécurité au cours des cinq prochaines années en raison de l'adoption des technologies de l'IA. Plus de 90 % estiment que l'IA est déjà plus performante que les professionnels de la sécurité, ou du moins qu'elle le sera dans un avenir proche. Tandis que 58 % pensent que les risques de l'IA sont pires que ses avantages potentiels.


Parmi les autres résultats, 33 % pensent qu'au moins la moitié des entreprises sont prêtes à sacrifier la confidentialité ou la sécurité à long terme de leurs clients pour économiser de l'argent. Cela s'explique en partie par le fait que 40 % des personnes interrogées pensent que moins d'une entreprise sur trois comprend réellement le risque d'être victime d'une atteinte à la vie privée.

Bien que 87 % des entreprises indiquent qu'elles recrutent actuellement du personnel de sécurité, 56 % d'entre elles déclarent que leur équipe de sécurité est actuellement en sous-effectif. Et malgré certaines idées reçues sur l'absence de diplôme universitaire, les personnes interrogées ont indiqué que seuls 6 % des responsables de la cybersécurité n'ont pas de diplôme et que plus de 80 % d'entre eux sont titulaires d'un diplôme spécifique en cybersécurité.

Les RSSI sont également favorables au piratage éthique, en raison des inquiétudes liées à l'utilisation malveillante de l'IA par les attaquants. 70 % des responsables de la sécurité se sont tournés vers l'utilisation de la sécurité crowdsourcée pour tester leurs défenses contre l'IA. En fait, 73 % des responsables de la sécurité voient le piratage éthique d'un bon œil et 75 % d'entre eux en ont déjà fait l'expérience.

« Le rôle du RSSI évolue. Compte tenu du paysage actuel des risques et de la nécessité de donner la priorité à la sécurité plutôt qu'à la résilience, le RSSI a plus de responsabilités que jamais », déclare Nick McKenzie, RSSI chez Bugcrowd. « Combler le fossé entre les RSSI et l'ingéniosité collective des pirates informatiques est essentiel pour protéger les organisations contre l'assaut croissant des menaces et des attaques liées à l'IA. »

À propos de Bugcrowd
Bugcrowd est une plateforme de sécurité collaborative. Elle a été fondée en 2011 et était en 2019 l'une des plus grandes sociétés de bug bounty et de divulgation de vulnérabilités sur Internet. Bugcrowd se concentre sur un large spectre de services de tests d'intrusion pour l'IoT, les API et même les infrastructures réseau, et propose également la gestion de la surface d'attaque. La société compte plusieurs bureaux dans le monde, à Sydney et à Londres, et son siège social est situé à San Francisco. En mai 2023, Bugcrowd a annoncé la transformation de sa plate-forme de cybersécurité collaborative en alliant l'IA et les hackers éthiques.

Source : "2024 Inside the Mind of a CISO Report" (étude de Bugcrowd)

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous les conclusions de cette étude de Bugcrowd crédibles ou pertinentes ?

Voir aussi :

Les RSSI craignent que l'IA génère des failles de sécurité, car ils ont déjà été confrontés à des attaques, selon l'étude de Metomic, la culture de la sécurité et la sensibilisation constituent un défi majeur

97 % des organisations s'inquiètent des menaces de sécurité liées à l'IA, et 75 % ont dû modifier leur stratégie de cybersécurité l'année dernière à cause de l'augmentation des cybermenaces alimentées par l'IA

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de marsupial
Expert éminent https://www.developpez.com
Le 01/07/2024 à 18:14
Tout dépend de quelle IA on parle. L'ia générative effectivement dépassera bientôt l'intelligence humaine et deviendra de moins en moins compréhensible pour l'intellect humain et donc on ne détectera pas ses âneries. Si on reprend l'IA de Thales, elle surpasse l'intellect humain mais reste explicable sans biais et moins gourmande en ressources (données, éneriges, QI, etc...). Donc elle permet le hackback même si ce n'est pas autorisé en France. La solution de sécurité qu'elle pilote a fait des progrès en 8 ans d'existence, tout comme l'IA elle-même.
Donc je le répète mais l'IA générative est dangereuse pour la planète surtout vu toutes les contraintes environnementales qu'elle comporte. Mais tout le monde veut son IA et c'est la pénurie de ressources humaines, d'énergie, d'espace de stockage, de supercalculateurs, etc... Et les financiers se laissent berner et entrainer dans une bulle qui va se heurter au mur de la réalité. un projet français qui est devenu européen et j'espère qu'ils choisiront l'IA de Thales et pas Open AI ou Gemini ou autres qui sont merdiques à souhait pour motoriser la recherche médicale et climatologique.

Donc oui l'IA surpasse l'être humain, et depuis longtemps déjà. Mais pas une IA générative.
0  0