IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Guerre contre les deepfakes : Alex Bores suggère d'authentifier le vrai plutôt que traquer le faux, l'ex de Palantir devenu politicien propose de s'appuyer sur une logique héritée du HTTPS

Le , par Stéphane le calme

33PARTAGES

9  0 
Alex Bores, membre démocrate de l'Assemblée de New York actuellement candidat au Congrès dans la 12e circonscription de Manhattan, affirme que l'une des utilisations les plus alarmantes de l'intelligence artificielle, à savoir les deepfakes très réalistes, n'est pas tant une crise insoluble qu'un échec à mettre en œuvre une solution existante.

« Pouvons-nous nous passionner pour les deepfakes ? Car il s'agit d'un problème soluble et je pense que la plupart des gens passent à côté », a déclaré Bores lors d'un récent épisode du podcast Odd Lots de Bloomberg, animé par Joe Weisenthal et Tracy Alloway.

Plutôt que d'apprendre aux gens à repérer les anomalies visuelles dans les images ou les enregistrements audio falsifiés, Bores estime que les décideurs politiques et l'industrie technologique devraient s'appuyer sur une approche cryptographique bien établie, similaire à celle qui a rendu possible la banque en ligne dans les années 1990. À l'époque, les sceptiques doutaient que les consommateurs puissent un jour faire confiance aux transactions financières sur Internet. L'adoption généralisée du protocole HTTPS, qui utilise des certificats numériques pour vérifier l'authenticité d'un site web, a changé la donne.


La montée en puissance des deepfakes alimente une inquiétude diffuse mais profonde dans l’espace public. Vidéos truquées de responsables politiques, enregistrements audio fabriqués de toutes pièces, images virales impossibles à distinguer du réel : l’intelligence artificielle a fait basculer la manipulation visuelle et sonore dans une ère industrielle. Pourtant, pour Alex Bores, ancien cadre de Palantir devenu responsable politique, cette crise n’a rien d’une fatalité technologique. Elle serait avant tout le symptôme d’un retard collectif dans l’adoption d’outils pourtant bien connus de l’infrastructure du Web.

Son propos tranche avec le discours dominant, souvent alarmiste, sur une IA supposée incontrôlable. Selon lui, les deepfakes constituent un problème solvable, non pas par davantage de censure ou par une surveillance généralisée, mais par un retour à une logique simple : restaurer la confiance technique dans les contenus numériques, comme le Web l’a déjà fait il y a plusieurs décennies avec la sécurité des sites Internet.

Revenir à l’esprit d’HTTPS : quand le Web a appris à se faire confiance

Pour comprendre le raisonnement d’Alex Bores, il faut se replonger dans l’histoire du Web moderne. À la fin des années 1990 et au début des années 2000, Internet souffrait d’un déficit massif de confiance. Les internautes n’avaient aucun moyen simple de savoir si un site était authentique ou s’il s’agissait d’une imitation frauduleuse. La généralisation d’HTTPS, fondée sur des certificats numériques délivrés par des autorités reconnues, a progressivement changé la donne.

Ce mécanisme n’empêchait pas toutes les fraudes, mais il introduisait un principe fondamental : l’authenticité vérifiable. Un site pouvait prouver cryptographiquement qu’il était bien celui qu’il prétendait être. Pour Bores, la crise des deepfakes est comparable à cette période de pré-HTTPS. Les contenus circulent massivement, mais sans métadonnées fiables permettant d’identifier leur origine ou leur intégrité.

« C'était un problème soluble », a déclaré Bores. « Cette technique fonctionne essentiellement pour les images, les vidéos et les fichiers audio. »

L’authenticité du contenu plutôt que la chasse aux faux

L’un des points clés de son analyse consiste à déplacer le débat. Il ne s’agit pas, selon lui, de détecter chaque faux après coup, une tâche de plus en plus complexe à mesure que les modèles génératifs progressent. Il s’agit plutôt de certifier le vrai dès la création.

Dans cette approche, une image, une vidéo ou un fichier audio serait accompagné d’un ensemble de métadonnées cryptographiquement signées. Ces informations permettraient de savoir qui a produit le contenu, avec quel outil, à quel moment et selon quelles transformations éventuelles. Un contenu non signé ne serait pas nécessairement illégal ou interdit, mais il serait immédiatement identifiable comme non authentifié, exactement comme un site sans certificat HTTPS déclenche aujourd’hui des avertissements dans les navigateurs.


Des standards ouverts plutôt que des solutions propriétaires

Alex Bores insiste sur un point souvent négligé dans les débats technologiques : la question des standards. L’efficacité d’HTTPS ne vient pas d’une innovation secrète ou d’un produit propriétaire, mais d’un protocole ouvert, gratuit et adopté à très grande échelle.

Transposé au problème des deepfakes, ce raisonnement conduit à privilégier des standards ouverts de provenance des contenus, capables d’être intégrés aussi bien par les plateformes que par les créateurs, les médias ou les institutions publiques. L’objectif n’est pas de confier la vérité à quelques acteurs dominants, mais de bâtir une infrastructure commune de confiance, interopérable et vérifiable par tous.

Bores a évoqué une « norme libre et open source pour les métadonnées » connue sous le nom de C2PA, abréviation de Coalition for Content Provenance and Authenticity (Coalition pour la provenance et l'authenticité du contenu), qui permet aux créateurs et aux plateformes d'associer des informations d'identification inviolables aux fichiers. Cette norme permet d'enregistrer de manière cryptographique si un contenu a été capturé sur un appareil réel, généré par l'IA, et comment il a été modifié au fil du temps.

« Le défi réside dans le fait que le créateur doit l'ajouter, et il faut donc parvenir à ce que cela devienne l'option par défaut », a déclaré Bores.

Selon lui, l'objectif est de parvenir à un monde où la plupart des médias légitimes comportent ce type de données de provenance, et « si vous voyez une image qui ne comporte pas cette preuve cryptographique, vous devriez vous montrer sceptique ».

Bores a déclaré que grâce au passage du protocole HTTP au protocole HTTPS, les consommateurs savent désormais instinctivement se méfier d'un site bancaire qui ne dispose pas d'une connexion sécurisée. « Ce serait comme aller sur le site web de votre banque et ne charger que le protocole HTTP, n'est-ce pas ? Vous seriez immédiatement méfiant, mais vous pourriez tout de même produire les images. »

Une responsabilité partagée entre plateformes, États et créateurs

Cette vision implique une redéfinition des responsabilités. Les plateformes ne peuvent plus se contenter de modérer a posteriori des contenus devenus viraux. Elles devraient intégrer nativement des mécanismes de vérification de provenance et les rendre visibles pour les utilisateurs.

Les États, de leur côté, auraient un rôle d’incitation plutôt que de contrôle direct. Favoriser l’adoption de standards ouverts, exiger leur usage pour les communications officielles ou les campagnes électorales, soutenir leur intégration dans les outils grand public : autant de leviers possibles sans basculer dans une régulation liberticide.

Quant aux créateurs et aux médias, ils gagneraient un outil puissant pour se distinguer dans un écosystème saturé de contenus douteux. La certification deviendrait un avantage réputationnel, un signal de crédibilité dans un paysage informationnel fragmenté.

Les limites d’une solution pourtant pragmatique

Alex Bores ne nie pas que cette approche comporte des limites. Tous les contenus authentiques ne seront pas nécessairement signés, notamment dans les contextes militants, citoyens ou journalistiques sensibles. De plus, un contenu certifié peut rester trompeur dans...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 01/01/2026 à 18:21
Que pensez-vous de l'argumentaire d'Alex Bores ? Vous semble-t-il crédible ou pertinent ?
Je suis partagé. D'un côté, je suis totalement d'accord avec lui sur le fait que des mécanismes répressifs ne serviront à rien, n’endigueront rien à long nu même à moyen terme. J'irais même plus loin que lui : mettre en places une répression risque de devenir un énième prétexte pour s'en prendre à la liberté individuel, que se soit en mettant en place une surveillance massive des utilisateurs de modèle IA, et/ou en restreignant de facto considérablement la liberté artistique/d'expression.

D'un autre côté, je pense qu'il est illusoire de penser que même si un mécanisme de certification aussi fiable que l'https existait pour les médias (par média, je pale des photos, vidéos et enregistrements audio), les gens l'utiliserait massivement, pour des raison évidente de confidentialité. Par exemple, si je poste une photo de moi sur un réseau social, ou un blog personnel, en fonction du contexte, je ne vais pas spécialement avoir envie que l'on sache où j'étais, le jour, la date, l'heure... Un tel système de vérification ne sera probablement utilisé que dans des communications officielles, où par quelqu'un témoins de crime, qui aura besoin de prouver l’authenticité des preuves qu'il apporte. Cette certification pourrait potentiellement éviter certains problème, mais il me semble illusoire de penser qu'elle aurait un champ d'action efficace en dehors de certains cas particuliers.

Pour prendre deux cas concret où cela ne fonctionnerai pas :
- Un proche ou collaborateur d'un politicien divulgue (au public, à la justice, ou les deux) une vidéo authentique de ce politicien entrain de tremper dans une affaire de corruption ; il y a fort à parier que cette vidéo ne sera pas certifiée, le politicien n'ayant eu aucun intérêt et ce qu'elle soit certifiée, au cas où elle serait divulguée un jour. Dans ce cas, la justice aura de grandes difficultés à se positionner.
- Quelqu'un est victime d'une divulgation non-consentie d'une vidéo intime authentique ; elle ne sera probablement pas certifiée, la victime ayant tout intérêt a pouvoir soit prétexter que cette vidéo serait soi-disant fausse, soit assumer et dire que cette vidéo est authentique, mais afin que les détails de la vidéo (date, heure, lieu...) n'y apparaissent pas.

La "solution" serait donc de rendre cette certification obligatoire : sauf que dans ce cas, on tomberait vite dans un système de surveillance de masse, où il serait possible de remonter la vie de chaque personne, simplement en accédant a ses photos/vidéos/enregistrements personnel, ce qui conduisant inexorablement à un état policier autoritaire, voir totalitaire, et à une recrudescence inédite des vols de données, et des fins de chantage et/ou de doxing. Même une certification générée "par défaut" pourrait suffire à créer un système totalitaire de surveillance, la suppression de cette certification devenant de facto suspecte pour des autorités.

De manière plus générale, je pense que si les deepfake posent clairement un problème, et continueront d'en poser un, ils ne sont qu'un problème minime en comparaison des risques que pose l’utilisation de l'IA à des fins de surveillance de masse, et de censure automatisée. L'utilisation de l'IA, générative ou non, par des structures possédant du pouvoir (états, armées, services secret, entreprises...), m’apparaît infiniment plus dangereuse que n'importe quel abus commis par des individus à l'ide de l'IA. C'est clairement là-dessus que les lanceurs d'alertes spécialiste du sujet devraient alerter en priorité. Je pense que trop se focaliser sur des problèmes secondaire risques même d'occulter le problème principal ; pire, certains moyens de résolution de ces problèmes secondaire peuvent être une aggravation du problème principal (surveillance des médias, public voir privés, détection automatique du contenu via IA...)

Un autre souci, est que Bores lui-même avoue que son idée technologique ne suffirait pas à chaque cas :

Citation Envoyé par Alex Bores
L'IA est devenue un enjeu politique et économique central, les deepfakes suscitant une inquiétude particulière dans le cadre des élections, de la fraude financière et du harcèlement en ligne. Selon Bores, certains des cas les plus préjudiciables concernent des images à caractère sexuel non consensuelles, notamment celles ciblant des filles d'âge scolaire, où même un faux clairement identifié comme tel peut avoir des conséquences dans le monde réel. Il a fait valoir que les lois interdisant la pornographie deepfake au niveau des États, notamment à New York, risquent désormais d'être limitées par une nouvelle initiative fédérale visant à préempter les règles des États en matière d'IA.
Cela m’amène a un dernier point :

Je pense que les technologies d'IA générative n'en sont qu'à leur balbutiement, et qu'il serait très difficile, pour ne pas dire impossible d'arrêter cette marche. Il m’apparaît donc fort probable qu'un nouveau rapport aux médias, à la preuve, a la satire, et à la valeur du média, émerge. Peut-être un changement aussi important que celui ayant eu lieu part l'arrivée de l'imprimerie.
Un rapport où un trucage évident n'aura plus de valeur offensante pour la victime, car la banalité de la chose rendra le trucage risible.
Un nouveau rapport à la preuve, où il ne sera plus possible de prouver quoi que ce soit par des médias. Hors l'espèce humaine ne peut pas sombrer dans un chaos de violence généralisée, sans justice, elle sera contrainte de s'adapter, et de bâtir un nouveau rapport à la confiance, une plus grande honnêteté de par la plus grande difficulté de prouver certains délits ou crimes.
Dans le même temps, la possibilité de faire chanter quelqu'un avec des images disparaîtra inexorablement, ce qui enlèvera de la culture une catégorie très large de violences.
2  0