IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Guerre contre les deepfakes : Alex Bores suggère d'authentifier le vrai plutôt que traquer le faux, l'ex de Palantir devenu politicien propose de s'appuyer sur une logique héritée du HTTPS

Le , par Stéphane le calme

0PARTAGES

6  0 
Alex Bores, membre démocrate de l'Assemblée de New York actuellement candidat au Congrès dans la 12e circonscription de Manhattan, affirme que l'une des utilisations les plus alarmantes de l'intelligence artificielle, à savoir les deepfakes très réalistes, n'est pas tant une crise insoluble qu'un échec à mettre en œuvre une solution existante.

« Pouvons-nous nous passionner pour les deepfakes ? Car il s'agit d'un problème soluble et je pense que la plupart des gens passent à côté », a déclaré Bores lors d'un récent épisode du podcast Odd Lots de Bloomberg, animé par Joe Weisenthal et Tracy Alloway.

Plutôt que d'apprendre aux gens à repérer les anomalies visuelles dans les images ou les enregistrements audio falsifiés, Bores estime que les décideurs politiques et l'industrie technologique devraient s'appuyer sur une approche cryptographique bien établie, similaire à celle qui a rendu possible la banque en ligne dans les années 1990. À l'époque, les sceptiques doutaient que les consommateurs puissent un jour faire confiance aux transactions financières sur Internet. L'adoption généralisée du protocole HTTPS, qui utilise des certificats numériques pour vérifier l'authenticité d'un site web, a changé la donne.


La montée en puissance des deepfakes alimente une inquiétude diffuse mais profonde dans l’espace public. Vidéos truquées de responsables politiques, enregistrements audio fabriqués de toutes pièces, images virales impossibles à distinguer du réel : l’intelligence artificielle a fait basculer la manipulation visuelle et sonore dans une ère industrielle. Pourtant, pour Alex Bores, ancien cadre de Palantir devenu responsable politique, cette crise n’a rien d’une fatalité technologique. Elle serait avant tout le symptôme d’un retard collectif dans l’adoption d’outils pourtant bien connus de l’infrastructure du Web.

Son propos tranche avec le discours dominant, souvent alarmiste, sur une IA supposée incontrôlable. Selon lui, les deepfakes constituent un problème solvable, non pas par davantage de censure ou par une surveillance généralisée, mais par un retour à une logique simple : restaurer la confiance technique dans les contenus numériques, comme le Web l’a déjà fait il y a plusieurs décennies avec la sécurité des sites Internet.

Revenir à l’esprit d’HTTPS : quand le Web a appris à se faire confiance

Pour comprendre le raisonnement d’Alex Bores, il faut se replonger dans l’histoire du Web moderne. À la fin des années 1990 et au début des années 2000, Internet souffrait d’un déficit massif de confiance. Les internautes n’avaient aucun moyen simple de savoir si un site était authentique ou s’il s’agissait d’une imitation frauduleuse. La généralisation d’HTTPS, fondée sur des certificats numériques délivrés par des autorités reconnues, a progressivement changé la donne.

Ce mécanisme n’empêchait pas toutes les fraudes, mais il introduisait un principe fondamental : l’authenticité vérifiable. Un site pouvait prouver cryptographiquement qu’il était bien celui qu’il prétendait être. Pour Bores, la crise des deepfakes est comparable à cette période de pré-HTTPS. Les contenus circulent massivement, mais sans métadonnées fiables permettant d’identifier leur origine ou leur intégrité.

« C'était un problème soluble », a déclaré Bores. « Cette technique fonctionne essentiellement pour les images, les vidéos et les fichiers audio. »

L’authenticité du contenu plutôt que la chasse aux faux

L’un des points clés de son analyse consiste à déplacer le débat. Il ne s’agit pas, selon lui, de détecter chaque faux après coup, une tâche de plus en plus complexe à mesure que les modèles génératifs progressent. Il s’agit plutôt de certifier le vrai dès la création.

Dans cette approche, une image, une vidéo ou un fichier audio serait accompagné d’un ensemble de métadonnées cryptographiquement signées. Ces informations permettraient de savoir qui a produit le contenu, avec quel outil, à quel moment et selon quelles transformations éventuelles. Un contenu non signé ne serait pas nécessairement illégal ou interdit, mais il serait immédiatement identifiable comme non authentifié, exactement comme un site sans certificat HTTPS déclenche aujourd’hui des avertissements dans les navigateurs.


Des standards ouverts plutôt que des solutions propriétaires

Alex Bores insiste sur un point souvent négligé dans les débats technologiques : la question des standards. L’efficacité d’HTTPS ne vient pas d’une innovation secrète ou d’un produit propriétaire, mais d’un protocole ouvert, gratuit et adopté à très grande échelle.

Transposé au problème des deepfakes, ce raisonnement conduit à privilégier des standards ouverts de provenance des contenus, capables d’être intégrés aussi bien par les plateformes que par les créateurs, les médias ou les institutions publiques. L’objectif n’est pas de confier la vérité à quelques acteurs dominants, mais de bâtir une infrastructure commune de confiance, interopérable et vérifiable par tous.

Bores a évoqué une « norme libre et open source pour les métadonnées » connue sous le nom de C2PA, abréviation de Coalition for Content Provenance and Authenticity (Coalition pour la provenance et l'authenticité du contenu), qui permet aux créateurs et aux plateformes d'associer des informations d'identification inviolables aux fichiers. Cette norme permet d'enregistrer de manière cryptographique si un contenu a été capturé sur un appareil réel, généré par l'IA, et comment il a été modifié au fil du temps.

« Le défi réside dans le fait que le créateur doit l'ajouter, et il faut donc parvenir à ce que cela devienne l'option par défaut », a déclaré Bores.

Selon lui, l'objectif est de parvenir à un monde où la plupart des médias légitimes comportent ce type de données de provenance, et « si vous voyez une image qui ne comporte pas cette preuve cryptographique, vous devriez vous montrer sceptique ».

Bores a déclaré que grâce au passage du protocole HTTP au protocole HTTPS, les consommateurs savent désormais instinctivement se méfier d'un site bancaire qui ne dispose pas d'une connexion sécurisée. « Ce serait comme aller sur le site web de votre banque et ne charger que le protocole HTTP, n'est-ce pas ? Vous seriez immédiatement méfiant, mais vous pourriez tout de même produire les images. »

Une responsabilité partagée entre plateformes, États et créateurs

Cette vision implique une redéfinition des responsabilités. Les plateformes ne peuvent plus se contenter de modérer a posteriori des contenus devenus viraux. Elles devraient intégrer nativement des mécanismes de vérification de provenance et les rendre visibles pour les utilisateurs.

Les États, de leur côté, auraient un rôle d’incitation plutôt que de contrôle direct. Favoriser l’adoption de standards ouverts, exiger leur usage pour les communications officielles ou les campagnes électorales, soutenir leur intégration dans les outils grand public : autant de leviers possibles sans basculer dans une régulation liberticide.

Quant aux créateurs et aux médias, ils gagneraient un outil puissant pour se distinguer dans un écosystème saturé de contenus douteux. La certification deviendrait un avantage réputationnel, un signal de crédibilité dans un paysage informationnel fragmenté.

Les limites d’une solution pourtant pragmatique

Alex Bores ne nie pas que cette approche comporte des limites. Tous les contenus authentiques ne seront pas nécessairement signés, notamment dans les contextes militants, citoyens ou journalistiques sensibles. De plus, un contenu certifié peut rester trompeur dans...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !