En 2025, Meta a écoulé 7 millions de paires de lunettes Ray-Ban et Oakley équipées d'IA — trois fois plus que l'année précédente. Un succès commercial inédit qui transforme un gadget de niche en produit grand public. Mais cette adoption massive soulève une question que ni les partenariats avec Prada ni les LED de signalement ne peuvent résoudre : comment protéger la vie privée de ceux qui ne portent pas ces lunettes ?Les chiffres publiés par EssilorLuxottica, fabricant des deux lignes de produits, sont éloquents : 7 millions de paires de lunettes connectées vendues en 2025, contre 2 millions en 2024. Une croissance de 250 % en un an, sur un marché que beaucoup considéraient encore expérimental il y a dix-huit mois. La gamme s'articule aujourd'hui autour de deux références principales : les Ray-Ban Meta Gen 2 à 459 dollars et le modèle Display à 799 dollars, ce dernier intégrant un affichage tête haute et le Meta Neural Band pour le contrôle gestuel.
À titre de comparaison, Google Glass n'a jamais dépassé quelques dizaines de milliers d'unités avant d'être retiré du marché en 2015 sous le poids d'un backlash massif. Meta a réussi là où son prédécesseur avait échoué : rendre la caméra portable socialement acceptable en la dissimulant dans un design ordinaire. Les lunettes ressemblent à des montures standard — et c'est précisément ce qui change la donne par rapport à Google Glass, dont la physionomie trahissait immédiatement la fonction de surveillance. C'est aussi précisément le problème.
L'effet de masse : des millions de porteurs, des centaines de millions de sujets involontaires
La logique est purement arithmétique. Chaque porteur interagit quotidiennement avec des dizaines, voire des centaines de personnes. Aucune d'entre elles n'a consenti à être filmée, identifiée ou à voir ses données potentiellement traitées par l'IA embarquée. À 7 millions d'unités, l'échelle dépasse largement le stade de l'expérimentation marginale.
Les premiers incidents documentés illustrent concrètement ce glissement. En octobre 2025, l'Université de San Francisco a émis une alerte officielle après le signalement d'un homme portant des Ray-Ban Meta qui approchait des femmes sur le campus et enregistrait des interactions susceptibles d'être partagées sur les réseaux sociaux. La même période a vu émerger des témoignages plus banals mais tout aussi révélateurs : une femme new-yorkaise a découvert que son esthéticienne portait les lunettes pendant leur séance — la praticienne a prétendu que la batterie était vide, mais l'expérience a laissé sa cliente profondément mal à l'aise. Des établissements comme le College Board et certaines compagnies de croisière ont d'ores et déjà prononcé des interdictions partielles.
Ces incidents ne sont que la partie visible d'un problème structurel. Les données vocales déclenchées par la formule d'activation sont stockées dans le cloud par défaut et peuvent être conservées jusqu'à un an pour améliorer les systèmes d'IA, sans possibilité d'opt-out autre que la suppression manuelle. Quant aux enregistrements vidéo, ils restent en apparence sur le téléphone du porteur — mais tombent sous les politiques IA ou cloud dès qu'ils sont partagés vers ces services. Une architecture de collecte que Meta qualifie de transparente, mais que ses critiques jugent délibérément opaque pour l'utilisateur lambda.
I-XRAY : la démonstration qui a tout changé
L'alerte la plus retentissante n'est pas venue d'une fuite d'entreprise, mais d'un laboratoire universitaire. En octobre 2024, deux étudiants de Harvard, AnhPhu Nguyen et Caine Ardayfio, ont présenté un projet baptisé I-XRAY qui a durablement reconfiguré le débat. En combinant la capacité de streaming live des Ray-Ban Meta vers Instagram avec le moteur de recherche inversée de visages PimEyes et un modèle de langage, ils ont construit un système capable d'identifier un inconnu dans la rue en moins d'une minute — nom, adresse, numéro de téléphone, membres de la famille.
Le protocole est aussi simple que glaçant : le porteur des lunettes filme un passant, un programme de vision par ordinateur extrait le visage du flux vidéo, l'envoie à PimEyes qui retourne des URL correspondant à ce visage sur Internet, et un LLM analyse le texte associé à ces pages pour en déduire l'identité complète. « En utilisant nos lunettes, nous avons réussi à identifier des dizaines de personnes, dont des étudiants de Harvard, sans qu'elles s'en doutent une seconde », a déclaré Ardayfio.
Les deux étudiants ont délibérément refusé de publier leur code, conscients de son potentiel de nuisance. Ils reconnaissent toutefois qu'il ne s'agit que d'une question de temps avant que quelqu'un ne développe une version open source et la diffuse publiquement. La démonstration a suffi à poser le diagnostic : I-XRAY n'assemblait que des technologies librement disponibles. La barrière n'est pas technique — elle est réglementaire. Et sur ce terrain, le vide est abyssal.
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

