Sept millions de paires vendues en 2025, une LED quasi invisible, des employés sous-traitants qui visionnent vos images en temps réel et un projet de reconnaissance faciale baptisé « Name Tag » : les lunettes connectées de Meta cristallisent toutes les tensions entre innovation technologique et respect de la vie privée. Enquête sur un produit grand public qui transforme silencieusement son porteur en capteur ambulant.Les chiffres donnent le vertige. En 2025, EssilorLuxottica — le géant franco-italien de l'optique et partenaire industriel de Meta — a écoulé sept millions de paires de lunettes connectées Ray-Ban Meta et Oakley Meta, soit plus de trois fois le cumul des deux années précédentes. Pour l'entreprise, c'est une « année historique » marquant le passage, selon ses propres termes, d'une entreprise d'optique à un « groupe leader dans la medtech et le big data ». Le chiffre d'affaires annuel 2025 a atteint 28,5 milliards d'euros, en hausse de plus de 11 % à taux de change constants.
Ces lunettes ne ressemblent presque à rien d'autre qu'à de banales Ray-Ban Wayfarer — et c'est précisément le problème. Dotées de caméras, de microphones et d'écouteurs intégrés dans les branches, elles permettent de filmer, photographier et diffuser en direct sur Instagram ou Facebook, et d'interagir avec l'assistant vocal « Hey Meta » pour obtenir des informations sur ce que la caméra capte. La deuxième génération, commercialisée en 2025, intègre même un écran dans le verre droit affichant notifications et informations contextuelles. À l'horizon 2026, Meta vise une capacité de production de dix millions de paires par an.
L'essor de ces dispositifs est d'autant plus significatif qu'il s'accompagne d'une banalisation sociale rapide. Contrairement aux Google Glass de 2013, qui avaient provoqué un fort rejet public — leurs porteurs avaient été surnommés « Glassholes » —, les lunettes Meta ont réussi à se fondre dans le paysage. Elles s'appuient sur un design calqué sur un modèle iconique de lunettes de soleil, leur adoption par des créateurs de contenu et leur positionnement marketing comme accessoire de mode ayant estompé les réticences. Ce camouflage stylistique, loin d'être accidentel, est au cœur de leur succès commercial — et au cœur du problème éthique qu'elles posent.
La LED fantôme : un voyant que personne ne voit
Meta a intégré une petite LED sur la monture censée indiquer aux personnes environnantes que la caméra est active. Cette mesure se veut être le garde-fou technique garantissant une transparence minimale. Sauf que, comme l'a démontré une enquête publiée par le quotidien suédois Svenska Dagbladet (SvD) et largement relayée, ce voyant lumineux est quasi invisible en plein jour, imperceptible à plusieurs mètres de distance. Dans les espaces professionnels, des travailleurs interrogés sous couvert d'anonymat décrivent la capacité de surveillance que confèrent ces lunettes : « Vous ne savez pas s'ils enregistrent ou non ». Des forums en ligne montrent que certains utilisateurs masquent délibérément ce voyant avec un simple morceau d'adhésif opaque, supprimant l'unique signal visible.
Les cas d'usages abusifs sont documentés et se multiplient. Des porteurs filment dans des salles de bain, des cabinets médicaux et des tribunaux. La tendance des propriétaires à porter ces lunettes dans les salons de massage, en diffusant parfois en direct sur Instagram à destination de milliers de spectateurs, est devenue un motif récurrent de plaintes. En octobre 2025, l'Université de San Francisco a émis une mise en garde officielle après des signalements de captation non consentie de femmes dans l'enceinte du campus. La RTBF a recensé, entre décembre 2025 et février 2026, 44 femmes victimes de ce type de filmage caché pour 25 hommes — et dans un cas espagnol similaire, 100 % des victimes étaient des femmes.
Des employés humains qui voient tout
Au-delà de la question du voyant, l'enquête du SvD soulève un angle bien plus préoccupant encore : le contenu capturé par les lunettes est régulièrement visionné par des travailleurs humains, en sous-traitance, chargés d'annoter les données pour entraîner les modèles d'IA de Meta. Ces annotateurs ont accès à des images qui peuvent inclure des scènes très intimes — des personnes se déshabillant, des situations médicales, des moments captés dans des espaces que leurs occupants croyaient protégés.
Ce n'est pas une pratique isolée dans le secteur. Amazon, Apple et Google ont tous été épinglés pour des pratiques similaires avec leurs assistants vocaux. Mais dans le cas des lunettes connectées, la dimension visuelle ajoute une couche de vulnérabilité inédite. Un enregistrement vocal accidentel déclenché par une fausse reconnaissance du mot-clé est déjà problématique ; une image captée dans une salle de bain ou un cabinet médical l'est bien davantage.
En avril 2025, Meta a révisé sa politique de confidentialité pour les Ray-Ban Meta, en activant par défaut les fonctionnalités d'IA incluant la caméra. L'entreprise assure que les photos et vidéos restent stockées localement sur le téléphone de l'utilisateur et ne servent à l'entraînement de l'IA qu'en cas de partage explicite vers les services cloud. Mais les enregistrements vocaux déclenchés par « Hey Meta » sont, eux, stockés dans le cloud par défaut et peuvent être conservés jusqu'à un an.
Les algorithmes d'annotation génèrent des erreurs — et c'est là qu'intervient le regard humain des sous-traitants, parfois sans que les frontières entre consentement et exploitation des données ne soient clairement établies.
[video...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

