IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les startups technologiques vendent à l'armée et à la police des dispositifs avancés de surveillance et d'espionnage,
Malgré les risques d'utilisation abusive et de violation de la vie privée

Le , par Mathis Lucas

37PARTAGES

5  0 
La police américaine serait devenue l'un des plus gros clients des entreprises de la Silicon Valley développant des outils de surveillance. Les rapports signalent que les forces de l'ordre américaines déploient de plus en plus des technologies d'espionnage tels que les drones-espions. Une nouvelle enquête de la Northwestern Pritzker School of Law estime qu'environ un quart des services de police les utilisent aujourd'hui. Les entreprises technologiques qui fournissent ces dispositifs de surveillance seraient financées par des sociétés de capital-risque mondialement connues. Les experts tirent la sonnette d'alarme sur la montée en puissance de la surveillance gouvernementale.

La vente à l'État prend de l'ampleur parmi les entreprises et les startups technologiques de la Silicon Valley. Elles vendent davantage d'équipements de renseignement, de surveillance et d'espionnage à l'armée et aux forces de l'ordre. Une situation qui, selon les analystes et les groupes de défense des droits de l'homme, renforce le contrôle des États et du gouvernement fédéral américains sur les populations. Ces équipements incluent des drones de surveillances dotés d'une IA, des robots autonomes patrouilleurs, des programmes de reconnaissance faciale, etc. Bref, l'armée et la police américaines sont devenues des clients incontournables de la Silicon Valley.

Selon les analystes, cela peut sembler étrange que la Silicon Valley aide les forces de l'ordre américaines à espionner les fauteurs de troubles. Soutenir la surveillance de l'État s'accorde mal avec les valeurs libertaires défendues par plusieurs sommités américaines de la technologie qui ont grandi dans les premiers jours de l'Internet. Bien que la Silicon Valley ait commencé par fournir des puces à l'industrie militaire américaine dans les années 1950, ses relations avec l'État se sont détériorées au fur et à mesure que son attention passait des missiles autoguidés au commerce électronique et aux iPhone. Mais les choses semblent avoir pris une autre tournure.


Par exemple, parmi les fournisseurs de la police de New York figure Skydio, une entreprise de la Silicon Valley qui utilise l'IA pour rendre les drones faciles à piloter et permettre aux policiers de les contrôler avec très peu de formation. Skydio est soutenue par Andreessen Horowitz, un géant du capital-risque, et par Accel, l'un de ses pairs. La police de New York achète également à Brinc, un fabricant de drones équipés de caméras de vision nocturne capables de voir à travers les vitres des fenêtres. Parmi les investisseurs de Brinc, on trouve Sam Altman, PDG d'OpenAI, la startup à l'origine de ChatGPT, et Index Ventures, une grosse société de capital-risque.

Les analystes tentent d'expliquer cette nouvelle tendance par le fait que l'industrie technologique cherche de nouvelles frontières de croissance. En effet, les entreprises font face à de nombreux défis macroéconomiques depuis quelques années, une situation fortement exacerbée par la dernière crise sanitaire. « Les pouvoirs publics sont les derniers survivants de la révolution logicielle », a expliqué Katherine Boyle, associée générale chez Andreessen Horowitz, dans un billet de blogue publié l'année dernière. Chez Andreessen Horowitz, Boyle est chargée d'investir dans des entreprises qui promeuvent le dynamisme américain, y compris la sécurité nationale.

Au début de l'année, Andreessen Horowitz a lancé un fonds appelé "American Dynamism" dans le but d'investir dans les industries liées au gouvernement. Toutefois, la résurgence de la vente à l'État n'implique pas seulement les startups ; les Big Tech rivalisent aussi pour décrocher des contrats lucratifs avec le gouvernement fédéral. Fin 2022, le Pentagone a réparti un contrat de 9 milliards de dollars pour la fourniture de services cloud à Alphabet, Amazon, Oracle et Microsoft. Selon un rapport de The Economist, en 2022, 11 % de la valeur des contrats fédéraux attribués aux entreprises concernaient des logiciels et des technologies, contre 8 % il y a dix ans.

Le rapport souligne que la surveillance est une activité gouvernementale en cours de modernisation. Les fournisseurs traditionnels tels qu'Axon Enterprise et Motorola Solutions sont rejoints par des startups qui proposent des technologies plus sophistiquées. La première d'entre elles est le drone. Ce secteur est dominé par Dji, un fabricant chinois qui a fourni l'année dernière près des trois quarts de tous les drones vendus aux États-Unis. Mais cela pourrait changer, car des restrictions ont été mises en place pour limiter les importations de certains équipements chinois vers les États-Unis en raison de préoccupations en matière de sécurité nationale.

Tout cela constitue une aubaine pour des entreprises comme Skydio et Brinc. D'autres types de dispositifs d'espionnage aériens sont également en cours d'élaboration. La startup Skydweller développe un avion autonome fonctionnant à l'énergie solaire. S'il fonctionne, il n'aura pas besoin d'atterrir pour se recharger. Selon l'entreprise, cela permettrait "une surveillance persistante". En plus, les satellites constituent une deuxième technologie en plein essor. SpaceX, la société de fusées d'Elon Musk, et ses imitateurs, dont Blue Origne et OneWeb, ont contribué à réduire le prix de l'envoi d'objets dans l'espace à environ un dixième de ce qu'il était il y a vingt ans.

L'orbite terrestre basse s'est ainsi couverte de satellites, dont, selon le rapport, environ un huitième sert à l'observation de la planète. La société de donnée PitchBook estime qu'il y a aujourd'hui près de 200 entreprises qui vendent des images satellitaires. BlackSky, l'une des entreprises qui vendent des images satellitaires, affirme pouvoir prendre une image d'un point de la Terre toutes les heures environ. Le rapport indique que l'imagerie satellitaire a beaucoup évolué au cours des dix dernières années, depuis que la police de l'Oregon a utilisé des images de Google Earth pour découvrir une culture illégale de marijuana dans l'arrière-cour d'un habitant.


Par ailleurs, les entreprises technologiques vendent également des outils pour aider les forces de l'ordre à mieux utiliser la profusion d'images et d'informations qu'elles ont désormais à portée de main. Ambient.ai, une autre startup soutenue par Andreessen Horowitz, a mis au point une technologie qui surveille automatiquement les caméras à la recherche d'activités suspectes. Palantir, une société d'exploration de données qui s'est injectée dans le complexe militaro-industriel américain, vend ses outils à des services tels que la police de Los Angeles. Enfin, les logiciels de reconnaissance faciale seraient désormais plus largement utilisés aux États-Unis.

Un dixième environ des forces de police américaines auraient accès à cette technologie. Un rapport publié en septembre par le "Government Accountability Office" des États-Unis a révélé que six organismes fédéraux chargés de l'application de la loi, dont le FBI et les services secrets, effectuaient ensemble en moyenne 69 recherches par reconnaissance faciale chaque jour. Parmi les principaux fournisseurs cités figurait Clearview AI, une entreprise soutenue par Peter Thiel, cofondateur de PayPal et investisseur en capital-risque. Les analystes estiment que les capacités de surveillance et d'espionnage pourraient bientôt être renforcées par l'IA générative.

Will Marshall, patron de Planet Labs, une entreprise spécialisée dans les satellites, explique que "l'analyse d'images satellites à l'aide de cette technologie permettra de rechercher des objets sur la Terre, tout comme Google permet de rechercher des informations sur le Web". Cela devrait permettre aux entreprises d'engranger encore plus de bénéfices au détriment de la vie privée des Américains. Fusus, une startup qui vend des logiciels de surveillance de la criminalité en temps réel, affirme que ses ventes aux forces de l'ordre américaines - il y aurait plus 18 000 services de police aux États-Unis - ont augmenté de plus de 300 % l'année dernière.

En 2017, la startup Flock Safety a lancé un lecteur de plaques d'immatriculation qui serait désormais utilisé dans au moins 47 États américains. D'après Paul Kwan de General Catalyst, une autre société de capital-risque, les relations avec les acheteurs gouvernementaux, une fois établies, ont tendance à être durables. Cela se fait en dépit des critiques et des appels à l'arrêt des livraisons de technologies avancées de surveillance aux forces de l'ordre et aux gouvernements. Ces appels ont trouvé un écho chez certaines entreprises. Ainsi, en 2020, Amazon, Microsoft et IBM ont renoncé à fournir des services de reconnaissance faciale aux forces de l'ordre.

Les entreprises ont évoqué des préoccupations liées à la protection de la vie privée. Cependant, les analystes estiment que la vente de technologies de surveillance est lucrative et devrait donc persister, voire s'accentuer à l'avenir. Cette tendance devrait s'observer aux États-Unis, en Europe et ailleurs dans le monde. Par exemple, en France, le gouvernement souhaite expérimenter à grande échelle des caméras de surveillance dotées d'IA lors des JO de Paris en 2024 pour détecter en temps réel les comportements suspects. Cependant, la proposition a suscité un tollé, les critiques craignant que les caméras restent après les Jeux olympiques de 2024.

L'entreprise suédoise SmartEye vend une technologie de suivi des yeux pour surveiller l'humeur des pilotes. SmartEye vend également ses produits à des agences de publicité. Les fonds spéculatifs utilisent l'imagerie satellitaire pour compter les voitures dans les parkings des détaillants, dans l'espoir d'évaluer leurs revenus avant la publication des informations sur le marché. « La tendance au renforcement de la surveillance, qu'elle soit le fait de Big Brother ou des grandes entreprises, ne semble pas près de s'inverser », indique le rapport.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des liens entre la Silicon Valley et la police et le gouvernement américain ?
Selon vous, pourquoi de plus en plus d'entreprises et de startups vendent des technologies de surveillance ?
L'utilisation des technologies de surveillance et d'espionnage est-elle justifiée ? Si oui, dans quelles conditions ?
Quelles sont les préoccupations que pose l'utilisation de ces technologies ?

Voir aussi

Le gouvernement français souhaite expérimenter à grande échelle des caméras de surveillance dotées d'IA lors des JO de Paris en 2024 pour détecter en temps réel les comportements suspects

France : le gouvernement met en place la surveillance des réseaux sociaux par le fisc, visant à collecter automatiquement certaines données, afin de repérer d'éventuels fraudeurs

La ville de New York déploie des robots autonomes patrouilleurs pour lutter contre la criminalité et maintenir l'ordre dans le métro, un projet qui fait l'objet de controverses

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de bmayesky
Membre régulier https://www.developpez.com
Le 20/07/2024 à 20:47
Ces gouvernants espagnols ne sont pas responsables des statistiques ni du logiciel, ils sont responsables de son utilisation. Ils sont responsables de chaque erreur du logiciel, notamment devant les évidences de certains cas. Pire encore, ils sont responsable d'utiliser le logiciel pour diminuer le nombre d'intervention policière au lieu de l'utiliser pour sauver des femmes.

Et ils en sont complètement responsable parce que il est connu des lycéens que les statistiques sont valables à une infinité de tirages et que ce mêmes statistiques sont totalement incapables de déterminer le prochain tirage, c'est à dire la prochaine femme qui va se faire tuer, que le logiciel dise qu'il y a risque ou que le logiciel dise qu'il n'y a pas de risque.

Pourquoi tant de haine ? Parce que le choix le plus malfaisant du gouvernement espagnol est d'utiliser sciemment ce logiciel pour introduire un biais dans la décision des policiers et diminuer ses frais en sachant pertinemment qu'il va provoquer des morts.
Pourquoi ? Tout simplement, parce que ce logiciel pouvait être utilisé pour protéger et uniquement protéger les femmes.
Comment ? En paramétrant le logiciel pour qu'il signale uniquement les cas de risques très élevés. Ainsi il aurait permis au policier qui prend la décision finale de remettre son jugement en cause dans les cas qu'il n'aurait pas détecté et alors sauver des femmes. Le choix d'ouvrir ce logiciel pour qu'il puisse indiquer au policier que son bon sens doit être ignoré sans quoi il devra s'en expliquer est une incitation à minimiser les risques réels encouru.

En plus, n'importe quel informaticien sait qu'un programme ne fait que ce qu'il est censé faire et ne peut rien faire d'autre. Et nous savons tous que la vie ne rentre pas dans les cases à cocher d'un questionnaire. Et donc toutes les femmes qui ne rentrent pas dans les critères établis par le gouvernement espagnol (avec tous les biais de la terre, l'obsolescence des critères selon l'évolution de la société, l 'absence totale de psychologie des victimes, ...) sont condamnées à être considérées comme à risque négligeables et ne pas être protégées par leur gouvernement et leur police. Si ce ne sont pas là des meurtres prémédités par ceux qui ont décidé de mettre en place ce programme, je ne sais pas ce que c'est.
8  0 
Avatar de eddy72
Membre régulier https://www.developpez.com
Le 21/07/2024 à 12:44
C'est pas nous, c'est l'ordinateur !!!
Classique non ?
6  0 
Avatar de pierre-y
Membre chevronné https://www.developpez.com
Le 21/07/2024 à 14:18
"Non madame vous n'êtes pas en train de vous faite pas violer, l'algo est formel la dessus alors arrêté de crier merci". Dernièrement une femme c'est fait condamné en France pour avoir utilisé de la lacrymo contre un gas (un migrant) qui voulait la violer justement... est ce que c'est plus intelligent que le debut de mon propos?
5  2 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 22/07/2024 à 9:04
Citation Envoyé par Stéphane le calme Voir le message
Pour évaluer les risques, la victime est priée de remplir un questionnaire de 35 points, rempli par les agents lors de l'entretien avec la victime, qui génère ensuite un score de risque allant de « négligeable » à « extrême »
[...]
Après que l'Espagne a adopté une loi en 2004 pour lutter contre la violence à l'égard des femmes, le gouvernement a rassemblé des experts en statistiques, en psychologie et dans d'autres domaines pour trouver une réponse. Leur objectif était de créer un modèle statistique permettant d'identifier les femmes les plus exposées à la violence et d'élaborer une réponse standardisée pour les protéger.
Il y a une chose qui m'échappe, la police écoute une potentielle victime pendant plusieurs minutes "librement et sans l’interrompre" puis donne un questionnaire pour prendre de conclusions sur base d'un algorithme?
Mais les minutes libres et sans interruption sont elles finalement prises en compte. Un paquet de choses doivent être perçues qu'il est potentiellement difficile de factualiser mais qui reste des indice des risques d'aggravation de la situation.

Quand les gens comprendront que quand on parle de statistique on parle d'un modèle.
Modèle qui a potentiellement des scénarios où il n'est pas représentatif voir où il l'est. Si le modèle dit "la femme à 90% de chances d'être dans une situation à risque négligeable" ce qu'il faut aussi comprendre est qu'elle a "10% de chance d'être dans un situation à risque significatif".
D'autant plus que dans le cas de violence conjugale la paramètre principal n'est pas la victime mais l'agresseur qui n'est pas interrogé.
Le système attribue un score à chaque victime : risque négligeable, risque faible, risque moyen, risque élevé ou risque extrême. Un score élevé entraîne des patrouilles de police et le suivi des mouvements de l'agresseur. Dans les cas extrêmes, la police assurerait une surveillance 24 heures sur 24. Les personnes ayant obtenu un score moins élevé recevraient moins de ressources, principalement des appels de suivi.
C'est intéressant que tout tourne autour de la victime.
On enquête pas sur l'agresseur?
On évalue pas sa dangerosité?
L'Espagne compte aujourd'hui 92 000 cas actifs de victimes de violences de genre qui ont été évalués par VioGén, la plupart d'entre elles - 83 % - étant classées comme courant peu de risques d'être à nouveau agressées par leur agresseur. Pourtant, environ 8 % des femmes que l'algorithme a classées comme présentant un risque négligeable et 14 % comme présentant un risque faible ont déclaré avoir été à nouveau agressées, selon le ministère espagnol de l'intérieur, qui supervise le système.
C'est à dire qu'il est factualisé que le logiciel n'est pas si fiable.
Que fait on de ces 8% et 14%? On se contente de constater l'erreur et de s'excuser quand elles reviennent avec un cocard (au mieux)?
VioGén a été créé pour être un outil impartial permettant à la police, dont les ressources sont limitées
C'est normal que les ressources soient limitée, mais sont elles suffisantes pour gérer ces situations?
Si la réponse est non alors ce n'est ni le logiciel ni les agents qu'il faut attaquer mais le "système" qui ne met pas les moyens nécessaires.
Parce que s'il manque de personnel alors les priorités doivent être gérées et les "sacrifices" inévitables.
La technologie devait permettre de gagner en efficacité en aidant la police à donner la priorité aux cas les plus urgents
Quand on parle de vies humaines l'efficacité ne devrait pas être de priorisé les cas les plus urgents mais d'accélérer la capacité de réaction.
Pas pour décider qui doit être protégé et qui ne doit pas l'être.
Dans une déclaration, le ministère de l'intérieur a défendu VioGén et a déclaré que le gouvernement était « le premier à faire son autocritique » lorsque des erreurs se produisaient. Il a déclaré que les homicides étaient si rares qu'il était difficile de les prédire avec précision, mais a ajouté qu'il s'agissait d'un « fait incontestable » que VioGén avait contribué à réduire la violence à l'égard des femmes.
Et c'est là toute l'inefficacité de l'IA aujourd'hui, elle ne sait pas gérer les exceptions, les évènements rares.
Pourtant quand on évalue un risque on utilise deux paramètres :
la probabilité, dont les cas critiques sont bien gérés par l'IA
La gravité, dont les cas critiques semblent mal gérés par l'IA actuelle.
(On peut y ajouter la maitrise/prévisibilité/capacité de réaction)
Depuis 2007, environ 0,03 % des 814 000 victimes de violence de genre signalées en Espagne ont été tuées après avoir été évaluées par VioGén, a indiqué le ministère. Au cours de cette période, les agressions répétées sont passées de 40 % à environ 15 % de tous les cas de violence à l'égard des femmes, selon les chiffres du gouvernement.
Comment noyer le poisson?
Oui le logiciel est efficace pour les "cas standard", et c'est bien.
Mais a-t-il diminué les cas graves, qui en cas de probabilité particulièrement faible peut se calculer différemment qu'en pourcentage, pourmillionnage etc par exemple en durée entre les évènements.
La technologie peut-elle vraiment prévenir la violence conjugale ? Pensez-vous que les algorithmes comme VioGén sont efficaces pour protéger les victimes de violence domestique ? Quelles autres approches technologiques pourraient être envisagées ?
Oui, la technologie traite visiblement assez facilement les cas communs (qui sont connus, documentés, etc).
Mais elle gère beaucoup moins facilement les exceptions.
Et à un moment il faut sortir de la technologie pour y mettre de l'humain et je parle autant de capacité d'écoute de la police que de temps disponibles des agents.
L’importance du contexte social : est-il important, selon vous, de prendre en compte le contexte social et familial lors de l’évaluation des risques ? Comment les facteurs sociaux peuvent-ils influencer la sécurité des victimes ?
Comment ne pas les prendre en compte?
Si la victime est socialement dépendante (finance, handicap, isolée) de son agresseur alors la situation est d'autant plus à risque.
Les limites des algorithmes : discutez des limites de VioGén et des autres algorithmes similaires. Quelles améliorations pourraient être apportées pour renforcer leur efficacité ?
Pour moi la question n°1 n'est pas d'améliorer les limites mais de les connaitre, de les accepter et de les compenser. Une fois qu'on a bouché les trous on peut envisager d'essayer de les réduire.
Ces trous riment parfois avec des morts. On ne peut pas se contenter de solutions à long terme...
La responsabilité des autorités : comment pouvons-nous garantir que les évaluations de risques sont correctement utilisées ?
En ayant suffisamment de gens pour les traiter.
En formant les gens qui doivent les traiter?
L'humain doit toujours rester au centre.
De façon plus générale, que pensez-vous des algorithmes prédictifs ?
Qu'ils sont efficaces pour le commun.
Qu'ils sont nuls pour les exceptions, les évènements rares etc
Et que si nous parions trop sur eux alors nous diminuerons les marges de sécurités pour optimiser le nominal mais les que exceptions seront moins couvertes et augmenterons en fréquence et en gravité. Ce qui rime avec plus de morts.
Nous allons diminuer les hôpitaux et augmenter les morques. Est ce vraiment ce que nous voulons pour notre société?
2  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 24/07/2024 à 17:26
[IRONIE]
Manque plus que le questionnaire de satisfaction
[/IRONIE]
1  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 22/07/2024 à 9:50
Citation Envoyé par pierre-y Voir le message
"Non madame vous n'êtes pas en train de vous faite pas violer, l'algo est formel la dessus alors arrêté de crier merci". Dernièrement une femme c'est fait condamné en France pour avoir utilisé de la lacrymo contre un gas (un migrant) qui voulait la violer justement... est ce que c'est plus intelligent que le debut de mon propos?
Quand on tient des propos de ce genre, la moindre des choses c'est de les sourcer.
2  2