IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le DOGE d'Elon Musk prévoit un hackathon pour créer une « méga API » pour faciliter l'accès aux données de l'IRS aux fournisseurs de services cloud,
Ce qui suscite des préoccupations en matière de sécurité

Le , par Mathis Lucas

34PARTAGES

5  0 
Les plans du DOGE d'Elon Musk visant à réécrire le code COBOL de l'administration de la sécurité sociale (SSA) suscitent déjà de nombreuses préoccupations. L'initiative est controversée, car elle pourrait mettre en péril l'intégrité du système et les prestations dont dépendent des dizaines de millions d'Américains. Malgré la polémique, le DOGE prévoit désormais d'organiser un hackathon axé sur la création d'une « méga API » qui permettra d'accéder aux données des contribuables. L'agence affirme que le projet permettra d'améliorer l'efficacité du système et de lutter contre la fraude, mais il inquiète les spécialistes et soulève des questions en matière de sécurité.

Deux employés du DOGE sont à la manette : Sam Corcos et Gavin Kliger. Sam Corcos est cofondateur et PDG de Levels, une startup spécialisée dans les technologies de la santé qui a des liens avec la société SpaceX d'Elon Musk. Gavin Kliger, quant à lui, a étudié à l'UC Berkeley jusqu'en 2020 et a travaillé dans la société d'IA Databricks avant de rejoindre le DOGE récemment en tant que conseiller spécial du directeur de l'Office of Personnel Management.

L'hackathon est prévu pour la semaine prochaine. Le but est de créer une « méga API » unique pour l'accès aux données de l'Internal Revenue Service (IRS). L'API permettra aux fournisseurs de services cloud d'accéder facilement aux données de l'IRS. Ces données comprennent, par exemple, les noms des contribuables, les adresses, les numéros de sécurité sociale, les déclarations de revenus, les informations sur l'emploi... Mais des inquiétudes demeurent.


Selon un rapport de Wired sur le sujet, l'API sera utilisée pour déplacer les données vers une plateforme cloud, potentiellement une plateforme tierce, qui servirait de « centre de lecture de tous les systèmes de l'IRS », ce qui signifie que toute personne y ayant accès pourrait consulter et éventuellement manipuler toutes les données de l'IRS en un seul endroit. Les plans du DOGE d'Elon Musk sont controversés. Et les employés de l'IRS tirent la sonnette d'alarme.

« Il s'agit en fait d'une porte ouverte contrôlée par Musk pour toutes les informations les plus sensibles des Américains, sans aucune des règles qui protègent normalement ces données », aurait déclaré à Wired un employé anonyme de l'IRS. Il tire la sonnette d'alarme sur les risques de ce projet.

Le DOGE d'Elon Musk a déjà réduit et brûlé des projets de modernisation dans d'autres agences, les remplaçant par des équipes plus petites et des délais plus serrés. À l'administration de la sécurité sociale, les représentants du DOGE prévoient de transférer toutes les données de l'agence des anciens langages de programmation comme le COBOL vers quelque chose comme Java. Toutefois, l'initiative met en péril de l'intégrité et la stabilité du système.

Un calendrier qui fait craindre un travail bâclé avec des conséquences graves

De nombreux experts s'interrogent sur la sécurité d'un tel projet. Une méga API pourrait potentiellement permettre à une personne y ayant accès d'exporter toutes les données de l'IRS vers les systèmes de son choix, y compris vers des entités privées. Si la personne avait également accès à d'autres ensembles de données interopérables dans des agences gouvernementales distinctes, elle pourrait les comparer aux données de l'IRS pour ses propres besoins.

Le DOGE vise à terminer le travail sur l'API en 30 jours. Mais un employé de l'IRS a déclaré que « ce délai n'est pas techniquement possible et qu'il paralyserait l'agence ». Les systèmes de l'IRS ont tous fait l'objet d'un processus d'approbation fastidieux pour garantir la sécurité des données des contribuables. Selon des sources interrogées dans le cadre du rapport, les systèmes qui les remplaceront devront probablement faire l'objet d'un examen approfondi.

Les employés de l'IRS craignent que les opérateurs du DOGE ne disposent pas des compétences nécessaires pour traiter les données de l'IRS. « Schématiser ces données et les comprendre prendrait des années. Le simple fait de réfléchir aux données prendrait beaucoup de temps, car ces personnes n'ont aucune expérience, non seulement du gouvernement, mais aussi de l'IRS, des impôts ou de quoi que ce soit d'autre », a déclaré un employé de l'IRS.

L'effort de consolidation des données s'aligne sur un décret signé par le président Donald Trump du 20 mars, qui a demandé aux agences d'éliminer les silos d'informations. Alors que le décret vise à lutter contre la fraude et le gaspillage, il pourrait également menacer la vie privée en consolidant les données personnelles hébergées sur différents systèmes dans un référentiel central. Le projet du DOGE expose les contribuables à des violations de données.

Le 1er mars, le Washington Post a rapporté que Sam Corcos avait poussé l'IRS à lever les restrictions qu'elle avait imposées à l'accès de Gavin Kliger à ses systèmes et avait proposé un accord pour partager les données de l'IRS avec l'ensemble du gouvernement américain. Une lettre adressée le 14 mars à l'IRS par le sénateur Ron Wyden et d'autres suggère que l'agence n'a pas cédé, puisqu'elle fait l'éloge de son « rejet légitime » des demandes du DOGE.

La lettre cite ensuite un autre article du Washington Post suggérant que « les fonctionnaires de l'administration Trump envisagent d'utiliser les données de l'IRS pour alimenter leur campagne de répression de l'immigration et d'efficacité du gouvernement ». Ces allégations ont déclenché un tollé.

Un partenaire connu pour ses activités controversées de collecte de données

Le plan de l’hackathon du DOGE prévoit de rassembler des « douzaines » d'ingénieurs de l'IRS à Washington pour construire l'API. Le DOGE d'Elon Musk devrait s'associer à un fournisseur tiers pour gérer certains aspects du projet. Selon Wired Palantir, une société de logiciels cofondée par Peter Thiel, entrepreneur milliardaire et associé de longue date d'Elon Musk, a été régulièrement citée par les représentants du DOGE comme un fournisseur potentiel.

Palantir est une société connue pour ses vastes travaux de collecte de données, de surveillance gouvernementale et d'analyse. Palantir a été cité dans plusieurs scandales d'abus de données aux États-Unis au cours de la dernière décennie. Palantir a travaillé pour le Pentagone et la CIA en Afghanistan et en Irak. La société d'exploitation de données de Peter Thiel a utilisé les outils de la campagne « War on Terror » à la suite des évènements du 11 septembre.

Palantir serait mêlé au scandale Cambridge Analytica. Il est notamment reproché à Palantir d'avoir participé à l'exploitation des données en envoyant ses propres employés en Grande-Bretagne. Palantir a déclaré que la société à une politique stricte concernant le travail sur les questions politiques, y compris les campagnes, et a montré des courriels dans lesquels il a rejeté la demande de Cambridge Analytica de travailler avec Palantir à plusieurs reprises.

Palantir a également été poursuivi par un leader du marché de l'analyse de données, la société de logiciels I2 inc. Ladite société reprochait à Palantir d'avoir détourné sa propriété intellectuelle par l'interm...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Guesset
Expert confirmé https://www.developpez.com
Le 11/04/2025 à 23:04
Bonjour,

La migration du COBOL vers un autre langage sera aussi difficile pour des questions d'âge.
Les vieilles applications accumulent du code mort. Par exemple, une nouvelle règle s'impose, alors on développe un module pour la prendre en charge, mais on garde l'ancienne règle active pour traiter les dossiers en cours. Normalement, au bout d'un certain temps l'ancienne règle devrait être retirée, mais c'est rarement (jamais ?) fait. Et des scories s'accumulent.
Alors, faire une migration permettrait d'avoir, non pas une nouvelle application, mais une vieille application avec des habits neufs.

En outre, je suis toujours fasciné par notre aptitude à croire à la magie. Aujourd'hui cela s'appelle IA. Tous les outils ont leur intérêt et leur limitations.
L'IA a besoin de modèles construits sur la base de (très) nombreux exemples.
Mais des exemples de migrations COBOL vers C++ ou n'importe quoi, il n'y en pratiquement pas (même le simple accès aux sources COBOL des grosses applications est très protégé).
Donc pas de baguette magique. Et cela malgré la simplification outrancière que je fais en réduisant le problème à un portage entres langages alors que ce serait une migration de tout un écosystème.

Je pense que la solution passera par une duplication croisées des données dans une base actuelle. Puis de commencer des développements par modules autour de cette base. D'abord des fonctionnalités existantes pour vérifier la stabilité comportementale puis, peu à peu, sur de nouveaux modules. Avec un peu de chance, quand la réécriture sera complète, le langage cible sera lui aussi obsolète

Salutations
4  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 11/04/2025 à 17:03
Citation Envoyé par Artemus24 Voir le message
Pourquoi d'avant guerre ? Le COBOL a été créé en 1959 et le premier COBOL que j'ai connu date de la version "68". Depuis, il y a eu beaucoup de progrès fait dans ce langage.
Je ne code pas des monuments d'avant-guerre au marteau-burin, il s'agissait là d'un abus de langage, à l'évidence puisque le langage a été créé en 1959.
Après c'est vrai qu'en un demi-siècle d'existence, le langage a pu évoluer, c'est important de le souligner.

Citation Envoyé par Artemus24 Voir le message
Les mainframes comme IBM fonctionnent pour des langages comme COBOL et ASSEMBLEUR IBM 370 et non sur du 'C/C++' dont les compilateurs ne doivent même pas exister sur ces machines. Il y a aussi la performance en terme de temps d'exécution que l'on ne retrouve sur des mini-ordinateurs qui sont trop lents, ni des problèmes de sécurités comme "RACF" sous IBM.
En effet, les quelques programmes C++ dont nous disposons sont exécutés sur des machines Windows et non sous nos VMS, même si j'ai du mal a comprendre où tu voulais en venir.
Et oui, globalement nous avons fait le même constat:
- Les développeurs juniors ne sont pas intéressés par le langage, mis à part pour toucher une paie commode.
- Les règles métiers accumulées depuis 40 ans sont difficilement traduisibles, surtout quand a l'époque la Qualité n'imposait pas une documentation rigoureuse.
- Les performances du code COBOL sont impressionnantes comparées aux alternatives proposées.

Mais je suis curieux de savoir quelle pertinence tu as vu sur ce point d'avoir été créé avant ou après les guerres ? Tu as l'air d'avoir quelque chose a dire sur les langages d'avant guerre et ça m'intéresserait de savoir.
2  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 11/04/2025 à 18:29
Citation Envoyé par Prox_13
En effet, les quelques programmes C++ dont nous disposons sont exécutés sur des machines Windows et non sous nos VMS, même si j'ai du mal a comprendre où tu voulais en venir.
Remplacer les gros ordinateur IBM VM/CMS JCL TSO ISP qui sont très performants, par des mini ordinateurs en migrant le COBOL vers du 'C/C++', risque d'être problématique du point de vue sécurité mais aussi en performance. C'est selon moi, peu réaliste.

Citation Envoyé par Prox_13
- Les règles métiers accumulées depuis 40 ans sont difficilement traduisibles, surtout quand a l'époque la Qualité n'imposait pas une documentation rigoureuse.
Ce problème existe aussi dans les banques où l'on ne sait plus trop comment fonctionner des pans entiers de codes COBOL car il n'y a pas ou plus de documentations pour expliquer ce que ça fait réellement. Sans compter, le nombre considérable d'intervenant qui ont modifié le code, pas toujours d'une bonne manière. Bonjour pour faire une retroingérierie qui sera extrêment complexe, sans rien apporter de bénéfique au final.

[quote="Prox_13"]-Les performances du code COBOL sont impressionnantes comparées aux alternatives proposées.
Entièrement d'accord. Donc pourquoi changer quelque chose qui fonctionne parfaitement ?

Citation Envoyé par Prox_13
Mais je suis curieux de savoir quelle pertinence tu as vu sur ce point d'avoir été créé avant ou après les guerres ?
J'ai réagit sur le fait que le COBOL n'est pas apparu avant guerre mais en 1959.

Citation Envoyé par Prox_13
Tu as l'air d'avoir quelque chose a dire sur les langages d'avant guerre et ça m'intéresserait de savoir.
J'ai connu la fin des perforatrice et des cartes perforées pour écrire un programme. Le seul point positif est qu'à l'époque, on savait programmer car la place manquait et il fallait jongler dans des techniques qui ont totalement disparu aujourd'hui pour gérer la mémoire. C'est comparable entre la règle à calcule et les approximations que l'on faisaient à l'époque et l'avènement aujourd'hui des calculatrices et des ordinateurs qui nous ont simplifié grandement la tâche. Mais croire que la tâche sera plus simple de remplacer le COBOL est selon moi une erreur.
2  0 
Avatar de JPLAROCHE
Membre expérimenté https://www.developpez.com
Le 01/05/2025 à 19:57
TRÈS TRISTE TOUT ÇA
2  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 02/05/2025 à 13:41
Citation Envoyé par Artemus24 Voir le message
Remplacer les gros ordinateur IBM VM/CMS JCL TSO ISP qui sont très performants, par des mini ordinateurs en migrant le COBOL vers du 'C/C++', risque d'être problématique du point de vue sécurité mais aussi en performance. C'est selon moi, peu réaliste.
Je te rassure, nous sommes entièrement d'accord. Les "quelques programmes" que je cite ne sont pas représentatifs d'un ERP, et la majeure partie du code COBOL est transformé vers un autre langage qui va te donner de bonnes raisons d'être horripilé; Du Python.

Citation Envoyé par Artemus24 Voir le message
Ce problème existe aussi dans les banques où l'on ne sait plus trop comment fonctionner des pans entiers de codes COBOL car il n'y a pas ou plus de documentations pour expliquer ce que ça fait réellement. Sans compter, le nombre considérable d'intervenant qui ont modifié le code, pas toujours d'une bonne manière. Bonjour pour faire une retroingérierie qui sera extrêment complexe, sans rien apporter de bénéfique au final.
Citation Envoyé par Prox_13
-Les performances du code COBOL sont impressionnantes comparées aux alternatives proposées.
Citation Envoyé par Artemus24 Voir le message
Entièrement d'accord. Donc pourquoi changer quelque chose qui fonctionne parfaitement ?
Les deux problèmes se recoupent;

Transcoder des règles de gestion déjà inutiles en COBOL vers un langage peu efficace comme le Python est d'un part chronophage et inefficient en performance (si la procédure est utilisée).
Engager des développeurs COBOL en 2025 est couteux; Continuer de maintenir le systeme dans ce langage c'est l'assurance de tomber en pénurie de budget ou de main d’œuvre.

En tout cas, j'essaie de me mettre dans les bottes des personnes en charge de la migration du système pour y voir ces points, ca ne veut pas dire que je tombe d'accord avec la solution retenue.

Citation Envoyé par Artemus24 Voir le message
J'ai réagit sur le fait que le COBOL n'est pas apparu avant guerre mais en 1959.
J'ai connu la fin des perforatrice et des cartes perforées pour écrire un programme. Le seul point positif est qu'à l'époque, on savait programmer car la place manquait et il fallait jongler dans des techniques qui ont totalement disparu aujourd'hui pour gérer la mémoire. C'est comparable entre la règle à calcule et les approximations que l'on faisaient à l'époque et l'avènement aujourd'hui des calculatrices et des ordinateurs qui nous ont simplifié grandement la tâche. Mais croire que la tâche sera plus simple de remplacer le COBOL est selon moi une erreur.
Je me doutais que tu avais une chose intéressante a dire sous cette remarque. Et encore une fois, nous tombons d'accord sur le fait que le COBOL sera difficilement remplaçable, de surcroit par une couche de Python.
1  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 02/05/2025 à 14:04
J'ai fait mon activité professionnel dans les banques et un peu dans les assurances, au travers des SSII (ESN aujourd'hui). Le principale langage que j'ai utilisé est bien le COBOL que je trouve adapté pour de la gestion.

Citation Envoyé par Prox_13
et la majeure partie du code COBOL est transformé vers un autre langage qui va te donner de bonnes raisons d'être horripilé; Du Python.
Cela va dépendre de ce que l'on fait avec. Une grosse partie du développement en gestion est destiné à faire de la présentation de résultats, comme des états.
Par contre, c'est d'une stupidité si c'est le cœur même du métier car la performance n'est pas au rendez-vous, sans parler de la précision dans les calculs.

Citation Envoyé par Prox_13
Engager des développeurs COBOL en 2025 est couteux; Continuer de maintenir le système dans ce langage c'est l'assurance de tomber en pénurie de budget ou de main d’œuvre.
Je veux bien, mais tout réécrire couterait encore plus cher. Un des aspects que l'on maitrise le moins est justement la maintenance, que ce soit aujourd'hui, ou dans dix ans. Qui dit que le python sera encore d'actualité ? Et par quoi va-t-on le remplacer ? On va se retrouver avec un système totalement hétérogène ou plus personne n'osera mettre son nez dedans de peur de tout casser.
1  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 02/05/2025 à 16:31
Je ne préfère pas réveler le coeur de métier du système, par sécurité, ce serait possible de retrouver qui je suis ou pire, l'entreprise dans laquelle je travaille

Citation Envoyé par Artemus24 Voir le message
Cela va dépendre de ce que l'on fait avec. Une grosse partie du développement en gestion est destiné à faire de la présentation de résultats, comme des états.
Par contre, c'est d'une stupidité si c'est le cœur même du métier car la performance n'est pas au rendez-vous, sans parler de la précision dans les calculs.
Je suis peut-être a côté de la plaque par rapport à mes supérieurs hiérarchiques qui prennent ces décisions sur les technologies a adopter, mais le but est clair comme du cristal de roche :
Il faut remplacer tout code COBOL par du Python, par principe de facilité de maintenance. (Y compris les programmes-clés qui gèrent la majeure partie de la production.)

Personnellement, je serais plus d'avis de garder un cœur COBOL et un interfaçage en Python, ce qui permettrait de profiter des performances de COBOL, et comme tu le soulignes, la souplesse du Python. (Et sa modernité, car faire communiquer du COBOL avec des -nouvelles- technologies web est parfois complexe)

Citation Envoyé par Artemus24 Voir le message
Je veux bien, mais tout réécrire couterait encore plus cher. Un des aspects que l'on maitrise le moins est justement la maintenance, que ce soit aujourd'hui, ou dans dix ans. Qui dit que le python sera encore d'actualité ? Et par quoi va-t-on le remplacer ? On va se retrouver avec un système totalement hétérogène ou plus personne n'osera mettre son nez dedans de peur de tout casser.
Pour les 5 ans qui viennent, nous avons encore la chance d'avoir les anciens druides COBOL pour guider la migration. Après ça, c'est un saut de l'ange sur les questions que tu viens d'aborder.
1  0 
Avatar de Artemus24
Expert éminent sénior https://www.developpez.com
Le 02/05/2025 à 19:22
Il ne faut pas croire qu'il y a un consensus au niveau des entreprises pour le choix des langages. Chacun fait comme il lui plait, d'où une hétérogénéité en France dans une même corps de métier (bancaire, assurance).

Comme je l'ai dit, l'avantage du COBOL repose sur le "COMP-3" que l'on nomme le format "packed decimal" où l'on utilise la représentation DCB (décimal codé binaire). Je ne suis plus très au courant de ce qui se fait dans les langages d'aujourd'hui. Ce n'est plus trop mon centre d'intérêt. Mais avons encore nous ce type de format dans Python ? La précision doit être absolue dans le domaine bancaire, et non faire des arrondis.

Citation Envoyé par Prox_13
Il faut remplacer tout code COBOL par du Python, par principe de facilité de maintenance. (Y compris les programmes-clés qui gèrent la majeure partie de la production.)
Remplacer le COBOL, cela se comprend aisément puisqu'il y a de moins en moins de compétences en ce domaine sur le marché du travail. Ce langage n'est plus enseigné à l'école. Donc, comment résoudre ce problème ? La solution la plus basique est de migrer vers un nouveau langage qui répond aux attentes de coûts de la maintenance. Oui, mais, où trouver la compétence du corps de métier du client ? Cela ne va pas se faire aussi facilement qu'on veut le croire. Il y a surtout le problème de la sécurité, qui est cruciale, mais aussi celui des performances. Je me rappelle que faire tourner sur des mini ordinateurs prenait pour valider une journée, un peu plus de 24 heures. C'était à l'époque dans une phase de mise au point, et les performances n'étaient pas du tout au rendez-vous. C'était il y a un peu plus de vingt-cinq ans.

Il ne faut pas s'engouffrer dans un langage parce qu'on le connait et qu'il existe partout de la compétence. En premier lieu, je trouve idiot d'utiliser un langage interprété au lieu d'un langage compilé. Ensuite, y-a-t-il un quelconque format "packed decimal" dans le langage choisit ? Quelles sont les performances et surtout quelle machine va-t-on faire les traitements de production ? Et la sécurité dans tout ça ?

Je ne parle ici que du cœur du métier, pas de ce qui est à la périphérie, ce qui complexifie le système d'information. On peut aussi se demander si les gros systèmes comme IBM sont encore fait pour ce type de traitement.

Je ne suis plus trop dans le coup, et je ne sais pas ce qui se fait de mieux en ce domaine.
1  0 
Avatar de Guesset
Expert confirmé https://www.developpez.com
Le 02/05/2025 à 22:52
Bonjour,

Les langages interprétés sont très biens pour développer rapidement la glue des appels de fonctions de bibliothèques écrites dans un langage compilé (en général C ou C++). Les utiliser intégralement pour des projets de grandes tailles n'est pas très pertinent car ils sont aussi peu performants qu'ils sont faciles à mettre en œuvre. Ce n'est pas un problème intrinsèque au langage mais au type d'outil qui le transforme en exécutable.

Jadis on utilisait le DCB non pas pour la seule précision mais parce que les processeurs savaient les traiter en natif et que les valeurs restaient lisibles humainement ce qui n'est pas le cas des codes binaires.
Aujourd'hui on utiliserait des types à virgules fixes qui sont en fait des entiers sur lesquels on plaque une virgule à une position donnée. Ce n'est pas lisible humainement mais ce n'est plus un problème. Et la taille est plus économique que le DCB qui utilise 4 bits par décades donc 36 bits pour 1 milliard contre 30 bits en binaire. De plus les temps de calcul sont très rapides ce qui ne serait pas le cas s'il fallait émuler le DCB.

Salutations
1  0 
Avatar de Heaven_4u
Futur Membre du Club https://www.developpez.com
Le 07/05/2025 à 12:10
Est-ce que nous avons la mémoire courte?

On a juste à penser au travail énorme de réécriture de code fait pour le fameux bug de l'an 2000.

Je fairais un cours de refresher dans cette techno main frame et Cobol pour finir ma carriere comme consultant Cobol. Ca serait payant j'en suis sur
1  0