IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Fondation Héritage prévoit d'« identifier et de cibler » les éditeurs de Wikipédia à l'aide des logiciels de reconnaissance faciale
Et de bases de données piratées

Le , par Bruno

6PARTAGES

3  0 
La controverse entourant les intentions de la Heritage Foundation de cibler les rédacteurs de Wikipédia soulève des questions complexes sur les limites entre la surveillance, la censure et la manipulation de l'information en ligne. Ce projet s'inscrit dans un contexte où des accusations récurrentes de partialité libérale sont adressées à Wikipédia par des groupes conservateurs, tout en reflétant une préoccupation croissante concernant la gestion des informations liées à des sujets sensibles comme le conflit israélo-palestinien.

L'initiative proposée, qui inclut des méthodes invasives telles que l'utilisation de bases de données piratées et de logiciels de reconnaissance faciale, marque un tournant inquiétant. Ces actions ciblées, qui violent les principes fondamentaux d'anonymat des contributeurs, menacent la liberté de pensée et d'expression, valeurs centrales du projet Wikipédia. En réponse, plusieurs voix critiquent cette approche, la qualifiant de tentative de contrôle de l'information sous couvert de lutte contre des contenus jugés problématiques.


Cependant, ce débat s'inscrit dans une problématique plus large : la manipulation des symboles et des idées par des groupes idéologiques extrêmes, qu'ils soient nationalistes, religieux ou politiques. Cette instrumentalisation de l'information alimente des tensions croissantes entre liberté d'expression et contrôle idéologique, soulevant la nécessité de protéger les espaces collaboratifs en ligne contre les influences malveillantes tout en garantissant leur impartialité.


[Wikipedia.org] est le septième domaine le plus visité sur le World Wide Web, avec plus de 4 milliards de visites par mois sur sa vaste collection de plus de 60 millions d'articles dans 329 langues. Lancée le 15 janvier 2001 par Jimmy Wales et Larry Sanger, Wikipedia a évolué au cours des deux dernières décennies pour devenir une ressource d'information indispensable pour des millions d'utilisateurs dans le monde entier. Compte tenu de la portée et de l'influence considérables de Wikipédia, l'exactitude et la neutralité de son contenu sont d'une importance capitale.

Wikipedia, source mondiale où les biais façonnent le savoir collectif

Ces dernières années, l'importance de Wikipédia s'est accrue au-delà de son lectorat humain direct, puisque son contenu est couramment utilisé dans l'apprentissage de grands modèles de langage (LLM) tels que ChatGPT. Par conséquent, tout biais présent dans le contenu de Wikipédia peut être absorbé dans les paramètres des systèmes d'IA contemporains, ce qui risque de perpétuer et d'amplifier ces biais.

Depuis sa création, Wikipédia s'est engagée à fournir un contenu à la fois exact et exempt de préjugés. Cet engagement est souligné par des politiques telles que la vérifiabilité, qui exige que toutes les informations contenues dans Wikipédia proviennent de sources indépendantes et réputées pour leur exactitude factuelle et leur engagement à vérifier les faits. En outre, Wikipédia a une politique de neutralité de point de vue (NPOV), qui exige que les articles soient « écrits avec un ton qui fournit une représentation impartiale, exacte et proportionnelle de toutes les positions incluses dans l'article ».

De nombreux articles de Wikipédia traitent de sujets non controversés et s'appuient sur une multitude d'informations objectives provenant de plusieurs sources, de sorte qu'il est apparemment facile d'atteindre le NPOV. Toutefois, il est beaucoup plus difficile d'atteindre le principe du consentement libre et éclairé dans le cas d'articles portant sur des sujets politiques ou à forte connotation politique, pour lesquels les débats sont souvent subjectifs, difficiles ou controversés, et les sources difficiles à vérifier de manière concluante.

La question de la partialité politique dans Wikipédia a déjà fait l'objet d'études universitaires. En 2012, une étude pionnière utilisant un échantillon de plus de 20 000 entrées de Wikipédia en langue anglaise sur des sujets politiques américains a fourni la première preuve que les articles politiques sur le site penchaient généralement en faveur des démocrates.

Les auteurs ont comparé la fréquence à laquelle les articles de Wikipédia mentionnaient des termes favorisés par les démocrates du Congrès (par exemple, l'impôt sur les successions, la guerre en Irak) par rapport à des termes favorisés par les républicains (par exemple, l'impôt sur la mort, la guerre contre le terrorisme) et ont constaté que les premiers apparaissaient plus fréquemment. Cette étude a été reproduite par ses auteurs en 2018 et a donné des résultats similaires. D'autres recherches portant sur le processus d'arbitrage de Wikipédia pour les articles contestés sur le plan éditorial ont documenté des biais dans les jugements sur les sources et dans l'application, d'une manière qui montre un favoritisme institutionnel pour les points de vue de gauche.

D'autres recherches se sont demandées si le contenu de Wikipédia était biaisé, et dans quel sens. Certains rapports suggèrent qu'au moins une partie du contenu politique de Wikipédia est biaisé en défaveur des politiciens de centre gauche. D'autres recherches suggèrent que le contenu de Wikipédia est généralement exact et de qualité égale à celle des articles de l'Encyclopaedia Britannica.

De manière anecdotique, Larry Sanger, l'un des cofondateurs de Wikipédia, a déclaré publiquement qu'il pensait que le site avait un degré élevé de partialité politique en faveur d'un point de vue de gauche, libéral ou de l'« establishment ». Sanger a accusé Wikipédia d'avoir abandonné sa politique de neutralité et, par conséquent, il considère que Wikipédia n'est pas fiable.

la Foundation Heritage et sa guerre contre les contributeurs de Wikipédia

La Foundation Heritage envisage de cibler les éditeurs bénévoles de Wikipédia qu'elle accuse d'abuser de leur position pour publier des contenus jugés antisémites. Selon des documents obtenus par The Forward, le groupe prévoit d'utiliser des outils controversés, tels que des logiciels de reconnaissance faciale et des bases de données piratées, pour identifier les contributeurs souvent anonymes.

Les motivations précises de cette initiative restent floues, mais elle intervient dans un contexte où certains groupes juifs dénoncent des biais présumés sur Wikipédia concernant Israël, la guerre à Gaza et ses répercussions. En juin, par exemple, un groupe d'éditeurs de Wikipédia a limité l'utilisation de l'Anti-Defamation League (ADL) comme source d'information sur le conflit israélo-palestinien, suscitant l'indignation de militants pro-israéliens. D'autres modifications controversées incluent l'ajout de références à la « colonisation » dans l'entrée dédiée au sionisme.

La Foundation Heritage a présenté son projet à des fondations juives sous le nom de « Projet Esther », une feuille de route visant à combattre l'antisémitisme et l'antisionisme. Parmi les tactiques envisagées figurent la création de faux comptes pour inciter les éditeurs ciblés à divulguer des informations personnelles via des liens malveillants. Toutefois, il reste incertain si ces méthodes ont été mises en œuvre.

Ces initiatives s'inscrivent dans un contexte où Wikipédia fait l'objet de critiques récurrentes pour des accusations de partialité. Des études et articles, comme celui du Los Angeles Jewish Journal intitulé « Wokepedia? », dénoncent des biais anti-israéliens supposés dans la couverture de sujets sensibles. Par ailleurs, des personnalités conservatrices, comme Chaya Raichik, ont critiqué les dépenses de Wikimedia pour des programmes liés à la diversité.

La controverse autour de la campagne de la Heritage Foundation

La campagne de la Foundation Heritage, menée sous la supervision d’un ancien agent du FBI, Tom Olohon, représente une démarche inhabituelle et inquiétante. Des éditeurs expérimentés, comme Tamzin Hadasa Kelly, alertent sur les dangers d’une telle initiative, soulignant qu’elle pourrait nuire gravement à l’anonymat des contributeurs et aux principes fondateurs de Wikipédia. De son côté, la Wikimedia Foundation s'est abstenue de commenter ces accusations.

Enfin, bien que l’ADL ait exprimé son désaccord avec certaines décisions de Wikipédia, elle a également été critiquée pour avoir modifié des articles afin de promouvoir ses recherches, ce qui a suscité des controverses sur l’impartialité des contributeurs affiliés à des organisations. La controverse autour des intentions de la Heritage Foundation d’identifier et de cibler les rédacteurs de Wikipédia illustre des tensions fondamentales entre contrôle de l’information, liberté d’expression et éthique en ligne. Les analystes mettent en lumière plusieurs perspectives qui enrichissent le débat.

Tout d'abord, la suggestion de certains analystes selon laquelle la Heritage Foundation pourrait créer sa propre plateforme ou forker Wikipédia souligne une solution technique légitime. En effet, Wikipédia, en tant que projet collaboratif sous licence libre, permet à quiconque de reproduire et d'adapter son contenu, à condition de respecter les termes de la licence. Cette option, bien que complexe, offre une alternative constructive à la critique ou à la tentative de manipuler l’écosystème existant. Elle souligne aussi l’hypocrisie perçue dans l’approche de la Heritage Foundation, qui choisit de cibler des contributeurs au lieu de développer un espace en ligne reflétant ses valeurs.

Ensuite, les préoccupations liées à la manipulation de l’information et à la surveillance intrusive évoquent des enjeux éthiques majeurs. Les méthodes envisagées, telles que l’utilisation de bases de données piratées ou de faux comptes, sont non seulement illégales dans de nombreux contextes, mais également contraires aux principes de transparence et d’anonymat essentiels à des plateformes comme Wikipédia. Ces actions renforcent la crainte que le véritable objectif ne soit pas une lutte honnête contre l’antisémitisme, mais plutôt une tentative de contrôler la narration sur des sujets sensibles.


Enfin, la discussion sur la symbolique s’inscrit dans une problématique plus large : la récupération d’idées ou de concepts neutres par des idéologies extrêmes. Les contributeurs soulignent à juste titre que la symbolique, comme les couleurs ou les concepts religieux, peut être dévoyée, mais ne doit pas être abandonnée aux extrémistes. Ce point fait écho à l’importance de préserver les valeurs fondamentales des espaces collaboratifs en ligne, même face aux pressions idéologiques.

En somme, cette controverse révèle un besoin urgent de protéger les plateformes ouvertes comme Wikipédia des tentatives de manipulation tout en favorisant un débat constructif. Plutôt que d’adopter des méthodes invasives et potentiellement nuisibles, les parties concernées devraient explorer des moyens éthiques de résoudre leurs différends, notamment par la création de plateformes alternatives ou la participation au débat dans le respect des règles existantes.

Sources : Heritage Foundation, Manhattan Institute, Jewish journal

Et vous ?

Quel est votre avis sur le sujet ?

Les accusations de partialité libérale sur Wikipédia sont-elles fondées ou représentent-elles une tentative de discréditer la plateforme pour des raisons idéologiques ?

Pourquoi la Heritage Foundation ne choisit-elle pas de forker Wikipédia ou de créer sa propre plateforme plutôt que de cibler des contributeurs anonymes ?

Voir aussi :

Wikipedia demande enfin aux grandes entreprises de payer : Wikimedia Enterprise offrira de nouvelles options aux entreprises qui utilisent son contenu, mais Wikipedia et son API resteront gratuits

Meta espère augmenter la précision de Wikipedia et ses 6,5 millions d'articles avec un nouveau modèle d'IA, capable de vérifier automatiquement des centaines de milliers de citations à la fois

Abstract Wikipedia, le projet expérimental de l'encyclopédie en ligne, utilise un langage de description, pour générer du contenu dans d'autres langues

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 13/01/2025 à 8:01
L'article ne précise pas ce qu'est The Heritage Foundation :
https://fr.wikipedia.org/wiki/Heritage_Foundation
0  0