360 Journal
  Juin 2005
     

Web 360Journal


 
Souscrire à la newsletter
(Hébergée par YourMailingListProvider.com)
 
 
     
   
   
   
   
   
   
   

 

 

 

 
Weblog Commenting by HaloScan.com
 
 
   
  Partagez cette adresse avec un ami, conseillez lui : www.360journal.com.
 
 
Légitimité des contenus sur Internet : une vertueuse incertitude

 
 
   


Par Laurent Kretzschmar

Sites officiels ou non officiels, blogs, forums, chat, opinions, rumeurs, site de contrefaçon… Internet a mis en exergue d'une façon inédite les dimensions critiques d'une information : véracité, fiabilité et rapidité d'accès. A l'heure de la surinformation, la vérification de la fiabilité d'une information devient problématique. Le Drudge Report a ainsi été capable de révéler des affaires politiques réelles (Monica Lewinski), mais aussi de publier les histoires les plus fantasques.

Qui croire ?

La numérisation des contenus et leur mise en réseau via Internet est moins une révolution qu'une accélération d'un phénomène existant. La surcharge d'information, la multiplication des sources et la facilité de copie ne font que rendre plus pressants des dilemmes classiques. La légitimité d'un contenu provient de sa source et de la confiance qui lui est accordée. Les organismes de presse ont un capital de confiance gagné sur le long terme grâce à leur indépendance et à leur objectivité. Cela ne change pas sur Internet, mais peut être remis en question très rapidement. L'extrême facilité de création d'un blog ne rend pas tous les blogueurs égaux. La popularité et la confiance s'obtiennent au fil du temps, de l'intérêt et de la valeur des informations qu'ils fournissent.

La prolifération des sources d'information sur Internet a donc eu pour conséquence de créer plusieurs niveaux de confiance dans l'information. Une opinion sur un forum ou sur un chat est difficile à vérifier, faute de notoriété de l'auteur et faute de temps pour recouper l'information. Nombreux sont les utilisateurs qui attendent qu'une agence de presse confirme une nouvelle d'abord annoncée sur un blog.

Plutôt qu'une régression d'Internet et de son utilisation, ce sont de nouvelles logiques de confiance plus tolérantes à l'incertitude - et de nouvelles pratiques de régulation et de gouvernance - qui sont appelées à émerger.

Entre mensonge, tromperie ou simples erreurs, le doute face à ces informations augmente et la confiance dans les contenus sur internet se réduit en proportion. Le coût du spam est estimé à 22 milliards de dollars. Contenu, tant bien que mal, par les bonnes pratiques, la mise en place de filtres et les systèmes de blocage, il n'en demeure pas moins une menace récurrente sur les communications électroniques.

D'autres risques menacent les échanges sur Internet. Le dernier avatar en date est le phishing, consistant à envoyer des emails déguisés en messages officiels, venant par exemple d'une banque, pointant vers une page web à l'apparence " professionnelle " demandant les coordonnées ou le numéro de compte de l'utilisateur. Ce récent phénomène et ses dérivés tels que le pharming (se servir de l'internet pour introduire un logiciel malveillant dans l'ordinateur de l'usager) ou le wi-phishing (réseau Wi-Fi gratuit trompeur dont le but est de récupérer des données personnelles) font peser une menace d'une plus grande ampleur encore : la perte potentielle de confiance dans les contenus sur Internet.

Pourtant, beaucoup des peurs internautes s'avèrent phantasmatiques. Une étude récente a ainsi montré que la principale crainte des consommateurs (entrer son numéro de carte bancaire sur une page sécurisée) est largement injustifiée et que le commerce électronique est un mode d'achat plutôt sûr.

Le monde pré-numérique n'a jamais été l'âge d'or de la confiance et de la sécurité. Un document frappé d'un tampon officiel ou une signature peut être falsifié et la manipulation de l'information a toujours existé qu'il s'agisse de fraude, de propagande ou de censure.

Ce n'est donc pas une question de technique. Les logiciels et codes de sécurité continueront à se développer, avec par exemple l'introduction de données biométriques pour la reconnaissance d'identité, mais leur croissance sera parallèle à celle des techniques de piraterie mises en œuvre pour les contourner. La bataille est sans fin. Mais le doute constructif en est le versant positif.

Un cas révélateur : Wikipedia

L'apparition de nouveaux formats montre d'ailleurs l'émergence de nouveaux modes de régulation et de gouvernance qui à leur tour influencent les pratiques dans les milieux " briques et mortier ".

Le format Wiki où toutes les pages web peuvent être modifiées par tous les lecteurs et à tout moment fait disparaître la notion d'auteur et de source et crée de nouvelles formes de légitimité. La très populaire encyclopédie en ligne Wikipedia est ainsi bien différente de nos encyclopédies classiques où des universitaires de renom rédigent des articles experts sous l'égide de grandes signatures éditoriales (Universalis ou Britannica).

En l'absence de ligne éditoriale, Wikipedia est un récipient vide où tout le monde, expert ou non, connu ou anonyme, peut rédiger un article et modifier les articles existants. En théorie, chacun ajoute son savoir personnel pour créer une grande base de savoir collectif, mais rien ne semble garantir que le contenu soit exact, objectif ou même honnête. Pourtant Wikipedia est un site très populaire et bénéficiant donc d'une certaine légitimité. Celle-ci dérive d'un mélange de masse critique et d'un humanisme optimiste. On y observe très peu de vandalisme et toute tentative de sabotage délibéré est immédiatement corrigée par un des très nombreux membres actifs de la communauté d'utilisateurs. Il y a toujours massivement plus de personnes honnêtes et savantes que de " génies malfaisants ".

Wikipedia est loin d'être l'encyclopédie parfaite, gratuite, à jour, objective et exhaustive dont on pourrait rêver. Et ses nombreuses limites sont toutes révélatrices d'une nouvelle approche de la légitimité des contenus. Son principe de masse critique par exemple lui interdit de couvrir des sujets pointus où trop peu d'experts peuvent protéger la véracité et la stabilité des articles. Sans compter que les meilleurs experts ne sont pas nécessairement des utilisateurs de Wikipedia. Cette encyclopédie est donc condamnée à une forme de vulgarisation des savoirs, car il est difficile d'accorder sa confiance à une information trop spécialisée qui ne peut être confirmée par le plus grand nombre. Pour cela il faut se tourner vers des sources de légitimité traditionnelle comme les universités.

Ce sont encore les sujets de débat sur Wikipedia qui sont le plus intéressants, quand la majorité des utilisateurs se divisent sur la nature du texte, condamnant ainsi toute objectivité à l'article. Les articles sur le conflit israélo-palestinien en sont un exemple. Le principe de " point de vue neutre " est impossible à respecter tant l'histoire et son interprétation sont liées. Au lieu de retirer de la publication ce type d'articles, Wikipedia s'assure que des avertissements sur l'existence d'une " dispute sur la véracité des faits " sont affichés sur de telles pages. L'encyclopédie n'est ainsi ni partie prenante, ni censeur, mais expose au grand jour les débats, les questions ouvertes ou les sujets de controverses. Il est même possible de trouver les listes de ces sujets.

De nouveaux usages

Cette meilleure acceptation de l'incertitude est déterminante. La confiance attribuée à une source n'est jamais instantanée et ne peut se construire qu'au fil du temps et de l'usage, au travers de discussions et de débats - quelque chose qui est devenu avec Internet un principe établi.

La nouvelle stratégie de spécialisation de Google est une conséquence de ces nouveaux usages sur internet. Au départ récipient vide ouvert à tous les contenus, légitimes ou non, Google ne cesse de peaufiner des filtres (anti-pornographiques pour commencer) et de créer des sous-sites spécialisés permettant de ne rechercher que des sources connues, réputées et légitimes : qu'il s'agisse de sources universitaires (scholar.google.com), de presse (news.google.com), gouvernementales (www.google.com/unclesam) ou encore de son grand projet de numérisation des contenus des plus grandes bibliothèques anglo-saxonnes (print.google.com). Le fardeau de la légitimité revient donc aux auteurs et sources de publications qui doivent non seulement lutter contre les usurpations mais surtout composer avec le jeu démocratique d'Internet où les utilisateurs choisissent plus facilement et librement leur sources et où les questions ouvertes doivent être reconnues comme telles.

 
 
 
Liens


Pour en savoir plus

Anti Phishing Working Group

The Drudge Report

Section "Confiance et sécurité" - InternetActu

Rapport de l'Observatoire de la cyberconsommation

Définition du spam - Wikipedia

Le coût du spam - Silicon.fr

Quel coût représente le SPAM pour une entreprise ? - HEC Genève/e-sens

Wikipedia et ses nouveaux modes de gouvernance

Neutral Point Of View (NPOV) dispute

Factual Accuracy dispute

Stratégie de diversification et de spécialisation de Google

Google News

Google Scholar

Google Print

Google Unclesam


© 2000-2006 The 360 Journal. All Rights Reserved. The 360 Journal Team