Par Cyril Demaria, Nicolas Humeau et Laurent Kretzschmar
Le mois dernier, le 360 Journal constatait que le coeur de la technologie des moteurs de recherche ne s'améliorait plus de manière visible, l’innovation se situant désormais en marge du produit principal (dans l’interface de recherche, dans la présentation des résultats…). Il est question ce mois-ci d’entrer au cœur de ces innovations, avant d’aborder les ruptures technologiques à plus long terme qui déterminent l’évolution des moteurs de recherche.
Les innovations de court terme : à nouveaux besoins, nouvelles interfaces
Meceoo : la recherche ciblée
Meceoo repose sur la création progressive, au fil des recherches, de « listes d’exclusion » ou de « listes d’inclusion ». Ainsi, deux voies parallèles de ciblage de la recherche sont accessibles : un ciblage en amont, limitant la recherche aux sites présélectionnés (principe de l’inclusion) ; un ciblage en aval, excluant de la recherche certains sites jugés non pertinents (principe de l’exclusion). L’intérêt des deux approches se situe dans un horizon temporel différent. L’inclusion est immédiatement pertinente. En contrepartie, elle n’enclenche pas de processus apprenant en matière de recherche. L’exclusion voit sa pertinence s’accroître au fil des recherches effectuées. Elle nécessite donc plus de temps, mais enclenche pour sa part un processus apprenant.
Quelques suggestions de recherches complémentaires sont proposées.
Ujiko : la recherche organisée
Ujiko permet de créer, en aval d’une recherche seulement, des listes fortement personnalisées (filtrées, organisées par dossiers), aboutissant à de véritables agents de recherche structurés selon :
- la pertinence du site affiché (un cœur permet de le marquer comme pertinent - selon plusieurs degrés -, puis d’y associer une fiche de commentaires ; une poubelle permet au contraire de l’exclure des recherches ultérieures) ;
- le comportement de l’internaute : un clic sur un lien affiché dans les résultats indiquera l’intérêt de l’internaute pour le site en question, qui sera donc positionné en tête des prochaines recherches mobilisant les mêmes mots-clés ;
- le principe de filtrage : plusieurs options permettent de mettre en avant, ou au contraire de masquer, des expressions, des url, ou le contenu d’un site entier.
Des suggestions détaillées de recherches complémentaires sont proposées.
Vivisimo : la recherche catégorisée
Vivisimo, dans sa version grand public, est un méta moteur (à savoir un moteur qui adresse des requêtes à d’autres moteurs) qui classe, selon un algorithme propriétaire, l’information reçue. A sa requête, l’internaute va donc recevoir pour réponse une série de dossiers thématiques, avec une arborescence à trois niveaux.
La suggestion de recherches complémentaires est donc ici poussée à son maximum. On peut ainsi se référer à un dossier dont l’intitulé semble très pertinent, et affiner encore la recherche en son sein. Les résultats distinguent en outre les sources d’informations presse et magazine.
Teoma : la recherche « autorisée »
Teoma a bâti son business model sur sa technologie plus que sur son interface de recherche, qui offre des possibilités relativement classiques (suggestions de recherches complémentaires, recherche avancée permettant d’exclure certains paramètres…). Ceci se traduit par un slogan « Search with authority », qui fait miroir à la manière dont le moteur perçoit le Web. Plutôt qu’utiliser le critère de popularité de manière indifférenciée pour classer les résultats, il segmente cette popularité selon la communauté d’intérêt à laquelle l’internaute est susceptible d’appartenir, compte tenu des termes recherchés. En quelque sorte, il « devine » ce que d’autres moteurs laissent à l’internaute le soin de déterminer : leur champ d’intérêt.
Ceci lui permet, outre les résultats de la recherche, de proposer à l’internaute une liste complémentaire de sites d’intérêt.
D’où la question posée le mois précédent : le nouveau graal de la recherche sur Internet ne serait-il pas la face cachée de la recherche, à savoir les questions que l’on ne sait pas se poser ?
Cas d’étude
Analyse du moteur de recherche d'Amazon - A9.com
|
Le moteur de recherche A9.com, développé par Amazon, préfigure-t-il le moteur de recherche de demain ?
Actuellement, le moteur de recherche intégré au site d'Amazon permet de retrouver un article dont on connaît l'existence, avec plus ou moins de facilité, mais il ne permet pas de faire une requête visant à découvrir un article dont on ignore l'existence.
Plus que reproduire le hasard et la découverte, le véritable enjeu de A9, ou de son équivalent chez les concourrents d'Amazon, réside dans son aptitude à intégrer des informations non factuelles, de s'intéresser aux goûts des internautes et de traiter la question des préférences individuelles. Aujourd'hui, Amazon recommande à ses visiteurs des produits culturels en rapprochant leur panier individuel de celui des autres visiteurs qui ont aussi choisi ce produit.
Il y a donc encore une marge de progression très importante entre ce que fait Amazon et ce qu'attend un visiteur en quête de conseils, d'idées et de découverte. Amazon ne demande pas à ses visiteurs si ses conseils leur ont été utiles, si les choix des autres internautes étaient pertinents, mais surtout si leurs choix personnels les ont satisfaits.
Au-delà de la technique, le véritable défi d'Amazon et de son moteur de recherche A9 consiste à intégrer une véritable démarche de conseil aux clients et d'entrer dans l'ère du marketing intelligent. Face à la très grande diversité de produits culturels accessibles, le client doit être guidé, conseillé et accompagné tout au long de son parcours. A9 relèvera-t-il le défi ? |
Les ruptures de moyen terme : à nouvelles technologies, nouveaux besoins
Ce bref panorama de quelques uns des nouveaux outils de recherche sur le Web amène à se poser des questions plus fondamentales sur la manière dont la technologie pourrait s’interfacer plus étroitement avec les schémas cognitifs humains. Nous allons illustrer ce principe de rupture par trois concepts, qui font aujourd’hui l’objet de toutes les attentions, et qui fondent probablement les business models en réponse aux besoins de demain.
Serendipity
Le dictionnaire Robert & Collins donne la définition suivante de « serendipity » : « don de faire par hasard des découvertes heureuses ». Appliqué à la recherche sur le Web, ce concept vise à développer la capacité experte des moteurs de recherche dans la direction précédemment évoquée, à savoir les « questions que l’on ne sait pas poser ». L’objectif des chercheurs est de parvenir à trouver sans chercher, à approcher autant que possible ce que permet l’intuition humaine, à affiner les algorithmes d’une manière telle que, de certaines combinaisons volontaires, naissent des « découvertes heureuses ».
Reality mining
Ce concept est né des frustrations inhérentes au data mining, à savoir la complexité des recherches et des restitutions parmi des données à divers stades de structuration. Combinée à l’émergence de technologies structurantes pour la représentation de l’environnement numérique (XML, les Web services, la RFID…) cette frustration a amené divers chercheurs à proposer d’effectuer des requêtes sur une représentation plus fidèle de la réalité même de l’environnement de recherche. Le reality mining propose donc de simuler la réalité d’un environnement de recherche, de manière à ce que la requête soit formulée et restituée plus intuitivement.
Les amateurs de littérature pourront par exemple se référer à « Disclosure », de Michaël Crichton, dans lequel le narrateur est amené à tester un prototype d’agent de recherche qui plonge son avatar dans une bibliothèque virtuelle, qu’un appareillage sensoriel lui permet d’explorer (il marche parmi les rayonnages, ouvre des tiroirs, tourne les pages des livres…). Ou encore aux œuvre pionnières de Philippe K. Dick ou William Gibson. Les amateurs de cinéma n’auront qu’à évoquer le scénario même de Matrix, qui place un monde virtuel devant les yeux du héros.
Persuasive technology
Il s’agit d’une dimension parallèle aux précédentes, puisque l’objectif des travaux en matière de persuasive technology est d’étudier comment les bouleversements technologiques décrits jusqu’à présent interagissent avec l’utilisateur. Il ne s’agit plus d’instrumentaliser la technologie en la considérant a priori comme au service d’une finalité dictée par l’homme, mais bien d’admettre qu’une boucle de rétroaction existe. Comme l’outil fait l’ouvrier, la technologie finalisée fait l’homme.
Appliqué à la recherche de contenus numériques, ce concept ouvre des perspectives inédites en matière d’évolution et de co-construction d’un schéma cognitif à mesure qu’une recherche se précise.
L’horizon long terme : … à nouveaux besoins, nouvelles interfaces (bis) ?
Ainsi faisons-nous écho à notre introduction. A long terme, le cercle va se refermer et reboucler sur les interfaces qu’il sera nécessaire de mettre en place pour tirer pleinement parti des opportunités technologiques. Des nouvelles interfaces homme machine verront donc inévitablement le jour. C’est là le champ d’étude du dernier concept que nous aborderons dans le cadre de cet article : les pervasive technologies.
Les technologies « pervasives » (« qui se fait sentir un peu partout », toujours selon le Robert & Collins) sont l’ensemble des nouvelles interfaces homme-machine visant à abolir la notion même d’interface en fusionnant les deux univers. En se diffusant toujours plus en profondeur dans notre environnement quotidien (capteurs placés sur des objets ou insérés sous la peau, utilisation de l’électricité produite par le corps humain pour alimenter diverses extensions en contact avec la peau, etc.), la technologie va faciliter une telle fusion. Encore faudra-t-il que de nouvelles sciences, au croisement des plusieurs disciplines actuelles, émergent.
La problématique de recherche restera au cœur de ce futur pas si lointain, car plus notre environnement sera connecté, plus les combinaisons potentielles seront grandes, plus le besoin de personnalisation dans l’accès à l’information sera prégnant.
|