Et si nous n’étions qu’aux prémices du potentiel d’Internet ? Et si, par l’analyse des millions d’informations qui y transitent chaque minute, nous étions capable d’anticiper et de prédire le futur ? Et si je vous disais que les tests en cours ont permis de donner avec précision les 5 meilleurs scores d’une émission télévisée, et ce avant même sa diffusion ?

voyante

Madame Irma likes your status

Ne vous méprenez pas, les acteurs de cette innovation ne vivent pas dans une roulotte et ne trustent pas les dernières pages de vos programmes télé pour y placer leurs publicités. Google, Facebook, Yahoo, Amazon, tous ces géants reposent sur des modèles mathématiques complexes permettant d’organiser les données de millions d’utilisateurs : les algorithmes. David de Rotschild, économiste chez Microsoft Research, a créé avec son équipe un algorithme prédictif qui, se nourrissant de multitudes de sources, annonçait 5 jours avant l’Eurovision les 5 pays qui figureraient en tête du concours télévisuel ! Comment est-ce possible ? Cette technologie, appelée « Big Data », repose sur l’analyse de quatre types de données :

  • Les tendances observées sur les moteurs de recherche
  • Les sondages d’opinion
  • Les paris enregistrés sur les sites spécialisés
  • Les commentaires des réseaux sociaux (principalement Twitter)

Passez tous ces éléments dans l’algorithme, et vous obtiendrez avec précision les résultats avec plusieurs jours d’avance ! Il a ainsi été démontré que la performance en direct des candidats n’avait eu que très peu d’influence sur les résultats finaux.

Dans le même registre, l’étude des écoutes de Spotify et des recherches Shazam a permis de prédire avec précision les vainqueurs des Grammy Awards 2012… Connaître le vainqueur de l’Eurovision ou des Grammy Awards, peu d’intérêt c’est vrai ! Une application de cet algorithme sur la Bourse, ça vous parle plus ?

Miroir, Miroir, dis-moi où est le Dow Jones…

Deux sources d’informations permettent d’anticiper les mouvements de la Bourse américaine avec des taux d’exactitudes impressionnants. Twitter est en effet considéré comme un reflet très précis de l’état d’esprit de la société à un instant T. Ainsi, l’étude de près de 10 millions de tweets a permis de différencier l’humeur positive ou négative, et d’affiner en les classant dans 6 catégories : calme, vif, sûr, amical, vital et heureux. L’étude de la proportion de tweets exprimant le « calme » a permis de prédire les mouvements de la Bourse de New York avec un taux d’exactitude de 87,6% et une marge d’erreur de seulement 6% !

New_York_Stock_Exchange_by_daytonight

Wikipédia passe aussi régulièrement sous la moulinette de l’algorithme prédictif. L’étude menée par des universitaires britanniques et américains repose sur la fréquence de visite des pages des sociétés cotées en Bourse. Le raisonnement est contre-intuitif : ne sortez pas le champagne si la fréquentation de votre page Wikipédia explose par rapport à la semaine précédente car cela signifie que la valeur de votre action va chuter dans très peu de temps ! Le comportement des investisseurs est en effet très logique : avant de vendre, ils cherchent à s’informer, puis, passent à l’action. Fonder sa stratégie sur la fréquentation des pages Wikipédia permettrait théoriquement d’augmenter ses profits de 141%, une belle affaire ! Gagner toujours plus d’argent grâce aux mathématiciens, voilà de quoi choquer les moins capitalistes d’entre vous. Mais rassurez-vous, l’algorithme prédictif est aussi utilisé à des fins moins financières : l’aide humanitaire et la défense.

L’effet papillon

« Un simple battement d’ailes d’ un papillon peut-il déclencher une tornade à l’autre bout du monde ? ». C’est en tout cas le postulat de base de l’équipe de chercheurs qui s’est mis en tête d’étudier plus de 20 ans d’archives du New York Times afin de déceler si les mêmes causes étaient à l’origine des mêmes effets. Et les résultats sont encore une fois bluffants ! Au niveau sanitaire, les catastrophes naturelles que sont les tempêtes et les périodes de sécheresse précèdent systématiquement une recrudescence du choléra.

Pas convaincu ? L’analyse des données relatives au maintien de l’ordre a prouvé que toute protestation, émeute ou pic de violence est précédée de la mort d’un innocent dans un quartier à forte population immigrée. L’efficacité de la prédiction est avérée, car les avertissements issus de ces tests se sont révélés pertinents dans 70 à 90% des cas. Microsoft cherche désormais à améliorer la fiabilité en croisant les données de base avec des données de type géographiques, démographiques et économiques… Les associations humanitaires sont les premiers clients de cette innovation, et ont ainsi sensiblement amélioré leur réactivité face à des situations de crise.

Pentagone

Dans un registre encore plus sécuritaire, le Pentagone américain finance à hauteur de 500 000 dollars par an un vaste programme d’algorithme visant à exploiter les données transitant par Twitter. Ce programme, intitulé D2D (Data To Décision) s’étalera sur 10 ans et permettra d’anticiper les évènements pouvant impacter la sécurité américaine, en étudiant par exemple le mode opératoire des terroristes.

Rappelons que c’est ce même Pentagone qui est à l’origine d’Internet, créé à la base pour maintenir les télécommunications en cas d’attaque. Soyons donc sûr qu’un tel investissement est tout sauf un coup d’épée dans l’eau, et que nous sommes devant ce qui pourrait être une révolution de nos modes de pensée. La méthode semble en effet applicable à n’importe quel sujet présentant deux critères : une source de donnée et une variation dans le temps. Quelques idées en vrac ? Le succès d’un film au box office, les élections présidentielles, la ponctualité des transports…

Quant à savoir quand pourrons-nous disposer de ce type de technologie à titre personnel, seul l’avenir nous le dira et pour l’instant, on ne peut pas l’anticiper !