Gestion d'actifs
comment
le big data
influence la finance

Let's go!

Gestion d'actifs
Comment le big
data influence
la finance

Gestion d'actifs
Comment le big data
influence la finance

La finance est à l’aube d’une révolution. Big Data, intelligence artificielle ou encore données alternatives: autant de concepts qui vont profondément transformer la manière d’analyser les données, de gérer les actifs et d’interagir avec son gérant. Explorez ces mutations vers une finance toujours plus «data-driven».

Bienvenue dans l'ère
des données

Bienvenue
dans l'ère
des données

Bienvenue dans l'ère
des données

«L’intelligence artificielle pourrait être l’ultime version de Google. Un moteur de recherche qui pourrait comprendre le web dans sa totalité et comprendre exactement ce que vous voulez.»

Nous sommes en l’an 2000. Quand il prononce ces mots, Larry Page, cofondateur de Google, sait déjà où il veut aller, alors qu’internet est encore balbutiant et le big data un vague concept.


En 2017, le big data est sur toutes les lèvres et l’intelligence artificielle (IA) n’est plus une niche ou de la futurologie: la plupart des secteurs ont développé des projets dans ce domaine. Avec son fameux système d’IA appelé Watson, IBM veut par exemple révolutionner la médecine, en fournissant aux médecins des diagnostics plus précis, résultant d’analyses de données massives et pertinentes.

Révolution en marche dans la finance

Ces mouvements sont aussi en train de transformer la finance. Une course aux données qui n’est pas nouvelle: le secteur échange déjà des quantités phénoménales d’informations et de transactions chaque jour. Mais alors qu’il y a encore une dizaine d’années les données analysées étaient essentiellement en lien direct avec les marchés et les opérations (informations financières, rapports des autorités de régulation, indicateurs boursiers, etc.), aujourd’hui les données sont beaucoup plus variées, très nombreuses, moins structurées et issues de sources multiples.

Les volumes de paiement numérique ne cessent de progresser: leur croissance annuelle dépasse pour la première fois les 10%, pour atteindre 426,3 milliards de transactions en 2015. Soit 100 milliards de plus qu’en 2012.

La révolution en marche dans la finance est stimulée par l’explosion du volume d’informations numérisées: 90% des données dans le monde ont été créées au cours des deux dernières années et seulement moins de 1% serait activement analysé aujourd’hui. La marge de progression est considérable. Pour l’heure, ces données sont parfois accumulées dans ce que l’on appelle des «lacs de données» (data lakes). Mais ces derniers ne sont pas exploitables tant que l’on ne crée pas de systèmes capables de les analyser de manière autonome et évolutive.

L’intelligence artificielle comme accélérateur

C’est là qu’entrent en jeu l’apprentissage automatique (machine learning) et l’intelligence artificielle, qui annoncent un bouleversement profond de l’activité bancaire: l’ère du «data-driven finance» ne fait ainsi que commencer. Et pour cause: d’après une étude menée par le cabinet Gartner et l’Idate, le nombre d’objets connectés dans le monde devrait être compris entre 50 et 80 milliards d’ici à 2020. Ce qui signifie que chaque individu détiendra en moyenne six objets connectés, qui seront autant d’émetteurs de données.

Chaque individu détiendra en moyenne 6 objets connectés en 2020, qui seront autant d’émetteurs données.

Qu’il s’agisse d’améliorer le conseil aux clients en proposant des produits adaptés à leurs habitudes de consommation, d’analyser l’activité des comptes pour prédire un besoin, ou d’utiliser des données alternatives pour améliorer la gestion, l’intelligence artificielle ouvre les portes à une nouvelle finance basée sur les données.

«Les banques sont devenues des sociétés technologiques»

Le plus grand salon financier du monde, Sibos, s'est tenu à Toronto du 16 au 19 octobre 2017 sous le thème «Bulding the Future». Un avenir où la technologie prendra assurément une place croissante dans la finance. Elle en prend également sur le salon lui-même, avec la hausse du nombre de fournisseurs de technologie présents, faisant de Sibos un grand laboratoire d’idées pour imaginer la finance de demain.

Alain Raes, chief executive APAC et EMEA chez Swift.

L’édition 2016 avait réuni plus de 8000 participants à Genève. Chief executive APAC et EMEA chez Swift, société organisatrice du salon qui fournit des services de messagerie standardisée de transfert interbancaire dans le monde entier, Alain Raes nous livre ses impressions sur les tendances fortes du secteur.

Le salon aborde de nombreux thèmes technologiques cette année encore. Quelles sont les préoccupations principales du secteur financier?
Les banques sont devenues des sociétés technologiques, il y a donc naturellement un intérêt grandissant pour ce thème. Au cœur des discussions et des préoccupations, nous retrouvons toujours les questions de compliance, qui restent une priorité. Parallèlement, le sujet de la cybersécurité suscite beaucoup d’intérêt face aux menaces grandissantes. Enfin, l’innovation, en particulier dans les paiements, est très discutée. Au niveau technologique, la blockchain et l’intelligence artificielle sont deux sujets majeurs.

Dans quelle mesure le big data et l’exploitation des données peuvent-ils apporter des solutions à ces préoccupations?
Au-delà du big data, c’est surtout l’intelligence artificielle qui va révolutionner le secteur bancaire. Et cela à plusieurs niveaux. Pour la compliance, par exemple, les institutions financières attendent beaucoup de l’autonomisation des processus, qui sont pour l’heure très longs, complexes et coûteux, surtout pour les institutions actives dans plusieurs dizaines de pays. Les solutions disponibles aujourd’hui sont très pointues, mais génèrent encore trop de résultats «false positive», c’est-à-dire que pour des cas complexes ou évolutifs, l’opération peut être validée par le système alors qu’elle ne devrait pas être effectuée. L’intelligence artificielle et le machine learning devraient apporter des solutions dans ce domaine.

La blockchain est aussi au cœur des discussions pour faciliter la gestion des données et des processus de transaction. Imaginez-vous que cette technologie puisse un jour remplacer certains systèmes comme le réseau Swift?
Du côté de Swift, nous ne voyons pas la blockchain comme un ennemi mais plutôt comme un outil à tester et développer. Il y a bien sûr beaucoup de discussions sur ce thème, mais je pense qu’il ne faut pas uniquement regarder l’aspect technique mais surtout mesurer la valeur ajoutée globale d’un système par rapport à un autre. En l’occurrence, le système Swift, qui appartient aux banques, effectue de manière fiable plus de 25 millions de transactions par jour, pour un coût extrêmement faible. Le système est largement répandu et standardisé, contrairement à la blockchain. De plus, nous jouons un rôle en matière de lutte contre la criminalité, en coopérant avec les autorités. Cela ne veut pas dire que nous ne suivons pas les évolutions des technologies blockchain de près: nous avons d’ailleurs identifié des opérations pour lesquelles elle peut être un atout, lancé des projets et proof of concept, dont nous présenterons d’ailleurs un rapport d’étape sur Sibos.

Vous qui êtes basé à Singapour, constatez-vous une grande différence au niveau technologique entre les institutions européennes et asiatiques, par exemple?
Je ne dirais pas qu’il y a de grandes différences au niveau des grandes banques, les préoccupations sont les mêmes et les technologies comme le big data ou la blockchain sont développées au niveau international. En revanche, sur le terrain des utilisateurs, les différences de taux de pénétration peuvent être considérables. On voit d’ailleurs que les principaux utilisateurs des paiements mobiles se situent dans les pays en croissance et en développement. En Chine, des acteurs comme Alipay ou Tencent ont même capturé presque l’ensemble des paiements domestiques en seulement quelques années! Nous allons d’ailleurs accueillir sur Sibos un nombre record d’institutions financières chinoises, qu’il s’agisse de grandes banques, de places de marché ou de fintechs.

1%

des institutions financières considèrent le big data comme un enjeu critique. Plus de la moitié ont déjà engagé des chief data officers.

Un potentiel
immense à saisir

Un potentiel
immense à saisir

«Les données alternatives sont l’une des tendances les plus transformatrices qui impacteront la recherche dans l’investissement.
Et la transformation ne fait que commencer»

Vos post Facebook ou votre dernier achat sur Amazon détermineront peut-être l’octroi de votre prochain crédit et modifieront les analyses financières des banques, ou même le cours de l’action Walmart. Fiction? Pas du tout. Avec le développement d’internet et des réseaux sociaux, des quantités de données phénoménales deviennent disponibles, et le développement de l’internet des objets va encore accentuer ce mouvement.

Ce qu’il se passe sur internet pendant 1 minute

  • 3,5 millions
    de recherches

  • 452 000
    tweets envoyés

  • 156 millions
    emails envoyés

  • 120
    comptes créés

  • 4,1 millions
    vidéos regardées

  • 751 722
    achats en ligne

  • 342 000
    applications téléchargées

  • 16 millions
    SMS envoyés

  • 15 000
    GIFS envoyés via Messenger

  • 70 017
    heures regardés

  • 900 000
    logins

Ces données sont appelées «alternatives» car elles ne sont pas issues du secteur financier lui-même, ou des sources financières traditionnelles comme les résultats des entreprises ou les statistiques officielles de ventes de véhicules ou du taux d’inflation. Les données alternatives sont déjà utilisées dans les pays émergents depuis plusieurs années. Faute de données bancaires traditionnelles, les institutions financières de ces pays recourent aux données alternatives issues des réseaux sociaux, des systèmes de navigation ou des paiements mobiles pour décider de l’octroi d’un prêt, par exemple. Le système est parfois même plus performant: basé aux Etats-Unis, l’Entrepreneurial Finance Lab déclare par exemple avoir réduit le taux de défaut de remboursement de prêts de plus de 50% grâce à la prise de décision basée sur les données alternatives.

Des images satellites pour analyser les entreprises ou les récoltes

La digitalisation a accéléré l’utilisation de ces données dans les pays développés et toutes les activités financières, participant également à l’essor des fintechs, ces start-up innovantes qui utilisent la technologie pour repenser les services financiers et bancaires. Dans la gestion d’actifs, l’exploitation de ces données représente un grand potentiel. Elles permettent d’affiner les analyses, mais aussi de s’affranchir de certaines échéances: pas besoin d’attendre les résultats trimestriels de telle ou telle entreprise quand on peut les estimer presque en temps réel en exploitant des données alternatives.

Les progrès récents du machine learning (quand un système informatique apprend par lui-même) permettent par exemple à des entreprises d’analyser des millions d’images satellites par jour. Elles peuvent ainsi évaluer la fréquentation des magasins en étudiant le nombre de véhicules stationnés sur leur parking, ou encore prévoir des récoltes de céréales en étudiant les champs de cultures.

Quelles sont les sources de données alternatives?

Les individus
données personnelles issues du web recherches et achats en ligne médias sociaux, articles etc.

Les institutions
les données de transactions et d’échanges, les informations d’entreprises, les données publiques et gouvernementales etc

Les capteurs
données issues des satellites, de puces GPS, de consommation d’énergie etc.

Ne pas se fier uniquement aux données officielles

Le développement des données alternatives est aussi une chance pour les investisseurs, qui ne dépendent plus uniquement de certaines sources de données ou de certaines analyses de tiers. «Les investisseurs ont besoin de ne pas dépendre uniquement des données officielles chinoises pour leurs décisions d’investissement», écrivait Kate Moore, chief equity strategist pour le BlackRock Investment Institute, dans une note d’analyse publiée en février.

La spécialiste cite par exemple l’exploitation des données satellites permettant d’observer en temps réel les marchés immobiliers (au-delà des chiffres officiels), l’analyse de l’utilisation des téléphones mobiles pour suivre l’évolution du tourisme, ou encore l’analyse du commerce en ligne pour estimer les revenus des grandes entreprises. «L’analyse du contenu d’articles et de leur fréquence dans les médias officiels chinois permet aussi d’anticiper la direction que prend la politique par rapport à certains secteurs», ajoute encore Kate Moore.

Mais attention, quantité de données ne rime pas forcément avec qualité. L’une des difficultés majeures de l’utilisation des données alternatives est d’apprendre aux algorithmes à faire la différence entre les données qui permettent de dégager de véritables signaux et le «bruit». Comment analyser le sentiment sur une valeur ou un produit de consommation en passant en revue l’ensemble des commentaires sur Twitter en distinguant les «fake news» ou l’ironie de certains tweets? Si de nombreux progrès restent à faire, l’utilisation de données alternatives sera assurément l’un des grands bouleversements de la finance.

Damien Challet, professeur associé à l’EPFL spécialisé en finance et big data, évoque l’impact du big data dans la finance et l’essor de l’exploitation des données.

Le défi: exploiter
les données

Le défi: exploiter
les données

La marge de progression dans l’exploitation des données est considérable: seules moins de 1% de toutes les données émises dans le monde seraient analysées. Leur valorisation dans la finance ouvre de multiples possibilités, notamment dans la gestion d’actifs. Elle peut intervenir autant au niveau de l’analyse et de la sélection des investissements, dans la construction d’un portefeuille ou même dans l’exécution des ordres. Sur ces trois étapes, l’exploitation des données pourrait permettre d’améliorer les processus et les performances, pour autant que les gérants d’actifs s’adaptent à ce nouveau modèle.

Du big data au smart data

Alors que les analystes ou les gestionnaires sont humainement limités à un champ de suivi de valeurs, la technologie et le big data permettent d’en suivre un nombre considérable et d’automatiser les processus. Dans ce domaine, la finance quantitative a déjà pris une longueur d’avance en investissant massivement dans la recherche et le développement de ces technologies. ll ne s’agit plus désormais d’accumuler du big data, mais de créer du «smart data», en rendant ces données utilisables et pertinentes. Un challenge particulièrement difficile dans la finance, dont les multiples paramètres et les cycles doivent être recalculés en permanence. Pour les investisseurs, le développement d’interfaces accessibles et basées sur le big data est aussi une chance, par exemple pour comparer les gestionnaires et analyser les portefeuilles, permettant ainsi d’augmenter la transparence dans la gestion.

La tendance se retrouve même au niveau de la gestion d’actifs de clients fortunés, ce qui confirme l’ancrage et l’ampleur de ces évolutions technologiques. D’après le dernier EY Wealth Management Outlook publié en août dernier, les modèles d’affaires numériques basés sur la technologie se substitueront à d’autres modèles de gestion d’actifs.

Nouveaux modèles numériques

Selon l’analyse publiée par EY Suisse, un «nouveau modèle d’affaires numérique holistique» écartera les gestionnaires d’actifs classiques du marché d’ici à 2025. EY suppose que la part de marché globale, quasiment nulle à l’heure actuelle, augmentera jusqu’à 20 ou 30%. Les caractéristiques de ces nouveaux gestionnaires? «Ils se distinguent par une approche de conseil numérisée, fondée sur les événements de la vie, qui génère une véritable plus-value pour les clients fortunés», commente Peppi Schnieper, associé et responsable du conseil stratégique chez EY Suisse.

Le rapport souligne que les nouveaux outils logiciels permettent de collecter d’importants volumes de données à partir de sources d’information variées, émanant de divers fournisseurs comme les réseaux sociaux et les émetteurs de cartes de crédit, par exemple. La constitution du portefeuille est ainsi optimisée à l’aide d’algorithmes qui intègrent les données actuelles du marché et sont automatiquement restructurés grâce à un traitement en temps réel.

Ces programmes sophistiqués permettent aussi d’évaluer et d’analyser la préférence des clients en matière de risque et leur profil de placement. Enfin, tout au long du processus d’investissement, la convivialité et une expérience client positive figurent au premier plan des objectifs à atteindre.

Que signifie le big data?

La révolution du big data implique un accès à un large volume de nouvelles données. Il est temps de s’approprier la valeur cachée de ces données.

Volume: plus de données

De...

Terabyte
= 1000 Gigabyte

...à

Zettabyte
= 1 000 000 000 000 Gigabyte

Véracité: plus de données pertinentes

De...

Une montagne
de données

...à

Des informations utiles
(nouvelles informations et indicateurs)

Variété: différents types de données

De...

Données internes,
structurées

...à

Données
non structurées

Vélocité: des données en temps réel

De...

Données à fréquences fixes…

Des reporting mensuels

...à

Un flux continu de données...

Des reporting en temps réel

Plus de données

De...

Terabyte
= 1000 Gigabyte

...à

Zettabyte
= 1 000 000 000 000 Gigabyte

Plus de données pertinentes

De...

Une montagne
de données

...à

Des informations utiles
(nouvelles informations et indicateurs)

Différents types de données

De...

Données internes,
structurées

...à

Données
non structurées

Des données en temps réel

De...

Données à fréquences fixes…

Des reporting mensuels

...à

Un flux continu de données...

Des reporting en temps réel

«2015 a marqué une rupture»

Les clients ont désormais principalement des interactions digitales avec leurs banques, affirme le CEO de la fintech zurichoise Qumram. Comment ces données sont-elles exploitées?

Patrick Barnert,
CEO de Qumram.

La fintech zurichoise Qumram travaille déjà avec de grandes banques et assurances comme UBS, Credit Suisse ou CSS. L’entreprise a développé une technologie qui permet d’enregistrer l’activité online des utilisateurs, par exemple lors d’une session e-banking. Pour le CEO de Qumram Patrick Barnert, la conduite du risque (ou «conduct risk») est l’un des enjeux majeurs dans l’exploitation des données, en particulier pour la conformité réglementaire (compliance). A l’avenir, l’intelligence artificielle devrait permettre d’améliorer considérablement la valorisation des immenses «lacs de données» (data lakes), générés par le big data.

Diriez-vous qu’il n’y a pas assez de données pertinentes dans le secteur financier ou est-ce davantage une question de valorisation et d’exploitation efficace de ces données?
On peut toujours accumuler davantage de données, mais actuellement il y en a définitivement bien assez en volume. Le challenge se situe plutôt au niveau de la qualité de celles-ci, afin de pouvoir les exploiter et les valoriser! Les banques ont très longtemps fonctionné en silos, les données sont donc réparties dans différents systèmes informatiques, différents départements, etc. Il faut donc les trier, améliorer leur qualité, les agréger, les réconcilier et les analyser avant de pouvoir les exploiter.

Est-ce le niveau de sécurité requis dans les banques qui freine ce processus?
Pas uniquement. Un haut niveau de sécurité n’implique pas forcément que les données soient séparées et en silos. Au contraire, cela peut même avoir l’effet inverse car on peut manquer de vision globale sur la sécurité des données quand elles sont trop compartimentées. Par ailleurs, d’autres secteurs critiques au niveau de la sécurité ont des systèmes globalement plus ouverts et connectés. Mais la finance est en pleine transformation et avance à grands pas.

Quel est l’intérêt de la valorisation des données pour les institutions financières vis-à-vis de leurs clients?
Au niveau du contact client, les banques disposaient déjà de communications enregistrées: courriers, mails, conversations téléphoniques, mais elles ne les exploitaient pas toujours, il s’agissait surtout d’une question de compliance. De plus, elles n’avaient pas de trace des interactions digitales comme les sessions e-banking ou les interactions sur les réseaux sociaux comme WhatsApp ou WeChat. Or, le digital est devenu un élément crucial pour conserver le contact et fidéliser les clients, d’autant plus que 2015 a marqué une rupture car les clients ont désormais principalement des interactions digitales avec leurs banques. Cela peut être une mine d’informations à valoriser pour ajuster l’offre aux clients de manière personnalisée.

Et pour les clients justement?
Les clients pourront bénéficier d’un parcours plus fluide et adapté à leur situation. Aujourd’hui, lorsqu’un client rencontre un problème avec son e-banking par exemple, il doit appeler la banque et l’explication du problème est parfois difficile à communiquer, prend du temps, pour parfois ne pas trouver de réponse. Mais si la banque peut voir exactement quelles opérations a effectué l’utilisateur sur sa session, elle peut lui répondre bien plus efficacement rapidement. Grâce aux données, les institutions financières pourront aussi mieux anticiper les besoins des clients et proposer des offres pertinentes, au bon moment et au bon client. Enfin, l’analyse des «données comportementales» devrait permettre d’améliorer le degré de satisfaction des clients.

Ce que le big data apporte
aux clients

Ce que le big data apporte
aux clients

«Le big data fait le buzz en finance depuis près de cinq ans. Il est vu comme la pierre philosophale du secteur par les fameux data scientists», observe Christophe Lamon, consultant bancaire et cofondateur et directeur de SwissmeFin. Ce dernier ne partage pas forcément leur optimisme, mais constate que leurs méthodes apportent des évolutions méthodologiques majeures. Toutefois, «la valeur ajoutée demande à être démontrée pour le client, la banque ou l’investisseur».

Christophe Lamon, consultant bancaire et cofondateur et directeur de SwissmeFin.

Pour le consultant bancaire, le traitement de masse des données a permis avant tout «l’industrialisation des gestions individualisées et contextualisées», améliorant à la fois le monitoring du risque et de la performance, mais aussi celui des dimensions fiscales, environnementales et sociales. «Pour certaines banques, le traitement des données permet en outre de simuler en temps réel les impacts des décisions d’investissement.»

Standardiser le luxe?

Le véritable gain du big data pour le client? C’est qu’il devient possible de standardiser ce qui était auparavant réservé aux clients privés, résume Christophe Lamon. «Globalement, avec la réduction du coût du traitement de masse des données, le niveau de sophistication des gestions privées s’est fortement accru, et les frais de ces gestions plus complexes deviennent désormais abordables.»

Dépositaires historiques des informations financières et non financières du client, les banques ont été temporairement détrônées par les géants du net. En se concentrant sur l’analyse de l’activité sociale et les intérêts des usagers, les GAFA (Google, Apple, Facebook, Amazon) ont réussi à radiographier le marché et optimiser leur modèle économique. «Entre-temps, certaines banques ont aussi rattrapé le retard, souligne Christophe Lamon. Elles ont croisé leur capital historique d’informations avec les analyses de navigation et les données livrées par les usagers.»

Alain Broyon, partenaire de Planet of Finance.

Les banques exploitent désormais les tendances comportementales et analysent les flux transactionnels de leurs clients pour la conduite des risques, de la gestion financière et de la gestion marketing. La personnalisation accrue qui en résulte dans la gestion de fortune est aussi constatée par Alain Broyon, partenaire de Planet of Finance, fintech genevoise fondée en 2015 pour créer des services financiers digitalisés. «Jusqu'à récemment, la connaissance du client était limitée aux informations reçues pendant la phase de création du compte ou onboarding», rappelle le financier. Aujourd’hui, avec l’arrivée des robo-advisors sur le marché de la gestion d’épargne, on peut récupérer de plus en plus d’informations sur les clients, leurs habitudes, ou même leur situation familiale, et ce de manière régulière et sans être encombrants, le tout grâce à des interfaces simples et accessibles.

Pour lui, ce va-et-vient de données permet d’adapter l’offre destinée aux clients ou même d’anticiper les besoins futurs. Au plan du reporting aussi, les nouveaux outils de gestion automatisée, au design amélioré, axés sur l’expérience utilisateur, deviennent davantage tournés vers le client, plus simples et agréables à utiliser. Ces nouvelles interfaces présentent toutefois des limites, admettent les experts, surtout pour les clients qui exigent des services plus complexes. «Dans le robo-advisory, les solutions proposées restent «standards» avec en général moins de 10 profils de gestion, constate Alain Broyon. En termes de performance, l’objectif n’est pas la génération de rendement «alpha», mais de répliquer au mieux le marché.»

Des datas à l’alpha

Pour générer de l’alpha, la gestion quantitative, toujours plus mathématique, ouvre de nouvelles voies grâce aux données. Elle implique désormais des équipes qui vont du codage à la génération de stratégies et utilise des programmes toujours plus affinés, qui marient statistique et économie, car l’un ne peut aller sans l’autre.

Alexandre Andreani, CIO chez Aris Wealth Management.

Comme l’explique Alexandre Andreani, CIO chez Aris Wealth Management à Genève où il dirige les stratégies absolute return, investir sur la base de l’analyse de données à large échelle offre des opportunités de surperformance du marché (ou génération d’alpha). «Des modèles statistiques qui identifient les mouvements concomitants des variables macroéconomiques et des indices d’actions, par exemple, offrent une capacité prédictive en permettant de détecter des schémas sur les marchés financiers», indique le spécialiste.

Mais si les modèles basés sur des séries de données temporelles ne comportent aucune dimension économique, met-il en garde, ils ne peuvent refléter la réalité si les agents économiques disposent en réalité de plus d’informations. Par ailleurs, il faut intégrer dans ces modèles les cas d’événements extrêmes considérés comme le scénario du pire. Tenir compte de ces risques représente un avantage clé des programmes quantitatifs et permet de tester leur robustesse en cas d’événement de type «black swan» ou plus généralement de situations de marché spéciales (inversion de la volatilité…).

La clé: savoir limiter le downside

Alexandre Andreani met lui aussi en avant le potentiel de personnalisation des stratégies d’investissement amenées par le data investing. Il devient possible d’adapter un portefeuille au budget-risque du client et de maximiser les rendements en lui donnant accès à un mix optimal de titres dépassant désormais son univers local, pour aller vers une fine sélection sur les marchés internationaux.

Le data investing élimine en outre la dimension émotionnelle de la gestion et offre un reporting plus transparent et pointu sur l’exposition au risque du portefeuille, le degré de diversification et la contribution des différents actifs à la performance.

«La quête de la pierre philosophale»

Le consultant de SwissmeFin Christophe Lamon résume ci-dessous les expériences des professionnels de l’investissement avec le big data, qui se concentrent typiquement sur la recherche de signaux indicateurs de plus-values à venir sur les marchés, mais qui ont aussi leurs limites:

  • Approches à la mode, les analyses de textes ou d’occurrences permettent d’identifier des opportunités d’investissement, par l’intérêt qu’ils génèrent sur les supports choisis. Si de telles approches permettent d’identifier l’intérêt du public ou des investisseurs, la question se pose si une bonne partie de la plus-value n’a pas déjà été extraite.
  • L’exploitation des nouvelles de marchés, correctement contextualisées et valorisées, représente également une niche exploitée depuis quelques années. Dès lors, la capacité effective d’analyse ainsi que la capacité de transmission des ordres sont cruciales.
  • La troisième méthode consiste à rechercher des influenceurs du marché. Désormais, les systèmes tentent d’identifier, dans la masse des statistiques publiées, celles qui pourraient avoir une influence sur les marchés, au risque de se retrouver face à des résultats aberrants sans signification économique pour donner ce que l’on appelle un «surapprentissage» et qui vont marcher jusqu’au moment où…

En conclusion, avec un marché qui mature, la période des précurseurs touche à son terme. Les «martingales» sont de plus en plus partagées et les investissements pour innover (temps, compétences et financiers) deviennent de plus en plus importants. Dès lors, la circonspection des investisseurs doit être de mise, sachant que ces méthodes sont réellement des niches et qu’elles sont destinées à le rester.

L'asset management
dans trente ans

L'asset management
dans trente ans

La gestion d’actifs s’est profondément transformée depuis le début des années 1990 avec l’explosion de la gestion passive, l’arrivée des robo-advisors et l’avènement des gestionnaires spécialisés. Les nouvelles technologies et le big data laissent présager des changements encore plus profonds d’ici à 2050.

Evolution du Produit Intérieur Brut entre 2012 et 2050

En trilions de dollars

Les investisseurs bénéficieront certainement d’un service clients en temps réel. Ils pourraient bientôt avoir une vision d’ensemble de tous leurs actifs, quels que soient le gestionnaire et le pays, facilement et instantanément. Le smart data permettra probablement des modélisations prédictives du marché, des échanges automatisés et une transparence totale des prix. Pour les analystes, assistés de robots, la réconciliation des opérations ne sera plus qu’une formalité.

Des ordinateurs 100 millions de fois plus rapides

De nombreux progrès restent à faire dans les technologies émergentes comme l’intelligence artificielle et le machine learning. Mais ce n’est qu’un début. D’autres avancées majeures sont à explorer comme l’informatique quantique.

Google a d’ailleurs lancé un laboratoire baptisé Quantum Artificial Intelligence Lab. D’après une étude publiée en 2015 par l’entreprise américaine, la vitesse de calcul d’un ordinateur quantique serait 100 millions de fois plus rapide que celle d'un ordinateur conventionnel. Ces dernières années, IBM, Microsoft ou encore Intel ont investi des dizaines de millions de dollars dans des projets de recherche dans ce domaine.

10 milliards d’êtres humains en 2050

Si ces évolutions technologiques sont passionnantes, il est presque impossible de prédire leur rythme de développement à trente ans. Un élément beaucoup tangible, et en tout cas prévisible statistiquement, concerne le challenge démographique attendu dans les trente prochaines années avec l’accroissement de la population mondiale. La population de plus de 65 ans passera ainsi de 600 millions aujourd’hui à plus de 2 milliards en 2050. Que ce soit au niveau de la gestion d’actifs privés ou d’institutionnels, comme les caisses de pension, cette mutation démographique aura un impact considérable. Les individus seront amenés de plus en plus à gérer leurs avoirs pour financer leur retraite et leurs projets de vie, face au recul programmé des systèmes de prévoyance étatiques.

Espérance de vie à la naissance
de la moitié des bébés nés en 2007

Par ailleurs, là où la hausse de la population sera la plus forte, à savoir dans les pays émergents et en croissance, les systèmes nationaux ou organisés de prévoyance sont très limités. Les gouvernements et les gestionnaires d’actifs devront donc s’adapter à ce nouvel environnement pour faciliter cette grande transition comme le rappelait le World Economic Forum dans un rapport publié en mai dernier (We’ll Live to 100 – How Can We Afford It?).

La population
de plus de 65 ans
passera de

1 millions

aujourd'hui à plus de

1 milliards

en 2050.

En 2050
il y aura seulement

4 actifs

pour un retraité contre

8 actifs

pour un retraité
aujourd'hui.

Pour inclure et accompagner cette transition, les gérants d’actifs devront non seulement délivrer des performances mais aussi développer des interfaces intuitives et simples pour les utilisateurs. Le Global Asset Management Report 2017, publié par Boston Consulting Group, ne dit pas autre chose, y compris dans son titre «The Innovator’s Advantage».

Selon les experts, les gérants qui s’appuient sur les technologies pour transformer leur modèle et apporter une véritable valeur ajoutée à leurs clients seront les gagnants de cette transition vers l’asset management du futur.

Stéphane Garelli est professeur à l'International Institute for Management Development (IMD) et à l'Université de Lausanne (HEC). Ses recherches portent sur la compétitivité des nations et des entreprises sur les marchés internationaux. Il est également directeur du World Competitiveness Yearbook, publié par l’IMD.

Auteurs
Marjorie Théry
Myret Zaki

Vidéo
David Huc
Yasmine Hamdan
Marjorie Théry

Rédactrice en chef
Myret Zaki

Direction artistique
Pierre Broquet

Graphisme
Charlène Martin

Édition
Inès Girod

Intégration/
Développement

Geoffrey Raposo

Contact
Rédaction Bilan
11, rue des rois
1204 Genève
bilan@bilan.ch
Tél. +41 22 322 36 36

Publicité
Tamedia Publications romandes
Cellule produits numériques
advertising.tamedia.ch
Tél. +41 21 349 40 48