français

    corporate

    L’IA dans les services financiers : s’agirait-il de la nouvelle bulle Internet ?

    L’IA dans les services financiers : s’agirait-il de la nouvelle bulle Internet ?

    L’intelligence artificielle (IA) est omniprésente. Les assistants vocaux Alexa d’Amazon et Siri d’Apple, par exemple, s’appuient sur l’IA pour interpréter les instructions et apprendre. L’IA permet de déverrouiller les écrans par reconnaissance faciale des téléphones portables et d’alimenter les fils sur les réseaux sociaux et les systèmes de streaming vidéo.

    Quoique moins visibles, certaines de ses applications sont sans doute plus essentielles à la vie moderne, comme la détection des fraudes, lancée sur toutes les transactions électroniques via les principales plateformes de paiement, ou encore la détermination des notes de crédit à la consommation et l’analyse des demandes d'indemnisation. D’autres domaines d’application de l’IA ne nous viennent peut-être même pas à l’esprit. Comme l’affirmait John McCarthy, l’un des pionniers de l’intelligence artificielle, « dès que cela fonctionne, plus personne ne l’appelle IA ».

    La récente prolifération d’outils d’IA « générative », notamment ChatGPT pour la génération de texte et Dall-E pour la création d’images, a remis l’intelligence artificielle sous les projecteurs. Nombreux sont les commentateurs qui anticipent de profondes perturbations économiques dans de multiples secteurs. Quel sera donc l’impact de l’IA sur les services financiers ?

    L’IA générative est libre de faire preuve de créativité. Quand il s’agit de texte, l’IA générative présente donc une certaine tendance à « halluciner », produisant des résultats erronés, voire dénués de sens

    Lire aussi : Lutter contre la cyberfraude grâce à l’intelligence humaine et artificielle

     

    Suis-je en train d’halluciner ?

    L’IA générative diffère de l’IA traditionnelle en ce sens qu’elle est libre de faire preuve de créativité. Quand il s’agit de texte, l’IA générative présente donc une certaine tendance à « halluciner », produisant des résultats erronés, voire dénués de sens. Récemment lancée par Microsoft, l’interface de recherche basée sur l’IA Bing Chat est d’ailleurs soumise à la clause de non-responsabilité suivante : « ... l’IA peut faire des erreurs… Bing peut parfois dénaturer les informations trouvées et afficher des réponses qui semblent convaincantes, mais qui s’avèrent inexactes, incomplètes ou inappropriées. » Cette tendance courante parmi les modèles d’IA générative limite fortement leur utilité dans les domaines où la précision et la rigueur importent, tels que les services financiers.

    Dans le secteur très réglementé des services financiers, les modèles d’IA susceptibles de donner des conseils à la clientèle incorrects, voire illégaux, n’obtiendront tout simplement pas la licence nécessaire pour être utilisés

    Meilleure expérience client

    Dans le secteur très réglementé des services financiers, les modèles d’IA susceptibles de donner des conseils à la clientèle incorrects, voire illégaux, n’obtiendront tout simplement pas la licence nécessaire pour être utilisés. L’IA générative va néanmoins jouer un rôle de plus en plus important dans les services à la clientèle, où les interactions gagneront en rapidité et en personnalisation. L’IA permettra même aux utilisatrices et utilisateurs de « programmer » leurs tableaux de bord d’investissement personnalisés et de générer des rapports interactifs sur la seule base de brèves instructions formulées en langage naturel.

     

    Détection des fraudes commises par les utilisateurs

    L’IA contribue largement à la détection des fraudes dans le secteur des services financiers. Le service de détection des fraudes par IA de Visa, par exemple, surveille les schémas de dépenses inhabituels jusqu’à 65 000 transactions par seconde et détecte les fraudes suspectées en 300 millisecondes quelle que soit la transaction effectuée. Ce dispositif n’est pas bon marché. En 2020, les entreprises ont investi plus de USD 217 milliards en IA pour la détection des fraudes et l’évaluation des risques.

    A l’avenir, des modèles d’IA seront déployés pour anticiper des fraudes qui n’ont pas encore été commises

    De plus en plus de modèles d’IA sont capables de détecter les activités correspondant aux schémas de blanchiment d’argent. A l’avenir, des modèles d’IA seront déployés pour anticiper des fraudes qui n’ont pas encore été commises en sondant les « failles » ou les points faibles dans les interactions entre les autorités de réglementation, les institutions et les investisseurs.

    Lire aussi : Les Chroniques CLIC® : le futur de la technologie agricole à portée de main

     

    Gros volumes de données, gros gains

    La capacité à identifier les schémas de dépenses et à détecter les anomalies requiert d’énormes volumes de données. Plus le panel est important, plus le modèle d’IA utilisé peut se perfectionner et plus la détection des fraudes s’avère fiable. Les institutions en place, qui ont accès à des volumes de données plus importants et disposent d’une force d’investissement garantissant la collecte et le stockage cohérent de milliards de points de données, tirent donc leur épingle du jeu. Pour reprendre l’exemple de Visa, la société détenait 60 pétaoctets de données fin 2021, soit l’équivalent du stockage de 60 millions de films en définition standard. De quoi créer un formidable « fossé » pour les plus grands réseaux de paiement mondiaux, qui possèdent déjà plusieurs décennies d’informations sur des paiements.

    Grâce aux analyses par IA, les informations telles que les dates et les destinations de voyage des clients… permettent aux entreprises de cibler leurs propositions de services financiers

    Services ciblés

    Cet ensemble de données offre un autre avantage à ces institutions : la capacité d’esquisser une image détaillée des habitudes, des goûts et des modes de vie de chaque utilisatrice ou utilisateur. Grâce aux analyses par IA, les informations telles que les dates et les destinations de voyage des clients, les services de streaming auxquels ils sont abonnés ou les destinataires de leurs transferts d’argent réguliers, permettent aux entreprises de cibler leurs propositions de services financiers (par exemple, un devis d’assurance personnalisé à la suite de l’achat d’une voiture, ou des idées de budget et d’investissement pour les épargnants). Alors que les ensembles de données s’enrichissent et que l’IA se perfectionne, ce ciblage deviendra de plus en plus précis.

    Enormes besoins énergétiques

    Selon Ian Bratt, à la tête du groupe Machine Learning Technology au sein de la société britannique Arm, spécialisée dans la conception de semi-conducteurs et de logiciels, les besoins énergétiques pour former les nouveaux modèles d’IA connaissent une croissance exponentielle : « Si vous pensez à la quantité d’énergie utilisée pour former un modèle il y a deux ans, elle se situait aux alentours de 27 kilowattheures… Aujourd’hui, elle dépasse le demi-million de kilowattheures. » [Soit une multiplication par 18 000.]

    Même s’il est peu probable qu’il s’agisse d’un facteur devienne contraignant à court terme, il soulève la perspective d’un frein à la progression de l’IA dès lors que l’énergie qu’elle consomme (et le stockage des données de plus en plus vaste) avoisinera notre capacité de production énergétique. Plus les entreprises s’appuieront sur l’IA, plus l’efficacité énergétique pourrait devenir importante.

    Les avancées de l’IA permettent de plus en plus difficilement au personnel d’accéder aux données de la clientèle à des fins frauduleuses

    Détection des fraudes internes

    Dans certaines des plus grandes institutions financières, les outils de détection des fraudes basés sur l’IA sont utilisés au niveau interne : les mêmes détecteurs d’anomalies et de schémas qui servent à analyser le comportement de la clientèle sont également utilisés pour surveiller le personnel. Du suivi des activités professionnelles en ligne, voire physiques, à l’identification des schémas vocaux modifiés par le stress ou inhabituels pendant les conversations sur les téléphones de l’entreprise, les avancées de l’IA permettent de plus en plus difficilement au personnel d’accéder aux données de la clientèle à des fins frauduleuses.

    Lire aussi : La tech sera de retour

     

    Garbage in, garbage out (GIGO)

    Les résultats de l’IA dépendent avant toutes choses de la qualité des données d’entrée. Le manque de fiabilité des données d’entrée peut exposer les institutions financières à des risques imprévus. Aux États-Unis par exemple, l’ensemble de données des agences de notation de crédit à la consommation est majoritairement composé de l’historique des transactions des populations blanches et aisées, ce qui se traduit par des notes de crédit plus basses, en moyenne, pour les autres groupes démographiques. Cet état de fait a suscité les critiques du monde politique et a parfois fait perdre des occasions aux organismes de prêts hypothécaires. IBM estime que le coût inhérent à la mauvaise qualité des données d’entrée s’élève, tous secteurs confondus, à USD 1 300 milliards, rien qu’aux États-Unis. Dans le pire des cas, les décisions de l’IA basées sur des données d’entrée non représentatives ou de mauvaise qualité pourraient entraîner des amendes ou des atteintes à la réputation.

     

    Cybersécurité

    Pour les entreprises de tous les secteurs et, plus particulièrement, les sociétés financières, l’IA représente une menace en constante évolution en matière de cybersécurité. Le piratage via la technique de l’« hameçonnage » (où les consommateurs sont piégés dans le but de transmettre leurs données personnelles, qui sont ensuite utilisées pour usurper leur identité) devient de plus en plus facile du fait de l’aptitude de l’IA à créer rapidement des profils et à collecter des données à grande échelle, y compris par le biais de la génération de voix et d’images. Face au développement continu de nouvelles techniques de piratage par IA, les institutions financières doivent non seulement investir dans des mesures de cybersécurité défensive, mais aussi mettre en place des plans d’urgence au cas où leurs données ou leurs modèles d’IA seraient compromis.

    Malheureusement, 20% des entreprises répertoriées tous secteurs confondus échouent à adopter une cyberprotection adaptée, même la plus basique, ce qui signifie qu’elles souffrent de « vulnérabilités exploitées connues ». Au fur et à mesure que les attaques par IA deviendront de plus en plus sophistiquées, ces vulnérabilités seront exploitées encore plus rapidement. D’après l’analyse du cabinet de conseil McKinsey, cette menace grandissante pourrait aboutir à un marché de la cybersécurité de près de USD 2 000 milliards1.

    Le marché total de l’IA, matériels et services compris, devrait s’élever à USD 900 milliards d’ici 2026

    Un hiver de mécontentement ?

    Le marché total de l’IA, matériels et services compris, devrait s’élever à USD 900 milliards d’ici 2026, atteignant ainsi un taux de croissance annuel composé (TCAC) de 19%. Malgré cette croissance impressionnante, les investisseurs ayant un horizon d'investissement à court terme risquent d’être déçus.

    En effet, l’emballement autour de l’IA ne date pas d’hier : depuis l’émergence de l’intelligence artificielle dans les années 1950, plusieurs cycles se sont alternés, entremêlant grandes espérances et périodes de désintérêt appelées « hivers de l’IA », pendant lesquels les progrès ont ralenti et aucune des avancées anticipées ne s’est concrétisée. Le dernier engouement pour l’IA générative est à l’origine de valorisations d’entreprises capables de rivaliser avec la bulle Internet, ce qui a engendré un contexte favorable à un nouvel hiver de l’IA, avec des attentes démesurées qui vont probablement être sources de déception.

    Sur le long terme, la révolution de l’IA est pourtant bien réelle. Pour les investisseurs, la clé consiste à regarder au-delà du battage marketing, à analyser l'impact réel de l’IA sur les fondamentaux des entreprises et à identifier les entreprises s’adaptant aussi bien aux risques qu’aux opportunités dans le domaine de l’IA. L’IA a peu de chances de révolutionner le secteur des services financiers du jour au lendemain. Les grandes gagnantes seront plutôt les entreprises qui auront investi dans l’IA pour innover durablement en matière d’efficacité, de sécurité et d’optimisation du service à la clientèle.


     

    New survey reveals $2 trillion market opportunity for cybersecurity technology and service providers | McKinsey

    Information Importante

    Le présent document de marketing a été préparé par Banque Lombard Odier & Cie SA ou une entité du Groupe (ci-après « Lombard Odier »). Il n’est pas destiné à être distribué, publié ou utilisé dans une juridiction où une telle distribution, publication ou utilisation serait interdite, et ne s’adresse pas aux personnes ou entités auxquelles il serait illégal d’adresser un tel document.

    En savoir plus.

    parlons-nous.
    partager.
    newsletter.