RE2017-Human_AdPages.jpg

rethink everything

À l’aube d’une nouvelle ère



Dans les décennies à venir, l’intelligence artificielle générale ouvrira la voie vers d’infinies possibilités. Serons-nous capables de nous y aventurer en toute sécurité ou risquons-nous de nous y perdre ?

À moins de pouvoir voyager dans le temps, la faculté de prédire un futur qui modifierait la façon dont nous abordons une chose encore non existante relève tout simplement du don. L’anticipation d’une intelligence artificielle générale (IAG), c’est-à-dire une IA qui s’appliquerait à n’importe quelle tâche avec une compétence surhumaine, participe d’une telle faculté. L’intelligence artificielle étroite, capable d’exécuter la fonction spécifique pour laquelle elle a été conçue, a déjà été inventée. L’IAG serait donc la prochaine étape logique.
 

Outil le plus puissant jamais inventé, le potentiel bénéfique de l’IAG ne saurait être surestimé.


Toute conséquence imprévue pourrait se révéler si néfaste pour notre espèce qu’aucun faux pas ne pourrait être admis. Certains des plus grands esprits, comme le milliardaire du secteur technologique Elon Musk, le neuroscientifique et philosophe Sam Harris et le physicien Max Tegmark font déjà part de leurs préoccupations. Pour empêcher de telles conséquences, nous devons aujourd’hui nous interroger.
 

Ce qui pourrait advenir

Les débats actuels portent sur un aspect spécifique : le jour où l’IAG deviendra capable de s’améliorer toute seule. Compte tenu des vitesses surhumaines impliquées, cette bascule pourrait théoriquement provoquer une explosion d'intelligence. L’IAG se perfectionnerait ainsi très rapidement et cumulerait l’équivalent de milliers d’années de progrès humain en seulement quelques heures. S’agira-t-il alors de la meilleure ou de la pire chose à nous arriver ? Cela dépendra de notre résolution ou non du problème de l'alignement :
 

comment programmer une IAG avec des objectifs qui ne se révéleront pas destructifs s’ils sont menés à terme ?


En 2003, le philosophe Nick Bostrom a présenté l'expérience de la pensée prototypique1 pour illustrer ce problème. L'expérience tourne autour d'un optimiseur de trombones, à savoir une IAG programmée avec l'objectif apparemment bénin de créer autant de trombones que possible. Pour nous, humains, il est évident que certaines choses n’ont pas à être transformées en trombones. Ainsi, de formuler une mise en garde en ce sens serait une perte de temps. Mais, sans une telle réserve, une IAG optimisatrice de trombones convertirait nos propres atomes en trombones à la première occasion ! Bien entendu, ce n’est pas un scénario réaliste. Toutefois, il serait erroné de penser que nous ne donnerions jamais à notre IAG un objectif aussi irréfléchi. Lorsqu’une superintelligence est impliquée, un léger décalage entre ses objectifs et les nôtres peut suffire à créer une menace vitale.

Pour atténuer ce risque, il a été suggéré d’isoler, pour ainsi dire hermétiquement, l'IAG du monde extérieur, en la confinant à un ordinateur sans accès à l’Internet. Mais cela ne résout pas un autre casse-tête : le problème du confinement. Ainsi, comme nous exploitons l'incapacité d'un nourrisson à comprendre la permanence des objets dans un jeu de coucou, une superintelligence artificielle pourrait recourir à des techniques psychologiques bien au-delà de notre propre compréhension qui nous manipuleraient au point de nous faire exécuter volontairement des ordres.

Ce ne sont là que quelques-unes des conséquences théoriques débattues par les chercheurs en IA. Quelles conclusions devons-nous en tirer ?

La carotte et le bâton

Quant à la question de savoir si l’une de ces préoccupations se concrétisera dans le futur, les avis divergent, même au plus haut niveau. S’agissant à ce stade d’hypothèses, une réponse alarmiste serait injustifiée. Cela dit, est-il vraiment nécessaire de savoir que notre maison brûlera un jour pour que nous contractions une assurance ? Bien que théoriques, ces préoccupations ne semblent pas pour autant impossibles. La matérialisation d’une seule d’entre elles provoquerait une catastrophe. Il est donc imprudent d’adopter une attitude cavalière vis-à-vis du développement de l’IAG.

Le problème qui se pose dans l’immédiat, c’est que tout converge à encourager une telle approche.

La première entreprise ou le premier gouvernement à mettre une IAG en ligne aurait à sa disposition des niveaux d'intelligence surhumains : une telle perspective pourrait augmenter l'appétit pour le risque. Ainsi, si nous voulons une approche privilégiant la sécurité, nous devons recourir au levier de l'investissement.
 

Quand le grand public deviendra plus sensible à la question de la sécurité de l’IAG, l’enjeu d’investissement responsable qu’elle représente augmentera.


Les investisseurs exigeront des sociétés de programmation qu’elles soutiennent des organismes à but non lucratif se consacrant à la recherche sur la sécurité de l’IAG, comme OpenAI. Ces sociétés devront, par ailleurs, créer des comités internes de sécurité et d’éthique afin de mettre en œuvre leurs recommandations.

Toutefois, à long terme, cela ne sera peut-être pas suffisant. Des mesures de sécurité insuffisantes représenteraient un tel risque pour le public qu'une réglementation du secteur semble probable, voire inévitable. Elle pourrait entre autres inclure des mesures permettant de pénaliser les investisseurs pour des défaillances de sécurité et des incidents publics.
 

En d'autres termes, les enjeux de sécurité de l'IAG et les risques liés à l’investissement deviendraient inextricablement liés, obligeant les entreprises à prouver leur engagement en faveur de la sécurité si elles souhaitent gagner et conserver la confiance des investisseurs.


Cela ne signifie pas pour autant qu’il serait difficile de faire des profits. Faire marcher un homme sur la lune était sans doute un objectif de type « tout ou rien ». L’innovation et le développement industriel nécessaires à cette tentative auraient été économiquement utiles, même si personne n’était parvenu à faire « un petit pas pour l’Homme ». De même, si l’IAG devient un jour réalité, les entreprises devront faire des progrès significatifs en matière d’IA étroite. Et comme nous l’avons vu, l’IA étroite n’est rien si elle n’est pas rentable.

RE-April2018-Human_ArticleLOcom.jpg
 

Partager la richesse

Si nous réussissons à développer l'IAG de façon sûre, une réglementation sera également nécessaire pour veiller à ce qu'elle soit utilisée pour le bien du plus grand nombre. Car si l’IAG est développée par une seule entreprise, qui conserverait en quelque sorte un contrôle exclusif sur elle, nous nous trouverions face à un grave problème. Dans le pire des cas, cette entreprise pourrait littéralement contrôler le monde et tout ce qui s'y trouve, avec pour seuls bénéficiaires ses quelques investisseurs. Et même si cette société ne trouvait aucun intérêt à exercer un contrôle absolu, son modèle de vente pour l'accès à l'IAG engendrerait sans difficulté une inégalité extrême. Elle pourrait en effet fixer le prix qu’elle souhaite, sachant que les avantages économiques potentiels seraient suffisants pour qu'un certain nombre de personnes le payent et ce de façon rationnelle.
 

Si une petite poignée de personnes jouissaient d’un accès à une intelligence aussi puissante, le niveau d’inégalité échapperait alors à tout contrôle.


Une IAG accessible partout dans le monde pourrait considérablement réduire le problème de l'inégalité.
 

Lorsqu’une superintelligence est mise en œuvre au sein de l'économie, elle peut provoquer des sauts quantiques que de simples esprits humains auraient mis des milliers d'années à effectuer.


Ainsi, de nouvelles méthodes de production alimentaire mettraient un terme à la faim dans le monde, des moyens de construction innovants faciliteraient l'accès au logement ou encore, des médicaments beaucoup plus efficaces seraient créés. L'IAG augmenterait la production, en créant une forme d’abondance qui réduirait la valeur même des produits individuels. Tout le monde pourrait alors se permettre de disposer de plus que ce dont il a besoin. Même si l’inégalité perdurera toujours dans une certaine mesure, le « gâteau » économique deviendrait tellement grand grâce à l’IAG que même les plus pauvres seraient riches selon nos standards actuels. En effet, le besoin réduit de main-d'œuvre humaine nous conduirait vers un nouveau système économique dans lequel le concept de « pouvoir se payer quelque chose » aurait disparu. Face à un tel potentiel, un investissement dans une IAG en accès libre se révélerait bien être la meilleure chose à faire dans le futur.

« Toute technologie suffisamment avancée est indiscernable de la magie2», selon Arthur C. Clarke. L'IAG pourrait bien être la démonstration ultime de cette idée. Néanmoins, la superintelligence n'est pas de la sorcellerie et les lois de la physique sont très claires : toute croissance économique nécessitera une augmentation de la consommation d’énergie et des ressources naturelles correspondante. En d’autres termes, la durabilité ne sera pas négociable.
 

Si nous n’appliquons pas notre superintelligence aux ressources renouvelables à 100% avant de l’appliquer à la croissance exponentielle du gâteau économique, autant rouler dans le désert avec un seul plein de carburant…


Nous trouver nous-mêmes

Enfin, posons-nous la question essentielle : comment souhaitons-nous que la superintelligence nous change ? En principe, grâce à l’IAG, l’homme serait épargné de tout travail physique ou intellectuel. Elle lui offrirait l’opportunité d’une vie entièrement consacrée aux loisirs. Après tout, la seule façon de parfaitement égaliser le terrain de jeu économique, c’est de le faire disparaître. Mais sommes-nous psychologiquement capables de vivre dans un monde où atteindre un objectif, réaliser quelque chose, serait devenu une contradiction en soi ? Si tel n'est pas le cas, nous devons sérieusement nous interroger. Quelle part de notre économie souhaitons-nous confier au digital ? Certainement une part suffisante pour créer un monde dans lequel nous souhaitons vraiment vivre, mais sans mourir d’oisiveté. L’IAG a la capacité de nous offrir tout ce que nous souhaitons, nous déciderons seuls de ce dont nous avons réellement besoins.

1 www.LessWrong.com
2 Wikipedia

Information Importante

Le présent document de marketing a été préparé par Lombard Odier (Europe) S.A., un établissement de crédit agréé et réglementé par la Commission de Surveillance du Secteur Financier (CSSF) au Luxembourg. La publication de document de marketing a été approuvée par chacune de ses succursales opérant dans les territoires mentionnés au bas de cette page (ci-après « Lombard Odier »).

En savoir plus.