RE2017-Human_AdPages.jpg

    rethink everything

    Vorbereitung auf ein neues Zeitalter

    Vorbereitung auf ein neues Zeitalter

    In den kommenden Jahrzehnten könnte uns die Allgemeine Künstliche Intelligenz einen Drahtseilakt in die Unendlichkeit bescheren. Sind wir für den Wandel gerüstet, oder riskieren wir, in Vergessenheit zu geraten?

    Ohne die Einsichten Zeitreisender sind aussagekräftige Erkenntnisse über die Zukunft, welche die Art und Weise des Umgangs mit noch nicht existierenden Umständen ändern können – und sollten –, eine extrem seltene Gabe. Die Prognose einer Allgemeinen Künstlichen Intelligenz (AKI) – einer AI, die jede Aufgabe mit einer übermenschlichen Kompetenz bewältigt – ist solch eine Erkenntnis. Wir haben bereits die Künstliche Intelligenz (KI) im engeren Sinne erfunden, die nur eine bestimmte Funktion ausüben kann, für die sie entwickelt wurde. Die AKI wäre der nächste logische Schritt. Wenn wir in der Lage sind, eine AKI zu erfinden, dann werden wir es auch tun. Das scheint unausweichlich zu sein.
     

    Die übermenschliche AKI wäre das leistungsstärkste Instrument, das jemals erfunden wurde. Man kann ihr Potenzial, Gutes zu tun, kaum hoch genug einschätzen.


    Das bedeutet aber auch, dass unbeabsichtigte Konsequenzen schlecht für uns wären und dass sich unsere Spezies einen einzigen Fehltritt der AKI möglicherweise nicht leisten kann. Einige der brillantesten Denker unserer Zeit, darunter der Tech-Milliardär Elon Musk, der Neurowissenschaftler und Philosoph Sam Harris und der Physiker Max Tegmark orakeln bereits darüber, wie diese Konsequenzen aussehen könnten. Um sie zu verhindern, bevor sie eintreten, sind solche Spekulationen unverzichtbar.
     

    Was sein könnte

    Beispielsweise konzentrierten sich die Diskussionen auf die Singularität: Das ist der Moment, in dem die AKI zur Selbstverbesserung fähig ist. Angesichts der übermenschlichen Geschwindigkeit, mit der die Prozesse ablaufen, kann die Singularität theoretisch der Vorbote einer Intelligenzexplosion sein – ein Multiplikatoreffekt, der dazu führt, dass die AKI extreme Upgrades von sich selbst durchführt und Fortschritte in ein paar Stunden erzielt, wofür die Menschheit mehrere Tausend Jahre benötigte. Ob sich das als das Beste oder Schlechteste herausstellt, das uns je widerfahren ist, könnte davon abhängen, ob wir bereits das Abstimmungsproblem gelöst haben:
     

    Wie können wir eine AKI so programmieren, dass wir sicher sein können, dass die Ziele nicht zerstörerisch wirken, wenn sie bis zum Ende verfolgt werden?


    2003 stellte der Philosoph Nick Bostrom das prototypische Gedankenexperiment1 zur Veranschaulichung des Problems vor. Im Zentrum des Experiments steht ein Büroklammernmaximierer – eine AKI, die mit dem scheinbar harmlosen Ziel programmiert wurde, so viele Büroklammern herzustellen wie möglich. Für einen Menschen liegt die Warnung, dass manche Dinge nicht zu Büroklammern verarbeitet werden sollten, auf der Hand. Doch ohne solche Warnungen würde ein Büroklammernmaximierer mit AKI bei der ersten Gelegenheit unsere Atome in Büroklammern verwandeln. Das ist natürlich nicht als ein realistisches Szenario beabsichtigt. Doch die Behauptung, dass wir unsere AKI niemals mit einem solch unüberlegten Ziel programmieren würden, geht am Thema vorbei. Beim Umgang mit Superintelligenz kann aus selbst einer winzigen Fehlabstimmung zwischen ihren und unseren Zielen eine existenzielle Bedrohung erwachsen.

    Um dieses Risiko zu minimieren, wurde vorgeschlagen, dass wir doch die AKI hermetisch von der Aussenwelt abschirmen könnten, indem wir sie in einen Computer ohne Internetanschluss sperren. Das könnte jedoch nicht ausreichen, um jenes Rätsel zu lösen, das als Eindämmungsproblem bekannt geworden ist. Beispielsweise können wir den Umstand ausnutzen, dass ein Kleinkind das Konzept der Objektpermanenz in einem Kuckuck-Spiel nicht versteht. Genauso könnte eine künstliche Superintelligenz psychologische Techniken einsetzen, die weit über unser Vorstellungsvermögen hinausgehen, um uns dazu zu bringen, freiwillig das zu tun, was sie fordert.

    Das ist nur eine Auswahl der theoretischen Konsequenzen, über die KI-Forscher diskutieren. Wie gehen wir mit derartigen Bedenken um?

    Zuckerbrot und Peitsche

    Einerseits sind die Meinungen selbst auf höchster Ebene gespalten, inwiefern solche Befürchtungen, wenn überhaupt, gerechtfertigt sind. Zurzeit ist alles noch hypothetisch. Daher gibt es keinen Grund, schwarzzumalen. Wir müssen nicht wissen, dass unser Haus eines Tages niederbrennen wird, um eine Versicherung abzuschliessen. Diese Sorgen mögen theoretischer Art sein, sie sind aber offenbar nicht ganz unberechtigt. Wenn sich nur eine Befürchtung materialisiert, könnte dies katastrophale Folgen haben. Daher wäre es fahrlässig, die Entwicklung der AKI auf die leichte Schulter zu nehmen.

    Das Problem besteht darin, dass es lohnend erscheint, um genau einen solchen Ansatz zu verfolgen. Das erste Unternehmen oder das erste Land, das eine AKI online stellt, hätte eine solch übermenschliche Intelligenz zur Verfügung, dass man sich leicht vorstellen kann, dass eine solche Perspektive die Risikobereitschaft erhöhen könnte. Wenn wir die Anreize auf eine Weise verändern wollen, dass der von uns bevorzugte „Safety-First“-Ansatz umgesetzt wird, können wir das nur über Investitionen bewerkstelligen.
     

    In dem Masse, in dem das Bewusstsein in der Öffentlichkeit für die AKI-Sicherheit wächst, wird das Thema auch für verantwortungsvolle Anlagen eine grosse Rolle spielen.


    Investoren verlangen daher zunehmend, dass die Entwickler gemeinnützige, über AKI-Sicherheit forschende Unternehmen wie OpenAI sponsern und interne Sicherheits- und Ethikkomitees gründen, um ihre Empfehlungen umzusetzen.

    Doch auf lange Sicht ist das möglicherweise nicht ausreichend. Unzureichende Sicherheitsmassnahmen wären ein solches Risiko für die Öffentlichkeit, dass irgendeine Branchenregulierung wahrscheinlich, wenn nicht unumgänglich ist. Diese könnten Massnahmen umfassen, mit denen die Investoren für Sicherheitsmängel und öffentliche Zwischenfälle bestraft werden.
     

    In anderen Worten: Die Themen Sicherheits- und Kapitalrisiko im Zusammenhang mit der AKI würden untrennbar miteinander verknüpft. Dann wären die Unternehmen gezwungen, ihr Engagement für die Sicherheit nachzuweisen, wenn sie das Vertrauen der Anleger gewinnen wollen.


    Das heisst aber nicht, dass dies es erschwert, profitabel zu wirtschaften. Einen Menschen auf den Mond zu schiessen mag ein „Alles-oder-nichts“-Ziel gewesen sein. Doch Innovationen und Unternehmen, die für einen ernst zu nehmenden Versuch erforderlich sind, wären ohnehin wirtschaftlich wertvoll gewesen, unabhängig davon, ob ein Mensch diesen kleinen Schritt (auf den Mond) gemacht hätte. Wenn die AKI also Wirklichkeit wird, müssen die Unternehmen erhebliche Fortschritte in der KI im engeren Sinne machen. Wie wir gesehen haben, ist die KI sehr wohl profitabel.

    RE-April2018-Human_ArticleLOcom.jpg
     

    Vermögensverteilung

    Wenn es uns gelingt, die AKI sicher zu entwickeln, ist eine Regulierung erforderlich, um sicherzustellen, dass sie der Allgemeinheit, zugutekommt. Wird die AKI nur von einem Unternehmen entwickelt, das die exklusive Kontrolle über sie hat, hätten wir, gelinde gesagt, ein Problem. Im ungünstigsten Fall hätte dieses Unternehmen die sprichwörtliche Kontrolle über die Welt und alles, was sie umfasst. Die einzigen Nutzniesser wären einige wenige Investoren. Auch wenn das Unternehmen kein Interesse an absoluter Kontrolle hat, könnte ein Verkauf des Zugangs zu AKI die Ungleichheit verschärfen. Es könnte den Preis bestimmen, und die wirtschaftlichen Vorteile wären gross genug, dass garantiert genug Menschen dafür bezahlen würden.
     

    Wenn nur wenige ein solch leistungsstarkes Instrument besitzen, ist es vorstellbar, dass die Ungleichheit ausser Kontrolle gerät.


    Andererseits könnte ein allgegenwärtiger AKI-Zugriff für alle das Ungleichheitsproblem lösen.
     

    Denn wenn eine Superintelligenz in der Industrie eingesetzt wird, könnten wir Quantensprünge erleben, für die der menschliche Geist Tausende von Jahren gebraucht hätte.


    Das könnte neue Methoden der Nahrungsmittelproduktion, die das Problem des Welthungers lösen, innovative Baumethoden, die den Zugang zu Wohnraum erleichtern würden, und viel wirksamere Medikamente hervorbringen. Die AKI würde auch die Produktion selbst effizienter machen und einen Überfluss schaffen, der den Wert einzelner Produkte so weit senken würde, dass sich jedermann mehr leisten kann, als er braucht. Es wird zwar immer eine gewisse Ungleichheit geben. Aber in dieser neuen Welt wäre der wirtschaftliche Kuchen so gross, dass selbst die ärmsten Menschen im Vergleich zu heute als reich gelten würden. Der reduzierte Bedarf an menschlicher Arbeitskraft könnte uns sogar ein neues Wirtschaftssystem bescheren, in dem der Wunsch, „sich Dinge zu leisten“, kein Thema mehr sein wird. Mit einem solchen Potenzial könnte eine Anlage in eine frei zugängliche AKI das ultimative Investment in die Zukunft sein.

    Arthur C. Clarke sagte einmal, dass „jede hinreichend fortgeschrittene Technologie nicht mehr von Magie zu unterscheiden ist”2, und die AKI wäre die ultimative Demonstration dieser Einsicht. Superintelligenz ist jedoch keine Zauberei, und die Gesetze der Physik sind klar. So gesehen erfordert jede Steigerung des Wirtschaftswachstums eine entsprechende Steigerung des Verbrauchs von Energie und Rohstoffen. Das bedeutet, dass die Nachhaltigkeit nicht verhandelbar ist.
     

    Wenn wir unsere Superintelligenz nicht für das Ziel einer Transformation hin zu 100% erneuerbaren Energien einsetzen, bevor wir mit ihrer Hilfe den ökonomischen Kuchen exponentiell vergrössern, könnten wir ebenso gut mit nur einer einzigen Tankfüllung in die Wüste fahren.

     

    Uns selbst finden

     

    Schliesslich steht noch die komplexe Frage im Raum, inwieweit wir uns von der Superintelligenz verändern lassen wollen. Im Prinzip könnte die AKI für die Menschen den Zwang beseitigen, physische oder geistige Arbeit zu leisten, sodass wir uns ausschliesslich der Musse widmen könnten. Schliesslich ist der einzige Weg, faire Bedingungen herzustellen, sie abzuschaffen. Doch sind wir psychologisch in der Lage, in einer Welt zu leben, in der der Begriff „grosse Leistung“ ein Widerspruch in sich ist? Wenn nicht, dann müssen wir uns genau überlegen, wie viel von der Wirtschaft wir in digitale Hände geben wollen – genug, um eine Welt zu schaffen, in der wir wirklich leben wollen, aber nicht so viel, dass wir an Bequemlichkeit sterben. Die AKI könnte uns alles geben, was wir uns wünschen. Doch nur wir können entscheiden, was wir wirklich brauchen.

    1 www.LessWrong.com
    2 Wikipedia

    Wichtige Hinweise.

    Die vorliegende Marketingmitteilung wurde von Lombard Odier (Europe) S.A., einem in Luxemburg durch die Commission de Surveillance du Secteur Financier (CSSF) zugelassenen und von dieser regulierten Kreditinstitut, herausgegeben. Diese Mitteilung wurde von jeder ihrer Zweigniederlassungen, die in den am Ende dieser Seite angegebenen Gebieten tätig sind (nachstehend "Lombard Odier"), zur Veröffentlichung genehmigt.

    Entdecken Sie mehr.

    Sprechen wir.
    teilen.
    Newsletter.