Daten als wertvollste Ressource der Wirtschaft

Die exponentielle technologische Entwicklung hat die Fortschritte auf dem Gebiet der Künstlichen Intelligenz (KI), wie wir sie zurzeit erleben, erst möglich gemacht. Die allgegenwärtigen Smartphones besitzen mehr Rechenpower als noch vor Jahren schrankgroße Superrechner.

Neben der Rechenleistung gibt es aber noch einen weiteren, eng damit zusammenhängenden Aspekt: Big Data. Nach einer Schätzung von IBM sind 90 % der weltweit digital verfügbaren Daten in den vergangenen zwei Jahren entstanden. Der für diese Informationen nötige Speicherplatz soll von rund vier Zettabyte (das entspricht einer Milliarde Festplatten à vier Terrabyte) 2015 auf über 40 Zettabyte 2020 ansteigen. Der Grund für diese Datenexplosion ist, dass nicht nur die Vielfalt der verfügbaren Datentypen und -quellen stark gestiegen ist, sondern auch die Frequenz, mit der sie entstehen, (man denke an einen stetigen Fluss von Echtzeit-Daten) und die immer weiterwachsenden Speichermöglichkeiten.

Und so erleben wir möglicherweise – pünktlich zum 200. Geburtstag von Karl Marx – eine einschneidende Änderung unserer Wirtschaftsordnung. Seit Marx‘ Zeiten waren wir es gewohnt, dass Kapital, Boden und Arbeit die Grundlage für eine florierende Ökonomie sind. Heute haben sich die Gewichte verschoben. Das Geschäftsmodell von Amazon in der Retail-Sparte beispielsweise basiert unter anderem darauf, Kundendaten zu sammeln und auszuwerten, um möglichst schon vor der Bestellung den nächsten Wunsch vorschlagen zu können. Das Unternehmen hat einen um ein Vielfaches höheren Börsenwert als traditionelle Händler wie Walmart. Datensammler wie Google und Facebook haben Industriegiganten wie Siemens oder General Electric längst abgehängt. Nach Ansicht von Jonathan Haskel, VWL-Professor an der Business School des Imperial College in London, sind wir in eine neue Phase eingetreten, die er „Kapitalismus ohne Kapital“ nennt. Wer heute im Silicon Valley oder im technologieverrückten Asien eine heiße Idee für ein digitales Geschäftsmodell hat, braucht sich um die Finanzierung kaum Sorgen zu machen, denn die Venture-Capital-Firmen stehen Schlange. Laut Haskel sind wir sicherlich noch im Kapitalismus, aber die knappen Ressourcen sind Patente, Software und vor allem die Fähigkeit, mit riesigen Datenmengen umzugehen.

Diese Vielfalt an Daten kann vereinfacht entlang zweier Dimensionen kategorisiert werden. Wenn Daten bereits in geordneter Form direkt nutzbar gespeichert sind, also zum Beispiel als Tabelle oder Zeitreihe, spricht man von strukturierten Daten. Die Information ist unmittelbar durch die Daten selbst repräsentiert. Unstrukturierte Daten hingegen müssen zuerst noch aufbereitet werden, um Informationen aus ihnen gewinnen zu können. Beispiele für unstrukturierte Daten sind Texte, Fotos, Videos oder Tonaufnahmen. Eine zweite, aus Sicht der Finanzbrache relevante Dimension ist, ob es sich um Finanzdaten handelt oder „andere“, also „non-financial“ Daten.

Strukturierte Finanzdaten sind seit Jahrzehnten die Grundlage für die meisten Asset Manager. Wir sprechen hier von Preis- und Volumendaten von Aktien, Anleihen oder Indizes, von Unternehmenskennzahlen, von volkswirtschaftlichen Indikatoren wie Inflation oder BIP-Wachstum. Hier hilft die KI vor allem, mit dem immens gestiegenen Volumen und der Geschwindigkeit des Entstehens von Daten zurechtzukommen. Heute sind Echtzeit-Daten aller großen Aktienmärkte erhältlich, die sofort in Handelssignale umgesetzt werden können.

Einige Asset Manager sind dabei, ihre Datenbasis in Richtung strukturierter „non-financial“-Daten zu erweitern. Beispiele dafür sind Verkehrsstatistiken, die Aufschluss über die Besucherfrequenz erlauben, oder Suchmaschinenanfragen, oder Daten von Wettersatelliten oder Werbedaten und Wahlergebnisse. Wenn die Prognosen eines Landes den Wahlsieg der Regierungspartei voraussagen, kann dies eine Überraschung sein oder die Erwartungen bestätigen. Je nachdem, wie wirtschaftsfreundlich die Partei ausgerichtet ist, hat dies wiederum unterschiedliche Auswirkungen auf die Börse.

Auch interessant sind unstrukturierte Finanzdaten, also zum Beispiel Analystenkommentare, Pflichtmitteilungen oder Geschäftsberichte. Die Nutzung solcher Daten an sich ist natürlich kein Novum in der Finanzbranche, sondern das A und O der Fundamentalanalyse. Neu ist die Entwicklung, dass diese Texte maschinell gelesen, verglichen und interpretiert werden können. Einfachere Lösungen stützen oft auf vordefinierte Schlüsselwörter ab, deren Vorkommen in Texten gezählt wird. So kann das Thema oder die positive bzw. negative Grundaussage des Autors zum Thema abgeleitet werden. Neuere Ansätze versuchen, den Text syntaktisch zu verstehen und so wesentlich mehr, und menschenähnlicher, Informationen zu gewinnen. Man spricht dabei Natural Language Understanding (NLU). Eine Software, die rund um die Uhr solche Texte „liest“, versteht und die Information darin extrahieren und aufbereiten kann, ist traditionellen Research-Häusern, die dafür eine Vielzahl von Analysten beschäftigen müssen, um entscheidende Stunden oder sogar Tage voraus – bei niedrigeren Kosten.

Die Königsklasse ist die Verarbeitung von unstrukturierten „non-financial“ Daten. Nur sehr wenige Asset Manager können hier bereits nachweisbare Erfolge melden, aber das könnte der Schlüssel zu einem ganz neuen Datenschatz sein, der wesentlich größer und vielfältiger ist, als die bisher zur Verfügung stehenden Ressourcen. Sollten unstrukturierte Daten verschiedener Quellen zugänglich sein, dann sprechen wir über Zeitungen, Satellitenbilder, Social Media Postings und Blogs, über GPS-Standortdaten. Oder die Echtzeit-Analyse der Gesichtsmimik des CEOs während der Übertragung einer Pressekonferenz mit sofortigem Abgleich zum gesprochenen Text. Klingt das nach Science-Fiction für Sie? Die dazu nötigen Technologien wurden im Grundsatz bereits entwickelt.

Asset Manager ganz unterschiedlicher Richtungen müssen sich mit Daten beschäftigen. Schon jetzt ist abzusehen, dass es einen Wettlauf um die besten Datenquellen und Verarbeitungsmethoden geben wird. Wer Daten schneller, umfassender und präziser auswerten kann als die Konkurrenz hat einen Informationsvorsprung. Was heute noch als innovativ gilt, kann schon in kurzer Zeit als „Commodity“ für jedermann abrufbar sein. Künstliche Intelligenz, und allem voran die datengetriebenen Methoden im Bereich des maschinellen Lernens, sind prädestiniert, heterogene Datensätze unterschiedlicher Herkunft als Ganzes zu betrachten und darin nach komplexen, auch nicht linearen Mustern zu suchen. Durch diese Eigenschaft kann eine Maschine Zusammenhänge entdecken, wo ein menschlicher Analyst vor lauter Bäumen den Wald nicht mehr sieht, obwohl die Maschine im eigentlichen Detailverständnis einzelner Datensätze dem Menschen oft noch unterlegen ist.

Im nächsten Artikel unserer KI-Serie werden wir uns einige Asset Manager und deren Methoden genauen ansehen, die bereits Künstliche Intelligenz auf unterschiedliche Art und Weise verwenden.

Über den Autor

  • Guenter Jaeger

    Guenter Jaeger

    CEO PLEXUS Investments

    Günter Jäger ist Gründer und CEO der vor 10 Jahren gegründeten PLEXUS Investments. Vorher leitete er das Portfolio Management des fürstlichen Portfolios sowie der Multimanager-Produkte bei der LGT Capital Management AG in Pfäffikon. Er verfügt über einen Abschluss als Magister der Sozial- und Wirtschaftswissenschaften sowie ein Eidgenössisches Diplom des Finanz- und Anlageexperten. Er ist außerdem Chartered Alternative Investment Analyst (CAIA), Certified Financial Risk Manager (CFRM) und Certified International Wealth Manager (CIWM).

    RSS-Feed abonnieren