Markets

Neuer technischer Fortschritt muss menschliches Element beinhalten, um Vertrauen zu gewinnen

Neue Technologie muss menschliche Aspekte einbeziehen, um Vertrauen zu gewinnen – Experten fordern Anpassung.

Eulerpool News 21. Juli 2024, 09:05

Wir sollten nicht überrascht sein, dass künstliche Intelligenz (KI) im Durchschnitt besser als Aktienanalysten in der Prognose von Gewinnen abschneidet. Oder dass regelbasierte Strategien im Durchschnitt bessere Finanzberatung bieten als ein persönlicher Bankier. Schon vor den jüngsten Fortschritten in der generativen KI gab es bewährte Vorteile, systematisch zu investieren. Während solche Techniken vielleicht nicht die seltenen Top-Aktien oder Marktwendepunkte finden, die überdurchschnittliche Renditen bringen, haben sie dennoch erwiesenen Wert.

KI-Entwicklungen zeigen jedoch, dass wir über regelbasierte Empfehlungen hinausgehen können. Makroökonomie, Rechnungswesen und Statistik sind die drei Säulen der Investition. Große Sprachmodelle erzielen in fortgeschrittenen Prüfungen dieser Fächer Spitzenwerte. Zudem wissen wir, dass LLMs weitaus mehr Kontext und kollektive Weisheit zusammenfassen können als ein Mensch, was für makroökonomische Strategien sehr hilfreich sein kann. Wenn KI also bei Finanzentscheidungen helfen kann, warum fällt es Analysten oder Portfoliomanagern so schwer, diesen Wandel zu akzeptieren?

Einige Hinweise finden wir in der Arbeit des Datenwissenschaftlers César Hidalgo darüber, wie Menschen Maschinen beurteilen. Wenn wir ein Programm nutzen, konzentrieren wir uns auf die Leistung des Werkzeugs. Jeder Vorhersagefehler dieses Programms wird dazu führen, dass unser Finanzprofi das Vertrauen verliert. In den meisten Fällen ist es egal, ob der Algorithmus im Durchschnitt besser ist als der Mensch. Unser Finanzberater wird sich auf seine Intuition und Erfahrung verlassen.

Hidalgos Forschung zeigt, dass wir menschliche Beratung anders beurteilen. Wir schauen über die Leistung hinaus und berücksichtigen die Absichten der Person, die uns berät. Wenn wir uns mit einem privaten Banker einlassen oder unser Geld einem Fondsmanager anvertrauen, nehmen wir eine Übereinstimmung mit unseren Zielen an, besonders wenn der Vertrag leistungsabhängige Gebühren enthält. Wenn wir diese Absichten in unsere mentale Gleichung einbeziehen, sind wir toleranter gegenüber einer schlechten Rendite.

Menschliche Beratung kann also häufiger scheitern und wird trotzdem als wertvoll angesehen, besonders wenn es eine Geschichte gibt, die das Ergebnis erklärt. In Hidalgos Worten erwarten wir von Maschinen Rationalität und von Menschen Menschlichkeit.

Wir widerstehen auch der Aufnahme von Informationen, die unserer Erfahrung widersprechen. In Experimenten mit Radiologen, die KI nutzten, war unklar, wie sie die Ansichten des Algorithmus in ihre Vorhersagen einbezogen. Die Arbeit dauerte länger und die Wirksamkeit der kombinierten Diagnostik war fraglich.

Wenn das für Radiologen gilt, muss es für jeden, der an den Finanzmärkten arbeitet, noch schwieriger sein. Die Makrostrategie könnte der schwierigste Bereich sein, um KI zu integrieren. Erstens, weil der Markt, wie das Wetter, nicht stationär ist, was bedeutet, dass er nie genau gleich auf z.B. Inflations- oder Beschäftigungsdaten reagieren wird, geschweige denn auf eine mögliche Rückkehr von Donald Trump ins Weiße Haus. Außerdem hat jeder Stratege starke Anfangsüberzeugungen – oder eine „Identität“ als immer optimistisch oder pessimistisch –, die sein Urteil beeinflussen. Es ist sehr schwer, den Erzählungen zu entkommen, die die Kunden von einem erwarten.

Zuletzt sehnen wir uns nach Kontrolle. Es gibt einen radikalen Unterschied zwischen einem Modell, das mit einer Tabellenkalkulation aus verfügbaren Daten erstellt wurde, und z.B. ChatGPT. Basierend auf unserer Erfahrung und Intuition entscheiden wir über die Form und Komponenten des ersteren, aber nicht des letzteren. Und in den meisten Fällen wissen wir nicht einmal, wie das LLM zu einer bestimmten Antwort gekommen ist. Daher ist es verständlich, dass unser Finanzberater sich unwohl fühlt, eine Vorhersage zu nutzen, die nicht seine eigene ist.

Es gibt einige Überlegungen, die man in Betracht ziehen sollte. Wir sollten Menschen erlauben, einige Parameter des Modells anzupassen. Mit anderen Worten, wir müssen den Fachleuten erlauben, die KI-Empfehlungen so anzunehmen, als wären sie ihre eigenen. Im besten Fall kann das Modell verbessert werden, wenn der Experte Kontext hinzufügt, der dem Modell möglicherweise nicht zugänglich ist. Das könnten private Umstände des Kunden oder andere schwer quantifizierbare Faktoren und Einschränkungen sein. Alternativ könnten wir einen Performance-Einbruch akzeptieren, wenn dadurch mehr Menschen die Erkenntnisse wegen des menschlichen Touches akzeptieren. Dies könnte ein vernünftiger Kompromiss in Bereichen wie der Vermögensverwaltungsberatung sein.

Schließlich müssen wir versuchen, KI verständlicher zu machen. Dies ist eine berechtigte Erwartung, da die Anforderungen an Prüfung und Compliance wachsen. Darüber hinaus integrieren einige der führenden Modelle „Chain of Thought“-Logik, die das Expertenwissen in einem Rohmodell kodifiziert. Auf diese Weise sehen wir nicht nur Leistungssteigerungen, sondern haben auch einige Regeln, denen die meisten Experten vertrauen können. Niemand möchte wie ein dummer Roboter aussehen, der nur den Rat einer Black Box wiederholt. Vertrauen und Urteilskraft sind entscheidende Merkmale in einer Kundenbeziehung. Am Ende erwarten wir, dass Menschen menschlich bleiben.

Die besten Investoren analysieren mit Eulerpool
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Für 2 € sichern

Favoriten unserer Leser