Nouveaux progrès techniques doivent inclure l'élément humain pour gagner la confiance

21/07/2024 09:05

La nouvelle technologie doit intégrer des aspects humains pour gagner la confiance – Les experts demandent une adaptation.

Eulerpool News 21 juil. 2024, 09:05

Nous ne devrions pas être surpris que l'intelligence artificielle (IA) soit en moyenne meilleure que les analystes financiers dans la prévision des gains. Ou que les stratégies basées sur des règles offrent généralement de meilleurs conseils financiers qu'un banquier personnel. Même avant les récents progrès en matière d'IA générative, les avantages éprouvés de l'investissement systématique étaient déjà visibles. Bien que ces techniques ne trouvent peut-être pas les actions rares ou les points de retournement du marché qui génèrent des rendements supérieurs à la moyenne, elles ont néanmoins une valeur démontrée.

Les développements en IA montrent cependant que nous pouvons aller au-delà des recommandations basées sur des règles. La macroéconomie, la comptabilité et les statistiques sont les trois piliers de l'investissement. Les grands modèles linguistiques obtiennent des résultats excellents dans les examens avancés de ces matières. De plus, nous savons que les LLM peuvent résumer bien plus de contexte et de sagesse collective qu'un être humain, ce qui peut être très utile pour les stratégies macroéconomiques. Si l'IA peut donc aider dans les décisions financières, pourquoi les analystes ou les gestionnaires de portefeuille trouvent-ils si difficile d'accepter ce changement ?

Voici quelques indications trouvées dans les travaux du data scientist César Hidalgo sur la façon dont les gens évaluent les machines. Lorsque nous utilisons un programme, nous nous concentrons sur la performance de l'outil. Toute erreur de prédiction de ce programme entraînera une perte de confiance de notre expert financier. Dans la plupart des cas, peu importe que l'algorithme soit en moyenne meilleur que l'humain. Notre conseiller financier se fiera à son intuition et à son expérience.

Les recherches de Hidalgo montrent que nous évaluons différemment les conseils humains. Nous dépassons la performance et considérons les intentions de la personne qui nous conseille. Lorsque nous interagissons avec un banquier privé ou confions notre argent à un gestionnaire de fonds, nous supposons que nos objectifs sont alignés, surtout si le contrat inclut des frais de performance. En intégrant ces intentions dans notre équation mentale, nous sommes plus tolérants face à une mauvaise performance.

La consultation humaine peut donc échouer plus souvent et être néanmoins considérée comme précieuse, en particulier lorsqu'il y a une histoire qui explique le résultat. Selon les mots de Hidalgo, nous attendons des machines qu'elles soient rationnelles et des humains qu'ils soient humains.

Nous résistons également à l'intégration d'informations qui contredisent notre expérience. Dans des expériences avec des radiologues utilisant l'IA, il n'était pas clair comment ils incorporaient les avis de l'algorithme dans leurs prévisions. Le travail prenait plus de temps et l'efficacité du diagnostic combiné était discutable.

Si cela est vrai pour les radiologues, cela doit être encore plus difficile pour quiconque travaille sur les marchés financiers. La stratégie macroéconomique pourrait être le domaine le plus difficile à intégrer pour l'IA. Premièrement, parce que le marché, comme la météo, n'est pas stationnaire, ce qui signifie qu'il ne réagira jamais de manière identique à, par exemple, des données d'inflation ou d'emploi, sans parler d'un éventuel retour de Donald Trump à la Maison Blanche. De plus, chaque stratège a des convictions initiales fortes – ou une « identité » en tant que toujours optimiste ou pessimiste – qui influencent son jugement. Il est très difficile d'échapper aux récits que les clients attendent de vous.

Enfin, nous aspirons au contrôle.

Il y a quelques considérations à prendre en compte. Nous devrions permettre aux gens de modifier certains paramètres du modèle. En d'autres termes, nous devons permettre aux experts d'accepter les recommandations de l'IA comme si elles étaient les leurs. Dans le meilleur des cas, le modèle peut être amélioré lorsque l'expert ajoute un contexte qui pourrait ne pas être accessible au modèle. Cela pourrait inclure des circonstances privées du client ou d'autres facteurs et contraintes difficiles à quantifier. Alternativement, nous pourrions accepter une baisse de performance si cela permet à davantage de personnes de se fier aux insights en raison de la touche humaine. Cela pourrait être un compromis raisonnable dans des domaines comme le conseil en gestion de patrimoine.

Enfin, nous devons essayer de rendre l'IA plus compréhensible. C'est une attente légitime car les exigences en matière d'examen et de conformité augmentent. De plus, certains des modèles les plus avancés intègrent une logique de « chaîne de pensée », qui code l'expertise dans un modèle brut. De cette manière, nous voyons non seulement des améliorations de performances, mais nous avons également quelques règles en lesquelles la plupart des experts peuvent avoir confiance. Personne ne veut ressembler à un robot stupide qui ne fait que répéter les conseils d'une boîte noire. La confiance et le jugement sont des caractéristiques essentielles dans une relation client. À la fin, nous nous attendons à ce que les humains restent humains.

Reconnaissez les actions sous-évaluées en un coup d'œil.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Abonnement pour 2 € / mois

Nouvelles