Ny teknologisk fremskridt skal indeholde et menneskeligt element for at vinde tillid

Ny teknologi skal medtage menneskelige aspekter for at opnå tillid – eksperter kræver tilpasning.

21.7.2024, 09.05
Eulerpool News 21. jul. 2024, 09.05

Vi bør ikke være overrasket over, at kunstig intelligens (AI) i gennemsnit klarer sig bedre end aktieanalytikere i prognoser for indtjening. Eller at regelbaserede strategier i gennemsnit giver bedre finansiel rådgivning end en personlig bankrådgiver. Allerede før de seneste fremskridt inden for generativ AI var der dokumenterede fordele ved at investere systematisk. Selvom sådanne teknikker måske ikke finder de sjældne topaktier eller markedsvendinger, der giver over gennemsnittet afkast, har de stadig en dokumenteret værdi.

KI-udviklinger viser dog, at vi kan gå ud over regelbaserede anbefalinger. Makroøkonomi, regnskab og statistik er de tre søjler af investering. Store sprogmodeller opnår topkarakterer i avancerede eksamener i disse fag. Derudover ved vi, at LLM'er kan sammenfatte langt mere kontekst og kollektiv visdom end et menneske, hvilket kan være meget nyttigt for makroøkonomiske strategier. Så hvis KI kan hjælpe med finansielle beslutninger, hvorfor har analytikere eller porteføljeforvaltere så svært ved at acceptere denne forandring?

Nogle tips finder vi i arbejdet fra dataforskeren César Hidalgo om, hvordan mennesker vurderer maskiner. Når vi bruger et program, fokuserer vi på værktøjets ydelse. Enhver forudsigelsesfejl i dette program vil få vores finansprofessionelle til at miste tilliden. I de fleste tilfælde er det ligegyldigt, om algoritmen i gennemsnit er bedre end mennesket. Vores finansrådgiver vil stole på sin intuition og erfaring.

Hidalgos forskning viser, at vi vurderer menneskelig rådgivning anderledes. Vi kigger ud over præstationen og tager hensyn til personens intentioner, som rådgiver os. Når vi indgår i samarbejde med en privatbankrådgiver eller betror vores penge til en fondsforvalter, antager vi, at der er en overensstemmelse med vores mål, især hvis kontrakten inkluderer præstationsbaserede gebyrer. Når vi medtager disse intentioner i vores mentale ligning, er vi mere tolerante over for et dårligt afkast.

Menneskelig rådgivning kan derfor oftere fejle og anses stadig som værdifuld, især når der er en historie, der forklarer resultatet. Ifølge Hidalgo forventer vi rationalitet fra maskiner og menneskelighed fra mennesker.

Vi modsætter os også optagelsen af informationer, der strider mod vores erfaring. I eksperimenter med radiologer, der brugte AI, var det uklart, hvordan de inddrog algoritmens synspunkter i deres forudsigelser. Arbejdet tog længere tid, og effektiviteten af den kombinerede diagnostik var tvivlsom.

Hvis det gælder for radiologer, må det være endnu sværere for enhver, der arbejder på finansmarkederne. Makrostrategi kan være det sværeste område at integrere KI i. For det første fordi markedet, ligesom vejret, ikke er stationært, hvilket betyder, at det aldrig vil reagere nøjagtigt ens på f.eks. inflations- eller beskæftigelsesdata, endsige på en mulig tilbagevenden af Donald Trump til Det Hvide Hus. Desuden har enhver strateg stærke begyndelsesoverbevisninger – eller en "identitet" som altid optimistisk eller pessimistisk – som påvirker hans dom. Det er meget svært at undslippe de fortællinger, som kunderne forventer af én.

Til sidst længes vi efter kontrol. Der er en radikal forskel mellem en model, der er udarbejdet med et regneark fra tilgængelige data, og f.eks. ChatGPT. Baseret på vores erfaring og intuition beslutter vi os for formen og komponenterne af den første, men ikke af den sidste. Og i de fleste tilfælde ved vi ikke engang, hvordan LLM'en er kommet frem til et bestemt svar. Derfor er det forståeligt, at vores finansrådgiver føler sig utilpas ved at bruge en forudsigelse, der ikke er hans egen.

Der er nogle overvejelser, der skal tages i betragtning. Vi bør give folk lov til at justere nogle parametre i modellen. Med andre ord skal vi give fagfolkene lov til at acceptere KI-anbefalingerne, som om de var deres egne. I bedste fald kan modellen forbedres, når eksperten tilføjer kontekst, som modellen måske ikke har adgang til. Dette kunne være kundens private omstændigheder eller andre svært kvantificerbare faktorer og begrænsninger. Alternativt kunne vi acceptere et ydelsesfald, hvis det betyder, at flere mennesker accepterer indsigterne på grund af den menneskelige berøring. Dette kunne være et fornuftigt kompromis på områder som formueforvaltningsrådgivning.

Endelig er vi nødt til at gøre AI mere forståelig. Dette er en berettiget forventning, da kravene til revision og overholdelse vokser. Desuden integrerer nogle af de førende modeller "Chain of Thought"-logik, som kodificerer ekspertviden i en råmodel. På denne måde ser vi ikke kun præstationsforbedringer, men har også nogle regler, som de fleste eksperter kan stole på. Ingen ønsker at fremstå som en dum robot, der blot gentager en Black Box's råd. Tillid og dømmekraft er afgørende i et kundeforhold. Til syvende og sidst forventer vi, at mennesker forbliver menneskelige.

Gør de bedste investeringer i dit liv.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Sikre dig for 2 euro

Nyheder