I vores Secure Market Power praktiserer vi en meget simpel investeringsstrategi. Vi forsøger at identificere selskaber, som grundet meget stærke og vedvarende konkurrencefordele, næppe vil blive udsat for intensiveret konkurrence. Det betyder samtidig også, at vi ikke rigtig har fokus på den kortsigtede støj, såsom ’Hvad sker der med makroøkonomien?’, ’Hvilke ”fads” er de populære temaer på de finansielle markeder?’ og ’Hvem bliver den næste amerikanske præsident?’ Langt hen ad vejen er disse faktorer nemlig fuldstændig ligegyldige, når man udvider sin tidshorisont i investeringsøjemed fra dage til år eller endda årtier.
Torsdag d. 24. oktober 2024
I de sidste par år har ét tema dog haft altoverskyggende effekt på de finansielle markeder: AI eller kunstig intelligens. Det er da heller ikke gået vores opmærksomhed forbi, at en væsentlig del af det globale aktiemarkeds afkast de sidste par år kan tilskrives en håndfuld selskaber i AI-økosystemet. Det er næsten svært at få armene ned over alle de problemer AI kan løse. Vi forsøger dog alligevel at forholde os relativt ydmyge til udbredelsen af en ellers så spændende teknologi. Vi er ikke desto mindre ekstremt optimistiske vedrørende vores markedsledende selskabers evne til at lukrere på brugen af kunstig intelligens.
Hvordan har AI udviklet sig de sidste par år?
Hypen vedrørende AI begyndte, som de fleste nok kan huske, da OpenAI lancerede ChatGPT i slutningen af 2022. AI har egentlig påvirket vores hverdag langt før dette f.eks. gennem algoritmerne, der bestemmer det indhold, som du bliver præsenteret for på sociale medier. Det nye var dog, at ChatGPT var såkaldt ”generative AI”. Som navnet antyder, kunne man nu få AI til at generere chatsvar, billeder og meget andet.
Mens mange trods alt har stiftet en eller anden form for bekendtskab med AI, er det vel fair nok at sige, at effekten indtil videre har været forbeholdt enkelte industrier og de finansielle markeder mere, end at det har revolutioneret vores liv og samfund. Fundamentet til den større udrulning af AI er dog for alvor begyndt at blive lagt. De store teknologigiganter (Amazon, Alphabet og Microsoft m.fl.) har gennem de sidste år investeret milliarder i at gøre klar til udrulningen af AI. De har hyret titusindvis af softwareudviklere til at programmere AI-modeller og investeret hundredvis af milliarder dollars i udbygningen af datacentre (herunder mikrochips). Ambitionen er at teknologigiganterne skal tilbyde kunderne brugen af deres AI-værktøjer og/eller adgang til processeringskraft i deres datacentre, så selskaber på egen hånd kan udvikle AI-modeller.
Hvor befinder AI sig i dag?
Men hvor er det så lige helt præcist, at AI befinder sig i dag? Efter at vores børn har fået en introduktion til livet, først hjemme ved mor og far og derefter i børnehaven, begynder skolegangen, der skal gøre dem klar til virkelighedens udfordringer. Det er på dette stadie, at AI på nuværende tidspunkt befinder sig.
Lærerens opgave er at videregive information til sine elever, sætte det i system og lære børnene at forstå det. Det kan i høj grad sammenlignes med softwareingeniørerne, der designer de AI-baserede modeller som f.eks. ChatGPT. Det er så at sige de velbetalte softwareingeniører, der tilrettelægger ”skolegangen” for AI-modellerne. Konkurrencen for at tiltrække de dygtigste softwareudviklere er den seneste årrække spidset til, hvilket let kan illustreres ved det faktum, at det langt fra er unormalt, at lønnen kan være på mere end DKK 2-3 millioner om året.
I børnenes læring er materiale altafgørende. Bøgerne, som børnene får stillet til rådighed i pensum, kan sammenlignes med det data, som AI-modeller skal trænes på. Her bruges enorme mængder af processeringskraft på, at modellerne gennemarbejder så meget data som muligt. Det er denne ”træning”, der gør det muligt for ChatGPT at besvare spørgsmål.
Data er et afgørende parameter inden for kunstig intelligens og en række virksomheder er begunstiget af at være i besiddelse af unikke datasæt, der kan gøre dem til den åbenlyse udbyder af kunstig intelligens inden for forskellige industrier. For eksempel har vores Secure Market Powers porteføljeselskaber Verisk Analytics unikke data vedrørende forsikringer og Moody´s har unikke data vedrørende selskabers finansielle forhold, ESG, ejerskab mv. Således er begge selskaber veleksponeret til at tilbyde deres kundebase ”AI-assistenter”, der skal optimere kundernes drift (Moody´s estimerer en produktivitetsgevinst på 20-30%).
Vi står, som vist i grafen, overfor en eksplosion i det globale dataforbrug.
For at sætte det lidt i perspektiv svarede vores dataforbrug i 2020 på 47 Zettabytes til, at vi kunne stable 24 tårne, der når til månen, med Blueray DVD´er fyldt med vores data. Det tilsvarende antal tårne forventes at være end 1.100 i 2035! Til sammenligning kunne vi blot samle ét enkelt tårn i samme højde med det globale dataforbrug i 2010. Det svarer altså til en forventet årlig vækst på mere end 32% fra 2010-2035.
For at eleverne kan lære kræves der en hjerne – lommeregneren, der muliggør at eleverne kan gennemgå og huske pensum/data. som læreren stiller til rådighed. Der er stor forskel på elevers indlæringsevner og hvor gode de er til at mestre flere forskellige fagligheder. Mange elever har enkelte fag, hvor de brillierer, men andre fag, hvor de er knap så skarpe. De ekstraordinære kan mestre alle fagene på samme tid. De mikrochips, som ovennævnte teknologigiganter investerer massivt i, spiller samme rolle som børnenes hjerne.
Hvad er GPU og CPU?
Det ”gamle regneparadigme” har i høj grad været funderet på den hjerne eller mikrochip, som man kalder en CPU (Central Processing Units). En CPU er en kraftig regnemaskine, men den er ikke særlig velegnet til at processere forskellige ting på samme tid. Det ”nye regneparadigme” baserer sig på GPU’er (Graphic Processing Units). GPU’er baserer sig på såkaldte ”parallelle beregninger”, hvilket betyder, at en GPU kan gennemføre flere beregninger på samme tid. En CPU svarer altså til eleven, der er ekstremt dygtig til et enkelt fag, mens en GPU svarer til eleven, der kan mestre flere fag på samme tid. AI-modeller skal mestre uendeligt mange ting, og det er altså ikke svært at se, hvorfor GPU’er er særligt velegnede til træningen af disse modeller. Det er altså ikke tilfældigt, at NVIDIA, der er markedsleder inden for GPU´er, i dag har en markedsværdi, der kun er overgået af Apple og Microsoft.
Hvis det lykkes læreren at sætte de rigtige rammer og give eleverne adgang til de rigtige bøger, så vil det lykkes eleverne, med de rigtige forudsætninger, at komme langt. Sammenligneligt vil det for AI-modeller være afgørende, at softwareudviklerne programmerer modellerne optimalt, og at de har muligheden for at træne modellerne på det rigtige data, hvilket kræver adgang til massive mængder af GPU’er.
Hvad vil der ske, når AI for alvor bliver ”mainstream”?
Der er ingen tvivl om, at AI har bevæget sig ekstremt hurtigt, og vi har allerede fået de første indblik i, hvordan AI kan komplementere og erstatte menneskelig arbejdskraft. Modellerne er dog i høj grad stadig på skolebænken og den generelle udbredelse i samfundet er stadig begrænset relativt til de enorme muligheder, der venter i de kommende årtier. Spørgsmålet er, hvad der vil ske, når AI for alvor bliver ”mainstream” og modellerne går fra skolebænken til at blive sluppet løs i samfundet? På et samfundsplan er det svært at spå om, men der er nok ingen tvivl om, at AI vil påvirke effektiviteten inden for en lang række industrier i en positiv retning. Vi er dog som investorer mest af alt interesseret i, hvordan det påvirker virksomheder i AI-økosystemet og selvfølgelig selskaberne på tværs af vores Secure Market Power-portefølje. Som nedenstående figur forsøger at illustrere, er ”paradigmeskifte” typisk forbundet med forskellige faser, der bygger videre på hinanden i form af:
- Udvikling og produktion af hardware (mikrochips)
- Etablering af infrastrukturen (datacentre)
- Software (AI modeller)
- Mainstream udbredelse (brugen af AI på tværs af industrier).
AI-infrastruktur
Mikrochipindustrien er fundamentet for udbredelsen af AI i samfundet, da den ekstremt komplekse værdikæde leverer den processeringskraft, der muliggør AI og vil opleve signifikant medvind de kommende årtier fra efterspørgslen på processeringskraft til AI. I den seneste årrække er produktionen af mikrochips blevet mere og mere kompliceret, da det bliver sværere og sværere at gøre dem mere effektive. Det kræver tilmed større og større investeringer for at kunne producere mere avancerede mikrochips. Kombinationen af kompleksiteten og investeringsintensiteten har medført en konsolidering, hvor mikrochipværdikæden i dag domineres af en række monopoler, herunder vores fire porteføljeselskaber:
- TSMC (verdensførende mikrochipproducent)
- ASML (verdens eneste leverandør af EUV-maskiner)
- BESI (markedsleder inden for maskineri til pakning af mikrochips)
- VAT Group (levering af vakuum ventiler til produktion af mikrochips).
Vores fire porteføljeselskaber, blandt en række andre, udgør den såkaldte ”bottleneck” eller flaskehals inden for den teknologiske udvikling, herunder AI. Det er praktisk talt disse selskabers evne til at skalere deres produktion, der er afgørende for, hvor hurtigt AI og andre teknologier kan udbredes i samfundet. AI kommer dermed også til at spille en nøglerolle i vores porteføljeselskabers fremtidige indtjeningsevne. Det afgørende for os er dog, at vores investeringer i mikrochipværdikæden ikke er baseret udelukkende på AI, men snarere det faktum, at samfundets efterspørgsel på mikrochips vil vokse i takt med alt fra den grønne omstilling, 5G, smartphones mv.
Infrastrukturvirksomheder kan enten ende med at blive store vindere eller store tabere. De store teknologiselskaber (Amazon, Alphabet, Microsoft m.fl), der investerer milliarder af dollars i datacentre for at etablere infrastrukturen til kunstig intelligens, har behov for, at kunderne er villige til at betale milliardsummer for adgangen til datacentre, før det bliver en attraktiv investering. Vi har ingen investeringer i disse ”hyperscalers”, da uforudsigeligheden er for høj. Når en håndfuld selskaber investerer mere end 200 milliarder dollars om året, og vi principielt ikke ved præcist, hvilken værdi det vil tilføre kunden endnu, så har vi ikke noget grundlag for at foretage en investering heri. Efterspørgslen på AI virker næsten umætteligt, men sandheden er, at AI stadig er på et meget tidligt stadie. Det kræver mindre regnekraft at lave såkaldt inferens (dvs. bruge modellerne, der er blevet trænet) end selve træningen af modellerne. Vi kender ikke summen af alt dette, men hvis man lige pludselig står i en situation, hvor udbuddet overstiger efterspørgslen, så vil ejerne af datacentrene kun have et parameter at skrue på: prisen.
Softwarevirksomheder kan også enten blive store vindere eller tabere. Vi må ærligt erkende, at det langt hen ad vejen er for vanskeligt for os at vurdere. I fremtiden vil kunstig intelligens sandsynligvis gøre det meget lettere at udvikle nyt software. Du kan principielt få AI til at kode dig et stykke software. Det afgørende bliver derfor, om der er andre indgangsbarrierer end bare det at have et stykke software. Her kommer unikke data til at spille en afgørende rolle og ”data analytics”-selskaber lader til at være velpositionerede i en verden, hvori kunstig intelligens kan optimere værdien af data.
Tag for eksempel vores porteføljeselskab Verisk Analytics. Verisk Analytics får indleveret data fra nærmest samtlige forsikringsselskaber i USA, som de analyserer og tilbagesælger gennem et stykke software til deres kundebase. Kunstig intelligens vil have svært ved at replicere dette, da det kun er Verisk, der har adgang til den data. AI vil tværtimod være en fordel for et selskab som Verisk, da det vil gøre dem i stand til at skabe endnu mere værdi på det unikke data, som selskabet besidder, ved at hjælpe forsikringsselskaberne til endnu bedre at prisfastsatte deres forsikringer.
Herudover er der alle de virksomheder, der kan drage nytte af AI-løsningerne til at optimere deres produkter eller deres omkostningsbase. For eksempel kan banker formentlig bruge AI til at sænke deres omkostningsbase gennem hurtigere kreditbehandlinger og mere automatisering. Problemet er, at denne teknologi er tilgængelig for alle banker og qua deres intensive konkurrence, bør fordelen ved implementeringen af AI i høj grad tilfalde kundebasen. Vores porteføljeselskaber har meget begrænset konkurrence og bør derfor i markant højere grad være i stand til at fastholde fordelene ved implementeringen af AI. Tag for eksempel et selskab som Melrose, der leverer stationære komponenter til flymotorer, og inden for en lang række komponenter er den eneste leverandør globalt. Hvis Melrose kan anvende AI til at optimere sin omkostningsbase, er det Melrose, der vil fastholde gevinsten. Der er ingen konkurrenter til at konkurrere gevinsten væk!
Der vil selvfølgelig også opstå nye ”disrupters”, som opfinder nye innovative AI-applikationer. Det er ikke en del af vores investeringsfilosofi eller ”circle of competence”, at forsøge at identificere disse ”disrupters”. Det kan godt være, at vi misser den næste Tesla, men vi skulle også gerne misse de tabsgivende disrupters som Peloton, Affirm og Zoom, der ellers var såkaldte ”aktiedarlings” i 2020-2021, men siden da er faldet hhv. 97%, 73% og 88%.
Det illustrerer også meget godt vores investeringsfilosofi i Secure Market Power. Vi forsøger ikke at identificere trends og disrupters, men snarere de etablerede virksomheder, der qua stærke vedvarende konkurrencefordele er velpositionerede til at nyde gavn af innovation snarere end at blive udfordret af den.