«Künstliche Intelligenz hat viel Potenzial in der Lieferkette»

«Von der enormen Nachfrage nach den Computerchips, profitieren auch viele Unternehmen, die im Herstellungsprozess aktiv sind», schreibt Mike Glöckner von DJE Kapital. (Bild pd)
«Von der enormen Nachfrage nach den Computerchips, profitieren auch viele Unternehmen, die im Herstellungsprozess aktiv sind», schreibt Mike Glöckner von DJE Kapital. (Bild pd)

Technologisch wird in Bezug auf Künstliche Intelligenz (KI) oftmals von einer neuen Ära gesprochen, die 2023 eingeläutet wurde. «Solche Entwicklungsschübe geschehen in etwa alle zehn Jahre. Ist das Muster diesmal ähnlich, stehen wir erst am Anfang der KI-Ära», schreibt Mike Glöckner, Analyst Research & Portfoliomanagement bei DJE Kapital AG.

01.11.2023, 10:17 Uhr
Anlagestrategie

Redaktion: sw

Viele Aktien im Technologiebereich haben von den Entwicklungen der KI bereits stark profitiert. Dazu gehören unter anderem die Cloud-Hyperscaler Amazon, Google, Microsoft und natürlich der bekannte Chiphersteller NVIDIA. Die genannten Unternehmen gehören auch zu den sogenannten «glorreichen Sieben», die fast ausschliesslich die positive Gesamtperformance des S&P 500 dieses Jahres getrieben haben. Entsprechend hoch sind auch die Bewertungen dieser Unternehmen am Aktienmarkt. «Doch von der enormen Nachfrage nach den Computerchips, die künstliche Intelligenz erst möglich machen, profitieren auch viele Unternehmen, die im Herstellungsprozess aktiv sind», weiss Mike Glöckner.

Viele dieser Unternehmen haben seit Beginn des KI-Booms eine positive Entwicklung durchlaufen, was natürlich keine Garantie für die zukünftige Entwicklung sei. Dennoch schätzt Morgan Stanley Research das Volumen des KI-Technologiemarkts (Chips, Hardware, Netzwerk) heutzutage auf rund 98 Milliarden US-Dollar und geht bis 2027 von einem Wachstum auf 275 Milliarden US-Dollar aus.

Viele der Unternehmen in der Lieferkette haben ihren Hauptsitz in den USA oder in Asien (primär in Taiwan). Aber es gibt auch einige in Europa. Es handelt sich grösstenteils um hochspezialisierte Firmen, deren Marktkapitalisierung teilweise nur wenige Milliarden US-Dollar betragen und die zum Teil auch eine Performance ähnlich wie NVIDIA in diesem Jahr erzielt haben, obwohl sie viel unbekannter seien.

Der Markanteil von NVIDIA für sogenannte Künstliche Intelligenz Graphics Processing Units (AI-GPU) liegt bei etwa 80 Prozent. Dieser Marktanteil dürfte allerdings in Zukunft etwas zurückgehen, da ein konkurrierendes Unternehmen, das High-Performance- und Adaptive Computing-Produkte herstellt, dieses Quartal einen neuen Chip auf den Markt bringen will. Der sogenannte AI-GPU MI300 Chip ist speziell für «Large Language Models» wie Chat GPT konzipiert. Auch andere grosse IT-Konzerne haben Milliarden im Bereich KI investiert.

Komponenten auf engstem Raum

Für technischen Fortschritt bedarf es immer leistungsfähigerer Chips, die geplant und designt werden müssen. Fast 60 Jahre lang hat sich die Anzahl der Transistoren in einem Chip etwa alle zwei Jahre verdoppelt. Dieses «Gesetz» war eine Beobachtung des ehemaligen Intel-CEOs Gordon Moore im Jahr 1965.

Diese Geschwindigkeit kann mittlerweile aber nicht mehr eingehalten werden. Daher hat die Chipindustrie begonnen verstärkt in anderen Bereichen des Designs oder der «Architektur» eines Chips Optimierungen umzusetzen, sodass die Gesamtperformance der Chips weiterhin ähnlich stark zunimmt. Das hat allerdings den Designprozess für Chips sehr aufwändig gemacht. Die derzeitige Architektur des aktuellen NVIDIA AI-Chips H100 beheimatet zum Beispiel 80 Milliarden Transistoren, und das gesamte HGX H100 Board mit mehreren Chips besteht aus bis zu 45’000 verschiedenen Komponenten, die alle miteinander und parallel kommunizieren müssen.

Die Entwicklung eines Chips kostet daher heutzutage mehrere hunderte Millionen US-Dollar. Zudem muss der Chip ausgiebig getestet werden, bevor er in die Massenfertigung gehen kann.

Für die Entwicklung dieser Designs gibt es spezialisierte Firmen, die unter anderem bereits entwickelte Teilkomponenten als Bausteine mitanbieten. Dies erspart wiederum Zeit und Kosten für die Chipingenieure bei der Entwicklung neuer Chips, sodass das Rad nicht jedes Mal neu erfunden werden muss.

Zu den globalen Marktführern im Chipdesign gehören laut DJE Kapital zwei amerikanische und ein englisches Unternehmen. Auch wenn manche dieser Unternehmen zunächst auf einen Bereich spezialisiert waren, expandierten einige jetzt auch in anderen zukunftsträchtigen Bereichen wie selbstfahrende Autos und High-Performance Server für Datacenters sowie «Smart Home»-Geräte und «Wearables».

Spezial-Chips

Neben der explodierten Nachfrage nach «Allround»-Chips für verschiedenste Anwendungen gebe es auch eine starke Entwicklung hin zu Chips, die speziell für bestimmte Zwecke entwickelt werden. «Viele dieser Chips werden in Sachen Kosten/Nutzen optimiert. In diesem Bereich gibt es hochspezialisierte, kleinere taiwanesischen Chipdesigner, die vor allem viel für Amazon, Google, Microsoft und für einen bekannten US-Elektroautohersteller produzieren.»

Neben Chips, die vor allem für künstliche Intelligenz Anwendungen entwickelt werden, gibt es auch Hersteller, die sich mehr auf Hochleistungs- Speicherchips spezialisiert haben. Diese werden High-Bandwidth-Memory (HBM) Chips genannt. In diesem Bereich dominierten zwei südkoreanische Firmen. Die genaue Verbauung der Chips und die Verbindung zu anderen Komponenten sei technologisch so anspruchsvoll, dass es hier ebenfalls spezialisierte Unternehmen gebe. Hinzu kommen noch Hersteller für die Leiterplatten für die elektronischen Bauteile (Platinen). Hier seien vor allem Zulieferer aus Taiwan für langlebige und zuverlässige Platinen in hoher Qualität bekannt.

AI-Server

Kunden wie Amazon, Google, Meta oder Microsoft kaufen oft nicht direkt das KI-Board (mit all den Komponenten darauf), sondern gleich ganze KI-Server. Das sind vorbereitete Computer, in denen alle Komponenten inklusive Netzwerk- und Stromanschlüssen, KI-Board, zusätzliche CPUs, Speicher, Kühlung etc. aufeinander abgestimmt und für beste Performance verbunden und vorbereitet sind, so dass diese nur noch im Data Center des Kunden angeschlossen werden müssen. In diesem Bereich gebe es einige interessante Firmen aus Taiwan, die man als Anleger in Betracht ziehen könne, heisst es weiter.

Testen des ganzen Systems

Die einzelnen Komponenten müssen vor Auslieferung umfangreich getestet werden. Ein NVIDIA KI-System (Platine mit Komponenten und Chips) kostet je nach Ausstattung zwischen 20’000 und 75’000 US-Dollar. Die Prüfung ist eine sehr komplexe Angelegenheit und kann mehrere Wochen dauern. Auch im Bereich Testen sind es Unternehmen aus Japan und Taiwan, die gut aufgestellt sind.

«Für Anleger kann es sich also lohnen, neben den grossen Nutzern der künstlichen Intelligenz auch einen genaueren Blick auf die am Erstellungsprozess beteiligten Unternehmen zu werfen», so das Fazit des Analysten.

Alle Artikel anzeigen

Diese Website verwendet Cookies, um Ihnen die bestmögliche Nutzung unserer Website zu ermöglichen.> Datenschutzerklärung