Nvidia kündigt neue Technologie an, um weiterhin im Zentrum der KI-Entwicklung zu bleiben

Sprache auswählen

German

Down Icon

Land auswählen

America

Down Icon

Nvidia kündigt neue Technologie an, um weiterhin im Zentrum der KI-Entwicklung zu bleiben

Nvidia kündigt neue Technologie an, um weiterhin im Zentrum der KI-Entwicklung zu bleiben

Nvidia CEO Jensen Huang machte am Montag eine Reihe von Ankündigungen und stellte neue Produkte vor, die darauf abzielen, das Unternehmen an der Spitze der Entwicklung künstlicher Intelligenz und Computertechnik zu halten.

Eine der bemerkenswertesten Ankündigungen war das neue Programm „NVLink Fusion“, das es Kunden und Partnern ermöglichen wird, Zentraleinheiten und Grafikprozessoren anderer Hersteller zusammen mit Nvidia-Produkten und NVLink zu verwenden.

Bisher war NVLink für Chips von Nvidia gesperrt. NVLink ist eine von Nvidia entwickelte Technologie zur Verbindung und zum Datenaustausch zwischen seinen GPUs und CPUs.

„NV Link Fusion ermöglicht den Aufbau einer halbkundenspezifischen KI-Infrastruktur und nicht nur halbkundenspezifischer Chips“, sagte Huang auf der Computex 2025 in Taiwan, Asiens größter Elektronikkonferenz.

Laut Huang ermöglicht NVLink Fusion die Kombination von Nvidia-Prozessoren mit verschiedenen CPUs und anwendungsspezifischen integrierten Schaltkreisen (ASICs) in KI-Infrastrukturen. „In jedem Fall profitiert man von der Nutzung der NV-Link-Infrastruktur und des NV-Link-Ökosystems.“

Nvidia gab am Montag bekannt , dass zu den KI-Chiphersteller-Partnern für NVLink Fusion bereits MediaTek und Marvell gehören. , Alchip , Astera Labs , Synopsys und Kadenz . Mit NVLink Fusion können Nvidia-Kunden wie Fujitsu und Qualcomm Technologies Außerdem könnten sie in KI-Rechenzentren ihre eigenen CPUs von Drittanbietern mit den GPUs von Nvidia verbinden, hieß es weiter.

Ray Wang, ein Halbleiter- und Technologieanalyst aus Washington, erklärte gegenüber CNBC, dass NVLink Nvidias Pläne widerspiegele, einen Anteil an Rechenzentren auf Basis von ASICs zu erobern, die traditionell als Konkurrenten von Nvidia angesehen wurden.

Während Nvidia bei GPUs für allgemeines KI-Training eine dominierende Stellung einnimmt, sehen viele Wettbewerber Potenzial für Erweiterungen bei Chips für spezifischere Anwendungen. Zu Nvidias größten Konkurrenten im KI-Computing – und gleichzeitig zu seinen größten Kunden – gehören Cloud-Anbieter wie Google, Microsoft und Amazon, die alle ihre eigenen, maßgeschneiderten Prozessoren entwickeln.

NVLink Fusion „konsolidiert NVIDIA als Zentrum der KI-Fabriken der nächsten Generation – auch wenn diese Systeme nicht vollständig mit NVIDIA-Chips gebaut werden“, sagte Wang und merkte an, dass es Nvidia Möglichkeiten eröffnet, Kunden zu bedienen, die keine vollständig auf Nvidia basierenden Systeme bauen, aber einige seiner GPUs integrieren möchten.

„Bei breiter Akzeptanz könnte NVLink Fusion die Präsenz von NVIDIA in der Branche erweitern, indem es eine engere Zusammenarbeit mit Entwicklern kundenspezifischer CPUs und ASIC-Designern beim Aufbau der KI-Infrastruktur der Zukunft fördert“, sagte Wang.

Allerdings besteht laut Rolf Bulk, Aktienanalyst bei New Street Research, bei NVLink Fusion die Gefahr, dass die Nachfrage nach Nvidia-CPUs sinkt, da Nvidia-Kunden Alternativen nutzen können.

Dennoch „verbessert die zusätzliche Flexibilität auf Systemebene die Wettbewerbsfähigkeit der GPU-basierten Lösungen von Nvidia gegenüber alternativen neuen Architekturen und hilft Nvidia, seine Position im Zentrum des KI-Computings zu behaupten“, sagte er.

Nvidias Konkurrenten Broadcom, AMD und Intel sind im NVLink Fusion-Ökosystem bislang nicht vertreten.

Weitere Updates

Huang eröffnete seine Keynote mit einem Update zu Nvidias nächster Generation von Grace-Blackwell-Systemen für KI-Workloads. Der „GB300“ des Unternehmens, der im dritten Quartal dieses Jahres auf den Markt kommen soll, werde eine höhere Gesamtsystemleistung bieten, sagte er.

Am Montag kündigte Nvidia außerdem das neue NVIDIA DGX Cloud Lepton an, eine KI-Plattform mit einem Computermarktplatz, der laut Nvidia die KI-Entwickler der Welt mit Zehntausenden von GPUs aus einem globalen Netzwerk von Cloud-Anbietern verbinden wird.

„DGX Cloud Lepton trägt dazu bei, die kritische Herausforderung der Sicherung zuverlässiger, leistungsstarker GPU-Ressourcen zu bewältigen, indem es den Zugriff auf Cloud-KI-Dienste und GPU-Kapazitäten im gesamten NVIDIA-Rechner-Ökosystem vereinheitlicht“, sagte das Unternehmen in einer Pressemitteilung.

In seiner Rede kündigte Huang auch Pläne für ein neues Büro in Taiwan an, wo er auch mit dem taiwanesischen Unternehmen Foxconn (offiziell Hon Hai Technology Group, dem weltweit größten Elektronikhersteller) ein KI-Supercomputerprojekt aufbauen will.

„Wir freuen uns über die Partnerschaft mit Foxconn und Taiwan, um Taiwans KI-Infrastruktur aufzubauen und TSMC und andere führende Unternehmen dabei zu unterstützen, Innovationen im Zeitalter der KI und Robotik voranzutreiben“, sagte Huang.

CNBC

CNBC

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow