Welcome,{$name}!

/ Ausloggen
Deutsch
EnglishDeutschItaliaFrançais한국의русскийSvenskaNederlandespañolPortuguêspolskiSuomiGaeilgeSlovenskáSlovenijaČeštinaMelayuMagyarországHrvatskaDanskromânescIndonesiaΕλλάδαБългарски езикAfrikaansIsiXhosaisiZululietuviųMaoriKongeriketМонголулсO'zbekTiếng ViệtहिंदीاردوKurdîCatalàBosnaEuskera‎العربيةفارسیCorsaChicheŵaעִבְרִיתLatviešuHausaБеларусьአማርኛRepublika e ShqipërisëEesti Vabariikíslenskaမြန်မာМакедонскиLëtzebuergeschსაქართველოCambodiaPilipinoAzərbaycanພາສາລາວবাংলা ভাষারپښتوmalaɡasʲКыргыз тилиAyitiҚазақшаSamoaසිංහලภาษาไทยУкраїнаKiswahiliCрпскиGalegoनेपालीSesothoТоҷикӣTürk diliગુજરાતીಕನ್ನಡkannaḍaमराठी
Zuhause > Nachrichten > Nvidia liefert die erste DGX H200 der Welt, um Openai zu eröffnen

Nvidia liefert die erste DGX H200 der Welt, um Openai zu eröffnen

Laut Greg Brockman, Präsident und Mitbegründer von Openai, hat Nvidia das erste DGX H200 der Welt an das Unternehmen übergeben.Wenn die KI -Server der neuen Generation geliefert werden, wird der Hauptlieferant Foxconn am meisten profitiert und die Leistung seines Cloud -Netzwerks erheblich steigern.

Foxconn arbeitet seit 2017 mit NVIDIA in der Serverentwicklung zusammen und hat den weltweit ersten AI -Server, den HGX1, gestartet.Ein Foto aus der Gründung von OpenAI zeigt, dass Jensen Huang Elon Musk einen AI -Server präsentiert, der von ihm signiert wurde.Dieser Server war der AI-Server der ersten Generation, der gemeinsam von Foxconn und Nvidia entwickelt wurde.

Der DGX H200 ist so konzipiert, dass er die Einschränkungen herkömmlicher Standardverbindungen wie Infiniband (ein Server-zu-Storage-Interconnect-Standard) und Ethernet-Netzwerke unter Verwendung des benutzerdefinierten NVLINK-Switchs von NVIDIA (ausschließlich von Foxconn hergestellt) um den maximalen Durchsatz für die schwersten Workloads zur Verfügung stellt.

Der Anstieg der KI, ausgelöst von Openai's Chatbot Chatgpt, hat zu einem globalen Ansturm für KI -Produkte und -investitionen geführt.Dies hat die Rechenanforderungen großer Unternehmen und Cloud -Rechenzentren für generative KI erhöht, wodurch die Nachfrage nach einer neuen Welle von Supercomputern und KI -Servern gesteuert wird.

Terry Gou, Vorsitzender von Foxconn, hat auch erklärt, dass die in Zusammenarbeit mit Nvidia entwickelten KI -Fabriken bald sowie Fortschritte bei Smart Manufacturing und Smart Electric Vehicles beobachtet werden könnten.Diese drei Plattformen werden voraussichtlich in der ersten Jahreshälfte Fortschritte zeigen.Analysten sind der Ansicht, dass die Anwendung der generativen KI weiter erweitert wird, dass die Sendungen von NVIDIA -NVIDIA -Servern von NVIDIA zunehmend erhöht werden.

Im Mai letzten Jahres startete NVIDIA die neue Generation DGX GH200 AI Supercomputer, die erste, die den Grace Hopper Superchip mit dem NVLink -Switch kombiniert.

Es verbindet 256 Grace Hopper-Superchips mit einem massiven 1-Exaflop-, 144TB-GPU-Modell, das darauf abzielt, generative KI, Empfehlungssysteme und Datenanalysen voranzutreiben.Auf der diesjährigen NVIDIA GTC -Konferenz wurde der neue GB200 AI -Server weiter eingeführt.