Der neue Chip namens H200 wird Nvidias aktuelles Flaggschiff, den H100, übertreffen. Die wichtigste Verbesserung des neuen Chips ist die höhere Bandbreite des Speichers, der zu den teuersten Komponenten des Chips gehört und die Geschwindigkeit der Datenverarbeitung bestimmt.
Der H200-Chip von Nvidia wird größere Systeme der künstlichen Intelligenz verarbeiten
Nvidia hat derzeit ein Monopol auf dem Markt für KI-Chips und beliefert den ChatGPT-Dienst von OpenAI sowie eine Reihe von KI-Diensten, die menschenähnliche Reaktionen generieren. Laut Reuters können Dienste wie ChatGPT durch die Erweiterung des Speichers mit hoher Bandbreite und schnelleren Verbindungen zu den Verarbeitungselementen des Chips schneller reagieren.
Der H200 verfügt über 141 Gigabyte (GB) High-Bandwidth-Speicher, gegenüber 80 GB beim Vorgängerchip H100. Nvidia gab den Speicherlieferanten für den neuen Chip nicht bekannt, Micron Technology gab jedoch im September bekannt, dass man daran arbeite, Nvidia-Lieferant zu werden.
Nvidia gab außerdem bekannt, dass Amazon Web Services, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure die ersten Cloud-Dienstanbieter sein werden, die den H200-Chip nutzen, zusätzlich zu professionellen KI-Cloud-Dienstanbietern wie CoreWeave, Lambda und Vultr.
Microsoft bringt KI-Chip auf den Markt
[Anzeige_2]
Quellenlink
Kommentar (0)