Sprache
 
ChineseJapaneseKoreanTürkRussianNederlandsDanskPortuguesEnglishFrançaiseEspañolItaliano
Hinweis: Die Übersetzung dieser Webseite erfolgt automatisiert über translate.google.com, beim Klick auf die Flaggen werden Daten an Google übertragen. Mehr hierzu unter Datenschutz.
Werbung
T-Shirt: Keine Zeit der Garten ruft


Speicherstapler - AMD stellt High Bandwidth Memory (HBM) vor

Autor: doelf - veröffentlicht am 21.05.2015
s.1/2
zurückback
Der Knackpunkt vieler Grafiklösungen ist weniger der Grafikprozessor als der verwendete Speicher. Insbesondere bei preiswerten Grafikkarten und APUs verhungern die Recheneinheiten, weil der verbaute DDR3-Speicher schlicht und einfach nicht mithalten kann. Eine wesentlich bessere Alternative stellen GDDR5-Chips dar, doch diese sind teuer und stromhungrig. Mit "High Bandwidth Memory" (HBM) will AMD noch in diesem Jahr einen alternativen Weg einschlagen.
AMD hat "High Bandwidth Memory" (HBM) als offenen Industriestandard entwickelt und nutzt als Fertigungspartner den südkoreanischen Speicherspezialisten SK Hynix. Zunächst wird HBM als Grafikspeicher für leistungsstarke Grafikkarten und Mobil-GPUs zum Einsatz kommen, die neue Speichertechnologie soll zukünftig aber auch im Zusammenspiel mit CPUs und APUs genutzt werden. Ausschlaggebend für den Umstieg auf HBM sind dabei drei Faktoren: Bandbreite, Stromverbrauch und Platzbedarf.

Weniger Platzbedarf

Die wesentliche Neuerung von HBM besteht darin, dass die Speicherchips in mehreren Lagen vertikal gestapelt werden und man diese Pakete direkt auf der Trägerplatine des Grafik- oder Mikroprozessors platziert. Bis zu vier Stapel (Stacks) lassen sich um die Recheneinheit herum anordnen, was nicht nur viel Platz spart, sondern auch die Anforderungen an die Leiterplatinen senkt. Aktuelle Leiterplatinen müssen die hochfrequenten Signale für bis zu 16 Speicherchips je GPU transportieren, weshalb die PCBs leistungsstarker Grafikkarten aus bis zu 16 Lagen bestehen. Das macht die Platinen sowohl groß als auch teuer.
Beim Einsatz von HBM-Speicher sind die einzelnen Lagen durch mikroskopisch kleine "Through-Silicon Vias" (TSVs) miteinander verbunden. Als unterste Lage besitzt jeder Speicherstapel eine Logikeinheit, die über eine gemeinsame Zwischenebene (Interposer) am Grafik- oder Mikroprozessor andocken. Die Signalwege sind bei HBM folglich extrem kurz und, zumindest in der Theorie, wesentlich weniger störanfällig als bei GDDR5-Lösungen. Hinzu kommt, dass die stromhungrigen GDDR5-Chips eine äußerst komplexe Kühlung und einen aufwändigen Spannungswandler erfordern, während bei HBM Verbrauch und Abwärme an einer zentralen Stelle entstehen.

Weniger Stromverbrauch

Jeder einzelne GDDR5-Chip ist lediglich über ein 32 Bit breites Interface angebunden, so dass bereits acht Chips benötigt werden, um auf eine Gesamtbreite von 256 Bit zu kommen. Mit jedem Chip steigen aber auch die Kosten, der Platzbedarf und der Stromverbrauch. Um die schmale Anbindung von GDDR5 zu kompensieren, wurden die Taktraten in den vergangenen Jahren bis auf 1.750 MHz (7 Gbps) gesteigert - und auch dies hat negative Auswirkungen auf den Stromverbrauch. HBM arbeitet hingegen mit einem 1.024 Bit breiten Bus - hierfür würde man immerhin 32 GDDR5-Chips benötigen - und begnügt sich im Gegenzug mit einer Taktrate von 500 MHz (1 Gbps).
Zugleich sinkt die Spannung von 1,5 Volt (GDDR5) auf 1,3 Volt (HBM). Aus der Addition dieser Maßnahmen verspricht sich AMD bei gleichem Stromverbrauch einen um den Faktor 3,28 höheren Speicherdurchsatz. Während man aus GDDR5-Chips lediglich 10,66 GB/s pro Watt herauskitzeln kann, sollen es bei HBM mehr als 35 GB/s sein.
Diese Werbefläche wurde deaktiviert. Damit geht Au-Ja.de eine wichtige Einnahmequelle verloren.

Werbung erlauben ]
© Copyright 1998-2023 by Dipl.-Ing. Michael Doering. [ Nutzungsbedingungen ] Impressum & Kontakt ] [ Datenschutz ]
Diese Werbefläche wurde deaktiviert. Damit geht Au-Ja.de eine wichtige Einnahmequelle verloren.

Werbung erlauben ]
generated on
26.09.2023 20:24:40
by Jikji CMS 0.9.9e