Sprache
 
ChineseJapaneseKoreanTürkRussianNederlandsDanskPortuguesEnglishFrançaiseEspañolItaliano
Hinweis: Die Übersetzung dieser Webseite erfolgt automatisiert über translate.google.com, beim Klick auf die Flaggen werden Daten an Google übertragen. Mehr hierzu unter Datenschutz.
Werbung
Neu bei Amazon: Die Monatsabrechnung - Einkaufen auf Rechnung


DDR3-1333CL9 von Exceleram, GeIL und Kingston im OC-Test

Autor: doelf - veröffentlicht am 01.06.2011
s.1/12
zurückback

Seit etwa einem Jahr fallen die Preise für Arbeitsspeicher beständig. Erst gestern rutschte der Kurs für Chips der Baurat DDR3 1Gb 128Mx8 1333MHz an der asiatischen Speicherbörse unter die Marke von einem US-Dollar und erreichte damit einen neuen Tiefstand. Insbesondere Standardmodule des Typs DDR3-1333CL9 sind äußerst preiswert, doch bieten diese Speicherriegel auch noch Spielraum für Übertakter?

Mit dem Wechsel von DDR2 zu DDR3 kam es vor vier Jahren zu einer massiven Taktsteigerung, denn während Intel nur DDR3-800 (PC3-6400) und DDR3-1066 (PC3-8500) vorgesehen hatte, boten die Speicherhersteller schnell auch unspezifizierte Taktraten wie DDR3-1600 (PC3-12800) und DDR3-1866 (PC3-15000) an. Damals war DDR3 noch den Prozessoren des Herstellers Intel vorbehalten, doch leider konnten ausgerechnet diese mit der hohen Speicherbandbreite herzlich wenig anfangen, da sich der Speicher-Controller im Chipsatz befand und der Prozessor auf diesen über den Frontsidebus zugreifen musste. In seiner schnellsten Ausbaustufe FSB1600 erzielte der Frontsidebus eine Bandbreite von 12,8 GB/s, welche bereits im Zweikanalbetrieb von DDR3-800 (2 x 6,4 GB/s) ausgereizt war. Glücklicherweise gehört dieses Nadelöhr mittlerweile der Vergangenheit an, denn sowohl AMD als auch Intel haben den Speicher-Controller in ihre Prozessoren integriert. Es lohnt sich also, neben der Größe des Arbeitsspeichers auch dessen Geschwindigkeit im Auge zu behalten.

Technik: Wie funktioniert SDRAM?
Auf jedem Speicherriegel finden sich mehrere Chips gleicher Bauart, üblicherweise sind es 8 oder 16, und intern sind diese Speicherchips wie eine Tabelle organisiert. Es gibt Spalten (Columns) und Reihen (Rows), über die jedes einzelne Bit (die einzelne Tabellenzelle bzw. DRAM-Zelle) angesprochen werden kann. Der Speichercontroller versucht, die Spalten immer sequentiell zu schreiben, d.h. die Daten werden hintereinander in eine Spalte des Arrays geschrieben. Erst wenn diese voll ist, wechselt er zur nächsten Reihe. Aus diesem Grund sind die CAS-Timings (Column Address Strobe) auch wichtiger für die Performance als die RAS-Timings (Row Address Strobe): Sie treten einfach häufiger auf. Mit wachsender Speichergröße wurde es unumgänglich, mehrere solcher Tabellen (Arrays) anzulegen und diese letztendlich in Array-Gruppen, den Bänken (Banks), zu organisieren.

Diese Bänke beziehen sich auf die interne Architektur der einzelnen Speicherchips und haben nichts mit ein- oder doppelseitigen Speicherriegeln (Ranks) zu tun! Speicherriegel mit 16 Chips sind im Normalfall beidseitig bestückt und jede Seite ist ein Rank. Module mit 8 Chips tragen diese fast immer auf einer Seite und besitzen daher auch nur ein Rank. Nur sehr wenige doppelseitig bestückte Speicherriegel fassen alle Chips als ein Rank zusammen und im Serverbereich gibt es auch Module mit zwei Ranks pro Seite.

Ein Rank definiert sich bei SDRAM letztendlich dadurch, dass es genau 64 Daten-Bits breit ist. Das macht insofern Sinn, da jeder Speicherkanal 64 Bit breit ist und auch ein einseitig bestücktes Modul in der Lage sein muss, diese Breite zu bedienen. Da wir uns heute nur mit ungepufferten SDRAM-Modulen befassen, werden wir die Sache etwas vereinfachen und im Folgenden die Abkürzungen SS (single sided) für Speicherriegel mit einem Rank und DS (double sided) für Module mit zwei Ranks verwenden.

Wird nun ein bestimmtes Bit verlangt, so sendet der Speichercontroller die Adresse der Reihe und kennzeichnet die Anfrage zudem als "Row". Danach sendet er die Adresse der Spalte, welche als "Column" deklariert wird. Doch es wird nicht nur ein einzelnes Bit gelesen, da dies einen extrem langsamen Speicherzugriff zu Folge hätte, sondern gleich 64 Bit auf einen Schlag. Es reicht also nicht, ein Bit pro Speicherchip zu lesen, dies wären ja nur 8 bzw. 16 Bit. Damit wir auf 64 Bit zu kommen, wird die gewünschte Adresse aus allen Arrays aller geöffneten Bänke aller Speicherchips gelesen. Um die Abwärme und den Stromverbrauch zu senken sowie die Signalqualität zu verbessern, ist allerdings immer nur eine einzige Bank pro Chip geöffnet. Mehr Chips bedeuten somit auch mehr Open Pages und erlauben dadurch einen höheren Speicherdurchsatz - sofern der Speicher-Controller dies erlaubt.

Diese Werbefläche wurde deaktiviert. Damit geht Au-Ja.de eine wichtige Einnahmequelle verloren.

Werbung erlauben ]
© Copyright 1998-2023 by Dipl.-Ing. Michael Doering. [ Nutzungsbedingungen ] Impressum & Kontakt ] [ Datenschutz ]
Diese Werbefläche wurde deaktiviert. Damit geht Au-Ja.de eine wichtige Einnahmequelle verloren.

Werbung erlauben ]
generated on
25.09.2023 00:47:23
by Jikji CMS 0.9.9e