FB-Dimms schlagen hingegen in eine andere Richtung. Die Dimms hatten wir vor ein paar Tagen bereits anhand von vielen Fotos präsentiert. Das Problem bei der aktuellen Dimm-Architektur ist, dass immer weniger Data Lines verwendet werden können. Im folgenden Bild ist gut zu sehen, dass mit der Entwicklung immer weniger Devices pro Kanal verwendet werden können. Für den Serverbereich ist dies kritisch, denn man möchte möglichst viele Dimms verwenden, um einen hohen Speicherausbau zu erreichen. Mit FB-Dimms sind aufgrund einer seriellen Point to Point-Technologie wieder eine höhere Anzahl von Modulen möglich :
Bei der FB-Dimm Technologie handelt es sich um eine Point to Point-Verbindung, die identisch mit der PCI-Express-Technik ist. Auf den Modulen verwendet man normale DDR2-Dimms, nur in einem unterschiedlichen Packaging wegen der DRAM Data Lines. Das spart Kosten, denn es müssen keine neuen Chips entwickelt werden. Mit der FB-Dimm-Technologie kann man bis zu 8 Dimms pro Kanal verwenden - bei einer Dual Channel Technologie also 16 Dimms auf einem Mainboard. Im Serverbereich haben wir in High Performance Computing Veranstaltungen allerdings sechs Kanäle gesehen - dann steigt die Speicherbestückungsmöglichkeit auf 192 GB.
Neben der vierfachen Kapazität pro Kanal ist auch 33% mehr Bandbreite durch DDR2-800 möglich. Im Serverbereich wird man durch die neue Technik also auch High-Performance-Dimms einsetzen können und nicht immer etwas langsamer als der Desktop-Markt operieren. Verwendet werden weniger als 1/3 der Pins - dadurch wird das Routing deutlich vereinfacht und es werden kostengünstigere Mainboard-Designs möglich :
Durch den Puffer sollen demnach keine Kosten entstehen - er sei zwar etwas teurer, allerdings würden registered-Chips wegfallen und auch das Routing der Mainboards entgegenstehen.
Auch neue Enhanced RAS Features werden eingesetzt :
- CRC Protection of Commands
- Transient bit error detection and retry
- Bit lane fail-over connection (für Pinfehler, wiederholte Versuche einen Chip anzusprechen, dann Umschaltung auf Bit-Lane-Überprüfung, anschließend Kommunikation zu jedem Dimm über die Bit-Lanes und Ausschluß der Bitlane, die defekt ist)
- Self test im Puffer selber um die Fehlererkennung und Isolation zu verbessern
Die entsprechende Standardisierung durch die JEDEC sei im Zeitrahmen und wird bis Jahresende erwartet, hörte man von Intel. Mit den FB-Dimm Benefits Kapazität, Performance, Reliability, Longevity wird die neue Technik im Server-Bereich also neue Wellen schlagen.
Im Desktop-Markt werden sich FB-Dimms allerdings nicht durchsetzen, denn durch die serielle Technologie und die Weiterleitung entstehen pro Modul Latenzzeiten von 3 bis 6ns. Werden also 8 Module in einem Kanal eingesetzt, wird die Latenzzeit um 42ns erhöht. Alternativ kann auch ein zusätzliches Feature aktiviert werden, welches Latenzzeiten für einzelne Dimms verringert (Prioritätsmodus). Für den Server-Bereich existiert hier die Lösung möglichst viele Kanäle einzusetzen (sechs Kanäle, s.o.) und diese dann nur mit wenigen Modulen zu bestücken, im Desktop-Bereich sind normale Dimms jedoch vorzuziehen. Der Benefit im Serverbereich entsteht erst durch den größen Ausbau.