Cyclops88 schrieb:
tm101 schrieb er habe die werte errechnet (durchsatz, nicht die timings).
das mit den timings habe ich brilliant verstanden dank tm101. nochmal speziellen dank an tm101.
aber ich habe verstanden das tm101 die durchsatzzahlen auf dem papier errechnen kann. das wollte ich haben.
Ich habe keine genauen Durchsatzzahlen (mb/s) errechnet, sondern lediglich wie lange (in Nanosekunden) jede Speicheraktion dauert, also doch die Timings. Das eine hängt aber unmittelbar mit dem anderen zusammen. Je länger eine Aktion dauert, um so weniger Aktionen können pro Sekunde ausgeführt werden, umso weniger Daten können übertragen werden.
Ihr müsst Euch grundsätzlich vom Gedanken verabschieden, dass Durchsatz und Zugriff (sprich Timings) voneinander getrennt wären, dem ist nicht so! Jeder Speicherzugriff erfordert eine bis mehrere Aktionen, deren Dauer über die Timings geregelt wird. Je schneller die Aktionen laufen, umso mehr Zugriffe pro Sekunde sind möglich, umso mehr Daten werden übertragen.
Ein Beispiel: Speicher ist in Bänke, Zeilen und Spalten aufgeteilt. Die am häufigsten ausgeführte Speicheraktion ist ein CAS, dabei wird die Speicherspalte angewählt. Das dauert bei 200MHz und einem tCL von 2 genau 10ns, bei 250MHz und tCL 2.5 ebenfalls 10ns, bei 250MHz und tCL 3 aber 12ns. Ein kompletter Zugriff auf Bank, Zeile und Spalte dauert bei 250 2.5-3-3 länger als bei 200 2-2-2, zwar ist tCL gleich lang, aber tRCD und tRP sind länger bei 250 -3.
Vereinfacht ausgedrückt: Wenn die Zugriffe alle länger dauern bleibt weniger Zeit zur Datenübertragung übrig. Wenn Daten allerdings direkt hintereinander aus einer Zeile gelesen werden, dann muss nur CAS genutzt, welches bei 250 2.5 genauso schnell ist wie 200 2.0, allerdings können für diesen Fall evtl. mehr Daten in der tBURST Phase übertragen werden, da ein Zugriff immer mindestens tRAS lang dauert.
Das ist ähnlich der Zugriffszeit und Übertragunsrate Eurer Festplatte. Liegen die Daten am Stück vor, dann werden die Daten schneller übertragen, sind sie fragmentiert bzw. mehrere Zugriffe finden gleichzeitig statt, dann sinkt die Datenrate umso mehr je höher die Zugriffszeit der Festplatte ist.
Einige Anwendungen können durchaus von höheren Datenraten bei langsameren Timings profitieren. Das wird zum Beispiel Video und Rendering-Anwendungen nachgesagt, da dort große Datenmengen am Stück im Speicher liegen. Aber auch dort müssen zwischendurch die Speicherzeilen und Bänke gewechselt werden, und bei jedem Speicherrefresh wird grundsätzlich ein kompletter Speicherzugriff ausgeführt.
In der Regel liegen die benötigten Daten aber nicht am Stück im Speicher und vor allem greifen verschiedenen Anwendungen und das System gleichzeitig darauf zu, dort werden Timings umso wichtiger, da dann durch niedrigere Timings ebenfalls der Durchsatz steigt.
Diese Betrachtungen gelten außerdem nur für Grenzwerte (wie mein Test zwischen 188MHz 2-2-2-5 gegen 230MHz 2.5-3-3-7). Bei diesen beiden Einstellungen liegen die Timings (in Nanosekunden) noch so nah beieinander, dass tatsächlich der höhere Takt etwas mehr Durchsatz schafft. Überhaupt keinen Sinn macht hingegen 230MHz 3-3-3-7 oder gar 3-4-4-8. Timings derart zu erhöhen, nur um mehr Takt rauszuholen ist kontraproduktiv. Man kann das gerne vergleichend messen, aber bei gleichem Prozessortakt wird man eher weniger Durchsatz messen, und zwar auch bei Daten, die am Stück aus dem Speicher gelesen werden (wie Speicherbenchmarks das wohl auch in der Regel machen)