Gehören Ram und HDD/SSD mit Icelake der Vergangenheit an?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn das Ding entsprechende Speichergrößen hat und die Daten tatsächlich auch stromlos behält, wird es RAM und Festplatten ziemlich sicher ablösen.

Aber erst, wenn es auch bezahlbar wird und ich glaube nicht, dass so ein Speicher mit 250 bis 500GB der auf die Geschwindigkeit von heutigem RAM kommt und persistent Speichert in absehbarer Zeit annähernd bezahlbar wird und schon ganz sicher nicht so bald in Regionen, wo das klassische RAM-SSD-Modell aktuell liegt.

Das Ende von RAM ansich vielleicht noch eher, wenn der sagen wir mal 250GB-Riegel mal ein Preisniveau von heutigen 32GB RAM erreicht hat, dann packt man da halt das OS drauf und der freie Speicherplatz dient als RAM (man lädt ja nicht nur Binaries in den RAM, dort liegen ja auch temporäre Daten die zur Ausführung erst erzeugt/brechnet werden). Dann wird man aber immer noch SSDs einsetzen, weil sie dann immernoch den Zweck als Massenspeicher erfüllen.
 
Nein, selbst wenn Ice Lake die Optane DIMM Riegel unterstützt, so wird dies weder die DRAM noch die SSDs komplett ersetzen. Erstens muss wohl nach bisherigen Informationen immer ein Optane DIMM und ein DRAM Riegel pro Channel verwendet werden, wobei zumindest ein Teil des DRAM als Cache für die Optane DIMM dient um RAM Bereiche mit sich häufig ändernden Inhalten zu cachen und zweitens wird das Optane DIMM ja als RAM genutzt, wenn auch als nicht flüchtiges RAM und daher bei entsprechender Unterstützung durch das BIOS und das OS, dann für die Programme auch explizit als solche erkennbar. Dies könnte man auch als Ersatz für die SSD nehmen und davon booten, sofern BIOS und OS dies mitmachen, es wäre aber sehr teuer. Eigentlich ist das Optane DIMM für Server und große In-Memory Datenbanken gedacht.
 
Der 512GB Riegel soll derzeit wohl 600€ kosten.
Latenz 1/1000 dessen vom Nand Flash
Geschwindigkeit 1/10 vom DDR4
Stromsparend
 
Der 512GB Riegel soll derzeit wohl 600€ kosten.
Latenz 1/1000 dessen vom Nand Flash
Geschwindigkeit 1/10 vom DDR4
Ist also eine bessere Festplatte, die als RAM aber doch nicht taugt. Und dafür dann 600€. Klingt für mich nach einem ganz miesem Kompromiss.
Wenn man das irgendwie zwischen SSD und RAM unterbringt, mag es was bringen (mal ganz vom Preis abgesehen), aber es ersetzt damit weder RAM noch SSD.

Also auf Anwender-Rechner (Privat-PC bis zur beruflich genutzten Workstation) bezogen. Dass das in Servern (Datenbanken, etc) richtig geil sein könnte, ist eine ganz andere Frage.

Hat aber mit "Optane" dann wohl den richtigen Namen und ist ein zusätzlicher Cache für Festplatten (selbst M.2 SSDs), aber eben kein Ersatz für RAM.

Abgesehen von der Bootzeit habe ich aber schon keinen nennenswerten Unterschied zwischen meiner SATA-SSD und der jetzt neuen M.2-SSD gemerkt, trotz (theoretisch) 6-facher Geschwindigkeit. Daher wüsste ich momentan auch nicht, was "noch schneller" noch großartig bringen sollte.
 
Zuletzt bearbeitet:
In der Theorie, werden dadurch einige Probleme gelöst.

Die Verbindung von Peripherie zur CPU ist mit den M-2 ssds überfordert.

Ähnliches gab es bei der Core2 Architektur mit dem Ram, der über den FSB angebunden war.
Mit Nehalem wurde er direkt an die CPU angebunden, Problem gelöst.

Ein aktuelles Problem, was auch schon früher bekannt war, ist
1. das man verschiedene Speicher braucht (RAm und Festplatte) was wenig Platz und Stromsparend ist.
Die Festplatte muss sich mit dutzend anderen Anbindungen den DMI zur CPU teilen.

Wenn man die Datenrate von den Festplatten also direkt an die CPU anbindet, ist die DMI entlastet.
Wenn man es dann schafft, nichtflüchtigen Speicher (Festplatte) und flüchtigen (Ram) in eins unter zu bringen, hat man weitere Probleme gelösst.
Die mögliche Anbindung ist nahezu unbegrenzt.
Auch müssen Ram und Festplatte, nichtmehr über einen "Bus" kommunizieren und ggf. lässt sich selbst die GPU mit ihrem Ram anbinden.
Nichtflüchtiger DDR2 ist ein hervorragender Ram Ersatz.

Was du merken könntest, wäre z.b. ein Systemkaltstart auf Knopfdruck ohne Verzögerung.
Oder das du mehr Lanes hast, die frei sind.

Da Intel zu Icelake eine Revolution angekündigt hat, ähnlich Nehalem "Zitat" macht die Implementierung am meisten Sinn.
Wenn der Speicher also nutzbar ist, bleibt die Frage ob Intel noch Festplattensteckplätze bereitstellt oder über einen externen Chip bereitgestellt werden müssen.
Vielleicht Step bei Step wie von Core zu Nehalem und dem Feinschliff zu Sandybridge.
Das man das zusätzlich, dauerhaft in der PCH lässt und dadurch auch Chipfläche verbraucht wird und nicht zuletzt auch die DMI nicht entlastet wird, glaube ich nicht.

Gn8
 
Liesel Weppen, es geht im die Optane DIMM Riegel die wie DDR4 DRAM Riegel in die RAM Slots kommen und auch so wie RAM angesprochen. Die haben mit den bisherigen Optane SSDs auch nichts zu tun, bisher gibt es ja als Optane nur NVMe SSDs, von den kleinen Memory mit 16GB über die 905P mit bis zu 1,5TB bis zur DC P4800X. Dort setzten sie SSDs mit NAND Cache und wie gut sie da in bestimten Disziplinen sind, zeigt z.B. der Review der Samsung 983 ZET (Z-NAND) SSD, auch wenn die meisten Vorteile der großen Optane SSDs eben für den Heimanwender nicht so relevant sind, dass er den hohen Preis rechtfertigen würde.

Die Optane DC Persistent Memory DIMM (Apache Pass) gibt es noch nicht zu kaufen, nur die großen Partner haben sie schon von Intel bekommen und daher wäre ich bei den Preisen auch noch sehr vorsichtig, ebenso bzgl. der Frage ob diese schon bei der nächsten Consumerplattform unterstützt werden. Außerdem wird man abwarten müssen wie die Leistungsaufnahme sein wird.

Amigac64, in welcher Hinsicht ist "Die Verbindung von Peripherie zur CPU mit den M-2 ssds überfordert"? Erstens ist M.2 nur ein Formfaktor für SSDs mit SATA oder PCIe Anbindung und zweitens sind die schnellsten M.2 PCIe SSDs auch noch nicht wirklich durch ihre PCIe 3.0 x4 Anbindung eingeschränkt. Denn die 3,5GB/s die damit netto möglich sind, erreichen sie auch erst seit recht kurzer Zeit. Du scheinst mir aber irgendwie ein Anhänger der Idee zu sein wie sie HPE mit The Machine formuliert hat.

Der Gedanke RAM und Massenspeicher zu vereinen ist sicher verlockend, aber man sollte auch nicht vergessen warum dies getrennt ist, denn dies hat ja einen sehr guten Grund. RAM ist teuer, vor allem DRAM und selbst wenn es die Optane DIMM dann wirklich mit 512GB für 600€ geben wird (ich denke aber der wird teurer sein) auch das 3D XPoint. Daher kann man rein von der Wirtschaftlichkeit her gar nicht alle Daten im RAM oder Optane DIMM ablegen, sondern braucht einfach einen Massenspeicher der günstiger ist. Die Geschichte hat nur leider immer wieder gezeigt, dass die billigeren Speicher auch langsamer sind, sowohl was die seq. Transferraten aber vor allem auch was die Latenzen betrifft und daher gibt es eben die Speicherpyramide bei der heutzutage unten die HDDs und ganz oben der L1 Cahce der CPU stehen.

Selbst wenn Ice Lake Optane DIMM unterstützen wird, so wird sich an den Schnittstellen im Prinzip nichts ändern. Die PCIe Lanes dürften dann PCIe 4.0 sein, es wird aber weiterhin PCIe Lanes für M.2 Slots und vielleicht U.2 Ports geben, je nach Vorstellung des Mainboardherstellers und einen Chipsatz mit USB und SATA Host Ports und der wird dann wieder über DMI, hoffentlich dann DMI4, an die CPU angebunden sein.
 
Moin
Der DMI ist ja auch gemeint, wie damals der FSB.
DMI 4.0 ist ja gerad mal in der Lage 8gb/s mit der CPU zu verbinden.
Das wären drei 970er bei Vollast gedrosselt, von den Zukünftigen mal ganz zu schweigen, auch wenn DMI 5 in kürze folgen soll, finde ich die Ram Technik zukunftsweisend.
Über DMI laufen ja auch Sound, USB, Sata, Lan uva. die auch Bandbreite wollen.


Bis zu 18W verbraucht ein 512GB Stick bei der derzeitigen Fertigung und hat eine
Latenz die der vom L3/L2 Cache gleicht.
Beim lesen/schreiben, soll der Prozessor erheblich entlastet werden.

Ich habe gerad eine Bestätigung gefunden, das Icelake die Dimm über die Instruktionserweiterung
AVX512VNNI
&
bfloat16
im Rahmen von DLBoost unterstützen wird.
 
Zuletzt bearbeitet:
DMI 4.0? Gibts das schon? Kenne nur DMI3 und diese verbindung besteht aus 4xPCIe3.0 genauso wie die M.2(nvme) Anbindung deiner 970Evo. Wieso sollte das eine drosseln und das andere nicht(so viel Bandbreite braucht sound und co auch nicht)? Dafür müssten noch andere Daten über das DMI laufen, und das auch nur in eine Richtung, weil DMI Vollduplex ist.
Edit: was erhoffst du dir denn von mehr Bandbreite über das DMI? Die Daten können schneller kopiert werden, wenn beide Laufwerke den Speed mitmachen, das wars auch schon. Reichen 3,5Gb/s nicht aus? Und wie schaffst du es 3 970Evo gleichzeitig voll auszulasten?(außer vllt im Server Bereich)
 
Zuletzt bearbeitet:
DMI 4.0 gibt es nocht nicht für Endkunden, nein.
Es laufen alle Daten über den DMI, ausser Ram und Grafikkarte, die direkt an die CPU binden.

pch-based-x86-architecture.jpg
 
Zuletzt bearbeitet:
Jo, danke für das Bild, kenne das Dmi.
Glaube aber kaum, dass Intel da so schnell die Bandbreite für den Endkunden erhöhrt. Wahrscheinlich gibts jetzt mit PcI4 ein DMI-Update. Dann wird ein NVMe(mit pcie4) Slot wieder das DMI4 voll auslasten. Ansonsten haben die großen Server und Hedt Prozzis selber genug Lanes, um Peripherie direkt anzubinden, ohne Umweg über das DMI. D.h. Wenn du mehr willst, muss man Intel auch mehr Geld in den Rachen schmeißen. Desshalb bezweifele ich, dass im einfachen PC bereich viel mehr kommen wird, zumal für den Enkunden eine volle Anbindung von 3 NVMes(pcie3) ausreichen sollte.
 
Zuletzt bearbeitet:
DMI4 gibt es noch nicht, wird aber logischerweise irgendwann auch kommen.

Amigac64, DMI ist aber in der Praxis nur dann ein Flaschenhals, wenn man die NVMe SSD im RAID 0 betreibt. PCIe ist vollduplex, kann als Daten in beide Richtungen gleichzeitig übertragen und damit kann DMI3 sowohl mit 3,5GB/s von einer SSDs lesend an die CPU übertragen also auch diese 3.5GB/s dann auf die andere SSD schreiben (wenn sie das könnte), auch wenn beide an den PCIe Lanes des Chipsatzes hängen. Was haben ein AVX512 Befehl und das bfloat16 Format mit der Unterstützung von Optane DIMM zu tun? Bei Dir geht echt durcheinander.
 
Jop und es gibt Menschen die Raid 0 betreiben.
Ausserdem lösst sich dadurch das Ram Problem.

Cpu Entlastung
Nie wieder zu wenig Ram
Weniger Bauteile
Geringe Latenz

Ich glaube die Optane DIMM sind auf den AVX512 angewiesen und bfloat16 macht mit Optane Dimm ebenfalls Sinn bezügl. DLboost.
Ob der DMI Vollduplex ist, ist dabei vollkommen unerheblich.

Ps: Der Zen2 ab Juni? hat DMI 4.0, Icelake ab August? ebenfalls.
Wünsche einen schönen Abend!
 
Zuletzt bearbeitet:
Wie soll sich welches RAM Problem durch ein RAID 0 von zwei NVMe SSDs lösen? Die Bandbreite ist immer noch weit geringer als bei RAM, selbst wenn das RAM an Lanes der CPU betrieben wird und die Latenz um Zehnerpotenzen höher und genau da liegt der Hase im Pfeffer, denn Bandbreite alleine bringt nichts, wenn die Latenz viel zu hoch ist. Die RAID 0 mit zwei oder mehr schnellen PCIe SSDs sind für Benchmarkfanatiker, denn die wenigsten Heimanwender haben überhaupt Anwendungen die auch nur von der Performance einer solchen SSD nennenswert profitieren.

Die Optane DIMM sind auch nicht auf AVX512 angewiesen, dies sind zwei komplett unterschiedliche Dinge. Aber Du bringst wie schon gesagt alles durcheinander und versuchst immer Zusammenhänge herzustellen, die es gar nicht gibt.
 
Wie soll sich welches RAM Problem durch ein RAID 0 von zwei NVMe SSDs lösen? Die Bandbreite ist immer noch weit geringer als bei RAM, selbst wenn das RAM an Lanes der CPU betrieben wird und die Latenz um Zehnerpotenzen höher und genau da liegt der Hase im Pfeffer, denn Bandbreite alleine bringt nichts, wenn die Latenz viel zu hoch ist. Die RAID 0 mit zwei oder mehr schnellen PCIe SSDs sind für Benchmarkfanatiker, denn die wenigsten Heimanwender haben überhaupt Anwendungen die auch nur von der Performance einer solchen SSD nennenswert profitieren. Ähnlich wie bei LTE...

Die Optane DIMM sind auch nicht auf AVX512 angewiesen, dies sind zwei komplett unterschiedliche Dinge. Aber Du bringst wie schon gesagt alles durcheinander und versuchst immer Zusammenhänge herzustellen, die es gar nicht gibt.
Farbiger Text von mir.

Optane Dimm wird im Channel Modus betrieben und hat 1/10 der Latenz vom DDR4.
Auch die Bandbreite übertrifft dabei die der NVME.

Wenn du der Meinung bist AVX512 und Optane DIMM haben nichts miteinander zu tun, erläutere das bitte.

Übrigens, ist das Ram Problem, zu wenig Ram für zuviel Geld... Damit Geschichte.
Der Zusammenhang ist doch offensichtlich.
 
Optane DIMM wird nicht 1/10 der Laten von DRAM im DDR4 Slot haben, sondern wohl 10x dessen Latenz und statt zu erläutern was offensichtlich ist, nämlich das AVX512 Befehle und die Art des RAMs nichts miteinander zu tun haben, solltest du besser mal Belege für das Gegenteil vorbringen, mit Links zu den Quellen!

Was ein RAID 0 aus NVME SSDs mit LTE zu tun haben soll, werde ich auch nicht verstehen. Die NVMe SSDs (außer den Optane) brauchen schon sehr lange und/oder sehr viele parallele Zugriffe um überhaupt ihre vollen Transferraten zu erzielen, mehr als ein Heimanwender überhaupt außerhalb von Benchmarks erreichen wird und im RAID 0 müssten es noch mehr sein um einen Vorteil zu bekommen. Dazu kommt, dass die Daten in einem Disk Benchmark nur geladen werden um die Zeit dafür zu ermitteln, bei realen Anwendungen muss die CPU die geladenen Daten aber auch verarbeiten bzw. den geladenen Programmcode abarbeiten. Dies dauert bei den meisten Anwendungen von Heimanwendern viel länger als das eigentliche Laden schon von einer SATA SSD, daher bringt es eben nicht die Zeit für das Laden noch weiter massiv senken zu wollen.
 
Warum Intel wohl die Ramunterstützung um ein vielfaches im Icelake erhöht hat?!
Mit der Latenz hast du recht, sry verlesen.
Über AVX512 dürftest du genug zu lesen finden, ebenso zum DC RAM.
Wenn ich das als Leihe richtig verstanden habe, bekommt der Optane gerad durch den AVX512 befehlssatz seine Geschwindigkeit.

LTE und NVME RAID 0 braucht kein normaler Mensch...
Aber danach wird auch nicht geforscht und Fortschritt, lässt sich bekanntlich nicht aufhalten.

Ach und, von LTE ist dir auch bekannt, das schnelle Datenübertragung fast nie 100% gefordert wird, aber wenn.
1. Schneller ist
2. Strom spart, da die Aufgabe schnell erledigt ist
Warum sollte man ICELAKE s CPUs für Optane DIMM bauen und ihn dann nicht nutzen können?
Wenn der Preis noch halbiert wird, oder kleine Dimms gebaut werden.
Wird das auch für 0815 User interessant.
Der Preis soll sich aktuell bei 1/4 der Rampreise bewegen, bzw. die 4Fache Kapazität eines Ram zum selben Preis.

Was du dir leicht vorstellen könntest.
Windows ist mit allen persönlichen Einstellungen im Arbeitsspeicher, auch im deaktivierten Ruhemodus.
Die Daten sparen sich ausserdem den Weg von der SSD über den DMI, zur CPU, zum Ram, zur CPU...
75% schnellere Datenbearbeitung im zufälligen 4k.
30% höhere IPC

Ich bin da sehr gespannt drauf.
 
Zuletzt bearbeitet:
Wie wäre es mal Links zu Aussagen zu posten, statt sie einfach nur hinzuwerfen? Dann könnte man selbst nachlesen, ob diese Aussage zu dem RAM sich nur auf Ice Lake-SP bezieht, denn bei den Xeons im großen Sockel geht Intel den Schritt schon mit Cascade Lake-SP:
Wobei es Cascade Lake nur als Cascade Lake-SP gibt und keine Versionen für den Mainstream, die wäre im Prinzip die Coffee Lake. Jetzt rate mal wofür das DC in der Bezeichnung Optane DC Persistent Memory DIMM steht?
 
Ich meine nicht die Ansteuerung von mehr Speicherkanälen, sondern die Möglichkeit des Prozessoers mehr Speicher zu Adressieren.
Das wurde in dem Dokument das ich las auf ich meine 4 Petabyte? erweitert, ausdrücklich beim Icelake "S".
Verwechsel das bitte nicht mit Lakefield.
Die 64 bit Prozessoren sind nicht für die Adressierung der vollen 64 bit gebaut und der Icelake bildet da einen CUT zur Core I Serie.
Die Coffeelake Serverprozessoren kommen noch dieses Jahr als Nachfoldge zu Cascadelake und im Frühjahr 2020 kommen die Icelake SP.
 
Da verlink das Dokument doch mal, denn der Sprung von 128GB auf 4PB wäre schon sehr gewaltig, zumal auch die Optane DIMM bisher nur mit maximal 512GB pro Riegel kommen und die S Modelle, also die für den Mainstreamsockel, i.d.R. maximal 4 Riegel (Dual Channel mit 2 DIMM pro Channel) unterstützen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh