Optische Breitband-SSD: KIOXIA entwickelt mit Partnern SSDs mit optischer Schnittstelle

Thread Starter
Mitglied seit
06.03.2017
Beiträge
122.739
KIOXIA, AIO Core und Kyocera haben gemeinsam einen Prototyp einer PCIe-5.0-kompatiblen SSD mit optischer Schnittstelle vorgestellt, die speziell für datenintensive Anwendungen wie generative KI entwickelt wurde. Die neue Speicherlösung basiert auf der Integration des optischen Transceivers IOCore von AIO Core sowie Kyoceras optoelektronischem Integrationsmodul OPTINITY.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wahrscheinlich führt in Zukunft nichts daran vorbei. Eine Verdoppelung der Datenrate mit jeder neuen Generation lässt sich mit bisher üblichen Methoden kaum realisieren.
 
Interessant wäre bei welchen Anwendungen der Abstand von SSD zu Controller derart groß ist das es einer optische Verbindung bedarf. Bei normalen Servern sollte dies nicht der Fall sein.
 
Wahrscheinlich führt in Zukunft nichts daran vorbei. Eine Verdoppelung der Datenrate mit jeder neuen Generation lässt sich mit bisher üblichen Methoden kaum realisieren.
Das ist aber auch nur eine PCIe 5.0 SSDs und 4 Lanes. Auf dem Bild sieht man ja auch nur eine normale U2/U3 SSD mit einer Zusatzplatine die dann die optische Anbindung realisiert. PCIe 6.0 wird ja noch ohne optische Anbindung kommen, dafür wird die Signalkodierung von NRZ auf PAM4 umgestellt. Man wird sehen, ob und wann PCIe auf optische Übertragung umgestellt wird, dies dürfte sich dann besser durchsetzen als irgendwelche Insellösungen, aber es gab dafür ja Fördergelder und die müssen ja abgegriffen werden, auch wenn die SSDs selbst weiterhin ganz normal mit PCIe angebunden ist und man nur eine Zusatzplatine dranhängt.

Interessant wäre bei welchen Anwendungen der Abstand von SSD zu Controller derart groß ist das es einer optische Verbindung bedarf.
Das frage ich mich auch!
 
Was mich immer wieder zum grübeln bringt ist das die verschiedenen Schnittstellen im Data Bereich nicht komplett untereinander Kompatibel sind.
Beispiel SAS
Man kann über spezielle Controller und Kabel eines SAS Controllers SATA Platten Betreiben da diese nur einen Channel verwenden, das Erklärt auch dann den entsprechenden Speed die die Dinger kriegen. Reine SAS Festplatten nutzen 2 Channels und somit die doppelte Übertragungsrate wie SATA Platten. Traurig nur das man SAS Platten nicht an SATA betreiben kann ,umgekehrt SATA an SAS ist möglich.
Es wäre super wenn es irgendwann eines Tages möglich wäre das es nur noch eine einheitliche Schnittstelle geben wird wo man Datenträger dran betreiben kann.
Frühere waren IDE ,davor MFM oder RLL ,danach EIDE und zuletzt SATA . Im Business Bereich hat sich SCSI durchgesetzt in seinen vielen Versionen und Varianten wobei man hier alle Versionen mittels Adapter untereinander Nutzen konnte.
Es würde vieles in dem Bereich vereinfachen und auch viele Probleme die wir aktuell haben auch Lösen.
Leider fehlt dieser Standard aktuell.
 
@Silberfan U.3 kann das:
U.3 (SFF-TA-1001) is built on the U.2 spec and uses the same SFF-8639 connector. A single "tri-mode" (PCIe/SATA/SAS) backplane receptacle can handle all three types of connections; the controller automatically detects the type of connection used. This is unlike U.2, where users need to use separate controllers for SATA/SAS and NVMe. U.3 devices are required to be backwards-compatible with U.2 hosts. U.2 devices are not compatible and cannot be used with U.3 hosts.[9]
 
Traurig nur das man SAS Platten nicht an SATA betreiben kann ,umgekehrt SATA an SAS ist möglich.
Naja, SAS und SATA unterscheiden sich fundamental.
Bei der Entwicklung von SAS hat man STP gleich mit entwickelt, SATA gabs da schon.
STP = Sata Tunneling Protocoll
SAS gibts seit 2004, SATA dagegen schon seit 2000.
Als SATA entwickelt wurde, gabs noch das Parallel-SCSI mit 68-poligem Kabel.
Und wer es unbedingt will:
Es gibt Konverter von SATA auf SAS, um SAS-Platten an SATA-Anschlüssen anschließen zu können.
Die konvertieren auch das jeweile Protokoll in das andere Protokoll.

Und es gibt noch eine gerne vergessene Schnittstelle:
FibreChannel.
Von vielen Festplatten gibt es 3 Modelle:
1. SATA
2. SAS
3. FibreChannel

Weiterentwicklungen gibts eigentlich nur noch bei SAS.
Nur da können Festplatten noch von der höheren Schnittstellengeschwindigkeit profitieren.
Bei SATA gibts auch SATA Express.
Das hat bloß nie den Weg in reale Produkte gefunden.

Und warum sollte man SAS-Laufwerke an SATA anschließen wollen?
SATA ist langsamer (nicht nur wegen der reinen Schnittstellengeschwindigkeit, sondern auch z.B. wegen halbduplex gegenüber vollduplex bei SAS) und SAS-Festplatten sind teurer als ihre SATA-Pendants.
Und SAS-Platten sind i.d.R. auf den Servereinsatz optimiert.

Was den Abstand angeht:
Es gibt auch iSCSI, dessen bis zu 100 Meter sollten wohl für die meisten Fälle ausreichend sein.
Oder schlicht NAS.
 
Zuletzt bearbeitet:
Man kann über spezielle Controller und Kabel eines SAS Controllers SATA Platten Betreiben da diese nur einen Channel verwenden
Nein, sondern weil SAS verpflichtend das Sata Tunneling Protocoll unterstützt, welches man an jedem SAS Controller auch SATA Laufwerke betreiben kann.

Reine SAS Festplatten nutzen 2 Channels und somit die doppelte Übertragungsrate wie SATA Platten.
Wenn wir von Festplatten reden, ist dies doch egal, die schnellsten HDDs schaffen sowieso nur knapp die Hälfte der Bandbreite von SATA 6Gb/s auszulasten, nur bei SSDs ist dies anderes, aber gegen NVMe SSDs (also solche mit PCIe Anbindung, im Enterprise Segment gerne im U.2 / U.3 Formfaktor) haben auch SAS SSDs bzgl. der Performance keine Chance. Der eigentlich Grund warum SAS mehr Bandbreite und vollduplex bietet, ist dass bei SAS Expander sehr verbreitet sind, während bei SATA Port Multiplier, die im Prinzip das Gleiche wie SAS Expander machen, kaum verbreitet sind. Die SATA Host Controller in Intels Chipsätzen unterstützen meines Wissens bis heute keine Port Multiplier, die sind bis heute Exoten.

Während es also bei SATA bis heute die absolut, seltene Ausnahme ist, dass mehr als ein Laufwerk (Port Multiplier) an einem Port hängt, ist es bei SAS weitaus stärker verbreitet via SAS Expander mehrere Laufwerke an einem Port hängen zu haben und da sich alle Laufwerke eben die Bandbreite des Uplinks teilen müssen, macht es halt Sinn, dass diese bei SAS neben mehr Bandbreite auch vollduplex kann, da es ja durchaus vorkommen kann, dass nicht von allen Laufwerken am SAS Expander gleichzeitig immer nur gelesen oder nur geschrieben wird.

Es wäre super wenn es irgendwann eines Tages möglich wäre das es nur noch eine einheitliche Schnittstelle geben wird wo man Datenträger dran betreiben kann.
PCIe, dies kann auch vollduplex, erlaubt eine weit höhere Bandbreite als SAS und es gibt über PCIe Lanes Switches (aka PLX Chips) die Möglichkeit wie bei SAS Expandern oder SATA Port Multipliern Lanes zu schaffen, also z.B. mehrere Laufwerke an einer Lane zu betreiben. Bei SSDs hat PCIe als elektronische Anbindung zusammen mit NVMe als Software Protokoll den Markt ja schon praktisch komplett übernommen, im Consumer wie Enterprise Bereich.

Es gibt Konverter von SATA auf SAS, um SAS-Platten an SATA-Anschlüssen anschließen zu können.
Die konvertieren auch das jeweile Protokoll in das andere Protokoll.
Kannst Du mal einen verlinken? Ich haben noch nie einen gefunden, so wie ich zwar mal vor Jahren eine USB Adapter gefunden habe, der angeblich für SAS Laufwerke war (und einige Hundert Euro teuer), sehe ich immer mal wieder welches auf Online Plattformen, auch Amazon, aber die Rezessionen sind dann immer enttäuschend. meist geht nur eine bestimmte SSD, von der man dann auch nicht nachvollziehen kann, ob dies wirklich eine SAS SSD ist, aber keine SAS HDDs.

Meines Wissens ist daher die einzige realistische Möglichkeit eine SAS HDDs zu betreiben, sie eben an einen SAS HBA oder Controller zu hängen und ja, es gab mal (sogar Consumer) Mainboard die so einen SAS Controller Onboard hatten um mehr SATA Ports zu bieten und entsprechenden Kabeln laufen daran dann auch SAS Laufwerke, was bei manchen offen für Verwirrung sorgt, weil solche Ports meist nur als SATA Ports deklariert werden, obwohl es eigentlich SAS Ports sind. Außerdem kenne ich nur IDE als einzige Schnittstelle auf die man wirklich von einem SATA Port adaptieren kann, auch wenn es immer wieder Leute gibt, die da gerne NVMe SSDs anschließen möchten und nach Adaptern dafür suchen. Dies ist aber sinnlos, auch wenn es mechanisch passt, geht es elektronisch nicht, nur umgekehrt, denn es gibt auch SATA Host Controller im M.2 Formfaktor.

Nur da können Festplatten noch von der höheren Schnittstellengeschwindigkeit profitieren.
Wenn Du mit Festplatten HDDs meinst, dann nein, welche HDD soll dies denn sein? Ich keine keine die mehr Bandbreite ausnutzen könnte als SATA 6Gb/s bietet. Aber bei SAS sind halt Expander öfter zu finden, s.o. und damit macht mehr Bandbreite Sinn und bei SSDs ist es nochmal eine andere Geschichte.

Bei SATA gibts auch SATA Express.
Sagen wir besser mal, gab es mal. Es war aber PCIe und eben nur mit 2 Lanes und es gab nie eine SATA Express SSD zu kaufen! Denn bevor SATA Express erscheint, es war meine ich zusammen mit den Intel 90er Chipsätze, gab es schon die Samsung XP941 als M.2 SSD mit PCIe 2.0 x4 und die hatte schon eine Performance für die 2 Lane nicht gereicht hätten und damals hatten Chipsätze nur PCIe 2.0 Lanes. Als die Chipsätze mit Skylake dann PCIe 3.0 Lanes bekommen haben, gab es auch schon NVMe SSDs die 4 PCIe 3.0 Lane gebraucht haben um ihre volle Leistung zu erreichen.

Spätestens damit war der Zug SATA Express und seine maximal 2 PCIe Lanes abgefahren, da eben sowohl U.2 (war für Enterprise SSDs vorgesehen) als auch M.2 (was für mobile Rechner als Ablösung für mSATA und Mini-PCIe vorgesehen war) maximal 4 PCIe Lanes erlauben und es dann eben SSDs gab, für die nur 2 Lanes eine deutliche Einschränkung gewesen wäre. Ob man die maximalen Transferraten im Alltag merkt, ist eine andere Frage, sie verkauft sich aber bis heute gut und die unhandlichen und nicht gerade günstigen Kabel dürften der Sache auch nicht dienlich gewesen sein. SATA Express hat auf der Laufwerksseite ja den gleiche Stecker wie U.2 verwendet, aber mit einer anderen Pinbelegung und damit inkompatible.

SATA ist langsamer (nicht nur wegen der reinen Schnittstellengeschwindigkeit, sondern auch z.B. wegen halbduplex gegenüber vollduplex bei SAS)
SATA war eben für Consumer Hardware entwickelt worden und da gab es damals noch keine SSDs, sondern nur HDDs und die können eben nur entweder Lesen oder Schreiben, aber halt nicht beides gleichzeitig, wie SSDs es können. Und wie oben schon geschrieben, hängt da in aller Regel nur ein Laufwerk an einem Port, während bei SAS hat Expander durchaus verbreitet sind, womit selbst bei HDDs vollduplex schon Sinn gemacht hat und ebenso mehr Bandbreite.

Die Zukunft dürfte PCIe und dem NVMe Protokoll gehören, auch für HDDs. Es gab ja schon mal Forderungen danach und auch einen HDD Hersteller, der schon mal einen Prototypen gezeigt hat. Das Problem ist, dass es derzeit einfach für HDDs keinen Vorteil bringen würde, da die eben weder die Bandbreite von SATA 6Gb/s ausreizen können, nur etwas mehr als die Hälfte davon und eben auch kein Vollplex brauchen. Daran das die Geschwindigkeit von SATA 6Gb/s reichen wird, dürfte sich auch so bald nichts ändern, denn man muss die Kapazität vervierfachen, bis sich die Geschwindigkeit verdoppelt, wenn man SMR mal außen vor lässt. Da das Limit von SATA 3Gb/s erst ab so 20TB erreicht/leicht überschritten wurde, dürfte das Limit von SATA 6Gb/s erst erreicht werden, wenn wie uns den 80TB HDDs nähren und dann auch nur auf den äußeren Spuren.

Solange also keine Not besteht etwas zu ändern, ist mit Veränderungen nicht zu rechnen, denn diese kosten Geld und bedeuten immer ein Fehlerrisiko, zwei Dinge die man gerade im Enterprise Segment nicht gebrauchen kann. Aber spätestens wenn es mal soweit ist, dürfte SAS sterben, so wie SATA für SSDs schon heute am Sterben ist, für HDDs aber immer noch sehr lebendig bleiben wird. Wieso geht es beim Skandal um die gebrauchen Exos die mit zurückgesetzten S.M.A.R.T. Werten als neu verkauft wurde, wohl um SATA Laufwerke, die vorher in Rechenzentren eingesetzt waren?

Weil SAS da an Relevanz verliert, denn es war früher mal für die besten Performance unumgänglich, die Enterprise Nearline HDD (die mit 15krpm) gab es nur mit SAS und die wurden auf 520/528 Bit pro Sektor formatiert um nicht den Timeout (Stichwort: TLER) abwarten zu müssen, wenn mal ein Sektor nicht korrekt gelesen werden konnte. Diese Rollen haben schon lange (NVMe) SSDs übernommen und HDDs sind in die Ecke für Cool und Cold Storage verdrängt worden, wo der Preis pro TB und nicht die Performance die erste Geige spielt und diese Ecke ist keineswegs klein, aber SAS bringt da eben kaum noch Vorteile, außer eben die bekannte Hardware inklusive der SAS Expander nutzen zu können.
 
Naja, man könnte die Geschwindigkeit von HDDs schon deutlich steigern.
Z.B., indem man einfach die Zahl der Köpfe verdoppelt.
Seagate hatte da mal vor vielen Jahren einen Prototyp gebaut mit 2 Armen.
Damit konnte man pro Umdrehung der Platte die Daten doppelt so schnell schreiben/lesen.
Aber HDDs können sich nur noch über den Preis halten.
Kapazitätsmäßig können die auch nicht mehr mit SSDs mithalten.
SSDs gibts inzwischen mit Kapazitäten von 96 TB zu kaufen, wenn auch zu exorbitanten Preisen.

Und was SAS to SATA angeht:
 
Naja, man könnte die Geschwindigkeit von HDDs schon deutlich steigern.
Z.B., indem man einfach die Zahl der Köpfe verdoppelt.
Seagate hatte da mal vor vielen Jahren einen Prototyp gebaut mit 2 Armen.
Und es gab (oder gibt es die noch?) die Mach 2 mit zwei unabhängigen Aktuatoren für jeweils die Hälfte der Köpfe, aber offenbar waren die auch kein kommerzieller Erfolg, denn:
Aber HDDs können sich nur noch über den Preis halten.
So ist es und da werden SSDs auch vielleicht nie, aber zumindest noch sehr lange nicht dran kommen. NANDs sind schon bei weitem die billigsten Chips pro mm², obwohl die Fertigung mit den vielen Layern eine Menge Bearbeitungsschritte erfordert. Die haben also ganz andere Kostenfaktoren als HDDs und bei SSDs werden die Kosten nicht geringer, nur weil man mehr NANDs in eine SSD steckt, statt sie auch mehrere mit kleineren Kapazitäten zu verteilen. HDDs können aber die Kosten senken, wenn es gelingt die Datendichte zu steigern, was mit Technologien wie HAMR möglich erscheint, während NAND schon lange keinen Trick mehr im Ärmel hat um nennenswerte Kostensenkungen zu erzielen.

Die NAND Zellen sind schon so einfach wie sie sein können. Große Schritte für die Kostensenkungen sind mit mehr Bits pro Zelle möglich gewesen, wobei aber mit jedem zusätzlichen Bit die Einsparung immer geringer wird, während die technischen Nachteile bzgl. Schreibgeschwindigkeit und Haltbarkeit immer größer werden, auch wenn die Weiterentwicklung diese Nachteile immer wieder etwas abmildern konnte. Beim Sprung von SLC auf MLC (2bpc) hat man sich noch für die gleiche Kapazität die Hälfte der Zellen eingespart, beim Sprung von MLC auf TLC waren es nur noch 1/3 und beim Sprung von TLC auf QLC nich 1/4, jeweils zumindest theoretisch, denn in der Praxis dürfte es meist weniger gewesen sein, weil man mehr zusätzliche Zellen für eine aufwendigere ECC braucht.

Von PLC (5bpc) ist schon lange nicht mehr die Rede, es scheint sich also nicht zu lohnen den Weg weiter zu gehen, zumal man auch ausreichend große Zellen braucht, die genug Elektronen speichern können, um so viele verschiedene Ladungszustände noch unterscheiden zu können und damit steht man sich bei der anderen Methode im Weg wie man die Datendichte erhöhen und damit Kosten für NAND senken kann. Die letzten planaren NANDs waren schon bei nur noch so 20 Elektronen pro Zelle angekommen und damit hart am Limit, QLC war damit nicht zu realisieren.

Der Ausweg war der Schritt zu 3D NAND, also die Zellen auch übereinander zu stapeln, aber diesen Schritt kann man auch nur einmal gehen und jeder native Layer erfordert mehr Bearbeitungsschritte, die Kosten bedeuten und das Risiko erhöhen, durch einen Fehler den ganzen Wafer zu verlieren, weshalb es eben auch ein Limit gibt bis zu dem eine Erhöhung der Anzahl der nativen Layer wirtschaftliche ist. Um insgesamt auf mehr Layer zu kommen, werden dann eben zwei oder mehr Dies übereinander gepackt und durchkontaktiert, dies bedeutet aber eben auch, dass man dann aus zwei Dies nicht mehr Chips bekommt als aus einem, wenn man die NANDs mit der gleichen Anzahl nativer Layer herstellen würde, aber bei einem der beiden Dies spart man sich halt die Logik. Die Hersteller scheinen es noch weiter treiben zu wollen, indem sie die Logik getrennt herstellen und dann Dies nur mit den NAND Zellen darauf packen und durchkontaktieren.

Es gibt also noch Optimierungspotential, wie eben z.B. auch die Verkleinerung der Zellen und ihrer Abstände, aber es sind inzwischen alles kleine Fische im Vergleich zu dem, was man in Jahren noch gesehen hat, als es von SLC zu den ersten 3D NANDs ging. Grundlegend neue Technologien oder neue Techniken die Sprünge erlauben, so wie sie es sich die HDD Hersteller eben von Technologien wie HAMR versprechen, sind bei NANDs nicht mehr in Sicht und auch nicht mehr zu erwarten.

Kapazitätsmäßig können die auch nicht mehr mit SSDs mithalten.
Was dann aber am Ende allenfalls auf die TCO von großen Storages abzielt, denn wenn man pro Server mehr Kapazität realisieren kann, dann braucht man Ende weniger Server, damit weniger Racks, also weniger Platz und auch weniger Strom. Dann müssen aber auch die Schnittstellen schneller werden, damit man nicht das Gleiche Problem wie bei HDDs hat, wo die Zeit diese einmal komplett zu lesen oder beschrieben, mit steigender Kapazität auch immer weiter ansteigt. Optische Schnittstellen könnten hier helfen, aber nicht wenn es dann nur Adapterplatinen von optisch auf PCIe sind.

Was die Geschwindigkeit von HDDs angeht: Mich hat immer gewundert, wieso bei HDDs bis heute nur ein Schreib- Lesekopf zur Zeit aktiv ist, statt die Parallelität auszunutzen, die sich daraus ergibt, dass man viele Platter und entsprechend viele Köpfe hat. Die Feinpositionierung kann es nicht sein, denn die Ausleger haben am Ende kleine Aktuatoren um diese zu übernehmen. Bei 10 Platter und 20 Köpfen könnte man damit den Faktor 20 erzielen, wenn man die Daten eines Sektors eben über alle Oberflächen verteilen würde.

Das wäre halt ein Problem, wenn auf einem Platter der Bereich der Oberfläche einen Fehler hat und der Controller würde viel aufwendiger ausfallen, aber man muss es ja nicht auf die Spitze treiben, selbst wenn man nur die beiden Köpfe eines Platters parallel nutzen und die Daten wie bei einem RAID 0 zwischen ihnen verteilen würde, hätte man die doppelte Geschwindigkeit und trotzdem wurde es nie gemacht, da ich keine HDD Baureihe kennen, bei der es bei gleicher Datendichte und Drehzahl nennenswerte Unterschiede bei den Transferraten zwischen den Kapazitäten (und damit Anzahl der Köpfe) gibt.

Da ich aber nicht annehmen das noch niemand bei den HDD Herstellern auf diese Idee gekommen ist, muss ich unterstellen, dass es einen guten Grund gibt, warum dies zumindest bisher nicht gemacht wurde.

Was die Kapazitäten von SSDs angeht, so liest man immer wieder, dass Leute in Foren lieber eine billige SSD als eine schnelle SSD wollen, auch wenn diese langsamer ist. Dies ist aber eine Illusion, denn bei SSDs kommt die Geschwindigkeit aus der Parallelität der NANDs und ergibt sich damit bei hohen Kapazitäten daher von selbst, eben weil man viele NAND Dies braucht, um diese zu realisieren. Da begrenzt dann allenfalls der Controller, aber gerade bei größeren Kapazitäten machen die Kosten der NANDs den Löwenanteil der Kosten der SSD aus und die NANDs werden halt nicht billiger, nur weil man mehr von ihnen in eine SSD packt oder sie an einen langsamen Controller hängt.

Es gibt also keine Welt in der man SSDs mit hohen Kapazitäten nennenswert billiger machen kann, wenn man Geschwindigkeit opfern würde. SSD wären also prinzipiell nicht nennenswert billiger, wenn man auf Geschwindigkeit verzichten würde, dazu macht der Preis des Controllern einfach zu wenig aus. Auch wenn die aktuellen PCIe 5.0 Consumer SSDs mit einem deutlichen Aufpreis gegenüber ihren PCIe 4.0 Vorgängern verkauft werden, was aber auch für Modelle mit gleicher Kapazität gilt und es ist nur eine Frage der Zeit, bis diese Aufpreise verschwinden werden.
 
Man könnte die Kapazität von HDDs auch massiv erhöhen, indem man z.B. wieder welche im 5 1/4"-Format bauen würde.
5 1/4"-Platten hätten bei gleicher Datendichte eine ca. 2,2-fache Kapazität wie 3,5" HDDs.
Und da die Gehäuse von 5 1/4" auch höher sind, könnte man mehr Platter unterbringen und so socher eine um Faktor 3 oder mehr größere Kapazität erreichen.
Damit wären dann Stand heute auch Festplatten mit mehr als 100 TB machbar.
Das das dann keine Geschwindigkeitswunder wären, versteht sich von selbst.
Aber als Datengrab, bei dem die Geschwindigkeit keine große Rolle spielt, wäre das eine Überlegung wert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh