Bis 1,6 Petabit Kapazität möglich: Neuer optischer Datenträger kann deutlich mehr Daten aufnehmen

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
Optische Datenträger waren einst vor vielen Jahren sehr beliebt und in der jungen Vergangenheit eher ins Hintertreffen geraten. Angefangen bei der CD (Compact Disc) mit bis zu 700 MB, weiter mit der DVD (Digital Versatile Disc), die dank Double-Layer-Verfahren bis 8,5 GB und natürlich als Weiterentwicklung die BluRay, die mit BDXL bis 128 GB an Daten speichern kann. Doch im Vergleich zu einer neuen Technologie sind diese Datenmengen absolut winzig. In Shanghai an der Akademie der Wissenschaften und an der Universität in Peking haben chinesische Wissenschaftler an einem neuen optischen Datenträger gearbeitet.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Respekt, wenn es stimmt, aber sicher nicht für die Breite. Wie in der Quelle beschrieben für Rechenzentren zur Archivierung gedacht. Laut der Quelle sollen diese langlebig sein. :unsure:
 
Irgendein Wissenschaftler hat irgendwo was gemacht und kommt mit wilden Behauptungen was damit dann mal möglich sein wird. Wie oft haben wir sowas schon gelesen? Dröftausend mal?

Wenn es das Produkt zu kaufen gibt, dann lohnt es sich sich mal damit zu befassen, aber vorher nicht. Diese ganzen Mitteilungen dienen doch nur dazu Forschungs- und/oder Investorengelder einzusammeln und zu fast 100% kommt nie was bei raus.
 
Zuletzt bearbeitet:

Tesa-ROM Reloaded. :fresse2:
 
aber sicher nicht für die Breite.
Das dachte man auch schon bei der CD, abgesehen von Musik, wofür sie ja eigentlich entwickelt wurde.

Die ersten Computerspiele auf CD waren oft vollgestopft mit Videosequenzen, weil man die CD sonst gar nicht gebraucht hätte, aber ja irgendwie zeigen wollte, wie toll viel Zeug auf so eine CD passt. Muss da immer an Rebel Assault denken. Dabei musste es auch Zeug sein, das man direkt von der CD abspielen konnte, weil komplett installieren hätten viele so ein Spiel damals gar nicht können. Als ich mein erstes CD-Laufwerk hatte, hatte mein Rechner eine 420MB Festplatte. :ROFLMAO:
"Monster"-Spiele kamen damals auf 10, 12, 14 Disketten, also ~20MB groß. Das war auf einer CD zwar weit praktischer, aber wegen gerademal 20MB war eine CD eigentlich auch schonwieder overkill.

Ob sich das in der Masse verbreiten wird, hängt vermutlich eher davon ab, ob man entsprechende Datenvolumen überhaupt braucht, ob es akzeptable alternative Datentransfermöglichkeiten geben wird und ob die üblichen Massenspeicher bei der Kapazität mithalten können.

Also wenn man mal 200TB wirklich brauchen sollte, wäre die Frage ob man sowas als Download überhaupt noch akzeptieren kann. Selbst mit Gigabit-Internetanschluss würde so ein Download grob überschlagen 500 Stunden dauern.
Und wenn übliche Festplatten bis dahin nicht 500TB oder mehr haben, hat sich die Downloadfrage auch schon erübrigt, weil dann hat man lokal gar nicht die Möglichkeit das überhaupt zu speichern.

Wenn man es aber auch in der Breite für irgendwas sinnvoll einsetzen kann, wird sich sowas mit ziemlicher Sicherheit auch verbreiten.
 
Zuletzt bearbeitet:
Einen usecase für ein dauerhaft ablegbares einmalig beschreibbares Medium hätt ich schon. Und wenn es nur das sichere Backup eines gesamten Systems ist.
 
Gähn, die Meldung kommt alle 2 Jahre und ein Produkt wurde nie draus
 
Das dachte man auch schon bei der CD, abgesehen von Musik, wofür sie ja eigentlich entwickelt wurde.

Die ersten Computerspiele auf CD waren oft vollgestopft mit Videosequenzen, weil man die CD sonst gar nicht gebraucht hätte, aber ja irgendwie zeigen wollte, wie toll viel Zeug auf so eine CD passt. Muss da immer an Rebel Assault denken. Dabei musste es auch Zeug sein, das man direkt von der CD abspielen konnte, weil komplett installieren hätten viele so ein Spiel damals gar nicht können. Als ich mein erstes CD-Laufwerk hatte, hatte mein Rechner eine 420MB Festplatte. :ROFLMAO:
"Monster"-Spiele kamen damals auf 10, 12, 14 Disketten, also ~20MB groß. Das war auf einer CD zwar weit praktischer, aber wegen gerademal 20MB war eine CD eigentlich auch schonwieder overkill.
Oh Gott, ja, daran kann ich mich auch noch lebhaft erinnern. Meine erste Cinema4D (Version 1 für Amiga) hatte damals auch zig Disketten. Die 40 Megabyte Festplatte im Amiga war damals viel, aber für das Programm schon recht knapp. Auf der Kölner Computermesse habe ich damals in den jungen Jahren bei den damaligen geistigen Programmierer Plugins und Files auf Disketten am Stand gekauft. Es waren ganze 16 Disketten (1,4 MB), schön verpackt in einer weißen Box. Eine neue Festplatte musste her, schon wegen der vielen berechneten Bilder und Sequenzen, Texturen und Files.
Später kamen CDs, was es deutlich bequemer machte. Es gab damals eine breite und rege Demoszene im Amigabereich, da waren die CDs, später DVDs, schon sehr geschickt. Weil die Demos/Files immer komplexer, umfangreicher wurden. Gibt es heute noch, aber da hat der PC den Siegeszug schon lange vollzogen (siehe Szene.org). Aber aus dieser europäischen Szene sind damals viele spätere Programmierer im PC Bereich und Spieleentwicklung hervorgekommen. Und: Es gab damals keinen Kopierschutz! Und das Betriebssystem konnte man Copy-Paste auf eine neue Festplatte draufklatschen, einbauen und gut war's. Vor den Updates habe ich das auch immer gemacht. Unkompliziert eben :LOL:

Um zum eigentlichen Thema zurückzukommen: Wenn es stimmt (ist aber aktuell nur im Forschungsstatus), kann ich mir für den Conumerbereich vorstellen, dass auf einer CD wenige Layer sind, aber trotzdem 4 - 8 TB an Datenvolumen bieten. Aber ob es tatsächlich was bringt ... glaube ich persönlich nicht. Mir sind SSDs und Speichersticks viel lieber. Nix Mechanisches. :fresse:
 
Irgendein Wissenschaftler hat irgendwo was gemacht und kommt mit wilden Behauptungen was damit dann mal möglich sein wird. Wie oft haben wir sowas schon gelesen? Dröftausend mal?

Wenn es das Produkt zu kaufen gibt, dann lohnt es sich sich mal damit zu befassen, aber vorher nicht. Diese ganzen Mitteilungen dienen doch nur dazu Forschungs- und/oder Investorengelder einzusammeln und zu fast 100% kommt nie was bei raus.
Ist nicht falsch, was du schreibst. Aber auch du wirst sicherlich anerkennen, dass es Stand heute einfach beeindruckend ist, 200 TB an Daten auf einer winzigen Scheibe zu speichern. Klar ist das alles noch nicht in trockenen Tüchern, ist dennoch beeindruckend, wenn es denn stimmt. ;)
 
Aber auch du wirst sicherlich anerkennen, dass es Stand heute einfach beeindruckend ist, 200 TB an Daten auf einer winzigen Scheibe zu speichern.
Es wäre beeindruckend, wenn dem so wäre, aber selbst in der News steht ja:
In Zahlen ausgesprochen, gehen die chinesischen Wissenschaftler davon aus, dass bis 1,6 Petabit möglich sind.
Man kann von vielem ausgehen, die Frage ist doch, was wirklich erreicht wurde. Ich weiß das ich da altmodisch bin, da für mich nur das Erreichte zählt, während den meisten Leute heutzutage schon das Erzählte reicht. Leider findet sich aber im Text kein Hinweis darauf wie viele Daten wirklich auf welcher Fläche erfolgreich geschrieben und wieder gelesen wurden.

Von mir kann der Apparat je so groß wie ein Container sein, dessen Größe könnte man für ein Serienprodukt schon deutlich verringern und es würde auch reichen wenn da nur 2TB auf einem Prozent so einem Datenträger beschrieben hat, weil man z.B. die Positionierung über Optik eben noch nicht implementiert hat, oder nur so 20 Layer da die Produktion des Mediums noch schwer ist, aber mehr als eine Idee und dann davon auszugehen ein Wunder zu vollbringen, sollte es schon sein, wenn es auch nur ein wenig glaubwürdig sein soll.
 
Ich weiß das ich da altmodisch bin, da für mich nur das Erreichte zählt, während den meisten Leute heutzutage schon das Erzählte reicht.
Das "Erzählte" entspricht der Theorie und auch die kann alleine schon beeindruckend sein. Versteh mich nicht falsch, auch ich stehe auf Fakten und davon ist diese Technologie noch weit entfernt.
 
Würde mir schon reichen, wenn es eine Firma gibt welcher die Daten zum brennen zugeschickt werden können und man die gebrannte Disc mit dem zugeschickten Datenträger zurück bekommt. Will man die Daten dann wieder auf einem anfälligen Medium wie SSD oder HDD zurück haben, wel das eigene Backup warum auch immer verloren ist, schickt man einfach wieder einen leeren Datenträger mit der Disc hin und bekommt die Daten von der Disc auf der SSD/HDD mit der Disc zurück. Die Hardware dafür brauch ich nicht selber, wäre wohl auch nur um Backups zu machen viel zu teuer. Idealerweise macht diesen Service dann eine große Firma wie MS/Samsung oder IBM, irgendwas was wo man weiß die verschwinden nicht vom Markt und bieten diesen Service mehrere Jahrzehnte an.
 
Irgendein Wissenschaftler hat irgendwo was gemacht und kommt mit wilden Behauptungen was damit dann mal möglich sein wird. Wie oft haben wir sowas schon gelesen? Dröftausend mal?

Wenn es das Produkt zu kaufen gibt, dann lohnt es sich sich mal damit zu befassen, aber vorher nicht. Diese ganzen Mitteilungen dienen doch nur dazu Forschungs- und/oder Investorengelder einzusammeln und zu fast 100% kommt nie was bei raus.
Seit wann hast du denn dauernd so besonders miese Laune?
 
optischer Datenträger
 
Das "Erzählte" entspricht der Theorie und auch die kann alleine schon beeindruckend sein.
Die schönste Theorie nutzt aber nichts, wenn diese sich eben nicht sinnvoll in die Praxis umsetzen lässt. Die Hyperloop ist doch ein schönes Beispiel, die Idee einen Transrapid in einer Vakuumröhre fahren zu lassen um den Luftwiderstand zu vermeiden und damit noch schneller fahren zu können, klingt ja erstmal toll. Aber dies lässt sich in der Praxis aber eben nicht in der Praxis umsetzen, wie jeder weiß der ein wenig Ahnung von einem Vakuum hat. Es ist einfach nicht möglich eine Vakuumröhre über Hunderte Kilometer zu bauen, da spricht alleine schon die Wärmeausdehnung dagegen, die Tagsüber wegen der Sonneneinstrahlung oben größer als unten ist. Ein Fehler in der Röhre würde alle darin töte, weil sich dann eine Wand aus Luft mit einer Massen von 10t/m² mit Schallgeschwindigkeit von der Fehlerstelle in beide Richtungen ausbreiten würde. Denn auf Meereshöhe wirken etwa 10t pro m² auf alles ein und wir halten das nur deswegen so gut aus, weil unser Innendruck eben genauso hoch ist, aber welche Kräfte wirken, wenn der Druck nur etwas geringer wird, sieht man schön an der Kühlschranktür, die man gleich nach dem Schließen auch oft gar nicht aufbekommt, weil die warme Luft die Öffnen reingekommen ist, sich abgekühlt und den Druck im inneren ein wenig gesenkt hat und wirken von

Dann müsste diese praktisch komplett gerade sein, da die G-Kräfte in jeder Kurve oder Höhenänderung sonst viel zu groß wären und wo kann man schon eine Hunderte Kilometer lange, gerade Röhre verlegen? Dazu kommen die Ein- und Ausgänge, mal ganz davon abgesehen, dass es keine Ventile gibt die auch nur annährend den nötigen Durchmesser haben und die Kräfte bewältigen könnten, müsste man die Eingänge erst versiegeln und dort ein Vakuum herstellen, bevor man in die Röhre einfahren kann, was die Reisedauer massiv erhöht.

Jeder mit ein wenig Ahnung und Verstand, sollte also erkennen können was für eine blödsinnige Idee dies ist, auch wenn sie in der Theorie sinn macht, aber wie viele Millionen wurden dafür bisher verbrannt? Die meisten haben inzwischen aufgegeben, keine Ahnung ob der Hamburger Hafen noch davon träumt Container damit statt mit der Bahn weiterzuschicken, weil es nach Wochen auf dem Meer natürlich auf jede Minute ankommt. :d

Wie viele Hunderte Millionen an Steuer- und Investorengeldern wurden dafür verschwendet? Die meisten Investoren dürften nicht ihre eigene Kohle dafür verbraten haben, sondern das Geld ihrer Anleger. Aber schlimmer noch, wie viele Shills haben den Mist gehypt, jeden der Kritik geäußert hat persönlich angegriffen (wohl weil sie um ihren Traum fürchten, auch wenn der sowieso unrealistisch war, aber dies können solche Deppen eben nicht beurteilen) und andere sinnvolle Projekte verhindert. Das war ja laut Musks Biographie der Grund warum er diese uralte Idee, die schon vor 100 Jahren patentiert wurde, dann mit einem neuen Namen wieder aufgebracht hat; Er wollte den Hochgeschwindigkeitszug in Kalifornien verhindern.

Wir alle verlieren also wegen solcher Grifter, die als einzige daran verdienen, wenigstens ein paar Jahre lang bis allen klar ist, dass sie nur Luftschlösser gemalt haben und eine Computeranimation zu erstellen, eben viel einfacher ist als etwas wirklich zu realisieren und dann gewinnen vielleicht noch die Medien ein wenig, die solche News verbreiten, haben sie doch Inhalte die Klicks erzeugen.
 
WENN die Teile mal im Handel sind kann man sich einen Kopf machen, nämlich über Datensicherheit. SSDs/HDs/CD-Rom etc. haben ja teilweise massive Probleme mit der Langzeitlagerung. Wer mal lachen will sollte mal eine normale gebrannte CD-ROM ins Fensterbrett legen, dauert gar nicht so lange bis sie sich mehr oder weniger auflöst (werden durchsichtig bis milchig, je nach Marke etc). Ich nutze hier die M-Disc, und selbst da muss man sich fragen ob die angegebene Sicherungsdauer auch wirklich halbwegs erreicht werden kann, aber stellt zumindest für den Hausgebrauch eine relativ günstige Sicherungsmethode dar.
 
Irgendein Wissenschaftler hat irgendwo was gemacht und kommt mit wilden Behauptungen was damit dann mal möglich sein wird. Wie oft haben wir sowas schon gelesen? Dröftausend mal?

Wenn es das Produkt zu kaufen gibt, dann lohnt es sich sich mal damit zu befassen, aber vorher nicht. Diese ganzen Mitteilungen dienen doch nur dazu Forschungs- und/oder Investorengelder einzusammeln und zu fast 100% kommt nie was bei raus.
Weshalb so negativ? So funktioniert Forschung und Entwicklung nun mal: Wenn basierend auf Grundlagenforschung im Labor eine mögliche Zukunftstechnologie gefunden wurde, braucht es Risikoinvestoren, um diese auf die nächste Stufe zu hiefen und zu sehen ob es in der Praxis klappen kann. Die Investoren wissen besser als du, dass in den meisten Fällen nichts draus wird, aber in wenigen Einzelfällen eben doch, und dann kann es technologisch einen großen Schritt nach vorne gehen. Wenn jeder wie du das Risiko gescheut hätte, da ja in den meisten Fällen nichts draus wird, dann würde es all die schönen Technologien, mit welchen sich in diesem Forum befasst wird, der Hardware, den Spielen, Anwendungen etc, nicht geben. Also sei dankbar, dass es intelligente Menschen gibt, welche in solchen Dingen forschen, und andere, welche Gelder dafür, und vor allem für die Entwicklung hin zur Markreife (so weit wie es eben kommt oder nicht kommt), bereitstellen, damit sich die Menschheit technologisch weiterentwickeln kann.

Und klar ist es (erstmal) nicht für die Masse gedacht. Wenn es überhaupt auf den Markt kommt, ist es erstmal sehr teuer, mit spezifischen Anwendungen. Aber in vielen Fällen drückt die (Massen)produktion irgendwann den Preis und Weiterentwicklung erschließt weitere Anwendungsmöglichkeiten, sodass irgendwann auch der einfache Endanwender etwas davon haben kann.

Ich finde es wichtig und richtig, dass über Themen aus Forschung und Entwicklung berichtet wird, auch wenn es sich um sehr frühe Entwicklungsstadien handelt. Und es muss ja nicht jeder jeden Artikel lesen und jedes Thema interessant finden :).
 
So funktioniert Forschung und Entwicklung nun mal: Wenn basierend auf Grundlagenforschung im Labor eine mögliche Zukunftstechnologie gefunden wurde, braucht es Risikoinvestoren, um diese auf die nächste Stufe zu hiefen und zu sehen ob es in der Praxis klappen kann.
Nein, wenn man da was gefunden hat, wendet man sich an ein Unternehmen mit Ahnung in diesem Bereich und arbeitet mit denen zusammen um daraus ein Produkt zu machen. Das Problem für den Forscher ist nur, dass die eben Ahnung haben und ablehnen werden, wenn sie sehen das da nur heiße Luft produziert wurde. Unter den Risikoinvestoren scheinen sich genug total technikfremde Personen zu finden, die man mit solche Visionen beeindrucken kann, dass da dann Kohle rüberwächst und der "Forscher" sich die Taschen füllen kann, auch wenn von Anfang an klar ist, dass es nichts werden wird. Die Spitzenklasse der Grifter bringt das dann als Unternehmen an die Börse, gerne per SPAC, bevor es das erste richtig funktionierende Produkt gibt und verkauft einen großen Teil seiner Akten zu absurden Bewertungen, bevor das Luftschloss vom Winde verweht wird.
würde es all die schönen Technologien, mit welchen sich in diesem Forum befasst wird, der Hardware, den Spielen, Anwendungen etc, nicht geben. Also sei dankbar, dass es intelligente Menschen gibt, welche in solchen Dingen forschen, und andere, welche Gelder dafür, und vor allem für die Entwicklung hin zur Markreife (so weit wie es eben kommt oder nicht kommt), bereitstellen, damit sich die Menschheit technologisch weiterentwickeln kann.
Beispiele? Die meisten Entwicklungen an denen ich mich freue und ich bin kein Gamer, mag sein das es da mit dieser Art der Finanzierung besser klappt als z.B. mit den ganzen NTF und GoFundMe Projekten, wurden innerhalb von Unternehmen entwickelt oder bei SW wie Linux eben als Opern Source. Die ersten integrierte CPU hat Intel damals aufgrund eines Auftrags einer japanischen Firma für einen Taschenrechner erfunden, die ersten HDDs waren von IBM und NAND hat Toshiba erfunden. Sage mir also konkret, welche tollen Erfindung ich vermissen müsste, wenn es diese Art der Finanzierung nicht geben würde.

Übrigens bin ich kein Kunde von UBER, AirBnB oder WeWork, diese Pseudo-Techno Formen haben der Menschheit insgesamt nicht geholfen, die fahren auch ständig nur Verluste ein und machen nur etablierten Firmen die Steuern zahlen, das Geschäft kaputt. Außerdem wird aus einem i.d.R. illegalen Taxigeschäft, einer ebenso meist im Graubereich betrieben Privatvermietung oder dem Vermieten von Büroräumen keine technologische Errungenschaft, nur weil man es über eine App macht.
Wenn es überhaupt auf den Markt kommt
Eben und da weiß ich jetzt schon, dass es das niemals wird. Um die wirklich ernsten Entwicklungen wird nicht vorab in so einem frühen Stadion so viel Wind gemacht, dies geschieht immer nur um Aufmerksamkeit und damit Kohle zu bekommen.
 
Nein, wenn man da was gefunden hat, wendet man sich an ein Unternehmen mit Ahnung in diesem Bereich und arbeitet mit denen zusammen um daraus ein Produkt zu machen.
Einfach mal "Grundlagenforschung" googlen.

Ich weiss, irgendetwas zu untersuchen ohne dass dabei ein Produkt abzusehen ist, schein vielen die nur von 12 bis mittags denken können sinnbefreit - aber ohne sie wären wir noch im Mittelalter.

Oder was denkst du wie das bei der Erforschung des elektrischen Stroms lief? Der elektromagnetischen Welle? Der ganze Quantenkrempeln, ...? Und welche deiner Produkte konnten ohne dieses Wissen entwickelt werden?
 
Viel wichtiger ist die Frage wie lange es dauert so eine Scheibe zu beschreiben?
Bei dem großen Datenvolumen und unseren aktuellen Übertragungsraten, davon ausgehend das es noch mit dem SAS/SATA Protokoll stand heute bei optischen Datenträgern zum Einsatz kommt.
Selbst bei PCIE 5 x4 mit sagen wir in etwa mit 40 Gbit/s, unwahrscheinlich das die Schreibegeschwindigkeit maximal auslasten würde. wären das bei 200TB noch mindestens 11 Stunden.
Ausgehend von SAS-4 bei maximaler Auslastung sind es fast 24 Stunden.

Das nur wenn die Schreibraten mitgehen würde, was eher nicht der fall wäre. Sagen wir mal Bluray mit etwa bis zu ~30MB/s Schreiben wären es 77 Tage bis die voll sind.
Also nur weil es erstmal möglich ist so viel Informationen darauf zu schreiben, muss es auch im täglichen Gebrauch sinnvoll sein.
 
Bei dem großen Datenvolumen und unseren aktuellen Übertragungsraten, davon ausgehend das es noch mit dem SAS/SATA Protokoll stand heute bei optischen Datenträgern zum Einsatz kommt.
Wenn es denn wirklich jemals kommen würde, wäre nicht die Schnittstelle das Limit, da man diese dann entsprechend wählen würde, sondern eben die eigentliche Schreib- und Lesetechnologie. Die Anbindung wird man dann schon entsprechend wählen und Heimanwender würden sicher nicht die ersten Nutzer sein.
Selbst bei PCIE 5 x4 mit sagen wir in etwa mit 40 Gbit/s,
PCIe 5.0 x4 sollte praktisch knapp 15GB/s übertragen können.
 
Das dachte man auch schon bei der CD, abgesehen von Musik, wofür sie ja eigentlich entwickelt wurde.

Die ersten Computerspiele auf CD waren oft vollgestopft mit Videosequenzen, weil man die CD sonst gar nicht gebraucht hätte, aber ja irgendwie zeigen wollte, wie toll viel Zeug auf so eine CD passt. Muss da immer an Rebel Assault denken. Dabei musste es auch Zeug sein, das man direkt von der CD abspielen konnte, weil komplett installieren hätten viele so ein Spiel damals gar nicht können. Als ich mein erstes CD-Laufwerk hatte, hatte mein Rechner eine 420MB Festplatte. :ROFLMAO:
Doch soviel? :oops: :oops: :oops::ROFLMAO:

Ich erinnere mich auch noch gut, wie damals die CD als "teures Zusatzfeature" verkauft wurde. Eine Legende, die schnell ad absurdum geführt wurde, weil nach kurzer Zeit praktisch jede Computer-Zeitung mit angehängter Software-CD daher kam und AOL das Land mit CDs regelrecht überflutete, um seine Internet-Einwahl-Software (war ja noch das Modem-Zeitalter) an den Mann und die Frau zu bringen. Da war klar, daß der Datenträger an sich nicht mal ein paar Cent (oder waren das noch Pfennige?) kosten konnte, weil sonst das Geschäftsmodell von AOL gar nicht hätte aufgehen können. Denn wieviele dieser CDs führten überhaupt zu neuen Internet-Verträgen? Eine von 1000? Oder 10.000?

Und selbst wenn ein Programm nur eine einzige Diskette benötigte, war die CD billiger, weil man sie inklusive der Daten einfach pressen konnte, während die Disketten in Kopierwerken einzeln beschrieben werden mußten.

Wirklich interessant wurde das Medium für die Kunden aber erst mit der Verfügbarkeit von Brennern. Weil man dann selbst Daten sichern und natürlich auch Musik-CDs kopieren konnte. Die Bluray hat das nie schaffen können, weil gleichzeitig die Kapazitäten sowohl von HDDs als auch Flash die der blauen Scheiben enorm überflügelt hatten. Diese neue Scheibe könnte da einen besseren Mehrwert bieten.
 
Zuletzt bearbeitet:
Würde mir schon reichen, wenn es eine Firma gibt welcher die Daten zum brennen zugeschickt werden können und man die gebrannte Disc mit dem zugeschickten Datenträger zurück bekommt. Will man die Daten dann wieder auf einem anfälligen Medium wie SSD oder HDD zurück haben, wel das eigene Backup warum auch immer verloren ist, schickt man einfach wieder einen leeren Datenträger mit der Disc hin und bekommt die Daten von der Disc auf der SSD/HDD mit der Disc zurück. Die Hardware dafür brauch ich nicht selber, wäre wohl auch nur um Backups zu machen viel zu teuer. Idealerweise macht diesen Service dann eine große Firma wie MS/Samsung oder IBM, irgendwas was wo man weiß die verschwinden nicht vom Markt und bieten diesen Service mehrere Jahrzehnte an.
Was zum Henker hätte das für einen Vorteil gegenüber ner verschlüsselten Datei auf Dropbox und co.? o.o
Ich meine du hast dann zwar die physische Kopie in der Hand, kannst sie aber ohne den Service des Unternehmens nicht nutzen...
 
Eben und welcher Heimanwender hat 1,6PB an Daten?
 
Nicht 1,6 Petabyte (PB), sondern 1,6 Petabit (Pb). ;)
 
Also der Use-Case für zuhause wäre ein Cold-Storage-System für die UHD-Film-Sammlung, denn da gehen schon diverse Terabytes drauf...

Breitbandiger LAN Anschluss, NVMe-s als R/W-Cache und für Metadaten und ein x-fach Wechsler für die Disk hintendran. Fertig ist das extrem große und stromsparende NAS für zuhause!

Wenn ein Client eine z.B. 80GB große Videodatei aufruft zum abspielen, dann wird diese schnellstmöglich gelesen und auf die NVMe zwischengespeichert. Von dort beginnt auch zeitgleich der eigentliche Stream an den Client. Wenn man von der Disk mit ~100MByte/s lesen kann, dann sollte es auch zu keinen Aussetzern kommen!
 
Was zum Henker hätte das für einen Vorteil gegenüber ner verschlüsselten Datei auf Dropbox und co.? o.o
Ich meine du hast dann zwar die physische Kopie in der Hand, kannst sie aber ohne den Service des Unternehmens nicht nutzen...
Das Disk soll ja auch nur als Backup dienen, da die Daten idealerweise noch vorhanden sind und nur bei Verlust zum Einsatz kommt. Cloud oder Dropbox ist wieder anfällig für Hacks oder defekte Hardware beim Anbieter.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh