[User-Review] HighPoint SSD7102 - Bootable NVMe RAID Controller

wdragon

Enthusiast
Thread Starter
Mitglied seit
26.07.2006
Beiträge
625
Nach Ankündigungen im Oktober 2018 ist der HighPoint SSD7102 - Bootable NVMe RAID Controller nun endlich verfügbar. Dieser Controller ist im Gegensatz zu seinem Vorgänger bootfähig. Ebenso ist er mit einem PLX8747 PCIe Brigde Chip ausgestattet, um Limitierungen der CPU bgzl. mangelnder PCIe-Lanes zu umgehen, und um alle angeschlossenen NVMe SSD als ein Storage im Computer verfügbar zu machen.
thessdreview - HighPoint Creates the SSD7102
HighPoint Homepage - HighPoint SSD7102 - Bootable NVMe RAID Controller

Ich habe ihn direkt bei Alternate für € 449,- erworben (dazu kamen noch 4,99 € Versandkosten), und ist aktuell auch noch auf Lager.

Unboxing

Es wird der Controller in einer schlichten Pappschachtel geliefert.
highpoint_unboxing_10ok5k.jpg

Laut Handbuch soll angeblich noch ein Low-Profile-Slotblech beiliegen, was aber angesichts der Breite mit 4x m.2 Anschlüssen unsinnig ist.
highpoint_unboxing_2jyk2z.jpg
highpoint_unboxing_3dtjed.jpg

Links oben sieht man den PLX8747 PCIe Bridge Chip .
highpoint_unboxing_401k7b.jpg

Aufgeklappt der Abdeckung , links die Abdeckung mit einem großen Wärmeleitpad, rechts die 4x m.2-Anschlüsse und dem kleinen 50mm Lüfter.
highpoint_unboxing_53dkvy.jpg

Weiterhin liegen 4 x Samsung SSD 960 PRO 2TB, M.2 bereit, welche dann für den Testbetrieb verwendet werden.
highpoint_unboxing_692kkv.jpg


Verwendete Hardware

Damit die Karte auch vernünftig betrieben werden kann, habe ich mir hier im Forum einen gebrauchten i7-6950x gekauft.
  • Intel i7-6950x mit Standardtakt 3 GHz, keine Übertaktung
  • Mainboard Gigabyte GA-X99-UD7
  • 128 GB RAM, Corsair Vengeance LED (8x16GB) DDR4 3000MHz C15
  • Samsung 850 Pro 256 GB(OS und Bootlaufwerk)
  • Samsung 850 Pro 1 TB(Daten)
  • Samsung SM951 NVMe 512 über PCIe x4 Adapter
Das schöne ist, die Hardware ist laut SSD7100_Compatibility_List_092518.pdfauch offiziell unterstützt.

Einbau und Installation

Das Einbauen geht geht flott, und schon sind 4 NVMes verschraubt.
highpoint_install1l0kr4.jpg

Gehäuse zu, rein in den PC in den entsprechenden PCIe-Slot x16, und schon werden alle NVMe-SSDs im Gerätemanager und in der Datenträgerverwaltung angezeigt.
raid1ai3kz3.jpg

raid1b9uj7u.jpg

Samsungs Magican erkennt ebenfalls alle NVMe SSDs, nur wird es hier etwas ecklig, weil er allen ernstes nach jedem Firmware-Update booten möchte. Nein, Samsung, das geht besser. Gut, hätte man doch direkt per ISO-Boot mit USB einfach gehabt, aber dazu bin ich nun am Abend etwas zu faul, daher eben 4x updaten und booten.
raid2vpjm2.jpg
raid336kdp.jpg

raid4atjty.jpg

Nun denkt man, daß man nur noch das HighPoint RAID Management installieren, und schon könnte es losgehen? Pustekuchen, schon kommt die erste gewaltige Hürde.
raid5cfklw.jpg

Hm, die Fehlermeldung sagt einem erst man nichts. Weder Handbuch noch Onlinehilfe unter RocketRAID WebGUI Online Help geben weitere Auskunft. Anscheinend kann man sich erst mal mit dem User Raid PW hpt anmelden, aber selbst das klappt nicht.

Selbst das manuelle Starten von Hand den Service per "net start hptsvr" bringt nur die schöne Fehlermeldung "Service gestartet... Service beendet, keine weiteren Fehlermeldungen." Sehr schön, so fühlen wir uns an die Arbeit erinnert, und es geht die Suche in zig Dokus und Foren in den weiten des Internet los. Die üblichen Verdächtigen wie Firewall aus und alles schön mit "als Administrator ausführen" wurde bereits einbezogen und getestet.

Somit ist bis zur Fehlerbeseitigung erst mal Pause angesagt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich habe natürlich dieses Bild nicht gesehen:
NVMe RAID Category
raidlevellgje1.jpg

Das nur beim Booten Raid 0 /1/JBOD unterstützt werden, ist klar. Aber ich hätte schon erwartet, daß wenn ich nicht davon boote, alle anderen Raid 5 und 0/1 unterstützt werden. Schade, da werde ich vielleicht doch eher aufs Booten verzichten und auf den Vorgänger zurückgreifen.
 
Zuletzt bearbeitet:
Der Trend geht zum 2. und 3. Rechner. Nachdem ich mit den Anwendungsrechner nicht weiterkam, bin ich auf den Spielerechner gewechselt:
  • Intel i7-8700k mit Standardtakt 3,7 GHz, keine Übertaktung
  • Mainboard Asrock Fatal1ty Z370 Professional Gaming i7
  • Nvidia 2080 TI FE, ausgebaut und gegen Highpoint SSD7102 ausgetauscht
  • 32GB RAM, Panram 4x8GB DDR4 2400MHz C15
  • Samsung 840 Pro 512 GB(OS, Bootlaufwerk und Daten)
  • Samsung 850 Pro 2 TB (Spiele)
Da der i7-8700k über einen Grafikkern verfügt, kann man hier auf die externe Grafikkarte verzichten, und sie zugunsten des Raid-Adapters austauchen. Siehe da, es tut sich schon was im Bios beim Start des Rechners:

Jetzt sieht man auch nur noch Highpoint NMVe Controller anstatt der Samsung Namen

Und die Software für die Raidverwaltung startet endlich


Performance

Nun kommen wir endlich zum dem, was wir alle sehen wollen, Benchmarks. Ich habe mich hier für den ersten Schnelldurchlauf für folgende Programme entschieden:
  • AS SSD Benchmark 2.0.6821.4776, schnell, aber leider auch sehr übertrieben optimistisch und ungenau. Als grober Richtwert reicht es erst mal
  • Crystal Disk Mark 6.02. x64, etwas langsamer, dafür präziser.
Wir starten mit dem Raid 0 über den die Highpoint Management Verwaltung


Dann verwenden wir ein einfach gestripptes Laufwerk, ebenfalls Raid0, direkt über die Datenträgerverwaltung und mit Windows-Mitteln


Als letztes lösen wir die Raids wieder auf, und verwenden nur direkt einzelne Laufwerke ohne alles weitere


Erstes Fazit

Die Ergebnisse sind sehr ernüchternd. Es wird beim Lesen kaum die doppelte Performance in Crystal Disk Mark erreicht. Schreibend sieht es etwas besser aus. Die 4k-Werte verbessern sich kaum, eher im Gegenteil, sie verschlechtern sich teilweise. Man muß sich hier klarmachen, es sind alles beide Softwareraids, und diese sind im Vergleich zu richtigen Raid-Controllern doch deutlich schneller in der Performance. Das Windows-Raid mag mit Crystal Disk Info gar nicht so richtig flutschen, der AS SSD Benchmark stört sich, bis auf dem Abfall bei 4k-64Trhd schreiben kaum weiter daran.

Daher würde ich mal summieren, so ein Controller lohnt sich kaum, wenn man nicht die entsprechende Anwendung oder spezielle Anwendung dahinter hat (Datenbanken, viel Datei-IO usw.) Reizvoll ist die Verwendung eines kompletten x16 PCIe-Slots, der aber mit billigeren Alternativen wie ein Asrock ULTRA QUAD M.2 CARD oder Asus Hyper M.2 X16 Card, die aber wiederum nur auf neueren Mainboards und CPUs funktionieren, die mit Bifurcation umgehen können (Z270/Z730 und X299).
 
Oha, Wundert mich ja das es auf den alten Chipsätzen so muckt :-(
 
Weiteres Update. Siehe da, eine Neuinstallation hilft auch hier, und oh Wunder, plötzlich erkennt das Mainboard ebenfalls schon beim Booten den PLX-Chip mit den ranhängenen NVMe SSDs. Allerdings performt das Raid0 interessanterweise etwas genau so wie das Windows Raid beim Spielesystem (i7-8700k). Mehr dann, wenn ich noch weiter getestet habe.

2.Update

Ich hatte Grafikkarte an sich im PCIe_Slot2, da die Karte zu nah am CPU-Kühler war. Für Test habe ich das nun klassisch GPU in PCIe_Slot1 und Highpoint PCIe_Slot2, damit es im Bios erkannt wird. Wenn man dann wieder umsteckt, gehts nicht mehr. Erst wenn man im Bios die Grafikausgabe auf PCIe_Slot2 umstellt, gehts wieder. Aber das war nicht das Problem. Mit dem bisherigen Boot lief trotzdem das Highpoint RAID Management nicht. Da sich in der bisherigen Installation aber bei dem Gerätemanager unter Speichercontroller hier immer nur die Samsung NVMe Controller meldete, und nicht der Highpoint, dann konnte es nur noch der Samsung NVMe Treiber sein, der da querschießt. Siehe da, deinstalliert, und schon läuft alles in dem Setup, wie ich es ursprünglich dachte.

3.Update

Nach einigen Tests habe ich ein Limit von 1,76 GiB/s als Limit für die Datenübertragung festgestellt, egal welches Medium, Highpoint-Raid, Winraid,Single-NMVe, RamDisk. Selbst Ramdisk zu Ramdisk hat dieses Limit, was ich gar nicht verstehe. Als Erklärung, ich habe Dateien mit 60-100 GiB in die RAM-Disk geladen, und dann von dort in die verschiedenen Raids und Single kopiert und umgekehrt. Dann habe ich testweise mal 2 Ramdisks mit 50 GiB angelegt und hier eine große Datei mit 40 GiB hin und her kopiert, das gleich Ergebnis, es bleibt beim Anwendungsrecher mit 128 GB immer in diesem Limit von 1,76 GiB/s

Daraus schließe ich mal, daß das Raid 0 hier überhaupt nicht relevant ist und gar nicht richtig stript, sprich die Datenübertragungslast richtig verteilt, weder das Highpoint-Raid noch das über Windows erstellte Raid. Oder der gut gemeinte PLX-Chip verhindert hier eine gute Performance.
 
Zuletzt bearbeitet:
Hardware Raid0 (Bootable)
OS: Windows 10 Pro
Ram: DDR4 -16Gb 3000 (Mhz) Corsair


Stand 1:
Intel Core i7 4770K
Asus Z87-Pro (C2)
SSD: 4* Samsung 970 Pro (512Gb)

HighPoint 7102 Raid0 Quad  970Pro (Asus Z87).png



Stand 1:
Asus Rampage V Extremd - X99
Intel Core i7 - 5960X
SSD: 4* Samsung 970 Pro (512Gb)

HighPoint 7102 Raid0 Quad  970Pro (Asus Rampage Extreme V -X99).png










20190129_113842.jpg20190129_120636.jpg20190129_120704.jpg20190129_120753.jpg20190129_213818.jpg20190129_213919.jpg20190129_213930.jpgAsus Hyper X16 vs HighPoint Raid Card.png
 

Anhänge

  • High-Point-7102-Raid0-Quad-970-Pro-Asus-Z87.png
    High-Point-7102-Raid0-Quad-970-Pro-Asus-Z87.png
    11 KB · Aufrufe: 234
  • High-Point-7102-Raid0-Quad-970-Pro-Asus-Rampage-Extreme-V-X99.png
    High-Point-7102-Raid0-Quad-970-Pro-Asus-Rampage-Extreme-V-X99.png
    10,8 KB · Aufrufe: 202
Zuletzt bearbeitet:
Mach mal bitte ein Ramdisk, und kopiere eine große Datei (!) > 10-20 GB vom Raid0 auf die Ramdisk und umgekehrt. Bei mir limitieren beide beim Kopieren auf max 1,76 GiB/s. Es spielt auch keine Rolle, ob ich eine NMVe Single auf 3 Raid0 oder 2 Raid0 kopiere, es bleibt bei diesem Limit. Die Benchmarks kannst Du aus meiner Sicht alle vergessen.

Ich habe die schnelleren NVMes (2 TB sind schneller als die 512er) und die neuere CPU beim Anwendungsrechner, und beim Spielerechner ist die CPU schneller. Ein echtes Kopieren von Dateien wird bei beiden Systemen bei mir nicht schneller. Virenscanner wurde sogar deaktivert bei beiden, keinen Unterschied.
 
Zuletzt bearbeitet:
Wie misst Du die Geschwindigkeit? Nicht das es ein Limit des Anzeigeprogrammes ist.
 
Das was mir Windows anzeigt. Und wenn man den anzeigten Wert mit dem der Größe berechnet in Sekunden, und das zeitlich beobachtet, passen diese Werte. Ich hab die Übertragungen mit der Uhranzeigen abgeglichen. Die 39 GB Datei brauchte so ca. 22-25 Sekunden. Rein nach ermittelten Benchmarks hätte sie in weniger als die Hälfte der Zeit hin und her geschoben werden müssen.

Ernüchtert von den Werten haben ich den Controller gestern zurückgesendet.
 
Zuletzt bearbeitet:
Post continue from 22.02.19
NEW BENCHMARK WITH NEW TOOL - ATTO Disk Benchmark 4.01.0f1
Hightpoint 7102 RAID0 4x SSD Samsung 970 Pro 512gb.png


Asus Rampage V Extremd - X99
Intel Core i7 - 5960X
SSD: 4 x Samsung 970 Pro (512Gb)
 
Zuletzt bearbeitet:
Mich wundert ein wenig, dass die Karte 2x PLX-Chips hat und wie diese scheinbar miteinander angebunden sind. Der auf der Vorderseite bekommt das PCIe x16-Interfache und wenn man den Leiterbahnen trauen kann, versorgt er die unteren 3 NVMe-Disks. Der Chip auf der Rückseite wird mit x4 vom ersten Chip angebunden und versorgt die obere NVMe ebenfalls mit 4 Lanes. Warum?

Könnte evtl. daraus ein schlechteres Ergebnis resultieren, wenn man z.B. den oberen Steckplatz im RAID mit den anderen 3 verbindet?
 
Auf der Vorderseite ist ja der " PEX 8747 is a 48-lane, 5-port, PCIe Gen 3 switch", der eine Port ist der Uplink und dann können 4 Geräte angebunden werden, eben die 4 SSDs, aber offenbar gibt es noch ein PCIe Gerät auf der Karte und deswegen wird der eine M.2 Slot dann wohl über den PEX8714 is a 12-lane, 5-port, PCIe Gen3 switch angebunden, der sollte aber allenfalls die Latenz minimal erhöhen. Zusätzlich muss dich der Slot dann die Bandbreite der Verbindung des PEX8714 zum PEX 8747 teilen, die wird nur 4 Lanes breit sein, da ja sonst keine Lane des PEX8714 frei wäre und er sinnlos wäre. Aber was hängt da außer dem oberen M.2 Slot noch dran und wie viel Bandbreite braut das was da dran hängt?

Dies sollte man mit HWInfo64 sehen können, aber ich habe die Karte nicht und kann nur vermuten. Entweder ist es eine Lüftersteuerung, die hätte man aber einfacher per USB realisieren können, oder es ist ein Option ROM um das Booten von dem RAID zu ermöglichen, es ist ja letztlich ein SW RAID und SW RAIDs sind da ja oft mit Einschränkungen verbunden.
 
Evtl. ist es ja der Marvell-Controller, der mit 2 Lanes angebunden aussieht und die RAID-Funktion übernimmt. Zudem sieht man beim Chip, der den Referenztakt verteilt, dass dieser 7 Abgänge hat. 4x SSD, 2x PLX und 1x Marvell-Controller
 
Läuft der eigentlich auch in einem 8x Slot, natürlich mit weniger Leistung?
 
Hi Zusammen,
ist schon etwas her hier im Thread...wollt mal fragen wie eure Meinung zu dem HighPoint 7102 aktuell steht?
Bin am Überlegen mir einen bootable Controller zu besorgen weil mein Board kein bifurcation kann und kein Platz mehr auf dem Mobo gibt :)
Könnt ihr mir diesen empfehlen oder gibt es Alternativen die besser wären...denke es kommen 4x1TB werden...

Schöne Grüße
 
Die meisten dürften eine Plattform haben die PCIe Lane Bifurkation unterstützt und damit so eine Karte nicht brauchen, da dann auch die günstigen Adpater wie die ASUS Hyper Card ausreichen um mehr als einen M.2 Slot so eines Adapters nutzen zu können. Das RAID, wenn man überhaupt eines möchte, denn Alltag eines Heimanweders ist dies langsamer und nicht schneller, denn auch wenn die maximalen Transferraten höher sind, so gilt dies wegen des Overheads der RAID Verwaltung auch für die Latenz. Die Latenz macht aber im Alltag eines Heimanwenders die Musik, wie die Anwendungstests im Artikel der
Rekordjagd mit der WD_Black SN850 im RAID zeigen, denn da kommen bei Futuremark PCMark 8 nur 435,8MB/s für ein RAID 0 aus 4 SN850 1TB raus, während eine der SN850 alleine auf 789,9MB/s kommt, also fast doppelt so viel und die Krone schießt die Optane 905P 480GB mit 1605,3MB/s ab, obwohl sie mit so 2,6GB/s lesend nur etwas mehr als so ein Zehntel der 24,5GB/s des RAID bei CDM SEQ1M Q8T1 schafft, aber bei SEQ1M Q1T1 schafft das RAID auch nur so 10,8GB/s lesend, kommt also mit einem einzigen Zugriff über 1MB nicht einmal auf die Häflte dessen, was mit 8 parallelen Zugriffe über je 1MB gelesen werden kann.

Da liegt der Hase im Pfeffer, denn um die maximalen Transferraten aus schnellen SSDs und RAIDs solcher SSDs kitzeln zu können, braucht man viele parallele und lange Zugriffe, wie sie im Alltag kaum vorkommen, während die Latenz bei jedem Zugriff zubeisst und die Antwort verzögert, was anhand der 4k QD1 (aka Q1T1) besonders gut abzulesen ist. Hast Du eine Anwendung die sehr viele oder wenigstens viel und zugleich lange Zugriffe erzeugt oder brauchst Du lange Benchmarkbalken für Dein Wohlbefinden, dann mache ein RAID und sonst lasse den P*n*svergleich und vergiss es einfach. Willst Du einfach nur viele M.2 NVMe SSDs in Deinem System betreiben und brauchst dafür eine solche, teure Karte mit einem PLX Chip, dann überlegen ob ein Systemupgrade auf ein System welches PCIe Lane Bifurkation unterstützt, nicht die bessere Wahl wäre.
 
Hi Holt,
danke für deine Rückmeldung.
Mein Ziel ist es eine Adapter Karte einzubauen mit dem ich gleich vier m.2 SSDs nutzen kann. Da mein Board Bifurkation nicht kann bin ich gezwungen eine Alternative zu finden.
Wo finde ich aber diese Alternaitve ?
Und wenn noch bootfähig umsobesser...
Mein System möchte ich ungerne wegen SSDs wechslen wollen...
Falls du/ihr Ideen habt dann lasst es mich wissen (Hersteller Link etc.....)
Aus dem Alter bin ich raus (P*n*svergleich)
THX
MasterD
 
Geht es um den "#1 BLACK ICE" mit dem ASUS Z10PE-D16 WS? Das hat doch genug PCIe Slots:
4 x PCIe 3.0/2.0 x16 (x16 mode) *3
2 x PCIe 3.0/2.0 x16 (x8 mode) *3
Da kann man je eine mit einem billigen Adapter einbauen, sofern da nicht was anderes drin steckt, sonst musst Du eben versuchen den HighPoint SSD7102 zu bekommen, aber nicht einmal Amazon USA hat den noch, dafür der aber viele 1 Sterne Wertungen wie diese in der es um Kompbatibliltätsprobleme geht. Wieso müssen es eigentlich NVMe SSDs sein, würden SATA SSDs nicht auch reichen, das Board hat ja den C612 Chipsatz mit 10 SATA Ports und kannst Du nicht solche mit der höchst möglichen Kapazität nehmen um den erforderlichen Platz mit weniger SSDs hinzubekommen?

Wenn Du das System nicht tauschen willst, dann wären allenfalls noch Broad Tri-Node Adapter eine Möglichkeit, dann brauchst Du aber U.2 SSDs statt M.2 und billig wird das dann auch nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh