Intels 100-Chipsatzserie stellt mehr PCIe-Lanes zur Verfügung (Update)

FM4E

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
15.01.2007
Beiträge
19.081
Ort
Oberbayern
<p><img style="margin: 10px; float: left;" alt="intel3" src="/images/stories/logos-2013/intel3.jpg" height="100" width="100" />Eines der größten Probleme der letzten Chipsatzserien von <a href="http://www.intel.de">Intel</a> sind ganz klar die arg begrenzten acht PCIe-2.0-Lanes. Und wenn man sich die aktuellen Sockel LGA1150-Platinen anschaut, sind die acht Lanes ganz schnell aufgebraucht. Das ist vor allem für die Mainboard-Hersteller ein Problem, wenn sie weitere Anschlüsse anbieten wollen. Gute Prognosen gibt es nun für die neuen Intel-100-Series-Chipsätze, die auf den Sockel LGA1151-Mainboards erstmals zum Einsatz kommen werden und <a href="index.php/news/hardware/prozessoren/31758-intel-launcht-qbroadwellq-und-qskylakeq-zeitgleich-im-zweiten-quartal-2015.html">im zweiten...<br /><br /><a href="/index.php/news/hardware/chipsaetze/31904-intels-100-chipsatzserie-stellt-mehr-pcie-lanes-zur-verfuegung.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ein kleiner fortschritt, wobei ich mir hier einfach mal 32 lanes gewünscht hätte um ein sli oder crossfire gespann mit voller anbindung zu haben.
6 sata ports + 2 native sata express ports wären aber schonmal gut.
 
Wer das wirklich braucht, kann auch zum Sockel 2011 greifen. Da hast du dann deine 32 Lanes für SLI
 
ein kleiner fortschritt, wobei ich mir hier einfach mal 32 lanes gewünscht hätte...
Und was sind 16 Lanes von der CPU plus 16 Lanes vom Chipsatz?

Abgesehen davon sind Multi-GPU Setups natürlich auch nicht unbedingt Intels größte Sorge für die Mainstream Plattform.
 
Können die Lanes vom Chipsatz überhaupt für Multi-GPU genutzt werden?
 
Und was sind 16 Lanes von der CPU plus 16 Lanes vom Chipsatz?

Das kannst du so nicht vergleichen...
Was nutzen dir die 20 Lanes am Chipsatz, wenn die Connection zwischen CPU und Chipsatz bei nunmehr DMI3.0 respektive PCIe 3.0 8x schluss ist?

Das was man jetzt macht im Chipsatz ist effektiv das gleiche, wie es PCIe Switches heute schon machen. Man bedient diese Switches mit ner gewissen Anzahl an Lanes auf der Inputseite und hinten kommen ne ganze Menge mehr Lanes bei rum.
Füllst du aber die Inputseite mit Bandbreite, das diese gesättigt ist, dann nutzt dir effektiv die Anzahl der Lanes hintenrum sogut wie gar nix ;)
Einzig die Flexibilität ist und bleibt gegeben. Wenn man also viel Bandbreite über SATA 6G beansprucht, kann man diese voll bekommen. Genau so über andere Schnittstellen, wenn die SATA Ports ruhe geben. Man hat effektiv immer den vollen Speed der Schnittstellen ohne externe PCIe Switches. Aber eben nur bis zu dem Punkt, wo die Verbindung zwischen CPU und Chipsatz deckelt. Und das dürften nach aktueller Sachlage dann 8x PCIe 3.0 Lanes werden. Ergo eine Verdopplung zu aktuell Haswell mit DMI 2.0 und PCIe 2.0 8x.
 
Das kannst du so nicht vergleichen...
Doch mache ich, weil es noch mehr als nur Multi GPU gibt (hat für mich 0 Relevanz).

Einzig die Flexibilität ist und bleibt gegeben. Man hat effektiv immer den vollen Speed der Schnittstellen ohne externe PCIe Switches..
Und das ist der eigentliche Punkt.

Die PCIe Lane Situation bei den besser ausgestatteten Z97 Modellen ist ja nun wirklich kein Zustand.
 
Soweit mir bekannt ist, besteht DMI 2.0 aus vier abgewandelten PCIe 2.0-Lanes und nicht aus acht. Dementsprechend wird auch DMI 3.0 nur aus vier Lanes bestehen.
 
Doch mache ich, weil es noch mehr als nur Multi GPU gibt (hat für mich 0 Relevanz).

Aber gerade der Part abseits von MGPU ist doch der springende Punkt?
Denn damit belegst du die Bandbreite auch wirklich... MGPU läuft selbst mit 2-3 HighEnd GPUs noch spielend mit 8x 2.0 Anbindung pro GPU. Ich mach es nicht anders und auf die hand voll Prozent Performanceverlust kann man bedenkenlos verzichten, da es in keinem Verhältnis zum Mehrpreis steht!
Sprich da muss es nichtmal 16x 3.0 sein. Ergo das ganze drauf rumreiten ist aus meiner Sicht sowieso völlig überzogen.

Hingegen das Anbinden der Schnittstellen und die Verbindung zu entsprechenden Geräten, die die Bandbreite auch ausnutzen können (Flashspeicher, irgendwelche Zusatzmodule/Steckkarten sowie Tod und Teufel...) machen die Sache ja gerade zum Problem... Mit 8x 3.0 Lanes kommt man effektiv auf theoretische 8GB/sec Durchsatz Fullduplex.
Hat es nun 6x6G SSDs, dann kommen da alleine schon gute 3,3GB/sec durch. (real) in der Theorie sogar 4,5GB/sec.
Dann hast du noch LAN Anbindung, Sound und sonstwede Zusatzmodule, die so oder so laufen. Kommen dann noch Thunderbold oder 10G Ethernet Ports oder gar neuere Schnittstellen für Flashspeicher dazu ist schnell das Limit erreicht respektive überschritten.
Zum Beispiel die M.2-Slots native mit 4x 3.0 Lanes angebunden fressen dir im Doppelpack die Bandbreite völlig weg (gesetz dem Fall, es stecken entsprechende Geräte dran) -> legst du dort Traffic an ist die Bandbreite in Nutzung. Alles was dann noch dazu kommt muss mit durch den Flaschenhals ;)


Aus meiner persönlichen Sicht ist das ganze Konstrukt so nicht wirklich brauchbar. Einzig und allein die Flexibilität ist auf der Pro Seite.
Besser wäre es aus meiner Sicht gewesen, die Lanes direkt über die CPU bereit zu stellen. Unterm Strich ist es sogar fast völlig egal, woher die Lanes kommen... Und wenn die CPU dann neben DMI 3.0 8x noch weitere Lanes zum Chipsatz ausführt (wenn man im Mainstrem auf native 16x PCIe Lanes für Steckkarten festhalten will) -> sowas nutzt man bspw. seit Sandy schon für die Xeon E3 CPUs :wink: Die CPUs können es, die Chipsätze im Grunde ebenso. Nur ists im Mainstream einfach nicht enabled. Ggf. gar ganz weggelassen wurden.


EDIT: @craxity
ja stimmt, du hast wohl recht... Mein Fehler.
Das macht die Sache dann sogar noch schlimmer :fresse:
 
Zuletzt bearbeitet:
Habe ein Mainboard mit H77 Chipsatz und konnte bisher kein PCIe-Lanes mangel feststellen :) ich würde wohl den H170 Chipsatz bevorzugen.

klein
 
Zuletzt bearbeitet:
Aber gerade der Part abseits von MGPU ist doch der springende Punkt? Denn damit belegst du die Bandbreite auch wirklich...
Du redest die ganze Zeit von Performance und ich rede davon die Mainboards einfacher, günstiger und sparsamer zu machen.

Mal ganz abgesehen von der Verwirrung darüber, wer bei seinem Mainboard nun welche Schnittstelle parallel zu welcher anderen nutzen kann oder nicht.
 
Zuletzt bearbeitet:
Habe ein Mainboard mit H77 Chipsatz und konnte bisher kein PCIe-Lanes mangel feststellen :) ich würde wohl den H170 Chipsatz bevorzugen.

klein
Der h77 hat auch nur 8 Lanes
 
Zuletzt bearbeitet:
Wer sich über die "nur" 8GT/s von DMI 3.0 Sorgen macht, der kann sich die tatsächliche Performance der Schnittstelle bei LGA2011 ansehen. 8GT/s entspricht doch einem Quickpath Interconnect von Ivy Bridge-EN/EP/EX?

Den verstehe ich nun nicht wirklich... Der Interconnect zwischen CPUs ist ne ganz andere Baustelle. Zumal genau dieser Interconnect oft eben der Flaschenhals ist. Stichwort NUMA Nodes. Software, die damit nicht klar kommt, skaliert einfach nicht sonderlich gut.
S2011 hat genau auch aus diesem Grund eben keine 6x6G SATA Ports sondern nur zwei. Weil die Bandbreite gar nicht nutzbar wäre... Und wird im Enthusiasten Bereich auch dafür häufig kritisiert. Im Server/Workstation Umfeld kompensiert man das, indem man die Schnittstellen über PCIe Erweiterungskarten anbindet -> was vollen Speed und somit volle Bandbreite bringt. Im Server/Workstation Bereich werden die Chipsätze zum Großteil auch mit weiteren Lanes mit der CPU verbunden. Eben bei S1150/1155 wie ich oben sagte um mehr Bandbreite zu schaffen.

Schau dir doch die Leute hier in den Forenbereichen an. Da schimft alles und jeder auf X79, weil man "nur" 2x 6G Ports hat. Und alle finden die Ivy/Haswell Chips "geil" weil sie mehr SATA Ports liefern.
Das es unsinnig ist diese auch Gleichzeitig zu belegen, weil der Speed gar nicht ankommt, interessiert nur die wenigsten.
Und natürlich reden wir da von Performance... Worüber denn sonst?
Würde es nicht um Performance gehen, bräuchten wir auch keine 20 Lanes am Chipsatz ;) Denn dann würden auch die jetzigen 8 oder wie viele das sind, vollkommen ausreichen...


PS: wie kommst du auf einfacher, günstiger und sparsamer?
Ich würde eher behaupten, das Gegenteil ist der Fall... Mehr Lanes = komplexer, mehr Lanes = mehr Verbrauch, mehr Lanes = teurer aufgrund der Komplexität.
Obwohl man sicher den reinen Verbrauch durch bessere/neuere Fertigung und weniger Spannung kompensiert. Der Rest bleibt aber wohl...

Mal ganz abgesehen von der Verwirrung darüber, wer bei seinem Mainboard nun welche Schnittstelle parallel zu welcher anderen nutzen kann oder nicht.

Auch den verstehe ich nicht so ganz. Es gibt kein Limit, was du da gleichzeitig nutzen kannst... Einzig die resultierende Bandbreite wird gedeckelt. Alle verfügbaren Schnittstellen gleichzeitig geht deswegen trotzdem. Nur kommt am Ende eben nicht "Alles * native Bandbreite" raus sondern nur maximal das, was zwischen Chipsatz und CPU möglich ist. Jegliche Kommunikation geht nunmal leider genau da lang...
 
Zuletzt bearbeitet:
Darf ich das bitte für meine Signatur nehmen?
Klar.

Würde es nicht um Performance gehen, bräuchten wir auch keine 20 Lanes am Chipsatz ;)
Doch, man braucht unabhängig von der Performance mehr Lanes am Chipsatz, damit man nicht jede einzelne Lane durch externe PCIe Multiplexer und/oder Switches auf jeweils mehrere Schnittstellen aufteilen muss.

Code:
Z97

PCH -> 1 Lane -> PLX Switch
                          -> PCIE x1
                          -> Firewire
                          -> PCI
                          -> GBE

Zxxx

PCH -> 1 Lane -> PCIe x1
PCH -> 1 Lane -> Firewire
PCH -> 1 Lane -> PCI
PCH -> 1 Lane -> GBE
Eigentlich einleuchtend, oder?

wie kommst du auf einfacher, günstiger und sparsamer? Ich würde eher behaupten, das Gegenteil ist der Fall... Mehr Lanes = komplexer, mehr Lanes = mehr Verbrauch, mehr Lanes = teurer aufgrund der Komplexität.
Die Komplexität entsteht durch die zusätzlichen PCIe Multiplexer, Switches inklusive deren Spannungsversorgung und die damit unter Umständen einhergehenden zusätzlichen PCB Layer (fürs Routing). Natürlich wird der PCH selbst dadurch etwas komplexer und verbraucht bei voller Last unter Umständen auch etwas mehr Strom, allerdings ist es nur eine einzelne Komponente mit einer einzelnen Stromversorgung, welche zudem ihr logischen Bereiche weitestgehend unabhängig voneinander schlafen schicken kann (um den Verbrauch zu senken).

Auch den verstehe ich nicht so ganz. Es gibt kein Limit, was du da gleichzeitig nutzen kannst...
Dann hast du dir noch keines der Z97 High End Modelle genauer angesehen? Ich würde als Paradebeispiel das ASRock Z97 Extreme6/Extreme9 oder das ASUS Z97 Deluxe WLC & NCF anführen.
 
Zuletzt bearbeitet:
Der h77 hat auch nur 8 Lanes

Was braucht ihr immer so viel :confused:

Auf meinen alten ASUS P8H77-V LE ist eine Grafikkarte,Soundkarte und später könnte es noch eine USB 3.1 PCIe Karte werden,
das Board hat 2x SATA 6Gb/s eine SSD habe ich schon dazu 4x SATA 3Gb/s für HDD / DVD Laufwerke viel mehr brauche ich nicht.

Wofür die ganzen neuen PCIe-Lanes ?

klein
 

Anhänge

  • IMG_0143[2].jpg
    IMG_0143[2].jpg
    207,4 KB · Aufrufe: 202
Zuletzt bearbeitet:
Logische Konsequenz von Intel, die ich mir schon gedachte habe und auch schon mal geäußert habe, dass es kommt. Mit den vielen High-Speed-IO-Schnittstellen braucht man zwangsläufig mehr Lanes. Der M.2 mit PCIe-Anbindung zeigt es am deutlichsten. Und jede andere Schnittstelle braucht nunmal Bandbreite vom PCH. Die neue Version der Verbindung zwischen CPU und PCH ist vielleicht für einige Zeit ausreichend. Tests müssten im nächsten Jahr zeigen, ob man einen Flaschenhals an der Stelle unter den dann aktuellen Szenarien (M.2 mit 4 PCIe-Lanes, USB 3.1, Dual GBit-LAN, evtl. 4 oder 10 GBit) aufgezeigt werden kann.

Aus jetziger Sicht muss ich die Entscheidung begrüßen. Die Feature-Boards haben nunmal eine Flaschenhals im PCH und die PCIe-Switche sind keine Allheillösung. Ich sehe das auch schon an meinem MSI Z87 MPowerMax, da wird auf jeden Fall ein PCIe 1x-Port mit einem anderen geteilt, da mir im Board-Explorer meine SoKa gleich zweil mal dargestellt wird.
 
Was braucht ihr immer so viel :confused:

Auf meinen alten ASUS P8H77-V LE ist eine Grafikkarte,Soundkarte und später könnte es noch eine USB 3.1 PCIe Karte werden,
das Board hat 2x SATA 6Gb/s eine SSD habe ich schon dazu 4x SATA 3Gb/s für HDD / DVD Laufwerke viel mehr brauche ich nicht.

Wofür die ganzen neuen PCIe-Lanes ?

Es soll noch Menschen mit anderem Nutzungsverhalten geben.
 
Wer sich über die "nur" 8GT/s von DMI 3.0 Sorgen macht, der kann sich die tatsächliche Performance der Schnittstelle bei LGA2011 ansehen. 8GT/s entspricht doch einem Quickpath Interconnect von Ivy Bridge-EN/EP/EX?
Es entspricht nur der Taktung der Verbindung, die Bandbreite ist eine ganz andere. Aktuell sind das bei QPI 1.1 9.6GT/s bei den Xeon E5v3 und das entspricht einer Bandbreite von 76.8 GByte/s (fulldpulex Datenrate), das ist zwar schnell aber deutlich langsamer als die Speichertransferrate von 68GByte/s und stellt deshalb einen recht ekligen Flaschenhals beim Rechnen dar.

Über die neue DMI 3.0 bekommst Du gerade mal 3.94GByte/s rüber, QPI ist also "nur" ca. 20 mal schneller.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh