PCIe 1.0 vs PCIe 2.0

Xtragod

Enthusiast
Thread Starter
Mitglied seit
10.12.2008
Beiträge
195
Hallo!!
Ich wollte mal wissen ob man bei den neuen grafikkarten den unterschied zwischen PCIe 1.0 und PCIe 2.0 deutlich merkt. also ob jemand vlei sogar einen Test gefunden hat wo die neuesten Grafikkarten, die für PCIe 2.0 bestimmt sind, auch auf PCIe 1.0 getestet wurden und man die unterschiede mal sichtbar gemacht hat. ich hab zwar schon ein test gefunden aber der beinhaltet nur "ältere" Grafikkarten.
http://www.tomshardware.com/de/Graf...16-x8-x4-Crossfire,testberichte-239907-5.html
Ich würde gerne sehen wie sich das bei den neuen Grafikkarten(nvidia gtx200 serie,ati hd4000 serie) auswirkt.
Ich hoffe ihr könnt mein wissensdurst stillen^^
MFG Xtragod
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da hat sich nicht viel geändert. Der Vorteil von 2.0 ist nicht wirklich größer geworden.
 
Einen wichtigen Vorteil gibt es, an den viele nicht denken.

"Normale" Highend Grakas bekommen so ca 2-3 % wie im Artikel dazu. Ganz anders mit Dual-Chip Karten. Die Bandbreite wird durch internes CF praktsich halbiert - immerhin müssen ja auch die Daten von 2 GPUs durch.

Bei PciE 1.x hat man jetzt 8Lanes/GPU und muss dementsprechend mit ca. 10 % weniger Leistung leben; bezogen das ganze auf die Gesamtskalierung der beiden GPUs.

Szeniaro: 2 GPUS: 180% (bez. Single GPU und gute Skalierung), - 10% = ~ 160 %.

Was ich geschrieben hat kann man quasi aus dem Absatz auch schon ableiten. Denn ob CF (PciE 1.x) mit 2x8 Lanes oder 2GPU-Karte in 1x16 macht kaum einen Unterschied:

Der Umstieg auf den X38-Chipsatz für Crossfire-Tests war überfällig. Die doppelte x16-Anbindung erhöht die Gesamtergebnisse um 6 bis 7,7 Prozent, in optimierten Spielen wie Call of Duty 4 ist der Leistungsgewinn fast 20 Prozent, nimmt man nur die Auflösungen und Spiele mit sichtbarer Leistungssteigerung - sind es 12 bis 15 Prozent zusätzliche Framerate.

Obwohl der Artikel insgesamt etwas veraltet ist, da es mehr um den Umstieg der alten Platform vs. 2.0 16 CF geht.

Trotzdem: Dual-GPU-Karte (wenns nicht grad ne 7950 GX2 ist :fresse: ) und PciE 1.x = NoGo. Bei dem vielen Geld lieber auch noch ein ordentlich Brett oder mit Single-GPU begnügen.
 
@Iron_Head_Heinz
so hab ich das noch garnicht betrachtet. ist richtig. und wie wäre es dann mit dem fall wenn man zb ein 680sli chipsatz hat und sich 2 einzel gpus drauf setzt. zb 2 gtx285 oder vergleichbares. da drüfte ja der leistungs verlust nich ganz so hoch sein o??? also nicht wie in deinem beispiel 20%. o meintest du das incl der Single GPUs??
Szeniaro: 2 GPUS: 180% (bez. Single GPU und gute Skalierung), - 10% = ~ 160 %.

ich persönlich hab zb so ein 680sli chipsatz.....bin ziemlich zufrieden damit da ich ja beide PCIe mit 16lanes angebunden kriege. doch wenn ich ein vergleichbares(sli fähiges[780 oder 790]) board mir zulegen will, müsste man gut 170-300€ bezahlen. da die intel chipsätze ja leider kein sli unterstützen fallen diese ja aus dem konzept^^
das soll jetz keine kaufberatung werden falls das einer denkt. nur will ich wissen ob sich PCIe 2.0 dann immernoch lohnt....
 
Die neuen Intel Chipsätze unterstützen SLI, sind aber erstens auch nur oberhalb von 200€ zu bekommen und nicht mehr für Sockel 775 CPUs. ;)
 
Müsste doch eigentlich gleich sein, da 2.0 doch doppelt so schnell ist.
Oder irre ich?
 
@Xtragod: Ganz genau beim 680er mit 2 Karten ist der Verlust geringer/kaum vorhanden (es kommt jetzt drauf an wie mans sieht: Ist 2.0 ein Leistungsgewinn oder 1.0 Liestungsverlust?) _solange_ keine Dual-GPU-Graka wie eine GTX 295 bzw. die auch noch in Quad-SLI_Konfig zum Einsatz kommt.

Ich versuch es mal genau auszuschreiben; da ich die Problematik schon ein paarmal beschrieben hab, kann ich dann in Zukunft einfach drauf Verlinken.

Die Terminologie und die Hintergrundgedanken:
1. rel% = Relative %. Werden in abs% umgewandelt wenn man die SLI-Skalierung kennt bzw. bei Single-GPU 1:1. Bezieht sich auf den Leistungsverlust/Zugewinn bei Verwendung bestimmter PciE-Slots.
2. abs% = absulute %. Wenn 2 GPUs 150 sk% der Leistung der GPU-Einzeln bringen so sind 10 rel% von 150 sk% = 15 abs%.
3. sk% = skalierte %. Im Falle von CF oder SLI leisten 2 GPU nciht doppelt soviel, im Vergleich zu einer GPU. Die skalierung bezieht sich auf die Leistung dieser einzelnen GPU. In _diesem_ Beispiel ist es zudem eine theoretische Leistung die noch durch die Anbindung in form der rel% zu abs% modifiziert wird.
4. PciE 1.x vs 2.0. Es werden immer die Formate 16x physisch ggü gestellt, die dann unterschiedlich elektrisch angebunden sind. Dabei ist 2.0 theoretisch doppelt so schnell, was auch der einfachheithalber so gerechnet wird. Bezieht man sich auf die Bandbreite, so ergibt sich foldendes Bidl: PciE 1.x@8 * 2 = (PciE 1.x@16 und PciE 2.0@8) * 2 = PciE 2.0@16. Bzw.: PciE 1.x@8 * 4 = = PciE 2.0@16.
5. Internes CF/SLI gegen "normales": Sind 2 GPUs "uf einer Graka müssen sie ihre Daten über einen gemeinsamen PciE-Slot schicken. Die gesamt Bandbreite bleibt zwar absolut gleich, sinkt aber relativ pro GPU auf die Hälfte.
Stecke ich aber 2 Grakas auch in 2 Slots so hat jede die jeweilige Bandbreite ihres Slots zu Verfügung.


Jetzt wenden wir das ganze einmal an. Beziehen wir und zunächst mal auf THG Beispiel mit den 3 rel% Steigerung (dmals mit HD 3 Karten - mit der jetzigen Generation, ist eine Steigerung zu erwarten) bei Wechsel auf 2.0. Single GPU sind das 3 abs% und vernachlässigbar. Gehen wir von einem CF mit 1.x@16 aus so ergibt sich schon ein anderes Bild (nehmen wir 150 sk% an): - 3 rel% von 150 sk% = 145 abs%. Das wirft mit 5% schon ein anderes Bild; ist aber in dem Fall noch erträglich. Wie gesagt bei der 4 Serie müsste es noch steigen.

Kommen wir nun zur Dual-GPU Graka die im 1.x@16 steckt. Effektiv steht jeder GPU nur die Hälfte zu verfügung, was in bis zu 10 rel% Leistungsverlust resultiert. Ergibt nun bei gleich angenommen 150 sk% nun aber 135 abs% was schon mehr wehtut: 15 % verschenkter Leistung bz SGPU. (Anm: Natürlich sind das 135 abs% b. auf 4870!. Das ist natürlich mehr als zb 145 abs% bz auf 3870. Oder 1/2 Tonne > 3/4 Kilo.)

Treiben wir den Wahnsinn auf die Spitze: GTX 295 Quad SLI. Weiters angenommene 250 sk% (leite ich mal aus den Test ab. Für 4 GPUs naja) = 225 abs%. 25! % verschenkter Leistung bz SGPU. Also wer jetzt nicht schreit ....


Man sieht also es tut weh. Natürlich is die skalierung wichtig. Aber gerade WENN ein Spiel mal gut skaliert ist es ideotisch Leistung zu verlieren.
Weiters hat auch das SLI-Gespann trotzdem noch Dampf und wird, sollte es sich um aktuelle Highend Karten handeln, Framewunder vollbringen. Die eigentlich Kritik bezieht sich auf das Geld, dass in Grakas, NTs etc inverstiert wird und dann gerade beim Board gespart wird, was den ganzen Highend anspruch unterminiert. Ein ähnliches Bild ergibt sich wenn jemand mit einer X1950 auf GTX295 wechselt will und dann bei seinem AMD 6000+ Dualcore bleibt.


Als letztes Statement von mir: Nein ich habe nichts ausgebencht. Mir ist auch klar, das vieles auf "nehmen wir mal an" und "dann wäre" besteht. Ich will aber das Bewusstsein für die Thematik schärfen, denn meistens sind es die gleichen Leute die schreien: SLI/CF skaliert schice, die sleben, die dann meinen PciE 1.x vs 2.0 macht eh keinen Unterschied; tja meistens nicht viel, manchmal aber eben doch einiges.

@ Flitzepiepe: ja obwohl ich so einen Slot bisher noch nirgends gesehn hab.

Nachtrag: Was noch interessant ist, und viele auch nicht bedenken: Tri-SLI. Klar GTX 280er sollte man nicht auf ein 680i stecken, aber was ist/war mit 88GTX? Der 3te Slot ist ein PciE 1.x@8x und das Board war damals aktuell.

Bzw. haben viele 780i/790i 2Slots mit 2.0@16 und 1Slot mit 1.0@16 zur Verfügung. Das ist (noch?) nicht so tragisch weil (warsch) 3-5 rel%, aber wir wissen ja bei 180 sk% (für 3 GPUs durchaus denkbar wenn das Game mitspielt) ergibt das schonwieder schlimmstenfalls: 171 abs%.


So Schluss Ende aus. Ich stelle mich dem Mob und spendiere 3 Körbe voller schönster spitzer Steine.
 
Zuletzt bearbeitet:
Ich glaub bei der DualGPU machst du einen Gedankenfehler.

Da das CF auf dem PCB passiert, und nicht zwei separate Signale abgeschickt/empfangen werden, ist eine DualGPU für das Board wie eine Single GPU. Und die verfügt dann auch ganz normal über x16 Lanes. Ich wüsste nicht, weshalb jeder GPU nur x8 zur Verfügung stünden.

Und somit wird z.B. eine HD3870X2 nicht stärker gebremst, als eine HD4850 oder HD4870, da sie im gleichen Leistungsspektrum liegt.

Ergo macht es keinen Unterschied ob Dual- oder SingleGPU.

Hab auch noch nie gelesen, dass jemand sagt "Bau bloß keine HD 4870X2 in einen PCIe 2.0 x16 Slot ein, denn das ist dann als hätte sie nur 2x x8, nimm lieber zwei HD 4870 mit 2x x16 Board." sinngemäß...
 
Zuletzt bearbeitet:
Nein ich glaube du missverstehst mich, darum habe ich soviel relativ und absolut eingestreut.

Natürlich haben die Dual-Grakas internes SLI/CF, 2 einzelne haben dafür ihre Bridge, das nimmt sich nichts, tatsächlich ist internes (im Ati fall) glaub ich sogar theoretisch bissl schneller.

ABER: Wenn ich 2 GPUS (statt einer) Daten zuführe so muss die Last steigen. Aus sicht der Bandbreite/des Slots steigt also die Last.

Genausogut kann ichs auch aus Sicht der GPU betrachten: Die braucht immernoch ihre Daten, muss sich die Bandbreite/Slot aber mit einer anderen GPU teilen. Die Daten müssen unterschiedlich sein, denn es werden auch andere Bilder gerendet.

Oder ganz blöd: Absolut hat eine 4870 X2 2 GB Speicher, dran gibts nichts zu rütteln. Trotzdem wissen wir alle, das wir für den VRam Verbrauch nur mit 1 GB rechnen dürfen. Es wäre dann nämlich interessant zb 1,5 GB zu verbauen. 1 GB shared Cache für gemeinsame/ähnliche Daten und 256 MB für jede Graka. Kommt vielleicht auch irgendwann einmal; momentan aber nur Wunschdenken. :Glaskugel:

Um zurück zur Bandbreite zu kommen: Ob es ein Hilfsmittel gibt, bei dem für 2 unterschiedliche Aufwendige Frames die eine GPU sagen wir 70% und die andere nur 30% der absoluten Bandbreite des Slots kurzzeitig besetzten kann weis ich nicht.


€: zum €: :d
I
Hab auch noch nie gelesen, dass jemand sagt "Bau bloß keine HD 4870X2 in einen PCIe 2.0 x16 Slot ein, denn das ist dann als hätte sie nur 2x x8, nimm lieber zwei HD 4870 mit 2x x16 Board." sinngemäß...

Stimmt und ich habe nicht die Felsenfeste Gewissheit recht zu haben, bin kein Amerikaner, aber ich möchte die Diskussion in gang bringen und es zumindest als Möglichkeit betrachten.
"Heute" weis auch jeder das die Erde rund ist, und Personen, die ncoh nie ein MGPU-Sys in Aktion erlebt haben, können einem alles über Micro-Ruckler vorbeten.

€2: Mir fällt noch was auf was ich übersehen habe: Du sprichst da auch noch von 2.0! Da ist ja auch alles im Butter , denn wie ich geschrieben habe sind 8Lanes 2.0 = 16 Lanes 1.0 und damit vernachlässigbar vom Leistungsverlust. Ich rede von den Leuten die so eine Karte in einen 1.x mit 16 Lanes stecken was dann 8 Lanes 1.x enstspricht! Bitte genauer Lesen sonnst kommt es zu Missverständnissen €2: Ende


Es gibt auch Leute die glauben eine 4870 hat dank GDDR5 MEHR Bandbreite (nicht jetzt mit der Slot Disku verwechseln) als eine GTX 280 - was auch einfach nur falsch ist.
 
Zuletzt bearbeitet:
hab eine HD4870 auf meinem 965P Board (PCIe 1.0)...muss ich mit großartigem leistungsverlust rechnen? eher nicht, oder?
 
hab eine HD4870 auf meinem 965P Board (PCIe 1.0)...muss ich mit großartigem leistungsverlust rechnen? eher nicht, oder?

Nein vernächlässigbar bei 3-5%. Single-GPU-Graka-Besitzter bitte nicht verrückt machen lassen. Es geht um Dual-GPU in einem PciE 1.x Slot und um SLI/CF-Board-Besitzer mit 2 Karten und PciE 1.x@8 - die müssen/sollen drüber nachdenken.


Oben hab ich noch eine Edit (€2) nachgereicht, weil es mir erst jetzt aufgefallen ist. Bitte berücksichtigen und _genau_ lesen.
 
Zuletzt bearbeitet:
performance hin oder her - die hauptvorteile von PCIe2.0 liegen in der funktionalität. so lassen sich z.b. lanes im laufenden herauf und herabsetzen. centrino2-notebooks nutzen dieses feature z.B. zum stromsparen, indem sie die PCIe x16 leitungen der grafikkarte auf x1 reduzieren, wenn keine last anliegt, das gerät im akkubetrieb oder mit gesetztem energieschema unterwegs ist.


(..)

mfg
tobi
 
Ich konnte von meiner 4870X2 in einem PCIe 1.0 Board (ASUS P5K deluxe Wifi) nur die erste GPU ansprechen. Nach wochenlanger Installationsorgie und Internetrecherche bin ich auf ein einfaches PCIe 2.0 (ASUS 5PQ Pro) umgestiegen, seitdem rennt alles "wie Butter".

Bevor wieder alle schreien "Sowas habe ich noch nie gehört" ... ist ein seltener Fall, sicher, vermutlich auch weil HighEndGraka User meistens auch nen neueres Board haben ... gibt aber genug Leute im AMD/ATI Forum die ähnliche Probleme hatten und erst mit einem MB Wechsel das Problem lösen konnten.

Meine Empfehlung für PCIe 2.0-Dual-GPU Karten: Nur in PCIe 2.0 Boards, auch wenn Sie abwärtskompatibel sein sollten ... sie sind es nicht ...
 
Zuletzt bearbeitet:
Ich konnte von meiner 4870X2 in einem PCIe 1.0 Board (ASUS P5K deluxe Wifi) nur die erste GPU ansprechen. Nach wochenlanger Installationsorgie und Internetrecherche bin ich auf ein einfaches PCIe 2.0 (ASUS 5PQ Pro) umgestiegen, seitdem rennt alles "wie Butter".

Bevor wieder alle schreien "Sowas habe ich noch nie gehört" ... ist ein seltener Fall, sicher, vermutlich auch weil HighEndGraka User meistens auch nen neueres Board haben ... gibt aber genug Leute im AMD/ATI Forum die ähnliche Probleme hatten und erst mit einem MB Wechsel das Problem lösen konnten.

Meine Empfehlung für PCIe 2.0-Dual-GPU Karten: Nur in PCIe 2.0 Boards, auch wenn Sie abwärtskompatibel sein sollten ... sie sind es nicht ...


Na ja, meine Zotac 295GTX rennt wie Butter auf meinem
PCIE 1.1 Board. Jedenfalls absolut kein Unterschied in Vantage oder in anderen Benches im Vergleich mit PCIE 2.0 boards ..
 
Zuletzt bearbeitet:
Ich weiss, es läuft bei den meisten ohne Probleme. Aber bei eingigen eben nicht, und der Wechsel auf ein einfaches P45 (oder besser) Chipsatz MB ist leicht getan ... bei mir war es die einzigste Lösung.
 
Nein ich glaube du missverstehst mich, darum habe ich soviel relativ und absolut eingestreut.

Natürlich haben die Dual-Grakas internes SLI/CF, 2 einzelne haben dafür ihre Bridge, das nimmt sich nichts, tatsächlich ist internes (im Ati fall) glaub ich sogar theoretisch bissl schneller.

ABER: Wenn ich 2 GPUS (statt einer) Daten zuführe so muss die Last steigen. Aus sicht der Bandbreite/des Slots steigt also die Last.

Genausogut kann ichs auch aus Sicht der GPU betrachten: Die braucht immernoch ihre Daten, muss sich die Bandbreite/Slot aber mit einer anderen GPU teilen. Die Daten müssen unterschiedlich sein, denn es werden auch andere Bilder gerendet.

Die Daten sind aber nicht unterschiedlich. Und die werden auch nicht zwei mal über den PCIe Bus geschickt.

Die Daten kommen ganz normal an, wie bei einer Single GPU auch, werden dann aufgeteilt auf beide GraKas und entsprechend berechnet, dabei ist es unerheblich ob es unterschiedliche oder wie in diesem Fall die gleichen Daten sind. Die Daten kommen in einfacher Form an und werden in beiden Rams identisch abgelegt.

Nur weil jede der GPUs in ihrem Speicher die gleichen Informationen speichert, wie die andere, heißt das nicht gleich, dass die verschickten Daten doppelt so groß sein müssen, oder die gleichen Daten zwei mal verschickt werden, denn das geschieht alles in der GraKa unabhängig vom PCIe Bus.

Der einzige Grund, weshalb moderne Dual GPU GraKas evtl. mehr durch einen langsameren PCIe Slot/Standard "gebremst" werden, als manche Single GPU GraKa, ist einfach, dass sie tendenziell schneller sind.

Gibts dann wieder eine schnellere Single GPU GraKa, wird diese wieder stärker "gebremst". Ich bin ziemlich sicher, dass nur die Gesamtleistung der GraKa entscheidend ist, und nicht obs eine Single oder Dual GPU ist.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh