Kann der Sockel 2011 mit einem 3930k nun PCIe 3.0 oder nicht?

MickHucknall

Neuling
Thread Starter
Mitglied seit
15.08.2011
Beiträge
202
Ort
Kassel
Weiß das jemand?

Ist für GTX 680 SLI gedacht und PCIe 3.0 macht ja hier und da schon ganz schön was aus.

Die Mainboards sind für 3.0 gemacht, die CPUs unterstützen aber nur 2.0?

Oder dann einen Xeon nehmen, da geht 3.0 oder?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
technisch: ja, da die CPUs baugleich mit dem Xeons sind haben sie all Vorraussetzungen für PCIe 3.0 - offiziellen support gibt es aber keinen. Praktisch ist es bei einer AMD GPU kein Problem die Karte mit 3.0 zu betreiben, bei nv ist dafür ein "Trick" notwendig, da nv PCIe 3.0 für Systeme mit X79 (ja, man bezieht sich hier tatsächlich auf den Chipsatz, obwohl der nichts damit zu tun hat) nicht offiziell supportet.
 
Zuletzt bearbeitet:
du suchst dir aber auch den Extremfall aus ;)
Das macht keinen Sinn... Nimm durchschnittswerte. Da bleiben summa sumarum vllt 2-3% übrig, wenn überhaupt. Und ob es dann wirklich dediziert am PCIe selbst liegt, oder nicht einfach durch andere Umstände hervorgerufen wird, ist ebenso noch nicht geklärt. Beispielsweise sind VRAM Ein/Auslagerungsvorgänge massiv von der PCIe Bandbreite abhängig. Fährst du im VRAM Limit, wird PCIe Bandbreite viel mehr Speed bringen. Nutzt dir aber nix, weil eben idR auch Nachladeruckler auftauchen werden. Oder aber durch ein "zugemülltes" Windows wird die Leistung ebenso sinken ;)

Unterm Strich ist es ziemlich wurscht ob nun 2.0 oder 3.0.
Ich nutze beispielsweise 2x8x 2.0 für die zwei 680er. Und das lüppt genau so wie es soll bzw. wie es zu erwarten ist.
 
Da kann ich nur sagen, wie es bei den Asrock-Brettern ist. Die unterstützen ab einer bestimmten BIOS-Verion PCIe3 nämlich richtig, also absturzfrei. Im Falle meines Extreme4 gab es einen Fix ab der Version 2.1, seither kann ich meine 7950 stabil mit PCIe3 betreiben. Bei NVidia geht das auch, muss aber AFAIK separat eingeschaltet werden. Meiner Erfahrung nach ist der Performancegewinn kaum vorhanden, dennoch läuft es und wenns läuft, warum nicht aktivieren ;).
 
Hast du auch, das sind umgelabelte HD 7990er... :d

Jetzt wo du es sagst wußte ich doch da ist was faul:)

GPU-Z 2012-12-05 21-03-50-20.jpg
 
du suchst dir aber auch den Extremfall aus ;)
Das macht keinen Sinn... Nimm durchschnittswerte. Da bleiben summa sumarum vllt 2-3% übrig, wenn überhaupt. Und ob es dann wirklich dediziert am PCIe selbst liegt, oder nicht einfach durch andere Umstände hervorgerufen wird, ist ebenso noch nicht geklärt. Beispielsweise sind VRAM Ein/Auslagerungsvorgänge massiv von der PCIe Bandbreite abhängig. Fährst du im VRAM Limit, wird PCIe Bandbreite viel mehr Speed bringen. Nutzt dir aber nix, weil eben idR auch Nachladeruckler auftauchen werden. Oder aber durch ein "zugemülltes" Windows wird die Leistung ebenso sinken ;)
Ich stimme eigentlich zu, aber im ersten Test mit 1xAF/1xAA @HD-Auflösung geht einer HD7970 mit 3GB VRAM doch nicht der Speicher aus. Oder hatten die da im Test irgendein Texture-Spezialpaket für Skyrim?
 
Es sollte nur ein Beispiel sein, warum mehr PCIe Bandbreite auch mehr Leistung bringen kann... Keine Ahnung wie es bei Skyrim selbst ist. Kann durchaus auch andere Gründe haben. ;)
Ggf. ist Skyrim auch ein überdurchschnittlich stark skalierendes Game was PCIe Bandbreite anbelangt. Scheint ja durchaus solche Fälle zu geben. Zu Zeiten von PCIe 1.x vs. 2.0 war beispielsweise CoD4 ein Extrem Beispiel bzw. dessen Leistungszugewinn.

Das Rating hingegen bescheinigt nur noch grob 2-2,5% mehr Zugewinn. Und das ist dann meine ich wiederum vernachlässigbar. Da man diese 2-2,5% teils schon als Messtoleranz abstufen kann bzw. durch anderen Einflüsse erhalten/verlieren kann.
 
Sorry fdsonne, aber du ziehst deine CPU auf 4500 was in vielen Spielen wenig bis nichts bringt und kommst mir mit 3.0 würde nichts bringen? Es bringt definitiv "etwas".

In Max Payne hat man durch 3.0 10% mehr min FPS, avg 5-7% mehr. BF3 15% (!) mehr min. FPS, BM AC sind sogar 20% mehr min. FPS. Witcher 2 ~30%. Das sind nur ein paar Beispiele. Aktualisiere deinen Wissenstand mal und verbreite hier bitte nicht solchen Unsinn. Von wegen Wurscht... :rolleyes:
 
Zuletzt bearbeitet:
wen interessieren bitte min FPS? Das ist ein absoluter Wert, nämlich das absolute Minimum. Es sagt absolut nichts darüber aus, wie oft dieser Wert wärend der Benchzeit eingetreten ist.
Noch dazu ist nichtmal klar, was diesen Wert hervorruft. Beispielsweise erzeugt mehr CPU Takt oft auch mehr min FPS bei völlig gleichem Rest. Noch dazu ändern sich min FPS Werte von CPU zu CPU sowie von GPU zu GPU teils massiv.
Ebenso bleibt die Tatsache, einmal ein Drop 20% mehr runter ist bei weitem nicht so schlimm, wie alle Nase lang ein Drop um 10% ;) Nur so nebenbei...

PS: was hat meine CPU damit zu tun?
Ich fahre 4500MHz weil SLI von HighEnd GPUs massiv CPU Power benötigt um möglichst maximale Auslastung zu generieren. Noch dazu benutze ich die Kiste nicht nur fürs Spielen sondern auch für andere teils zeitkritische Sachen. Und da bringen 4500MHz eben mehr wie default 3400MHz.

Es ändert aber nichts an der Tatsache, das sogar in dem Test des von dir eigens oben verlinkten Bildes im Schnitt gerade mal 2-2,5% mehr Leistung resümieren lassen und du dir genau das Extremste Beispiel dieses Tests (nämlich Skyrim) rausgesucht hast... Ich empfehle daher dringend, bevor du andere versuchst zu belehren, lies dich wenigstens ein wenig vorher ein ;)

Übrigens, mein Wissenstand bei dem Thema ist durchaus OK ;)
Wenn du die Antwort auf deine Frage schon weist, was fragst du überhaupt? Sorry, aber das ist reichlich sinnfrei hier antworten zu erwarten, und diese decken sich quasi alle samt, und sich dann hinzustellen, ihr seit alle doof und habt keine Ahnung... Sowas nennt man umgangsprachlich auch "Troll" ;)
Aber nix für ungut...
 
Sorry fdsonne, aber du ziehst deine CPU auf 4500 was in vielen Spielen wenig bis nichts bringt und kommst mir mit 3.0 würde nichts bringen? Es bringt definitiv "etwas".

In Max Payne hat man durch 3.0 10% mehr min FPS, avg 5-7% mehr. BF3 15% (!) mehr min. FPS, BM AC sind sogar 20% mehr min. FPS. Witcher 2 ~30%. Das sind nur ein paar Beispiele. Aktualisiere deinen Wissenstand mal und verbreite hier bitte nicht solchen Unsinn. Von wegen Wurscht... :rolleyes:

Und in welchem Setup bewegst du dich dabei? Hardware und Auflösung sind gemeint. In FullHD fällt der Leistungsunterschied z.B in die Kategorie Messtoleranz: HARDOCP - Apples to Apples GeForce GTX 680 - 1920x1200 - PCI Express 2.0 vs 3.0 GPU Gaming Performance Review

Erst mit SLI und 2560*1600 als Auflösung fängt man an einen echten Unterschied messen zu können: HARDOCP - Apples to Apples GeForce GTX 680 SLI - 2560x1600 - PCI Express 2.0 vs 3.0 GPU Gaming Performance Review Und selbst den wird man im Mittel wohl nicht spüren.

Mit Prozentzahlen schmeißen birngt hier im übrigen auch nur bedingt etwas, 20% von 14 FPS sind 2,8 FPS klingt statistisch viel und ist immer noch ein schlechter Wert. ;)
 
Zuletzt bearbeitet:
@Mick und wie man an deinem verlinkten Test wunderschön sieht, der min FPS Wert liegt idR genau ein einziges mal an, andere Einbrüche sind zwar auch vorhanden, aber weit weniger Schlimm. Und die meiste Zeit des Tests liegt man weit weit über dem min FPS Wert -> ergo ist dieser Wert good to know, aber keinesfalls ein Ausschlaggebender Punkt ;)
 
Es ist möglich, gibt nen kleines Tool auf der Nvidia Webseite, um das zu unlocken. Ich werd den Link rauskramen, wenn ich zu hause bin.


send from SII
 
wen interessieren bitte min FPS?
...
Wenn du die Antwort auf deine Frage schon weist, was fragst du überhaupt? Sorry, aber das ist reichlich sinnfrei hier antworten zu erwarten, und diese decken sich quasi alle samt, und sich dann hinzustellen, ihr seit alle doof und habt keine Ahnung... Sowas nennt man umgangsprachlich auch "Troll" ;)
Aber nix für ungut...

Gerade die min. FPS spürt man besonders. Das disqualifiziert dich schon. Ob ich nun avg 64 oder 68 habe ist eher zu vernachlässigen.

Wo bitte habe ich gefragt, wieviel mehr 3.0 bringt? Soviel zu Troll, Sportsfreund.
Ich habe nur klar gestellt, dass deine Behauptungen Unsinn sind und das meine ich nachwievor so. HARDOCP ist Beweis genug. Das ist Fakt und da kannst du hier noch so viel texten, daran ändert sich nichts. =)
Es ist definitiv ein, teils deutlicher, Unterschied vorhanden. Ich habe nie behauptet, dass ich nicht evtl. 3 Monitore hätte oder was für Auflösungen geplant sind, das am Rande.
 
dann solltest du eindeutig lesen lernen ;)
Der Test, ausdem du dir ein oben verlinktes Bild rausgesucht hast, bescheinigt 2-2,5% mehr Leistung im Schnitt bei PCIe 3.0.

Wenn das für dich ein "deutlicher Unterschied" sind, weis ich auch nicht. Die Rechnung ist ziemlich eindeutig. Selbst bei 60 FPS wären 2,5% gerade mal 1,5 FPS... Aber du wirst es merken, defintiv ;)

Thema min FPS. Mach dich bitte nicht lächerlich ;) Auch das ist ein Trugschluss. Du spürst jeden Framedrop, der deutlich absackt im Vergleich zur vorher anliegenden FPS Rate. Ob das nun 20 oder 30% sind, ist vollkommen wurscht. Es ist spürbar und es stört unter Umständen den Spielfluss. Was bringt es dir also hier den Einbruch minimal zu verschlimmbessern, wenn er immernoch vorhanden ist?
Und noch ein Hinweis, schau dir die Frameverlaufsdiagramme an. Der absolute min FPS Wert liegt bei den Tests idR genau ein einziges mal an. Egal ob nun bei PCIe v2 oder v3. Du wirst also auch bei deutlich mehr min FPS ein Framedrop spüren ;)

Übrigens empfehle ich dir dringends, deine Wortwahl zu überdenken, Sportsfreunde sind wir bestimmt nicht.
Scheinbar sind alle Leute hier im Stande unabhängig voneinander dir zu vermitteln, das PCIe 3 nur unwesentlich zu vernachlässigende Mehrperformance bringt. Mehr gibt es zu dem Thema nicht zu sagen. Wenn du es willst, schalt es halt ein...
 
Gerade die min. FPS spürt man besonders. Das disqualifiziert dich schon. Ob ich nun avg 64 oder 68 habe ist eher zu vernachlässigen.

Wo bitte habe ich gefragt, wieviel mehr 3.0 bringt? Soviel zu Troll, Sportsfreund.
Ich habe nur klar gestellt, dass deine Behauptungen Unsinn sind und das meine ich nachwievor so. HARDOCP ist Beweis genug. Das ist Fakt und da kannst du hier noch so viel texten, daran ändert sich nichts. =)
Es ist definitiv ein, teils deutlicher, Unterschied vorhanden. Ich habe nie behauptet, dass ich nicht evtl. 3 Monitore hätte oder was für Auflösungen geplant sind, das am Rande.

Ich frage mich Grade ernsthaft, wer sich qualifiziert/disqualifiziert beim zusammenfassen eines Tests von HARDOCP ^^

Man sollte sich nicht von nackten Zahlen die da angegeben werden blenden lassen, es ist ja im Grunde nur ein Vergleichstest zwischen Sandy versus Ivy- Plattform incl. OC bei benutzung von PCI-E 2.0 und 3.0, sofern rein technisch überhaupt ein Vergleich zulässig ist - Man darf ja auch nicht außer Acht lassen, dass die IVY-CPU eine etwas höhere IPC hat ! Der Test zeigt eigentlich auch das derzeit keinerlei Bandbreitenvorteile von PCI-E 3.0 gibt, die marginalen Unterschiede die gemessen wurden ( auch die wo eine Sandy-CPU eine etwas höhere min. fps hat als Ivy ^^), sind erschreckend gering das ein Umstieg von Sandy auf Ivy keine großen Vorteile bietet und das sagt ja auch die Zusammenfassung des/der Redakteurs/e aus .....

Ob mich das nun qualifiziert/disqualifiziert für eine objektive Meinung, darf jeder für sich selbst entscheiden :d

P.S. Da ich ja schon mal den dämlichen Test von Hardware-infos kommentiert habe mach ich es glatt nochmal ^^, der große Unterschied bei Skyrim liegt nicht an der fehlende Bandbreite unterhalb von PCI-E 3.0, sondern an der künstlichen Bremse bei der CPU-Leistung !
 
Ich meine Wortwahl, wenn du mit Troll kommst. Is klar. Wie man in den Wald ruft...

Wie ichs mir schon dachte, da gibts Fakten und ihr verteidigt eure pers. Ansicht weiter (ich habs nicht mal groß gelesen was ihr da schreibt). Herrlich. ;)

Nunja, Thema ist geklärt und kann geschlossen werden. :)
 
Du suchst dir aus diesen "Fakten" auch nur heraus was deine persönliche Meinung unterstützt und eine Diskussion starten und, wenn einem die Gegenargumente nicht gefallen, so zu tun als wenn man die anderen Argumente nicht gelesen hat, weil die ja eh unrecht haben fällt unter fdsonnes getrolle. Im übrigen lustig einem GPU-Foren-Mod Ahnungslosigkeit zu unterstellen... :d

Aber da wir keine Ahnung haben lassen wir doch abschließend mal Hardocp sprechen (Fett markierte Stellen mal genau lesen):

We have put forth a great effort to get to the bottom of the PCIe 2.0 versus PCIe 3.0 debate. We put a lot of time into testing performance and verifying that our data is accurate. Except for a couple of specific scenarios, most of the performance advantage had under PCIe 3.0 was well under 10%. This actually falls in-line with the kind of performance advantages one might expect using n Ivy Bridge CPU clock-for-clock compared to a Sandy Bridge CPU. The IPC can affect performance by as much as 4-7% in favor of Ivy Bridge easily. As you noticed, most of our data when we experienced an improvement on the Ivy Bridge system was in this range of improvements. There were a few specific cases of 11% in The Witcher 2 in one test, and 19% in Batman (for part of the game only) and 14% when we cranked up the settings to unplayable levels in Max Payne 3. For the most part, at the real-world highest playable settings we found playable, all performance advantages were under 10%.

With real-world gameplay performance advantages under 10% it doesn't change the actual gameplay experience.

Quelle: HARDOCP - Conclusion - PCI Express 2.0 vs 3.0 GPU Gaming Performance Review
 
Zuletzt bearbeitet:
Eben das meine ich, ist eben nicht wurscht sondern durchaus ein Unterschied vorhanden. :)
Ich habe genau das gemeint.
Ach Leute, bitte einfach lesen. Er hat mich als Troll bezeichnet und wundert sich wenn ich kontra gebe. Nicht ich ihn, les doch einfach mal genau.

Meine Zeit ist mir zu schade hier alles zu erklären und tot zu quoten. Ich sag zu dem ganzen Text hier auch nichts mehr, und bin nun raus hier, macht keinen Sinn mehr. Schreibt was ihr wollt, steht euch für die Nachwelt frei. Schönes WE! :)
 
auch dieses Zitat von Mick scheinst du nicht gelesen zu haben...
Ziehe einfach von <10% 4-7% ab und rechne mal ganz genau nach, was hinter dem Gleichheitszeichen übrig bleibt. Wenn dir dieser absolut minimale Umstand so extrem wichtig ist, dann mach halt einfach wie du es für richtig hälst, aber bitte nicht das Forum hier nach Antworten auf Fragen über den Tellerrand, über den du strikt dagegen bist zu schauen.

Aber dir auch ein schönes WE und viel Spaß mit dem brachial Vorteil im Messtolleranzbereich bei Verwendung von PCIe 3.0 ;)
 
Es ist definitiv ein, teils deutlicher, Unterschied vorhanden. Ich habe nie behauptet, dass ich nicht evtl. 3 Monitore hätte oder was für Auflösungen geplant sind, das am Rande.

Bei wieviel % der "busbelastenden" Games wegem zu hohen Datendurchsatz ist das denn der Fall? Und was ist "definitiv teils deutlich" bei dir?

Ich kann aus eigener Erfahrungs sagen das z.Zt 2.0x16 und 3.0x16,mit aktuellsten Highendkarten,soviel ins Gewicht fällt,wie ein umgefallener Sack Reis in China,wenn man nicht sellektives cherry picking betreibt

Und das sagt eben auch das Fazit von Hard OCP aus

With real-world gameplay performance advantages under 10% it doesn't change the actual gameplay experience.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh