[Sammelthread] Skalierung aktueller SLI/CF Kombinationen mit verschiedenen CPUs/Taktung

So, also in diesem Thread soll es um die Leistungssteigerung bei verschiedenen CPU Takten und verschiedenen CPU Modellen in Verbindung mit aktueller GPU Technik in SLI/CF Verbünden gehen.
Ein paar User meldeten sich zu Wort und brachten ein paar interessante Ergebnisse zu tage.

Demnach soll ein X6 Thuban mit 4,2GHz gepaart mit einem HD6970 CF in BFBC2 gerade mal um die 70FPS liefern.
Im Vergleich dazu schafft der X6 mit 3,7GHz und gleichem Rest um die 65FPS.

Ein SB@5GHz bringt es mit gleichen Karten hingegen auf 110FPS.

Interessant ist weiterhin die GPU Auslastungsanzeige vom Rivatuner/Afterburner/GPU-Z... Denn diese bescheinigt dem Intel System trotz gleicher Karten wohl eine deutlich höhere GPU Auslastung als dem X6 AMD System.


Da ich das ganze Thema so nicht ganz glauben mag/dem ganzen so nicht ganz vertraue und die Diskusion an ihrem damaligen Platz "leicht" OT war, hier nun ein Sammelthread für die Diskusion.
Ich hoffe auf rege Beiteiligung verschiedener Tester/Systeme um möglichst gute Vergleiche erzielen zu könnnen ;)
In diesem Sinne ;)
 
Zuletzt bearbeitet:
Bulldozer wird mehr "IPC" als Deneb haben, ich glaub das ist abzusehen. Was wäre nun schlimm daran, wenn er nun 4,5GHz für das benötigt was Intel mit 4GHz schafft, dabei aber nicht mehr Energie verbraucht?

Einfach antwort: Ein SB@ 5Ghz ist grade so in der lage zwei HD6970 zu befeuern so das sie fast immer bei 99% auslastung arbeiten und bei BFBC2 gibt es auf der map Oase auch bereich wo man nur noch 85% hat und das selbst bei FullHD!
Das problem ist einfach das ein CPU kern so stark ausgelasstet ist das die anderen CPUs gebremst werden! Theoretisch müsste ein kern beim SB 6Ghz haben und die anderen 5Ghz damit das immer voll rennt!
Meine zweite HD6970 liegt ausgebaut neben mir weil es einfach 0 sinn macht sie ein zu bauen weil mein AMD einfach zu lahm ist selbst@4,2Ghz wie er ne zeitlang lief!
Klar einige meinen nun ok eine GPU reicht ja auch aber wie siehts denn mit ner GTX580 aus welche viel schneller als eine HD6970 ist oder mit den kommenden GPUs in 32nm da hat man dann auf einmal keine leistungssteigerung weil die CPU nicht reicht und das sogar bei FullHD :kotz:
Hier könnt ihr mal die power eines AMD x4@3,7Ghz sehen :kotz:

Schaut euch die FPS an und auch die auslastung beider karten (ganz rechts mitte ist lüfter) und rechnet mal hoch wie viel FPS noch brach liegen wenn die CPU nicht limitieren würde!
P.s. mit dem SB@5Ghz rockt das dann schon derbe besser!
Sogar bei Downsampling erreicht man nicht die gewünschte auslastung von zwei karten aber es geht dann schon in richtung 80-90%!


Der neue turbo ist sicher was feines nur leider wird der unter OC keine wirkung mehr haben!
 
Du meinst also mit einem Sandy Bridge@5GHz noch nicht genug CPU-Power zu haben...Ok deine Sache, aber was hat das nun mit der möglichen Leistungsfähigkeit(IPC<=>Takt) von Bulldozer im Vergleich zur Intelkonkurrenz zu tun?
 
Ganz einfach weil wenn man sieht welche power man braucht um seine grafikkarte voll aus zu lasten (wird ja nicht weniger werden mit den 32nm GPUs) sieht man ja das eine sehr schnelle CPU wichtig ist! Ich vermute einfach mal das der BD nicht mehr als 5,5Ghz packen wird und von daher sollte die IPC schon sehr gut sein weil was bringt es mir wenn die IPC schlecht ist und man ca. 10% mehr takt brauch als intel um gleich zu ziehen aber die architektur es nicht zulässt einen so hohen takt zu fahren!
Eine gute IPC ist besser als durch einen hohen takt das ganze abzufangen weil beim takt immer einmal ende sein wird!
intel hat es doch schonmal versucht mit dem prescott die mega schlechte IPC mit taktraten von bis zu 10Ghz weg zu machen aber was ist drauß geworden?? 5Ghz war da schon sabat mit extrem OC!

Wenn nun aber AMD oder intel ist ja auch egal es nun aber schaffen würde eine arbeit (z.B. SuperPi 32m) mit allen vorhandenen CPU kernen gemeinsam zu verarbeiten und dadurch eine deutlich leistungssteigerung gegenüber einem kern zu erzielen hätte man quasi die CPU schlecht hin weil man dann durch die mehr anzahl an einheiten wirklich mehr leistung in jeder anwendung erreicht!
 
@Powerplay
Das Problem was ich an deinen Ausführungen sehe, du machst alles an diese beknackten GPU-Auslastungsanzeige fest. Diese kann aber alles und nix bedeuten.
Gerade bei AMD Karten ist doch bekannt, das die "5D" Einheiten (bzw. mittlerweile "4D" Einheiten) nie wirklich 100% ausgelastet sind in Games.
Das heist, die Anwendung dort misst so oder so ziemlichen Murks.

AMD hat damals mal bei PCGH in einem Interview was von einer durchschnittlichen Auslastung von 3,5/5 genannt, wie sie ihre Karten selbst sehen.

Wenn das ganze so gravierend wäre wie du es beschreibst, so müsste beispielsweise die zweite Karte ansich sogut wie nix bringen.
Schaut man sich nun mal den CB Test hier an:
Test: Radeon HD 6900 CF vs. GeForce GTX 500 SLI (Seite 19) - 24.01.2011 - ComputerBase
So sieht man das selbst mit dem dort verwendeten "nur" 3,87GHz QX Intel eine Steigerung von 76% bei schnöden 1920x1200@4xAA/16xAF drin ist für das HD6970 Gespann.
Selbst die schnellere 580GTX gibt im SLI noch 66% Performance Plus.

Und guckt man dann auf genanntes Crysis von dir. So skalliert die AMD über 95% und die NV immernoch 85% mit SLI/CF.

Eventuell müsste man mal den ganzen Spaß genauer analysieren, was diese GPU-Auslastungsanzeige dort überhaupt anzeigt. Denn ohne zu wissen, was sie besagt, bringt die Spekulation über diese absolut gar nix.
 
Ich habe das zu genüge getestet und auch mit zocker28 und meinem kumpel Thunderburne bequatscht!
Das passt schon weil wenn ich die CPU leistung angehoben habe kam eine steigerung der auslastung und auch der FPS rüber!
Der besagte test ist zwar schön und gut aber ich wette das die CPU dabei noch immer limitiert!
Testet das ganze doch mal mit nem 5Ghz SB und einem 3,4Ghz AMD x4 und ihr werdet sehen das tatsächlich die FPS steigerung beim AMD sys mit multigpu gegen 0 geht warum habe ich wohl meine zweite HD6970 auf dem tisch liegen und nicht mehr verbaut??

Wir haben das schon bei einigen games getestet und wenn die auslastung stieg (durch mehr CPU takt+ speicherbandbreit) kam auch richtig was rum bei den FPS!
@ HWL testet doch selber mal ein paar games mit GTX580@OC oder mit zwei HD6970 mit nem Intel und nem AMD und schaut ab welchem CPU takt es nicht mehr scaliert aber nicht mit benchmarks sondern mit richtigen ingame sceenen und nicht nur 10meter links rechts laufen sonder ausführlich!
 
Ihr redet immer von kerne und mehr leistung nur wie viele anwendungen profitieren denn von ach so vielen kernen? deshalb ist es sehr wichtig ein sehr hohe IPC zu haben!
Richtig - es kommt aber auch darauf an, sein eigenes Anwendungsprofil zu kennen. Ist es sehr Multithread-lastig, so kann hier der Vorteil zusätzlicher Kerne überwiegen, auch wenn deren Einzelkern-IPC niedriger liegt. Es spricht ja auch nichts gegen Übertaktung, um eine ggf. schwächere IPC-Einzelkernleistung zu kompensieren - solange ein vernünftiges Verhältnis von Stromverbrauch / Kühlaufwand und Nutzen bestehen bleibt.

Nochmal was bringen mir 8+ Kerne wenn man diese leistung nicht ausnutzen kann da nur max 4kerne arbeiten wovon ein kern bei 100% festgenagelt ist und deshalb die anderen 3kerne ausbremst?
Daß 1 Kern mit 100% Auslastung alle anderen Kerne "ausbremst" ist nur bei schlechter Multithreading-Programmierung anzunehmen. Tatsächlich lassen sich aufgrund unterschiedlicher Kernauslastung nicht unbedingt Schlüsse auf die Leistungsfähigkeit einer Prozessorarchitektur ziehen - sondern vor allem darauf, "wie" eine Anwendung die vorhandenen Hardware-Resourcen nutzt. Manche Prozesse innerhalb einer Anwendung sind eben gut "parallelisierbar" und mit mehreren Threads abzuarbeiten, andere wiederum nicht. Hinzu kommt ein "Master-Thread", der das Zusammenspiel aller anderen Threads steuern muß. Bedenkt man, daß ggf. einige Aufgaben früher abgearbeitet sind als andere, und deshalb neue Threads erst dann wieder gestartet werden können, wenn sie die Resultate der "fertigen" Threads als "Futter" erhalten haben, so ist "ungleichmäßige Auslastung" bei Mehrkern-Prozessoren eher die Regel als die Norm. Ein solcher Prozessor ist eben kein Mehrzylindermotor, bei dem grundsätzlich alle Kolben mit der gleichen Geschwindigkeit auf und ab laufen.
Gleiches gilt für den häufig strapazierten Vergleich zwischen Desktop- und Server-Prozessoren - denn auch hier ist die Anwendung entscheidend. Für Server gilt daher: (relativ) simple, Einsatz-optimierte Kerne - aber möglichst viel davon! Die Datenschleudern müssen eben ständig viele und wechselnde Requests bearbeiten und viele Daten aus einem leistungsfähigen Speicher-Subystem herausfischen und in ein Netz senden (und umgekehrt). Da fristet eine Desktop-CPU ein völlig anderes Dasein... :)
Bei Spielen läuft es doch ganz ähnlich: hier "bedient" die CPU die Graka(s) des GPU-Subsystems mit Grafik-Instruktionen des Spielprogramms, und muß - je nach Leistungsfähigkeit des GPU Subsystems und der Spiel-Programmierung - selbst noch Parameter für die Instruktionen errechnen, die sie weitergibt. Ist das Spiel GPU-lastig und vllt. auf max. 2 CPU-Kerne hin "optimiert", kann von "gleichmäßiger Auslastung" von mehr als 2 CPU-Kernen doch garnicht mehr die Rede sein.

Die Vorstellung, auf die CPU-Auslastungsanzeige wie auf einen Drehzahlmesser zu gucken und dabei ablesen zu können, wie "effizient" die CPU wirklich ist - das ist schon deshalb eine fromme Wunschvorstellung, weil sie auch durch Benchmarks nur sehr unvollkommen erfüllt werden kann. Grobe Schätzungen gehen, aber endgültige Klarheit bringt nur das "richtige" Leben. Und das kann je nach Anwendung und hierfür verfügbare Ugrades (z.B. 64-Bit, Befehlssatz-Nutzung, Multithreading) auch für so manch' positive Überraschung sorgen.... :d
 
Ich habe das zu genüge getestet und auch mit zocker28 und meinem kumpel Thunderburne bequatscht!
Das passt schon weil wenn ich die CPU leistung angehoben habe kam eine steigerung der auslastung und auch der FPS rüber!
Der besagte test ist zwar schön und gut aber ich wette das die CPU dabei noch immer limitiert!
Testet das ganze doch mal mit nem 5Ghz SB und einem 3,4Ghz AMD x4 und ihr werdet sehen das tatsächlich die FPS steigerung beim AMD sys mit multigpu gegen 0 geht

Also du vergleichst grade einen phenom 2 quad der mit stock takt laeuft gegen nen SB OC mit 5GHz.

Hmm....

Boah mein mein Porsche rennauto ist viel besser auf der strecke als dein golf...
 
@wecaluxx
Weltklasse geschrieben ;)

@Kazuya
nimm das doch nicht so genau!
das war nur mal ein beispiel!
ein test i7 2600 ohne smt vs. AMD 965 beide @ stock mit multi gpu würde lang reichen @ full HD oder aber mit einer stark übertakteten GTX580
ich denke da könnte sogar der 2600k in sagen wir mal BFBC2@ oase in limit laufen!
Ich glaube das was "wecaluxx" schrieb passt sehr gut auf BFBC2 weil es da wohl sone arte masterthread gibt
 
@powerplay, wie hoch ist denn der prozentuale Leistungsgewinn bei avg FPS Messungen über einen längeren Zeitraum zwischen der CPU@Stock Takt (egal welcher nun) und der gleichen CPU mit starkem OC bei sonst gleichen Restkomponenten und Testbedingungen?

Übrigens, mir fällt oben bei deinem Vergleichsbild auf, das irgendwie das komplette Bild nur aus Wasser und Strand und Himmel besteht. Das dürfte laut meinen Erfahrungen die Combo sein, die bei Crysis mit Abstand am wenigsten GPU Load erzeugt.
Wobei ich gerade nicht ganz sicher bin, in wie weit sich das geänderte Wasser da ins Bild einfügt.


Aber mal ne andere Geschichte, meint ihr nicht, der Spaß ist hier OT!?
Vllt sollte man das ganze im GPU Unterforum weiter diskutieren, schweift ja doch etwas stark vom BD ab.
 
Ganz einfach weil wenn man sieht welche power man braucht um seine grafikkarte voll aus zu lasten (wird ja nicht weniger werden mit den 32nm GPUs) sieht man ja das eine sehr schnelle CPU wichtig ist!
Nochmal: Was hat dieser Spezialfall mit Bulldozer bzw. mit dem Thema "IPC oder Takt" zu tun?

Du brauchst also deutlich mehr CPU-Power als aktuell möglich. Bulldozer ist für AMD aber die Architektur, die den Abstand zu Intel verringern/aufholen soll...
Ich vermute einfach mal das der BD nicht mehr als 5,5Ghz packen wird und von daher sollte die IPC schon sehr gut sein weil was bringt es mir wenn die IPC schlecht ist und man ca. 10% mehr takt brauch als intel um gleich zu ziehen aber die architektur es nicht zulässt einen so hohen takt zu fahren!
Erneut die Frage: Woher weiß du, dass AMD nicht in der Lage sein wird einen 10% "IPC"-Nachteil durch Takt auszugleichen?

Eine gute IPC ist besser als durch einen hohen takt das ganze abzufangen weil beim takt immer einmal ende sein wird!
intel hat es doch schonmal versucht mit dem prescott die mega schlechte IPC mit taktraten von bis zu 10Ghz weg zu machen aber was ist drauß geworden?? 5Ghz war da schon sabat mit extrem OC!
Ich schrieb bereits, dass der P4 ein Paradebeispiel für eine gescheiterte hochtaktende CPU ist...das muss nicht heißen, dass Taktraten über 4GHz schlecht bzw. unerreichbar sind.
 
Beispiel BFBC2 AMD x6@ 4,2Ghz 2xHD6970 1920x1080 8xAA 16xAF alles max MP map Oase 70-90FPS das gleiche setup mit nem SB@5Ghz ab 120FPS aufwärts meist aber nicht unter 130FPS!
Aber ok du hast recht das schweift zu stark ab!


Wollte nur damit sagen das wenn ich 8 kerne hab es mir nix bringt das z.B. der masterthread wie "wecaluxx" das perfekt erklärt hat auf einem kern halt den rest der cpu ausbremst und deshalb wieder die IPC wichtig ist!

@mondrial
ich weiß nicht was mit dem BD möglich ist das vermute ich einfach nur da ich nicht glaube das AMD weit über 5Ghz kommen wird mit OC und da Intel das ja auch packt hoffe ich einfach das AMD dann mehr IPC power hat weil das würde die erreichten taktraten dann in einem anderm licht darstellen oder??
 
Wollte nur damit sagen das wenn ich 8 kerne hab es mir nix bringt das z.B. der masterthread wie "wecaluxx" das perfekt erklärt hat auf einem kern halt den rest der cpu ausbremst und deshalb wieder die IPC wichtig ist!
Hier kommt dann vielleicht der "neue" Turbo zur Geltung...

Ich glaube ich wiederhole mich :rolleyes:
 
Ja bei cpu@ stock eindeutig klasse keine frage aber wie sieht das ganze dann bei OC aus?? Weil dann kannste den turbo vergessen weil wenn angenommen alle kerne bei 5Ghz laufen ein kern@ turbo keine 6Ghz mehr packt...

Andererseits kann es wiederum sein das wenn die CPU @ 4Ghz rennt und ein kern@turbo dann auf 5Ghz rennt man keinen lesitungsunterschied hat gegenüber aller kerne auf 5Ghz!
 
hmm Spekulation, Powerplay hat da nach den aktuellen vorhandene Information schon recht.
 
hmm Spekulation, Powerplay hat da nach den aktuellen vorhandene Information schon recht.

Thx :wink:

Ne andere Spekulation von mir wäre z.B. eine CPU mit 5 kernen wovon nur der erste CPU ein echter Kern ist und die anderen 4 kerne quasi CMT einheiten (auch mit variablen taktungen so das alle ziehmlich gleich ausgelasstet sind) und der eine echte kerne deutlich höher taktet (variabler takt) und die arbeit an die anderen CMT einheiten verteil und dann wieder zusammenträgt und ausgibt!
Hatte mal was davon gelesen das sowas die zukunft werden soll.. Das ist aber schon ne weile her!
 
Das ändert aber nichts daran, dass PCGH genau das machen will, einen 120% Intel Kern mit einem 80% AMD "Kern" zu vergleichen. Toll, dann zu schreien, dass AMD 2 Kerne mehr (33%) braucht. Auf der anderen Seite aber verschweigen, dass bei diesem Vergleich der Intel Kern von der Dimensionierung einen Vorteil von satten 50% und doppelt so viele logische Prozessoren hat.
Du sagtest doch, CMP sei ein Kern und SMT ist ein Kern, wieso spricht du dann von 80 und 120% und nicht bei beiden von 100%, hmmm? AMD spricht von acht Kernen, was vollkommen richtig ist, da es zwei Int-Cores pro Modul sind. Also hat Zambezi acht physische Kerne und ist ein Octacore. Während der i7-950 nur vier physische Kerne hat und daher als Quadcore gilt - SMT lastet die Kerne nur besser aus, SMT-Kerne aber sind "nur" logische CPUs. Du willst doch nicht ernsthaft behaupten, 8 Int-Cores seien das gleiche wie 4 Int-Cores?! Ein pro-Kern- und ein pro-MHz-Vergleich ist ohnehin mit BD nicht mehr möglich, da das Konzept sich vollkommen unterscheidet.

Es ist am Ende schlicht eine Frage der Definition. Ich nehme die Definition des Herstellers und der sagt, Zambezi ist ein Octacore.
 
Du sagtest doch, CMP sei ein Kern und SMT ist ein Kern, wieso spricht du dann von 80 und 120% und nicht bei beiden von 100%, hmmm? AMD spricht von acht Kernen, was vollkommen richtig ist, da es zwei Int-Cores pro Modul sind. Also hat Zambezi acht physische Kerne und ist ein Octacore. Während der i7-950 nur vier physische Kerne hat und daher als Quadcore gilt - SMT lastet die Kerne nur besser aus, SMT-Kerne aber sind "nur" logische CPUs. Du willst doch nicht ernsthaft behaupten, 8 Int-Cores seien das gleiche wie 4 Int-Cores?! Ein pro-Kern- und ein pro-MHz-Vergleich ist ohnehin mit BD nicht mehr möglich, da das Konzept sich vollkommen unterscheidet.

Es ist am Ende schlicht eine Frage der Definition. Ich nehme die Definition des Herstellers und der sagt, Zambezi ist ein Octacore.

Eigentlich müsste er 4+4 heißen da er ja keine echten 8kerne hat!
 
Eigentlich müsste er 4+4 heißen da er ja keine echten 8kerne hat!

Die Frage ist was ist "echt" und was nicht?
Das entscheidet einzig und allein die Definition... Fakt sollte aber sein. BD liefert wohl "Kerne", die es so bis Dato nicht gegeben hat. Sprich ist rein von der Absoluten Anzahl her nicht mit herkömmlichen Produkten auf eine Ebene zu heben.
 
Thx :wink:

Ne andere Spekulation von mir wäre z.B. eine CPU mit 5 kernen wovon nur der erste CPU ein echter Kern ist und die anderen 4 kerne quasi CMT einheiten (auch mit variablen taktungen so das alle ziehmlich gleich ausgelasstet sind) und der eine echte kerne deutlich höher taktet (variabler takt) und die arbeit an die anderen CMT einheiten verteil und dann wieder zusammenträgt und ausgibt!
Hatte mal was davon gelesen das sowas die zukunft werden soll.. Das ist aber schon ne weile her!

Das was du da meinst hört sich für mich nach CELL Prozessor an ;)
Der ist glaub ich von IBM und werkelt schon lang in der PS3.
 
Ja das das bei Cell drin ist glaube ich auch gelesen zu haben das was ich meinte war aber von AMD ;)

@fdsonne
ich schätze das man das ganze auch als 8kerner vermarkten wird weil wie hier auch schon von anderen user gesagt wurde: mediamarkt und co käufer kann man sonst was aufschwatzen!
es sind ja aber auch echte kerne nur etwas beschnitten aber wie die leistung zustande kommt ist ja nun egal ;)
 
Ja das das bei Cell drin ist glaube ich auch gelesen zu haben das was ich meinte war aber von AMD ;)

Von AMD gab's nur mal so ein Gerücht von wegen reverse Hypertreading. Quasi das sich alle Kerne zu einem Monsterkern zusammenschliessen können (das war als die ersten Gerüchte vom Bulldozer aufgetaucht sind, vor etwa 3 Jahren)
 
Von AMD gab's nur mal so ein Gerücht von wegen reverse Hypertreading. Quasi das sich alle Kerne zu einem Monsterkern zusammenschliessen können (das war als die ersten Gerüchte vom Bulldozer aufgetaucht sind, vor etwa 3 Jahren)

Genau sowas wäre doch der hammer!!! :love:
 
Das Probem ist und bleibt aber die Anwendung. Denn mit der steht und fällt die ganze Geschichte.
Dort wo es Sinn macht in die "Breite" zu gehen, tut man das nicht erst seit heute schon. Im Serverbereich, oder im Audio/Videobearbeitungsbereich. Aber auch im Render/CAD Bereich geht das 1A. Ich habe statischen Inhalt, den kann ich zerhackstückeln in x Teile und so bequem den Content auf alle Cores verteilen.

Diese Anwendungen sind aber im Homebereich eher selten Vertreten...

Schaut man sich mal Spiele an. So wird man bei etwas genauerer Analyse immer einen Punkt finden, von dem alles abhängig ist. Und wenn das die Eingabe vom User ist mit der alles steht und fällt.
Was man scheinbar aktuell macht, man nutzt das "Problem" aus und nimmt anstatt optimierter Berechnung einfach mehr davon.
Anstatt einer KI Berechnung eines Objektes nehme man einfach zwei oder vier oder weis der Geier. So kann man auch Kerne auslasten ;)
Nur tut das eigentlich dem Problem keine Abhilfe...


Ich habe nach wie vor ein wenig Bauchschmerzen, das AMD hier zu sehr in die Breite geht und die Anwendungen nicht hinterher kommen um das Potential auszuschöpfen. Eventuell hat dann Intel mit SB das deutlich bessere Standbein auf nähere Zukunft gesehen mit dickeren Cores als AMD mit breiteren Cores.

Und der Turbo... Neja den halte ich ehrlich gesagt eher für "Schadensbegrenzung", denn damit übertüncht man "Schwächen" der breiten CPU bei wenig Auslastung durch wenige Lastfordernde Threads mit höherem Takt. Aber das trifft natürlich aktuell auf beide Hersteller zu.
 

2600K@5,0GHZ 8aa*16Fach alles MAX 96% Gpu Auslastung 110 FPS.



X6@4,2 8aa*16Fach alles MAX 62% GPU Auslastung 70FPS.

Ich hoffe mal das der Bulldozer Pro Kern und Takt die Leistung des Sandybrige überflügeln kann .
Nichts ist zur Zeit wichtiger als hohe GHZ und Leistung Pro Takt wenn man SLI oder CF effezient nutzen möchte.
Zukünftige Grakas werden immer mehr an CPU Leistung verlangen
wenn die thread Auslastungen nicht drastisch verbessert werden (Masterthread).
Ich hätte niemals gedacht das man soviel Cpu Leistung für CF oder SLI in FullHD benötigt um die GPUS einigermassen perfekt auszulasten.
MFG
 
BILD
2600K@5,0GHZ 8aa*16Fach alles MAX 96% Gpu Auslastung 110 FPS.

BILD

X6@4,2 8aa*16Fach alles MAX 62% GPU Auslastung 70FPS.

Ich hoffe mal das der Bulldozer Pro Kern und Takt die Leistung des Sandybrige überflügeln kann .
Nichts ist zur Zeit wichtiger als hohe GHZ und Leistung Pro Takt wenn man SLI oder CF effezient nutzen möchte.
Zukünftige Grakas werden immer mehr an CPU Leistung verlangen
wenn die thread Auslastungen nicht drastisch verbessert werden (Masterthread).
Ich hätte niemals gedacht das man soviel Cpu Leistung für CF oder SLI in FullHD benötigt um die GPUS einigermassen perfekt auszulasten.
MFG

Interessanter wären vergleiche zwischen X6@Stock vs. X6@OC und SB@Stock vs. SB@OC... So macht das ganze irgendwie weniger Sinn zu vergleichen. Einfach weil viele Dinge da reinspielen...

Vllt kannst du/ihr sowas mal nachliefern!?
 
Habe mein AMD Sys nicht mehr am Laufen.
Habe aber getestet gehabt AMD X6 @3,7GHZ selbe Settings 56% Gpu Auslastung 65 FPS.

Mit Orginal Takt Sandy hatte ich Ca80% Gpu Auslastung und 80FPS rum werde das aber gerne noch mal machen mit Orginal Takt Sandy.
Der Sandy brige hatte mir schon im standard 10% mehr Auslastung geliefert alls ein OC X6 @4,2.
Ein AMD OC reicht eigentlich nur für eine Karte.

MFG
 
Also grob 13,5% mehr Takt geben dem X6 grob 7,8% mehr FPS...

Was aber bisschen wundert, gerechnet nach 1:1 Skallierung mit dem Takt als Basis den 3,7GHz Screen genommen müsste der X6 mit ~6,3GHz takten um den FPS Wert vom SB@5GHz zu packen. Andersrum aber als Basis den 4,2GHz X6 Wert genommen wären schon ~6,6GHz nötig.

Sieht also so aus, als skalliert in dem Fall der X6 eher ziemlich mau mit dem Takt und bei steigendem Takt ebbt die Leistungskurve immer weiter ab...
Das zeigt für mich deutlich, das ein Vergleich zwischen zwei Systemen ziemlich sinnfrei ist...
Denn das zeigt nicht, das hier viel GHz oder viel IPC nötig ist, sondern nur, das der X6 wohl scheinbar mit dem mehr Takt recht wenig anfangen kann... Die Frage wäre, ist das überall so? Kann das jemand bestätigen?
 
Ja bandbreite lässt den X6 sicher verhungern weil hoher NB takt haut richtig rein!
Beim SB ist CPU takt gleich NB takt daher soll er ja sehr gut scalieren aber wir schweifen wieder ab ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh