[Sammelthread] Skalierung aktueller SLI/CF Kombinationen mit verschiedenen CPUs/Taktung

So, also in diesem Thread soll es um die Leistungssteigerung bei verschiedenen CPU Takten und verschiedenen CPU Modellen in Verbindung mit aktueller GPU Technik in SLI/CF Verbünden gehen.
Ein paar User meldeten sich zu Wort und brachten ein paar interessante Ergebnisse zu tage.

Demnach soll ein X6 Thuban mit 4,2GHz gepaart mit einem HD6970 CF in BFBC2 gerade mal um die 70FPS liefern.
Im Vergleich dazu schafft der X6 mit 3,7GHz und gleichem Rest um die 65FPS.

Ein SB@5GHz bringt es mit gleichen Karten hingegen auf 110FPS.

Interessant ist weiterhin die GPU Auslastungsanzeige vom Rivatuner/Afterburner/GPU-Z... Denn diese bescheinigt dem Intel System trotz gleicher Karten wohl eine deutlich höhere GPU Auslastung als dem X6 AMD System.


Da ich das ganze Thema so nicht ganz glauben mag/dem ganzen so nicht ganz vertraue und die Diskusion an ihrem damaligen Platz "leicht" OT war, hier nun ein Sammelthread für die Diskusion.
Ich hoffe auf rege Beiteiligung verschiedener Tester/Systeme um möglichst gute Vergleiche erzielen zu könnnen ;)
In diesem Sinne ;)
 
Zuletzt bearbeitet:
SLI/CF wan lohnt sich das wenn man so bedenkt eigentlich nie wenn man wirklich in Hohen Auflösungen Spielt.

Dank Powerplay habe ich zum erstem mal in Downsampling BC2 gespielt in eine sehr hohen Auflösung und ich muss sagen einfach Genial FPS wahren 50-60 FPS und ein Bildqualität einfach :love:

Im zukukunft werde ich meine Spiele nur noch mit Dowsampling Spielen :bigok:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
DS gleicht der Keule und beugt Texturealiasing nur bedingt vor. Ist also nicht als die Lösung zu sehen (vor allem nicht wenn flimmer-content vorliegt). Die beste Kombination entsteht bspw. durch 16S+DS. (Alpha-)Texturen, sowie Kanten werden sinnvoll geglättet und die extreme Auflösung vermeidet blur was hin und wieder bei bestimmten bits mit SGSSAA vorkommt (besonders die Standardbits neigen häufig zu blur).

Beispiel Portal 2:



Unten sieht man sehr gut die Alpha-Textur mit sehr gut erhaltener Struktur, trotz ungünsitigem Winkel und das oben eingekreiste Zeigt Glättung von Kanten.

LG Hübie

Edit: Juhu endlich heisst es "Skalierung" statt "Skallierung" :d
 
Zuletzt bearbeitet:
Das könnte ich bei den hier gezeigten fps aber auch sagen, eben in anderer Richtung :)
Ein bisschen relativieren sollte schon erlaubt sein. Das gebietet die Sinnfrage automatisch, egal in welcher Richtung jetzt.

Mich würde so ein Vergleich mal eher in einem realistischeren Setting interessieren. Sprich, wohin schiebe ich das CPU-Limit mit SLI? Bei welchen Einstellungen tritt hier ein Wechsel von vorrangig cpu-limitiert zu vorrangig gpu-limitiert ein (denn nur in diesem Bereich lohnt sich das SLI dann auch wirklich imo)?

Neja, wie schon angesprochen... Was ist realistisch?
Ich spiele in meinem Fall in 1680x1050. Und lege auch gern mal SSAA an, sofern es geht. Mit einer 470GTX kommt man in FPS Regionen, wo dies schwer wird. Also musste SLI ran... Und klar kann ich nun die BQ so hoch schrauben, das am Ende gerade so 30FPS bei rum kommen... Aber warum sollte ich das tun?
Ich für meinen Teil sehe deutliche unterschiede im Spielfluss zwischen 30 und 60FPS im Schnitt. Bin gar mittlerweile geneigt über 60FPS zu zocken weil man Framedrops schwerer wahrnimmt...

Des weiteren war ich letztes WE überrascht wie man beispielsweise in Portal 2 oder TF2 (beides wohl mit der GPU Power deutlich im CPU Limit) Framedrops von 300 FPS auf 200 FPS merkt... (was mir so drastisch vorher nicht bewusst war)
Und wenn ich für mich nun den Framedrop durch hohe CPU Frequenzen so klein wie möglich halten kann, so hat sich für mich die Investition schon gelohnt.
Es sollte grundsätzlich hier um den Grundsatz gehen... Nicht um best practice Betrachtungen. Da brauch ich nicht Settings verwenden, die eine CPU gut dastehen lassen. Da wird getestet, wie es grade kommt... Und das Ergebnis wandert in den Vergleich.
 


Das war diese Auflösung und ich dachte unter Win7 Downsampling geht nicht.
 
Zuletzt bearbeitet:
Wer erzählt das? :) DS geht auch unter W7. Mein Screenshot wurde mit 3360x2100@1680x1050 gemacht. Einfach im NVCP custom resolution kreieren und fertig.

@fdsonne: framedrops von MGPU-Systemen nimmt man öfters wahr. Das ist jedenfalls meine Erfahrung mit vielen Jahren CFX. Egal ob von 60 auf 30 oder 300 auf 200.
Ich denke das auch der Monitor eine nicht unerhebliche Rolle spielt.

LG Hübie
 
@fdsonne: framedrops von MGPU-Systemen nimmt man öfters wahr. Das ist jedenfalls meine Erfahrung mit vielen Jahren CFX. Egal ob von 60 auf 30 oder 300 auf 200.
Ich denke das auch der Monitor eine nicht unerhebliche Rolle spielt.

LG Hübie

Das angesprochene bezieht sich logisch auf MGPU Gespanne...
Da ich mit den beiden 470GTXen nicht mein erstes MGPU Setup fahre, hat es mich dennoch verwundert ;)
Denoch spiele ich auch bei ner Single GPU lieber 60FPS als in 30FPS... Der Spielfluss wirkt einfach flüssiger...
 
Neja, wie schon angesprochen... Was ist realistisch?
Ich spiele in meinem Fall in 1680x1050. Und lege auch gern mal SSAA an, sofern es geht. Mit einer 470GTX kommt man in FPS Regionen, wo dies schwer wird. Also musste SLI ran... Und klar kann ich nun die BQ so hoch schrauben, das am Ende gerade so 30FPS bei rum kommen... Aber warum sollte ich das tun?
Ich für meinen Teil sehe deutliche unterschiede im Spielfluss zwischen 30 und 60FPS im Schnitt. Bin gar mittlerweile geneigt über 60FPS zu zocken weil man Framedrops schwerer wahrnimmt...

Des weiteren war ich letztes WE überrascht wie man beispielsweise in Portal 2 oder TF2 (beides wohl mit der GPU Power deutlich im CPU Limit) Framedrops von 300 FPS auf 200 FPS merkt... (was mir so drastisch vorher nicht bewusst war)
Und wenn ich für mich nun den Framedrop durch hohe CPU Frequenzen so klein wie möglich halten kann, so hat sich für mich die Investition schon gelohnt.
Es sollte grundsätzlich hier um den Grundsatz gehen... Nicht um best practice Betrachtungen. Da brauch ich nicht Settings verwenden, die eine CPU gut dastehen lassen. Da wird getestet, wie es grade kommt... Und das Ergebnis wandert in den Vergleich.

Endlich ! Das sage ich schon so lange !! Je flüssiger je besser ! Leute die behaupten ab 30 fps sieht man keinen Unterschied mehr weil das menschl. Auge nicht mehr wahrnehmen kann habens nicht kapiert imho.
 
Edit: Lade dir mal die latency.exe und vergleiche PhenomII und Core i5/7.
Werd ich machen, thx für die Links. :bigok:
Grundsätzlich zwar richtig, aber hier nicht Thema... Wie gesagt, sinnhaftigkeits Fragen wollen wir hier nicht durchkauen...
Halt, das kam jetz evt. falsch rüber! Mir ging es jetzt eher um die Metrik, also ab wann es "flüssig" empfunden wird.
Mit 30FPS (im Schnitt) bin ich auch nicht glücklich, das sollte dann auch mindestens rauskommen.
Die Metrik von Guru3D ist in Ordnung finde ich (mit einem 60Hz Monitor):

<30 FPS very limited gameplay
30-40 FPS average yet very playable
40-60 FPS good gameplay
>60 FPS best possible gameplay


Dein zweites Bild zeigt aber auch deutlich weniger Details vom Bild. Es sind viel größere einheitliche Flächen zu sehen. Klar das dort die FPS steigen.
Schau mal auf den Boden und guck dir die FPS an... Die rasen auf einmal nach oben. Und die GPU Auslastung wird unter umständen auch geringer...
Klingt zwar logisch, würde ich so auch bestätigen, aber praktisch trifft das nur Teilweiße zu.

Die FPS steigen zwar nochmal an, wenn man nach oben schaut (weniger LOD) aber die GPU Auslastung steigt auch. :fresse:
Alle Bilder wurden mit standard Einstellungen des System gemacht, also FHD (1920x1080p) mit einer AMD CPU benötigt für 60FPS+ SLI/CF.
Das CF etwas mehr CPU leistung braucht, ist mir auch bekannt.

MfG
 
Zuletzt bearbeitet:
Christoph0815 schrieb:
Endlich ! Das sage ich schon so lange !! Je flüssiger je besser ! Leute die behaupten ab 30 fps sieht man keinen Unterschied mehr weil das menschl. Auge nicht mehr wahrnehmen kann habens nicht kapiert imho.

Nur das das niemand behauptet hat, die Rede war von 50 bis 60 FPS.
Und die braucht man auch um flüssig zu zocken, die CPU Leistung muss für ein flüssiges Spielgefühl mit einer GPU reichen, ansonsten macht die zweite wenig Sinn.
Nur man muss das ganze etwas relativieren. FPS drops von 300 auf 200 merkt man sicherlich nicht, da muss schon was anderes limitiert haben, aber sicherlich nicht die GPU oder die CPU, da hat halt das Spiel gehakt.

Aber genug mit der Sinnhaftigkeitsdiskussion.
 
Ich finde erst ab 60FPS fühlt es sich gut spielbar an, zumindest bei einem monitor mit 60Hz und wenn es dann auf 50FPS dropt mekr ich das meistens! Am besten ist es wenn man immer so viel FPS im minimum hat wie der Monitor an Hz angesprochen wird!
Sprich 60Hz min 60FPS
 
NFPS drops von 300 auf 200 merkt man sicherlich nicht, da muss schon was anderes limitiert haben, aber sicherlich nicht die GPU oder die CPU, da hat halt das Spiel gehakt.

Aber genug mit der Sinnhaftigkeitsdiskussion.

Wenn ich oben schreibe, das mir FPS Drops von 300 auf 200 FPS in TF2 und P2 letztes WE aufgefallen sind, wie kommst du da auf die Aussage, das merkt man nicht? :rolleyes:

Anstatt hier nur im Ansatz alles zu kritisieren, bring doch wenigstens auch ein paar sinnvolle Sachen zum Thema...
 
Wieder ein sehr schöner Bericht bei Tomshardware drin mit schöner Zusammenfassung:

CrossfireX mit 2 Karten

Sicher, die messbaren mittleren Frameraten stehen in einem guten Verhältnis zum Preis, nur wirklich Anschauen mag man sich viele Spiele dann doch nicht. Wenn selbst im Bereich von weit über 50 fps noch Ruckler so deutlich hervortreten, dass man fast schon an Nachladeruckler glaubt, dann muss man die Relationen verschieben. Eine Frage kann man getrost mit Nein beantworten: es lohnt nicht wirklich, jetzt eine preiswerte Karte zu kaufen und später bei Bedarf eine weitere nachzurüsten. Die gewonnen Frames pro Sekunde sind fast durchgehend mit Mikrorucklern durchsetzt, so dass ein wirklicher Spielgenuss auf höchstem Niveau nicht gegeben ist. Die Karten unterhalb der Radeon HD 6950 sind für ein CrossfireX mit nur 2 Karten kaum geeignet. Auch wenn die Werte schön anzuschauen sind, es ruckelt mit abnehmender GPU-Leistung immer heftiger.

Man muss fairerweise ergänzen, dass nicht jeder subjektiv gleich auf zeitversetzte Framefolgen reagiert und auch so mancher billige TFT hilft unbewusst beim "Verschmieren" der Frames. Trotz allem hat AMD noch einen gewaltigen Berg Arbeit vor sich, wenn man auf dem Dual-GPU-Sektor wirklich punkten möchte.

SLI
Nvidia zeigt wie es gehen könnte, ist aber auch noch lange nicht im Land der Träume angelangt. Immerhin, zumindest die SLI-Kombinationen der stärkeren Karten machen stellenweise richtig Spaß, auch wenn uns das sporadisch auftretende Ruckeln immer wieder auf den Boden der Realität zurück holt. Karten wie die GTX 550 Ti sind für ein SLI planlos. Schöne Frameraten in den Charts, böse Mikroruckler in der Realität. Das Geld könnte man auch aus dem Fenster werfen.

Hier der Bericht:

AMD Crossfire vs. Nvidia SLI - Mikroruckler, Kernskalierung und Nutzen : Einführung und Übersicht
 
sehr interessant... Bei drei GPUs scheint in Sachen MR deutlich was passiert zu sein. Die Preisfrage bleibt, wieso nur bei drei?
 
Das war auch das was mich so verwundert hat. Wirklich ein sehr schöner Bericht. Da drei Grakas auf die Effizienz bezogen jenseits von Gut und Böse für mich sind, warte ich dann noch lieber die neuen Generationen der beiden Hersteller ab und hol mir dann wieder eines der Flagschiffe.
 
Was in der Betrachtung fehlt, sind irgendwie SLI Gespanne mit zwei Single GPUs im Vergleich.
Auch in 30FPS merke ich keine nennenswerten Stocker, obwohl wie man dort sieht diese auch bei SLI gegeben sein müssten.

Ansich ist der Test schon gelungen. Ich finde das Fazit aber etwas extrem... Denn es buttert quasi AMD in dem Fall total runter. Und auf einmal ist das wundersame MR "verschwinden" bei drei und mehr GPUs auch nicht mehr Thema... Weiter oben erwähnt man noch, das SLI der 590er schlechter als das der drei AMD Kerne ist, weil mehr MR und weniger Leistung und dabei noch teurer, unten fehlt das aber in der Schlussbetrachtung. Neja sei es drum... Drei GPUs kommen für die meisten wohl sowieso nicht in Frage...
 
ich schaue momentan nach ner 2. gtx 580 amp! für ein SLI, bin mal gespannt wie sich das macht - mein letztes Gespann waren 2 hd4850 und das ist schon ne weile her...

lg marti
 
Ich habe mein 570er Gespann wieder aufgelöst ,hat eigentlich super skaliert nur ich habe bei Egoshootern. Immer das Gefühl gehabt das sie unruhiger laufen als mit einer Single GPU


Sent from my iPhone4
 
Schlussbemerkung


Eines haben wir auch gelernt: je stärker die gekoppelten Karten sind, um so geringer spürt man die Nebenwirkungen, was leider die Sensation von zwei überragenden Billigkarten derzeit komplett ausschließt. Crossfire und SLI lohnen sich wirklich erst ab der Mittelklasse aufwärts,



Zwei GTX570
Zwei GTX580

Zwei 6950
Zwei 6970

ist für SLI/CF geeignet alles andere wäre sinnlos oder verstehe ich etwas falsch, gut das díe meisten User hier mit Highend karten SLI/CF ihre Systeme betreiben.
Jetzt mal im ernst ich merke wirklich nicht diesen Microruckler. Kann ein Menschliche Auge überhaubt so etwas wahrnehmen ich kanns mir irgend wie nicht vorstellen.
 
Zuletzt bearbeitet:
Gute Frage ,ich zähle wohl zu den Menschen die irgendwas warnehmen ,aber nur bei Egoshootern ,bei Strategie Spiele merke ich überhaupt nichts ,naja the Next Generation is comming ,dann ein neuer Versuch mit sli oder cf


Sent from my iPhone4
 
In Games ansich merk ich das idR auch weniger... Aber ich hab gestern mal Heaven 2.5 angeschmissen, für nen anderen Test... Und das ist richtig übel. Die Frametimes bestätigten dies auch ;)
 
Das mit Microrukler wird so über bewertet und hoch gepusht von den Redaktionen das ist schon sehr Krass und wiederum machen Sie dicke Werbung für SLI/CF in ihre Zeitschriften mit Benchmarks.

Ich habe das Gefühl, das diese Redakteure keinen neuen Stoff haben zu Schreiben und aus dem Grund immer wieder diesen Thema Microrukler hoch pushen.

AMD oder NV die haben sehr viel Arbeit geleistet finde ich in Dual GPU Lösung und wenn wir uns ehrlich sind es funktioniert fast jedes Spiel und wenn nicht wird ein update schnellst möglichst nach gereicht.

Ich habe bis gestern in BC2 immer ein Ruckler gehabt wenn ich ins Spiel gejoint bin das wahren richtige lag hat meisten so 5 sekunden gedauert im Spiel und ich dachte immer das kommt vom treiber. Puste Kuchen habe Punkbuster update durch gezogen und diese problem ist verschwunden das war ein Tip von Powerplay.

Es liegt nicht immer an einem System oder am Treiber oder an einem defekten Hardware.
 
Es kommt halt immer auf die Person an. Ich merke bei den meisten Spielen unter 40fps die Mikroruckler deutlich. Mit Hochpushen hat das nichts zu tun, das ist ein echtes Problem. Wenn man es nicht bemerkt, kann man sich glücklich schätzen - das heißt aber nicht, dass das für alle gilt.
 
Ich finde erst ab 60FPS fühlt es sich gut spielbar an, zumindest bei einem monitor mit 60Hz und wenn es dann auf 50FPS dropt mekr ich das meistens! Am besten ist es wenn man immer so viel FPS im minimum hat wie der Monitor an Hz angesprochen wird!
Sprich 60Hz min 60FPS
Das ist dann aber bescheiden, denn alles über 60FPS wird ja nicht vom Monitor dargestellt, auch wenn es flüssiger wirkt, fehlen dann ein paar Bilder.
Unter Umstände entsteht so ein Stroboskope Effekt (wie in einer Disco)
Wenn ich oben schreibe, das mir FPS Drops von 300 auf 200 FPS in TF2 und P2 letztes WE aufgefallen sind, wie kommst du da auf die Aussage, das merkt man nicht? :rolleyes:
100FPS weniger sind wohl deutlich stärker spürbar als "nur" 10FPS Drops.
Ist eigentlich auch logisch, denn ínnerhalb von 100 Bildern ändert sich mehr als bei 10FPS -> Extremer Stroboskope Effekt.
Wieder ein sehr schöner Bericht bei Tomshardware drin mit schöner Zusammenfassung:

Man muss fairerweise ergänzen, dass nicht jeder subjektiv gleich auf zeitversetzte Framefolgen reagiert und auch so mancher billige TFT hilft unbewusst beim "Verschmieren" der Frames. Trotz allem hat AMD noch einen gewaltigen Berg Arbeit vor sich, wenn man auf dem Dual-GPU-Sektor wirklich punkten möchte.

SLI
Nvidia zeigt wie es gehen könnte, ist aber auch noch lange nicht im Land der Träume angelangt. Immerhin, zumindest die SLI-Kombinationen der stärkeren Karten machen stellenweise richtig Spaß, auch wenn uns das sporadisch auftretende Ruckeln immer wieder auf den Boden der Realität zurück holt. Karten wie die GTX 550 Ti sind für ein SLI planlos. Schöne Frameraten in den Charts, böse Mikroruckler in der Realität. Das Geld könnte man auch aus dem Fenster werfen.

Hier der Bericht:

AMD Crossfire vs. Nvidia SLI - Mikroruckler, Kernskalierung und Nutzen : Einführung und Übersicht
Naja, es ist nicht alles eindeutig bei dem Test, z.B. 3DM11 mit 640x480 obwohl beim Testsystem angegeben wird das auf kleine Auflösungen verzichtet wird.
Es fehlen auch die genauen Angaben, welche Einstellungen genutzt wurden bei 3DM11.

Die Verbrauchsermittlung wird beim Testsystem so angegeben: Prime 95 + Furmark.
Bei der Tabelle steht aber "3D Perlin Noise" und wieder fehlen die genauen Angaben ob es jetzt mit CPU (idle/last) oder ohne also nur GPU Last gemessen wurde. :fresse:
 
Das ist dann aber bescheiden, denn alles über 60FPS wird ja nicht vom Monitor dargestellt, auch wenn es flüssiger wirkt, fehlen dann ein paar Bilder.
Unter Umstände entsteht so ein Stroboskope Effekt (wie in einer Disco)
Wie kommst du darauf?
FPS ungleich Hz Anzahl...

100FPS weniger sind wohl deutlich stärker spürbar als "nur" 10FPS Drops.
Ist eigentlich auch logisch, denn ínnerhalb von 100 Bildern ändert sich mehr als bei 10FPS -> Extremer Stroboskope Effekt.
Dennoch sind 30 vs. 60 100% FPS Einbußen und 200 vs. 300 prozentual nicht so viel. ;)
Und ja, auch nur 10FPS drops merkt man... Und das deutlicher als bei 300 vs. 200.
 
Der Tom´s Test ist etwas eigenartig.
Bei der 6950/6970 & 570/580 Karten nimmt der Verbrauch von Single zu CF bzw. SLI abartig zu. Zwei 6950 sollen mehr als eine 6990 mit dem OC Bios brauchen? Und ein 6970 soll nur 4W mehr als ein 6950 CF Gespann brauchen?
 
Wie kommst du darauf?
FPS ungleich Hz Anzahl...
Nunja, es gibt ja auch V-Sync, das wird ja nicht zum Spaß im Treiber integriert.
Damit verhindert man, dass sich 2 Bilder überschneiden auf dem Monitor.
Die Hz des Monitor = maximal darstellbare Bilder pro Sekunde (progressive).

Dennoch sind 30 vs. 60 100% FPS Einbußen und 200 vs. 300 prozentual nicht so viel. ;)
Und ja, auch nur 10FPS drops merkt man... Und das deutlicher als bei 300 vs. 200.
Also subjektiv merk ich selbst bei 15FPS keine Microruckler, solange es kein Drops sind sondern abfallende FPS.
Bei 200 vs. 300 bekommst du es mit einem 60Hz Monitor auch garnicht mit, solange es ausserhalb der 60 Bilder passiert die der Monitor darstellt.
Andernfalls kannst ein 360°! machen ohne das man es auf dem Monitor sieht. ;)

MfG
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh