[Sammelthread] Skalierung aktueller SLI/CF Kombinationen mit verschiedenen CPUs/Taktung

So, also in diesem Thread soll es um die Leistungssteigerung bei verschiedenen CPU Takten und verschiedenen CPU Modellen in Verbindung mit aktueller GPU Technik in SLI/CF Verbünden gehen.
Ein paar User meldeten sich zu Wort und brachten ein paar interessante Ergebnisse zu tage.

Demnach soll ein X6 Thuban mit 4,2GHz gepaart mit einem HD6970 CF in BFBC2 gerade mal um die 70FPS liefern.
Im Vergleich dazu schafft der X6 mit 3,7GHz und gleichem Rest um die 65FPS.

Ein SB@5GHz bringt es mit gleichen Karten hingegen auf 110FPS.

Interessant ist weiterhin die GPU Auslastungsanzeige vom Rivatuner/Afterburner/GPU-Z... Denn diese bescheinigt dem Intel System trotz gleicher Karten wohl eine deutlich höhere GPU Auslastung als dem X6 AMD System.


Da ich das ganze Thema so nicht ganz glauben mag/dem ganzen so nicht ganz vertraue und die Diskusion an ihrem damaligen Platz "leicht" OT war, hier nun ein Sammelthread für die Diskusion.
Ich hoffe auf rege Beiteiligung verschiedener Tester/Systeme um möglichst gute Vergleiche erzielen zu könnnen ;)
In diesem Sinne ;)
 
Zuletzt bearbeitet:
@fdsonne
Ja es war für mich eine ernüchternde Efahrung mit dem X6 Powerplay und ich haben Ca 7,2 GHZ er rechnet .
Das Geile mit dem Sandy ist das ich auch 4Fach AA machen kann und noch weitere FPS verbuchen kann da die Gpu Auslastung zwischen 85% bis 99% liegt.
Mit dem AMD ist sie dan bei 4AA sogar auf 46% runter.
Mit einer HD6970 X6 4,2 konnte ich bei 2 *AA kaum noch 99% GPU last halten teilweise runter auf 90%.

MFG
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mhhh aber so wirklich kann ich das gar nicht glauben, denn das sieht irgendwie wirklich extrem Mau aus, was da der X6 packt :(

Wobei natürlich das Thema AA in BFBC2 irgendwie ein heißes Eisen ist... Wir haben da im GPU Unterforum die ein oder andere Meldung das das AA sich etwas störrisch verhält. Und auf den Screens sieht man ja auch irgendwie, so wirklich wirkt das AA nicht. Das Gebäude gleich links vor der Nase und die Palme da sehen alles andere als nach 8xAA (MSAA??) aus...

Ich hab den Kollegen grad mal bescheid gegeben die Diskusion hier rauszuschieben... Bevor se ganz weg fliegt ;)
 
Ja aber diese ergebnisse kannste auch auf ander games übertragen aber Crysis und BFBC2 sind zwar jetzt extreme situationen aber solche situationen trifft man auch in anderen games an wenn man drauf achtet!
BFBC2 hat zwar AA aber da zu viele tranzparente texuren vorhanden sind greift es nicht voll es sei denn man nimmt SSAA was aber nur mit NV geht..
Deshalb berichten auch viele user das sie mit der GTX580@ BFBC2 mit SSAA keine FPS verlieren und das weil sie einfach ohne dieses feature die karte garnicht auslasten können!

@duplex
Jo das mag sein!
Wie viel bekommt der BD nochmal??
 
Also wenn ich mich richtig errinere hatte ich bei gleichem takt zum x6 so 15% pro GPU weniger auslastung als Thunderburne was schon deutlich weniger FPS bedeutete :(
 
Da ist dann ein BD Modul eh nur ein Dual mit 160% Leistung. Also theoretisch bei einem 4 Modul eine 6,4 Kerne CPU, manche erlauben sogar eine 7,2 Kerne CPU, also 180% :). Geht es aber dann um Vergleiche ist BD dann ein 200% dual pro Modul und somit natürlich eine 8 Kerne CPU.
Jo, sind 180%, 100+80. Im single thread Mode ist die single-thread Leistung zw. CMP uind CMT logischerweise gleich :asthanos:

Sorry, kann das klein gedruckte nur erraten, da es bei mir verschwommen ist.
Ok, ich konnte das eigentlich ganz gut sehen, also wie besagt, 3DMark, nicht der rede wert, und mittlerweile glaub ich eh, dass das Ganze ne Fälschung ist.
Ich werde schon mal langsam Geld bei Seite packen und auf den BD warten, dann die ersten User Benchmarks, OC Ergebnisse abwarten und wo sich die Preise einpendeln. Erst dann wird entschieden was in den Rechner kommt :)
Genau die richtige Strategie, erstmal abwarten, und schauen, was kommt :)
AMD`s konnte man noch nie so gut übertakten wie n Intel. Das war schon immer so. Denkste das wird sich jetzt schlagartig ändern oder was???:rolleyes:
Si claro, was denkst Du denn ? Dass es genauso miserabel bleibt, obwohl man den Herstellungsprozeß mit highK Interconnects versieht, schrumpft und auf eine komplett neue Architektur mit längeren Pipelines und simpleren ALUs setzt ??
Wenn sich OC nicht auch ändern würde, wärs ein mittleres Wundern. Nachdem Sandy sogar ne kürzere Pipeline bekommen hat (siehe ht4u Test), ist sogar mit 90% davon auszugehen, dass Bulldozer das bessere OC Verhalten haben wird. Wie weit kommt man denn mit Sandy ? Mit brachialen 1,5+V gerade mal auf 5 GHz (mit LuKü). Üblich sind 4,5 GHz Max. das schafften auch schon die guten Nehalems. Für 32nm nicht so prall. Vielleicht liegts an der GPU, vielleicht am LLC@full clock, wie auch immer, ich sehe SAndy nicht gerade als OC King. TOP Leistung gestehe ich gerne, aber TOP OC - ne.
Sry aber ich wünsche es mir sehr, dass der BD gut wird aber ich kanns mir mit dem Leistungsvorsprung von Intel nicht mehr vorstellen.
Ich schon :)
Warten wirs ab. Wenn das FrontEnd End so kommt, wie es patentiert ist, bin ich guten Mutes, das Ding wäre dann wirklich brachial ;-)
Aber ob es so kommt weiss man halt noch nicht sicher :(

J@duplex
Jo das mag sein!
Wie viel bekommt der BD nochmal??
8MB L2 plus 8MB L3, das sollte erstmal fürs Gröbste reichen ^^
Die 8x16kB L1D$ + 4x64kB L1I$ lassen wir bei solchen Größenordnungen mal locker hinten runterfallen ;-)
 
Ja dann bleibt nur noch abzuwarten was er an bendbreite umsetzen kann weil intel hat da schon gut vorgelegt was den speichercontroller angeht! Bin mal gespannt was AMD da zaubern kann!
vieleicht wäre es echt sinvoll so eine CPU mit Quadchannel zu bauen!

@opteron
unter wasser geht der SB schon sehr gut aber du bist ja anderes gewohnt mit hardcore mittel aber 5Ghz finde ich schon sehr sehr fett mit teilweise Luft!
Schau mal mein kumpel Thunderburne oben er hat keine 1,5V für 5Ghz sogar eher richtung 1,45
 
Ja das kann dann aber wohl nicht am Cache liegen...
Denn dein X4 Phenom II hat ja gleichsam 6MB L3 Cache wie der X6... Wenn die Anwendung mehr als vier Threads so plazieren kann, das die zwei zusätzlichen Cores vom X6 auch anständig was zu tun haben, (weis nicht ob das bei BFBC2 geht) dann muss das auch auf jedenfall mehr Leistung bringen...
 
Ja dann bleibt nur noch abzuwarten was er an bendbreite umsetzen kann weil intel hat da schon gut vorgelegt was den speichercontroller angeht! Bin mal gespannt was AMD da zaubern kann!
vieleicht wäre es echt sinvoll so eine CPU mit Quadchannel zu bauen!
Dass die NB verbessert wurde ist schon offiziell:
amdfa5.png

(Info an die Admins: Das ist photobucket, sowas wie abload, also kein Hotlink).

Quad Channel braucht man nicht, BD nützt erstmals dual DDR3 richtig aus, +30% "fore free" wg. des Kontrollers (wahrscheinlich wurden die Pfade von 64bit auf 128 aufgebohrt), dann nochmal +40% wg. offiziellem DDR3-1866 Modus (Die 20% der Folie beziehen sich auf 1600, Ausgangsbasis ist DDR3-1333). Wenn das nicht reicht, weiss ich auch nicht.

ciao

Alex
 
Ja das kann dann aber wohl nicht am Cache liegen...
Denn dein X4 Phenom II hat ja gleichsam 6MB L3 Cache wie der X6... Wenn die Anwendung mehr als vier Threads so plazieren kann, das die zwei zusätzlichen Cores vom X6 auch anständig was zu tun haben, (weis nicht ob das bei BFBC2 geht) dann muss das auch auf jedenfall mehr Leistung bringen...

Ja aber die kerne werden bei ihm wohl schon besser angesprochen aber ein kern liegt dabei fast immer so bei 95-100% quasi der Masterthread wie es so schön beschrieben wurde!

@Opteron
ja nur wenn ich mir meine bandbreite ansehe die mit DDR1600 CL7 1T bei ca. 10.000MB liegt was kommt dann dabei rum wenn der BD nun da ein paar prozente schneller ist??
Der I7 2600K packt da mit DDR1333 schon 18.000MB/s und mit OC nochmal deutlich mehr!
 
An die Bencher hier, wie sieht das denn mit der Auflösung aus.

Wenn ein X6 bei 70FPS zumachen, kann man dann quasi dafür an der Auflösung, Quali, etc schrauben um quasi die brachliegende Leistung der GPUs zu nutzen?

Bin selber nicht so der Spieler, daher die Frage, wie sich das in diese Richtung verhält.
 
Ja aber die kerne werden bei ihm wohl schon besser angesprochen aber ein kern liegt dabei fast immer so bei 95-100% quasi der Masterthread wie es so schön beschrieben wurde!

Was heist der Master Thread!?
Das ganze lässt sich so nicht ohne weiteres erörtern... Denn der Windows Taskmanager ist mal grottig was die Auslastungsanzeige angeht ;)

Was sagt denn der Prozessexplorer mit dem direkten Fenster auf den Task?
Sprich wie sind dort die CPU Kerne ausgelastet?

Ein weiteres Problem was ich dabei sehe, Windows selbst schubst die Threads quasi direkt von Kern zu Kern.

Windows verteilt trotz vermeintlicher SingleThread Anwendung halbwegs brauchbar die Last auf beide Kerne gleich. (möchte man meinen)
Aber das besagt nicht eine halbe Auslastung beider Cores sondern in grob 50% von Zeit ist liegt Last auf den Cores ;) Und das ist der Punkt andem normale Tools nix mehr sichbar machen von dem Thema... Denn das Ergebniss wird verfälscht ;)

An die Bencher hier, wie sieht das denn mit der Auflösung aus.

Wenn ein X6 bei 70FPS zumachen, kann man dann quasi dafür an der Auflösung, Quali, etc schrauben um quasi die brachliegende Leistung der GPUs zu nutzen?

Bin selber nicht so der Spieler, daher die Frage, wie sich das in diese Richtung verhält.

Normal sollte das gehen... Aber gerade beidem Beispiel BFBC2 scheint die GPU Leistung der beiden Karten so stark zu sein, das der X6 da absolut nicht nachkommt.
Vllt wäre Downsampling ne Möglichkeit, sprich vierfache Auflösung, dann erübricht sich auch das Thema AA ;)
Leider so mit AMD Karten nicht immer anwendbar...

Ein "Masterthread" wird - speziell bei einem Spiel - versuchen nicht zu bremsen, sondern einen optimalen "Flow" aufrecht zu erhalten. Speziell auch dann wenn er so programmiert wurde, daß das Spiel auf unterschiedlich leistungsfähigen Plattformen läuft. Das läuft (vereinfacht) so ab:
Die gesamten Bildausgabe-Berechnungen (Szenen, Objekte, Bewegungen) wird die CPU dem GPU-Subsystem überlassen - aber erst nachdem sie diesem übermittelt hat, was dargestellt werden soll - und wie. Vereinfacht gesagt: die Perspektive, sich verändernd von rechts --> links, oben --> unten, Zoom hinein oder hinaus, Geschoss-Flugbahnen - und mit welcher Geschwindigkeit, etc. All' diese vom Benutzer verursachten "Echtzeit-Ereignisse" muß die CPU verarbeiten und als verwertbare Parameter "weiterreichen", das Rendering mit seinen parallel prozessierbaren Aufgaben übernimmt dann die GPU alleine. Kommen noch zusätzliche Bildoptimierungsaufgaben wie PhysX hinzu, so kann es sein, daß die CPU auch diese mit übernehmen muß.

Somit wird klar, daß speziell "Action-geladene" Spiele sich nicht durch eine sehr gleichmäßige Auslastung aller CPU-Kerne auszeichnen können - hier geht es um ständig wechselnde 'ad hoc' Anforderungen. Wenn man also sein Spiele-Portfolio daraufhin prüft, auf welche Hardwareplattform es optimiert wurde, kann man auch (einigermaßen) beurteilen, auf welcher Plattform es ohne nennenswerte Einschränkungen gut läuft, und welche ggf. "Overkill" ist.

Das Problem ist aber, das was du beschreibst lässt sich 1A via Multithreading verteilen... Denn es sind alles Objekte, welche die gleiche Basis haben (nämlich so wie es war, bevor der aktuelle Frame berechnet wurde) und die Berechnungen enden alle damit, wenn das Bild quasi fertig zur Weitergabe an die GPU(s) ist.
Du kannst beispielsweise die ganzen von dir genannten Sachen gleichzeitig abfertigen.
Das ist definitiv nicht das Problem.
Das Problem wird eher die stark unterschiedliche Menge der Berechnungen verschiedener Objekte sein.
Will ich beispielsweise realistische Physik auf der CPU haben, so habe ich die gleiche Basis, aber ein heiden Aufwand für ein einziges Objekt. Und je nach Aufwand der Berechnung für dieses Objekt kann die Berechnung sogar extrem lange dauern. Das gleiche gilt für die KI.
Das ganze kann man kompensieren indem man anstat jedes Objekt nacheinander einfach viele Objekte gleichzeitig berechnet. Was wiederum nur klappt wenn auch viele Objekte auf dem Schirm sein sollen.

Punkt zwei ist, im CF/SLI mit aktuell dem Rendermodus AFR macht sich die Sache noch einfacher. Denn ich habe Basis x und errechne daraus Bild A und Bild B. Das heist ich kann 1A zwei (Master) Threads erzeugen, welche dann wiederum ihre jeweiligen Unterberechnungen in verschiedenen weiteren Threads ausführen. Da vollkommen unabhängig von einander.
 
Zuletzt bearbeitet:
@fdsonne
meinste das so anhand meines beispiel mit BFBC2@ eine HD6970??


Ich habe auch schon Downsamplinge gemacht

und es bei crysis auch geschafft die auslastung halbwegs in richtung 90% zu befördern!
Problem bei Downsampling bei AMD ist das man ein extra tool braucht wodurch man auch mal im multiplayer gebannt werden kann!

Das ganze kann man da quasie so sehen:
Also wenn ich z.b. ein game zocke wo die FPS auf grund zu schwacher CPU auf 40FPS einbricht aber auch die auslastung der GPU luft für mehr FPS zulässt (z.B. 65%) muss man dann die qualitäts einstellungen so setzen das man konstant die 40FPS erreicht und schon wird man eigentlich nie mehr ins CPU limit fallen oder eben nur kurz davor liegen!
Das problem an der sache ist eben was soll man machen wenn man einen fullHD monitor hat und schon alles ausgeschöpft hat was das game an qualität liefern kann und man denoch am limit der cpu hängt??
Da hilft dann nur noch eine stärkere CPU oder downsampling!
Wer allerdings mehr FPS haben will da man grade die bösen MR nicht haben will @ SLI/CF wird dann nur eine Extrem starke CPU verbauen müssen!

Mein tip für leute die am überlegen sind ob sie sich MGPU oder auch ne große mächtige Single GPU kaufen sollen, die sollten erstmal mit MSI Afterburner prüfen ob sie nicht jetzt schon mit ihrer config im CPU limit kleben weil dann ersparen sie sich meine erfahrung das man kaum mehr FPS bekommt!!
Faustregel für mich (MGPU) ein Grafikkarte einbauen sein Spiel testen und dabei die GPU auslastung ansehen ist sie immer bei 99% angenagelt, einfach mit dem CPU takt runter gehen bis man sieht das die auslastung auch mal unter 99% (konstant ~95%) fällt dann kann man von diesem takt aus sagen nun brauche ich doppelten takt bei zwei karten um sicher zu sein das die leistung reicht!
Bei einer karte die durch eine stärkere ersätzt werden soll das gleiche spiel, dann einmal laut testberichte mit seiner karte in extrem settings (1920x1080 8xAA 16xAF oder auch 2500x1600) auf seiten wie HWL vergleichen und die mehr performence in prozent auf den CPU takt klatschen und man weiß welchen takt man braucht und ob das auch machbar ist weil wenn nicht---> Schnellerer CPU erforderlich!
 
Zuletzt bearbeitet:
Naja eingetlich ist das Problem hier schon klar, die Spiele haben zur Zeit einfach eine schlechte Multicore unterstützung wodurch die Leistung pro Kern viel wichtiger ist als die Gesamtleistung. Deswegen steht AMD so schlecht da wenn es um Spiele geht da sie eine erheblich geringere Leistung pro Kern haben und die viele Kerne machen in dem Spiel so gut wie nichts. Es ist fast immer so dass 1 Kern stark ausgelastet wird un die anderen nur wenig. Würde man endlich mal Spiele mit guten Multicore unterstützung bringen brächte man auch keine 5ghz SB-s für eine ausreichende CPU Leistung.
 
Es sollte ja auch nicht das Ziel sein die Gpus nur durch downsampling Auszulasten natürlich funzt das auch.
Ich werde noch mal mit Powerplay sprechen heute Nacht auf Arbeit.
Werden ein Paar Spiele mit einander vergleichen bei selben Cpu Takt und hier die Screen dann hoch laden.
Er hatt ja die selben Karten wie ich.
 
@Powerplay
ne nimm mal den Prozess Explorer von Microsoft (gibts seperat zum Download)
Dann startest die Anwendung/das Spiel, switcht kurz auf den Desktop, machst das Teil auf und suchst in der Liste die exe raus. Zu dieser lässt du dir dann die Detailansicht anzeigen... Und dort siehst du auch, was die Anwendung macht.
Dazu am besten gleichsam das Gesamtauslastungsfenster anzeigen.

Problem ist halt, das lässt sich nicht in ein OSD integrieren, sprich für die Analyse ist der zweite Monitor pflicht, oder man muss immer hin und her switchen... -> sehr umständlich.



Wobei zum letzten was du geschrieben hast, ich kann das so nicht ganz unterschreiben...
Ich hab meine Workstation wie in der Sig nun was die CPUs angeht seit Jan. 2007. Ich habe damals mit Leistungsregionen der X1950Pro auf der Kiste angefangen. Und bin nun bei Leistungsregionen einer 480GTX angelangt. Das sind Welten.
Im Moment habe ich auch GPU Auslastungen von teils nicht annähernd 100%.
Was aber wirklich entgegen deiner These ist, die Leistungsteigerung bei mir ist immer bis jetzt so, wie sie sein soll. Sprich der Umstieg von HD4870 512MB zur 465@470GTX@OC auf 480GTX Level bringt im Groben über die Games gesehen das an Mehrleistung, was auch Tests und Benches mit deutlich schnelleren CPUs bescheinigen...
Und eine damalige Test HD4870X2 (liegt ja in ähnlichen Leistungsregionen) schaffte in den richtigen Settings auch 2x99% GPU Auslastung. Und auch nicht groß andere FPS.


@LD
auch hier muss ich nochmal nachhaken, meine Erfahrungen zeigen bis jetzt immer eine Auslastung von halbwegs gleich auf allen CPUs. Vllt mal mehr mal weniger. Wie im Beispielbild oben treffe ich bei mir sogut wie nie an. Und ich habe immer mindestens den Taskmanager auf dem zweiten Schirm mitlaufen.
Sprich eine Anwendung am Anschlag eines Cores und der Rest irgendwo zwischendrin ist extremst selten bei mir... Warum auch immer...

Es sollte ja auch nicht das Ziel sein die Gpus nur durch downsampling Auszulasten natürlich funzt das auch.
Ich werde noch mal mit Powerplay sprechen heute Nacht auf Arbeit.
Werden ein Paar Spiele mit einander vergleichen bei selben Cpu Takt und hier die Screen dann hoch laden.
Er hatt ja die selben Karten wie ich.

Wenn ihr da nochmal ran geht, bitte wirklich mal mit Stock Takt + OC testen... Mich würde extrem stark interessieren, wie sich da die Ergebnisse verhalten.

Vllt habt ihr auch ein paar Vergleichssavegames, damit auch andere mal mittesten können!?
 
Zuletzt bearbeitet:
Just Cause 2,Crysis, BLACK ops ,BC Vietnam hätte ich noch hier.
Metro werde ich mir noch zu legen.
So jetzt aber gleich mal husch husch in die Nacht Schicht.
 
Zuletzt bearbeitet:
CoD:BO könnte ich denke ich auch besorgen... Crysis auch. Metro müsst ich schauen. Den Rest hab ich net.
 
Ja sicher man bekommt eine steigerung der leistung aber nicht in dem ausmass wie die GPU eigentlich loslegen könnte!
Deshalb könnte man mit einer etwas schlechteren GPU annähert die gleiche werte erzielen!
 
Zuletzt bearbeitet:
Ja sicher man bekommt eine steigerung der leistung aber nicht in dem ausmass wie die GPU eigentlich loslegen könnte!
Deshalb könnte man mit einer etwas schlechteren GPU annähert die gleiche werte erzielen!

Das wäre eben genau die Frage die mich interessiert...
Denn wie gesagt, ich fahre aktuell mit 4 Jahre alter 65nm Intel Technik und habe so keine Einschränkungen festgestellt... Die GPU Leistung ist in dem Maß gestiegen, wie man es von einem Umstieg von 4870 auf 480GTX Niveau erwarten durfte... Mal etwas mehr, mal etwas weniger.
 
Es finden sich sicher noch weiter Forenmitglieder die Zusammen gegen testen können auch.
Gerade für Nutzer mit AMD Systemen und Duall Grafik Lösungen sollte das ein Interessanter thread werden.
Downsampling würde ich aber hier nicht mit ein beziehn sondern 8 msaa.
Bei Single Grafikkarten 2*MSAA da sieht man dann auch ehr was mit der Auslastung ist.
Das sind so die Gebräuchlisten Settings bei Dual Gpu und Single bei Full HD.
Bei einer Karte möchte man ja oft mehr Fps haben.
Das geben die meisten Spiele ja auch her sonst verwischt das das ganze mit der Skalierung zu sehr.
Die Bilder von mir oben sind von der Map OASE auf seiten der Alierten vom Startpunkt aus.
 
Zuletzt bearbeitet:
Ja kommt auch stark auf die jeweiligen scenarien an aber wir werden versuchen noch einiges nach zu liefern ;) So erstmal Nachtschicht :(
 
Hi, habe einen X4 mit 4ghz und zwei 6950@6970@910/1440 und kann das mit bfbc2 bestätigen. Wenn ich meine CPU auf 4,2 ghz übertakte und dann mit 3,4ghz vergleiche habe ich deutliche fps unterschiede in CPU lastigen scenarios. Außerdem habe ich in scenen wo ich am wenigsten fps habe laut afterburner die geringste auslastung da hier anscheinend die cpu limitiert. Was crysis angeht siehts bei mir anders aus. Crysis mit natural mod 1680x1050+8AA+alle shader einstellungen auf max = zwischen 90-99% gpu auslastung laut afterbruner.

Ich bin mir aber sicher, wie hier ja auch schon öfter gesagt wurde, dass man einfach mit einer SB@5ghz die karten in jeder situation ausreizt und nicht auf grenzen stößt wenn mal die cpu viel zu tun hat und keine resourcen mehr übrig sind für die grakas.
 
Interessantes Thema.
Allerdings finde ich sollten AMD-Nutzer auch die Art und weise des OC´s angeben, damit man genauere Rückschlüsse ziehen kann. Sprich nur mit Multi OC oder eben mit OC von NB etc.
Vielleicht kann das ja auch noch nachgereicht oder gegen getestet werden, falls es hier noch weiter geht.
 
Die Frage wäre doch und das ist glaube die Grundsatzfrage bei heutigen Grakas...wie komm ich mit einem SLI oder CF Gespann aus dem Limit inGame.
Nur mit MSSAA im Leben nicht mehr, dazu bräuchte man 6GHZ auf ner CPU......
 
Die Frage wäre doch und das ist glaube die Grundsatzfrage bei heutigen Grakas...wie komm ich mit einem SLI oder CF Gespann aus dem Limit inGame.
Nur mit MSSAA im Leben nicht mehr, dazu bräuchte man 6GHZ auf ner CPU......

Das habe ich ja getestet und bei einem AMD sys ist das leider nur mit downsampling möglich und das dann auch nicht immer wärend bei einem Intel ( starkes OC ) sys schon bei fullHD das problem teils gelöst ist!
 
hab mal Mass2 gestartet mit nem i7 4gig (20x200/4000/2000) die beiden 480er mit 910mhz, da hab ich auf beiden GPUs 98% Auslastung.
Mass2>1920x1200/16AF HQ alles max/4xMSSAA+2xSGSSAA.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh