Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Was manche so alles sehen / merken ist sowieso einmalig
Faktoren wie den Stromverbrauch kann man getrost unter den Tisch fallen lassen, da hier der Anschaffungspreis eines solchen Systems nicht im Verhältnis zum Unterschied des Verbrauchs der beiden Systeme steht.
Verstehe nicht warum man im Fazit eher eine GTX680 empfiehlt. Für ein Multi-GPU Setup mit dieser Leistung sind 2GB einfach nicht mehr zeitgemäß.
"Wer momentan den Aufbau eines Multi-GPU-Systems plant, dem legen wir ein SLI-System bestehend aus zwei GeForce GTX 680 nahe. Die Grundperformance und höher als bei zwei Radeon HD 7970 und durch weitere Treiber-Optimierungen dürfte NVIDIA auch noch etwas an Leistung hinzugewinnen. "
Klar, und bei AMD wird es natürlich keine Treiber-Optimierungen geben!!!
Ich behaupte sogar das bei den AMD mehr Optimierungs-Potenzial vorhanden ist als bei den NV 680ern.
Geht es hier nun schon los wie auf CB? Grüne Brille lässt grüßen.
Doch. Werde mir auch bald 5760x1080 zulegen und naja, gibt leider keine Reviews dazu.
mich würde mal interessieren wie die GTX680 sich im SLI verhält!
Also ob dann Turbo auf beiden karte auch funktioniert und wie die karten im SLI dann bei OC laufen!
Bei AMD brauchste ja nur den takt einstellen und der liegt dann auch an das ist bei NV mit turbo ja nicht so einfach!
Anhang anzeigen 190538
Andreas das Zauberwort heißt Frameratetarget oder im Volksmund Framelimiter und das Problem lößt sich im krititschen 40Frame Bereich quasi fast vollständig in Luft auf
Nvidia hat das bereits in den Treiber eingepflegt
Der beste Satz im Text....
Jup gerade wo alles immer mehr in richtung weniger verbrauch geht sollte das sehr wohl Thema sein Ausser man wohnt bei Mutti dann interessiert ein der Strom verbrauch wohl weniger ist aber anders wenn mans selber zahlt
Mal angenommen 2x 7970 sind etwas günstiger und sparsamer als 2x680 ist es doch klar das über längere Zeit es noch mehr ersparnis wird da die 680er mehr kostet und vll auch mehr strom verbraucht. Und wenns dann nur um 5-10% Leistung geht.... Als wenns einem wirklich noch in games auffällt ob man 2x7970 oder 2x680 hat zumindest für einen Monitor bei z.b. standard auflösung 1920x1080/1200
3xFull HD Display Setup Rating 5760x1080 mit 8AA u 16AFDas die Russenprogrammierer bei Metro dem einzigen Titel der hier Schwächen zeigt unfähig sind das Speichermanagement effizient auszulasten kann man wohl kaum den Karten anlasten
aber solch einen hohen Sprung finde ich trotz Veränderung des Systems merkwürdig. Ausserdem ist die GTX 590 von den Änderungen nicht so stark betroffen und sie hat sogar einen niedrigeren Lastverbrauch als die HD 6990. Meine Verwirrung wirst Du sicher verstehen. Ausserdem würde ich gerne diesen Lastverbrauch auch bei mir haben! Es würde die Kühlung um einiges erleichtern.
Auch wenn das Feature ein sicher nettes ist, nicht jeder will mit dem Limiter spielen
Noch dazu macht es den Vergleich zum Konkurenten unmöglich.
Noch immer ein Problem sind die Mikroruckler. Diese treten zwar nur im unteren Framebereich auf, können aber weder von AMD noch von NVIDIA verhindert werden
Es sollte doch nun mittlerweile mal angekommen sein, das kurze paar Sekunden Benchdemos nichts über den VRAM aussagen können. Wie stellst du dir das vor?
Nachladerruckler gehen gnadenlos in den avg. FPS unter.
Ich würde mir wünschen in zukunft 5760x1080 mit aufzunehmen.
Gibt immer mehr Leute die 3 Monitore haben und diese Auflösung nutzen.
Glaub ich nicht
Auch wenn das Feature ein sicher nettes ist, nicht jeder will mit dem Limiter spielen
Noch dazu macht es den Vergleich zum Konkurenten unmöglich. Was bringt es mir die FPS Rate auf 40 oder 50 FPS zu reduzieren, wenn die Karten potentiel im überwiegenden Teil eines Spiels beispielsweise mehr können würden, bzw. in einem Level mal so, mal so die FPS schaffen. Dann drehst du alle Nase lang an den Settings runter um dann doch wieder Grafikfeatures runter zu drehen, weil es nicht ausreicht um den Limiter möglichst hoch einzuparken.
Das Feature ist bestenfalls ein Anfang um dem ganzen entgegen zu wirken. Mir persönlich würde da was besser gefallen, was sagen wir vllt 10% der absoluten Leistung schluckt, dafür aber die Frametimes selbst anpasst. Damit könnte man wohl selbst als Grafikfetischist spielend leben.
na, crossfire funktioniert bei crysis 2 nicht, das ist doch hinreichend bekannt?!
edit: zu laaaaaaaaaahm
Beiträge zur Prüfung entfernt.
selbst bei verschiedenen Setups des selben Spiels kann das der Fall sein
Eine Sequenz von einer halben Minute ist lang genug um den Teil der Texturen im Vram abzulegen der gebraucht wird für die aktuelle Darstellung,und wenn das Speichermanagement gut arbeitet wie bei 99% aller PC Games nimmt der Vram Verbrauch auch bei 5-6Minuten oder mehr nicht in dem Maße zu,das es für den Datenbus schlagartig zum Killer wird.Wenn vernünftig aus und eingelagert wird,bleiben nur die Texturen im Vram liegen die auch wirklich benötigt werden imo.
Was damals schon keine Wirkung zeigte bei 3GB 580ern hat heute ebenso noch Bestand,denn am Umfang der Texturen hat sich seither nichts geändert,und bis Konsolen auf einem höheren Level angelangt sind,wie heutige Referenzgrafikkarten dauert es mitunter auch noch weitere Grafikkartengenerationen.
Hmm, dann könnte man ja eventuell eine andere Auflösung antesten. 1920x1200 ist ja nahe dran, damit man wenigstens einen Anhaltspunkt hat. Sofern das Ganze natürlich überhaupt klappt. Ich wusste bisher nichts von der Problematik... Es wäre cool, wenn so etwas im Test zumindest grob erwähnt würde. Wenn man nicht so genau informiert ist, ist das ja schonmal eine nützliche Erklärung für eventuelle Ungereimtheiten.
So, wir oder besser der Kollege hat das noch einmal geprüft. Neuer Wert: 469,2 Watt
Es lag wohl ein Messfehler vor, vermutlich schaffte es die Karte nicht in den CrossFire-Modus im entsprechenden Benchmark. Ich werde das morgen oder später noch korrigieren. In zukünftigen Diagrammen wird es dann so oder so verbessert sein.
Jo stimmt schon, aber meine beiden Karten brauchen sich ganz bestimmt nicht vor 2 680ern zu verstecken. Das sie @stock langsamer sind ist klar.@Blade, die HD7970 taktet aber nun mal nicht mit 1050MHz also ist sie langsamer als die GTX680.
Die GTX680 machen ja auch alle problemlos 1200MHz.
Jo stimmt schon, aber meine beiden Karten brauchen sich ganz bestimmt nicht vor 2 680ern zu verstecken. Das sie @stock langsamer sind ist klar.