nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
NVidia hat nicht umsonst diese Sperre für Burnmark (Furmark) reingemacht, ich finds einfach nur schwachsinnig damit den Verbrauch zu ermitteln, wenn der maximale Verbrauch im Alltag deutlich niedriger liegt.
Und wer mir hier mit Benchs kommen will: Der soll sich ne Wakü holen oder nen Custom Kühler.

Denn ich könnte mir gut vorstellen, dass NV die Kühlung ausreichend für den Alltagsgebrauch auslegt und dann eben die Kühlung für Benchs den Leuten selbst überlässt.
Vom Kepler erhoffe ich mir ebenfalls eine Steigerung um mindestens 50% der Leistung, eher so +75% im Schnitt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
fdsonne hat schon Recht, wenn er sagt, dass die Leistungsaufnahme weiter steigt. Die 75-80% Plus, die du bei 280 -> 480 ansprichst, wurden u.a. mit einem Anstieg der Leistungsaufnahme erkauft, Shrink hin oder her. So kannst du also nicht ganz rechnen. Aber 50% sollten wirklich gut machbar sein, siehe dein Beispiel mit 4870 -> 5870.
 
fdsonne hat schon Recht, wenn er sagt, dass die Leistungsaufnahme weiter steigt. Die 75-80% Plus, die du bei 280 -> 480 ansprichst, wurden u.a. mit einem Anstieg der Leistungsaufnahme erkauft, Shrink hin oder her. So kannst du also nicht ganz rechnen. Aber 50% sollten wirklich gut machbar sein, siehe dein Beispiel mit 4870 -> 5870.

Und ich sage gleichzeitig, wir sind im Moment mit der 480/580GTX an einem Punkt, wo die Leistungsaufnahme für ne Single GPU eigentlich nicht weiter steigen kann... Weil eben die Kühlung nicht mehr mitmachen wird.

Es ist schon so, das zwischen 280 und 480GTX seine 70-80% im Schnitt zwischen liegen. Nur erkauft man sich dies ebenso mit 30-40% mehr Leistungsaufnahme in extrem Situationen.
Und die Leistungsaufnahme kann man meines erachtens nach aktuell nicht weiter steigern, ohne das die Kühlerhersteller neue Wunderkühler entwickeln.


@Jousten
ziemlich engstirnige Sicht...
Einerseits bringen die besten Customerkühler nix, wenn man 300W+ pro Karte im Case ablässt an Abluft. Stell dir das mal im SLI mit zwei oder drei Karten vor. Noch kann sich kein Hersteller erlauben dem Kunden vorzuschreiben was man auszuführen hat für Tasks.
Geht man mal vom Gaming weg, so gibts im GPGPU Bereich zum Beispiel Anwendungen, die spielend die Karte ans Limit fahren. Und das muss das Teil abkönnen ohne vorher runter zu drehen aus Schutz.
Dem Käufer ist nicht geholfen auf dem Papier nen Tiger zu haben, der in so manchem Fall in der Praxis auf einmal zur Schnecke wird, weil künstlich eingebremst.
Andersrum geht sowas, sprich bei Teillast durch systematische Übertaktung das Teil ans Limit zu fahren (ala Turbo bei den CPUs) aber so wie du es willst, ist es untragbar...
Und das man heute schon am absoluten Limit arbeitet, zeigt NV durch das Limitieren der 580GTX.
 
Mal anders gefragt:
Was für eine Steigerung in Perf/W erwartest du denn bei der 680 im Vergleich zur 480 (beidesmal "unreifer" Prozess) im Mittel? Und die Extremsituationen lass doch bitte weg, wir reden hier immer vom Durchschnitt.
 
Im Schnitt ca .50% an Mehrleistung in Games wäre schon ordentlich was.
Glaube aber auch das es sich wieder am Limit der Pcie Specifikationen an lehnen wird.
 
Zuletzt bearbeitet:
Seine Aussage mag übertrieben gewesen sein, ich kann dir aber auch der Stelle einige sehr relevante Benchmarks mit !kurzen! FPS Messungen zeigen, wo das nicht im "Nirvana verpufft".



Bekommt man oft auch mit 1GB Karten, oder eben mit Nvidias Karten die mit 1,25gb und 1,536 dazwischen liegen.
Pflicht ist da nichts.:rolleyes:, das ist ja wohl nur bei absoluten Ausnahmen der Fall.



Blickst du eigentlich selbst noch, was du in deinen Beiträgen da alles verzapftst? Das ist ja echt schlimm.
Bei jedem Shrink waren ungefähr ca 50 bis 70% mehrleistung drinnen, bei gleicher Leistungsaufnahme drinnen. WIe kommst du da auf 20%?

IM SCHNITT 50-70%! Könnt ihr nicht lesen was ich schreibe?
Und was ist das denn immer gewesen in den Sachen die hier andauernd angesprochen werden.....ich hab alle Generation mitgemacht und da hab ich und damit auch jeder andere unterm Strich in DS oder sgssaa mit einer Karte?
NIX!

Genau...eine 2. Karte muß her und das wird hier auch nicht anders das + an FPS mit einer Karte wird auch nicht reichen.

So was lächerliches ....

---------- Beitrag hinzugefügt um 13:55 ---------- Vorheriger Beitrag war um 13:52 ----------

Na dann finde mal verwertbare Daten über zwei Generationen (bzw. 1 Generation und 1 Refresh) hinweg. Eine Größe musst du konstant halten, sonst kannst du nicht vergleichen. Entweder du nimmst gleiche Leistungsaufnahme und schaust, was für ein Performanceplus da rauskommt oder du nimmst gleiche Performance und schaust auf den Verbrauch. Wie gesagt: 50% sind machbar meiner Ansicht nach.

@mayer:
Ich will dir erzählen, dass deine Annahmen fehlerhaft sind. Was willst du mit einem Vergleich MSAA/SGSSAA? CPU-Limit und so - klar, dass die Leistungsaufnahme der Karten und damit die Wassertemp mit SGSSAA ansteigt. Das wird bei Kepler net anders sein. Bringt uns jetzt auch gar nicht weiter.

Gib doch mal ein Beispiel der letzten 5 Jahre, wo bei einem Shrink bei gleicher Leistungsaufnahme nur deine 20% Mehrleistung rausgekommen sind im Schnitt. Dann reden wir weiter. Du wirst sehen: Gibts nicht.

was willst du denn damit?
Ich hab von Wärme geschrieben!
Und das ich mit sgssaa unter Wasser an die 50 Grad bei den Karten komme, das sind minimum 10 Grad mehr als mit msaa oder fxaa und die Frage war wie du das Kühlen willst bei 50% Mehrleistung unter Luft.


Durchschnitt
 
Zuletzt bearbeitet:
Du verstehst irgendwie nicht, dass diese 50% Mehrleistung bei der gleichen Leistungsaufnahme rumkommen werden. Das ist ein neuer Prozess! Kleinere Strukturen, kleinere parasitäre Transistorkapazitäten, kleinere Schaltströme -> deutlich weniger Stromverbrauch!

Die Karten werden bei ca. 1,5x der Leistung der heutigen Generation nicht mehr verbrauchen und auch nicht heißer werden. Shrink heißt nicht nur, dass mehr Transistoren auf einen Quadratmillimeter passen, sondern die Energie pro Schaltvorgang sinkt auch um bis zu 50%.

Wenn das nicht so wäre, wären die letzten 15 Jahre Grafikkartenevolution gar nicht möglich gewesen. Das Transistorbudget ist viel stärker gestiegen als die Leistungsaufnahme. Perf/W steigt ständig. Mäßig mit einem Refresh, deutlich mit einem Shrink und Architekturverbesserungen bei neuen Generationen.
 
Zuletzt bearbeitet:
was haste den von deinen 50% im Schnitt mehr, auch wenn das Teil damit "kälter" ist, unterm Strich gegenüber fermi nix...mir solls dann recht sein, brauch keine neuen Karten kaufen.

Wir werden es sehen...

das selbe Wunschdenken und Geschreibe wie jedes mal...was dabei jedesmal rausgekommen ist wissen wir.

Auch bei SB ....
 
Was hab ich von 50% mehr? Äh, 50% mehr Leistung, was sonst? Bei gleicher Leistungsaufnahme.

Es geht hier auch nicht drum, für wen sich das aufrüsten lohnt oder was du oder ich machen sollen. Es geht um eine nüchterne Betrachtung von Perf/W. Und die wird steigen, und nicht nur um 20%, egal was du hier verzählst ;)
Ich warte ja immer noch auf ein Beispiel von dir...
 
Im Schnitt...oder? Nochmal der Link

Durchschnitt
was für ein Beispiel?
Sind die letzen Generation an dir vorbeigegangen? Ich brauch immer noch 2 Karten....

Und der einzigste der hier nüchtern ist :d bin ich.
 
Zuletzt bearbeitet:
Mal anders gefragt:
Was für eine Steigerung in Perf/W erwartest du denn bei der 680 im Vergleich zur 480 (beidesmal "unreifer" Prozess) im Mittel? Und die Extremsituationen lass doch bitte weg, wir reden hier immer vom Durchschnitt.

Nein, Extremsituationen kann man nicht weglassen, klar sprechen wir von Durchschnitt, aber die Karten müssen ebenso Extremlastsituationen aushalten... Und das ohne groß zu limitieren (was die 580er heute schon tun)

Das heist für mich, die Leistungsaufnahme wird beim Top Single GPU Modell nicht weiter steigen können. Und bei gleicher Leistungsaufnahme erwarte ich im Schnitt ca. 40-45% Mehrleistung. In Speziellen Sachen gern auch mehr.
Die GF110 sowie GF100er sind ja bisschen TMU beschränkt. Mal schauen, ob man sich dort ranmacht. Ich könnte mir also einen überdurchschnittlichen Boost bei Downsamling oder auch SGSSAA vorstellen als Beispiel.

Soweit meine Erwartungen an die neuen Karten...
Die von Duplex oft angebrachten 70%+ halte ich für nicht tragbar. Weil die Effizienz deutlich überdurchschnittlicher zu den letzten Generationen zulegen müsste -> und das glaube ich nicht.
Auch habe ich die Befürchtung, das NV wieder zeitlich nach AMD ihre Top GPUs bringen wird und man so unter Umständen auf die ein oder andere Optimierung der Effizienz zugunsten schnelleren Releaes verzichten wird.
 
Naja limitieren die aktuellen Geforces in irgendeinem Spiel? Du willst hier nicht wirklich Furmark heranziehen...
Ich glaube generell auch, dass die GTX 480 eine unrühmliche Ausnahme war und ist. Ich denke, mit Kepler wird man wieder auf den richtigen Weg kommen.

@mayer2:
Lass mal, hab keine Lust mehr.
 
Naja limitieren die aktuellen Geforces in irgendeinem Spiel? Du willst hier nicht wirklich Furmark heranziehen...
Ich glaube generell auch, dass die GTX 480 eine unrühmliche Ausnahme war und ist. Ich denke, mit Kepler wird man wieder auf den richtigen Weg kommen.

Neja warum auf Spiele versteifen, wenn NV ein und das selbe Design für die komplette Marktpalette von Gamern bis GPGPU bringt!? ;)

Und ja, ich ziehe Furmark als Beispiel für extreme Last ran, weil es Anwender gibt, die ähnlich hohe Last auf die GPU setzen. Und das muss das Teil abkönnen... Da kann und darf nix limitieren.
Die Karten werden doch lange nicht allein für den Gamer designt. Und wenn man eben den Weg gewählt hat, das ein konkretes Design den kompletten Marktbereich abdecken muss, dann muss dieses Design auch in allen Bereichen mit den Gegebenheiten klar kommen. Unterm Strich auf einen Bereich runter gebrochen heist das idR Abstriche oder Kompromisse...

Klar könnte man vllt als Gamer dort ne 1024 1D ALU hinpacken und würde Verbrauchstechnisch nicht extrem viel mehr als ne 580GTX unter Furmark Volllast verbrauchen. Aber was macht der, der sich diese 1024 1D ALU als Profimodell zulegt? Der guckt dann in die Röhre...
Objektiv betrachtet (und um nix anderes gehts ja) macht das absolut keinen Sinn sowas zu fordern.
Ne Effizienzsteigerung mit den von Duplex propagierten 70%+ Leistungsgewinn bei gleicher oder niedriger Leistungsaufnahme gab es im HighEnd GPU Bereich seit dem G80 nicht (also in den letzten ~6 Jahren)
 
Zuletzt bearbeitet:
Die GF110 sowie GF100er sind ja bisschen TMU beschränkt. Mal schauen, ob man sich dort ranmacht. Ich könnte mir also einen überdurchschnittlichen Boost bei Downsamling oder auch SGSSAA vorstellen als Beispiel.
Das wäre auf jeden Fall wünschen Wert.
Mir schien es so als wenn nach dem GT200 die 80 Textureinheiten nicht verdoppelt wurden weil es die Leistung Aufnahme gesprengt hätte .
Das Potenzial der Shader trägt einen höheren Anteil zur Leistung bei und so mit hat man beim GF100 verzichtet die Textureinheiten demensprechend dimensioniert zu verbauen und nur 64 derer eingesetzt..
Welches sich aber anscheinend stark in hohen Auflösungen nieder schlägt.
Da der Markt aber überwiegend 1920*1080 nutzt hat NV sich wohl gesagt das ist die bessere Mitte und für Server und Wissenschaftlich Berechnung haben wir so die schnellst mögliche Variante zur verfügung.
In hohen Auflösungen verliert die GTX580 mit ihren 64*² Textureinheiten extrem an Boden gegen eine HD6970 mit 96 echten Textureinheiten und wenn es ganz bitter kommt verliert die GTX klar hinzu kommend noch die 2 GB und die klatsche ist perfekt.
 
Zuletzt bearbeitet:
Ich sehe es ähnlich wie fdsonne.
Mehr Leistungsaufnahme ist nicht drinne, wie soll man die Wärme dann noch abführen? Trippel-Slotkühler beim Referenzdesign? No way...

Ansonsten erwarte ich von der GTX680 irgendwo um 50% Mehrleistung in Games gegenüber der GTX580 im Schnitt.
20% Mehrleistung wäre bei gleichem Stromverbrauch eine Enttäuschung. 80% oder mehr wäre eine Überraschung bzw. Sensation.

PS: Auch wenn ich es net bräuchte...wirds wohl bei gefallen eine GTX680 (oder 2) werden. Das "haben will" Virus ist eine schlimme Sache :d.
 
PS: Auch wenn ich es net bräuchte...wirds wohl bei gefallen eine GTX680 (oder 2) werden. Das "haben will" Virus ist eine schlimme Sache .
2 Karten sind Inzwischen auch Pflicht geworden bei mir.
Virus triffts wohl genau:banana:
Wie mayer2 schon sagte mit einer einzigen Karte wirds mit DS auch nicht so der Burner.
Mit einer standard GTX590 wird sie sich sicherlich messen können aber einem GTX580 SLI Gespann wird sie nicht die Stirn bieten können.

Deshalb wenn wechsel dan auch 2 bei mir wobei ich AMD auch noch ins Auge fasse.
 
Zuletzt bearbeitet:
Naja limitieren die aktuellen Geforces in irgendeinem Spiel? Du willst hier nicht wirklich Furmark heranziehen...
Ich glaube generell auch, dass die GTX 480 eine unrühmliche Ausnahme war und ist. Ich denke, mit Kepler wird man wieder auf den richtigen Weg kommen.

@mayer2:
Lass mal, hab keine Lust mehr.

ja ich auch nicht mehr....

""""GTX 480 eine unrühmliche Ausnahm"""
und auch nochmal extra für dich!
580 verbraucht unter Last mehr wie eine 480er...
 
nd was ist das denn immer gewesen in den Sachen die hier andauernd angesprochen werden.....

Ich verstehe erhrlichgesagt gerade nur Bahnhof bei deinen Aussagen, da steig ich nicht durch.
Wo ist da der Kontext eigentlich?

unterm Strich gegenüber fermi nix...

Nun, ja eben jene 50%. Eventuell sogar etwas mehr, wenn Nvidia die Füllraten etwas deutlicher anhebtund somit AMD bei SGSSAA etwas mehr entgegenzusetzen hat, vielleicht sogar auf ein Niveau aufholt, was den Performanceeinbruch in Prozent betrifft.

Und ja, ich ziehe Furmark als Beispiel für extreme Last ran, weil es Anwender gibt, die ähnlich hohe Last auf die GPU setzen.

Welche Anwendung kann da mit Furmark mithalten?

Je mehr transistoren, je kleiner die Fertigung desto höher die Chance auf geschmeidige Leckströme.
Wenn es nicht um professionelle GPGPU Karten geht, können die bei Fumark von mir aus verbrutzeln, denn das Einsatzgebiet bleiben eben Spiele die eine solch hohe Auslastung nicht erzeugen.
Insofern bleibt für mich Furmark uninteressant, besonders bei Performance/Watt Messungen.
Furmark ist im Prinzip ein gefährliches Programm, wenn hardware oder softwareseitig nicht gebremst wird.

580 verbraucht unter Last mehr wie eine 480er...

Bei HT4u schon. Das ist Sampleabhängig.
Meistens zieht die aber weniger als ne GTX 480. Siehe PCGH, CB, Anandtech oder Hartware.net .
 
Zuletzt bearbeitet:
Im Schnitt 50%...was bleibt real.....?

"Zitat:
Zitat von mayer2 Beitrag anzeigen
nd was ist das denn immer gewesen in den Sachen die hier andauernd angesprochen werden.....
Ich verstehe erhrlichgesagt gerade nur Bahnhof bei deinen Aussagen, da steig ich nicht durch.
Wo ist da der Kontext eigentlich?""


Das frage ich mich auch gerade...wo ist der rest?

"Zitat von mayer2 Beitrag anzeigen
580 verbraucht unter Last mehr wie eine 480er...
Bei HT4u schon. Das ist Sampleabhängig.
Meistens zieht die aber weniger als ne GTX 480. Siehe PCGH, CB, Anandtech oder Hartware.net .

ach sampelabhängig...dann hatte die 3 anderen ja Glück...
 
Zuletzt bearbeitet:
Welche Anwendung kann da mit Furmark mithalten?

GPGPU Bereich!?
Wie gesagt, NV fährt im Moment die Politik eine Architektur für den kompletten Markt zu entwerfen. Mit allen Vor- und Nachteilen...
Und wenn ein und die selbe GPU Architektur eben durch GPGPU oder Profi Anwendungen im HPC Bereich ans Volllast Limit getrieben werden kann, dann deckelt diese Anwendungswelt den Ausbau dieser Architektur. Der Gamerbereich muss also genau so damit leben wie alle anderen Bereiche, wo man das Produkt noch in dieser Form bringt...

Mal ganz davon ab, es gibt durchaus auch Leute, die Gamerkarten für Profianwendungen "missbrauchen" weil man kosten sparen möchte...
 
eigentlic würde es doch reichen wenn die gtx680 auch nur 512shader hat und dafür 96TMUs und 3GB VRAM + mehr takt! tessalationspower ist ja genug vorhanden und 512shader sollten auch mehr als genug sein daher lieber mehr TMUs und mehr ram
der chip wäre dann kleiner und ein wenig schneller
 
Zuletzt bearbeitet:
Was belastet Furmark eigentlich genau? Also welche Einheiten? Bei GPGPU liegen TMUs, ROPs etc. eher brach soweit ich weiß.

Außerdem ist eine Geforce immer noch eine Spielekarte. Was Tesla macht, steht wieder auf einem anderen Blatt. Zeig mir eine praxisnahe Anwendung, die bremst, nur eine. Dann bin ich still :d
Furmark ist Mist, genau wie OCCT und Konsorten.
 
2 Karten sind Inzwischen auch Pflicht geworden bei mir.

Deshalb wenn wechsel dan auch 2 bei mir wobei ich AMD auch noch ins Auge fasse.
Jupp, ist schon ne feine Sache wenn man 2 Kärtchen hat und die Leistung abrufen kann wenn mans braucht :d.

AMD kommt für mich net in Frage, da sie SGSSAA nicht unter DX10/11 anbieten... Ob sich das mit Southern Island ändert -> KA.
NV wird das mit Sicherheit wieder ermöglichen, zumindest mit Zusatztools ala Inspector (momentan mein Lieblingstool^^).
 
Zuletzt bearbeitet:
Jupp, ist schon ne feine Sache wenn man 2 Kärtchen hat und die Leistung abrufen kann wenn mans braucht :d.

AMD kommt für mich net in Frage, da sie SGSSAA nicht unter DX10/11 anbieten... Ob sich das mit Southern Island ändert -> KA.
NV wird das mit Sicherheit wieder anbieten, zumindest mit Zusatztools ala Inspector (momentan mein Lieblingstool^^).

AMD hat doch vor downsampling an zu bieten...
ich bin mir da aber nicht ganz sicher ob sie das auch bringen! sgssaa verursacht aber probleme wobei ds problemlos ist!
Ich finde Downsampling+ FXAA ist die beste variante
 
Was belastet Furmark eigentlich genau? Also welche Einheiten? Bei GPGPU liegen TMUs, ROPs etc. eher brach soweit ich weiß.

Außerdem ist eine Geforce immer noch eine Spielekarte. Was Tesla macht, steht wieder auf einem anderen Blatt. Zeig mir eine praxisnahe Anwendung, die bremst, nur eine. Dann bin ich still :d
Furmark ist Mist, genau wie OCCT und Konsorten.

Geforce ist eine Spielekarte, richtig... Aber die GF110 oder GF100 zum Beispiel kommt in gleicher Form sowohl bei Quadro, Tesla und Geforce vor...
Da kann man nicht einfach nur eine Schiene betrachten -> Meine Meinung...

Und welche Anwendungen limitieren, kann ich dir nicht sagen, ich hab GF100 GPUs, da limitiert nix ;)

Und zum Thema Einheiten, was genau Furmark belastet, kann ich dir nicht beantworten. Die Hauptlast dürfte aber auf den ALUs liegen. TMUs und ROPs usw. dürften wohl ziemlich wenig ins Gewicht fallen. Da soweit mein derzeitiger Kenntnisstand Furmark zumindest durch extrem aufwendigen Shadercode die Last erzeugt.
Auch spielt es Verbrauchstechnisch keine Rolle ob du AF (Filterleistung also TMUs) oder AA (Rasteroperationen, also ROPs) zuschaltest. Das ändert am Verbrauch nichts.

Aber das spielt in meinen Augen auch überhaupt keine Rolle... Ich denke, man kann nicht einfach eine Anwendung ausklammern, nur weil die gerade nicht ins Bild passt...

Mal ne Gegenfrage, was ist, wenn auf einmal ein Top Titel im Gamingbereich ähnlich hohe Last erzeugen würde?
Wäre das dann auch ohen Wertung? -> macht für mich genau so keinen Sinn...

AMD hat doch vor downsampling an zu bieten...
ich bin mir da aber nicht ganz sicher ob sie das auch bringen! sgssaa verursacht aber probleme wobei ds problemlos ist!
Ich finde Downsampling+ FXAA ist die beste variante

Downsampling bringt das Problem, das die Schrift und das HUD oder Teile davon extrem klein werden...
Der Weisheit letzter Schluss ist das also nicht.
 
Zuletzt bearbeitet:
An Downsampling stört mich, dass es extrem viel Performance kostet und nicht wirklich besser glättet als 4xSGSSAA. Problem ist halt, dass SGSSAA so oft blurrt, nicht überall greift (wenn das MSAA vom Spiel scheiße ist, z.B. Shogun 2 DX11) oder eben nicht geht, weil gar kein MSAA geht.
Beide Varianten sind nicht optimal, aber in Hinblick auf den aktuellen Trend, "richtiges" AA zu vernachlässigen, ist Downsampling vorzuziehen.

Geforce ist eine Spielekarte, richtig... Aber die GF110 oder GF100 zum Beispiel kommt in gleicher Form sowohl bei Quadro, Tesla und Geforce vor...
Da kann man nicht einfach nur eine Schiene betrachten -> Meine Meinung...

Und welche Anwendungen limitieren, kann ich dir nicht sagen, ich hab GF100 GPUs, da limitiert nix ;)

Und zum Thema Einheiten, was genau Furmark belastet, kann ich dir nicht beantworten. Die Hauptlast dürfte aber auf den ALUs liegen. TMUs und ROPs usw. dürften wohl ziemlich wenig ins Gewicht fallen. Da soweit mein derzeitiger Kenntnisstand Furmark zumindest durch extrem aufwendigen Shadercode die Last erzeugt.
Auch spielt es Verbrauchstechnisch keine Rolle ob du AF (Filterleistung also TMUs) oder AA (Rasteroperationen, also ROPs) zuschaltest. Das ändert am Verbrauch nichts.

Aber das spielt in meinen Augen auch überhaupt keine Rolle... Ich denke, man kann nicht einfach eine Anwendung ausklammern, nur weil die gerade nicht ins Bild passt...

Mal ne Gegenfrage, was ist, wenn auf einmal ein Top Titel im Gamingbereich ähnlich hohe Last erzeugen würde?
Wäre das dann auch ohen Wertung? -> macht für mich genau so keinen Sinn...

Der Chip ist aber noch nicht die Karte. Selektion, Stromversorgung spielen auch noch rein. Du musst die jeweiligen Karten schon in ihrem entsprechenden Aufgabengebiet anschauen.
Warum sollen ROPs und TMUs keinen Saft brauchen?

Die Anwendung passt mir nicht ins Bild, weil es einfach Unsinn ist. Nimm lieber einen Konvertierer, Folding@Home auf GPU oder sowas. Aber nicht Furmark.

Wenn bei einem Spiel gedrosselt wird, bin ich der erste, der schreit - das kannst du aber laut sagen!
 
Zuletzt bearbeitet:
Downsampling soll wohl angeblich im Treiber einzug halten bei AMD.
Werde mir das in ruhe ansehen und entscheiden.
Fakt ist nur ein 1 Monat bevor die Next Gen erscheinen verkaufe ich mein SLI habe keine Lust auf einmal 300 Euro -400 euro miese zu machen.
Beispiel AMD bringt ihre Karten führ 350 Euro raus diese sind 30-40 % schneller alls die GTX580 jetzt und halte meine Karten so lange dann krieg ich wenn ich pech habe 250 Euro pro Karte ne ne bin zwar auch etwas irre aber nich Wahnsinnig:fresse:
Für das Geld könnte ich dann Theoretisch ohne drauf zu blechen wieder zu ca 70% mehr Leistung kommen im CF.
Die Frage bleibt wieviel Später sehen wir dan was von NV.
Ach verdammt wird das wieder Spannend.

Downsampling bringt das Problem, das die Schrift und das HUD oder Teile davon extrem klein werden...
Der Weisheit letzter Schluss ist das also nicht.

Was von den Dingen ist perfekt finde es zum Beispiel voll ätzend ständig irgendwelche Bits zu setzen die Hersteller sollen die Dinge im Treiber verankern.
FPS Limiter hier tools da die SLI und CF Gemeinde werden da schon bissel arg von den Herstellern hängen gelassen.

@ Powerplay
so 768 shader könnte der Chip ruhig tragen dafür dan aber ca 160 Textureinheiten und mehr Gpu takt.
Frage ist ob man dan so gegen AMD neue konkurieren könnte ihr neues Design macht sie zur Zeit für mich absolut unberechen bar.
Desweiteren könnte so ein Design schlecht für den Server Markt sein.

Zu SGSSAA wenn ich das bei BC2 anwende zb *4 habe ich weniger FPS alls wenn ich in 2880*1620 zocke.
 
Zuletzt bearbeitet:
Downsampling bringt das Problem, das die Schrift und das HUD oder Teile davon extrem klein werden...
Der Weisheit letzter Schluss ist das also nicht.

ja da hast du recht aber es funktioniert problemlos! bei meinem 27" monitor ist das au h nicht so schlimm wenn ein paar sachen kleiner werden da das bild noch groß genug ist!
Grade durch ds kann man mal sehen welche bildqualität man auf einem fullhd bildschirm darstellen kann!
SGSSAA verursacht durch die ganzen posteffecte immer mehr probleme weshalb amd das wohl auch nicht anbietet!
 
Es muss doch möglich sein, die höhere Auflösung irgendwie "reinzuhacken", damit HUD usw. nicht kleiner werden. Ich hab da mal was gelesen, aber ich weiß leider nicht mehr wo. Irgendwas mit Swap Chain :d
 
@ Powerplay
so 768 shader könnte der Chip ruhig tragen dafür dan aber ca 160 Textureinheiten und mehr Gpu takt.
Frage ist ob man dan so gegen AMD neue konkurieren könnte ihr neues Design macht sie zur Zeit für mich absolut unberechen bar.
Desweiteren könnte so ein Design schlecht für den Server Markt sein.

Zu SGSSAA wenn ich das bei BC2 anwende zb *4 habe ich weniger FPS alls wenn ich in 2880*1620 zocke.

160tmus wäre der hammer nur glaube ich das es in verbindung mit mehr takt und mehr shader nie geht
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh