nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist auch nicht vergleichbar. 4xSGSSAA glättet deutlich besser und flimmert weniger. 8xSGSSAA ist natürlich brilliant aber das kostet auch entsprechend Leistung.
Womit man wieder bei TMUs wäre.
 
Downsampling bringt das Problem, das die Schrift und das HUD oder Teile davon extrem klein werden...
Der Weisheit letzter Schluss ist das also nicht.

Genau das, auch hier kann es zu Problemen kommen, desweiteren ist DS extrem teuer, man muss also genug Zwischenstufen anbieten um solch ein Feature zu rechtfertigen. Und da werden AMD als auch NVIDIA Kopfschmerzen bekommen bei den Gedanken... nicht jeder hat HighEnd...
Ich sehe Downsampling auch eher als Notlösung, aber dennoch als sehr hilfreich an, denn immer mehr Games kommen ohne echtes AA und der Trend das es so weiter geht, ist eindeutig. Downsampling da drüber zu jagen ist einfacher, als es über Hacks zu realisieren.
 
Der Chip ist aber noch nicht die Karte. Selektion, Stromversorgung spielen auch noch rein. Du musst die jeweiligen Karten schon in ihrem entsprechenden Aufgabengebiet anschauen.
Warum sollen ROPs und TMUs keinen Saft brauchen?

Die Anwendung passt mir nicht ins Bild, weil es einfach Unsinn ist. Nimm lieber einen Konvertierer, Folding@Home auf GPU oder sowas. Aber nicht Furmark.

Wenn bei einem Spiel gedrosselt wird, bin ich der erste, der schreit - das kannst du aber laut sagen!

Ich sagte ja nicht, das TMUs oder ROPs keinen Saft brauchen, sondern das ich keinen Mehrverbrauch feststelle, wenn ich Furmark ohne AA/AF teste und dazu eins oder beides davon anstelle. Ergo liegt der Schluss nahe, das Furmark seine Hauptlast auf die ALUs legt und somit die ALUs eben der Teil der GPU ist, der mit drastischem Abstand die Leistungsaufnahme vorgibt.

Und genau mit diesem Schluss sage ich, das es vollkommen wurscht ist, ob man Tesla, Quadro oder Geforce hernimmt. Die GPU ist quasi intern identisch und gibt somit die Leistungsaufnahme genau so vor.


Aber mir soll in der Hinsicht die Denkweise anderer ziemlich egal sein. Ich seh es aus der anderen Richtung, der Hersteller wirbt mit ner Karte und seinen Fakten auf dem Papier. Bremst diese aber künstlich ein, weil er scheinbar Angst hat, das das Teil über den Jordan geht.
Und das kann ich absolut nicht Teilen... Entweder das Teil bringt die Leistung wie es auf dem Papier steht immer und überall, oder das Teil ist falsch konstruiert. Ich als Endkunde brauch keinen Hersteller, der mir sagt, ich darf Software x oder Software y nicht nutzen.
Mal ganz davon ab baut der größte GPU Hersteller von dedizierten Steckkarten aktuell nicht so ein Limiter für Furmark oder OCCT ein. Das hat definitiv weitreichendere Gründe als diese beiden Tools.

Wenn sich ein Hersteller dazu entschließt den Schritt in diese Richtung zu gehen, dann wissen die genau, das der Fall eintreten kann und das auch bei der Masse der Käufer (in welchem Bereich nun auch immer) ;)




Ansonsten zum Thema Downsampling. Ich sehe dort aktuell noch das Problem der Monitore... Meiner macht zum Beispiel knapp unter 2x2 dicht. Krumme Auflösungen sind zwar auch machbar, sehen optisch aber irgendwie komisch/mies aus. So schaut 1,5x1,5 besser aus als beispielsweise 1,6x1,6 obwohl letzteres mehr Leistung frisst.
 
Downsampling tool damit geht es ohne weiteres wie man will und ohne diesen dreck bei NV wo man gleich weniger Hz nutzen kann!
Das sollte auf jedenfall ohne die Herz zahl zu ändern gehen und auch der LOD sollte dann ins minus wandern damit es nicht blurt!
 
Wenn die GPU das Downscaling übernehmen würde, würde der Monitor gar nix mitkriegen, dass eine höhere Auflösung gefahren wird. Ich glaube, man kann eine Lösung finden, bei der der Monitor vollkommen egal ist. Bei Arma2 und Witcher 2 geht es ja auch.
 
Wenn die GPU das Downscaling übernehmen würde, würde der Monitor gar nix mitkriegen, dass eine höhere Auflösung gefahren wird. Ich glaube, man kann eine Lösung finden, bei der der Monitor vollkommen egal ist. Bei Arma2 und Witcher 2 geht es ja auch.

Die Frage ist doch eher, ob es die Aufgabe des Treiberherstellers ist, sowas im Nachhinein zu implementieren und sozusagen das Produkt des Programmierers eines Spiels zu verbiegen, oder ob das nicht als Aufgabe besser gleich bei den Spieleprogrammierern aufgehoben ist.
Dann gibts wohl auch keine Probleme mit kleinen Schriften oder Symbolen... ;)
 
Die Frage ist doch eher, ob es die Aufgabe des Treiberherstellers ist, sowas im Nachhinein zu implementieren und sozusagen das Produkt des Programmierers eines Spiels zu verbiegen, oder ob das nicht als Aufgabe besser gleich bei den Spieleprogrammierern aufgehoben ist.
Dann gibts wohl auch keine Probleme mit kleinen Schriften oder Symbolen... ;)

JA aber das sieht ja jeder selbst das die spieleentwickler sich einen dreck drum scheren!
Schau dir mal crysis 2 an das ist eine frechheit das spiel!
Dieser Grainfilter ist nur da um von der schlechten grafik ab zu lenken dann das PostMSAA welches ein extrem unscharfes und Flimmerndes Bild hinterlässt!
(Gott sei danke habe ich auch mayer2 gehört und FXAA getestet)
Wir bekommen als PC user nur noch dreck geliefert, im klartext nur noch Konsolenports mehr nicht!
Microsoft fordert nun auch noch das die Spiele entwickler nur noch eine version vom Game anbieten da sie ja in win8 einen emulator für X-BOX 360 spiele anbieten und dann gibt es garkeine PC spiele mehr die sich qualitativ absetzen!
 
Es liegt nur an uns selbst wie wir auf sowas reagieren.....nicht kaufen und gut ist...
 
Es liegt nur an uns selbst wie wir auf sowas reagieren.....nicht kaufen und gut ist...

Genau so ist es deswegen habe ich für crysis 2 genau das bezahlt was es wert ist 6Euro für nen KEY mehr nicht!
 
Bei mir wars ein Sixpäck :-) und die hälfte hab ich selbst gesoffen :-)
 
Die Frage ist doch eher, ob es die Aufgabe des Treiberherstellers ist, sowas im Nachhinein zu implementieren und sozusagen das Produkt des Programmierers eines Spiels zu verbiegen, oder ob das nicht als Aufgabe besser gleich bei den Spieleprogrammierern aufgehoben ist.
Dann gibts wohl auch keine Probleme mit kleinen Schriften oder Symbolen... ;)

Ne, die Frage stellt sich nicht, wenn man sich die Vergangenheit anschaut. VSync, AA, AF einstellen - oft Fehlanzeige. Lieber hab ich eine Firma (Nvidia), die ihren Kunden ein zusätzliches Schmankerl bietet als dass 95 von 100 Spielen Kompromisse erfordern was die Bildqualität angeht.

Aber wenn du so denkst, kannst du gleich die AA- und SLI-Bits ignorieren, FXAA weglassen usw. Die Spieleentwickler kriegen es zum Großteil nicht auf die Reihe oder die Umstände (Geld, Zeit, Nutzen für die Masse) verbieten es. Wenn niemand anderes einspringt, wer dann???
 
Zuletzt bearbeitet:
Ne, die Frage stellt sich nicht, wenn man sich die Vergangenheit anschaut. VSync, AA, AF einstellen - oft Fehlanzeige. Lieber hab ich eine Firma (Nvidia), die ihren Kunden ein zusätzliches Schmankerl bietet als dass 95 von 100 Spielen Kompromisse erfordern was die Bildqualität angeht.

Aber wenn du so denkst, kannst du gleich die AA- und SLI-Bits ignorieren, FXAA weglassen usw. Die Spieleentwickler kriegen es zum Großteil nicht auf die Reihe oder die Umstände (Geld, Zeit, Nutzen für die Masse) verbieten es. Wenn niemand anderes einspringt, wer dann???

Das ist durchaus richtig...
Aber wie schon gesagt, ich halte es für den falschen Weg hier auf den GPU Hersteller zu setzen, denn der muss hinten rum wurschteln um überhaupt was zu reißen. Ich finde hier muss man den Programmierer klar stärker fordern und diese Aufgabe aufdrücken.

Vllt muss man auch einfach die Spezifikationen einfach mal klar definieren vorher. Also so ne Art. MSAA oder SGSSAA muss in DX0815 in der und der Art so und so funktionieren.
Ich denke im Moment scheitert der Programmierer schlicht an problematischen Spezifikationen. Und lässt es dann lieber ganz als irgendwo gegen unlösbare Aufgaben zu geraten.
 
Dann müssen eben die Grafikhersteller dort irgendwie Druck machen und mehr BQ fordern, damit ihre Grafikkarten auch ausgereizt werden.
Das läuft derzeit aber bisher nur bei Nvidia mit Batman AA Gate. Solche Vorstoße machen dann auch wenig Sinn für die Verbraucher.
Da müsste es ein gemeinsamen Engagement geben, bzw ein directx12 was AA vorschreibt, bzw zumindest fordert.
 
Ich denke geholfen wäre dem Endkunden schon wenn die Spezifikationen sich nicht gegenseitig behindern. Wie eben bei SGSSAA unter DX10/11... Wewegen das eben nicht offiziel geht und auch trotz ein paar Bits bei NV nicht überall erzwingen lässt.
 
Wird es nun einen Fermi ala GTX580 nun erstmal in 28nm als GTX660 geben??
Weil wenn ja wann solls denn soweit sein??
denn kommt es wirklich so sollte man vorher schnell seine GTX580er verkaufen da eine GTX X60 meist eh immer so bei 200€ liegt und man so einen starken verlust umgehen kann.
Ich hoffe das NV mit der neuen generation dann auch mehr texturleistung bekommt um grade bei 3 monitoren oder Downsampling nicht so stark boden zu verlieren!
 
Naja nicht jeder ist so krank und benutzt 3 Monitore zum zocken :-P
 
Ich habe ja auch nur 2!!
Aber haste mal getestet wie hammer das rüber kommt??
auf 3monitor + Downsampling das wäre der hit :d
Hier mal ein Bild von Dead Island mit 3840x1080 mit mod settings und selbstgebautes FXAA ;)
Das macht nen ganz anderes spielgefühl draus weil man so richtig mitten drin ist ;)


Dafür das eine HD6970 da grade dran ist sind die FPS mehr als nur gut da man da nicht viel FPS verloren hat!
 
Zuletzt bearbeitet:
Ich bezweifel noch immer ganz stark das es nen geshrinkten Fermi geben wird! Evtl für Notebooks wo die ganzen GPGPU geschichten wohl eh kaum von interesse sind sondern es eher auf minimalen Verbrauch ankommt.
 
Ich bin so frei uns spekluiere auf eine kleine dedizierte 2D Einheit bei Kepler. Sowas ähnliches wie es Kal El bekommt. Für Windows Betrieb einfach die GPU komplett abschalten und alles auf dem kleinen Nebenchip rechnen lassen. Die Technologie hat NV ja (Tegra 3) was meint ihr?
 
ja das wäre wirklich top!
@ Games schaltet sich das monster dann voll ein!
Bis der eigentlich kepler kommt dauert es ja sicher noch ne ganze ecke!
Bei der HD7970 wird das auch erst nächstes jahr was!
AMD hatte ja gesagt das erst die 7870 kommt welche eine HD6970 mit mehr takt in 28nm ist weil TSMC dieses jahr zu viel probleme mit 28nm hat!
 
die karten werden aber denke ich auch gut ,also die 78xx. Irgendwas muss NV dann dagegen stellen.

Wäre ziemlich blöd für NV wenn AMD eine Karte hätte die für paar Monate genau bzw schneller wie die 580 ist bei nur 120w verbrauch.
 
Naja eine HD 6970@ 1Ghz ist nun auch nicht so der brüller sind grade mal 13% mehr takt!
Da kann NV auch einfach eine Ultra mit 880Mhz bringen und das wars...
 
Ist zwar hier der Kepler thread aber zur 79xx glaube ich an einen reisen fail. Ähnlich wie bei GF100 GTX480. Riesen Stromverbrauch bei nur weniger mehr Leistung. An allen Enden muss gespart werden (beim Gf100 damals das SI) damit man noch in der PCIe norm ist. Ich hoffe es für AMD nicht aber ich denke der wechsel auf 1D Einheiten ist ihr grösster Fehler seit langem.
Was ist eingentlich mit Denver? Kommt das mit Kepler oder erst mit Maxwell?
 
also mal als vergleich meine alte 6950@ 1536 und 970mhz takt hat mit ner 580 @ 930mhz gut mitgehalten ;). in Dirt3 war es 1 fps unterschied. Das Problem bei AMD war das sie von Anfang an nciht die volle Leistung auf die Strasse gebracht haben mit den 69xx karten,erst jetzt kommt immer mehr leistung raus. am anfang stand die 6950 gegen die 560 mittlerweile eher gegen die 570.

Denke das wird bei den 79xx Karten genau so sein und die Voll Leistung kommt erst später. Hoffe auch das die Serie kein Fail wird,aber 28nm lässt hoffen.

NV muss natürlich mit den 6xx Karten auch was gutes Bringen und nciht nur einen Refresh. Vor allem die Leistungsaufnahme sollte stimmen,falls sie dann noch nen kleinen Chip draufbauen der den Idle zustand übernimmt gehört sie mir :d
 
Ist zwar hier der Kepler thread aber zur 79xx glaube ich an einen reisen fail. Ähnlich wie bei GF100 GTX480. Riesen Stromverbrauch bei nur weniger mehr Leistung. An allen Enden muss gespart werden (beim Gf100 damals das SI) damit man noch in der PCIe norm ist. Ich hoffe es für AMD nicht aber ich denke der wechsel auf 1D Einheiten ist ihr grösster Fehler seit langem.
Was ist eingentlich mit Denver? Kommt das mit Kepler oder erst mit Maxwell?

Ich glaube das genau deswegen der highend viel später kommt! HD6970 und HD6950 kommen ja erstmal in 28nm mit mehr takt!
Ich finde das wäre allgemein gut wenn man das so wie intel machen würde!
Also die normalen GPUs im alten herstellungsverfahren und die Highend dann nochmal kleiner!
Also erstmal die GTX580,GTX570 shrinken in 28nm ---> als GTX660 und GTX670 verkaufen und dan den Kepler in 22nm als GTX680 bombe

Wenn die HD7970 wirklich 1D shader hat wird sie deutlich besser performen zum start hin weil 1D shader sich viel besser auslasten lassen als die 4D shader der HD6970 deswegen hat es ja auch so lange gedauert bis die HD6970 so stark wurde!
Die GTX580 war dagegen gleich vom start an richtig stark!
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh