nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Da steht: "The actual result may differ."
Und ohne Benchsettings auch sinnlos irgendwelche vergleiche anzustellen. Aber auch hier sind die 40% mehr als der Tester mit 700MHz hatte. :d

/edit: geht man nach den Ergebnissen von Computerbase in 1080p wäre es Tess. Aus und 1xAA:
http://www.computerbase.de/artikel/...amd-radeon-hd-7970/23/#abschnitt_tessellation

Da könnte die GTX680 auch schon ab und zu ins CPU-Limit laufen.

dachte ich hätte die gleichen Settings wie diese hier:

Gigabyte GTX 680 2GB already arrive at my shop! :)

Was hab ich denn falsch eingestellt?

Ja und die 40% sind genau das, was ich anhand der Benches dann auch rausbekommen hab.

Du hast vergessen 4xAA einzustellen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
Du? Von wegen "Was ist das für ein Quark?" und so? ;)


Doch, da du behauptet hast, ich zitiere:

oder

Wenn du mit der Aussage ein Problem hast, schreib mir ne PM. Aber erzähl mir nix von Sachlichkeit ;)

Und das ist Halbwissen, was du hier schreibst. PhysX ist erstens nicht der einzige Ansatz, was auf GPU läuft. Und zweitens, natürlich hat das was mit DirectCompute zu tun, wenn die Physik Engine über einen entsprechenden Layer verfügt, so wie das zB bei Bullet der Fall ist.


Richtig. Und jetzt versetze dich mal in jemanden, der glaubt, dass erst mit DirectX 11.1 eine Physik-Engine mittels DirectCompute hardwareunabhängig implementiert werden kann. Oder jemanden, der glaubt, dass DirectX 11.1 spezielle Erweiterungen für Physik mitbringt, die die Entwicklung erleichtern. Ist das dann immer noch Quatsch? Nein! Insofern hast du einfach überreagiert. Bleibe doch einfach sachlich und antworte auf solche Aussagen mit der aktuellen Faktenlage.

Nenn mir doch mal ein Spiel, was aktuell auf GPU berechneter Physik aufbaut!? Ich kenne keins... Lasse mich aber gern eines besseren belehren.

Und zum letzten, warum sollte ich mich in diese Lage versetzen!?
Nur weil das irgendjemand denkt, wird es nicht richtiger... Wie du sicher selbst weist, bringt dir DX11.1 in dem Zug eigentlich nichts mit, was DX11 auch nicht hätte. Im konkreten Fall ist es also ziemlich quatsch. Noch dazu bleibt der Part, das ich keine Implementierung kenne, welche auf DirectCompute aufbaut. Du!?
Es bleibt also quatsch. Klingt vllt hart, ist aber so. ;)

Die 680GTX ist auch nicht der High End Chip, sondern GK110 der locker 100% Flotter als eine 580GTX werden wird.

Machst du uns wieder den Spekulatius ala Bulldozer!?
Das geht mit größter Warscheinlichkeit wieder nach hinten los...

Überlege mal logisch. Doppelter Einheitenausbau wäre mit größter Warscheinlichkeit annähernd doppelter Verbrauch. Wie willst du das in maximal 300W pressen!?
Noch dazu, das wohl die Tesla Version mit großer Warscheinlichkeit wieder als 225W bzw. minimal drüber kommt.
Die 23xx ALUs klingen da schon realistischer. Gepaart mti der Aussage aus dem 3DCenter, das GK110 weniger Takt als GK104 bekommen wird. Sollten dicke unter 300W drin sein... Nur kann man sich dann von den 100%+ größer 580GTX verabschieden.
 
Es limitiert garnichts gegenüber der GTX560TI. Es skaliert fast perfekt. GK104 ist eben GF114x2:
Doppelt soviele TMUs
Doppelt soviele ROPs
Doppelt soviele Pixelberechnungen
Doppelt soviele Rasterizer
Doppelte Effizienz der Geometrieeinheiten
Vierfache Recheneinheiten bei halben Takt = Doppelte Recheneinheiten

Dazu kommt 22-28% mehr Takt, 50% mehr Bandbreite und 50% mehr L2 Cache.

Im 3DMark11 ist die Karte ca. 2,2x schneller und hier im Heaven 3.0 ebenfalls in diesem Bereich.

Das Front-End von nVidia ist eben ein Hidden Champion.



Kein AA. ;)

Mathe magst du nicht wirklich oder? ;)

Doppelt soviele TMUs
Doppelt soviele ROPs
Doppelt soviele Pixelberechnungen
Doppelt soviele Rasterizer
Doppelte Effizienz der Geometrieeinheiten
bei + ~25% Takt sind bei mir aber das 2,5 fache.....

50% mehr Bandbreite
also das 1,5 fache

und jetzt reden wir mal nicht von der geänderten Architektur ect ;) sorry aber da skaliert nix 1:1
 
Ich habe den Takt außen vorgelassen. Und habe dies und die Bandbreite extra erwähnt.

Selbst wenn am Ende nur 2x mehr Leistung zur GTX560TI rauskommt - damit ist man immer noch durchschnittlich >40% über der GTX580.
 
Ohne AA komme ich auch auf die 38Fps.

 
40% reichen mir nicht bei 500€ Straßen Preis. das wäre minimal schneller wie 7970 zu nem teureren Preis.


Naja noch 2 Tage ;)
 
Wenn man sich die Leistung der GTX680 in Heaven ansieht, ist das schon sehr gutes GTX570 SLI Niveau, wenn das auch in anderen Bereichen zutreffen sollte, könnte mich das evt. doch zufrieden stellen, zumindest, bis GK110 auftaucht...
 
Überlege mal logisch. Doppelter Einheitenausbau wäre mit größter Warscheinlichkeit annähernd doppelter Verbrauch. Wie willst du das in maximal 300W pressen!?
Dazu braucht man nur die Taktraten nicht so hoch zu takten ;)

Die 23xx ALUs klingen da schon realistischer. Gepaart mti der Aussage aus dem 3DCenter, das GK110 weniger Takt als GK104 bekommen wird. Sollten dicke unter 300W drin sein... Nur kann man sich dann von den 100%+ größer 580GTX verabschieden.
]3DCenter Forum - Einzelnen Beitrag anzeigen - nVidia - GK110 - High-End-Kepler - Q3-Q4 2012
3DCenter Forum - Einzelnen Beitrag anzeigen - nVidia - GK110 - High-End-Kepler - Q3-Q4 2012

Laut Ailuros sind GK104 +50% kein witz, das wären dann 80-100% mehr als GF110
 
Zuletzt bearbeitet:
Bei hohen Auflösungen fällt sie hinter der 7970 (vorallem mit neuen Treibern), ich bleib dabei das sie die 7950 schlägt.
 
Zuletzt bearbeitet:
Also gegenüber meiner GTX580@900 Mhz hat die Karte ca. 40% Mehrleistung
FPS:
57.5
Scores:
1449
Min FPS:
12.6
Max FPS:
157.9
 
.. in den Boden stampfen sieht für mich anders aus. Scheißhausparolen!
Dazu hört sich das nicht so an, als ob PCGH das selbst ermittelt hat...
Gehalt = 0
 
Zuletzt bearbeitet:
Für mich auch. Denke die 680er wird kaum schneller sein.
 
Mega-Ausbau: Doppelt soviele Shader und Textureinheiten wie GTX 580
Das neue Topmodell von Nvidia besitzt 1.536 Shader-Einheiten - das sind mehr als doppelt so viele Grafik-Einheiten wie die Vorgängerin Geforce GTX 580 zu bieten hat (512 CUDA-Kerne).


Was ein mieser Satz, der sich noch dazu widerspricht.
 
Ja das dachte ich mir auch schon, mehr als doppelt so viele Cuda-Kerne! Nein, genau 3x so viele :haha:
 
Machst du uns wieder den Spekulatius ala Bulldozer!?
Das geht mit größter Warscheinlichkeit wieder nach hinten los...

wenn wir im speku-news-diskussionsthread nicht spekulieren dürfen, wozu ist er dann da? ;)

außen vor, dass die meisten hier keine insider sind wird wohl nichts anderes rauskommen als aus dem bauch heraus zu spekulieren. :)
 
Tja denke ich auch. Wenn man mit Mods zockt und dann noch DS usw macht ist ne 7970 klar die bessere Wahl.
 
wenn wir im speku-news-diskussionsthread nicht spekulieren dürfen, wozu ist er dann da? ;)

außen vor, dass die meisten hier keine insider sind wird wohl nichts anderes rauskommen als aus dem bauch heraus zu spekulieren. :)

Hier geht es um das Trauma, welches Duplex beim Bulli Launch bekommen hat. Damals hat er die Erwartungen auch zu hoch gesteckt!;)
 
Hier geht es um das Trauma, welches Duplex beim Bulli Launch bekommen hat. Damals hat er die Erwartungen auch zu hoch gesteckt!;)
Erzähle bitte keinen unsinn :rolleyes:
Ich hab damals nur das wiedergegeben was von AMD Mitarbeiter erzählt wurde, z.b. vom Server Chef / JF-AMD das die IPC höher ausfallen wird, mit +33% mehr Kerne hätte man mehr erwartet.

Es wäre jetzt schön wenn wir beim Thema "Kepler" bleiben können, sonstiges wird an die Moderation gemeldet!
 
Tja denke ich auch. Wenn man mit Mods zockt und dann noch DS usw macht ist ne 7970 klar die bessere Wahl.

Das kann man so noch nicht sagen!
Bei usern die nur eine karte nutzen---> wird man die 2GB wohl kaum voll bekommen ohne das die FPS unspielbar einbricht!
Mit einer Karte muss man bei der verwendung von Downsampling meist eh abstriche mache oder das spiel ist nicht so sehr anfordernd aber dann reicht auch meist der VRAM!
Erst bei SLI wird der ram wohl ans limit kommen wenn man die leistung in Bildqualität umsetzen will!!

@Duplex
du warst was Bulli angeht auch nicht so schlimm fand ich sondern das war ein anderer kollege
 
Zuletzt bearbeitet:
Hmm ich wart wohl auf die 685 oder 690 oder wie die dann heist
 
Ich weiss garnicht, was hier alle haben. Ich hoffe, dass der 680er bischen schneller wird und ich mich dann auf evtl sinkende Preise freuen darf. Dann hol ich mir ne 7970 bischen OC und hopp bin ich wieder genau gleich auf und hab noch weniger bezahlt. Passt! ;-) Aber ich würde mal sagen abwarten und Tee trinken, geht ja nichtmehr so lange bis die 680er endlich rauskommen, gratz und THX an Nvidia, dass ihr es auch noch geschafft habt und den Wettbewerb bischen beflügelt.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh