nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Und genau das ist auch so mit einer HD7970 !!

Wer das nicht versteht kann einem schon leid tun... irgendwie

Deinen Vergleich kann man wirklich nicht für voll nehmen.
Eine Langsame GPU gegen eine schnelle GPU die mehr als 2GB V-ram (wurde schon nachgemessen) ausnutzen kann und noch Reserven hat.

Desweiteren Frage ich mich, warum sich die Leute so über den VRAM auslassen. 2GB sind weit mehr als die Meisten nutzen und völlig ausreichend. Nur weil AMD auf ihren Karten 3GB verbaut, ist es gleich besser ? Wenn AMD 30GB verbauen würden, dann müsste NVIDIA dies auch tun ??

Wer lässt sich denn aus? High End Karten sollten schon einen für aktuelle Verhältnisse soliden Speicherausbau haben und da sind 1,75GB für die GTX670 für den ein oder anderen sicherlich etwas dünn für SLI.
Ob 2GB für GTX680 CF einem High End User mit hohen Ansprüchen reichen, darf bezweifelt werden.
Es steht auch nicht in Abrede, dass 2GB V-ram sicherlich zu 98% ausreichen werden, trotzdem sollte man etwas realistisch bleiben.

Davon abgesehen, dass die komplette Tabelle sowieso eher ein Fake ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@fdsonne:

1536*2 Flops/Takt (wie schon jetzt)*1 GHz = 3072 GFlops
Sowas in der Richtung erwarte ich, gepaart mit 64 oder 96 TMUs, 32 ROPs und dem restlichen Kram. Also für GK104.
 
Glaube ich nicht so recht dran. Dann müsste GK110 ja weit über 2000 ALUs bekommen um überhaupt sich signifikannt absetzen zu können. Das macht so keinen Sinn würd ich sagen.

Die 768/1024 für GK104/110 sehen da in meinen Augen schon realistischer aus ;)


Vllt war auch das Wegfallen der Hotclocks nur ein Gerücht und es kommt anders?
 
@fdsonne
Danke für den Beitrag, lese solch Infos immer gerne ;)
Bei dem Multi für G200 muss ich aber Einspruch einlegen, der ist etwas über 2.
die GTX 285 hat z.B. einen Multi von 2,278x (648 zu 1476 bzw bei mir kommt 720 zu 1639 raus).
 
Wieso macht es keinen Sinn? Wenn die Hotclocks wegfallen, was durchaus der Fall sein könnte, müssen sie die Shaderanzahl stark erhöhen.
 
Oh OK, dann wars etwas anders :fresse: Ich hab auf die schnelle nicht nachgesehen ;)

Wieso macht es keinen Sinn? Wenn die Hotclocks wegfallen, was durchaus der Fall sein könnte, müssen sie die Shaderanzahl stark erhöhen.

Durchaus, aber ich halte den Schritt in Sachen Fläche sowie Leistungsaufnahme für zu extrem.
Die NV GPUs waren schon seit je her sehr groß im Vergleich zu den AMDs... Und mit ner 3-4 fachen Anzahl an ALUs würde das Ding wohl extrem riesig werden. Auch wenn man durch den Wegfall der HotClocks etwas Fläche pro ALU einspart, wäre das immernoch extrem. Ich halte das aus wirtschaftlicher Sicht für wenig sinnvoll. Vor allem, erkauft man sich mit Takt quasi Leistung ohne was dafür tun zu müssen. Und es macht nicht den Eindruck, als hätten die aktuellen NV Karten irgendwie ein Taktproblem. OC mit 1GHz+, sprich 2GHz ALU Takt sind da nix wirklich besonderes.
In 28nm sollte sich das viel eher noch leicht bessern.
 
Zuletzt bearbeitet:
Naja wenn man an einer Stelle 40 Fps hat und die Fps brechenauf einmal auf der selben stelle auf 18 Fps ein und das Spiel kommt aus dem stottern nicht mehr raus.
Das ist mir bei Crysis 2 BF3 und Metro schon passiert bei Downsampling.
Das hat nix mit einem bug zu tun wenn der ram zu stark überläuft ist sabat.

Das ist aber nicht der Fall@BF3. ;) Btw. Ich warte immer noch auf nachvollziehbare Beispiele...
Man findet im Endeffekt immer Settings wo es spielbar bleibt, natürlich kann man den VRAM vollpumpen mit Mods etc. nur reicht oft die Rohpower garnicht mehr aus und man muss selbst auf HighEnd Systemen Kompromisse eingehn. Wo wir wieder am Anfang wären. :)
 
Zuletzt bearbeitet:
Wie du meinst bleibe in dem Glauben ich kann BF3 im Single Player recht flüssig Spielen bei 3840*2160 @Ultra ohne MSAA die Karten haben ordentlich Bums da für 2*7970 im CF 1125MHZ Average um die 55-60 FPS.
Wo bei ich nicht wieder am Ausgangs Punkt bin.
Wenn die GTX680 noch stärker wird will ich das auch in unterschiedlichster Form Umsetzen können da für braucht man Ram.
Habe versucht einen Screen Shot zu machen da ich aber ein Tool für Downsampling verwende und die Treiber Signatur gehackt ist funzt es leider irgend wie nicht richtig mit dem Screen.
 
Zuletzt bearbeitet:
schließt sich dadurch das Game?
 
@Thunderburne: Warum soll ich bei 3840x2160 spielen, wenn ich auch 2560x1440 und zusätzlich 4xSGSSAA haben kann? Du siehst... Angesetzte 2GB würden dicke reichen, ich kann diesen VRAM Wahn nicht wirklich nachvollziehen.
 
Zuletzt bearbeitet:
Carlo was ist dein Problem bei BF3 Funzt kein SGSSAA .
3840*2160 sieht um Welten besser aus als 2650 +1440 und man brauch gar kein AA. Da durch wird auch wieder Leistung frei um die hohe Auflösung zu fahren.
1.Mehrere Monitore viel Vram erwünscht.
2.Downsampling viel Vram erwünscht
3. 2 oder 3 Karten im Verbund ohne Einschränkungen nutzen können .
4.Ich sage doch gar nicht das es für eine Karte nicht reicht mit 2GB.
5.Ich mag SGSSAA auch aber das lüpt auch net immer so wie man will heufig muss man zurück auf DX9 damit es richtig funzt Downsampling kann man (nahe zu) uneingeschränkt benutzen.
Für Entusiasten ist viel Ram ein Geschenk .

Ich weis gar nicht warum du so drauf beharst recht zu bekommen.
Ich glaube hier von den Leuten im Forum ist niemand von viel Ram ab geneigt wenn er 2 oder 3 oder Karten verbauen will .
Oder unserer Skully hat mal locker 4 Karten rein gehämmert.
MFG
 
Zuletzt bearbeitet:
carlo geht halt von "normal sterblichen" aus, die nur eine High-End Karte kaufen und da reichen halt 2GB, 3GB kriegst mit einer nie voll
 
Durchaus, aber ich halte den Schritt in Sachen Fläche sowie Leistungsaufnahme für zu extrem.
Die NV GPUs waren schon seit je her sehr groß im Vergleich zu den AMDs... Und mit ner 3-4 fachen Anzahl an ALUs würde das Ding wohl extrem riesig werden. Auch wenn man durch den Wegfall der HotClocks etwas Fläche pro ALU einspart, wäre das immernoch extrem. Ich halte das aus wirtschaftlicher Sicht für wenig sinnvoll. Vor allem, erkauft man sich mit Takt quasi Leistung ohne was dafür tun zu müssen. Und es macht nicht den Eindruck, als hätten die aktuellen NV Karten irgendwie ein Taktproblem. OC mit 1GHz+, sprich 2GHz ALU Takt sind da nix wirklich besonderes.
In 28nm sollte sich das viel eher noch leicht bessern.

Und du hälst es für ausgeschlossen, dass man die ALUs so verändert, dass sie denen von AMD ähnlicher werden? Die packen ja auch 2048 auf ein noch kleineres Die.
 
@Thunderburne: Warum soll ich bei 3840x2160 spielen, wenn ich auch 2560x1440 und zusätzlich 4xSGSSAA haben kann? Du siehst... Angesetzte 2GB würden dicke reichen, ich kann diesen VRAM Wahn nicht wirklich nachvollziehen.

Das will ich sehen, das die Konstellation 2560x1440 + 4xSGSSAA ausgehend von dieser Auflösung weniger VRAM verbrät als 3840x2160...
Am besten in einem Game wie Skyrim ;) Ich bin Gespannt auf Vergleiche ;)

carlo geht halt von "normal sterblichen" aus, die nur eine High-End Karte kaufen und da reichen halt 2GB, 3GB kriegst mit einer nie voll

Sag niemals nie ;)
Wie war das damals zu HD4870 512MB Release? -> Ach 512MB riechen dicke aus für die nächste Zeit... Und was war? Pustekuchen war, die 1GB Karte kam unwesentlich später. GPU Technisch gab es keine Unterschiede, als "stolzer" Besitzer der 512MB Version kann ich dir sagen, das es nach gut einem bis anderthalb Jahren nur noch unschönes Spielen war ;)
Gleiches in Bund mit der GTX470/570. Heute gerade so ausreichend. Wenn man aber viele Details reinschraubt, ist der VRAM voll, teils gar übervoll und es gibt Framedrops durch Nachladeruckler. Und nein, da sind noch keine Texturpacks, Downsampling oder SGSSAA mir drauf.

Warum hier Leute wegen dem VRAM Panik schieben ist mir aber schleierhaft, um so mehr, um so besser...
Das klingt immer so, ja sollen sie doch bisschen am VRAM sparen, braucht heute sowieso keiner, damit wird das P/L Verhältnis gleich um Welten!! besser. Aber das kannst du total vergessen. Unterm Strich bleibt HighEnd nunmal HighEnd. Wer P/L kaufen will, kauft Mittelklasse. Ob da nun 50€ mehr oder weniger drauf kommen, spielt bei dem extrem miesen P/L (und das mit kommenden Karten sogar noch schlechter, wenn die Preise weiter steigen) keine Rolle mehr.
Analog dazu der Verbrauch, das interessiert auch nur am Rande, solange es kühlbar bleibt.

Übrigens, es ist halt schwer auf ein 512Bit SI 3GB zu packen, auch wenn NV sowas möglich machen könnte bzw. in kleineren Karten schon tat ist es nicht optimal. Es bleibt halt nur 2GB, was längere Sicht wohl zu wenig oder 4GB, auch auf lange Sicht ausreichend.

Aus Endkundensicht ist in meinen Augen nix schlimmer, als sich für teuer Geld ne HighEnd Karte zu besorgen und dann irgendwann gezwungen zu sein, wegen so ner Lapalie von zu wenig VRAM die Karte tauschen zu müssen. Und nein, der HighEnd Käufer geht nunmal keine Kompromisse ein, dafür bezahlt er auch HighEnd Geld und will HighEnd Optik.

Und du hälst es für ausgeschlossen, dass man die ALUs so verändert, dass sie denen von AMD ähnlicher werden? Die packen ja auch 2048 auf ein noch kleineres Die.

AMD verwendet immernoch Vector ALUs ;) Platztechnisch scheint sich das deutlich bemerkbar zu machen. Auch wenn sich diese mehr oder weniger unabhängig in SuperSkalareinheiten aufteilen lassen bzw. es dazu noch Skalareinheiten dediziert gibt, ist Leistungstechnisch das ganze aber wohl trotzdem extrem stark Optimierungsabhängig. Rein aus Rohleistungssicht im Vergleich zum Spieleleistungsoutput ist die neue AMD ne Krücke gegen die 580er ;) Und das kommt sicht nicht daher, weil AMD es nicht kann... Sondern viel eher, weil sich das Problem von Vec4 oder Vec5 ALUs mit GCN eigentlich gar noch verstärkt hat in Form der noch breiteren Vectorisierung.
Der allseits "beliebte" Furmark Test zeigt auch, das die AMD Karte annähernd 50% mehr Verbrauch an den Tag legt, wenn man die ALUs im Gegensatz zur Gaminglast ausfährt. Was unterm Strich wohl auch zeigt, wie wenig Ausgelastet (prozentual gesehen) die ALUs selbst sind. Bei NV lag bis dato der Zuwachs eher im Bereich ~25%. Mit den G200er Karten sogar noch deutlich kleiner ;)
 
@fdsonne
wie immer schön sachlich auf den Punkt gebracht. Lob musste sein weil deine Beiträge immer sachlich und gut zu begreifen sind.

Ich kann es kaum abwarten bis das Teil kommt inc WaKüler. Der PC muss langsam hoch aus dem Keller. Zur Zeit ist nur eine GTX460 drin. Also abwechslung ist angesagt.

MfG Jaimewolf3060
 
äh leute, ihr sülst euch gegenseitig ne frikadelle ans knie wegen vram....

scheinbar ist alles aktuelle an fakten fake..

meiner meinung nach sind für normalos 1,5-2 gb die nächsten 1,5 jahre ausreichend für full hd. dsampler nehmen halt die 3 o. 4gb version.

aber ganz ehrlich: wenn ich mein holodeck endlich hier betreiben will, solls schon die gtx680 inkl. der hier genannten spezifikation sein.:btt:

ich halte das für keine fantasterei!
 
Charlie hat nochmal in seinem Forum klargestellt, dass auch rein softwarebasierte PhysX-Titel beschleunigt werden könnten. Mit T&L haben wir damals ähnliches gesehen - die GPU hat Aufgaben übernommen, die zuvor die CPU inne gehabt hat. Nvidia kontrolliert ja das ganze Ökosystem, also die PhysX Software selbst und natürlich ihren Grafiktreiber. Da müsste es möglich sein, API Calls umzubiegen und die Berechnungen auf der GPU machen zu lassen.

Die Frage ist, was bringt das bzw. wieviel. Ist Software-PhysX so ressourcenhungrig, dass sich das überhaupt bemerkbar machen würde (ich spreche von normalen Titeln, nicht solche, die extra Effekte dabei haben wie Batman AA/AC)?
 

Weißt Du, solche Geschichten erlebst jeden Tag in zig verschiedenen Foren von angepissten Fanboys und die Antwort von OBR zu
Charlie´s Geplänkel wird nicht lange auf sich warten lassen . Meine Vermutung geht dahin, dass beide einiges Wissen, aber noch nichts
hundertprozentiges und auch nicht alles sagen dürfen/können .

Wie ich schon mal schrieb, wenn nVidia es schafft bis kurz vorm Release der neuen Karten die Specs nicht ins WWW zu transportieren,
Hut ab und schauen mit welchen Leistungsdaten dann nVidia uns überraschen kann - Auch für AMD könnten vorab Infos
interessant sein, um evtl. kurzfristig reagieren zu können ;)
 
Charlie hat nochmal in seinem Forum klargestellt, dass auch rein softwarebasierte PhysX-Titel beschleunigt werden könnten. Mit T&L haben wir damals ähnliches gesehen - die GPU hat Aufgaben übernommen, die zuvor die CPU inne gehabt hat. Nvidia kontrolliert ja das ganze Ökosystem, also die PhysX Software selbst und natürlich ihren Grafiktreiber. Da müsste es möglich sein, API Calls umzubiegen und die Berechnungen auf der GPU machen zu lassen.

Die Frage ist, was bringt das bzw. wieviel. Ist Software-PhysX so ressourcenhungrig, dass sich das überhaupt bemerkbar machen würde (ich spreche von normalen Titeln, nicht solche, die extra Effekte dabei haben wie Batman AA/AC)?

Vorteil wäre, man könnte quasi mehr Physik implementieren ohne das es groß Performancenachteile mitsichziehen würde. Aber mal ehrlich. CPU PhysX performt 1A wenn die CPU mal richtig ausgefahren werden würde. Wenn ich mir anschaue, was die GPU PhysX Blockbuster an CPU Last an den Tag legen, wenn man die Physik auf die CPU stellt, dann hab ich eher das Gefühl, NV will gar nicht, das man mehr Physik bekommt, sondern die wollen viel eher ihr Produkt so bewerben, das man unbedingt NV GPUs kauft. ;)
Und zum ersten noch, T&L musst ja auch Softwareseitig unterstützt werden, nur weil die GPU es kann, wirds nicht automatisch besser ;)

Vllt hat NV auch mittlerweile begriffen, sollte sich das alles bewahrheiten, was aktuell um PhysX geplänkelt wird, das man mit ner Lösung für einen Hersteller only nicht weit kommen wird. Im Moment mangelt es nur noch an der Konkurenz. Spätestens wenn sich da mal paar Leute hinsetzen und ne OpenCL Engine zusammen schustern, kann NV ihr PhysX wohl einpacken.
Und Softwareseitig über die CPU selbst scheint mir der Marktanteil von PhysX Games auch nicht sonderlich hoch. Entweder die Lösung selbst in schwierig/lizenztechnisch unschön, oder aber andere Lösungen sind einfach schlicht besser.

Wie ich schon mal schrieb, wenn nVidia es schafft bis kurz vorm Release der neuen Karten die Specs nicht ins WWW zu transportieren,
Hut ab und schauen mit welchen Leistungsdaten dann nVidia uns überraschen kann - Auch für AMD könnten vorab Infos
interessant sein, um evtl. kurzfristig reagieren zu können ;)

Schaut man auf AMD, waren bestenfalls Ende November/Anfang Dezember letzten Jahres Handfeste Infos im Netz unterwegs... Und zu Weihnachten wurde die Karte schon vorgestellt.
Wenn NV sich noch bis April Zeit lässt, ist die aktuelle "unwissenheit" der Gerüchteküchen nicht wirklich was besonderes ;) Könnte aber auch gut sein, das NV aktuelll schlicht noch nicht wirklich fertig ist mit dem Teil. Vllt gibts auch Fermi V2, so in etwa wie, aus Zeitlichen Gründen mussten wir die GPU beschneiden um überhaupt was bringen zu können oder sowas. -> aber warten wir mal weiter ab.
 
Selbst wenn man CPU-PhysX klar beschleunigen könnte, würde nur die CPU entlastet - die ist aber eh nicht der bremsende Faktor in Spielen, jedenfalls meistens nicht. Wenn man es sich recht überlegt, bringt das irgendwie gar nix.

Ach ja, im XS Forum bestätigt einer angeblich die Specs für GK104 von der Chiphell Folie. Es würde auch zu den Gerüchten und Aussagen im 3DC passen, und auch Charlie hat sie ja nicht wirklich abgeschrieben.

Das wäre dann für GK104:
64+ TMUs (64 soll falsch sein, also wohl irgendwas zwischen 80 und 96)
1536CC
32 ROPs
256bit
1+ GHz (ich schätze mal 1100-1150)
TDP<200W

Sieht irgendwie wie ein geshrinkter Cayman aus :d
Das Ding könnte sich dann im Rahmen der 7950 bewegen, hätte deutlich mehr Rechenleistung aber weniger Bandbreite.
 
Mhhh das wären über 3TFlops/s in SP...
Kann NV wirklich einen derartigen Schritt wagen? Vor allem, das Teil ist "Mittelklasse" wenn noch ein GK110 dazu kommt, hätte der wohl dann 4-5 TFlops/s stehen. Oder aber die Gerüchte zu zwei Modellen sind alle quatsch und es kommt wie üblich nur eins ;)
 
Für ein so baldiges Release gibts irgendwie sehr wenig input. Sicher, Leistungsdaten gabs eigentlich immer recht spät, aber die Architektur stand davor schon viel früher fest.

Ich hab ja damals auch den Fermi Spekuthread betreut und dort war recht früh klar wie der Aufbau nun aussieht.
 
Eine Theorie bzgl. des PhysX-Krams:

PhysX 3 mit vollem Multicore-Support, perfekt optimiert auf aktuelle CPUs.
All diese Optimierungen aktiv, wenn eine Kepler/Nvidia-GPU im System steckt, sonst aus?

Denkbar? Ich würde es Nvidia zutrauen.
 
Na der Aufbau ist doch mehr oder weniger klar...
Es bleibt bei 1D. Einzig die Hotclocks fallen wohl weg (wobei das nicht 100% sicher ist)

Anzahl der Einheiten aktuell unbekannt. Spekuliert für GK104 von 768-1536.
Takt spekuliert von unter 1GHz + Hotclocks bis gut über 1GHz ohne Hotclocks.

SI wird wohl 256Bit für GF104 und 512Bit für GF110. VRAM gibts 2/4GB mit GDDR5 Modulen.

Sieht man mal von Spielereien wie irgendwelchen dedizierten Einheiten ab, ist das auch nur ein G80 mit geänderter Taktdomain :fresse: und dem weggefallenen MUL.
Ich behaupte, das Teil performant ähnlich Fermi. Sprich lässt sich nahezu 1:1 aus Fermi Leistungsaufbau ableiten. Im Grunde ist doch alles klar, außer der endgültige Ausbau in Form der Einheitenanzahl :fresse:
 
SI wird wohl 256Bit für GF104 und 512Bit für GF110. VRAM gibts 2/4GB mit GDDR5 Modulen.
GK104 und GK110 ;) Abgesehen davon, könnte es genauso gut 384 Bit bei 3 GiB sein beim GK110. Die riesige Bandbreite wird ja sowieso nicht ausgereizt ;)
 
Ich behaupte, das Teil performant ähnlich Fermi. Sprich lässt sich nahezu 1:1 aus Fermi Leistungsaufbau ableiten. Im Grunde ist doch alles klar, außer der endgültige Ausbau in Form der Einheitenanzahl :fresse:

Wie kommst du darauf? Wenn der Hotclock wegfällt, könnten sie die Cuda-Cores selbst evtl. stark verändert haben.
Wenn das Ding so wie Fermi performen würde, wäre schon GK104 ohne Bandbreitenlimitierung mindestens 50% vor der GTX580. Das wäre...schnell :d
 
eben nicht

wenn die CudaCore verdoppelt werden, die aber nur mit dem Coretakt, also halbem Hotclock arbeiten, ist die Leistung identisch zu den Fermi Derivaten mit entsprechenden CudaCores
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh