nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Sehr ungewöhnlich, dass NV zuerst einen Performancechip bringt.
Wie schnell soll der Chip werden? Schneller als 7970 oder?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dass einzige Spiel, für welches sich eine neue GPU lohnt, ist nunmal BF3.
Und die 7970 schafft BF3 @Ultra nicht mit 60FPS. (selbst mit OC@1250 MHZ)
 
Wenn ich die Folie ganz unten auf 3DCenter sehe, dann hoffe ich ja mal, dass NVidia nicht wieder nur 2 DVI und 1 mHDMI bereit hält.
1DVI, 1HDMI, rest mini Displayport wie bei AMD wäre brauchbar. mDisplayport Adapter sind günstig zu erwerben und vielseitig einsetzbar, da mittlerweile auch an anderen Geräten vorhanden.
Zudem liegt schon ein mDP zu HDMI Adapter hier bei mir :P
 
2 DVI reichen mir derzeit, da die 120hz TFTs HDMI nicht unterstützen. Wie es mit mDP aussieht weiß ich nicht. Klar funzen die 120hz TFTs mit HDMI, aber eben nicht mit 120hz^^


Dass einzige Spiel, für welches sich eine neue GPU lohnt, ist nunmal BF3.
Und die 7970 schafft BF3 @Ultra nicht mit 60FPS. (selbst mit OC@1250 MHZ)

GK104 wird das auch nicht schaffen. GK100 werden wir sehen.
Ich weiß nur, dass das Spieleerlebnis bei BF3 nicht unbedingt "rund" sein soll mit der AMD was auch nicht unbedingt verwunderlich ist wenn man die Leistung mit ner GTX580 @ OC vergleicht.
 
Displayport schafft 1080P120, das ist also nicht das Problem.
AMD setzt bei der eigenen Version von 3D mit 120Hz ja auch auf den Displayport.

Die Bandbreite ist bei DP doppelt so hoch wie bei HDMI, die Funktionen sind fast alle vorhanden.
 
ist das bei den "mini" DPs identisch zu DVI was die Bandbreite anbelangt oder bleibt die doppelte Bandbreite??
weil USB und mini/micro USB sind ja auch nicht gleich schnell.
 
Habe dazu soweit nichts gefunden, allerdings braucht man für miniDP auf Dual Link DVI einen recht teuren "aktiven" Adapter.
In Anbetracht deiner Situation wäre also eine breite Anschlussvielfalt von 2x DVI, 1x HDMI, 1x DP recht gut. Und dabei noch alle gleichzeitig nutzbar, also nicht wie derzeit, wo ein DVI mit dem mHDMI gekoppelt ist.
 
Sehr ungewöhnlich, dass NV zuerst einen Performancechip bringt.
Wie schnell soll der Chip werden? Schneller als 7970 oder?

Ihr müsst mal etwas anders denken. GK100/110 oder 112 (kam von Charlie) scheint mehr eine art Refresh zu sein. Bei über 500mm² hat man keine Luft mehr nach oben um nochmal ohne Shrink und neuer Architektur eine bessere Version zu bringen. Sollte nicht nochmal sowas wie beim GF100 zu GF110 passieren ist verständlich warum der Top-Tog so spät kommt.
 
Infos zu GK107, alias GTX650? bbs.expreview.com/thread-49239-1-1
GK104, alias GTX680? http://i.imgur.com/E2s3u.gif

Zumindest die GTX650 mit dem 107er Chip könnte darauf deuten, dass NV die 660 zur 680 umbenennt.
Naja, was dann aus GK100 wird muss sich zeigen, vllt wird aus GTX (Gaming), dieses ominöse GTR (HPC) wie auf der einen Folie...

Obwohl der Kühler verdächtig nach einer 460 aussieht, abgesehn von dem Aufkleber mit Querstreifen, die hab ich noch nie gesehn, auch NVs bisherige Refenzaufkleber waren anders :d
Aber 3 Zahlen austauschen dürfte das kleinste Problem sein, von 460 zu 680 und von 1.0GB zu 2.0GB...

Anderseits wäre es vllt garnicht verkehrt die Kühler der 460 und 560ti weiter zu benutzen.
Wenn der Verbrauch und die Temperatur sinkt, hätte man schon sehr gute Kühler parat.
Und große Anpassungen müssten nicht gemacht werden...

Bin zB mit dem "kleinen" Kühler meiner 460 super zufrieden, kein Wechsel nötig und die Karte ist in Idle unhörbar, und selbst unter Last nur dezent warnehmbar!
Als ich mal die Abdeckung abgenommen hab und nur den Kühler montierte, war die Karte merklich lauter.
 
Hört sich ja nicht wirklich nach Leistung an!
 
Bis zur Cebit im März nur Gerüchte und Mist :( Von vorne bis hinten.....

Top Gerüchte, die Graka wäre legendär gut! Schwache Gerüchte, die Graka hat nix drauf....
Es könnte ein neuer G80 werden, oder en neuer Fermi. Man weiß es net....

Die Spannung steigt auch nicht wirklich, da es noch locker 6-8 Wochen dauern wird, bis es handfeste Infos gibt. Davon gehe ich zumindest mal aus....
 
In conclusion of this article, if any of your friends figures out that this settlement means "NVIDIA will now ship Rambus XDR memory with its future GPUs or SOC's", think twice - the patent license agreement covers DRAM in existing and future products

Read more: NVIDIA Settles with Rambus; New Patent License Agreement Signed by VR-Zone.com

Na ob an der XDR 2 Geschichte mit Kepler doch was dran ist,auch wenn teilweiße abgeschrieben;)

NVIDIA Settles with Rambus; New Patent License Agreement Signed by VR-Zone.com



Und OBR beteuert wieder mal die Performance von Kepler

http://www.obr-hardware.com/2012/02/jak-stachuj-radi-v-dobranech-uz.html
 
Zuletzt bearbeitet:
XDR 2 wäre schon gut, aber würde das in der Praxis wirklich mehr Performance bedeuten?

P.S. Kann mir vielleicht jemand von euch helfen? http://www.hardwareluxx.de/community/f14/tool-nvidia-inspector-1-95-a-705213-27.html

Laut Patent ist es DRAM aber wenn Rambus z.Zt so unter Druck ist finanziell(wobei es den Patentaasgeiern eher recht geschieht:fresse:) vielleicht hat die Katze Huang ja noch mehr aus dem Kreuz geleiert

Und ja XDR 2 würde die Bandbreite schon positiv beeinflussen

PS:hoffentlich haben die kein Patent auf Aaasgeier angemeldet und verklagen mich:haha:
 
Zuletzt bearbeitet:
Nur würde das allein wohl nicht mehr FPS bedeuten ... kannst du mir in Sachen NV Inspector weiterhelfen?
 
sollte es so sein das was im Busch ist mit XDR 2 wirft sich die Frage auf (was ich weiter oben schon mal fragte )ob jemand einschätzen kann wie der Unterschied im Preis so ca. wäre zwischen GDDR5 und XDR2 wäre???.Kann mir vorstellen das es die Karten deutlich verteuert.

Gruß herm
 
Nur würde das allein wohl nicht mehr FPS bedeuten ... kannst du mir in Sachen NV Inspector weiterhelfen?

Nicht hier aber schau mal in den Inspectöri Thread dort hab ich dir nen Link zu einer recht ausführlichen Anleitung gepostet

---------- Post added at 18:17 ---------- Previous post was at 18:16 ----------

sollte es so sein das was im Busch ist mit XDR 2 wirft sich die Frage auf (was ich weiter oben schon mal fragte )ob jemand einschätzen kann wie der Unterschied im Preis so ca. wäre zwischen GDDR5 und XDR2 wäre???.Kann mir vorstellen das es die Karten deutlich verteuert.

Gruß herm

Also zu 80% würde ich sagen XDR 2 ist Bullsh... was die Preise betrifft kommts ja eher auf das Verhandlungsgeschick von den Grünen an
 
Also zu 80% würde ich sagen XDR 2 ist Bullsh... was die Preise betrifft kommts ja eher auf das Verhandlungsgeschick von den Grünen an

Denke ja auch das es nichts wird ! nur ist halt so das man schon jeder Nachricht hinterher denkt und fast alles nicht hinhaut da kann man schon Frust schieben.

Gruß herm
 

Anhänge

  • slajdos.jpg
    slajdos.jpg
    73,8 KB · Aufrufe: 101
Zuletzt bearbeitet:
GDDR5...toll
mehr wissen wir durch die Folie aber nicht .. doch, das die Karten nun tatsächlich 6xx heißen werden^^
 
Schöne Folie und wann enthüllt man die bitte? :rolleyes:

Unten sind wenigstens mal en paar Balken. Die würd ich gerne sehen....außer das ist nur ne 660GTX!
 
Zuletzt bearbeitet:
:lol: - ein HowTo: "wie bleibe ich im Gespräch / generiere Klicks obwohl ich gar nix sagen kann?!"

Schon lustig... diese Folie.

--

Wird ja immer doller..
GTX680 mit GK104??
 
Zuletzt bearbeitet:
oO Die Folie erinnert mich an das hier:
http://www.3dcenter.org/dateien/abbildungen/nVidia-GeForce-GTX-680-Specifications.gif
Also wohl identisches Bild und laut OBR solls ja echt sein.
Das würde bedeuten 1. nur 2GB VRAM 2. heißt die Karte GTX680 und hat 3. nur 2DVI und einen mHDMI Ausgang.
Gerade was den RAM betrifft sehr schade.... Dürfte sich aber wohl um GK104 und nicht GK110 handeln, der dann vllt als 685 oder 780 kommen wird.
 
Da passt doch nix zusammen.. 256bit und 2 GB - das geht zwar, aber dann müsste der Speicher extrem schnell sein, damit er nutzbar wäre..
 
Das würde bedeuten 1. nur 2GB VRAM 2. heißt die Karte GTX680 und hat 3. nur 2DVI und einen mHDMI Ausgang.
Gerade was den RAM betrifft sehr schade.... Dürfte sich aber wohl um GK104 und nicht GK110 handeln, der dann vllt als 685 oder 780 kommen wird.

Wartet doch erstmal Tests ab ob und wie stark eventuell eine 4GB Karte ins Gewicht fallen würde,wenn das keinen Effekt hat ists doch auch zweckloß den Energiekonsum noch mehr in die Höhe zu fahren

3GB brachten bei der 580GTX im SLI schon keinen nennenswerten Erfolg beim Downsampling.2GB hat noch keiner getestet bei der Geforce.Die magische Grenze muss also irgendwo zwischen 1,5GB und 3GB liegen

Zu den Anschlüssen 2DVI + 1HDMI sind in der Summe auch 3 falls die Taktgeber diesmal dafür auf der Platine/Chip vorhanden sind,ist ein 3 Displaysetup inklusive 3D Vision Surround durchaus machbar
 
Zuletzt bearbeitet:
Man kann doch jetzt nicht dicke über nen GK110 reden und dann im April nur nen GK104 als 680GTX raushauen. Das gibts doch gar nicht...
Außer der GK104 zerrobbt die 7970 tatsächlich, dann hält Nvidia das dicke Teil bis Herbst oder so zurück, das wäre vielleicht ein Mist :mad:
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh