GPU-Z-Screenshot zeigt angeblich Eckdaten der NVIDIA GTX 680

mhab

[online]-Redakteur
Thread Starter
Mitglied seit
03.08.2007
Beiträge
3.900
<p><img style="float: left; margin: 10px;" src="images/stories/logos/nvidia.gif" alt="nvidia" width="100" height="100" />Noch hat das kalifornische Unternehmen NVIDIA für seine kommende Grafikkarten-Generation "Kepler" keinen Veröffentlichungstermin genannt, aber nun ist angeblich der erste GPU-Z-Screenshot von einer GTX 680 aufgenommen worden. Der Grafikprozessor wird bekanntlich erstmals in 28 Nanometern gefertigt und kann wohl auf 1024 CUDA-Cores zurückgreifen. Neben einer Verdoppelung der CUDA-Kerne gegenüber dem Vorgänger GTX 580, soll auch die Transistoren-Anzahl ordentlich gewachsen sein. An dieser Stelle verrät der Screenshot mit 6 Millionen Transistoren ebenfalls die doppelte Anzahl gegenüber dem kleineren Bruder. Zur weiteren Ausstattung zählen ein 512-Bit-Interface, um...<p><a href="/index.php?option=com_content&view=article&id=21253&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ihr glaubt doch wohl nicht ernsthaft, dass nVidia sein künftiges Single-GPU-Flaggschiff mit lächerlichen 2GB VRAM ausstatten wird...?
 
hat gpu-z überhaupt daten über die 680 in seiner db wenn nicht dann ist das ein fake
 
Wollt ich auch grad fragen : Hat techpowerup überhaupt schon die Daten einer GTX680 ?
 
mit dem Deblur kommt man auch net weit , aber die Speicher Taktraten fangen mit einer 1 an und enden mit einer 2 , das ist sicher
Mehr kann ich leider net entziffern :/ (bei schader bin ich der meinung das die 8 die endziffer ist)
 
Ist doch schon vor Tagen wenn nicht gar Wochen als Fake entlarvt worden. Der Programmier von GPUZ hat den Fake bestätigt..
 
Das der GPU-z Screen ein Fake ist, zeigen schon alleine die Unkenntlich gemachten Sachen wie:

SM 5.x
x16 @ x16 bei PCIe 3.0
GeForce Treiber Version

Das ist ziemlich unsinnig, als wenn es ein Riesen Geheimnis wäre, das sie Minimum SM 5.0 und PCIe 3.0 x16 unterstützt (schneller als PCIe x16 gibt es eh nicht), sowie die Treiber Version.
 
Ihr glaubt doch wohl nicht ernsthaft, dass nVidia sein künftiges Single-GPU-Flaggschiff mit lächerlichen 2GB VRAM ausstatten wird...?

2 GB VRAM sind absolut nicht lächerlich und eine Steigerung von rund 500mb, auch wenn AMD 3 GB verbaut bedeutet das noch lange nicht das NVIDIA nachziehen muß.
Aber als Fake ist die Diskussion eigentlich hinfällig....
 
Ihr glaubt doch wohl nicht ernsthaft, dass nVidia sein künftiges Single-GPU-Flaggschiff mit lächerlichen 2GB VRAM ausstatten wird...?
Ganz egal mal ob das jetzt ein fake ist....
Äh vieleicht wird es auch andere Versionen geben?

:rolleyes: Und was soll an 2GB jetzt genau lächerlich sein? Willst du Crysis mit HD mods auf 5 Monitoren spielen?
 
Ganz egal mal ob das jetzt ein fake ist....
Äh vieleicht wird es auch andere Versionen geben?

:rolleyes: Und was soll an 2GB jetzt genau lächerlich sein? Willst du Crysis mit HD mods auf 5 Monitoren spielen?

also ich find 2gb vram auch etwas wenig, bf3 ziehtja schon in full hd auf ultra 1600mb +
 
Sind diese 1600MB dann auch der Speicher, der momentan wirklich in der Szene genutzt wird oder einfach nur ein großer Puffer?
Mein Windows hat gerade 3,7GB RAM in beschlag. Heißt aber nicht, das es mit 3GB RAM nicht genau so laufen würde.
Außerdem verschweigst du natürlich mit Absicht das du irgendwelche Kantenglättung reinpflasterst. :P
 
Sind diese 1600MB dann auch der Speicher, der momentan wirklich in der Szene genutzt wird oder einfach nur ein großer Puffer?
Mein Windows hat gerade 3,7GB RAM in beschlag. Heißt aber nicht, das es mit 3GB RAM nicht genau so laufen würde.
Außerdem verschweigst du natürlich mit Absicht das du irgendwelche Kantenglättung reinpflasterst. :P

das ist einfaches 4xmsaa, von ssaa und co ist da nichtmal zu reden
jetzt überleg dir mal was bei 27" monitoren mit noch höheren auflösungen bei rumkommt, die neuen amds haben nicht hone grund 3gb vram

was soll das gespräch eigtl ,du willst hier wohl den leuten weismachen das man den ram nicht braucht, was eben nicht stimmt, im luxx dreinmal nicht..
 
Zuletzt bearbeitet:
ich hoffe auch das ie mit 3 gb kommen und das bitte bald bzw ein parr handfeste Infos .
 
Das mit den 2GB ist doch ein Vor-/Nachteil des geraden 512Bit-SI. Dadurch sind eben nur 1GB/2GB und als nächstes 4GB möglich.

schon die GTX580 und GTX570 war mit der doppelten Speichermenge von dann 3GB und 2,5GB nur selten anzutreffen und sehr teuer, was schon ein gewisser Nachteil war.

Jetzt ist hingegen AMD bei HD7970 und HD7950 gzwungen, diese krummen Speichermengen zu machen und damit die Graka zu verteuern.

Kann allerdings auch zum Fake gehören, oder ist das 512Bit-SI gesichert? fände es etwas komisch, wenn jetzt bei Nvidia immer abwechselnd 384Bit (G80, GF100/110) und 512Bit (G200(b), GK100?) kämen.
 
Von den daten her idt das ja ein gf110x2... si kürzen fertig. Identisch grösse und leistungshinger bei doppelter shaderpower dank halber fertigungsbreite. Ist 28nm halfnode zu 40nm? So ein chip würde die 7970 abziehen aber denke auch unwahrscheinlich. Viel zu teuer obwohl man bei der entwicklung spart. Ausserdem hat der gpuz screen noch hotclock was kepler ja nicht mehr haben sollte.
 
Hallo,
ist es nicht so, dass GPU-Z sich die Chipdaten aus einer Datenbank holt? Das liest doch eigentlich nur die ID der Karte aus und holt dann die technischen Daten dazu aus einer Datenbank, in der der GK110 noch nicht eingepflegt ist, weil NVidia ja noch keine Daten veröffentlicht hat.
Insofern kann z.B. die Shader Zahl eigentlich noch gar nicht bekannt sein, was ein klares Zeichen Richtung Fake ist...
 
Hoffentlich wir der Chip schneller als eine mit 1250mhz OC betriebene HD7970.
2GB wären echt knapp DS lässt grüßen vor allem wenn man mit 2 Karten los legen möchte der Power würden 3GB + gut zu Gesicht stehen.
 
Mir würde eine Mainstreamkarte die meine GTX460 ablösen kann viel wichtiger - vorallem was den Verbrauch angeht ^^
 
Also ich weiß ja nicht ich schätze mal das Nvidia nicht so viel Speicher geben wird das bei amd ist doch nur Marketing und das die Karten so gut werden glaub ich nicht was würde dann die Gtx 580/ 7970 kosten 300€ ?
 
Das ist bei AMD kein Marketing, sondern technische Notwendigkeit dank krummem 384Bit-SI. Es ginge nur 1,5Gb oder 3GB und ersteres ist für High-end etwas wenig. Das gleiche Problem hat Nvidia mit GTX580 und GTX570.
 
Das ist bei AMD kein Marketing, sondern technische Notwendigkeit dank krummem 384Bit-SI. Es ginge nur 1,5Gb oder 3GB und ersteres ist für High-end etwas wenig. Das gleiche Problem hat Nvidia mit GTX580 und GTX570.

Jup, wenn ich überlege, dass meine 6970 2GB bei BF3@Ultra in FullHD-Auflösung knapp 1600MB in Anspruch nimmt, sind 1,5GB schon etwas eng.
 
Ich Frage mich was ihr mit soviel VRAM wollt, Benchmarks mit der GTX 580 3GB haben zum teil sogar gezeigt das die Spiele mit der 3GB GK langsamer sind als mit 1,5GB VRAM Karte...
Fragt mich jetzt aber büüddee nicht wieso, ich habe kein Ahnung.


Grüße
Sharie
 
Ihr müsst aber auch bedenken das der Speicher bei Karten mit 2GB oder 3GB anders verwaltet wird als bei Karten mit 1GB oder 1,25GB.
 
Ihr müsst aber auch bedenken das der Speicher bei Karten mit 2GB oder 3GB anders verwaltet wird als bei Karten mit 1GB oder 1,25GB.

So siehts aus - es braucht einfach mehr zeit die Daten zu adressieren... dadurch werden bei oc karten mit mehr speicher auch die Speichertaktraten leicht angezogen um das zu kompensieren.

getippt auf meinem Defy (@1,2Ghz + CM7.1) mit der HardwareLuxx-App :hail:
 
Die doppelte Speichermenge bei GF580/570 macht bis jetzt nur bei SLI mit extremen Auflösungen was aus und auch da nicht immer.

@apartment32: Weil die Hersteller gezwungen sind, 3GB statt 2GB zu verbauen bzw 1,5GB statt 1GB, also immer 50% mehr Speicherchips verbauen müssen, ohne dass da wirklich ein Vorteil wäre.
 
@Dark_angel
Also bei meinem EX SLI Gespann@1GHZ wenn ich Crysis2 oder BF3 @ Downsampling Max Grafik bei 2840*1620 gezockt habe bei einem von den beiden Spielen sogar schon 2560*1440.
Wurde nach 1-2Min gar nichts mehr verwaltet sondern es ist plötzlich so zu zusamen gebrochen das es unspielbar war .
Powerplay hat mit 2*HD7970 BF3 Single player Downsampling erzwungen über das PCGH Tool und dort waren es dan bei 3880*2160 so gar über 2200 MB ohne AA und auch voll ends flüssig.
So viel Leistung wie da auf uns eventuell zu kommt sind 2GB wirlich knapp gerade für SLI Nutzer.
Wenn das wieder Costum Karten richten müssen wäre das ärgerlich .
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh