Offizielle Spezifikationen der GeForce GTX 680 geleaked

Schon mal dran gedacht, dass NVidia vllt aus technischen Problemen garnicht in der Lage ist den GK110 zu releasen?
Alleine der GK 104 lässt ja schon lange auf sich warten... AMD ist schon 1/4 Jahr auf dem Markt... sollte die GF680 nicht schneller als die 7970 sein ist es einfach nur ein FAIL.
Dabei muss noch beachtet werden das sich die 7970 richtig gut takten lassen... Mal sehen das der GK104 da so leistet...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wenn der GK104 sich genau so gut takten lässt,dann ist er klar besser. Das kann gut sein das TSMC nicht in der Lage ist momentan in zu fertigen bzw es sich nicht lohnt. Mit Fermi hinkten sie ja auch hinter her ;)


BEi AMD hapert es am Treiber,habe ja selbst gesehen was für Power da drin steckt,aber in manchen spielen will sie nicht raus kommen.
 
Der Release der 78er Serie hat gezeigt, was AMD durch Treiber nur aus der Architektur rausholen kann..

Ich sehe GK110 in ganz weite Ferne rücken, wenn 2013 Maxwell kommen soll. Dann sollte NV lieber den GK104 optimieren und sich diesmal pünktlich auf den Mawell Release vorbereiten ;) mit Quadro im GPGPU-und HPC Bereich sind sie ja sehr gut aufgestellt, also bestünde da nichtmal Handlungsbedarf, oder hab ich da was Ausser acht gelassen?
 
Ok sagen wir mal GK104 ist 20% schneller wie die 7970,dann hängt AMD hinter her. Wie lang haben sie jetzt gebraucht um die 580 zu schlagen? Wie lang hat NV gebraucht um zu kontern,genau 3 Monate und AMD hat sehr viel länger gebraucht um 20% schneller zu sein für 3 Monate. In 4 Monaten wird eine Karte kommen die bestimmt genau oder schneller wie eine 7990 ist. Selbst GK104X2 wird schneller sein und der soll ja im Mai erscheinen.

Die Logik macht aber weniger Sinn... Wer in Sachen absoluter Leistung schlussendlich die Nase vorn hat, ist offensichtlich der, der länger Zeit zum überlegen bzw. auch Zeit zum Reagieren gehabt hat. Es ist eher von der anderen Seite zu betrachten. AMD zeigt, das seit Jan. Karten in 28nm machbar sind. NV hängt stand heute hinterher, überhaupt erstmal Karten zu bringen...
Es ist zweifelsfrei erkennbar, das NV alles dran setzt, möglichst weit hoch mit dem GK104 zu kommen. Glaubt man den Jungs im 3DCenter wenigstens etwas, dann stehen für GK104 900-950MHz auf dem Plan von vor zwei Monaten und älter. Was dann wohl auch zu der Preisspekulation gepasst hätte.

AMD hängt hier also keinesfalls hinterher, sie haben offensichtlich einfach nur den Nachteil des jenigen, der eher auf dem Markt ist. Bei aber nur zwei Konkurenten muss zwangsweise jemand eher auf dem Markt seit, es sei denn, man released gleichzeitig (RV770/G200)
Da aber AMD ihre Karten schon auf dem Markt hat, kann NV schön entspannt reagieren. Und sich ihre Chips ins bessere Licht rücken ;)
Das es auch anderesrum gehen kann, zeigte eben der G200. NV ist zwar Leistungstechnisch besser aufgestellt. Muss aber massiv Federn lassen, es wird ne 216 ALU Version der 260er nachgeschoben, es werden die Chips geshrinkt usw.

Was glaubst du denn, was passiert wäre, wenn NV im Jan. und AMD im März/April oder wann auch immer released hätte!?
NV hätte ihren Ursprungsplan mit den 900-950MHz durchgezogen, AMD hätte direkt mit nem 1GHz+ Modell angefangen. Und schon sähe die Situation vollkommen anders aus, trotz exakt gleicher Bedingungen mit einzig umgekehrter Zeitfolge.
AMD hierdraus einen Strick zu drehen (und ja, genau das macht diese Argumentation von wegen, man wäre hinterher) ist also ziemlich sinnfrei... Spinnt mna das mal weiter, würden die Hersteller gar nix mehr bringen, weil ja zuerst releasen bedeutet, das man durch die Reaktionsmöglichkeiten des Gegners nicht all zu viel später wieder "hinten dran" wäre.
 
Naja Fermi war ja eher Thermi ;)
die letzte richtig geile Karte die ich von NV hatte war die 8800 GTS <3
 
Und die letzte Richtig geile ATI war die 9800Pro :) Aber auch die HD5850/70 gehört in die hall of Fame :)

Fdsonne hat natürlich recht.. Stellt euch mal vor beide hätten gewartet? dann wäre das Chaos bei TSMC ausgebrochen
 
Der Release der 78er Serie hat gezeigt, was AMD durch Treiber nur aus der Architektur rausholen kann..

Ich sehe GK110 in ganz weite Ferne rücken, wenn 2013 Maxwell kommen soll. Dann sollte NV lieber den GK104 optimieren und sich diesmal pünktlich auf den Mawell Release vorbereiten ;) mit Quadro im GPGPU-und HPC Bereich sind sie ja sehr gut aufgestellt, also bestünde da nichtmal Handlungsbedarf, oder hab ich da was Ausser acht gelassen?

Maxwell in 2013? Dann auch mit 28nm? Never ;)
Das dauert bis 20/22nm und das wird mit großer Warscheinlichkeit frühestens zum Jahreswechsel 2013/2014 ;)
 
ok da hast du wohll recht fdsonne.

dann hätten sie die AMD mit mehr wie 1ghz gebracht,sofern es den mit der fertigung hinhaut und noch genug chips raus kommen.


Man weiss ja leider auch nicht wer schuld hat, AMD und NV oder halt der fertiger.




Also TOP NV waren die 8800 und GTX 480,auch wenn die letzte gut strom braucht.

Bei ATI/AMD waren es die 9xxx und die 5xxx :d
 
Zuletzt bearbeitet:
AMD hat doch eigentlich die letzten Jahre vieles richtig gemacht...

Die 5850/5870 waren echt Top GPU's nicht ohne Grunde sind sie heute noch so beliebt. Ja die GTX470/480 waren schneller, kamen aber auch viel, viel später, dazu hatten sie auch enorme Nachteile wie Verbrauch, Lautstärke und Hitzeentwicklung. Die GTX 570/580 waren dann eine gute Verbesserung, aber eigentlich nichts neues. Die AMD 6er Serie fand ich von AMD wieder etwas enttäuschend...mit der 79 und 78 Serie hat AMD nun wirklich wieder gute GPU's am Markt. Viele Menschen kaufen auch nicht so oft wie hier, so lange es nichts neues von nV gibt kann AMD eben die Segmente besetzen.

Eine wirklich interessante Zeit, nV müsste wirklich mal wieder wie bei der GTX8800 was richtig dolles raushauen, denn ein Plus von 5-10% ist bei der schnellen Entwicklung kein wirklicher Vorsprung, vor allem wenn man evtl. noch 3 Monate oder länger nach der Konkurrenz erscheint.
 
Ich werde mich auch nicht blenden lassen vom GK104 auch wenn er von der Leistung her das schnellste wird was es in Full HD gibt und er sich alls Highend tarnt.
Für Leute die aber vor haben bei multi GPU Systemen die Leistung in maximal in Bildqualität um zu setzen ist die Karte keine Highend Option.
Für Single GPU Käufer wird es eine Super Karte sein.
Rein aus der Wirtschaftlichen sicht gesehen ist es sicherlich auch das beste was NV seit langem vom Stapel gelassen hat um sich Finaziel zu stabilisieren.

Was aber die Ausstattung der Karte an geht so steht die Grafikkarten Welt preislich auf dem Kopf wen man bedenkt was AMD alles auf der Platine der HD7970 verlötet hat wäre der Preis über dieser einfach nicht gerechtfertig .

Den wie schon erwähnt gibt es auch eine Welt mit settings außerhalb von Full HD ,FXAA ,MSAA und enthusiasten die diese gerne betreten wollen bei uns im Forum.
Mit 2 oder gar mit bis zu 4 GPUS im SLI werden sie nicht glücklich werden wenn ihnen nur 2GB zur verfügung stehen von der Band Breite will ich nicht reden.
MFG
 
Zuletzt bearbeitet:
ok da hast du wohll recht fdsonne.

dann hätten sie die AMD mit mehr wie 1ghz gebracht,sofern es den mit der fertigung hinhaut und noch genug chips raus kommen.


Man weiss ja leider auch nicht wer schuld hat, AMD und NV oder halt der fertiger.

Ich denke nicht, das da jemand dediziert dran schuld hat... Es sieht stark danach aus, das AMD eine doch schon zielmich andere Schiene als NV fährt aktuell.
Das ist seit R600 absehbar. Und in der Zeit gab es genau einen Fall, wo NV schneller auf dem Markt war. Und das war eben der G80. G92/RV670 als fast reine Refreshs mal außen vor tat sich NV mit dem G200 schon schwerer, GF100 kam fast ein dreiviertel Jahr nach dem RV870 und Kepler kommt nun wieder später. Wobei ich behaupte, das hier TSMC die Finger im Spiel hat, weil man den Prozess eben erst spät in den Griff bekommt.

Es ist also nicht ersichtlich, wie es NV gehen würde, wenn es genau andersrum wäre ;)
Neben guten Planungen müssen die Vorhersagen offenbar auch stimmen und eben die Planung so gemacht werden, das man sich mit dem Produkt so plaziert, das der Gegner bestenfalls rankommt oder minimal mehr liefern kann. Das klapt halt bei AMD mal mehr, mal weniger gut :fresse:
Mal gucken, wie NV den GK110 anpasst... Mit einem hochgezüchtetem GK104 hat man da sicher zu kämpfen ;)
Nicht vergessen sollte man an der Stelle. Wenn GK104 mit ~200W kommt. Aber in Sachen Ausführungseinheiten ca. 50% drauf legt. Klingt das zwar brachial. Der Verbrauch wird aber auch brachial ;) 50% mehr Speicher/größeres SI, mehr ALUs, mehr TMUs und mehr ROPs bei gleichem Takt und gleicher Spannung sowie vergleichbaren Begebenheiten bringen auch ~50% Verbrauch... Und schon toppen wir die 300W erneut ;)
Ich würde mir vorstellen, mit dem hochgetakteten GK104 tut sich NV selbst keinen sonderlichen gefallen... womöglich wird er auch nur seine 25% auf GK104 drauf legen.
 
also denke gk110 wird wieder über 250w sein.

Und nen höher getakteter gk104 wird auch deutlich mehr brauchen,wenn er nicht jetzt schon sehr hoch getaktet ist zum vergleich wie er eigentlich werden sollte. Ich habe selbst bei der 460/560 gesehen das der verbrauch bei gleicher leistung bzw annähernde leistung der 480/580 der Chip genau das selbe braucht und inneffizienter war. GF100 konnte man noch untervolten und so hat er sogar noch weniger gebraucht wie die 560 mit 1000Mhz. Bei der 6950 war es auch so. Kann sein das es bei der GK104 auch so wird oder halt nicht dank des 28nm prozesses bzw nicht so deutlich.



Die 7970 muss ich da mal echt loben,selbst mit 1,3v hat sie nicht so mega viel mehr verbraucht wie @ stock. Hoffe das wird bei kepler auch so.
 
Zuletzt bearbeitet:
Ich könnte mir schon vorstellen das da noch 40%+- 5% mehr Leistung bei 300 W drinn sind.
 
@redfrog:

Was möglich ist, ist eine GPU in der Gewichtsklasse von GTX280, 480 usw. Wir sprechen hier nicht von Fantasie-GPUs in ferner Zukunft, sondern einfach einer Weiterführung der bisherigen Strategie, jedenfalls seitens Nvidia. Daran ändert auch die Tatsache nichts, dass so eine GPU vor Sommer wohl nicht zu vernünftigem Preis herstellbar ist. Den GK110 gibt es, daran besteht doch gar kein Zweifel, schließlich hatte er sein Tapeout bereits im Januar und zweitens muss Nvidia irgendwas auf die neuen Teslas bauen und das sind garantiert keine Schokokekse.
Wie kann man Fanboy sein, wenn man weder die 7970 noch die 680 als Highend bezeichnen will? Entweder ist man dann gleichzeitig roter UND grüner Fanboy oder...warte mal, das geht ja gar nicht ;)

Die einzige Konzession, die ich hier mache ist, dass die Situation ungewöhnlich ist, da normalerweise zuerst das Highend erscheint. Aber nur weil sich die Reihenfolge ändert, ändert das an dem geplanten gesamten Lineup nichts. Bei Fermi war es erst die 480, dann die 460, jetzt ist es eben andersherum mit Marketing und Namensverarsche gewürzt. Gut, sie haben GK104 sicherlich hochgeprügelt, daher ist die Linie zwischen Performance und Highend verwischt. Aber ich lasse mich nicht täuschen - es wird einen besseren Kepler von Nvidia geben, der den Namen Highend wirklich verdient. Wer ihnen abkauft, dass das der Refresh sein soll, wo sie eigentlich ein einziges Lineup auseinandergerissen haben, bitte schön. Ich tu das jedenfalls nicht.

Dann solltest du schonmal Hilfe (;)) suchen, denn nVidia strebt auch in Zukunft keine größeren Dies an:
futuresize.jpg
 
Nun, ich vertraue doch eher auf das, was ich in den letzten 6 Jahren gesehen habe als irgendwelchen Plänen für 2020. Wir sprechen uns, wenn ein 500+ mm2 GK110 kommt ;)
 
Doof nur, dass die Vergangenheit überhaupt keine Aussagekraft für die Zukunft hat. Und du wirst bestimmt keinen 500mm^2 GK110 sehen. ;)
 
Wartet mal ab,bis die ersten MSI/EVGA OC Karten von der 680er erscheinen.Vielleicht wird eine Karte mit 1,1Ghz verfügbar sein.Das sind ja nur die Specs für die Standard Karte.
 
Wartet mal ab,bis die ersten MSI/EVGA OC Karten von der 680er erscheinen.Vielleicht wird eine Karte mit 1,1Ghz verfügbar sein.Das sind ja nur die Specs für die Standard Karte.

dumm nur das selbst meine kleine karte die 1Ghz packt bei unter 60°C , dazu kommen 3gb speicher und die verfügbarkeit das sind fakten bei nvidia ist momentan alles nur vermutung und andichtung
richtige tests gibt es nicht da die karten noch nicht auf dem markt sind und wirklich leise unter last waren die letzten referenzmodelle nun wirklich nicht wieso soll das jetzt anders sein ganz schwer
vorstellbar!

MfG
 
leiser wie die 7970 zu sein wird ja nicht schwer fallen :d. Den rest muss man abwarten,sollen ja eh nicht so gut verfügbar sein.
 
Doof nur, dass die Vergangenheit überhaupt keine Aussagekraft für die Zukunft hat. Und du wirst bestimmt keinen 500mm^2 GK110 sehen. ;)

Nun, wie schon auf Computerbase gesagt:
Welcher Chip kommt dann auf die Teslakarten? GK104, bei dem sie zwecks Perf/W in Spielen und kleiner Die Size höchstwahrscheinlich ECC weggelassen, DP und das Speicherinterface massiv beschnitten und wenig VRAM verbaut haben? Glaubst du das wirklich? Du reitest doch nur auf der tollen Small-Die Strategie rum, weil Nvidia damit jetzt mal einen Stich gegenüber AMD machen kann. ;)
GK110 hatte übrigens schon sein Tapeout...
 
Zuletzt bearbeitet:
Nun, wie schon auf Computerbase gesagt:
Welcher Chip kommt dann auf die Teslakarten? GK104, bei dem sie zwecks Perf/W in Spielen und kleiner Die Size höchstwahrscheinlich ECC weggelassen, DP und das Speicherinterface massiv beschnitten und wenig VRAM verbaut haben? Glaubst du das wirklich? Du reitest doch nur auf der tollen Small-Die Strategie rum, weil Nvidia damit jetzt mal einen Stich gegenüber AMD machen kann. ;)
GK110 hatte übrigens schon sein Tapeout...

Mir ist die Größe doch vollkommen egal. Es zählt einzig Leistung.
Davon abgesehen will nVidia im Jahr 2018 einen 16 TFLOPs/s DP-Chip mit unter 300mm^2 produzieren. Warum sollte es dann außer Frage stehen, dass sie heute nicht einen 1,5 TFLOPs/s DP-Chip in unter 300mm^2 bringen können?
 
Mir ist die Größe doch vollkommen egal. Es zählt einzig Leistung.
Davon abgesehen will nVidia im Jahr 2018 einen 16 TFLOPs/s DP-Chip mit unter 300mm^2 produzieren. Warum sollte es dann außer Frage stehen, dass sie heute nicht einen 1,5 TFLOPs/s DP-Chip in unter 300mm^2 bringen können?

Die Größe ist nicht egal, denn Dinge, die du für Tesla brauchst, kosten (für einen Gamerchip unnötigen) Platz, Transistoren und senken die Energieeffizienz unter Spielen. Du kannst keinen Monstertruck mit einem Ferrari vermischen und erwarten, dass er im Gelände UND auf dem Nürburgring Bestmarken aufstellt. Schau doch mal die 560 vs. die 580 an. Die 560 ist effizienter in Spielen, hat dafür eine DP-Performance, die unter aller Sau ist (1/12 SP, während man GF110 zu 1/2 schalten kann afaik).
Sie könnten diesen DP-Chip bringen in unter 300mm2, aber nur dann, wenn sie die Trennlinie wirklich hart durchziehen. Ein Chip nur für Spiele, ein Chip nur für HPC. Keine Kompromisse: Braucht man die ganze Rendering Pipeline für GPGPU? Wenn nicht, raus damit, massiv entschlacken. Und ich bezweifle eben, dass sie das tun.
 
Zuletzt bearbeitet:
Die Größe ist nicht egal, denn Dinge, die du für Tesla brauchst, kosten (für einen Gamerchip unnötigen) Platz, Transistoren und senken die Energieeffizienz unter Spielen. Du kannst keinen Monstertruck mit einem Ferrari vermischen und erwarten, dass er im Gelände UND auf dem Nürburgring Bestmarken aufstellt. Schau doch mal die 560 vs. die 580 an. Die 560 ist effizienter in Spielen, hat dafür eine DP-Performance, die unter aller Sau ist (1/12 SP, während man GF110 zu 1/2 schalten kann afaik).

Das ist weitaus komplexer. GF110 hat deutliche Architekturunterschiede zu GF114+, die weit über DP und ECC hinausgehen. GF110 ist ineffizienter, weil er ein breiteres Interface hat, weil er mehr L2 Cache hat, weil er die doppelte Anzahl an SM besitzt (somit auch doppelt soviele Geometrieeinheiten, doppelt soviel L1 Cache, doppelt soviele Interconnections...), doppelt soviele Rasterizer. Ein Großteil der Transistoren geht also für Dinge drauf, die nichts mit DP und ECC zu tun haben.
DP und ECC machen nur einem minimalen Anteil aus. Dazu kommt, dass GF114 ebenfalls über eine DP-fähige Vec16 Einheit verfügt...

Sie könnten diesen DP-Chip bringen in unter 300mm2, aber nur dann, wenn sie die Trennlinie wirklich hart durchziehen. Ein Chip nur für Spiele, ein Chip nur für HPC. Keine Kompromisse: Braucht man die ganze Rendering Pipeline für GPGPU? Wenn nicht, raus damit, massiv entschlacken. Und ich bezweifle eben, dass sie das tun.

Und was willst du damit als Gamer? :hmm:
Würde nVidia soetwas produzieren, wäre es mehr eine CPU als eine GPU...
 
Das ist weitaus komplexer. GF110 hat deutliche Architekturunterschiede zu GF114+, die weit über DP und ECC hinausgehen. GF110 ist ineffizienter, weil er ein breiteres Interface hat, weil er mehr L2 Cache hat, weil er die doppelte Anzahl an SM besitzt (somit auch doppelt soviele Geometrieeinheiten, doppelt soviel L1 Cache, doppelt soviele Interconnections...), doppelt soviele Rasterizer. Ein Großteil der Transistoren geht also für Dinge drauf, die nichts mit DP und ECC zu tun haben.
DP und ECC machen nur einem minimalen Anteil aus. Dazu kommt, dass GF114 ebenfalls über eine DP-fähige Vec16 Einheit verfügt...

Dann erklär doch mal, wofür GF110 den zusätzlichen Kram alles drin hat, wenn nicht für GPGPU. Wieso überhaupt die Unterschiede? Warum steckt kein GF114 in einer Teslakarte? Oder ein GF104?

Und was willst du damit als Gamer? :hmm:
Würde nVidia soetwas produzieren, wäre es mehr eine CPU als eine GPU...

Ich schrieb doch, es wäre KEIN Gamerchip. Er würde ausschließlich auf Teslas wandern und nie auch nur ein Spiel rendern.

Zusammengefasst:
Du meinst also Nvidia wird in Zukunft nur noch kleine Dies machen, sowohl für Geforces als auch für Chips die auf Teslas wandern? Ganz konkret gefragt: Siehst du die besagte harte Trennung zwischen Tesla und Geforce, also ein dediziertes ASIC für beide, das auch nur dort verwendet wird?
 
Dann erklär doch mal, wofür GF110 den zusätzlichen Kram alles drin hat, wenn nicht für GPGPU. Wieso überhaupt die Unterschiede? Warum steckt kein GF114 in einer Teslakarte? Oder ein GF104?

Bzgl. GPGPU gibt es keine Unterschiede zwischen GF114 und GF110. GF110 ist eben nicht nur GPGPU, sondern auch "Graphics" - vorallem Geometrieleistung. Das ist immens wichtig für Quadro. Dazu kommt die gesteigerte Leistung bei Raytracing durch das Cache-System.

Ich schrieb doch, es wäre KEIN Gamerchip. Er würde ausschließlich auf Teslas wandern und nie auch nur ein Spiel rendern.

Zusammengefasst:
Du meinst also Nvidia wird in Zukunft nur noch kleine Dies machen, sowohl für Geforces als auch für Chips die auf Teslas wandern? Ganz konkret gefragt: Siehst du die besagte harte Trennung zwischen Tesla und Geforce, also ein dediziertes ASIC für beide, das auch nur dort verwendet wird?

Es ist wahrscheinlicher, dass nVida einen Chip ausschließlich für "Graphics" produziert als für Tesla. Der Markt ist für Tesla viel zu gering - Jahresumsatz liegt unter $150 Millionen.
 
Kann man denn mit GF114 auch ein DP/SP-Verhältnis von 1:2 fahren wie mit GF110? Ich vermute nicht.

Und dieser "Graphics" Chip ist dann GK104. Und was ist dann GK110? Welche Märkte soll der dann bedienen? Eben weil der Markt für Tesla so gering ist, muss der Chip auch woanders Geld reinbringen, nämlich als Quadro und Geforce. Ein 300mm2 Chip wird sich hier aber nicht von GK104 absetzen können, oder erwartest du nochmal eine locker flockige 50% Steigerung von Perf/mm2?

Mein Prognose:
GK110 kommt als GTX770 und GTX780 in der zweiten Jahreshälfte 2012 und bringt GK104+ 30-50% Performance bei 250-270W TDP. Teildeaktiviert und/oder heruntergetaktet erreicht er auf Teslas maximal 1,5 TFLOPs DP bei 225W TDP.

Kannst dir ja den Link irgendwo speichern und dann schauen ob es stimmt. Willst du auch eine Prognose abgeben? :)
 
Jetzt haben wir alle so lang gewartet, bis zum 22. sollten wir auch noch durchhalten...

Gesendet von meinem LT15i mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh