nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Das sind noch 18 Tage...theoretisch müssten die bekannten Newsseiten voll von Leaks sein zu diesem Zeitpunkt.

Das sehe ich auch so... Klingt eher so, als kommt so bald nix ;)
Auch wenn man diverse Leaks schließen kann. Es gibt immer Leute, die irgendwo quatschen. Nur das was aktuell an Gerüchten im Umlauf ist, hat ja nichtmal Hand und Fuß... Wenn überhaupt gibts ne grobe Richtung, was halt noch sehr wenig ist, wenn man daran glaubt, es geht in drei Wochen los :fresse:

Und ich frag mich immernoch, wann die Single-GPU Grafikkarten Geschichte sind. Wenn man den Stromverbrauch weiter senken kann und vor allem die Mikroruckler irgendwann gar nicht mehr zu sehen sind, dann wirds eh nur noch Multi-GPU Lösungen geben. Bei den CPUs wars ja absolut ähnlich. Der Pentium 4 ging grob bis 3,6GHZ, dann gabs den Dual-Core Umschwung.

Die Zukunft liegt doch eh im Clusterbereich, oder etwa nicht?

Das macht keinen Sinn... GPUs sind von Anfang an schon hoch parallelisiert ausgelegt. Es macht quasi keinen Sinn diese Auslegung nochmals zu doppeln oder weiter zu mehren.
Dann lieber die Einheiten selbst erhöhen, so wie man es nun schon seit Jahren selbst macht und das ganze aufeinander abstimmen.

Und zum letzten, auch das ergibt weniger Sinn.
Wenn man so will, kann man einzelne Einheiten durchaus heute schon als Cluster bezeichnen. Es gibt nicht erst seit heute idR gewisse Einheiten, die zu "Verbünden" zusammengeschalten sind. Das nennt man Rechencluster, Shadercluster oder weis der Teufel.
Eventuell geht in Sachen Zukunft eher was im Bereich Cloudlösungen. Aber so recht mag ich daran noch nicht glauben. Da einfach irgendwo die Rechenpower auch her kommen muss. Und ich als Endkunde will ehrlich gesagt auch nicht monatlich oder per Nutzung für den Erhalt der Rechenleistung zahlen. Da leg ich lieber den 1000er auf den Tisch und kauf zwei HighEnd GPUs und machs mir sozusagen selbst :fresse:

Allerdings muss man hier bedenken, dass es keine hochbandbreitige Interchipkommunikation gibt. Wäre das der Fall (und das ist nötig, um AFR zu begraben), dürften sich beide Lösungen bzgl. der Effizienz nicht so viel geben.

Es gibt ja noch andere Mittel und Wege weg von AFR zu gehen. Wobei das ja nichtmal unbedingt sein muss... Eigentlich würde es reichen, die Nachteile von AFR auszumerzen. Zumindest bis sagen wir vier GPUs würde das wohl noch gehen. Und in erster Linie ist hier das Thema MR zu benennen. Eine angeglichene Framerate wäre da ein Anfang. Klappt aber idR nur mit Leistungsverlust bzw. mit erhöhten Inputlag. (da das Angleichen Zeit kostet)

Den Interconnect bekommt man auch weg, wenn man quasi zwei GPUs auf einem DIE vereint. So ne Art Dualcore sozusagen. Da wäre in Sachen Verbindung untereinander auch die Möglichkeit zumindest gegeben. Vllt auch in Verbindung mit nem Shared Texturcache. Unterm Strich bleiben eigentlich nur Probleme... Und die größe selbst sinkt nicht, dürfte sogar eher steigen. -> bringt also nix.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie willst du die Nachteile von AFR ausmerzen? Das klingt bei dir so einfach, dann lass mal hören ;)
Du kannst die Frames aufgrund der nahen Vergangenheit verzögern, aber das behebt das Problem nicht unbedingt - siehe Nvidias Frame-metering. Hängt auch von der Engine ab, ob das klappt. Darauf will ich mich genausowenig verlassen wie darauf, dass die Devs plötzlich alle SSAA in ihre Engines/Spiele packen. Und du führst neue Nachteile ein, das ist doch keine Lösung. Die GPUs müssen am selben Bild rendern, alles andere ist Quark. Man muss SFR weiterentwickeln, dass es auch mit Geometrie gut mitskaliert. +80% ohne Profile, Mikroruckler usw. wären schon hervorragend und ein bedeutender Fortschritt.
 
Zuletzt bearbeitet:
nur 2GB wäre nicht so schön, aber die TDP von 225W hört sich sehr gut an.

Klar reichen 2GB heute noch aus, aber das hieß es damals bei meiner 1GB Karte auch.
Dann kam GTA 4 und 1GB war ausgereizt, jetzt ist bei Skyrim schon sehr früh Ende mit 1GB (mit Texturmods) und bei SWTOR ist der Speicher auch randvoll.
 
Mit 225W TDP sollte man aber eine 7970 leistungsmäßig schlagen oder zumindest gleichziehen, alles andere wäre fail. Naja, rumours...
 
Ich dachte der GK104 war als Konter zur 7970 geplant?
Der GK110 wird leistungs- wie auch verbrauchstechnisch am Maximum liegen, also zwischen 250W und 300W TDP
 
TDP=! Verbrauch. Vielleicht hält man sich ja diesmal dran im Gegensatz zu Fermi...hust. 225W klingt auch verdächtig nach 2x 6pin. Das kann auch nur die maximale Boardpower inkl. gut Luft für OC sein. Tahiti muss nicht der einzige Chip sein, der sich hervorragend übertakten lässt.
 
Jeder Stecker bringt 75W, der Slot auch, macht also 225W bei zwei 6pin-Steckern ;)
 
Das kann auch nur die maximale Boardpower inkl. gut Luft für OC sein. .

Wäre aber Nvidia untypisch

---------- Post added at 20:26 ---------- Previous post was at 20:25 ----------

Jeder Stecker bringt 75W, der Slot auch, macht also 225W bei zwei 6pin-Steckern ;)

Das wäre aber sehr grenzwertig wenn die Bemessungsgrundlage ebenso ausfällt wie bei Fermi:)

Bei Marken NTs sicher nicht weiter tragisch,aber das eine oder andere "China Böller Ding",könnte da schon arg zu knabbern haben,wenn nvidia leicht über die Specs hinaus schießt:fresse:
 
Zuletzt bearbeitet:
Eventuell gibt es auch einen Zwitteranschluss, kann mit mit @Stock 2x6pin oder mit @OC 1x8+1x6pin, wer weiß - Weiß es jemand ^^

Hatte mal eine GTs250, so eine umgelablete 9800GTX+ war mit 2x6pin ausgestattet lief aber mit nur einen 6pin +OC :d
 
Bei der HD7970 hat man auch 300 Watt gemutmaßt, wegen den 6 + 8 Pin-Anschlüssen (75 Watt + 150 Watt + 75 Watt-Boardpower). Real ergeben hat es dann bei dem Preview-Test ca. 200 Watt.
Beim GK104 wird es sich mal wieder um die typischen Samplebeschauungsmutmassungen handeln. 2x6 Pin = 225 Watt maximale Power. Real werde es dann ca. 150 Watt sein.
Kepler kann mit seinem GK104 und 3,4 Milliarden Transistoren wohl kaum soviel oder gar mehr verbrauchen wie AMDs HD7970 mit 4,31 Milliarden Transistoren !
Beim Fermi war es noch umgekehrt, da hat NVIDIA deutlich mehr Transistoren gehabt, deshalb auch der Mehrverbrauch gegenüber ATIs HD5000er sowie AMDs HD6000er Serien.

Die High-End Modelle werden aber wohl deutlich mehr verbrauchen. Ich schätze mal 250 Watt+ sind wohl wieder drin, aber die Leistung wird dafür göttlich werden. :d
 
Zuletzt bearbeitet:
Man kann nur hoffen, dass die Leistung göttlich wird und das die dicke Karte bald erscheint (nicht GK104...)! Aber in nächster Zeit ist sowieso nichts extrem Hardware hungriges in Aussicht, oder? Somit kann man auch warten, wenns sein muss :)
 
@Supermax2003
Leistung kann man nie genug haben.:coolblue:
 
Pickebuh schrieb:
Beim GK104 wird es sich mal wieder um die typischen Samplebeschauungsmutmassungen handeln. 2x6 Pin = 225 Watt maximale Power. Real werde es dann ca. 150 Watt sein.
Kepler kann mit seinem GK104 und 3,4 Milliarden Transistoren wohl kaum soviel oder gar mehr verbrauchen wie AMDs HD7970 mit 4,31 Milliarden Transistoren !

Wenn man den Chip an die Leistung der HD 7950 heranbringen will (schätzungsweise GTX 580 +10%) und man ihn dementsprechend ausquetschen will, dann kann ich mir schon vorstellen, dass man mit viel Spannung und hohen Taktraten durchaus ineffizientere Chips liefern muss.
Ein Transistorenvergleich liefert da glaub ich keine ausreichende Grundlage um das beurteilen zu können.
 
Wenn man den Chip an die Leistung der HD 7950 heranbringen will (schätzungsweise GTX 580 +10%) und man ihn dementsprechend ausquetschen will, dann kann ich mir schon vorstellen, dass man mit viel Spannung und hohen Taktraten durchaus ineffizientere Chips liefern muss.

Kepler GK104 soll mit 905 Mhz kommen. Was soll da bitteschön ausgequetscht werden ? :stupid:
Es ist eher so, das bei kleinerer Die-Größe die Güte der Chips steigt und der GK104 effizienter arbeitet als AMDs TahitiXT. So etwas lässt sich nicht weg argumentieren.
AMDs HD7970 benötigt satte 1,17 Volt Standard-Spannung. Das ist sehr viel ! Der GK104 wird dank kleineren Die und deutlich weniger Transistoren auch weniger Spannung benötigen.

Ein Transistorenvergleich liefert da glaub ich keine ausreichende Grundlage um das beurteilen zu können.

Sorry, aber du hast überhaupt keine Ahnung.
Die Anzahl der Transistoren ist ein direkter Indikator für den benötigten Strombedarf. Mehr Mäuler wollen schließlich gefüttert werden. Da gibt es keinen Unterschied zwischen AMD und NVIDIA. Die Physik ist bei Beiden gleich.
Der Grund, warum Fermi liebevoll auch Thermi genannt worden ist, liegt daran, das NVIDIA einen riesen Chip produzieren ließ, wo a) eben mehr Transistoren vorhanden waren und b) die Güte schlechter war.
GK104 wird aber deutlich kleiner sein als TahitiXT oder Pro.

Daraus folgt, mehr Effizienz bei fast gleicher Leistung.

Ich schätze mal, das Kepler GK104 sich mit der HD7970 ein Kopf an Kopf Rennen liefern wird, nur mit dem Unterschied, dass der GK104 mit 150 Watt auskommt und TahitiXT bei 200 Watt liegt.
Das Blatt wendet sich also nun in Sachen Leistungsaufnahme.
Man kann doch schon die Reaktion seitens AMDs verstehen, das sie so schnell wie möglich ihre teuren High-End GPUs an den Mann bringen wollen.
Regelrechte Panikproduktionen werden da unternommen !
Die Karten werden noch mit Alpha- und Beta-Treibern geliefert und der Verkauf extrem vorgezogen. Paperlaunches ect.

Wenn Kepler kommt ist es eben vorbei mit der jetzigen Dominanz seitens AMD.
 
Zuletzt bearbeitet:
Wenn man den Chip an die Leistung der HD 7950 heranbringen will (schätzungsweise GTX 580 +10%) und man ihn dementsprechend ausquetschen will, dann kann ich mir schon vorstellen, dass man mit viel Spannung und hohen Taktraten durchaus ineffizientere Chips liefern muss.
Ein Transistorenvergleich liefert da glaub ich keine ausreichende Grundlage um das beurteilen zu können.

Dann wäre der Abstand zur 7970 aber zu gering. Ich würde da mal von 580er Niveau ausgehen statt 10% drüber...

Kepler GK104 soll mit 905 Mhz kommen. Was soll da bitteschön ausgequetscht werden ? :stupid:
Es ist eher so, das bei kleinerer Die-Größe die Güte der Chips steigt und der GK104 effizienter arbeitet als AMDs TahitiXT. So etwas lässt sich nicht weg argumentieren.
AMDs HD7970 benötigt satte 1,17 Volt Standard-Spannung. Das ist sehr viel ! Der GK104 wird dank kleineren Die und deutlich weniger Transistoren auch weniger Spannung benötigen.

Wo hast du denn so nen Zeug schon wieder her? Vermutlich stehen die finalen Taktraten nichtmal fest!

Und wie effizient Kepler wird muss sich erst noch zeigen!
 
Du scheinst ja nen ziemlicher Realist zu sein :d

Soll ich dir eben nen Chart machen auf dem was anderes steht?
 
Wenn du den Thread verfolgen würdest, hättest du sie schon längst gesehen... was ein Held...
 
Witzig, wie hier mit dem Brustton der Überzeugung gesprochen wird. Keiner kann sagen, welcher der zahllosen Spec-Leaks am nähesten an der Wahrheit ist. Stimmen wird wahrscheinlich keiner.
Und natürlich kann man auch einen 3 Mrd. Chip mit hohen Spannungen und hohem Takt auf 250W prügeln. Wartet doch mal ab.
 
Ich hab eben ne andere genommen, ist einfacher:

map_c_1120x941wxj7t.png
 
Was hier schon wieder f. konkrete Aussagen getroffen werden, unglaublich. Es gibt bis jetzt 0 (nochmal NULL!) auch nur einigermaßen verlässliche Infos. Auch vollkommen realitätsfremde Träumereien v. z.B. 100% mehr Performance gegenüber GTX5xx helfen da nicht weiter.

Ich bin mir auch relativ sicher, dass Anfang Februar keine Kepler-Graka erscheinen wird. Das wäre ja schon in knapp 2 Wochen u. egal wie gut die Hersteller es mittlerweile drauf haben leaks zu finden u. zu stopfen, es würde trotzdem schon jetzt massiv geleakt werden. Die AIBs müssten schon seit einiger Zeit GPUs/Infos haben u. auch die Presse hätte schon ihre NDAs unterschrieben u. sowas kommt immer raus.

GK100 erwarte ich im best case höchstens 60% über der GTX580, aber wahrscheinlich eher darunter, sodass es am Ende wieder genauso ausgehen könnte wie bei HD5870 vs. GTX480. NV mit wahrscheinlich wesentlich größerem Die u. höheren Stromverbrauch 15-20% vor AMDs HD7970. Ich glaube bis GK100 gelauncht wird, ist die HD7970 nämlich nochmal zwischen 10-15% schneller als im Moment, denn obwohl ich eigentlich nicht an Wundertreiber glaube, sieht das bei der HD7970 doch ein bisschen anders aus. Geht es nach Fudzilla denkt AMD wohl außerdem bereits an eine stärkere S-GPU-Graka bzw. Version der HD7970 u. wenn er schreibt sie denken darüber nach, ist eigentlich klar das sie bereits daran arbeiten. Trotzdem heißt das natürlich nicht, dass so eine AMD Karte tatsächlich auch kommt, aber das sie bereits daran arbeiten glaube ich schon. Also insgesamt kann ich sagen, dass ich persönlich bisher nichts gesehen habe was mich an eine Über-GPU glauben ließe. NV best case 15-20% über AMD worst case knapp hinter AMD.
 
Zuletzt bearbeitet:
Abwarten, Tee trinken ;)

Ich denke mal irgendwer wird mit seinen Prognosen schon richtig liegen (nur um dann nacher wieder damit zu kommen das sein rumgestochere ja so genau war).

Da es ja nichtmal 100%ig sicher ist ob es GK104, GK100,GK110 usw überhaupt so gibt, steht grad ziemlich viel in der Schwebe. Nur weil man etwas oft hört wird es nicht gleich zur Wahrheit ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh