nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich stelle mir grad diesen 2 stöckigen Stromanschluss mit einem flachen Wasserkühler vor ... :kotz:

ach du scheiße :eek: das sieht aber shice aus^^:hmm: was haben die sich denn dabei gedacht???
und nach hinten raus....Platztechnisch evtl ein Problemfall, optisch finde ich nach hinten aber angenehmer...nur dieses Doppeldeckerstylische **am Kopf kratz**

€dit:
Der Grund in dieser auf den ersten Blick bizarren Bauweise könnte in der verwendeten Kühlung zu finden sein. Da an der Slotblende bei einer Stapelung von zwei DVI-Ausgängen weniger Luft nach außen geführt werden kann, könnte ein größerer Lüfter zum Einsatz kommen, der auch zu den Seiten Wärme abgeben soll. Ein Stromstecker weiter in Richtung Mitte des PCBs könnte diesen behindern – so zuletzt gesehen bei AMDs Radeon HD 6970, deren 8-Pin-Stromstecker abgefeilt werden musste, da der Lüfter ansonsten daran geschliffen hätte. Gleichzeitig erkauft man sich durch die Optionen auf dem PCB die Möglichkeit, dass Bordpartner alternative Kühllösungen verwenden können, die dann auch die Stromanschlüsse entsprechend umplatzieren dürfen.

naja, soviel dann zum Thema Customblocks. Aber nur wegen den gestapelten Anschlüssen warte ich nicht auf EVGA´s Hydrocopper
 
Zuletzt bearbeitet:
auf die Hydrocopper warte ich auch nicht.
Da nehme ich eine normale von EVGA und baue um.
 
Ich glaube net, dass Nvidia den GK110 erst im August oder sogar erst im Herbst wie viele behaupten rausbringt? DigiTimes hat ja auch gemeint, dass der Chip zeitgleich mit den anderen kommt. Und der vernünftigste Grund für den GK110 im März/April ist ja wohl AMDs New Zealand (Radeon HD7990), denn dagegen hat der GK104 hächstwarscheinlich keine Chance...
 
Zu dem Stromanschluss... Es wäre auch denkbar, das man nur die Option bietet. Ob da nun 2x6Pin oder 1x8Pin drauf sind, spielt stromtechnisch weniger bis gar nicht die Rolle...
Mit 1x8Pin wäre man aber ebenso flach wie immer ;)

Stuziger machen mich da die Kontakte zu den DVI Anschlüssen. Das könnte ebenso doppelt ausgelegt sein. Was wunderschön locker flockig die halbe Blende hinten bedeckt und somit die Luftauslässe klein lassen wird. Und dazu noch ggf. für unnötig Verwirblung sorgt.
Das wäre viel schlimmer in meinen Augen... Gerade Wakü User welche das ganze auf SingleSlot trimmen wollen, wären damit ziemlich verloren ;)

Sollen die doch lieber DP oder miniDP Anschlüsse verbauen und günstig DP auf DVI Adapter beilegen. :wall:
Das spart Platz hinten und bringt keine Nachteile...
 
Ich werf da jetzt mal ganz heiße Verbrauchswerte in die Runde, die ihr ignorieren könnt: :stupid:

GK104 alias GTX 670 Ti Idle: 15 Watt
Last Battlefield 3: 176 Watt.
Messungen direkt per Adapter am Pcie Slot von PCGH aufgenommen.
Das ganze habe ich heute Nacht geträumt. :d Performance bei PCGH: 5% über der HD 7970. Bei Computerbase 10% hinter HD 7970.

Scherz beiseite.

Bestimmt kommen 1x8pin und 1x6pin Karten raus, damit man auch schön übertakten kann.
Da Nvidia den Takt ja scheinbar gar nicht so hoch ansetzt ~(900mhz), dürfte da noch einiges gehen.
 
Sollen die doch lieber DP oder miniDP Anschlüsse verbauen und günstig DP auf DVI Adapter beilegen. :wall:
Das spart Platz hinten und bringt keine Nachteile...

Glaube nicht, dass Nvidia auf miniDP setzen wird, 120Hz ist für 3D bei Nvidia Voraussetzung.
MiniDP auf DVI für Dual Link sind (siehe HD7970 Diskussion) recht teuer und noch hat nicht jeder Monitor nativen DP Support.
 
6+6 GK104 Salvage - Performance ~7950/580 - 300$ - 250€
6+8 GK104 Vollausbau - P. ~7970 - Preis 400$ - 350€

Verbrauch bei NV höher, Preis niedriger, so würd ichs vermuten...
Preise zumindest mal beim Release so "hoch"
 
Zuletzt bearbeitet:
Glaube nicht, dass Nvidia auf miniDP setzen wird, 120Hz ist für 3D bei Nvidia Voraussetzung.
MiniDP auf DVI für Dual Link sind (siehe HD7970 Diskussion) recht teuer und noch hat nicht jeder Monitor nativen DP Support.

Ich persönlich halte das wie bei der letzten Diskusion. Wer HighEnd Settings fahren will, sollte auch HighEnd im Geldbeutel haben ;)
Sprich ob da bei 1000€ für zwei GPUs noch 50-100€ für den Monitor drauf kommen, wäre da nur ein Tropfen auf den heißen Stein ;)

Ansonsten, mir stellt sich weiterhin die Frage, warum man nicht einfach nen Monitor mit DP nutzt. Es wäre ja sogar denkbar, das man seitens NV nen DVI + HDMI + 2xminiDP verbaut. Für Single Monitor 3D User wäre man mit DVI dabei, die Multimonitor 3D User hätten mit nem günstig DVI Adapter ebenso keine Probleme (zocken eh nur auf einem Monitor)
Will man Surround Gaming mit 120Hz/3D, müssen heute schon zwei Karten ran, weils nicht anders geht. Würde man via DP hier die Möglichkeit auf drei Monitore an eine Karte schaffen, würde man dem ganzen ja sogar noch entgegen kommen :fresse: (trotz dem Preis für die DP Adapter)
Ansonsten, sollen die Leute doch gleich Monitore mit gängigen Anschlüssen kaufen anstatt hier zu sparen :fresse:

Wobei die Leistung von zwei Kepler GPUs für 3D Vision Surround in meinen Augen schon ziemlich knap werden könnte.
 
Da wurde ja recht sparsam mit der WLP umgegangen :d
Ansonsten, hoffentlich wirds noch schwarze PCBs geben...
 
Er lebt, er lebt. :banana:

Kein rechteckiger Die wie bei GF114. Hat jemand ein Bild des GF100 bzw. GF110 Dies ohne HS?
 
2fdb8ff2-1a4b-4af9-85iafgq.jpg


Google 4. Ergebnis GF104 Die :d
 
Äh, jeder Die ist rechteckig. Ich hab noch keinen runden oder dreieckigen Die gesehen :d
Meintest du quadratisch? Wobei der hier ziemlich quadratisch aussieht auf den ersten Blick.
 
Äh, jeder Die ist rechteckig. Ich hab noch keinen runden oder dreieckigen Die gesehen :d
Meintest du quadratisch? Wobei der hier ziemlich quadratisch aussieht auf den ersten Blick.

Jedes Quadrat ist ein Rechteck, aber nicht jedes Rechteck ein Quadrat. :d

Die eines GF114 ist eher uninteressant. Wichtiger ist der Die von GF100 und GF110.
 
Zuletzt bearbeitet:
Der rote PCB dürfte ne Palit/Gainward sein. Ist auf jeden Fall ne GF104 Die.
Von der größe dürfte K, spantan per Paint.net mit den VRAMs abgemessen, etwa gleich groß wie GF104 sein.

EDIT
Nochmal etwas rumgespielt:

GF104 (367mm²) hat etwa die größe von 2 Ram Chips + x
GK104 würd ich auf 1,8 Rams + X schätzen, also minimal kleiner.

gf104_3hlu1h.jpg


Vorausgesetzt die RAMs sind gleich groß :fresse2:
 
Zuletzt bearbeitet:
^ ja du hast aber geschrieben, es wäre kein rechteckiger Die. Jeder Die ist rechteckig, ohne Ausnahme ;)
 
Manchmal macht der Chip nach Abnehmen des Kühlers auch auf den ersten Blick einfach den Eindruck als wäre er rund, oder zumindest sowas ähnliches... Wenn man dann die ersten paar Kilo WLP abgekratzt hat kommt aber meist doch wieder ein rechteckiger Chip zum Vorschein :d
 
Rollt n DIE um die Ecke und bricht sich nen Shader? :lol:

Endlich kommt mal so langsam Fahrt in die Sache rein. Aber die Sache mit dem Dualslot ist echt..... naja. Wakü ist ja nicht NUR für die Optik. Da kann man sowas wenn die Leistung stimmt verkraften :fresse:
 
Der rote PCB dürfte ne Palit/Gainward sein. Ist auf jeden Fall ne GF104 Die.
Von der größe dürfte K, spantan per Paint.net mit den VRAMs abgemessen, etwa gleich groß wie GF104 sein.

EDIT
Nochmal etwas rumgespielt:

GF104 (367mm²) hat etwa die größe von 2 Ram Chips + x
GK104 würd ich auf 1,8 Rams + X schätzen, also minimal kleiner.

gf104_3hlu1h.jpg


Vorausgesetzt die RAMs sind gleich groß :fresse2:

Ich hab mal grob überschlagen. Ein typischer GDDR5-Speicherchip von Hynix ist 12x14mm groß. Die 12mm im Bild entsprechen einer Länge von 30 Pixeln. Das Die ist 47x45 Pixel groß, also ziemlich genau die von Charlie spekulierten/gemessenen 340mm2.
 
Char-Lie hat zwischen 320mm^2 und 360mm^2 spekuliert. Logisch, dass dann auch 340mm^2 richtig sind. :d
 

Aus meiner Sicht,
Pro: Das Design ist WaKü freundlich, es müssen keine häßlichen Brücken über Kondensatoren gebaut werden, um Spannungswandler zu kühlen.
Contra: Bleibt die Spannungsversorgung so, sähe es mit einem WaKüBlock sehr häßlich aus.

Single Slot auf Wiedersehen der selbe Murks wie bei den Radeonkarten:stupid:

wie meinen?
Die HD7970 lässt sich mit WaKü ohne Probleme auf Singleslot umrüsten.
Hersteller wie EK bieten sogar die passende Blende an.
 
Der Typ, der das Bild hochgeladen hat, hat gesagt, dass der Chip ca. 344mm^2 groß wäre. Ohne Substrac-Schicht wohl um die 32xmm^2. Und damit deutlich kleiner als Tahiti.

Quelle: Beyond3D Forum - View Single Post - NVIDIA Kepler speculation thread

/edit: Und das kommt von Kyle Bennet (Hardocp):
I am seeing information out of China this morning showing 45% to 50% performance increase over 580 in canned benchmarks.
http://hardforum.com/showpost.php?p=1038447903&postcount=437

Dank geht an boxleitnerb
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh