nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Leider kann ich kein Bild einer nackten Quadro 6000 finden. Aber Anhand der zwei folgenden Bilder einer Quadro 5000 von hothardware ist es scheinbar kein Problem die doppelte Anzahl an Speicherchips mit nem GF100 zu verbinden. Dann wären das im Falle einer Quadro 6000 stolze 24 2Gb(it) Chips um auf die 6GB(yte) Bestückung zu kommen. Wenn da mal nicht Platzprobleme auftreten bei ner Kepler Quadro mit 32 2Gbit Chips @ 512Bit SI für 8GB Speicher :fresse:


big_quadro_angle222rkqh.jpg


big_quadro_angle21b7jdw.jpg
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum hat die Quadro nur 1x 6pin? Und Lötstellen für 1x 6 + 1x 8pin?
 
Hätte jemand Lust auf eine SB direkt bei Evga? Wenn ein paar zusammen kommen würde sich das schon lohnen.
 
Was meinst Du? Es geht hier um eine bisher nicht vorgestellte Kartengeneration... und bei EVGA kann man eine Sammelbestellung machen??
Bahnhof?
Was willst Du bestellen? Warum eine SB? Du meinst die drücken den Preis dann nennenswert?
 
Warum hat die Quadro nur 1x 6pin? Und Lötstellen für 1x 6 + 1x 8pin?
Weil die Quadro 5000 mit einer max Leistungsaufnahme von 152W angegeben wird. Aber nicht verwunderlich, denn der GF100 wird sehr gedrosselt gefahren: 352 Schader 2,5GB @ 513/1026/750(1500)MHz. Bei den Quadros steht ja bekanntlich "safety first" an erster Stelle. Der nicht genutze 8-Pin Stecker wird sicherlich bei der Quadro 6000 eingesetzt, welche vermutlich das gleiche PCB nutzt.
 
Leider kann ich kein Bild einer nackten Quadro 6000 finden. Aber Anhand der zwei folgenden Bilder einer Quadro 5000 von hothardware ist es scheinbar kein Problem die doppelte Anzahl an Speicherchips mit nem GF100 zu verbinden. Dann wären das im Falle einer Quadro 6000 stolze 24 2Gb(it) Chips um auf die 6GB(yte) Bestückung zu kommen. Wenn da mal nicht Platzprobleme auftreten bei ner Kepler Quadro mit 32 2Gbit Chips @ 512Bit SI für 8GB Speicher :fresse:

Wenn man bedenkt, das es die G200er Karten mit 512Bit SI nur mit GDDR3 gab, und dort nur halb so große Speicherchips am Markt existieren, soweit ich weis. Muss es ja auch schon mit 512Bit SI gegangen sein ;)
Sprich dann wohl 32x32Bit Chips auf die 16x64Bit Speichercontroller verteilen.
Wird halt das Teil etwas größer länger breiter wie auch immer ;)

Warum hat die Quadro nur 1x 6pin? Und Lötstellen für 1x 6 + 1x 8pin?

Weil das wohl das zweit kleinste GF100 based Modell der Quadro Reihe ist.
Die hat nur 352 Cudacores. Und eben 320Bit SI. Da sind nur 11/16 Shaderclustern aktiv. Und somit der Verbrauch wohl auf unter 150W drückbar... Ne Quadro 6000 kommt auf 448 ALUs (wie die 470GTX)
Laut NV Page gibt es aktuell keine vollausgebaute 512 ALU quadro. Aber ne Tesla 512 ALU Karte ;)
 
Zuletzt bearbeitet:
Wenn man bedenkt, das es die G200er Karten mit 512Bit SI nur mit GDDR3 gab, und dort nur halb so große Speicherchips am Markt existieren, soweit ich weis. Muss es ja auch schon mit 512Bit SI gegangen sein ;)
Sprich dann wohl 32x32Bit Chips auf die 16x64Bit Speichercontroller verteilen.
Wird halt das Teil etwas größer länger breiter wie auch immer ;)
Ja die Quadro Lösung mit 32 Chips bzw 8GB würde wohl sehr groß ausfallen. Ne Kepler Karte mit 16 Chips und 4GB Speicher lässt sich sicher mit 8 Chips GPU-Seite und 8 Chips Rückseite organisieren. Dann würde die Karte eventuell weniger Fläche benötigen bzw kürzer werden als ne 580er?! Obwohl mit 16 Speicherchips gabs damals keine Platzprobleme, dann sicherlich auch nicht bei Kepler.

144mpxa.jpg
 
Zuletzt bearbeitet:
Bekommt OBR neuerdings von NV Geld? Ganz ehrlich? Ohne beweise glaube ich garnichts ;) Ich kann mich auch hinsetzen und erzählen, hey Leute hier ist mein CPU-z Screen mit einer gtx660 und die wischt mit AMD den Boden auf..

Dennoch wäre nen neuer g80 lecker :) Aber ich glaube nichmehr dran, denn die heutigen Chips sind vielzu komplex.. Ich denke unsere GTX680 mit 30% Mehr als 7970 ist da doch realistischer
 
Bis jetzt fischen wir immernoch im Trüben, was spekuliert knapp 2,5 Monate vor Launch aber jetzt wirklich nicht ungewöhnlich ist.
Die Aussage "man hätte mehr von AMD erwartet" kam von irgendeinem Mitarbeiter von Nvidia, hat also überhaupt keine Bedeutung.
Und die Aussagen von OBR, man könne AMD schon mit einem ähnlich großen Chip schlagen, kann man sich denk ich auch an den Schuh schmieren, denn der weiß doch selbst rein gar nichts.
 
Was geht denn dort im 3dc ab?
Da sind bei den Leuten auf einmal 60% zur 580er schon zu mager :fresse:

Oder ist das wieder mal nur das übliche hochgepushe, damit man auch ja am Ende enttäuscht wird?

Wobei aber 50-60% zur 580er durchaus realistisch klingen. Mit dicken Auflösungen und viel Filtergeschichten könnte der Vorsprung noch gut wachsen, sofern NV da ihre leichte Schwäche in den Griff bekommt. Und das Teil wird grundsolide.
Lehnt man sich nicht zu weit aus dem Fenster mit dem Speed, dürfte die Leistungsaufnahme und somit die Kühlbarkeit des "Monsters" auch im Rahmen bleiben. Vllt gehts ja gar wieder etwas zurück, sprich unter ~300W
 
OBR behauptet im wieder mal editierten Post,das diese Folie von Chiphell am ehesten der Wahrheit entsprechen würde



0718538639yabz3w3mak8igc5d.png

Closest to truth is this table: 開普勒家åº*GTX700è¦�æ*¼ - 顶级图形å�¡ - CHIPHELL - å�„ç§�败家 å�„ç§�励志 - Powered by Discuz! but not 100 percents! But very close!


Falls diese Person auf Chiphell so na dran lag bei der Folie,dann sagte dieser auch: 第一个GPU与L3高速缓存

L3 Cache bei einer GPU um Bandbreitenengpässe zu eliminieren,das klingt nicht verkehrt:)
 
Zuletzt bearbeitet:
Na hoffentlich sind die TDPs nur aus den Saftsteckern zusammengerechnet. Naja, ich glaube eh nichts ;)
 
Der Level 3Cache ist aber ein Feature was interessant klingt,gerade weil man sich Sorge um die Bandbreite gemacht hat
 
Interessant an der Tabelle _wäre_ auch das Verhältnis von SP flops zu DP flops wenn man GK100 und GK104 vergleicht. So erreicht der GK100 ~33% der SP Leistung, während der GK104 gerade mal auf ~8-9% der SP Leistung kommt. Interessant...
 
Interessant an der Tabelle _wäre_ auch das Verhältnis von SP flops zu DP flops wenn man GK100 und GK104 vergleicht. So erreicht der GK100 ~33% der SP Leistung, während der GK104 gerade mal auf ~8-9% der SP Leistung kommt. Interessant...

Abgespeckte GPGPU Eigenschaften beim GK104 wer braucht bei ner Geforce schon zwingend DP
 
Zuletzt bearbeitet:
ich finde die Tabelle gut spekuliert. Mal abwarten was schlussendlich bei raus kommt.
 
Ich weis nicht so recht was ich von den 2304 ALUs halten soll.
Das klingt nach Fermi V2, sprich nicht ganz Vollausbau in der ersten Version.
Wer baut bitte so krumme Werte in einer neuen Karte? Noch dazu passt die Zählweise der TMUs nicht zu der krummen ALU Anzahl. Normal sollten eher 48 bzw. 96 TMUs an 1536 ALUs hänge, was noch Sinn ergibt. Aber wieso hängen auf einmal 64 gerade TMUs an 1536 krummen ALUs?
Auch wenn das ganze rechnerisch aufgeht auf der Folie glaube ich daran so nicht unbedingt.


Der nächste Punkt, GK110 soll im Verhältnis SP zu DP auf einmal 3/1 haben? Das wäre eine Verschlechterung zum Fermi.
Rechnet man aber mal anders. Sprich 1,46 GFlops/s als Basis, 950MHz wie in der Folie und ein MADD pro ALU und Takt so kommt man auf wundersame Weise auf exakte 1536 ALUs ;)
-> vllt ein Indiz dafür, das man hier einfach die Zahlen gepusht hat? ;)
1536 ALUs mit 512Bit SI würde wiederum auch zu dne 96/64 TMU/ROPs passen... Und man wäre damit ohne Hotclocks immernoch gute 23% mehr Takt rein auf die GPU und gute 100% mehr ALU Leistung. (inkl. Abzug der Hotclocks)
Heist unterm Strich, 50-70% mehr Leistung zur 580er im Schnitt wäre damit dicke drin. In Extrem Situationen durchaus mehr. Das Teil bekommt fast doppelte TMU Leistung als ne 580er und liegt weit über der Pixelfüllrate der 580er sowie der AMD Karten.
 
Laut OBR ist die Folie auch nicht absolut richtig. Soll halt nur "seiner Wahrheit" am nächsten sein. So ganz trau ich dem Braten nicht, da der Kerl schon vor etwa 5 Statements gesagt hatte, dass er nichts mehr dazu abgibt bis chinesiche specs draußen sind :stupid:
Wenn es aber stimmen sollte und Kepler wirklich ein zweiter G80 wird, hat sich das Warten auf Kepler+Ivy jetzt schon gelohnt im vergleich zu Fermi+Sandy :banana:
 
ivy zu sandy lohnt sich doch nicht wirklich

aber kepler zu fermi wenn nur teile der gerüchte stimmen... holla ho
 
Warum Kepler + Ivy, ergänzen sich beide besonders gut, besser als Kepler + Sandy ?
Wäre für eine Erklärung dankbar, werde demnächst auch auf Ivy, Z77 und ner neuen Gk umrüsten.
 
Wenn es aber stimmen sollte und Kepler wirklich ein zweiter G80 wird, hat sich das Warten auf Kepler+Ivy jetzt schon gelohnt im vergleich zu Fermi+Sandy :banana:

Ne, lieber nicht, das würde direkt implizieren, das man in Sachen Stromverbrauch noch weiter steigt, als alles bisher dagewesene.
In Sachen reine Leistung war G80 im Vergleich zur X1950XTX nun so extrem gut nicht ;) Da gab es andere Karten, die mehr auf den Vorgänger draufgepackt haben, sowohl von AMD als auch von NV.
 
In Sachen reine Leistung war G80 im Vergleich zur X1950XTX nun so extrem gut nicht ;) Da gab es andere Karten, die mehr auf den Vorgänger draufgepackt haben, sowohl von AMD als auch von NV.

Gehört zwar nicht hier her,aber ein G80 der in nicht CPU limitierten Szenarien satte 137% Leistungsplus erziehlt zum Vorgänger,ist denke ich schon beachtenswert
 
Zuletzt bearbeitet:
scully auch das schafft man bedenkenlos mit anderen Karten. Irgendwelche Extremsituationen wo schick Flaschenhälse ausgebessert sind. Bringt uns aber nicht weiter, wir brauchen Durchschnittswerte über ne breite Spielepalette.
Und im Schnitt war G80 zur schnellsten SingleGPU der Vorgängergeneration so extrem weit vorn nicht. Die Zeit lobte G80 aber hoch, weil es keine Konkurenz gab. ;)

Aber sei es drum, G80 ist Schnee von Vor- Vorgestern. Kepler ist die nähere Zukunft und NV wirds schon packen.
~800€ liegen schon mehr oder weniger griffbereit. Da muss was gehen.
 
scully auch das schafft man bedenkenlos mit anderen Karten. Irgendwelche Extremsituationen wo schick Flaschenhälse ausgebessert sind. Bringt uns aber nicht weiter, wir brauchen Durchschnittswerte über ne breite Spielepalette.
.

Nun ein Rating sollte wohl genau das aufzeigen und dort schlägt eine einzelne GTX 8800 ein SLI Gespann der Vorgängergeneration:)

Klick

Der G80 trägt seinen Ruf Legende schon zu recht

Ob es der Kepler Chip auch schafft wenn man nach OBRs "seriösen Aussagen"geht schon
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    77,5 KB · Aufrufe: 77
Zuletzt bearbeitet:
MGPU Systeme skalierten damals eher schlecht als Recht ;) das sollte dir nicht unbekannt sein. Schaut man mal ein paar Tests weiter, so sieht man das selbst ne Single X1950XTX teilweise ne 7900GX2 in die Tasche steckte, und das ist selbe Generation von Karten.
Ändert aber nix an der Tatsache, das im Schnitt eben 60-70%, bei damals gängigen 1280/1600er Auflösung mit 4xMSAA nicht das waren, was andere Generationen zum Top SingleGPU Vorgänger nicht auch erreicht hätten. Wie gesagt, schau dir die Benches an, da gibts eigentlich nix dran zu rütteln. G80 war in der Hinsicht nichts besonderes.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh