nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Schön und gut, wenn da irgendjemand mit irgendwelchen nicht näher bekannten Kontakten irgendwas darüber erzählt... Aber sei mal ehrlich, Sicherheit darüber, ob das stimmt oder nicht, hast du auch nicht. Ne Quelle selbst kannst du ebenso nicht bringen, und was offizielles zu dem Thema gibts sowieso nicht.
Zu EoL Meldungen gabs idR immer Zeitnah ne News, sowohl bei CPUs, als auch bei GPU Produktionen, wenn ich das mal rückblickend betrachte ;)
Ansonsten macht deine Erklärung zu eol irgendwie keinen Sinn. Klingt so als versuchst du das jetzt hier zurecht zu rücken. Was heist die letzten Bestellungen werden angenommen? Die von Heute, die von Morgen? Oder vllt die von in vier Monaten? Und vor allem, wer definiert das, du? Es machts unterm Strich nicht besser...

Achso noch ein Tip, wenn du dich mit dieser News da störst, vllt schreibst du einfach den Newsschreiber an, anstatt in anderen Thread sodden (sorry) Mist vom Stapel zu lassen ;)
Aber nix für ungut. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
warte, lass mich die quellen für die news suchen... ne, sorry, nix zu finden. der selbe trübe brei und dabei noch nichtmal im konjunktiv und das als bericht.
["Während AMD seine Partner mit der Radeon HD 7970 (Hardwareluxx-Test) erfreut und diese ab dem 9. Januar in den Handel bringt..."]
unverschämt wär es zu vermuten, dass man es vielleicht auf die klickzahlen abgesehen hat (die kommentarrate ging ja auch steil in den himmel) um die migrationsprobleme von letzter woche zu kaschieren... und das ist die rosigste formulierung dafür, das sollte auch der arme newsschreiber der dafür seinen namen hergeben muss nicht in form von massenspam ausbaden müssen.

tjah, schade aber auch. eigentlich erübrigt sich jede spekulation in alle richtungen, aber das gegenteil ist der fall.
die einen schreiben haarstreubende storys nieder, den anderen geht die erwartungshaltung durch und alle rufen sich gegenseitig auf quellen zu bennen.
also, zeit für nen tee ehe noch mehr augenkrebs umgeht a la "gtr785; gk110=2*gk104;gk110 im nächsten winter; ..."
 
Zuletzt bearbeitet:
Ganz ehrlich, wo ist dein Problem?
Wenn du dich hier von irgend nem Newsredakteur gestört fühlst, klär das doch bitte mit ihm ;) Wäre vllt einfacher für dich/ihn als das, was du hier gerade machst ;)
 
warum denn? ist doch ne zulässige news. ist zwar unterste schublade aber weiter gibts daran nix auszusetzen...
und da es auch sonst nix zu spekulieren gibt... upps, die ces hat ja gerade angefangen.
na mal sehen ob sie was schickes mit 2*6pin und locker nem viertel mehr FPS in den wichtigsten anwendungen zum größten vorgänger haben.
wenn man den takt schon in der tasche hat... *pfeif*
 
Zuletzt bearbeitet:
Vielleicht erfahren wir heute von der CES was zur Vodoo5 6000...ups äh ich meinte 780GTX!..scherz!
Setze meine Hoffnungen in die Messe zumindest sollten doch erste Details durchsickern oder wenigstens eine Andeutung wann es losgehen soll.
Wenn sie wirklich was auf Tasche haben und davon gehe ich aus dann verlieren sie ab heute mit jedem Tag unnötigerweise Enthusiasten.
 
Dass bis jetzt nichts von den Karten zu hören ist muss nichts schlechtes verheißen.

Wir erinnern uns noch 2 Wochen vor Release der G80 Karten, da wurde noch wild spekuliert dass die Siliziumhäufchen nicht mal Unified Shader haben.

Was dann kam wissen wir: Eine überzeugende Mehrleistung.
 
Hier mal wieder was von OBR zum GK104 (etwas mit Vorsicht zu genießen, vor allem die 576 SPs, wenn der Hotclock wegfallen sollte :d) - aus dem 3DC aufgeschnappt.

gk104spekus8rw49.jpg


WWW.OBR-HARDWARE.COM - OBRovsky Blog: Exclusive - 28nm GeForce Specs ....

E: Ah, im CES-Thread schon geposted, aber wenigstens noch nicht mit dem Text darunter. :d

MfG
Edge
 
Zuletzt bearbeitet:
Wie schon an anderer Stelle hier geposted - N/A bei den Shaderclocks bedeutet für mich tatsächlich den Wegfall der Hotclocks bei den Shadern. Das im Umkehrschluss bedeutet (bei gleicher Effizienz und bei gleichem Takt), daß man für jeden Hotclockshader zwei Non-Hotclockshader braucht, um grob dieselbe Leistung zu bekommen. Spinnen wir das jetzt weiter, wäre GK104 mit 576 Shadern gegenüber dem GF110 mit 512 Hotclockshadern bei gleichem Takt deutlich langsamer. Selbst wenn ich jetzt einbeziehe, daß die Taktraten bei Speicher und GPU gestiegen sind sowie die Shader Optimierungen erfahren haben, bin ich mir sicher, daß ein solcher GK104 nicht schneller als eine GTX570 wäre.

Entweder OBR verzapft hier mal wieder kompletten Bullshit oder er hat eventuelle Hotclocks übersehen. Ansonsten wäre dieser GK104 nicht das, was sich hier viele erhoffen.
 
Nvidia könnte den GF110 auf 28nm shrinken und die Taktraten auf 1Ghz erhöhen, ohne das Risiko das die Hotclocks wegfallen wäre das sinnvoller als ein GK104 der nicht schneller als eine GTX570 ist, ich glaube nicht das GK104 langsamer als eine GTX580 wird.
 
Deshalb die Vermutung, daß OBR eventuell die Hotclocks übersehen hat oder eben die Tabelle völliges Gemüse ist. Das hier kann genausogut ein erweiterter und geshrinkter GF110 sein. DER wäre so schnell wie Tahiti XT. Aber so wie die Daten da oben stehen, kann ich mir nicht vorstellen, daß das Ding trotz mehr Flops (wo auch immer die ohne Hotclock herkommen sollen bei 576 Shadern) die GTX580 erreichen kann.
 
Wie schon im anderen Thread erwähnt:
Wenn die 2TF stimmen, sagt die Anzahl der Shader nichts aus. Dann könnte ein Shader nämlich 4 Flops pro Takt, nicht nur 2 wie bei der GTX570. Sonst kommen die Angaben nicht hin.
 
...was dann eher auf "Grütze" oder eben Hotclock deutet. ;) Ich mag nicht an eine so heftige Shaderüberarbeitung, wo Fermi doch gerade eine neue Architektur war, glauben. Was auffällt, sind die 64 vs. 96 Textureinheiten.
 
Oder aber die Shader sind verändert worden (wie im CES Thread schon angesprochen).
Was genau ist da eigentlich in so nem Shader drin?
Ausserdem heisst der Wegfall des Hotclocks ja nicht, dass es nicht ersetzt wurde. Hotclockshader müssen ja eine Art Takt"änderer" drin haben. Wenn man diesen raus nimmt und dafür mehrere zusammen nimmt oder wie bei CPUs einen Sequenziellen Turbomode einbaut undundund. Der Wegfall von HC bedeutet ja nicht, dass die Shader nicht andernorts verändert wurden.

Das mit den TMUs finde ich super. Obwohl ich mir noch ein paar mehr gewünst hätte :coolblue:
 
Zuletzt bearbeitet:
Das ist korrekt. Ich kann Dir jetzt nicht im Einzelnen sagen, wie das alles technisch genau funktioniert, aber ich meine mich zu erinnern, daß ein Hotclock-Shader beinahe die Effizienz zweier gleichgearteter "normaler" Shader erreicht. Bei gleichem Shaderdesign wären also etwas weniger als 2 vollwertige "normale" Shader notwendig, um einen Hotclock-Shader zu ersetzen - folglich bräuchte man um GTX580-Niveau bei gleicher Shaderleistung und gleichem Takt zu erreichen, etwas weniger als das Doppelte an "normalen" Shadern, demnach 1024.

Um tatsächlich wie in dieser Tabelle mehr theoretische Rechenleistung (1.6 vs. 2TFlops) zu erreichen bei 576 Non-Hotclock-Shadern müsste nV wirklich mächtig an den Shadern geschraubt haben - höhere Bandbreite und mehr Takt hin oder her.

Bin mal gespannt. Wäre es nV wirklich gelungen, die Shader so stark zu optimieren, daß ein Non-Hotclock-Shader dieselbe Effizienz wie ein Hotclock-Shader hätte (und davon müsste man ja bei diesen Daten ausgehen), müsste sich AMD warm anziehen. Gleichwohl halte ich das für unwahrscheinlich.
 
Die Shaderleistung muss sowieso stark ansteigen, weil man ja weiter im Teslamarkt punkten will. Für wie wahrscheinlich haltet ihr einen deutlichen Unterschied zwischen GK104 und GK110, was die Architektur angeht?

Spekulation:
GK104 = spieleoptimierter Chip, der sich mal mit der 7970, mal mit der 7950 rumschlägt.
GK110 = HPC-orientierter Chip, der in Bezug auf die Spieleleistung deutlich ineffizienter ist, aber die Leistungskrone an sich reißt durch hohe TDP.
 
Bin mal gespannt. Wäre es nV wirklich gelungen, die Shader so stark zu optimieren, daß ein Non-Hotclock-Shader dieselbe Effizienz wie ein Hotclock-Shader hätte (und davon müsste man ja bei diesen Daten ausgehen), müsste sich AMD warm anziehen. Gleichwohl halte ich das für unwahrscheinlich.
Das wäre dann ein großer Schritt nach oben, dann würde GK104 auch schneller als die GTX580 sein und GK100 wäre dann ein wahres Monster.
 
@box: Ein deutlicher Architekturunterschied? Das wäre wirtschaftlich vermutlich eher Humbug. Es ist ja schon so, daß eigentlich der kleine Chip (GK104) auf dem großen Chip (GK100) aufbaut bzw sich aus ihm ableitet. Würde man die Architektur für GK100 aus dem GK104 ableiten und erweitern bzw in eine andere Richtung optimieren, wäre das IMHO zu aufwendig (im Sinne von zu kostenaufwendig).

Andersrum:

Eine Theorie, die ich afaik schonmal bei 3DC geäußert habe wäre, daß Kepler an sich ein eher stromhungriges Design ist. GK104 könnte dann ein stark kastrierter GK100 (tatsächlich um HPC-Komponenten erleichterter) sein, weil dieser beim aktuellen Stand der Entwicklung und Fertigung zu große Leckströme hat oder aufgrund des Designs einfach zu stromhungrig ist. Man könnte GK100 dann "nachschieben", wenn die Fertigung besser läuft. So rum gesehen, könnte das sogar etwa hinkommen mit Deiner Vermutung.

@Duplex: WENN dem so wäre, ja. Allein - ich glaub nicht dran. Wie gesagt, Fermi war schon eine neue Architektur, sowas wird normalerweise nicht eine Gen später völlig über den Haufen geworfen.
 
Rechnerisch müssten die Shader 60% Leistungsfähiger sein um mit dem GF110 gleich zu ziehen. (ohne HC)
Hätten beide HC und identische Shader währe der GF 32% schneller (ohne Bandbreitenberücksichtigung)
Machen wir die Shader also 2/3 grösser plus optimierung also sagen wir 50% grösser haben wir bereits GF100 Leistung (bei 576 Shader und 900Mhz)

Edit:

Spekulation:
GK104 = spieleoptimierter Chip, der sich mal mit der 7970, mal mit der 7950 rumschlägt.
GK110 = HPC-orientierter Chip, der in Bezug auf die Spieleleistung deutlich ineffizienter ist, aber die Leistungskrone an sich reißt durch hohe TDP.

Sehe ich ähnlich. Währe ja für beide Sektoren eine Bereicherung.
Seit G80 sind die High-End GPUs eine Zwitterlösung. Die GPGPUs brauchen gewisse Gamersachen nicht und die Spielerkarten brauchen gewisse GPGPU Dinge nicht. Ein Trennen der beiden Sektoren würde einiges ändern.
 
Zuletzt bearbeitet:
Es würde wiederum halbwegs zu der Effizienzgeschichte passen, die Huang dauernd ablässt...vielleicht bezieht er sich auf alle Chips bis GK104 und nicht auf das, was darüber kommt? Das ist so spannend wie seit dem G80 nicht mehr. Und wir wissen, wie das ausgegangen ist :d

Edit:
Andererseits ging es ja hauptsächlich um DP/W...was dem wiederum wiederspricht, weil in die Teslas kommen die großen Chips. Argh!
 
Zuletzt bearbeitet:
Für eine zwei-Klassen GPU-Gen spricht schon Fermi. Ich verfolge die Architekturen erst seit dem GF100 deshalb weiss ich nicht wie es vorher war. Aber beim Fermi GF10x und 11x wars doch so, dass der 100/110 sehr wenig TMUs hatte im Vergleich zu den Shadern (64 zu 512) Beim 104/114 blieben die TMUs erhalten nur die Shader selber wurden gekürzt. Daraus ergibt sich bei der GTX560Ti eine höhere Texturleistung als bei der 570. Und das nicht nur wenig. Gleichzeitig konnte extrem Platz gespart werden (200mm2 oder sowas?).
Wenn sich die DP/W auf die GPGPU Karten bezieht könnten doch bei den Teslas die TMUs ganz gestrichen worden sein (oder brauchts die für was?) und dafür für die Consumer weniger Kerne, mehr TMUs und Tess-Einheiten.
Das würde bedeuten, dass der GK100 gar nie auf den Consumermarkt kommt sondern nur ein GK104 und später ein 110 oder 114. Das würde auch für die ältere Tabelle passen die mal irgendwo gezeigt wurde (mit GK104 und 112 als Dual-GPU).
 
Ich bin immer noch unsicher, was in heutigen modernen Spielen hauptsächlich limitiert. Shaderleistung? Dann wäre diese Auftrennung ungeschickt. Texturleistung? Warum zieht die 560 dann nicht mit der 570 oder 580 gleich in hohen Auflösungen?
 
Mehr Shader = mehr FPS, vorrausgesetzt das Speicherinterface & GDDR5 wird nicht kleiner.
 
Wie kannst du das sicher sagen? Die Einheiten haben ja einen gekoppelten Takt - man müsste eigentlich mit einer 8800GTX testen.
 
Aber die Leistung stieg nicht linear mit der Shaderleistung.
GTX285>>240 shader 80TMUs
GTX480>>480Shader 60TMUs

Über Taktung brauchen wir nicht reden. Also müssen die TMUs doch einen nicht unerheblichen Einfluss haben. Sie limitieren zwar nicht aber sie beschleunigen sicher.

Edit: ums mit den Leistungen der Shader zu vergleichen:(Laut Wiki)

GTX285>>1.06Tflops bei 1476Mhz
GTX480>>1.345Tflops bei 1401Mhz

Das sind knapp 30% bei fast identischem Takt und 100% mehr Einheiten.
 
Zuletzt bearbeitet:
Die GT200 Shader konnten 3 Flops/Takt, ab Fermi sind es nur noch 2 Flops. Nur so nebenbei. Es wäre da komisch, wenn man wieder in die andere Richtung gehen würde. Aber wenn es Sinn macht...

Also die Texelleistung scheint schon wichtig zu sein. Nvidia geht ja auch ziemlich effizient damit um - AMD hat weitaus mehr und kann sie nicht auf die Straße bringen, zusammen mit der hohen Shaderleistung.
 
Die GT200 Shader konnten 3 Flops/Takt, ab Fermi sind es nur noch 2 Flops. Nur so nebenbei. Es wäre da komisch, wenn man wieder in die andere Richtung gehen würde. Aber wenn es Sinn macht...

Also die Texelleistung scheint schon wichtig zu sein. Nvidia geht ja auch ziemlich effizient damit um - AMD hat weitaus mehr und kann sie nicht auf die Straße bringen, zusammen mit der hohen Shaderleistung.

Wenn ich das nachrechne stimmt das exakt. Die Rechenleistung ist pro Takt und Shader identisch. (3 zu 2 Flop/Takt)

Edit: wie ich grad sehe ist sie in Spielen trotz 30% mehr SP Performance rund 50% schneller. Trotz 33% weniger TMUs. Woher kommt dann die Leistung? GDDR5? Das macht max. 10% aus (159:177GB/s).
 
Zuletzt bearbeitet:
Fermi war ein Flopp. Man braucht hier gar nicht von nem Wunder ausgehen oder ner echten top Karte! Hier wird nichts präsentiert seit Monaten, es gibt keine Fakten....da kommt wieder ein Flopp auf uns zu! Nur der Herr im Himmel kann uns da noch helfen, oder dieser Huang Chinese!
 
Ist das dass Niveau auf dem sich dieser Thread weiterbewegt? Weil dann lösche ich gerne dessen Abo...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh