nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja eben es sagt halt nix über die Spiele Performance aus eine GTX580 ist ja einer HD6970 in Games leicht überlegen.
 
Über die Spieleleistung sagt das leider noch noch nicht aus.
Wenn man so etwas hier zum Beispiel liest kann ich mir nix darunter vorstellen wie stark ein Kepler sein soll.

AMD gibt eine theoretische Rechenleistung von 2,7 TFLOPs in Single-Precesion und 675 MFLOPs in Double-Precision für die Radeon HD 6970 an. Die Radeon HD 6950 kommt auf 2,25 TFLOPs in Single-Precision und 563 MFLOPs in Double-Precision.
LINK
Hardwareluxx - Test: AMD Radeon HD 6970 und 6950

Bei diesen sage ich mal Theoretischen Werten wäre er ja eine Krücke oder wie soll ich das sehen?

Du vergleichst hier verschiedene Architekturen. AMD hat zwar einen höheren Peak, hat aber Probleme die Einheiten auch wirklich so auslasten zu können. Am besten geht das beim Bitcoin Mining oder Passwort Knackern, bei allen anderen Dingen ist meist NV in Front.

Nvidia Kepler: Schneller als als Fermi bei geringerer TDP? - Seite 4
dreifache DP-Leistung Kepler für spieler bedeutungslos wenn das stimmt wärs traurig für spieler

Natürlich ist die die dreifache DP Leistung bedeutungslos, weil die DP-Leistung ganz einfach für Normaluser bedeutungslos ist. SP-Leistung wäre wieder interessant und bisher entsprach 1 Flop DP = 2 Flop SP. Sollte das noch so sein wärs nen ziemlicher Hammer. Die bisherigen Teslas (und auf die sollte sich die Aussage beziehen) sind meist niedriger getaktet. So kommt eine Tesla M2090, das derzeitige Topmodel auf 665 GFlops in DP.

NV hat bisher das SP/DP Verhältnis für den Desktop beschnitten und bietet dort nur ein achtel der SP Performance für DP an, allerdings mit Karten die wesentlich höher Takten. PDF zur M2090
 
mal eine Frage/Bemerkung am Rande, bei Nvidia ist es doch schon seit einiger Zeit so, dass die Consumer Karten für professionelle Anwendungen in ihrer Flop-Leistung stark begrenzt werden um dies als Alleinstellungsmerkmal für die Quadro-Karten zu haben. Zumindest errinere ich mich düster an den Quadro Vergleich der baugleichen GTX470 Quadro zur normalen GTx 470 in der CT und man hatschön gesehen, wie die Consumer Karte massiv gedrosselt wurde. Von dem her stimmt die Aussage zur Flop-Leistung.
Eine Nebenfrage die sich mir noch stellt. Haut Nvidia wohl dann zum Weihnachtsgeschäft noch eine 5x5er Version der aktuellen Karten oder zumindest ein paar kleinere Modelle als Shrink in 28nm raus? Ich denke sie werden nicht das Debakel der 480er wiederholen wollen, als man vorher keine Karte im kleineren Prozess getestet hatte.
 
Immo sehe ich die 660 (sollte es die dann geben und auch so bennant werden) als die für mich interessanteste, ich werde dann (immo GTX460) die 5xx serie wohl überspringen, und dann zu der GTX660(Ti) mit +2GB RAM greiffen.
Stimmt es das es dann vieleicht sogat GDDR6 geben soll?
was hat es mit dem "cache" auf sich, der wie ich gelesen habe von CPU und GPU genutzt werden soll, wo sich gesteuert durch Software jeweils CPU oder GPU Rechenleistung teilen sollen, so das wenn z.B die CPU nur 50% last hat, diese auch Arbeiten der GPU "ausrechnen" soll, und anders herum, und diese dann in einem Cache ablegen, der von beiden dann abzurufen sein soll. Ist dieser Cache dann auf der Grafikkarte, oder wird er vom System RAM reserviert?
 
mal eine Frage/Bemerkung am Rande, bei Nvidia ist es doch schon seit einiger Zeit so, dass die Consumer Karten für professionelle Anwendungen in ihrer Flop-Leistung stark begrenzt werden um dies als Alleinstellungsmerkmal für die Quadro-Karten zu haben.
Allerdings nur bei Double Precision.

Eine Nebenfrage die sich mir noch stellt. Haut Nvidia wohl dann zum Weihnachtsgeschäft noch eine 5x5er Version der aktuellen Karten oder zumindest ein paar kleinere Modelle als Shrink in 28nm raus?
28 nm Shrink, nein.
 
Hoffentlich kann man den EKL Peter weiter auf der GTX6XX nutzen.
Schön währe auch das man wie bei der GTX5XXer Reihe die Grundplatte weiterhin verwenden könnte.
 
Ich denke mal das sind so Sachen die man erst nach dem Launch erfährt ;)
 
Will da NV schon wieder den groben Weg gehen ??? Einfach nur die Menge der Recheneinheiten erhöhen ???
Das wär reichlich blöd. Wie soll man das Kühlen oder soll man den User mal wieder melken und dumm darstehen lassen mit den Problemen ?

MfG Jaimewolf3060
 
Das bezweifele ich stark, denn nVidia hat dazugelernt.

Und einfach die Einheiten erhöhen, ohne die Architektur zu optimieren würde gar nichts bringen.

Überleg mal bei einer Leistungssteigerung von 1 zu 1 der Einheiten wieviel Einheiten müsste nVidia verarbeiten um die gewünschte Leistung zu erreiche? Stimmt und würde sich das rentieren ?
 
Überleg mal bei einer Leistungssteigerung von 1 zu 1 der Einheiten wieviel Einheiten müsste nVidia verarbeiten um die gewünschte Leistung zu erreiche? Stimmt und würde sich das rentieren ?

Das ist eben genau der Punkt... Die Leistungsaufnahme kommt da noch hinzu.
Ich denke NV wird wohl ober Übel mit den 600er Karten so langsam mal das Tempo rausnehmen müssen. Bzw. sich was einfallen lassen müssen in Sachen Effizienz. Ansonsten haben wir zwar wieder 50-80% Mehrleistung zum Vorgänger, dafür aber auch 400W+ Leistungsaufnahme. Nicht das mich das primär stören würde, aber als LuKü Nutzer könnte es schwer mit OC werden und Temps von gut und böse wären wohl auch garantiert.
 
Gibt es denn Informationen dazu, was die aktuellen Geforces so ineffizient macht im Vergleich zu HD5000/6000 (nicht pauschal, siehe HD6970 vs GTX570, aber tendenziell)?

Und wie könnte man das beheben?
 
Es zeichnet sich seit dem G80 an, das die 1D ALUs mit zunehmender Anzahl immer ineffizienter werden. Das heist, man braucht für signifikante Leistungssteigerungen bei ähnlichem Takt immer mehr Strom. Des weiteren brauchen wohl die 1D Einheiten auch flächenmäßig und transistormäßig deutlich mehr Platz als Vector ALU Ansätze...
 
Hm, dass Nvidia da umdenkt, bezweifle ich...leider.

Irgendwann werden sie es müssen...
Die Dampfhammer Methode ala 480GTX mit ~320W Verbrauch ging zwar gerade noch gut. Aber mit Luft gekühlt arbeitet man in meinen Augen schon am äußersten Limit.
Was natürlich passieren kann, man baut FullSize ATX Karten mit ~32cm länge... Dann hat man auch deutlich mehr Platz für größere Kühler um 400W+ Abzuführen.
Oder man denkt komplett in tripple Slot Kühlern um...
 
Das wird man dem Kunden aber nicht verkaufen können - diese Schwäche zieht sich ja durch die komplette Architektur nach unten und Strom wird auch nicht billiger. Auch im HPC-Bereich wird man dann Probleme kriegen, denn ob es nun 1x400W oder 1,000 x 400W sind, ist doch ein Unterschied.

Ich hoffe, sie kriegen die Kurve damit.
 
Im HPC Bereich ist das ganze aber denke ich weniger schlimm... Klar die Absoluten Zahlenunterschiede sind riesig. Aber man kann halt durch hohe DP Performance dort auch gut punkten.
Bei AMD ists ja dort weniger "rosig", enorme SP Leistung aber in Sachen DP sinkt es doch erheblich ab.

Am Schluss zählt wohl die Effizienz in Sachen Leistung/Verbrauch. Die wird denke ich schon besser sein als der Vorgänger. Die Frage ist halt, ob man absolut gesehen dort nicht zu weit aus dem "Fenster" schaut...
 
Das Problem ist dass aus der FULLSIZE Architektur alle anderen abgeleitet werden.

Und ein Midrange Teil mit 200W verbrauch wo die Gleiche Leistung beim Konkurrenten keine 150W Zieht ist einfach nicht drinnen.

Von Lautstärke und Kühlung wollen wi jetzt nicht nochml anfangen.

Entweder nVidia denkt um oder sie gehen auf lange sicht Bankrott, anders geht es nicht.

Ich bin zuversichtlich dass nVidia aus dem GTX480 Desaster gelernt hat.

Die GTX 580 schlägt sich nur wegen 2MIO weniger Transistoren und besserer Kühlung so gut, aber wirklich fortschritt ist das nicht, was auch nicht möglich ist, mit der Architektur.


Ich bin zuversichtlich.
 
Ah stimmt, bei AMD ist es Faktor 4, bei Nvidia brichts nur um die Hälfte ein bei den Teslas.
 
Falsch, 4 einheiten geben 2 Gleitkommas bei AMD
Bei nVidia geben 2 einheiten 1 Gleitkomma also bei beiden die Hälfte.

Das Problem ist die Programmierung.

Ohne vernünftige ausrichtugn der SW sieht auch eine GTX580 gegen eine HD 4870 Kein Land.
 
Komm, lass mal das Stänkern sein. R580, so ein Quark. Die DP Flops werden nicht zum Spass angegeben, und hier bricht AMD auf 20% der SP-Leistung ein. NVIDIA bricht nur auf 50% ein. Das ist Fakt, wie fdsonne schon angedeutet hat, was gibts da überhaupt zu diskutieren???
 
Die tatsache dass du Den Post nachdem ich ihn kommentiert habe änderst, schließt dich mal wieder aus.

Steh zu dem was du postest, und nicht im Nachinein ändern, damit meine aussage als Falsch da steht.
 
Ich habe nur die Formulierung geändert, der relevante Teil ist so wie vorher - dein Zitat eingeschlossen. Und den Post #54, um den es dir ging, hab ich gar nicht geändert. Lass gut sein, die Fakten kann sich jeder, inkl. dir, selbst nachlesen.

Aber extra für dich, vorher hieß es:
Lies mal meine Posts und die Links darin richtig.
Und in besagten Links steht zwar auch ein R580, aber nur ein Idiot würde den mit irgendwas Aktuellem vergleichen. Es geht um die Firestreams auf Basis der Cypress-Chips im Vergleich zu aktuellen Fermi-Teslas. Jetzt verstanden?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh