nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
8x375W=3 kW + 600W für 2 (?) CPUs, RAM, Board, HDDs. Passt doch. Und auch nur gut 2/3 Effizienz (theoretisch 1.48 TF pro Karte).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wo war das noch, hast nen Link?

Jetzt musste ich grad mal lachen - du musst dich nämlich schon entscheiden. Jetzt hält man sich an die TDP und es ist auch nicht recht. Ich glaub langsam, du weißt gar nicht, was du willst. Solange das Ding in Spielen nicht abriegelt (sprich unter den garantierten Basistakt fällt), gibts kein Problem. Alles andere ist Sturm im Wasserglas imo.

Hä?
Wieso ist mir das nicht recht? Klar ist mir das recht... Und sollte auch so sein.
Was mich stört bzw. stören würde, wäre ein Abriegeln in Games oder allgemein Programmen mit GPU Beschleunigung. Ich meine bei irgend nem AMD Modell gab es sowas mal, ich glaube CB hatte da mal was gemessen. (HD6970?) Weis nicht mehr genau. Ob das nun über den Takt geschieht, oder ob die Karte bei vollem Takt einfach Berechnungen aussetzt, ist dabei eigentlich wurscht. -> sowas sollte es nicht geben.

Meine Aussage war, die Effizienz in Sachen K20(X) muss sich nicht unbedingt 1:1 auf den Gamerpart übertragen lassen, weil andere Lastzustände entstehen. Es gibt aktuell wohl keine fundierte Gegenüberstellung was Energieeffizienz von einem Quadro/Tesla Modell zu einem Geforce Modell der gleichen Reihe behandelt.

@scully
wer spricht von "deutlich" im Zusammenhang von TDP mit dem gemessen 3,6kW?
Ich sprach von Leistung. Da gab es doch ein Update im Blog von wegen, mit angepassten Code oder was auch immer wurde mehr Leistung aus den GPUs gekitzelt... Oder verwechsel ich das gerade?

Übrigens Thema Folding@Home, halte ich für einen schlechten Vergleich. Einfach weil die Lastzustände nicht vergleichbar sind bei Gesamt PC Messungen. Oder gibt es Reviews, wo man typische Szenarien in Einzelkartenmessungen direkt mit Games vergleicht, die optimalerweise im nahezu vollständigen GPU Limit laufen?
 
Übrigens Thema Folding@Home, halte ich für einen schlechten Vergleich. Einfach weil die Lastzustände nicht vergleichbar sind bei Gesamt PC Messungen. Oder gibt es Reviews, wo man typische Szenarien in Einzelkartenmessungen direkt mit Games vergleicht, die optimalerweise im nahezu vollständigen GPU Limit laufen?

Das stimmt wohl,da es keine DP Berechnungen vorraussetzt,wie sie bei Großclustern nunmal Gang und Gäbe sind

Dennoch zeigen bereits diese simplen SP Resultate Verbrauchsmessungen,die so niemals von Games je erreicht werden bzw wurden

Ich musste 2 von meinen 4 Geforce(Standardtakt/Standard Vcore) damals in der Vcore nach oben schrauben,obwohl sie schon unter H2O liefen,um verwertbare/stabile Resultate zu bekommen

Alleine daran wird schon ersichtlich,wie hoch die Anforderungen für GPGPU Karten real sind,gegenüber ihren Geforce Derivaten.

Deshalb bin ich felsenfest davon überzeugt,das eine Tesla 235Watt,schon ganz klar Auskunft gibt darüber,das der Geforce nicht mehr verbrauchen wird,sollten die Spezifikationen die selben bleiben
 
Zuletzt bearbeitet:
Also ich hatte bis jetzt keine Probleme auch mit Tagelanger "Volllast" zumindest was default Takt/Spannung anbelangte... ;) Nutze sowas zwar nicht beruflich, spiele aber hier und dort mit GPGPU rum. Thema Raytracing, Thema Verschlüsslung, Thema GPU Beschleunigung in Autodesk Produkten usw.
Es ist nur etwas müßig über sowas zu spekulieren, wenn es keine nachvollziehbaren Werte gibt.
mr.dude hatte hier im Forum übrigens irgendwo mal Links zu GPGPU Benches gepostet. Ich meine die zeigten ähnliche Ergebnise -> sprich weniger Verbrauch bei GPGPU als bei Games. Ob das aber vergleichbar war, weis ich auch nicht mehr...

Es sollte aber auch reichlich egal sein, ob nun SP oder DP berechnet wird. Die ALUs sind die selben, die die Berechnung durchführen. Wobei, gabs bei GF100/110 nicht dedizierte DP Einheiten für die Geforce Einheiten? Unterm Strich aber auch wurscht, wenn die Basis für den Vergleich eine Geforce ist, denn bei dehnen liegt die DP Performance idR ja weit ab von dem, was die Quadro/Tesla Karten bringen können.

Deswegen war ja die Frage nach einem fundierten Vergleich zwischen einem Tesla/Quadro Modell vs. einem Geforce Modell, das eine mit GPGPU Belastung, das andere mit Gamebelastung und bei beiden mit möglichst effizienten Code um Volllast zu erzeugen. Sowas ist mir leider nicht bekannt.

Deshalb bin ich felsenfest davon überzeugt,das eine Tesla 235Watt,schon ganz klar Auskunft gibt darüber,das der Geforce nicht mehr verbrauchen wird,sollten die Spezifikationen die selben bleiben

Wie gesagt, an dem Punkt wäre ich skeptisch...
Da einfach ganz andere Anforderungen bzw. Belastungsszenarien auftreten. Keine ROP Belastung, keine TMU/TAU Belastung, womöglich weniger Belastung durch VRAM Zugriffe (könnte ich mir vorstellen)
Dazu kommt wohl der mehr Takt (ggf. auch mit mehr Spannung), der mögliche Turbo wohl definitiv mit mehr Spannung bei Einsetzen usw.
Klingt für mich alles nicht nach 1:1 Vergleich ;)
 
Zuletzt bearbeitet:
schau dir an, was ich im März spekuliert habe und schau dir an, was K20 heute auf GK110 Basis ist...
- K20(X) landet mit 225/235W TDP genau dort, wo ich ihn sah.
- Takttechnisch hat K20 massiv Federn gelassen, wie von mir spekuliert
usw.

Zwei Aussagen, für die man kein Wissen haben muss:
TDP der Tesla-Karten lag immer zwischen 225-250 Watt.
Chips mit vielen Transistoren werden immer Federn gegenüber Chips mit weniger Transistoren lassen, da der Stromverbrauch deutlich höher liegt bei gleichem Takt.

Vergleicht man K5000 und K20X wird man sehen, dass nVidia hier fast annährend 1:1 beim Perf/Watt skaliert:
K5000 hat 2,1 TFLOPs/s und 122 Watt.
K20X hat 3,93 TFLOPs/s und 235 Watt.

Das macht 87% mehr Rechenleistung bei 92% mehr Strom. Unberücksicht, dass K20X 50% mehr Speicher 43% mehr Bandbreite besitzt.

GK110 ist daher einwandfrei gelungen und es ist eine beendruckende Leistung, ein annährend gleiches Perf/Watt Verhältnis mit mehr als die doppelte Anzahl an Transistoren zu erreichen.

Es bleibt also weiterhin spannend. Vor allem, wo sich AMD platzieren wird. Nach letzten Gerüchten könnte die AMD Karte gar später als GK110 kommen, mit dem Vorteil, das man seitens AMD dann mit dem Takt agieren kann um die Lücke zu verkleinern/zu schließen oder gar um sich vor GK110 zu platzieren. Analog wie es GK104 seinerzeit gemacht hat. ;)

Doof nur, dass selbst K20X heute schon 15-25% schneller als die 7970GHz ist und dabei weniger bis gleichviel Strom verbraucht. :fresse:
 
Doof nur, dass selbst K20X heute schon 15-25% schneller als die 7970GHz ist und dabei weniger bis gleichviel Strom verbraucht. :fresse:

Du kennst also Spielebenches auf K20 Tesla GPUs?
Schick mal bitte nen Link ;)

Übrigens, auch wenn es nur ein Gerücht ist. Es gab jüngst eine Meldung, wo man von deutlich Mehrleistung bei den 8000er Karten (basierend auf den 88xx Karten) bei weniger bis gleichem Verbrauch ausging. Ob es stimmt, steht auf einem anderen Blatt. Sollte es hingegen zutreffen, wäre ernsthafte Konkurenz zu erwarten seitens der Roten.
Erste technische Daten zu AMD Radeon 8800 Series "Oland"
Eine 8870 mit der ähnlichen Leistung einer 7970 wäre schon ziemlich beeindruckend mit einer 160W Einstufung, vor allem im Vergleich dazu, das man im gleichen Prozess bleibt.
 
K20X hat 22% mehr Rohleistung und 30% mehr Bandbreite. Da die GTX680 stark von der Bandbreite limitiert wird, pendelt sich K20X in Richtung der 30% ein.

Und Gerüchte? Wow.
Und was an 160 Watt für 7970 Leistung nun so toll sein, kannst du mal erklären. Immerhin erreicht das die GTX680 auch. Und die GTX670 bietet sogar das beste Perf/Watt Verhältnis von allen "Mid-Highend" Karten.
 
Fairerweise muss man dazu sagen, dass es immer mehr Spiele bzw. Settings gibt, in denen eine 7970 GE 20-30% vor einer 680 liegt. Das muss man erstmal einholen, bevor man überholen kann ;)
Natürlich gibts auch Spiele, in denen Kepler flotter ist, aber das sind soweit ich weiß weniger Titel und die Vorteile sind prozentual oft geringer. Ich könnte mir vorstellen, dass dort, wo GK104 im Moment deutlich verliert, einen Gleichstand zwischen der 8970 und der 780 geben wird.
 
Zuletzt bearbeitet:
Bis auf Showdown ist das alles der 50% höhreren Bandbreite zu verdanken. Metro2033, Max Payne3, Hitman Absolution etc. lechzen alle nach mehr Bandbreite. In diesen Spielen ist die GTX680 auch nur 2,85x schneller als die GTX650 trotz 4x facher Rechenleistung bei nur 2,4x mehr Bandbreite.

Da AMD die Bandbreite nicht mehr steigern kann ohne auf 512bit zu gehen, wird hier eine Verbesserung der Architektur überhaupt nichts bringen. Gleichzeitig werden die "Oland" Karten in diesen Spielen massiv an Leistung gegenüber Tahiti verlieren, da man eben auch nur 80% der Brandbreite besitzt.

Entsprechend ist ein Durchschnitt auch sinniger als sich Cherry-Picked Games rauszusuchen.
 
Und Gerüchte? Wow.

über was sprichst du dann bitte hier?
Richtig Gerüchte! wow... Oder meinst du aktuelle Spekulationen über einen Ausbau größer/schneller als K20(X) sind Fakten?

Meine Fresse, wie wenig objekiv kann man noch sein...

@boxleitnerb
es ist ja nichtmal klar, was die neuen AMD Karten bringen werden... Selbst die Basis 7970 hat ja recht gut aufgeholt, rein was Leistung betrifft und vor allem wildert sie im Moment in den Games ganz oben mit, welche früher mal NV Domäne waren :fresse: Stichwort Tesselation.
Dazu kommt ja auch noch, auch die AMD Modelle haben aktuell noch Schwachstellen, andehnen man ansetzen könnte. Das letzte Wörtchen ist da sicher nicht gesprochen :fresse:
 
K20X ist ein real existierendes Produkt.

Ich basiere meine Aussagen auf genau diese Ausbaustufe von GK110. Du dagegen verwendest Fantasiegerüchte. Wer ist also hier gleich nochmal "wenig objektiv"?
 
Dann bring doch nun endlich die dir sicher vorliegenden Spielebenchmarks auf K20, die deine Behauptungen untermauern ;) Genau dann wird sich zeigen wie viel Leistung das Teil im Spielebetrieb bringt. Kannst du das nicht, spekulierst du aufbauend auf Gerüchten.

EDIT:
lehn dich aber bitte nicht zu weit aus dem Fenster, das ging bei GK104 schonmal schief :fresse:
 
Zuletzt bearbeitet:
Bis auf Showdown ist das alles der 50% höhreren Bandbreite zu verdanken. Metro2033, Max Payne3, Hitman Absolution etc. lechzen alle nach mehr Bandbreite. In diesen Spielen ist die GTX680 auch nur 2,85x schneller als die GTX650 trotz 4x facher Rechenleistung bei nur 2,4x mehr Bandbreite.

Da AMD die Bandbreite nicht mehr steigern kann ohne auf 512bit zu gehen, wird hier eine Verbesserung der Architektur überhaupt nichts bringen. Gleichzeitig werden die "Oland" Karten in diesen Spielen massiv an Leistung gegenüber Tahiti verlieren, da man eben auch nur 80% der Brandbreite besitzt.

Entsprechend ist ein Durchschnitt auch sinniger als sich Cherry-Picked Games rauszusuchen.

Ich könnte dir jetzt 10 Spiele nennen, bei denen das so ist, das ist jetzt nicht grad Cherry-Picking. In höheren Auflösungen wirds dann auch gerne mal eng.

Außerdem kann ich dem Bandbreitenargument nicht folgen. z.B. hier ist die 650 Ti bedeutend schneller als die 650 obwohl die Bandbreite fast gleich ist. Die 680 ist immerhin 3,2x so schnell. Irgendwie widerspricht sich das:
http://www.tomshardware.de/Hitman-Absolution-VGA-benchmark-Review,testberichte-241150-4.html
Bei der 660 vs 660 Ti herrscht aber bei gleicher Bandbreite auch Gleichstand???

Edit:
Ich glaube 660 und 660 Ti ist ein guter Ausgangspunkt für solche Untersuchungen. Vielleicht gibts eine Grundshaderlast, wo die Bandbreite egal ist. Ich schau grad diesen Test durch:
http://www.techspot.com/review/603-best-graphics-cards/page1.html
und dort passt es meistens. Also 660=660 Ti und 680 dann 33% flotter wegen 33% mehr Bandbreite.
 
Zuletzt bearbeitet:
Ich könnte dir jetzt 10 Spiele nennen, bei denen das so ist, das ist jetzt nicht grad Cherry-Picking. In höheren Auflösungen wirds dann auch gerne mal eng.

Also die 10 Spiele will ich sehen, wo eine 7970GHz mindesten 20% schneller ist und nicht die Bandbreite ausschlaggebend ist - also kein Metro2033, kein Max Payne 3, kein Hitman Absolution.

Außerdem kann ich dem Bandbreitenargument nicht folgen. z.B. hier ist die 650 Ti bedeutend schneller als die 650 obwohl die Bandbreite fast gleich ist. Die 680 ist immerhin 3,2x so schnell. Irgendwie widerspricht sich das:
1920 x 1080 - Ultra und MSAA : Nummer 47 lebt! Hitman Absolution mit 35 Grafikkarten im Benchmarktest
Bei der 660 vs 660 Ti herrscht aber bei gleicher Bandbreite auch Gleichstand???

Die Werte der GTX650 sind mit 8xMSAA viel zu niedrig. Vergleicht man nur die GTX660 mit der GTX650TIOC sieht man doch sehr schön, dass hier Bandbreite von Bedeutung ist. Immerhin ist die Karte mit 25% mehr Rohleistung 54% schneller.

Gleichzeitig sieht man auch, dass die Ergebnisse von AMD in den Spielen eben auch nur ein Produkt der höhreren Bandbreite ist. Cape Verde verliert in diesen Spielen fast durchgehend gegenüber GTX650/TI.
 
Moment, von Bandbreite hab ich nix gesagt, die ist selbstredend inbegriffen. Aber wie gesagt, bei dem verlinkten Test von techspot sieht man es oft genug, dass tatsächlich ein Bandbreitenlimit herrscht.
Wobei auch die Frage ist, wie stark das Bandbreitenlimit ist und ab wo nicht auch die 33% höhere Rechenleistung der 7970 GHz durchschlägt. Es wäre voreilig und auch unbelegt, hier einfach zu spekulieren, dass die Mehrperformance ausschließlich von der höheren Bandbreite käme. Denn dann müsste die AMD-Karte 50% schneller sein in diesen Titeln - ist sie aber nicht. D.h. wiederum, dass auch eine Erhöhung der Rechenleistung bei Sea Islands hier Vorteile bringen wird. Wie gesagt - erst einholen, dann überholen. Ein Gleichstand hier und da ist denke ich nicht auszuschließen.

Ich schätze, es wird darauf hinauslaufen wie es auch bei GTX580 vs HD6970 war, eben 10-15% Vorsprung im Schnitt.
 
Zuletzt bearbeitet:
Ich finde diese Bandbreitenspekulation müßig, einfach weil sontin es sich hier viel zu einfach macht.
Wenn ich mir anschaue, das die stock 7970 mittlerweile ordentlich Leistung zugelegt hat und sich auf 680er Niveau befindet, stellt sich mir die Frage, warum das auf einmal so ist... Es wurde weder am GPU Takt noch an der Bandbreite beider Karten was gedreht. Auf wundersame Weise glich sich aber der Anfängliche Vorsprung aus. Und Titel die damals noch sehr gut für die 680er waren, sind es nun nicht mehr...

Es mag durchaus sein, das Bandbreite hier und dort eine Rolle spielt. Genau so kann es aber sein, das allein durch das SI von GK110 nun so viel mehr Bandbreite da ist, das man wiederum gut Reserve hat. Je nachdem muss das nicht 1:1 zusammenhängen, sprich GPU Rohleistung vs. Bandbreite.

Man kann eine 7970 immerhin auch allein GPU technisch ordentlich nach oben ziehen, mehr wie 30% zum Teil und erhält auch dementsprechend mehr Leistung ohne die Bandbreite überhaupt durch Speicher OC anzupassen. Das AMD Modell scheint deutlich weniger drauf zu reagieren und das selbst, wenn man ihr 30% mehr GPU Takt spendiert.

Wenn also ein GK110 mit 50% mehr Bandbreite durch 50% mehr Speicherinterface das Bandbreitenlimit weiter nach oben schiebt, aber ausgehend von GK104 im idR anliegenden Mindestturbo Takt von 1,05 GHz vs. sagen wir mal K20X (3,23 TFlops/s vs. 3,95 TFlops/s) gerade mal ca. 22,5% mehr Rechenleistung hat, stellt sich mir die Frage, ob das überhaupt ein Problem ist ;)
Denn mit einem GK104 erreicht man exakt die selbe SP Rechenpower (3,95TFlops/s) "schon" mit 1286 MHz ;)
Schau ich mir die Ergebnise von hier an:
Test Geforce GTX 680 OC vs. Radeon HD 7970 OC: Duell am Rande des Möglichen
so erreicht eine 680er allein durch Speicher OC von 18% gerade mal 7% mehr Leistung in BF3 bzw. 9% in Metro2033.
Das Skalierungsverhältnis liegt also 2/1. (wenn ich mal den bessere skalierenden Wert einbeziehe)

Heist also, die 22,5% mehr Rohleistung eines K20X vs. GK104 default wären allein durch 45% mehr Bandbreite auszugleichen. Das ist definitiv machbar ;)

Und bei AMD skaliert der Spaß ne ganze Ecke schlechter. Im Verlinkten Test wurden ca. 30% mehr Bandbreite erzeugt, es resultierte in Metro in grade mal 8% mehr Leistung. Und selbst mit 35% mehr GPU Power skalieren 30% mehr Bandbreite gerade mal mit nur 13% Mehrleistung (also immernoch nicht so massiv wie beim GK104)
Warum sollte sich also eine um ~30% schnellere HD8970 nicht behaupten können?

Und wenn ich mal weiter rechne. 14 SMX bei 850MHz für GK110 wären 41,67% mehr wie GK104 default inkl. minimal Turbo.
7970 GHz Edition dürfte ca. ~10% über der default 680er agieren. ggf. etwas mehr oder weniger... + 30% drauf wären 1,1*1,3=1,43 = 43% mehr wie die GTX 680 default. Hier und dort ein paar Verbesserungen im Frontend, 3,2-3,3GHz VRAM Takt bei 384Bit und das Spiel geht auf ;)

Übrigens glaube ich persönlich aktuell nicht, das NV sich den Hut aufsetzt und die Karte mit der höchsten TDP SingleGPU Einstufung auf den Markt wirft, die es jemals gab ;)
Das heist, ich persönlich denke maximal an 250W TDP (aka GTX 480) eher drunter, Kepler hat ja im Moment noch den Ruf der geringen Leistungsaufnahme im Vergleich zu AMD...
Mal schauen was draus wird...
 
Naja, grob is die Effizienz von Kepler und Tahiti relativ ähnlich.
Eine HD 7950 verbraucht im Schnitt nen Tacken weniger als ne GTX 670, ist aber lediglich unter 10% langsamer.
Diese Mär von der besseren Effizienz trifft eh kaum noch mehr zu, besonders wenn man sich aktuell Test HD 7970 vs GTX 680 ansieht.
Beide Karten sind gleichflott und letztere verbraucht vielleicht ~ 10 watt weniger Strom, siehe Mittel aus dem unteren Messungen.

Test: Nvidia GeForce GTX 670 (Seite 10) - ComputerBase

Sollte GK110 m Desktop erscheinen, glaube ich mal an ein harten Schlagabtausch zwischen HD 8970 und GTX 780.
Wahrscheinlich 14SMX und ca 850mhz sollten etwa 35 bis 40% auf die GTX 680 draufpacken können.
Die 10% der HD 7970 Gigahertz + ~20% mehr Leistung durch die HD 8970. Hm.. wird sehr eng.

Kepler hat ja im Moment noch den Ruf der geringen Leistungsaufnahme im Vergleich zu AMD...

Welcher eigentlich teils zu unrecht pauschalisiert wird.

Sontin schrieb:
Und was an 160 Watt für 7970 Leistung nun so toll sein, kannst du mal erklären. Immerhin erreicht das die GTX680 auch.

Das eine ist eine TDP Einstufung und das andere ist der Realverbrauch.
Außerdem zieht die GTX 680 ca 175 Watt, gesehen im 3DCenter und bei der PCGH.
Aber in deiner wahnsinnigen Verblendung erkennst du nicht mal, dass du hier äpfel mit birnen vergleichst.
 
Zuletzt bearbeitet:
@fdsonne, du magst recht haben. Aber der Hohe Takt braucht zwangsweise ne deutlich höhere Spannung und somit verbrauchen die Karten auch gleich mehr. Wenn man einen GK104 mit 1,3 GHz und 384Bit SI bringen würde, müsste man a) den ganzen Chip teilweise neu entwickeln und b) würde das Teil auch um die 210 bis 220 Watt verbrauchen. Allerdings bei nur rund 25% mehr Performance. Wenn ein GK110 dann 230 bis 240 Watt verbraucht, dabei aber um die 40 bis 50% schneller ist, ist das für mich die persöhnlich bessere Wahl, da man a) keinen neuen Chip entwickeln muss (GK110 schein anständig zu laufen; bis März dauert das auch noch etwas) und b) in GPGPU nicht mehr zurückhängen würde (einige Games nutzen ja schon solche Eigenschaften, wie das Dof in Metro 2033)



Und 30% Takt auf ne 7970? Ich glaube, man ist bereits mit der GHz Ed. den Falschen Weg gegangen. Das ding verbrät rund 220 bis 250 Watt, also GTX 580 niveau. Und wenn man dann noch die Spannung stärker anzieht, verbraucht allein eine 1,3 GHz 7970 rund 320 Watt in Games! Klar ist die Fertigung nochmals besser geworden, aber dann noch mehr Shader reinpacken? Das ding würde wohl nachher deutlich mehr Verbrauchen als ein GK110 xD

Für mich wird die HD 8970 in etwa so aussehen:
2560 Shader, 32 ROPs, 384Bit @1050/3000 MHz
Damit wäre man etwa 20% schneller und auch der Verbrauch würde nicht so rasant ansteigen, bzw. würde dieser niedriger als bei der GHz Ed. sein. Im gegenzug erreicht man damit aber wohl nur die GTX 770 (im Mittel) und es wird, wie @boxleitnerb reichen, dass die GTX 780 etwa 15% schneller bleibt, eben wie zu GF110 und Cayman-Zeiten.

@Schaffe89
Jup, die HD 7950 und 7970 (etwas weniger) sind weiterhin effizient. Die HD 7970 Boost und 7970 GHz aber eben nicht mehr. Allein die Boost 7950 verbraucht teils mehr als eine normale HD 7970. Deswegen denke ich, dass mehr Takt eher die falsche Richtung ist.
 
Zu Anfang war bzw. ist es dennoch ein Fakt gewesen. 7970 vs. GTX 680 -> mehr Leistung für letztere, und weniger Verbrauch. Das bleibt halt hängen.

Die Leistungsaufnahme wird denke ich beim GK110 daran hängen, wie weit man mit dem Turbo agieren wird, bzw. ob man diesen bringt.
Wenn NV vor AMD released, könnte ich mir vorstellen, das AMD dort noch feintuning betreiben wird, was Takt und VCore anbelangt. ;)


@LSSJBroly
es waren ja nur ein paar Rechenbeispiele ;)
Sicher braucht man für mehr Takt auch mehr VCore. Bei den GK104 kommt aber hinzu, das die VCore gedeckelt ist auf 1,175V... Bis auf eine ich glaube EVGA Karte mit spezial Hardware gibts keine Möglichkeit dort zu justieren.

Wenn man jetzt mal weiter rechnet. Takt skaliert üblicherweise 1:1 mit dem Verbrauch. Heist also, ausgehend von 1,05GHz Basis inkl. Turbo bei 1,175V auf besagtem GK104 wären die rechnerisch theoretischen 1286MHz für gleiche K20X Leistung eine Steigerung von 22,5%.
Laut diversen Reviews braucht ein GK104 default ~180W. Je nach Game und Test mal etwas mehr mal weniger. Wären wir bei ~220W.
Und die Rechnung passt nicht 100%, weil der Turbo oft etas mehr wie die Minimum 1050MHz sein werden somit diese 1050MHz etwas weniger verbrauchen werden, als in der Rechnung genommen wurde.
Bleiben immernoch 30W Luft bis 250W... Die man in Speicher OC bzw. mehr Speicherinterface investieren dürfte um den selben Effekt zu erreichen.


Ich will ja GK110 auch nicht schlecht machen :fresse: sondern rechne einfach mal mit ein paar Werten, was möglich wäre bzw. was erreichbar wäre. Ohne jegliche Wertung des ganzen ;) Mit Ausnahme vllt, das AMD ein halbwegs gutes Konkurenzprodukt durchaus realisieren könnte.

Übrigens, auch bei AMD sollte man nicht einfach nur stur annehmen, das mehr Einheiten sowie mehr Takt bei ner neuen Karte auch zwingend mehr Leistungsaufnahme bedeuten. Kann, muss aber nicht... Beispiel HD3870 vs. HD4870. Gleicher Prozess, ca. 100% mehr Leistung, aber nur 50% mehr Verbrauch ;) möglich ist da also durchaus was.
 
Zuletzt bearbeitet:
Hm.. ist denke dass trotz GK 110 ( kommt der jetzt überhaupt?) AMD es diemsal schaffen wird die Krone zu behalten.^^
Eventuell reizt man ja beim High End Modell mal die TDP ordentlich aus, und ist dann dafür bei den kleineren Modellen wieder etwas sparsamer als Nvidia.
Die HD 8870 könnte recht sparsam werden, wenn denn GTX 680 Leistung drinnen ist.
 
Moment, von Bandbreite hab ich nix gesagt, die ist selbstredend inbegriffen. Aber wie gesagt, bei dem verlinkten Test von techspot sieht man es oft genug, dass tatsächlich ein Bandbreitenlimit herrscht.
Wobei auch die Frage ist, wie stark das Bandbreitenlimit ist und ab wo nicht auch die 33% höhere Rechenleistung der 7970 GHz durchschlägt. Es wäre voreilig und auch unbelegt, hier einfach zu spekulieren, dass die Mehrperformance ausschließlich von der höheren Bandbreite käme. Denn dann müsste die AMD-Karte 50% schneller sein in diesen Titeln - ist sie aber nicht. D.h. wiederum, dass auch eine Erhöhung der Rechenleistung bei Sea Islands hier Vorteile bringen wird. Wie gesagt - erst einholen, dann überholen. Ein Gleichstand hier und da ist denke ich nicht auszuschließen.

Man sollte vielleicht den Begriff "Limitierung" nachschlagen.

Die 7970GHz hat 33% mehr Rechenleistung und 50% mehr Bandbreite. Man kann also die Rechenleistung der 7970GHz um 13% erhöhen, um das selbe Verhältnis wie bei der GTX680 zu haben. Demnach heißt es bei der 7970GHz eben nicht, dass die Bandbreite im selben Maße limitiert wie bei der GTX680.

Es ist dabei aber immer unsinnig verschiedene Architekturen miteinander zu vergleichen. In Metro2033 ist eine GTX680 nur 38% schneller als die GTX660. Dabei hat die GTX680 60% mehr Rohleistung, aber nur 33% mehr Bandbreite und Rasteroperationen/s. Erhöht man die Bandbreite um 18%, erhält man bei der PCGH.de 9% mehr Frames. Dann wäre die GTX680 schon knapp 49-52% schneller als die GTX680.

Die einzigen Kepler-Karten, die nicht durch ihre Bandbreite wirklich limitiert werden, sind die GTX650 und die GTX660.
 
In den Spielen wo AMD schnell ist, liegt es aber nicht immer nur an deren höherern Bandbreite.
Auch liegt es nicht nur an der Bandbreite, dass AMD bei hohen Auflösungen weniger stark einbricht, das gleiche gabs auch mit ner HD 6970 vs GTX 580.
Und jetzt wo eventuell in den nächsten Jahren größere Auflösungen in Mode kommen, wird das Nvidia vll etwas zurückwerfen.
 
@Schaffe89
Ich glaube nicht, dass AMD den Weg wie nVIDIA mit GF100 einschlagen wird xD Man sieht ja leider jetzt schon, dass, obwohl AMD wirklich klasse Karten hat (oft auch ein besseres Preis/Leistungs-verähltnis), eher die nVIDIA Karten gekauft werden... Und da passt so ein Image wie Fermi-Thermi überhaupt nicht rein...

Und AMDs Karten brechen nur nicht so stark ein, weil die in niedrigeren Auflösung deutlich Federn lassen. nVIDIA skaliert dagegen vollkommen linear zur Auflösung.


Und zu Metro: Ja, das ist ein besonderer Fall, wo Bandbreite sehr stark ausschlägt
Hab mal direkt meine GTX 580 etwas in den Arsch getreten
benchMetro2033TaktRAM.jpg

(Metro 2033 - PCGH Benchmark -"Verfluchte Station" max. Settings @1.920 x 1.080; 4x MSAA, 16x AF - alle Werte der anderen Karten (GTX 660, 660 Ti, 670, 680, HD 7950, 7970) sind von PCGH mit aktuellen Treibern)
Wie man sehen kann: GTX 580 bei nur gleichem GPU-Takt zur HD 7950 klar langsamer als letztere. Mit Speicher-OC fast auf dem selben Level. Ich behaupte jetzt einfach mal, dass ein hypothetischer GK104 mit 384Bit und 3000MHz (ebenso wie die HD 7970 GHz) inetwa die selbe Leistung bringen würde.



@fdsonne
Klar sind das alles Michmädchenrechnungen :)
Allerdings gebe ich dir mit dem PT und Boost vollkommen recht. Da dürfte aber auch die stärke von GK110 liegen. Bei der GTX 680 gibt es ja genug fälle, wo das PT oft nur zu 80% ausgelastet wird, also rund 156 Watt verbraucht. Dies wird bei GK110 ebenfalls wohl der Fall sein. Da bleibt ab und zu wohl genug Spielraum für mehr Takt.

Nochmal zur Spannung:
Hab nochmal die PCGH Ausgabe 7/2011 durchblättert:
Test Undervolting:
GTX 580 std.: 772/1544/2004 MHz @ 1,013V - 216 Watt
GTX 580 std.: 772/1544/2004 MHz @ 0,925V - 183 Watt
GTX 580 @: 700/1400/2004 MHz @ 0,900V - 169 Watt
GTX 580 @: 650/1300/1800 MHz @ 0,850V - 149 Watt

Man erkennt, dass der Takt zwar 18% niedriger ist (650MHz), der Verbrauch sich aber um rund 45% verringert. Wenn man das jetzt auf einen GK110 überträgt könnte da schon einiges Machbar sein, solange der Chip mit Boost um etwa 900 MHz taktet. Von 1058 MHz auf 900 sind ebenfalls rund 18% weniger Takt. Von daher denke ich, dass ein 14SMX Chip schon in 250 Watt TDP reinzudrücken ist. Wird auf jedenfall interessant.

Wichtig ist mir eigentlich nur eins: Dass die schnellste Single-GPU, egal ob AMD oder nVIDIA, klar und deutlich (> als 15% im Durchschnitt) schneller als das Konkurenzprodukt ist. Bei der HD 7970 und GTX 680 bräuchte man eigentlich beide Karten. Mal ist die HD 20% schneller, dann wieder die GTX. Soetwas nerft...
 
@LSSJBroly
deine Spannungsrechnung passt quasi 1:1 nach gängier Theorie.
von 772MHz auf 650MHz sind ~-16%. Von 1,013V auf 0,850V sind es ~-32%. Macht rechnerisch grob -45% Einsparung. Das passt ziemlich genau.

Das Problem ist einfach, ein 7 Mrd Chip undervoltest du nicht mal so eben extrem. Einfach weil wohl schlicht die Schwankungen in der Fertigung recht groß sein dürften. Sprich da gibts GPUs, die brauchen (angenommen) 1,1V und es gibt GPUs, die erreichen die gleiche Stabilität nach Tests mit 1,0V oder gar weniger.
Die Herausforderung für den Hersteller ist hier, den optimalen Kompromiss zu finden aus möglichst hohem Takt bei möglichst wenig Spannung und dieses Verhältnis für möglichst viele Chips.

Beispiel: wer es damals verfolgt hatte.
AMD hat damals den R600 aka HD2900XT anfangs mit 1,200V VGPU VCore ausgeliefert. Wärend der Produktion wurde die Spannung massiv gesenkt. Modelle mit 1,15V, 1,1V sowie zuletzt Modelle mit 1,050V wurden ausgeliefert. In den Reviews hatte die 2900XT ihren Ruf als "Stromschlucker" weg. Einerseits weil die TDP Einstufung bei 225W lag (warum auch immer) und andererseits, weil idR die ersten 1,2V Modelle getestet wurden. Real wurden aber nur ~160W beim 1,2V Modell verbraten. Abzüglich dessen, was die 1,05V Version sich nahm...

Ggf. wird man sowas analog bei späterer Fertigung auch machen. GK110 dürfte aber bei hoher Verlustleistung dazu den Nachteil haben, das heißere GPUs mehr Strom brauchen als kältere GPUs.
Ein schön kühler GK104 (optimalerweise unter 70°C) hat also dort noch einen Vorteil gegen eine GK110 GPU, die mit mehr Verbrauch, mehr Verlustleistung sowie einem ähnlich großen/effizienten Kühler mit großer Warscheinlichkeit auch wärmer werden dürfte.
 
Mmm... die Temperaturen spielen auch ne wichtige rolle, stimmt... Aber wer sagt dann, dass kein "aufgemotzter" und verbesserter Kühler auf der Referenz-Karte steckt. Sowohl der Referenzkühler der GTX 580, als auch der der GTX 680 sind recht leise (obwohl keine Vapor-chamber) und dabei dennoch vollkommen ausreichend. Ich glaube aber nicht, dass GK110 so heiß wie eine GTX 580 wird. In games dürfte das Ding wohl inetwa so heiß wie eine GTX 680 werden.
Und zur Streuung... kann gut möglich sein, dass weiterhin Schwankungen vorhanden sind (ich hab so z.B. eine GTX 580 mit einer VID von 1,000V und eine mit 1,038V - und die letzere bleibt sogar kühler xD) allerdings dürften die nicht mehr all zu hoch ausfallen, da die 28nm produktion schon ein ganz gutes stück am laufen ist. Ich gehe mal davon aus, dass GK110 bei 900MHz boost nicht mehr als 1,050V, eher richtung 1,000V brauchen wird.
 
ich behaupte mal mein GTX 580 ref kühler ist bei übertaktetet karte eher so in richtung eurofighter beim starten ;)
 
Du kannst doch nicht von OC und höherer Spannung ausgehen. Mit Referenztakt und Spannung ist das Ding wirklich gut. Schließlich muss der Kühler bei 900 MHz und wohl >1,100V mehr als 300 Watt abführern xD Und für solche Taktraten sollte man sich wohl eher geeignetere Kühler zulegen.
Ich bleibe dabei. Soetwas wie bei der GTX 480 werden wir nicht zu sehen, besser höhren bekommen.
 
^naja auf der einen seite haste recht, auf der anderen oce ich jede graka bis ans limit und vergleiche daher generell die kühler nur unter oc.
Bei der GTX 580 dauerte es ja monate bis mal versionen mit costum kühler kamen ,da wars mir wichtiger gleich zu anfang eine zu haben statt monate mit der GTX 260 weiter rumzukrebsen..
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh