nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
PS: vergiss bei deinem Venus XT Einschätzung bitte nicht, das aktuell eine Tahiti XT GHz Edition gut und gerne ~15% über einer 680er siedelt.

Andere Tests sagen anderes aus (PCGH - HD 7970 GHz Ed. rund 5-7% vor einer 1058MHz GTX 680, die non GHz 7970 liegt etwa 3% hinter einer jener) von daher ist da teilweise gar nicht mal so ein großer Unterschied zwischen den drei Karten, ist eben mehr Gameabhängig denn je. In sogut wie allen Game-Benchmarks, die ich durchgeführt habe reichte schon Speicher-OC aus, um die HD 7970 GHz Ed. um rund 3% zu schlagen.


Zu GK110: Ich gehe davon aus, dass ein GK110 mit den selben Spezifikationen der K20X als Geforce wohl auch bei um die 210 Watt liegen könnte, den mehr Speicher nochmal mit abgezogen.
Bsp.: Undervolting einer GTX 580 -> mit 0,95V statt 1,013V kann man so eine Karte von 220 Watt auf rund 190 Watt drücken! Also: -6,6% Spannung -> -16% Verbrauch

(wieviel K20X wirklich verbraucht ist auch ungewiss, 235 Watt TDP ->ungleich Verbrauch, kann sein, dass so ein Chip in games auch nur 220 Watt verbraucht);). Wie gesagt, wenn der Takt linear zur leistungsaufnahme skaliert, kommt da bei 250 Watt gegenüber 210 Watt noch ein taktspielraum von rund 19% -> 1,19x735 MHz = 875 MHz. Und dann gibt es ja noch den Boost: je nach Game kann da mal eben mehr, mal weniger rauskommen.

Aber wir werden sehen;) MMn wird die GTX 780 nicht mehr als 250 Watt verbrauchen und eben dennoch rund 50% schneller als eine GTX 680 sein;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
A) Es ist nicht korrekt dass K20X keine grafischen Darstellungen berechnen kann. Das ist ein voll funktionsfähiger Grafikchip welcher über keinen Ausgang verfügt.
B) Kommt der Verbrauch schon sehr gut mit der TDP hin. Das Powermanagement ist schlau genug.
C) Lernt endlich mal diese verdammte Prozentrechnung.
D) Verkommt diese Diskussion immer wieder zu getrolle oder fanboy-bashing.

Wenn mich meine Erinngerung nicht täuscht verbrauchen 1 Gigabyte GDDR5 VRAM etwa 15 Watt. Allerdings ist es in der Praxis so, dass kein Baustein komplett beschrieben oder geleert wird. Gehen wir also mal von 11-12 Watt aus.
 
Wenn mich meine Erinngerung nicht täuscht verbrauchen 1 Gigabyte GDDR5 VRAM etwa 15 Watt. Allerdings ist es in der Praxis so, dass kein Baustein komplett beschrieben oder geleert wird. Gehen wir also mal von 11-12 Watt aus.
Also bei 6GiB bei K20X gegenüber 3GiB einer Geforce sind das rund 20-30 Watt. Also, ich finde es weiterhin gar nicht so unrealistisch, dass man 50% mehr Performance zu GK104 erreichen kann.

Lernt endlich mal diese verdammte Prozentrechnung.
Bring sie uns doch bei:shot: (Wenn du mich meinst: dann sag doch auch bitte auch, wo ich die Fehler mache, sonst kann man sich solche Kommentare eigentlich sparen)
 
Zuletzt bearbeitet:
Gibt es einen Test der zeigt, dass AMD nicht nach oben skaliert?
Wenn ich mir die HD 7870 im Vergleich zur HD 7970 ansehe, passt die Skalierung doch eigentlich.

PCGH sieht die Karte 30% in ihrem Leistungsindex vor einer HD 7870.

Die 7970 hat 48% mehr Rechen- und Texturleistung sowie 72% mehr Bandbreite. Bei 30% Mehrleistung gegenüber der 7870 muss man wohl sehr stark am Gehaltsschein nippeln, um hier von "passt die Skalierung doch eigentlich" zu reden. :stupid:


Die nackte Shaderanzahl ist um 11% höher. Nicht jeder Titel ist extrem Shaderlastig, sondern je nach Szene ist mal die Rasterizerleistung wichtig, mal die BAndbreite oder sonstwas.

Na, wat denn nun? Superskalierung oder doch Limitierung?:hmm:

Wer behauptet denn noch, dass irgendetwas bei Tahiti limitiert und nicht skalieren soll?

Es ist vollkommen egal, wer es noch behauptet. Die Realität passt sich nur in Diktaturen der Propaganda an.

neja normal sollte laut Theorie mit stiegender Einheitenzahl die Skalierung immer weiter abflachen. Nur trifft das natürlich auch auf die Konkurenz zu ;) Und bei GCN kann zumindest eine 16fach Vectoreinheit sich gänzlich in "1D" Einheiten verteilen... Weshalb wohl auch überall von 1D EInheiten bei GCN gesprochen wird, obwohl die offiziellen Folien bei AMD explizit 16fach Vector Unit + eine skalar Einheit aufzeigen ;)

Heist also, rein auf die nakte Anzahl runtergebrochen bewegen wir uns bei beiden in einem ähnlichen Rahmen. Eventuell sogar gut mehr für GK110, wenn es da 14 oder 15 SMX werden.


Den Umstand der abflachenden Skalierung bei mehr Einheiten hat übrigens mr.dude schon kurz nach G92/G200 Zeiten hier in irgend nem Thread mal fallen lassen ;)
Und wenn man ganz nüchtern betrachtet, zieht sich das ganze sowohl bei AMD als auch bei NV seit R600/G80 durch. Richtig auffallend aber nun scheint es beim GK104, da er nen größeren Sprung zum Vorgänger GF110 machte rein in der Anzahl. Auch bei AMD gabs da mal so paar Sprünge, wenn die Anzahl der ALUs stärker stieg.

GK104 skaliert perfekt gegenüber GF114. Einzig die Bandbreite hält den Chip den zurück.
Auch innerhalb der Kepler-Familie wird 100% skaliert, wenn es die Bandbreite erlaubt. Da gibt es keine Limitierung mehr.

Aber mal schauen was wird.
Ich bin nach wie vor noch nicht 100% von GK110 überzeugt. Mir schwant, das Teil könnte nur 20-30% über GK104 anlaufen. :(

Aha. Selbst jetzt, wo K20X schon 30% über GK104 liegt, wird der Gamingchip also auch nur 30% schneller sein. :rofl:
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread] (1. Seite lesen!)

Die 7970 hat 48% mehr Rechen- und Texturleistung sowie 72% mehr Bandbreite. Bei 30% Mehrleistung gegenüber der 7870 muss man wohl sehr stark am Gehaltsschein nippeln, um hier von "passt die Skalierung doch eigentlich" zu reden. :stupid:
Davon abgesehen hat die normale 7970 weniger GPU-Takt und wird auch mit 1GHz niemals linear skalieren. Wir sind hier doch nicht aufm Ponyhof. Die zusätzliche Rechenleistung und Bandbreite sorgt hier einfach dafür, dass man bei hohen Auflösungen nicht so arg einbricht.
 
Zuletzt bearbeitet:
Andere Tests sagen anderes aus (PCGH - HD 7970 GHz Ed. rund 5-7% vor einer 1058MHz GTX 680, die non GHz 7970 liegt etwa 3% hinter einer jener) von daher ist da teilweise gar nicht mal so ein großer Unterschied zwischen den drei Karten, ist eben mehr Gameabhängig denn je. In sogut wie allen Game-Benchmarks, die ich durchgeführt habe reichte schon Speicher-OC aus, um die HD 7970 GHz Ed. um rund 3% zu schlagen.
Wichtig, neue Treiber verwenden ;)
Komisch ist bei den PCGH Tests, das die 680er irgendwie überdurchschnittlich weit über der 670er liegt. Die anderen Relationen passen aber. Sprich die 670er ist ~1-2% über der 7950 Boost Edition. Das verzerrt irgendwie das Ergebnis. -> da muss was schief gelaufen sein. Ggf. auch nur ein einziger Bench, der die 680er raufgehoben hat ;)

(wieviel K20X wirklich verbraucht ist auch ungewiss, 235 Watt TDP ->ungleich Verbrauch, kann sein, dass so ein Chip in games auch nur 220 Watt verbraucht);). Wie gesagt, wenn der Takt linear zur leistungsaufnahme skaliert, kommt da bei 250 Watt gegenüber 210 Watt noch ein taktspielraum von rund 19% -> 1,19x735 MHz = 875 MHz. Und dann gibt es ja noch den Boost: je nach Game kann da mal eben mehr, mal weniger rauskommen.
Dann rechne doch mit zwei (un)bekannten. K20 und K20X. Erstere mit 225W und letztere mit 235W. Fakt ist, NV hat diese 10W nicht grundlos da drauf gepackt. Die Warscheinlichkeit liegt also nahe 100%, das der Verbrauch auch steigen muss. Ebenso ist es so, das diese 225W Einstufung nicht grundlos gemacht wird. Und das betrifft sowohl Quadro als auch Teslakarten ;) und zieht sich durch seit G200. Faktisch waren die Gamermodelle da zum Teil dann aber wirklich drüber, was die Leistungsaufnahme anging ;)

Und der wichtigste Punkt, die Karte wird ja nicht gebaut nur um irgendwelche wenig fordernden Games laufen lassen zu können. Sprich wenn ein paar Spiele da nur 210W verblasen, gut und schön. Andere brauchen mehr und die müssen auch laufen. So pauschal da was abziehen ist also nicht. ;)

Das mit dem Speicher ist sicher auch ein Argumet, vergessen sollte man aber auch nicht, K20 mit 5GB und K20X mit 6GB würde schon die 10W verblasen. Ohne den Mehrtakt und ohne den SMX mehr ;) Da passt die Rellation nicht. Es wird also wohl gut weniger sein. Oder man hat K20X deutlichst selektiert und mit geringerer Spannung da reingepresst. Aber auch dann stellt sich mir wieder die Frage, ob das auch massentauglich ist. Wohl eher nicht.
Alternativ könnte K20 non X eben zu hoch angesetzt sein. Was aber wiederum aus genannten Gründen auch unwarscheinlich erscheint. ;) Warum also soweit eindrosseln, wenn mehr auch gehen würden im gleichen Rahmen? Das ist verschenktes Potential.

Aha. Selbst jetzt, wo K20X schon 30% über GK104 liegt, wird der Gamingchip also auch nur 30% schneller sein. :rofl:

Wer die Erwartungshaltung nicht zu übertrieben hoch ansetzt, wird auch nicht enttäuscht ;)
Und wie schon mehrfach gesagt, die Leistung muss auch irgendwo her kommen... Ohne die Kühlung zu sprengen wird da viel Luft auf K20X nicht sein.

Wo ich aber definitiv mitgehe, GK110 wird mit größter Warscheinlichkeit wohl der bessere OC Chip werden. Aufgrund des deutlich niedrigeren Basistaktet ;)

Davon abgesehen hat die normale 7970 weniger GPU-Takt und wird auch mit 1GHz niemals linear skalieren. Wir sind hier doch nicht aufm Ponyhof. Die zusätzliche Rechenleistung und Bandbreite sorgt hier einfach dafür, dass man bei hohen Auflösungen nicht so arg einbricht.

Warum und wieso Tahiti gegen Pitcairn nicht so stark über die ALU Leistung skaliert, ist doch nicht unbedingt der Punkt. Ein Grund könnte das starre Front-End sein und somit eben ein "verpuffen" der reinen ALU Leistung. Auch könnte es sein, das schlicht die ALUs nicht ausgefahren werden in den Games...
Was aber auffallend ist, zwischen Tahiti XT und der GHz Edition liegen ~8-10% Leistungsunterschied, je nach Game und Test. Bei ~8% mehr Takt (13,5%, wenn der Boost voll greift).
Das ist schon recht ordentlich...
 
Zuletzt bearbeitet:
Also bei 6GiB bei K20X gegenüber 3GiB einer Geforce sind das rund 20-30 Watt. Also, ich finde es weiterhin gar nicht so unrealistisch, dass man 50% mehr Performance zu GK104 erreichen kann.

Korrekt. Nur wird die GeForce über entsprechend mehr Takt/Spannung verfügen so dass wir in der Summe den gleichen oder gar etwas mehr Engergiebedarf herausbekommen. Im Desktop-Segment ist man halt großzügiger. Dass beste Beispiel ist die inoffizielle HD7990. Die gabs von AMD nicht weil sie einfach keine Specs einhält (so wie Kepler und D3D11.1 :d).


Bring sie uns doch bei:shot: (Wenn du mich meinst: dann sag doch auch bitte auch, wo ich die Fehler mache, sonst kann man sich solche Kommentare eigentlich sparen)

Ich beziehe dass nicht nur auf dich. Ihr benutzt oft die falschen Mengen. 100% ist immer die Gesamtmenge. Es gibt demnach keine 110% oder der Gleichen. Pro Zent - von Hundert. Hundert stellt dabei die Gesamtmenge dar. Alles darunter sind Teilmengen :d
Deshalb geraten hier viele durch einander.
 
@Hübie
wieso sollte es keine 110% geben? Das ist doch einfachste Mathematik, den Zahlen stehen keine Grenzen nach oben.
Die Frage ist, wo liegt die Basis. Wenn 100 FPS 100% Leistung sind, dann sind 110 FPS auch 110% Leistung. Genau so sind es aber von 100 FPS betrachtet nur 10% mehr! Leistung ;)
Die Basis ist also je nach Betrachtungsweise eine andere... Wenn du schon die Prozentrechnung kritisierst, dann doch bitte mit konkreten Beispielen. Wobei sicher hier und dort mal ein Fehler unterlaufen kann, sind ja alles nur Menschen hier (will man meinen)

PS: ich behaupte eher, die Rückwärzbetrachtung ist da das größere Problem. Denn von 100 FPS 10% drauf sind nicht gleich 110 FPS 10% runter ;) Da sich auch hier die Basis verschiebt.
 
Zuletzt bearbeitet:
Wichtig, neue Treiber verwenden ;)

Wenn jemand mit immer aktuellen benchmarks testet, dann die PCGH ;) Und dass die Werte etwas anders aussehen, ist eigentlich auch klar, wenn man weiß, dass die Kepler-Karten auf ihren Durschnittlichen Boost eingeschrenkt werden, also 1058MHz für die GTX 680, 980MHz für die GTX 670, usw. Daher kommt auch die etwas größere Differenz

@Hübie
wieso sollte es keine 110% geben? Das ist doch einfachste Mathematik, den Zahlen stehen keine Grenzen nach oben.
Die Frage ist, wo liegt die Basis. Wenn 100 FPS 100% Leistung sind, dann sind 110 FPS auch 110% Leistung. Genau so sind es aber von 100 FPS betrachtet nur 10% mehr! Leistung ;)
Die Basis ist also je nach Betrachtungsweise eine andere... Wenn du schon die Prozentrechnung kritisierst, dann doch bitte mit konkreten Beispielen. Wobei sicher hier und dort mal ein Fehler unterlaufen kann, sind ja alles nur Menschen hier (will man meinen)
Genau so sehe ich das auch:)

---------- Post added at 17:16 ---------- Previous post was at 17:13 ----------

Korrekt. Nur wird die GeForce über entsprechend mehr Takt/Spannung verfügen so dass wir in der Summe den gleichen oder gar etwas mehr Engergiebedarf herausbekommen.
Deswegegen ging ich nur von K20X mit dem selben Takt aber dann mit 3GiB im Desktop aus, gegenüber 235 Watt dürften das dann dennoch rund 200 Watt sein. Und falls man das maximale PT der GTX 780 auf 250 Watt setzt, bleiben da allein für Takt noch rund 25% mehr gegenüber den 735MHz -> richtung 900MHz als Geforce mit 14SMX und 3GiB Vram.
 
Korrekt. Nur wird die GeForce über entsprechend mehr Takt/Spannung verfügen so dass wir in der Summe den gleichen oder gar etwas mehr Engergiebedarf herausbekommen. Im Desktop-Segment ist man halt großzügiger.

Ich würde eher darauf tippen das es genau anderst herum ist,der Geforce darf als Pixelbeschleuniger schon mal ab u an ein kleines Artefakt durchlassen,das fällt bei der Masse an Pixeln gar nicht ins Gewicht

Macht der Tesla aber nen Fehler,so resultiert das in ein,im schlechtesten Fall mehrere Tage investiertes Rechenprojekt,was in den Sand gesetzt wurde

So wäre es durchaus denkbar,das wir bei selber Konstellation der Vcore u dem daraus resultierenden Verbrauch,einen höher getakteten Geforce sehen könnten,weil er nicht auf Sicherheit getrimmt werden muss,sondern nur stabil arbeiten soll
 
Zuletzt bearbeitet:
bei mir ists genau anders, meine 680er laufen out of the box mit ~1120-1140MHz ;)
Das sind knackige 11-14% über default. Und immerhin noch ~7% über dem min. Boost.

Was mich an den PCGH Tests eben wundert. Die 680er liegt überdurschnittlich weit vor der 670er. Und das ist seltsam... ;)

@scully
ganz ehrlich, ich hatte bis jetzt keine einzige Karte in den letzten 15 Jahren in den Händen, die im default Zustand, egal was man mit ihr gemacht hat, Fehler ausspuckt.
Wieso werde ich das Gefühl nicht los, das ihr hier die GK110 auf biegen und brechen Leistungsreservem im Gamerbereich zusprecht. Das ist absolut unlogisch. Die Karte muss sich genau so an "theoretischen" Messmitteln messen, wie eine Tesla oder Quadro GPU. Da setzt sich niemand hin und fixiert den Takt oder die Spannung anhand von Spielebenches.

Da gibt es Schwellwerte, die es nicht zu überschreiten gilt. Tut der Chip es dennoch, ist er unbrauchbar (und wird ggf. woanders reanimiert - kleines Modell, wengier Takt weniger Turbo usw.)
Und es ist aus meinen Augen ziemlicher quatsch zu behaupten, die Gamerkarten würden so hart am Limit laufen, das sie Artefakte produzieren. Der Aufschrei durch die Medien wäre sowas von enorm.
Auch gebe ich zu bedenken, das gerade bei NV dank Cuda einige Leute aus Kostengründen Gamerkarten "missbrauchen" um damit im Profimarkt produktiv zu arbeiten. Das kann sich kein Hersteller erlauben, was du hier siehst ;)
 
Zuletzt bearbeitet:
Was mich an den PCGH Tests eben wundert. Die 680er liegt überdurschnittlich weit vor der 670er. Und das ist seltsam... ;)

Eben nicht :d Die GTX 680 hat bei PCGh wie bei mir einen max. Boost von 1124 MHz, der Durchschnitt in allen games erreichte Takt (100% PT!) liegt bei 1058 MHz (eben das, wass auch GPU-Z anzeigt), also rund 6% weniger. Die GTX 670 läuft mit max. Boost bei rund 1084 MHz statt den 980 Mhz, also rund 10% mehr. Bei festem Durchschnitts-Boost verliert die GTX 670 also etwas mehr im vergleich zur GTX 680. Und außerdem hab ich sogut wie jeden Benchmark der PCGH nachgestellt (mit einer GTX 680 und einer GTX 580) -> ergebnis stimmte jeweils überein.
 
also sagst du, die anderen wie wir im Luxx, CB oder ht4u zum Beispiel messen falsch!? -> harte Behauptung ;)

Übrigens, gerade der Umstand mit der 670er wurde doch von tomshardware damals aufgedeckt bzw. ausführlich getestet. Es sollte also viel eher weniger als mehr sein, wenn man default Zustände betrachtet.
Noch dazu fällt auf, das die 670er eben auch bei PCGH ~1-2% über einer HD7950 Boost liegt. Wie auch bei ht4u bzw. CB wenn mich nicht alles täucht. Es ist also nicht die 670er, die zu langsam ist, sondern die 680er, die zu schnell ist. Sonst hätter der Abstand zur AMD dort steigen müssen.

Das ist alles recht undurchsichtig...
 
Zuletzt bearbeitet:
@scully
ganz ehrlich, ich hatte bis jetzt keine einzige Karte in den letzten 15 Jahren in den Händen, die im default Zustand, egal was man mit ihr gemacht hat, Fehler ausspuckt.

Das der Quadro/Tesla Chip in den vergangenen Jahren,immer mit geringere Taktraten/Shaderclustern auflief,wie sein Geforce Gegenstück ist dir doch denke ich auch nicht entgangen oder?

Dabei spielte es auch keine Rolle,ob es nun um Rackkonformität geht oder nicht,denn auch der "Kleine" ist so konstruiert

Und beim GPGPU kann ich dir garantieren,das was als grafikstable gilt,bei Rechenprozessen noch lange nicht das selbe Bild zeichnet

Dort musst du immer ne Schippe mehr Vcore geben,möchtest du ein stabiles Setup,um nicht am Tag 2 oder 3 festzustellen das er die Work Unit abgebrochen hat.
Was im simplen SP Bereich ergo Folding@Home schon ein Problem darstellt,das wird den Tesla Chip erst recht tangieren in seiner professionellen Umgebung

Deshalb sag ich nochmal ein 240Watt Tesla mit ansonsten gleichen Aufbau(nur mal hypotetisch),muss nicht authentisch im Takt zum Geforce sein
 
Zuletzt bearbeitet:
also sagst du, die anderen wie wir im Luxx, CB oder ht4u zum Beispiel messen falsch!? -> harte Behauptung ;)
Bei CB und aktuelle Treiber gehe ich nicht weiter darauf ein:fresse:

Ich behaupte nur, dass die Werte Bei PCGH korrekt sind, da ich diese ebenfalls so nachstellen konnte. Gut bei BF3 ist bei PCGH ein fehler, da ist die GTX 680 deutlich zu langsam, die müsste eigentlich da mehr als 20% mehr Fps bekommen, warscheinlich die anderen Kepler-Karten ebenfalls. Allerdings dokumentiert keine Reviewerseite ihre Benchmarks so genau, wie die von PCGH. Ist eben so, die erläutern ganz genau, welche stelle, welche settings und welches Savegame (mit downloadlink)


Fakt ist, dass auch bei mir @stock sich der Takt nach mehreren Stunden bei etwa 1058 MHz einpendeln, was HT4U ebenfalls erkannte:
Im Mittel schneidet der festgesetzte Takt von 1060 MHz um einen Prozentpunkt schlechter ab, als unsere beiden regulären Muster ab. Damit zeigt man sich mit dem durchschnittlichen Resultat auf Augenhöhe zur gezeigten Benchmarkserie mit Wartezeiten vor dem Benchmarkstart. Daraus wiederum könnte man die Schlussfolgerung ableiten, dass im Mittel über alle Benchmarks, eine typische GeForce GTX 680 praktisch so schnell agiert, als würde sie fix mit 1060 MHz GPU-Takt arbeiten. Und so schließt sich auch dann der Kreis beim GPU-Boost, denn 1058 MHz ist eben jener Wert den NVIDIA als "mittleren" Boost-Takt über die untersuchten Applikationen angibt.
NVIDIA GeForce GTX 680 von EVGA und Zotac im Test - Übertakten – mit und ohne Boost (Seite 15) - HT4U.net
 
@Hübie
wieso sollte es keine 110% geben? Das ist doch einfachste Mathematik, den Zahlen stehen keine Grenzen nach oben.
Die Frage ist, wo liegt die Basis. Wenn 100 FPS 100% Leistung sind, dann sind 110 FPS auch 110% Leistung. Genau so sind es aber von 100 FPS betrachtet nur 10% mehr! Leistung ;)
Die Basis ist also je nach Betrachtungsweise eine andere... Wenn du schon die Prozentrechnung kritisierst, dann doch bitte mit konkreten Beispielen. Wobei sicher hier und dort mal ein Fehler unterlaufen kann, sind ja alles nur Menschen hier (will man meinen)

PS: ich behaupte eher, die Rückwärzbetrachtung ist da das größere Problem. Denn von 100 FPS 10% drauf sind nicht gleich 110 FPS 10% runter ;) Da sich auch hier die Basis verschiebt.

Mengenlehre. 110 FPS sind die 100% und deine 100 eben 91%. daraus ergibt sich eine Differenz von 9% statt deinen 10. Und genau dass passiert euch in vielen Beispielen. Du kannst ein Fass nicht voller füllen als es hoch ist. Kann dir gerne jeder Mathematiker bestätigen ;)

ps: Guten Rutsch euch allen :d
 
Zuletzt bearbeitet:
Du kannst ein Fass nicht voller füllen als es hoch ist. Kann dir gerne jeder Mathematiker bestätigen ;)

Das ist so nicht ganz richtig, durch die Oberflächenspannung von Flüssigkeiten kann man einen ganz leichten Berg draufschütten :d

Guten Rutsch ;)
 
Das der Quadro/Tesla Chip in den vergangenen Jahren,immer mit geringere Taktraten/Shaderclustern auflief,wie sein Geforce Gegenstück ist dir doch denke ich auch nicht entgangen oder?

Dabei spielte es auch keine Rolle,ob es nun um Rackkonformität geht oder nicht,denn auch der "Kleine" ist so konstruiert

Also eine Quadro 6000 ist mit ~5,2% niedriger getaktet als eine ziemlich analog aufgebaute GTX 470. Besitzt dabei aber auch eine TDP Einstufung von 204W wärend die 470er auf 215W eingestuft wurde. Dazu kommt der nichtmal ein viertel so große VRAM der 470er.
Um mal ein Beispiel zu geben ;) Ich sehe da das genaue Gegenteil deiner Aussage, nämlich das die Profikarte deutlich härter an der Grenze agiert, als die Gamerkarte ;) Oder wie soll der 4,75GB mehr VRAM bei gerade mal ~5,2% weniger Takt sonst in das nur ~5,1% niedrigere TDP Limit passen? Geschweige denn vom breiteren SI und den somit mehr verbauten Speicherchips sowie den anderen Einheiten, die daran hängen ;)

Ich behaupte nur, dass die Werte Bei PCGH korrekt sind, da ich diese ebenfalls so nachstellen konnte.

Ich behaupte auch nicht, das das absichtlich falsch ist, was PCGH da macht und um so löblicher ist es, wenn die ihre Szenen komplett offen legen. Es ändert aber nix an der Tatsache, das eben der Leistungsanstieg zwischen 670er und 680er überdurschnittlich groß ausfällt, wärend die anderen Werte durchaus dehnen entsprechen, die andere Seiten auch testen. Das fällt auf und wirkt komisch ;)

PS: wie schon gesagt, meine 680er machen ~1120-1140MHz default ohne Eingriff, auch nach stunden. Wichtig ist nur ne gute Belüftung sowie der Wärmeabtransport. Gehts über 70°C bei den GPUs, sinkt der Takt immer weiter... ;)

Mengenlehre. 110 FPS sind die 100% und deine 100 eben 91%. daraus ergibt sich eine Differenz von 9% statt deinen 10. Und genau dass passiert euch in vielen Beispielen. Du kannst ein Fass nicht voller füllen als es hoch ist. Kann dir gerne jeder Mathematiker bestätigen ;)

Nenn es wie du willst, es ändert nix daran, das es Mathematisch möglich ist. ;)
Und du machst genau den Fehler, die Basis unnötig zu verschieben, was in der Leistungsbetrachtung unsinn ist. Oder eben von der anderen Seite zu betrachten. 9% wäre das Ergebnis A (100 FPS) langsamer als B (110 FPS)
10% ist aber Ergebnis B (110 FPS) schneller als A (100 FPS)
Es ist und bleibt im Auge des Betrachtet die Möglichkeit, zwei Wege zu beschreiben. Bevor also nakte Zahlen kritisiert werden bzw. deren Errechnung, achte bitte auf die Basis, die dafür angesetzt wurde. Und Mathematisch ist es schlicht egal, was als Basis fungiert.

PS: der Vergleich mit dem Wasserfass passt nicht ganz. Denn wir haben im Grunde heute das 100% Wasserfass in Form einer GTX 680. Die Leistung ist bekannt und das ist unsere Basis. Aufbauend auf diesem Wert kommt die neue Karte. Und misst sich genau an dieser einen Basis. Wenn ich wissen will, wie viel mehr Leistung da raus kommt, kann ich nicht die neue Karte als Basis ansetzen. Denn das wäre das Ergebnis, wie viel die alte Karte langsamer ist. Das interessiert nur nicht ;) -> kleiner aber feiner Unterschied.
Und der zweite Wert interessiert genau deswegen nicht, weil zum Releasezeitpunkt niemand die neue Karte hat. Alle wollen wissen, wie viel mehr Leistung hat nun die neue Karte. Es will niemand wissen, wie viel langsamer ist nun die alte Karte ;)

Das ist so nicht ganz richtig, durch die Oberflächenspannung von Flüssigkeiten kann man einen ganz leichten Berg draufschütten :d

Jetzt wo ich das nochmal so überlesen, im Grunde ist es doch genau so, das ein 100% Volles Fass nur 100% fasst. Also die GTX 680 hat 100%. Hat nun GK110 sagen wir 130 oder 140% laufen 30 oder 40% Wasser drüber. Genau das ist das, was die Leute hier interessiert, wie viel Brühe läuft da drüber. Was passt nicht rein. Wie viel mehr Wasser erzeugt die neue Karte im Vergleich zum alten Fass.



PS: euch auch nen guten Rutsch ;)
 
Zuletzt bearbeitet:
Also eine Quadro 6000 ist mit ~5,2% niedriger getaktet als eine ziemlich analog aufgebaute GTX 470. Besitzt dabei aber auch eine TDP Einstufung von 204W wärend die 470er auf 215W eingestuft wurde. Dazu kommt der nichtmal ein viertel so große VRAM der 470er.
Um mal ein Beispiel zu geben ;) Ich sehe da das genaue Gegenteil deiner Aussage,

Prost Neujahr:)

Ich sehe da zwei TDP Klassifizierungen in zwei völlig unterschiedlichen Einsatzgebieten,mit zwei völlig verschiedenen Verbrauchsszenarien unter "Vollast"

Seit wann ist sowas denn bitte ein verlässlicher Indikator für das angesprochene Thema? Gerade du als Verfächter der Furmarkmessung bei Gamerkarten(was in etwa GPGPU Lastszenarien simmulieren würde),solltest sowas doch nicht als Indiz nutzen.Schon gar nicht bei Fermi 1.0
 
Zuletzt bearbeitet:
Neja die Angaben wie ich vorgerechnet habe deckt sich aber allein mit dem Takt zwischen Quadro und Gamerkarte. Ich mein, das kann man schon vergleichen. Eine Quadro mit Geforce GTX 470 Taktraten hätte wohl so also auch 215W bekommen. Gabs aber eben so nicht. Warum auch immer, weis wohl nur NV selbst.
Auch wäre es wohl möglich gewesen eine 225W oder 235W Version gleich zu Anfang zu bringen.

Ich meine damit nur, das eine pauschale Verbrauchsaussage ala Geforce braucht weniger als Quadro/Tesla anhand genau dieser beiden faktisch vergleichbaren Werte nicht drin ist. ;)
Wenn also die von dir benannten zwei völlig unterschiedlichen Verbrauchsszenaieren unter Volllast 1:1 vergleichbare Werte (taktbereinigt, unter berücksichtung, das Takt 1:1 mit dem Verbrauch skaliert) liefert, passt der Vergleich 1A. Man könnte daraus Rückschlüsse auf spätere Generationen ziehen. Es sei denn, NV ändert an den Einstufungen etwas...
 
Quadro ist doch noch gar nicht raus von GK110. Wenn es um Tesla geht, waren die bis auf G80 IMMER niedriger getaktet und die Geforce-Modelle konnten mehr Takt drauflegen, ohne dass der Verbrauch nennenswert anstieg.
 
Der GK110 Chip ist bis zu 2880 Shader ausgelegt, das sind 88% mehr Einheiten als GK104, dazu hat GK110 50% mehr Speicherbandbreite als GK104, mehr Cache & mehr VRAM
Jetzt wollt ihr mir doch nicht erzählen das der Chip nur 30% schneller ausfallen wird, wie nur 30% ? höre ich weniger? Gehts noch... GT200 = 100%, GF110 = 180%.
Reden wir hier noch vom BigK G80 > GT200 > GF110 >>>> GK110 High End Chip ??? """"GK104 ist doch in wirklichkeit nur der Performance Chip""""

Bei 250W TDP sollten locker 60-80% mehr Leistung als GK104 drin sein, wenn einige Cluster deaktiviert werden, dann sollten immer noch 50% drine sein, alles andere passt nicht zu Nvidia, am ende werden die skeptiker sowieso wieder über Nvidias Super Arbeit begeistert sein.
 
Zuletzt bearbeitet:
Also wenn der 80% draufpackt feier ich Weihnachten und Ostern zur selben Zeit :d


50% ist denke ich das äußerste der Gefühle,wenn man sich in etwa am Tesla orientieren kann


Noch dazu ist ja nichtmal gesichert das die grüne Truppe den GK110 überhaupt ins Geforce Lager entlässt.Waren ja auch schon Gerüchte aufgekommen,das man an einem eigenständigen Refresh des GK104 bastelt:)

Letzteres wäre eigentlich die effektivere Lösung,in mehrerer Hinsicht

Fragt sich halt nur,wie es um die Kapazitäten beim Auftragsfertiger bestellt ist,um Szenario 2 zu verwirklichen
 
Zuletzt bearbeitet:
Naja 60-80% ist etwas hochgegriffen. Im Schnitt waren bisher inkl. Refresh ca. doppelte Leistung drin. Wenn GK110 50% auf GK104 drauflegt, kommt das ungefähr hin (1,35x1,5). Selbst im alleroptimistischsten Fall erwarte ich maximale Taktraten von 850 Mhz Baseclock und noch 5% Boost drauf, wo die TDP es zulässt.
 
Alles unter 50% macht keinen sinn wenn man bedenkt das der Chip 550mm² groß ist & ein 50% größeres SI hat...

Für billige 30% brauche ich keinen GK110 Chip im Desktop Markt der sowieso genug Wafer kosten hat, dann baue ich besser einen 350mm² GK114 mit 2048 Shader @1.2Ghz & 384 Bit SI, damit komme ich viel günstiger weg als mit einem 550mm² Chip.
 
Zuletzt bearbeitet:
Also wenn der 80% draufpackt feier ich Weihnachten und Ostern zur selben Zeit :d

Glaube ich auch eher weniger. Allerdings sollten 50% (Durchschnitt!) weiterhin realistisch sein, egal was fdsonne von der TDP hält :d
Sicherlich, in einigen games könnten auch mahl mehr rausspringen, aber 80% ist da irgendwie, naja, etwas zuviel des guten xD Wenn man GK110 als GeForce mit 50% vor dem GK104 erscheint, hat man ja schon mehr als doppelte Leistung zum GF110 xD (>200% So groß war selten ein Sprung)
 
Quadro ist doch noch gar nicht raus von GK110. Wenn es um Tesla geht, waren die bis auf G80 IMMER niedriger getaktet und die Geforce-Modelle konnten mehr Takt drauflegen, ohne dass der Verbrauch nennenswert anstieg.

Deswegen ja auch der Vergleich von Quadro 6000 vs. GTX 470 auf Fermi Basis.
Wie gesagt, ich versuche damit zu verdeutlichen, das die Profikarten nicht zwingend andere Maßstäbe an die TDP oder den Verbrauch anlegen als die Geforce'ns ;)
Und da wir nun den K20 bzw. K20X kennen, lässt ich in meinen Augen daraus schlussfolgern, das da so extrem viel Luft nach oben nicht sein kann. Es sei denn, man drückt das Powerlimit weiter in Richtung 300W (was ja durchaus ne Option ist)

Der GK110 Chip ist bis zu 2880 Shader ausgelegt, das sind 88% mehr Einheiten als GK104, dazu hat GK110 50% mehr Speicherbandbreite als GK104, mehr Cache & mehr VRAM
Jetzt wollt ihr mir doch nicht erzählen das der Chip nur 30% schneller ausfallen wird, wie nur 30% ? höre ich weniger? Gehts noch... GT200 = 100%, GF110 = 180%.
Reden wir hier noch vom BigK G80 > GT200 > GF110 >>>> GK110 High End Chip ??? """"GK104 ist doch in wirklichkeit nur der Performance Chip""""

Ich habe weiter oben schon vorgerechnet, die das Szenario aussehen könnte. Nimm die K5000 Quadro als Basis, die ist vergleichbar getaktet zum K20(X).
So hast du dort deine ~88% mehr ALU Performance.
Und nun rechne mal die Werte von der GTX 680 dagegen. Und stelle fest, das diese sich allein schon ~50% über einer K5000 plaziert. Dem sehr hohen Takt (inkl. Turbo) geschuldet.

Bleibt die Möglichkeit GK110 weiter aufzublasen (mehr Takt, mehr Spannung sowie zwingend mehr Verbrauch!) oder man lebt mit dem dann eher kleinen Vorsprung...
GK110 ist gemessen am deutlich niedrigeren Takt der K20(X) Karten kein Wunderwerk der Leistung, da hat NV den GK104 als Geforce zu hoch angesetzt.

Und auffallen ist auch, K5000 mit 700MHz GPU Takt ist ca. so viel langsamer, wie eine 680er auf eine 580er schneller ist.
Mit ~700MHz, ggf. noch etwas Turbo wäre der GK104 eine Mittelklasse gewesen, die sich recht passend ins Muster (neue Mittelklasse = ca. alte HighEnd Karte) eingliedert.
 
Natürlich mit mehr Leistungsaufnahme, ob 250W oder 300W ist völlig irrelevant, das spielt im High End Markt sowieso keine rolle, wozu hab ich ein 1500w Netzteil, damit ich 2-3 Karten im System einbauen kann...

Wenn GK110 mit vollen Einheiten kommen würde, heißt 15 SMX "2880 Shader", 50% mehr Speicherbandbreite & mehr Cache, dann wären 60-80% mehr als GK104 nicht besonders schwierig für nvidia.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh