nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Das Problem ist beim Kühler selbst ja viel eher, das der Platz schlicht und einfach bei 2 Slot Karten sehr begrenzt ist. So ohne weiteres ist da nichts zu machen. Und die Kühlkörper der letzten Karten ähnelten sich recht stark in Sachen Leistung.
Bei meinen beiden 470er vorher war im Furmark Volllasttest ein Verbrauchsanstieg von fast 100W zwischen Messung beim Start des Benches (mit um dei 60°C pro GPU bei 100% Lüfterspeed) und kurz vorm Treiberabsturz (mit 114°C pro GPU bei 100% Lüfterspeed) zu verzeichnen.
Das ist schon ziemlich enorm.

Bei der Gesamtsystemmessung hat das immerhin gute 10% ausgemacht. (~900W -> 1000W)
Ich muss aber dazu sagen, die eine 470er war/ist eine umgeflashte 465er, die brauchte schon 1,150V um überhaupt stock 470er Taktraten bei der GPU zu halten :fresse:

Wenn man von 225W realem Kartenverbrauch ausgeht, dort 10% drauf haut, wären das immerhin schon 250W allein durch die Temperatur.

Mmm... die Temperaturen spielen auch ne wichtige rolle, stimmt... Aber wer sagt dann, dass kein "aufgemotzter" und verbesserter Kühler auf der Referenz-Karte steckt. Sowohl der Referenzkühler der GTX 580, als auch der der GTX 680 sind recht leise (obwohl keine Vapor-chamber) und dabei dennoch vollkommen ausreichend. Ich glaube aber nicht, dass GK110 so heiß wie eine GTX 580 wird. In games dürfte das Ding wohl inetwa so heiß wie eine GTX 680 werden.

Geht man von ca. 20-30% mehr real Verbrauch und somit annähernd so viel mehr Verlustleistung aus zwischen GK104 und GK110, so müsste der Kühlkörper auch gleichsam so viel mehr Effizienz haben, damit die Temp gleich bleibt. Ob das drin ist, weis ich nicht...
Die Lautstärke selbst ist ja nichtmal unbedingt ein Indiz dafür, wie effizient die Kiste kühlen kann... Denn diese hängt einzig und allein vom Lüfter ab.
Der Kühlkörper aber muss die Wärme so effizient wie möglich von der GPU an die vorbeiströmende Luft abgeben.
Wenn ich mich aber im Kühlermarkt so umsehe, da gehts bei weitem nicht wirklich voran, was Kühlleistung betrifft. Das was geht, sind dicke fette drei-vier Slot Körper mit riesigen Ventilatoren als Lüfter. Für gewisse Customermodelle sicher geeignet. Für ne default 2 Slot Karte hingegen unbrauchbar ;)
Ich glaube nicht, das man auf drei Slots geht. Einfach weil nach wie vor ATX der Standard ist und somit der Platz für gerade mal zwei, maximal drei Karten langen würde. Und drei auch nur, wenn das Case groß genug ist, um unter dem Board noch dummy Slots bereitstellt.

Leider lassen sich so gar keine Rückschlüsse auf den Tesla Modellen ziehen bei der Kühlung. Denn dort herschen ganz andere Temperaturverhältnisse. 6-10k rpm Lüfter, die quer durchs Rack blasen sowie Raumtemperaturen von ~20-22°C sind dort das übliche Maß. Kein Vergleich zu sommerlichen 30°C+ Raumtemps sowie auf silent getrimmte PCs mit nem lauen Lüftchen ;)

Es hat schon einen Sinn, warum man auch im PCIe Standard hart an den max. 300W festhält. Würde man hier einknicken (ich glaube NV forderte sogar mal eine Erhöhung), wäre mit zwei Slots da nichts

Und zur Streuung... kann gut möglich sein, dass weiterhin Schwankungen vorhanden sind (ich hab so z.B. eine GTX 580 mit einer VID von 1,000V und eine mit 1,038V - und die letzere bleibt sogar kühler xD) allerdings dürften die nicht mehr all zu hoch ausfallen, da die 28nm produktion schon ein ganz gutes stück am laufen ist. Ich gehe mal davon aus, dass GK110 bei 900MHz boost nicht mehr als 1,050V, eher richtung 1,000V brauchen wird.

Auffallend ist, das beim 28/32nm Prozess sowohl bei CPUs als auch bei GPUs, die Spannungen im Vergleich zu vorher scheinbar sehr hoch ausfallen.
Wie oben erwähnt, AMD baute schon GPUs mit 1,05V in 80nm bei 750MHz Takt.
Auch die Vorgängerkarten GF100/110 lagen VCore seitig unter GK104 aktuell im Schnitt.
Eventuell ist das aber auch ein Indiz dafür, das NV mit dem GK104 wirklich das letzte bisschen rausquetschen wollte und jedes MHz mehr gezählt hat.
Beim GK110 muss das nicht so sein.

Weis eigentlich jemand die default Spannung von K20(X)?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das der kühler effizienter ist beim GK 110 zum GK 104 soltle doch überhaupt kein problem sein, hat nv nicht bei den GTX 680ern und 670ern wieder weg von der vapor chamber auf einen simplen alukühlblock der nur auf dem chip sitzt (und dann nat gehäuse und lüfter drüber) gesetzt ? nichtma heatpipes sind glaube ich im einsatz, einfach weil das ding eh kühl bleibt und nv so mehr gewinn rasuhauen kann.

Da wäre es doch ein leichtes die vapor chamber wieder rauszukramen und schon hätte man einen adäquaten kühler
 
Zum Kühler: Die GTX 680 (referenz) nutzt ja auch nur Heatpipes und keine Vapor-Chamber, so wie die GTX 580. Und auch meine GTX 580 ist bisher noch nie heißer als 97°C geworden, auch mit 1,215V und 980MHz (Referenz DHE).


Soweit ich weiß, läuft eine GTX 680/670 (FTW) bei 1006 MHz mit nur 0,987V... mit Boost kommen dann da um die 1,175-1,150V an, weißt du aber sicherlich :d
Weis eigentlich jemand die default Spannung von K20(X)?
Gute Frage, da bei diesen Karten ja potentiell eh immer mehr Spannung anliegt, um eine 99,99%ige stabilität zu garantieren...
 
Neja ~100°C sind schon ziemlich enorm ;) Die Hitze muss auch irgendwo hin.
Man schaue doch die ganzen Reviews der vergangenen Karten an. Die Dickschiffe waren alle samt recht heiß und durch nen fix drehenden Lüfter auch recht laut. Lautstärke interessiert mich zwar nicht, aber wenn man sich die Finger am Case fast verbrennt bei nur wenigen Sekunden anfassen, ist das schon recht brutal.
Ob es dazu gesund ist, ist auch ne weitere Frage...

GK104 ist da auch ein recht schlechter Vergleichspartner, da mit ~180W Verbrauch per stock eben weit weniger Verlustleistung entsteht, wie sie ein GF100/110 oder ähnliche Dickschiffe erzeugen.


Übrigens, Vapor Chamber Kühler sind auch nicht das Allheilmittel. Schaut man sich mal das 580er Review von CB an, so erreicht die 580er mit diesem Kühlkörper "gerade mal" 7% weniger Temperatur unter Last. (86°C vs. 92°C) Dafür ist die Leistungsaufnahme des gesamten Systems aber auch 4% geringer. Klar setzt sich der Umstand auch daraus zusammen, das diese hohe Temp durch nen leiseren Lüfter erkauft wird, aber dennoch wären 86°C (wenn man es 1:1 mit GF110 vergleicht) beim ~70°C Turboeinknick deutlich zu viel. Ob man das Teil erkaufen der gleichen Lautstärke wie bei ner 480er unter 70°C bekommt, weis ich nicht.
Im SLI mit zwei Karten wird das ganze Problem ja nochmals verschärfter.

Mir persönlich würde es zusagen, wenn die mal endlich diese winzig Kartenpolitik einstellen würden und Fullsize ATX Karten mit größeren Kühlkörpern bauen würde. Hätte den massiven Vorteil, das eben deutlcih mehr Fläche vorhanden wäre. Und jeder mit nem ATX genormten Case bekommt die Karten auch unter -> also absolut keine Problem.
 
meine gtx 580 hat bei 1.125 volt und 900/4200 je nach game 87-89 grad, das höchste war mal 91 grad. für so einen monsterchip in 40nm mit dualslot kühler der die luft aussem gehäuse befördert finde ich das ok, zumal bei annähernd 300 watt..
 
Muss ich auch sagen. Bei 100% Fanspeed und 980 MHz bei 1,215V hab ich auch unter 75°C gehabt, ebenfalls bei rund 350 bis 400Watt (nur für die Graka xD
 
OK durchaus, Temperaturtechnisch ja auch nicht wirklich ein kritischer Bereich. Tatsache ist aber leider, heißere Hardware verbraucht mehr Strom, obwohl sie das gleiche leistet.
Meine Messung ergab gute 10% mehr Verbrauch zwischen Start des Tests (kalte GPUs) und Ende des Tests (äußerst heiße GPUs)

Also mal gerechnet. Braucht das Teil im kalten Zustand ca. 225W real. Werden es heiß ca. 250W sein. Verbraucht man real 250W kalt, sind es heiß schon 275W. ;)
Sollte man definitiv mit bedenken, wenn es um eine Leistungsprognose geht ;)
Gerade im Vergleich zu GK104, der "heiß" gerade mal so warm wird, wie Fermi kalt war :fresse:
 
Zuletzt bearbeitet:
Wenn ich mich aber im Kühlermarkt so umsehe, da gehts bei weitem nicht wirklich voran, was Kühlleistung betrifft.
Die Wärme muß vom Kühlkörper weg aus dem Gehäuse befördert werden, und dazu muß man die Luftführung optimieren. Wahrscheinlich geht es mit einem passiven Kühlkörper (siehe Tesla) und einem Air Shroud im Gehäuse besser, da es dann zu weniger Verwirbelungen kommt, und die warme Luft direkt aus dem Gehäuse befördert wird. An der Gehäuse Vorderseite muß man dann größere Axiallüfter mit hoher Förderleistung verwenden, die noch akzeptabel laut sind.

Z.B. vorne einen 12x12cm Lüfter, dann Air Shroud direkt an der Karte und hinten bläst die Abluft aus dem Gehäuse.
 
denke nicht das das so viel mehr Effekt bringt ;)
Der Airflow ist ja schon so ziemlich optimal bei ner 2 Slot default Karte. Da gehts um keine Ecken mehr und nix...
Sicher lässt sich gerade beim "Ansaugen" was optimieren, auch im Mehrkartenbetrieb ohne Luft dazwischen wäre das vorteilhaft. Die Frage ist aber, ob das für die Allgemeinheit taugt. Gibt je genügend Gehäuse, die vorn nix reinblasen. Oder Cases im OEM Markt, wo man teils den/die Frontlüfter über nen Kanal über den CPU Kühler blasen lässt...

Das Problem ist viel eher, das bei ~250W enorm viel Hitze auf kleinster Fläche erzeugt wird. Es besteht also A) ein Problem im Übergang zum Kühlkörper, B) ein Problem, die Energie dann möglichst effizient vom Hitzeherd wegzutransportieren und C) diese Hitzeenergie schlussendlich irgendwie an die Luft abzugeben. Mehr Luft bringt auch nur dort mehr, wo die Fläche zur Abgabe vorhanden ist.
Ein größerer Kühlkörper wäre da schon von Vorteil. Leider aber eben durch bauliche Bedingungen oftmals nicht drin.
 
Aber nicht im geschlossenen Plastekanal einer default 2 Slot Karte ;) Wo man die Luft ansaugt, ist doch egal, solange sie temperaturtechnisch das bringt, was sie bringen sollte. Also möglichst kühl.
Vergleichbar ist das quasi 1:1 mit nem Rack. Nur das eben das ganze Rack einen ähnlichen Airflow besitzt, wie der Kühlkörper auf ner default 2 Slot Grafikkarte. (Customermodelle außen vor)
Denn bei einem Rack ist es auch quasi egal, wie die Luft vor dem Rack verwirbelt wird. Solange sie bereit steht um angesaugt zu werden. Verwirbellungen lassen sich nie 100% ausschließen.

Wenn ich mal einen Blick in meinen PC werfe. Die drei Karten saugen jeweils durch ATX Bauweise die Luft von unten an. Neben einer Soundkarte (Audigy 2 ZS) ist dort nichts im Weg, was die Luft erhitzt ;) Sicher entstehen Luftverwirbelungen innerhalb des Gehäuses, aber das ist ja nicht das Problem der Grafikkarte.

Will man das ganze aber hingegen Serverlike über "Gehäuselüfter" bewergstelligen, so brauchst du A) nen enormen Luftstrom quer durchs Gehäuse und B) eben irgendwie nen Kühlkanal, der den Luftstrom genau über die Kühlkörper leitet. Ein laues Lüftchen um bisschen Frischluft ins Gehäuse zu bringen reicht dort nicht aus.
Man muss doch nurmal die Hand hinten ans Case halten, wieviel Luftmenge dort durch das Slotblech ner 2 Slot Grafikkarte rauskommt. Und die entsteht deswegen, weil man einen geschlossenen Kanal benutzt. Aktuelle Radiallüfter auf Grafikkarten stehen auch größeren 120mm Lüftern oft in Sachen Fördermenge nicht viel nach, wenn überhaupt.
Dazu kommt, Lüfter vorn im Case allein für GPUs bringen dazu den Nachteil, das nichts mehr für die Gehäusekühlung selbst vorhanden ist. Klar kann man die ganze Front mit Lüftern zupflastern, aber das ist ebenso recht ineffizienz.
In einem Rack Gehäuse sind schlicht ganz andere bauliche Gegebenheiten vorhanden.

PS: ich bin übrigens dafür, das man endlich mal FullSize ATX Karten im HighEnd Bereich baut. Da wäre das Problem mehr oder minder auch behoben :fresse: Weil die Karte mit über 30cm so schon ziemlich weit vorn die Luft ansaugt.
 
Zuletzt bearbeitet:
Aber nicht im geschlossenen Plastekanal einer default 2 Slot Karte ;) Wo man die Luft ansaugt, ist doch egal, solange sie temperaturtechnisch das bringt, was sie bringen sollte. Also möglichst kühl.
Eben das ist bei diesen Karten nicht erfüllt. Die Luft strömt von unten auf die Lüfter und wird dann dann zur Seite aus der Karte geblasen, das Meiste entweicht hinten (das ist gut) und vorne (das ist schlecht). Der Rest geht über die Seiten verloren, auch schlecht. Macht man die Karte dicht gibt es in ihr Hot Spots - auch nicht gut.

Dadurch wird schon vorgewärmte Luft im Gehäuse verwirbelt, und es bilden sich im Gehäuse Hot Spots.

Will man das ganze aber hingegen Serverlike über "Gehäuselüfter" bewergstelligen, so brauchst du A) nen enormen Luftstrom quer durchs Gehäuse und B) eben irgendwie nen Kühlkanal, der den Luftstrom genau über die Kühlkörper leitet.
Ich schrieb ja "air shroud", das ist ein Lüftungskanal, so daß die GPUs direkt mit Kaltluft von der Gehäusefront gekühlt würden und hinten am Slotblech würde die Abluft entweichen. Der Rest des Gehäuses kühlt man dann klassisch mit normalen Lüftern.

Aktuelle Radiallüfter auf Grafikkarten stehen auch größeren 120mm Lüftern oft in Sachen Fördermenge nicht viel nach, wenn überhaupt.
Wenn ich das so richtig sehe, schafft ein Radiallüfter in der Größe, die noch auf eine PCIe Karte paßt, ca. 50m³/h. Hochleistungsaxiallüfter schaffen die 10fache Förderleistung pro Stunde. Da diese zu laut sind und zuviel Strom verbrauchen, nimmt man langsamere Lüfter, die aber problemlos mehr als 50m³/h fördern. Bei 12cm Lüfter sind 100m³/h Stunde üblich, dabei verbrauchen sie nicht viel Strom und sind leise.
 
Man sollte vielleicht den Begriff "Limitierung" nachschlagen.

Die 7970GHz hat 33% mehr Rechenleistung und 50% mehr Bandbreite. Man kann also die Rechenleistung der 7970GHz um 13% erhöhen, um das selbe Verhältnis wie bei der GTX680 zu haben. Demnach heißt es bei der 7970GHz eben nicht, dass die Bandbreite im selben Maße limitiert wie bei der GTX680.

Es ist dabei aber immer unsinnig verschiedene Architekturen miteinander zu vergleichen. In Metro2033 ist eine GTX680 nur 38% schneller als die GTX660. Dabei hat die GTX680 60% mehr Rohleistung, aber nur 33% mehr Bandbreite und Rasteroperationen/s. Erhöht man die Bandbreite um 18%, erhält man bei der PCGH.de 9% mehr Frames. Dann wäre die GTX680 schon knapp 49-52% schneller als die GTX680.

Die einzigen Kepler-Karten, die nicht durch ihre Bandbreite wirklich limitiert werden, sind die GTX650 und die GTX660.

Ich weiß, was eine Limitierung ist, danke. Was hat das mit dem Thema zu tun? Es ist nicht ersichtlich, dass Tahiti seine Bandbreite komplett ausreizt. Auch reine GPU-Übertaktung bringt bei Tahiti mehr Performance. Ich schrieb nichts von "im selben Maße", ich schrieb einfach, dass ich nicht glaube, dass Tahiti seine Bandbreite komplett ausreizt.

In den Spielen wo AMD schnell ist, liegt es aber nicht immer nur an deren höherern Bandbreite.
Auch liegt es nicht nur an der Bandbreite, dass AMD bei hohen Auflösungen weniger stark einbricht, das gleiche gabs auch mit ner HD 6970 vs GTX 580.
Und jetzt wo eventuell in den nächsten Jahren größere Auflösungen in Mode kommen, wird das Nvidia vll etwas zurückwerfen.

Das liegt womöglich an der geringeren Rechenleistung. Andersrum formuliert: AMD kann bei geringeren Auflösungen ihren Rohleistungsvorteil nicht ausspielen, in höheren Auflösungen ist es so wie man es erwartet.
 
Zuletzt bearbeitet:
Tahiti hat 33% bzw. 50% mehr Bandbreite als die GTX680. Es macht daher null Sinn unterschiedliche Architekturen zu vergleichen und dann zu behaupten, dass garnicht die Bandbreite limitieren würde.

Eine GTX680 ist in Metro2033 gegenüber der GTX560TI bei CB.de ohne AA/AF nur 63% schneller. In Schnitt mit allen anderen DX11 Titel ohne AA/AF in 1080p ist es 98% - und das beinhaltet Batman:AC mit 71%.

Die Tahiti-Karten haben komplett andere Probleme, die eben nichts mit der Bandbreite zu tun.
 
War nicht mal die Rede davon, es liege am Frontend?

@ Sontin
Welche Probleme sind das?

In Metro ist die GTX 680 jedenfalls wegen Depth of Field so langsam und auch wegen der fehlenden Bandbreite.
Witzig ist aber dass je größer die Auflösung wird die GTX 680 wieder auf die HD 7970 aufholt.
 
Zuletzt bearbeitet:
In Metro 2033 ist selbst eine GTX 580 fast so schnell wie eine GTX 680. Mit 925/1950/2404 MHz (GTX 580) (230GB/s) ist man in etwa so schnell wie eine HD 7950 mit 925/2500MHz (240GB/s). Wenn ein GK104 allein 50% mehr Bandbreite besitzen würde, läge man schon in etwa auf Tahiti XT2 level, also auf HD 7970 GHz niveau.

Bsp: Mit nur HD 6970 Bandbreite verliert man in Metro 2033 rund 30% an Fps:
Test: AMD Radeon HD 7970 (Seite 20) - ComputerBase

Allerdings reagiert Metro besonders stark durch die höhere Bandbreite. Andere Games aber wieder nicht (so stark).
Meine These: GK104 mit 384Bit und 3000MHz Speicher ->um die 20% schneller als die jetzige GTX 680.


Tahiti kann z.B. die Rechenleistung in niedrigeren Auflösungen nicht auf die straße bringen, und bricht daher weniger stark ein, wie @boxleitnerb schon sagte. Ob da das Frontend limitiert? Keine Ahnung. Auf jedenfall besteht dieses "Problem" schon recht lange.
 
Zuletzt bearbeitet:
Tahiti hat 33% bzw. 50% mehr Bandbreite als die GTX680. Es macht daher null Sinn unterschiedliche Architekturen zu vergleichen und dann zu behaupten, dass garnicht die Bandbreite limitieren würde.

Eine GTX680 ist in Metro2033 gegenüber der GTX560TI bei CB.de ohne AA/AF nur 63% schneller. In Schnitt mit allen anderen DX11 Titel ohne AA/AF in 1080p ist es 98% - und das beinhaltet Batman:AC mit 71%.

Die Tahiti-Karten haben komplett andere Probleme, die eben nichts mit der Bandbreite zu tun.

Du kannst aber genausowenig behaupten, es würde nur oder größtenteils dessen Bandbreite für den Vorsprung von Tahiti sorgen. Du kannst nicht sagen, unterschiedliche Architekturen kann man nicht vergleichen und trotzdem dein Bandbreitenargument bzgl. Tahiti anstellen. Entweder man kann es vergleichen oder nicht. Das gilt dann auch für dich ;)
 
Eben das ist bei diesen Karten nicht erfüllt. Die Luft strömt von unten auf die Lüfter und wird dann dann zur Seite aus der Karte geblasen, das Meiste entweicht hinten (das ist gut) und vorne (das ist schlecht). Der Rest geht über die Seiten verloren, auch schlecht. Macht man die Karte dicht gibt es in ihr Hot Spots - auch nicht gut.
Was kennst du denn für Karten? :fresse:
Also meine Karten im default Format (was ich idR kaufe) haben alle samt den Radiallüfter hintem auf dem PCB, also am anderen Ende des Slotblechs. IdR ist dazu ein Lüftungskanal quer über das komplette PCB gespannt, dieser umschließt den Kühlkörper vollständig. Die Luft geht nur! für die Öffnung des Lüfters rein (was auch der Sinn eines Radiallüfters ist, der von oben/unten ansaugt und um 90° gedreht die Luft von sich wegschiebt) und geht nur! über das Slotblech hinten raus.
Ein Grund, warum ich idR die default Ausführung kaufe ist eben genau das, ich halte nichts davon riesige customer Kühler zu verbauen bzw. angepasste Karten, die ihre heiße Abluft im Case lassen und somit alle anderen Komponenten mit aufheizen.

PS:
Test: NVIDIA GeForce GTX 680
das Ding ist Ref. Design und hinten zu... Genauso wie ringsrum...
Und so sehen die meisten Ref. Design Karten aus, die direkt vom Hersteller kommen. Ausgenommen mal irgendwelche kleinen Mittelklasse/Einstiegsmodelle, oder welche, die auf SingleSlot getrimmt wurden. Aber da herschen ganz andere Gesetze...

Ich schrieb ja "air shroud", das ist ein Lüftungskanal, so daß die GPUs direkt mit Kaltluft von der Gehäusefront gekühlt würden und hinten am Slotblech würde die Abluft entweichen. Der Rest des Gehäuses kühlt man dann klassisch mit normalen Lüftern.
passt halt idR nicht, weil dort vorn oft genug Laufwerke ihren Dienst tun in gängigen ATX Cases. Der Vergleich hinkt einfach irgendwie... Sicher lässt sich das machen. Aber das bringt dir alles nichts, denn es gibt viel zu viele verschiedene Boards, mal ist der erste Slot auch wirklich der erste Slot im Case, mal der zweite, mal der dritte... Von Dual/Multi GPU Systemen noch gar nicht gesprochen... Man müsste an der Stelle was flexibles bauen. Dazu kommt die Tatsache, dass die Karten idR verschieden lange PCBs haben, auch das müsste berücksichtigt werden. Das wird alles so nichts werden, behaupte ich...

Allerdings reagiert Metro besonders stark durch die höhere Bandbreite. Andere Games aber wieder nicht (so stark).
Meine These: GK104 mit 384Bit und 3000MHz Speicher ->um die 20% schneller als die jetzige GTX 680.

Diese Leistungssteigerung betrifft dann aber auch nur Metro2033... (ca. 2/1, sprich 10% mehr Bandbreite heist 5% mehr Leistung)
In anderen Games siehts da mauer aus. Wird sicher auch welche geben, die gar nicht groß an der Bandbreite hängen. ;)
Cherry Picking macht in meinen Augen da keinen Sinn. ;)

Und ob dann ein GK104 für 384Bit SI + 3GHz VRAM nicht zu lahm wäre, ist nichtmal gesagt. Sind ja immerhin 50%+. Kann also auch gut sein, bei 20-25% mehr Bandbreite skaliert der Spaß gar nicht mehr nach oben, wenn man nicht auch die GPU mit anhebt.
 
Zuletzt bearbeitet:
Diese Leistungssteigerung betrifft dann aber auch nur Metro2033... (ca. 2/1, sprich 10% mehr Bandbreite heist 5% mehr Leistung)
In anderen Games siehts da mauer aus. Wird sicher auch welche geben, die gar nicht groß an der Bandbreite hängen. ;)
Cherry Picking macht in meinen Augen da keinen Sinn. ;)

Und ob dann ein GK104 für 384Bit SI + 3GHz VRAM nicht zu lahm wäre, ist nichtmal gesagt. Sind ja immerhin 50%+. Kann also auch gut sein, bei 20-25% mehr Bandbreite skaliert der Spaß gar nicht mehr nach oben, wenn man nicht auch die GPU mit anhebt.

Ich hab ja auch geschrieben, dass Metro da ne recht große Außnahme ist. Allerdings sollen viele neue Games doch recht stark an der Bandbreite hängen. Ich bleibe dennoch dabei, dass ein GK104 mit mehr Bandbreite teils deutlich schneller wäre.:) Fermi skaliert schon teilweise in diesen Games recht gut mit mehr Bandbreite. Ein Gk104, der sowieso schon deutlich mehr Rechenleistung besitzt, kann da vllt sogar noch mehr raus machen. Allerdings hab ich noch keine GTX 670/680 mit mehr als 20% Speicher-OC gesehen, um soetwas genau zu testen.


Und zur DHE der Referenzkarten. Klar hat fsonne da recht. Natürlich ist das ein geschlossenes Gehäuse, wo die Luft hinten eingesaugt und vorne wieder rausgeblasen wird. Sonst würde das Prinzíp DHE schon ansatzweise gar nicht funktionieren :)
 
+-20% sind schon drin bei der 680er ;)
Schau mal den PCGames Link von mir weiter oben, da waren es fast 20%... ;)

Und klar, ich bestreite ja nicht, das mehr Bandbreite auch mehr Speed bedeutet. Denke aber man kann da nicht pauschalisieren. Metro scheint da ein Extremfall zu sein. Und das wohl auch schon auf den GF GPUs ;)
Ich hab mich nämlich damals noch gewundert, warum mein 470er SLI dort in Metro sehr sehr schlecht performte. Und habe dann primär auf PhxsX geschoben, was sowieso den Speed zunichte macht.
Es könnte aber auch schlicht an der Bandbreite gelegen haben, da ich meine beiden 470er mit gut reduziertem Speichertakt gefahren habe. (die zweite geflashte 465er hätte zu viel VGPU Spannung benötigt, selbst default 470er VRAM Takt war nicht drin, so blieb ich dort bei 1550MHz anstatt 1676MHz.)
 
@fdsonne:
Hast du mal die von mir verlinkten Benchmarks auf techspot angeschaut? Wenn die 680 oft bei 35% mehr Bandbreite die die 660/660 Ti exakt diese 35% schneller ist, hört das Bandbreitenlimit wohl nicht sofort danach auf. Wie weit genau es geht, lässt sich nur spekulieren.

Sag mal, du hast doch jetzt zwei 680er, magst du nichtmal 10-20% Speicher-OC für uns testen? Halt mit einer Karte, vielleicht geht eine besser als die andere.
 
Ich kann am WE mal gucken ;)
Im moment habe ich ~10% OC drauf. Und 1264Mz im Turbo -> lüppt.
Muss aber gestehen, nie default Werte getestet zu haben. Nur ausgepackt, Turbo erhöht und geschaut, was rum kommt. 1296MHz auf der GPU laufen.

Irgendwie war mir aber mal was, das zu viel Speicher OC einige Karten schon gehimmelt hat. Daher war ich dort mit ~10% eher konservativ :fresse:
 
10% sind ja ok. Dann aber bei der GPU auch den "Standardtakt" ohne Anheben des Power Targets, und dann Stock und +10% beim Speicher im Vergleich.
 
Mal gucken, wie sich die Zeit findet ;)
Welche Games? Ich könnte ne Runde Metro 2033 anbieten, muss aber gucken, was ich noch für ein Savegame finde.
AC III hab ich nicht.
Skyrim läuft aktuell, wäre noch ne Option.
BF3 hab ich auch zwar, aber MP ist zu unterschiedlich, was Vergleiche angeht...

Ich hab übrigens den Test mal überflogen, muss aber sagen, das mich das Ergebnis dort nicht vom Hocker haut. Denn 670 sowie 680er haben die gleiche Speicherbandbreite. Dennoch ist aber oft 5-10% Leistungsunterschied. Wenn also ein Bandbreitenlimit so massiv wäre, dann wäre dort kein Unterschied. Gerade in AA/hohen Auflösungen wächst der Unterschied doch an. Und steigen diese Anforderungen, so dürfte ja die Bandbreite nicht unwichtiger werden. Ein paar Ergebnise scheinen auch CPU limitert. Da war was dabei mit der 660TI und der 670/680er und gleichen FPS.

In deiner Aussage klang das wie, zwischen 660/660TI und der 680er sind 35% Bandbreitenunterschied und auch ~35% Leistungsunterschied. Nur platziert sich eben die 670er noch dazwischen irgendwie, teils mal mit 5%, teils mal mit 10% weniger von der 680er weg. Trotz gleicher Bandbreite, das passt nicht zum Bandbreitenlimit. Zumindest ist es dann in meinen Augen nicht so akut.
 
Zuletzt bearbeitet:
Laut dem techspot Artikel ist die 680 in folgenden Spielen ggü. den 660er Modellen bandbreitenlimitiert:

AvP
Alan Wake
Crysis 2 (nur 1600p)
Hard Reset
Just Cause 2
Skyrim

Die 680 hat 25% mehr Rechenleistung als die 670. Wenn da nur 5-10% Differenz sind, ist eigentlich klar, dass sie bandbreitenlimitiert ist. Da ein Benchmark ja nicht nur eine Sekunde lang geht, kann er Szenen beinhalten, die bandbreitenlimitiert sind und welche, die es nicht oder weniger sind. Daher sind es dann weder 0 noch 25%, sondern eben was dazwischen. Solange die 25% aber deutlich verfehlt werden, ist es wohl ein Bandbreitenlimit.
 
Zuletzt bearbeitet:
Die 680 hat 25% mehr Rechenleistung als die 670. Wenn da nur 5-10% Differenz sind, ist eigentlich klar, dass sie bandbreitenlimitiert ist.

Die GTX 680 ist nie viel schneller als 5 bis 15% als die GTX 670, auch nicht in Star Craft 2 oder bei niedrigen non AA/AF Settings wo die BAndbreite nicht so eine Rolle spielt.

Test: Grafikkarten 2012 (Seite 2) - ComputerBase

Mit 4xAA sinkt der Vorsprung der GTX 680 um etwa 1%, teils auch nicht, mit 8xAA sinds dann aber schon um die 3 bis 4% Verlust, insofern sieht man da langsam ein Bandbreitenlimit.

Wer kann denn seine GTX 680 ohne Depth of Field mal ordentlich ocen und dann die Ergebnisse mit unterschiedlich hohem Speichertakt hier posten?
 
Zuletzt bearbeitet:
Das stimmt nicht, es gibt durchaus Szenarien, wo gute 20% rauskommen. Schau dir den vor ein paar Seiten verlinkten Artikel an. Du kannst nicht mit einem Test solche Fälle ausschließen.
Wenn schon, dann mit DoF, weil das soweit ich weiß, für die hohe Bandbreitenanforderung verantwortlich ist.
 
Die 680 hat 25% mehr Rechenleistung als die 670. Wenn da nur 5-10% Differenz sind, ist eigentlich klar, dass sie bandbreitenlimitiert ist. Da ein Benchmark ja nicht nur eine Sekunde lang geht, kann er Szenen beinhalten, die bandbreitenlimitiert sind und welche, die es nicht oder weniger sind. Daher sind es dann weder 0 noch 25%, sondern eben was dazwischen. Solange die 25% aber deutlich verfehlt werden, ist es wohl ein Bandbreitenlimit.

Die Frage ist halt, was da wirklich das Limit ist. In meinen Augen ist ein Test mit default Settings bei den GK GPUs schwer zu vergleichen, weil der Turbo von Modell zu Modell schlicht unterschiedlich agiert. Bei den 670ern war doch teils der Fall, das diese mit sehr sehr hohtem Turbo liefen, genau so gibts Modelle die nichtmal groß über den zugesicherten min Turbo kommen, den NV definiert. Bei den 680er Modellen war glaube ich die Streung nicht so riesig, wenn ich mich recht entsinne.
Da gabs doch sogar von ich glaube tomshardware nen Artikel zu, wo manche Hersteller dort etwas zu gütig mit dem Turbo agierten um die 670er besser zu platzieren!?

Man müsste schon die Leistungen genau in Relation der Taktraten stellen.
Rechnerisch sind im default minimum Turbo ca. 23,4% GPU Leistungsunterschied zwischen 670 und 680er. Dreht die 670er mit dem Turbo aber auf, teils 1,1GHz+ wurden da gesehen, ist der Vorsprung wiederum auf gerade mal nur noch 9,9% (bei 1,1GHz). Und wenn da ein Leistungsunterschied von ~5-10% zwischen den Karten im Bench liegt, könnte man das sogar fast allein auf die GPU schieben.

Das meine ich damit, klar bei der 660/660TI wird das Bandbreitenproblem sicher noch mehr im Vordergrund stehen, geht man aber davon aus, das bei einer 680er dort massiv ein Limit vorliegt, müsste die 670er ziemlich genau so schnell sein.
Auch komisch ist, das in manchen Games die 580er wegen quasi identischer Bandbreite auf gleichem Niveau agiert. In anderen, welche aber ebenso Bandbreitenlimitiert zu sein scheinen, massiv abfällt (Alan Wake, Skyrim usw.)
Auch interessant ist die Tatsache, das beispielsweise bei Skyrim die 580er gerade mal auf 660 Niveau agiert, obwohl deutlich mehr Bandbreite. Klar andere Architektur, passt aber dann nicht ins Bild mit beispielsweise AvP, wo die 580er auf 680er Niveau agiert und zwischen der 680er und 670er auch kein Unterschied ist.
 
Mmm... ich konnte in Skyrim eigentlich genau das gegenteil mit der Bandbreite feststellen. Da hat sich Speicher-OC bei mir sogut wie kaum (nur etwa 1% mehr Leistung bei 10% Speicher OC) gelohnt. Da kam das GPU-OC fast 1zu1 an. Den Skyrimtest von Computerbase würde ich eher abhaken ->Indoor, PCGHh misst mit SGSSAA outdoor, was dem spielverlauf wesentlich realistischer wiederspiegelt. Allerdings ist die GTX 680 da schon rund 40% schneller als die 580 und immer noch rund 25% schneller als die HD 7970 GHz Ed. -> Bandbreite wohl eher nicht das Problem.
Ich denke "einfach", dass da die höhere Rechenleistung bei SGSSAA einen vorteil mit sich bringt. Teils ist ja eine GTX 680 mit SGSSAA schneller als eine 7970 GHz Ed., oder zumindest gleich auf (im vergleich zu rund 10% Rückstand ohne)

Klar ist der Turbo ein Problem, allerdings meine ich gelesen zu haben, dass PCGH diesen fixt, um die Ergebnisse besser vergleichen zu können. Also immer mit dem Boosttakt, der von nVIDIA angegeben wurde, GTX 680 also mit 1058MHz, GTX 670 mit 980MHz usw.

Vergleich der GTX 680 und 670 aus verschiedenen Game-benches von PCGH:
Crysis 2:
1080p
GTX 680 - 51,3 Fps
GTX 670 - 45,2 Fps
GTX 680 ist 13% schneller

1600p
GTX 680 - 28,4 Fps
GTX 670 - 25,3 Fps
GTX 680 ist 12% schneller


Crysis Warhead:
1080p
GTX 680 - 46,3 Fps
GTX 670 - 42,4 Fps
GTX 680 ist 9% schneller

1600p
GTX 680 - 26,2 Fps
GTX 670 - 24,3 Fps
GTX 680 ist 8% schneller


Battlefield 3:
1080p
GTX 680 - 52,2 Fps
GTX 670 - 48,1 Fps
GTX 680 ist 9% schneller

1600p
GTX 680 - 34,1 Fps
GTX 670 - 31,2 Fps
GTX 680 ist 9% schneller


Skyrim:
1080p
GTX 680 - 62,3 Fps
GTX 670 - 52,6 Fps
GTX 680 ist 18% schneller

1600p
GTX 680 - 39,7 Fps
GTX 670 - 33,8 Fps
GTX 680 ist 17% schneller


Metro 2033:
1080p
GTX 680 - 34,4 Fps
GTX 670 - 31,9 Fps
GTX 680 ist 8% schneller

1600p
GTX 680 - 20,1 Fps
GTX 670 - 19,3 Fps
GTX 680 ist 4% schneller


The Witcher 2:
1080p
GTX 680 - 24,3 Fps
GTX 670 - 21,4 Fps
GTX 680 ist 14% schneller

1600p
GTX 680 - 14,3 Fps
GTX 670 - 13,4 Fps
GTX 680 ist 7% schneller

Interessant ist, dass die GTX 680 in 1600p anscheinend immer etwas Vorsprung verliert... Extrem fallen da Metro und The Witcher 2 auf. Der höchste Unterschied ist in Skyrim zu erkennen, wo das Mehr der Einheiten und der höhere Takt der GTX 680 teils voll durchschlagen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh