nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Fdsonne hast du den screen die seite zu vor gesehen takt bereinigt
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Neuro, angeblich, so las ich mal, liegt der Transistoranteil der ALUs in modernen GPUs bei ca. 60% des Gesamten. Ob das bei GK104/110 mit dem Wegfall der Hotclocks und damit mehr ALUs, dafür was weniger pro ALUs immernoch so pauschal passt, oder ob es eher in Richtung 65-70% geht, weis ich allerdings nicht genau. So als pauschale Rechengröße wäre es aber schon denkbar.

Rechnet man mit 60%, ergibt sich ne ca. Verdopplung des ALU Parts. Da fallen normal auch Caches usw. mit drunter. Bei 87,5% reine mehr ALUs + Caches sowie die mehr Logik für den GPGPU "Anteil" kommt das in etwa hin würde ich meinen.
 
Jup. Allerdings finde ich viel beeindruckender, obwohl AMDs GHz Ed. einen solchen Theoretischen Vorsprung hat, die GTX 680 doch noch so gut mithalten kann. Im Durchschnitt liegen zwischen beiden Karten nicht mal 10%.

Beide haben halt nur 128TMUs
 
Beide haben halt nur 128TMUs

Willst du jetzt alles auf die TMUs schieben?:hmm: Wie @Bos schon sagte, der Tahiti XT2 verfügt Theoretisch über deutlich mehr Power. Aber diese kommt eben nicht überall an. Natürlich kann das auch mit den TMUs zu tun haben, aber da hängt noch deutlich mehr dran. Die GPU im gesamten muss da betrachtet werden.
 
Meinst du den hier?
http://www.hardwareluxx.de/communit...ion-1-seite-lesen-880821-78.html#post20096959
Wenn ja, da ist nichts neues dran ->wie immer, die Spezifikationen sind bekannt, nur eben noch nicht, wie die Karte endgültig erscheint.

Er meint wohl den Metro 2033 Benchmark von Computerbase. Man kann die Karten aber gar nicht vergleichen taktbereinigt, weil es keinen Hotclock mehr gibt. Sowas macht Null Sinn.

Die TMUs sind schon extrem überdimensioniert. Die 580 hatte weniger Texelfüllrate als die 560 Ti und war trotzdem 40% schneller. TMUs sind nicht der Punkt ;)
 
Zuletzt bearbeitet:
Mit den zwei GPUs kann ich mir nur erklären fals ein lano amd cpu eingebaut wird welcher ja ein GPU besitzt und die eigentliche GPU wird dann beim spielen aktiv und die GPU des lano könnte dann das GPGPU gelumpe übernehmen. Anders kann ich mir das auf jedenfall nicht vorstellen?

GPGPU bei ner Konsole? Energieeffizienz wäre da nen Schlagwort, allerdings kommen die modernen GPUs im Idle soweit mit dem Verbrauch runter das sich ne extra Lösung nicht lohnt. Das Ding muss so günstig wie möglich gefertigt werden, für so ne relativ unsinnige Lösung ist da eigentlich kein Platz.

Zu den TMUs hatte ich mal was gelesen vom 192 beim GK110...

Nee, sollten noch 240 sein. Es gibt eigentlich keinen Grund für NV die SMX so stark zu verändern.

@Neuro, angeblich, so las ich mal, liegt der Transistoranteil der ALUs in modernen GPUs bei ca. 60% des Gesamten. Ob das bei GK104/110 mit dem Wegfall der Hotclocks und damit mehr ALUs, dafür was weniger pro ALUs immernoch so pauschal passt, oder ob es eher in Richtung 65-70% geht, weis ich allerdings nicht genau. So als pauschale Rechengröße wäre es aber schon denkbar.

Rechnet man mit 60%, ergibt sich ne ca. Verdopplung des ALU Parts. Da fallen normal auch Caches usw. mit drunter. Bei 87,5% reine mehr ALUs + Caches sowie die mehr Logik für den GPGPU "Anteil" kommt das in etwa hin würde ich meinen.

Ja, das ist halt das Problem an meiner Rechnung, man weiß nicht genau wie groß die einzelnen Bereiche Anteil am Transistorcount haben. Jedenfalls sollte man die GPGPU Sache halt nicht überbewerten.
 
Nein der hier.LSSJBroly



Wie man sieht ist die Bandbreite ausgeschlossen da der GK104 auf dem Level der GTX580 taktet es bleibt nur noch der GPGPU Part hier fehlen 17% zu GTX580.
Der Titan wird siegen in dem GAME gegen die 690 da bin ich mir fast sicher wenn das mit den 15% stimmt zu mal der GPGPU Part weiter verbessert wurde beim GK110.
Und das hier hat nix mit HD7970 zu tun erkläre mir mal einer vernünftig wieso das nicht mit GPGPU zusamenhängt.
 
Zuletzt bearbeitet:
Nein der hier.LSSJBroly

Und das hier hat nix mit HD7970 zu tun erkäre mir mal eine vernünftig wieso das nicht mit GPGPU zusamenhängt.

weil ne GTX 680 mit 288GB/s Bandbreite wohl schneller als ne HD 7970 GHz wäre? Selbst mit nur 17% Speicher-OC schlägt die GTX 680 mit standardtakt die HD 7950 Boost, mit 50% mehr Bandbreite wäre die HD 7970 kein Problem. Man sieht überall, dass das Game wirklich stark an der Bandbreite klebt. das beste Beispiel ist doch, wenn man sich den HD 7970 Benchmark von CB anschaut:
Test: AMD Radeon HD 7970 (Seite 20) - ComputerBase -ohne 384Bit SI würde Thaiti nichtmal wirklich schneller als eine GTX 580 sein.

Alerdings, wie fdsonne schon sagte, wird ein GK110 wohl nicht eine GTX 690 schlagen können, auch da nicht. wie gesagt, im besten Falle 50-60% mehr Performance - die GTX 690 bietet aber meistens um die 80-90% mehr als eine GTX 680-im GPU limit natürlich.
 
Zuletzt bearbeitet:
Ich rede doch nicht von der HD7970
GTX580 vs.680 in der Bandbreite nehmen sie sich nichts zu mal der GPU Takt gesenkt ist bei der GTX680.
Ich habe immer noch keine Erklärung bekommen.
 
Zuletzt bearbeitet:
Jup. Allerdings finde ich viel beeindruckender, obwohl AMDs GHz Ed. einen solchen Theoretischen Vorsprung hat, die GTX 680 doch noch so gut mithalten kann. Im Durchschnitt liegen zwischen beiden Karten nicht mal 10%.

Also in den vielfach oft geforderten HighEnd Settings (Auflösungen größer FullHD, viel AA usw.) sind es eher im Bereich 12-15% mit aktuellen Treibern. Ne GHz Edition lässt sich dabei sogar recht einfach mit der GTX 680 vergleichen, weil im Turboboost in etwa gleicher Takt. Zugunsten der NV muss man aber auch sagen, bei kurzen Benchruns legt diese im Turbo bei kühlen Temps auch gern mal noch 5% drauf... Was die AMD nicht kann mit soweit mir bekannten fixen 1,05GHz im Boost.

Nimmt man das letzte CB Tripplescreen Review, gibts bei 3x1600p + 4xMSAA sogar nen Vorsprung von ~23%. (29% bei 8xMSAA)
Gemessen daran, ist das gar nicht mal so schlecht... Trotz der immernoch anhaltenden Behauptung, die Tahiti GPUs hätten ein Problem mit ihrem Frontend und würden dadurch auch potentiell Leistung liegen lassen. Kann ja sein, aber so viel scheint es nicht zu sein, wenn man der/den Karte(n) freien Lauf lässt ;)

Fdsonne hast du den screen die seite zu vor gesehen takt bereinigt

Ja habe ich... Ändert ja aber an der Tatsache nix... Warum und wieso GK104 in Metro eher schlecht abschneidet, im Vergleich zu ner GF110 oder Tahiti GPU, wird daraus absolut nicht ersichtlich.
Ein Grund könnte beispielsweise sein, das GK104 taktbereinigt immernoch 50% mehr Roh-ALU Power bringt als GF110. Aber in Sachen Bandbreite nicht zulegt.
Auch ist Fakt, das GK104 in Vergleich zu GF110 gewisse Teile der Aufgabenaufteilung für die ALUs in Software implementiert hat, wohingegen Fermi diese noch strikt in Hardware erledigt hat. Somit skaliert die "Fähigkeit" die Berechnungen sauber auf die ALUs zu verteilen beim GF110 sauber mit dessen Takt. Beim GK104 aber ist sie völlig von der CPU abhängig. Dazu kommt der dreifach mehr ALU Count.
Ein nächster Punkt wäre die Tatsache, das die reine Einheitenanzahl idR nicht 1:1 skaliert, wohingegen eine Taktskalierung durchaus 1:1 geschehen kann, wenn die GPU ausgewogen designt ist (und GF1x0 war schon recht ausgewogen, was OC Skalierungstests mit annähernd 1:1 zeigten!)
GK104 verliert nämlich nicht nur ALU Power, wenn man ihn runter drückt, sondern noch so einiges mehr. Da fallen sogut wie alle nenneswerten Bereiche drunter. Allen vorran die ROPs im direkten Vergleich. Wo es 48 vs. 32 steht und somit 50%+ für GF110 in dem Fall. Obwohl das pauschal nicht ganz richtig ist, da die ROPs besser sind beim GK104 als die des GF110 (hatten wir ein paar viele Seiten vorher schon) Aber unklar ist, ob Metro diesen Vorteil ausschöpfen kann/könnte.

Du siehst also, es gibt viele ungereimtheiten, die so nen Vergleich Taktbereinigt beeinflussen könnten... Klar ist dabei leider so gar nichts. Zumindest nicht pauschal ableitbar.
 
Zuletzt bearbeitet:


Alles spricht für die GTX680 ausser die Anbindung wo bei am Ende in der Bandbreite das selbe raus kommen soll .
Bleibt nur noch der GPGPU Part.

Na ja wir werden ja sehen wie es aus sehen wird wenn der Titan da ist so werden wir uns bestimmt nicht einig .
 
Zuletzt bearbeitet:
Sag doch mal konkret, was du mit GPGPU überhaupt meinst. So ist es nur eine Ansammlung von 5 Buchstaben ;)
 
Thunder, das Problem ist doch, Taktgleich zu benchen macht so keinen Sinn. Warum? Weil GF110 in gewissen Teilen der GPU in die Breite geht (ROPs zum Beispiel, oder das SI) Wohingegen GK104 nur! bei den ALUs in die Breite geht, den Rest aber durch den hohen (GPU) Takt kompensiert. Wenn man so will, hat NV den Chip 1:1 andersrum gebaut. Dort wo "alte" GPUs über den Takt gingen, geht Kepler nun in die Breite. Und dort wo "alte" GPUs in die Breite gingen, kompensiert Kepler über den Takt. (zumindest GK104)
Ziehst du nun den GPU Takt bei GK104 runter, bleiben zwar immernoch (am CB Beispiel) grob über den Daumen 33% mehr reine ALU Performance übrig. Aber, die Pixelfüllrate sinkt um 33% unter die GF110 GPU. Man erzeugt also ein Ungleichgewicht.
Metro scheint an der Stelle auch wirklich das eine Extrem zu sein... Sprich verliert überdurchschnittlich stark.
Rein nüchtern betrachtet kann dies sogar theoretisch nichtmal an den GPGPU Implementationen liegen. Weil die GPU Power immernoch größer ist.

Skyrim in dem Fall ist im übrigen das andere Extrem, da scheint GK104 seine ALU Power voll ausspielen zu können, trotz dem geringeren Takt sowie der gesunkenen Pixelfüllrate.
 
Zuletzt bearbeitet:
Genauso macht es keinen Sinn die GTX690 mit einem Titan vergleichen zu wollen und da mit haben wir kein Ergebnis was die Leistungseinschätzung in Metro an geht .
Dann zu sagen die GTX690 hat die Doppelten Ausführungseinheiten wie der GK104 und der Titan wen mit 2880 shadern wird das nicht schaffen past auch nicht den man wird es nicht pauschal mit einander vergleichen können.

Da das Spiel aber ein GPU Limit aufweist werden wir es ja bald sehen.
 
Zuletzt bearbeitet:
Das Argument verstehe ich nicht...
Die GTX 690 ist aktuell die schnellste Serienkarte am Markt... Und somit muss diese auch für einen Vergleich im Extremfall herhalten.
Das GK110 schneller als GK104 Single GPU wird, steht wohl außer Frage.

Und dabei passt der Vergleich sogar recht gut. Da eben GK104 und GK110 zu vielen Teilen ähnlich aufgebaut sind. Nur das letzterer eben breiter wird, aber es ändert sich wie bei einem Fermi Vergleich wenig bis nichts an der Technik selbst.

Warum ich den Vergleich gemacht habe, hab ich oben schon erleutert. SLI auf der 690er bietet den 1A Vorteil, das es vorhersagbar ist. Einfach weil man schlicht zwei Bilder zur selben Zeit berechnet. Und 100% der Ressourcen von GPU A für Bild A zuständig sind, wärend 100% der Ressourcen von GPU B für Bild B zuständig sind.
Somit ergibt sich eine 1:1 Vorhersagbarkeit (ohne störende CPU Limits) von Single GPU zu SLI.

Beim GK110 passt das rechnerisch aber nicht. Denn die ~80% SLI Skalierung würden bedeuten, das GK110 um die 950-1GHz Takt benötigen würde im Vollausbau. Sowie ne Speicherbandbreite von ~360GB/sec. Das dürfte aber weit über der Realität liegen. Speziell die Bandbreite.
Eher legt GK110 im Schnitt um 50% zu. Rein bei den ALUs vllt was mehr.
Zählt man 1:1 zusammen, wird es damit nicht reichen ;) das dürfte offensichtlich sein.

PS: zumindest in der "Rosine" Metro, was trotz Bandbreitenlimit auf ner Single GK104 GPU im SLI oder Quad/4-Way SLI sehr gut skaliert!
 
Zuletzt bearbeitet:
Das Argument verstehe ich nicht...
Die GTX 690 ist aktuell die schnellste Serienkarte am Markt... Und somit muss diese auch für einen Vergleich im Extremfall herhalten.
Das GK110 schneller als GK104 Single GPU wird, steht wohl außer Frage.
Das ist genauso wie ihr sagt man kann die 680 nicht mit der 580er vergleichen.

Beim GK110 ändert sich so einiges im Vergleich zum GK104 deshalb sollte man nicht einfach GK104*2 rechnen und sagen no way den beim GK110 werden sich auch ein paar Faktoren verändern.
Hoffe das ist verständlich warten wir es ab ob ich richtig liege in Metro ich glaube das wird das Spiel sein wo der Titan derGTX690 am stärksten auf die Pelle rückt.
Bzw.der Leistungsunterschied am geringsten aus fällt .l
 
Zuletzt bearbeitet:
Beim GK110 ändert sich so einiges im Vergleich zum GK104 deshalb sollte man nicht einfach *2 rechnen und sagen no way.

Findest du? Im verhältnis ist der GK110 nicht "wirklich" viel mehr als ein GK104 mal 1,875. Die SMX sind gleich, der Chip dirfte sich wohl sehr ähnlich wie GK104 verhalten. Natürlich hat GK110 mehr ROPs und mehr Bandbreite und mehr Cache, allerdings ist es größtenteils "nur" ein aufgepumpter GK104. Der GF110 war da viel unterschiedlicher, wie fdsonne schon erklärte.
 
In dieselbe Kerbe schlägt der direkte Datenpfad von den Shader-ALUs in den Texturcache, welcher zuvor nur über den Umweg der Filter erreicht werden konnte. Nun sind dadurch bei geschickter Programmierung bis zu 48 kiB pro SMX zusätzlicher Cache verfügbar, welcher allerdings nur lesend verwendet werden kann. Die Leistungseinbußen beim Speicherschutz ECC konnte Nvidia nach eigenen Angaben durch Optimierung der Zugriffe auf die Paritätsbits um zwei Drittel reduzieren. Diese Funktionen sind ebenso wie der erweiterte Task Scheduler, welcher 32 Aufgaben von entweder der CPU oder der GPU selbst verwalten kann und im Gegensatz zu früheren GPUs einen komplett umgebauten Grid-Manager erfodert, GK110-exklusiv. Durch Hyper-Q wird beherrscht der GK110-Kepler nun wirklich gleichzeitige Mehrfachverarbeitung, während Fermi und GK104 im Scheduler noch mit Time-Division Multiprocessing vorlieb nehmen mussten.

Zusätzlich zum GK110 sind auch auf dem Gamer-Kepler neue Instruktionen verfügbar. Warp Shuffling ermöglicht den schnellen, direkten Datenaustausch zwischen zwei Warps und entlastet so den lokalen Speicher. Die beschleunigten Atomic-Memory-Operationen, welche gegenüber Fermi zum Teil um Faktor 9 beschleunigt wurden, sind besonder bei Compute-Funktionen wichtig, in denen einzelne Threads spezifische Adressen in einem gemeinsamen Speicherbereich einlesen, ändern und zurückschreiben. Einige der beschleunigten Funktionen wie atomicMin, atomicMax, atomicAnd, atomicOr, atomicXor sind jedoch dem GK110 vorbehalten, andere wie atomicAdd, atomicCAS und atomicExchange beherrschen auch GK104 und Fermi.

Es weiss noch keiner wie der GK110 ab geht er ist defenetiv nicht 1 zu 1 das selbe wie der GK104.
 
Das ist genauso wie ihr sagt man kann die 680 nicht mit der 580er vergleichen.

Beim GK110 ändert sich so einiges im Vergleich zum GK104 deshalb sollte man nicht einfach GK104*2 rechnen und sagen no way den beim GK110 werden sich auch ein paar Faktoren verändern.
Hoffe das ist verständlich warten wir es ab ob ich richtig liege in Metro ich glaube das wird das Spiel sein wo der Titan derGTX690 am stärksten auf die Pelle rückt.
Bzw.der Leistungsunterschied am geringsten aus fällt .l

ja welche Faktoren denn?
GK110 ist doch schon mehr oder weniger vollständig bekannt. Zumindest wie er aussehen wird. Das was aktuell fehlt, ist der Takt.
Und bei 87,5% mehr Ausführungseinheiten, 87,7% mehr TMUs, aber "nur" 50% mehr ROPs sowie Bandbreite wird es in einem eher Bandbreitenlimitierten Game folglich schwer, massiv gut zu skalieren.
Gerde bei den ROPs ist das eben so ne Sache. Diese skalieren Anzahltechnisch mit dem SI, aber Takttechnisch mit dem GPU Takt. Bei ~950-1000MHz auf GK110 erreichst du ca. GK104 mal 1,8 in Sachen Rohleistung für die ALUs/TMUs. (was im Schnitt einer GTX 690 Skalierung entspricht)
Mit 3GHz VRAM und 384Bit SI (48 ROPs) erreichst du aber "nur" 50% mehr Bandbreite sowie knappe 42% mehr Pixelfüllrate. (bei 1GHz Takt)

Der logische Schluss kann also nur lauten, das GK110 in dem Fall genau so an der Bandbreite klammern wird, wie es GK104 in Metro tut. Bei derartigen Taktraten vllt sogar noch mehr...

Die Reaktion, wenn man 580er nicht mit 680er vergleichen kann, kann man 690er auch nicht mit GK110 vergleichen, klingt eher für mich wie ne "kleine Jungen - meine Suppe ess ich nicht - Trotzaussage". ;) Aber nimm mir das nicht übel :fresse:
 
Zuletzt bearbeitet:
Hihi. Lustig. Will noch wer :popcorn:

Ihr und eure Bandbreite. Ihr wisst schon dass GB/s != GB/s ist oder? Mal sehen wer als erster drauf kommt. Ich setz auf box :bigok:
 
Sollte ja nur ein Indiz sein. Und gerade Metro hängt vergleichsweise stark an der Bandbreite. Und reines Speicher OC bringt nunmal vorrangig auch mehr Bandbreite und nicht wirklich mehr ;)
 
Nö nehme ich dir nicht übel wieso den auch .
Ich bin der Meinung das es bei Metro nicht einzig die Bandbreite ist sondern ehr das bei Einsatz von DOF die GPGPU Vorzüge an den Tag gelegt werden ihr sagt nein ich ja .
Wir werden sehen ob sich das bewahrheitet wenn n8cht habe ich halt unrecht gehabt da mit kann ich leben.

Habe Leute hier schon oft rechnen und philosophische Behauptungen und Theorien aufstellen sehen am Ende war es alles um sonst.

Also last mich auch mal da zu gehören.:)
 
Zuletzt bearbeitet:
Ich bin der Meinung das es bei Metro nicht einzig die Bandbreite ist sondern ehr das bei Einsatz von DOF die GPGPU Vorzüge an den Tag gelegt werden ihr sagt nein ich ja .

Wie gesagt, GK104 +17% Mehr Bandbreite ->etwa 8% mehr Leistung, wenn sich das weiter so verhält:
GK104 +50% bandbreite (wie eben die HD 7970 GHz Ed auch) -> rund 25% mehr Leistung. Nun kann man sich das ja ausrechnen und man wird feststellen, dass man in etwa die Leistung der HD 7970 GHz Ed erreicht;)
 
Nur wenn aber die GPGPU Features den Speedvorteil ausmachen würden, dann müsste die 680er im Vergleich zur 580er weit vorran liegen. Denn "nur" in doppelter Genauigkeit stinkt GK104 gegen Fermi ab. Wobei man auch sagen muss, das Fermi in DP keine Rakete ist ;) Denn der ist genau so kastriert, wenn auch nicht so krass...

Wenn ich das jetzt recht in Erinnerung habe, steht es dort 1/8 für Fermi. Und 1/24 für GK104. Jeweils DP/SP.

Die Preisfrage ist eher, ob die doppelte Genauigkeit überhaupt benötigt wird. Im Profimarkt ja, im privaten Gamermarkt? Eher nicht...
 
Falls der GK110 wirklich im Februar kommt würde ich schnellstmöglich deinen ATI Beschleiniger verkaufen bevor er noch 200€ Wert ist :fresse:
 
Wir werden sehen fdsonne .
Wie du schon sagtest Takt wir sehr wichtig sein .
Schauen wir mal wenn das Teil nur mit 700 MHZ kommen würde stinkt meine Theorie natürlich voll ab und der Faktor 85% zur 690 muss stimmen.
 
Falls der GK110 wirklich im Februar kommt würde ich schnellstmöglich deinen ATI Beschleiniger verkaufen bevor er noch 200€ Wert ist :fresse:
Da würde ich mir wegen der GK10x-refreshs (edit: und natürlich dem AMD-Äquivalent) mehr Sorgen machen, sollte der GK110 in den befürchteten Preisregionen unterwegs sein.
 
Gerade bei der 4A-Engine sollte man einiges bedenken...

Edit: Na gut ich sag dazu mal was:

Denkt mal an die Partitionen und den Datengehalt. Es gibt ja einen Unterschied ob ich nun 4 GB in tausenden kleinen Dateien bewege oder 4 GB in mehreren großen. Welcher memory-controller wäre, trotz gleicher Bandbreite, wofür besser geeignet? Und jetzt münzt das mal auf die 4A-Engine, welche ja einen dedizierten PhysX-Thread nutzt. Die Engine kann tausende Threads erzeugen. Nicht nur DoF. Auch Illumination, reflected & refracted lights etc. werden berechnet. Diese Berechnungen müssen ja irgendwie in das Bild einfliessen. ;) Ihr wisst worauf ich hinaus will?

Also lasst das Bandbreitengequarke, denn es ist viel zu spezifisch. Während Metro auf 75% MCU-Load geht schafft es FarCry 3 nur auf 45% bei mir. Also verreckt z.B. die GTX 580 eher an den ALUs in diesem Fall. Tahiti XT hat hier imo ein sehr gut ausgewogenes Verhältnis. In anderen Engines sieht das aber nicht immer so toll aus. Gleiches gilt für GK104.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh