nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Ende Januar gibts neuen Stoff.
LSSJBroly: nVidia wird sich bestimmt nicht an der 8970 ausrichten. Wenn diese zu schwach wird nVidia dennoch nach Plan verfahren. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
LSSJBroly: nVidia wird sich bestimmt nicht an der 8970 ausrichten. Wenn diese zu schwach wird nVidia dennoch nach Plan verfahren. ;)

Glaube ich nicht, siehe HD 7970 und GTX 680, klar Performance-Chip und so, GK110 war noch nicht fertig usw.. Wenn die mit dem 13SMX Chip und 800 MHz die HD 8970 um etwa 15% schlägen könnte, würden die sicherlich nicht ne 14SMX oder gar ne 15SMX version nehmen, allein weil die Ausbeute wesentlich besser wäre. So hätte man schließlich auch noch etwas in der Hinterhand für einen weiteren Refresh, falls Maxwell doch deutlich später kommt.

Natürlich könnte nVidia auf brechen und biegen ne 15SMX Version rausbringen, aber wozu am so "früh" am Anfang? Ich meine, ich würde mich sicherlich darüber freuen und mir so eine zulegen, klar :d, aber dennoch...
 
Glaube ich nicht, siehe HD 7970 und GTX 680, klar Performance-Chip und so, GK110 war noch nicht fertig usw.. Wenn die mit dem 13SMX Chip und 800 MHz die HD 8970 um etwa 15% schlägen könnte, würden die sicherlich nicht ne 14SMX oder gar ne 15SMX version nehmen, allein weil die Ausbeute wesentlich besser wäre. So hätte man schließlich auch noch etwas in der Hinterhand für einen weiteren Refresh, falls Maxwell doch deutlich später kommt.

noch ein Refresh auf 28nm Basis? Ich weis nicht, ob sich das für NV ausgeht. ;)
Und 13 SMX bei 800MHz wären gerade mal grobe 24% über GK104 (ohne Turbo)
Würde man damit eine HD8970 mit 15% schlagen, wäre diese Karte ja gerade mal so schnell, wie eine 7970GHz Edition :fresse:

Ich denke schon, es wird alles daran hängen, wie AMD die Karte plaziert, erschwerend für NV kommt noch hinzu, das AMD ggf. später als gedacht releasen könnte. Aus AMD sicht wäre das sogar besser, da man eben analog zum GK104 die Karte so plazieren könnte, wie man es gern hätte zur Konkurenz. Lässt NV den GK110 zuerst raus, bleibt keine Luft für Taktspielereien. Ggf. wäre es möglich ne OC Version mit höherem Takt und schärferem Turbo nachzuschieben oder sowas. Aber da sind dann keine Welten Luft mehr drin.

Wenn NV zuerst kommt, muss GK110 so hoch plaziert werden, das AMD zu tun hat, die Performance zu erreichen. (analog zum G80, bzw. RV870 damals)
Nach den aktuellen Spekulationen über die Mittelklasse 8000er AMD Karten befürchte ich aber, das der Performancezuwachs beim AMD Topmodell mehr wie nur ein paar wenige Prozent sein werden. Sprich min. 14 SMX + hoher Basistakt (~800-850MHz) + scharfem Turbo und ne TDP von ~240-250W wären das Resultat. Ggf. dann sich die "Arbeit" über den Preis zurück holen beim Topmodell (so ala 7800 GTX 512MB Edition). Und die GTX 770 als 13 SMX Version mit ner ganzen Ecke weniger Takt für die Resteverwertung nutzen. Bzw. für die K20 Modelle.

Ich könnte mir aber durchaus vorstellen, das NV diesmal wirklich zuerst kommt, einfach weil der Chip quasi fertig ist. Daran noch groß was rumdrehen wird wohl nicht den möglicherweise fehlenden Performancegewinn bringen. Und dazu kommt, allein K20 wird wohl nicht ausreichen um GK110 zu finanzieren. Auch wenn die Preise im Profibereich extrem über den Gamerkarten liegen. Aber mindestens ein/zwei Quadroableger werden da noch zeitnah kommen müssen. Sonst bleibt NV auf den GPUs sitzen. Was sind schon 18000 GPUs im Titan Supercomputer, nimmt man ein paar deutsche Hardwareforen zusammen, dürfte das an GK104 Hardware schon fast allein rumgeistern :fresse:

Bei AMD ist die Lage wohl etwas anders, man baut mit den 7900er GPUs ein grundsolides Produkt, was in mehreren Bereichen abgestellt ist. Kann gute Chips von schlechten trennen und die in die jeweiligen Märkte kippen. Und auch rein Leistungstechnisch sind die Karten gut aufgestellt. Sieht man mal direkt von K20 DP Performance etwas ab, bleiben immernoch genügend andere Märkte, die man sehr gut dasteht, rein auf die Leistung bezogen. Erst wenn NV hier den Dampfhammer rauspackt, wie K20 mit der DP Performance, wäre man wirklich gezwungen da zu handeln. Und säße dabei sogar noch in der komfortableren Position als zweiter die Taktraten am Konkurenten anzupassen, wie es NV seit GF100 auch tut.
 
noch ein Refresh auf 28nm Basis? Ich weis nicht, ob sich das für NV ausgeht. ;)
Und 13 SMX bei 800MHz wären gerade mal grobe 24% über GK104 (ohne Turbo)
Würde man damit eine HD8970 mit 15% schlagen, wäre diese Karte ja gerade mal so schnell, wie eine 7970GHz Edition :fresse:

Ein GK104 mit 15% mehr Speichertakt reicht doch schon aus, um eine HD 7970 GHz Ed. knapp zu schlagen xD Und dann nochmal 25% mehr Rechenleistung und mehr Bandbreite, aber gut, hasst ja recht, 13 SMX und 800 MHz wäre etwas wenig.

Naja, falls nVIDIA zuerst releasen wird, kann man sicher von +14 SMX ausgehen, aber das steht ja auch noch in den Sternen... Sonst stimme ich dir aber zu. (Aber: Die HD 8970 wird trotzdem nicht mehr als 25% schneller als die HD 7970 GHz Ed., dass kann ich mir einfach nur schwer vorstellen...)
 
Laut aktuellen Spekulationen zeigt eine HD8870 in etwa die Rechenleistung von der aktuellen HF7970. Gepaart mit einem kleineren SI.
Nur für den Fall, das man sich dort ca. auf HD7950 Niveau einfinden wird, wäre es schon ziemlich enttäuschend, wenn das Topmodell nur ein paar Prozente davor liegen würde... Und ich denke, HD7950 Niveau ist absolut realistisch, wenn nicht gar was niedrig, wenn die Daten stimmen sollten.

Mit spekulierten annähernd 4TFlop/s und fast 200GB/sec Bandbreite wäre das ne würdige Mittelklasse. Der Topdog dürfte da mit Sicherheit mehr wie nur 20% drauflegen. Sprich eher in Richtung 5,5-6Flop/s SP und mit 384Bit SI Speicherbandbreitentechnisch im Bereich ~300GB/sec.

Das dürfte ne harte Nuss für GK110 werden. ;) Denn wie gesagt, das Teil ist mehr oder weniger fertig. Selbst wenn man dort am Gamerprodukt noch rumoperiert, das bringt keine Welten mehr. Bestenfalls hebt es die Ausbeute bzw. man bringt hochwertigere Chips, die mehr Takt bei weniger Spannung bringen.
Tahiti LE aktuell zeigt ja wohin die Reise bei AMD geht. Trotz 20% weniger Bandbreite aber quasi gleicher ALU Leistung zur HD7950 fängt das Teil nicht an zu wackeln... Man liegt laut CB sogar minimal drüber.
Und laut CB gehts in Anno 2070 sogar 1:1 mit dem GPU Takt beim OC nach oben. Die anderen beiden Tests bescheinigen noch 15-16% bei ~20% mehr GPU Takt und gerade mal 10% mehr VRAM Takt.

Und ich behaupte, AMD wird um die Schwachstellen bei den 7000er Karten wissen und dort weiter optimieren. Also nur für den Fall, das die 8000er Topkarte wirklich irgendwo im Bereich 5,5-6TFlop/s liegen sollte, und da nur ~25%+ auf ner 7970 Ghz Edition bei rum kommen, dann hat AMD mit ziemlicher Warscheinlichkeit nicht an den Schwachstellen von Tahiti gearbeitet ;) denn irgendwo muss die Leistung dort liegen bleiben. Aktuell spricht man vom FrontEnd, wenn ich das richtig gelesen habe... Obs stimmt, kein Plan.

Rein rechnerisch stehen ja 2536 ALUs zu 1,05GHz Basis (1,1GHz Turbo) Takt im Raum. Das sind ~30% mehr wie Tahiti XT als Ghz Edition. Geht man von simpler 1:1 Skalierung einfach mal aus, GK110 bräuchte somit 1,15*1,3 mehr Leistung als GK104 = ~49,5%. (1,15 Wert aus letztem CB Artikel mit 12.11 Beta8 AMD Treiber)
Setzt man nun das "Speicherbandbreitenproblem" mit an, würde das bedeuten bei aktuell bester Skalierung (Metro2033 = ~2:1) hätte man mit 384Bit SI schonmal die halbe Miete rein. (50% mehr Bandbreite = 25% mehr Performance)
Bleiben also noch ca. 20% mehr Performance für den Chip. Besser noch was mehr, sagen wir 25%, weil die Bandbreite ja nicht überall 2:1 skaliert. Wären also ganz grob gerechnet ca. 780-800MHz bei 14 SMX um gerade mal gleichstand zu erzielen, wenn die Bandbreite den GK104 limitiert. Tut sie das nicht, schauts mauer aus ;)
Immerhin sind das ~6-9% mehr Takt als K20X. Bei gleicher Spannung wäre das ne 1:1 Leistungsaufnahmesteigerung. Wenn K20X im TDP Rahmen beim Verbrauch bleibt, wären wir hier bei ~250-256W.
Viel mehr wird nicht gehen... ;) -> meine Meinung. Und wir wären immernoch nur bei Gleichstand :bigok:
 
Zuletzt bearbeitet:
Du schätzt GCN etwas zu stark ein. Ich glaube nicht, dass die in etwa 1 1/2 Jahren das Frontend so verbessern können. Dieses Problem soll ja schon seit der HD 4000er Serie (oder noch länger?) bestehen. Bestes Beispiel: Eine HD 7950 mit 925 MHz ist nur rund 5% langsamer als eine HD 7970 mit 925 MHz. Letztere hat aber 15% mehr Einheiten. Falls eine HD 8970 mit 2560 Einheiten kommen würde, würde die bei selbem Takt auch nur rund 10 bis 15% schneller sein. Das Hauptproblem bleibt aber dann weiter Bestehen: Tahiti XT2 verbraucht bei 1,05 GHz rund 230 bis 250 Watt in Games (Mal mehr, mal weniger, Spannungsabhängig) -> Mehr Takt ist da sogut wie nicht möglich.

Klar hat sich die Fertigung weiter verbessert, aber alle "updates" wie die 7970 GHz Ed., die 7950 Boost und die 7870 Boost brauchen deutlich mehr Leistung als vergleichbare nVidia Produkte. (Die neue 7870 verbraucht mehr als die normale HD 7970!)


Zu GK110:
Schön und gut, GK104 besitzt eine mehr als doppelt so hohe Rechenleistung wie GF110. Ist jetzt Gk104 auch doppelt so schnell wie dieser? Eher nicht;) Dazu darf man z.B. nicht andere Einheiten wie die ROPs vergessen. Interessant: In der aktuellen PCG (100 VGAs im Test) ist in einem Benchmark zu Fear (2005) vor allem die ROP-Leistung und Bandbreite entscheident: Die GTX 680 ist da ganze 6% schneller als die GTX 580. GK110 wird im Vollausbau sicherlich 48 ROPs bekommen, was ja auch wieder 50% mehr als bei GK104 ist.


Ich bleibe weiterhin dabei: Die HD 8970 wird es "nur" mit der GTX 770 (GK110 (13/14 SMX) aufnehmen können, GK110 wird einfach zu stark (Und nein, die Karte wird unter 250 Watt Realverbrauch bleiben). Rechnungen und Theorien schön und gut, die Realität ist da doch meistens etwas anders.
 
Der Vorteil bei GK110 ist, es ist und bleibt Kepler ohne groß was anderes zu sein. Das lässt ziemlich einfach und effektiv spekulieren, weil die große Unbekannte in Form der unbekannten Architekturänderungen völlig außen vor bleibt ;)

Mit den ROPs irrst du übrigens. Auch wenn es 48 werden, was nicht unbedingt fix sein muss, steht es dort dann aber immernoch ~800MHz (spekuliert) vs. ~1,1GHz im idR fast immer anliegenden Turbo beim GK104. ;) Die Pixelfüllrate an der Stelle steigt nicht extrem. Das lässt sich bequem errechnen. Und die ROP Leistung ist auch heute eher weniger der limitierende Faktor. Vor allem in Zeiten, wo echtes AA immer mehr Mangelware wird ;)
Es lässt sich so ziemlich alles fast 1:1 zwischen Anzahl der Einheit und dessen Takt errechnen. Dazu zählen unter anderem die ROPs, die Bandbreite, die TMUs, TAUs, die ALUs usw.

GK110 wird den massiven Mehrausbau der Einheiten einfach durch den mauen Takt einbüßen. Rein für die ALU Effizienz und den Bereich GPGPU ist dies durchaus sinnvoll. Da dort eben die Effizienz mehr bedeutet als die absolute Leistung selbst. Für den Gamer ansich ist dies aber nicht primär der wichtigste Part. Ob das Teil nun 10% mehr oder weniger verbraucht, spielt idR weniger die Entscheidende Rolle, solange die Leistung passt.

Und mit GK104 hat NV aktuell ein Stein im Brett, was laut Name ursprünglich mal die Mittelklasse sein sollte, aber nach ganz oben gedrückt wurde...
Spielt man das Spiel mal weiter. Die K5000 Quadro auf GK104 Basis schaut von den Werten genau so aus, wie GK104 ggf. ursprünglich mal für den Gamermarkt angedacht war. (zumindest decken sich deren Spezifikationen in etwa mit den damaligen Spekulationen aus dem 3dcenter)
Auch auffallend ist, GK104 in der K5000 macht von den Werten her ca. die Performance einer GF110 im Vollausbau, wenn man mal das Bandbreitenproblem etwas ausklammert. Das sind ziemlich genau ~30% unter der GTX 680. Genau diese 30%, was die 680er heute im Schnitt auf ne 580er drauf packt. Ein gut plazierter GK100 (den es ja nun nicht gibt/gab) mit ~65-75% mehr Power und ähnlichen Taktregionen wäre da als würdiges HighEnd Modell anständig aufgestellt.
Nun siehts aber so aus, das von dem Vorsprung eben schon ~30% für den aktuellen GK104 Topausbau weggefressen werden. Da bleibt schlicht nur wenig Luft.

Selbst mit den theoretisch 88% Mehrleistung im GK110 Vollausbau (15 SMX) bei 700MHz (wie K5000) liegt die Geforce GK104 schon mit ~50% nahe dran. (1050MHz Basis Tubro, und schon ~57% mit 1,1GHz idR immer anliegendem Turbo)
Es hilft alles nix. Gk104 ist irgendwie zu gut aktuell. Das wird NV auf die Füße fallen...

Und was die AMD Spekulationen angeht. Sicher, der Spaß skaliert nicht unbedingt 100% mit der Einheitenanzahl... Aber es kommt alles zusammen. Wie gesagt, Tahiti XT/Pro ist genau so GCN wie die neue Venus XT. Es ist eher unwarscheinlich, das die Effizienz der ALUs deutlich abnimmt.
Tahiti LE ist gegen Pitcairn XT mit guten ~10% ziemlich genau dort aufgestellt, wie man direkt aus den Werten errechnen kann. Und dabei ist Pitcairn ein Vertreter von wenig ALUs bei viel Takt, und die Tahiti LE ein Vertreter von mehr ALUs bei weniger Takt. Man kann dazu genau so mit underclocking nen Tahiti XT soweit runter drücken, das er theoretisch die Leistung von Pitcairn XT erreicht und es wird in der Praxis auch recht analog dazu laufen.
Ich spreche ja hier nicht von Welten unterschied. ;)
Die Spekulierten 2560 ALUs mit 1050MHz (1100MHz Boost) wären knappe 30% mehr Leistung als Tahiti XT als GHz Edition. Gemessen an den Werten von den kleineren Modellen und den Takt/ALU Rechenbeispielen sollte das fast analog skalieren. Ändert man an der Effizienz zugunsten von Venus XT/Pro nochmal minimal etwas, wären diese ~30% sicher zu halten am Ende...

EDIT: und bekanntermaßen packt AMD bei den Tahiti Modellen viel Spannung drauf. Das muss nicht so bleiben mit dem Nachfolger. Tahiti XT non Ghz schluckt ~60% mehr Strom als Pitcairn XT laut ht4u.net Messung. Bei ~30% mehr Leistung.
Geht man da mal nur von ner rechnerisch einfachen 1:1 Skalierung zwischen Mittel und HighEnd Klasse aus (was so wohl nicht zutreffen wird) wäre Tahiti XT im Grunde eher im Bereich ~170W zu finden. (heute sinds ~210W)
Die HD8870 GPU soll mit 160W TDP nochmals ~8,5% drunter ansetzen. Real wären das dann ~118W. Bleiben fast 100% Luft für den Venus Vollausbau um gerade mal auf Tahiti XT Niveau zu liegen. Wenn da nicht mindestens ~70% bei rumkommen zur HD7870 (was ~1,3 Tahiti XT x 1,3 für Venus XT wären) weis ich auch nicht mehr... ;)
 
Zuletzt bearbeitet:
Wenn NV zuerst kommt, muss GK110 so hoch plaziert werden, das AMD zu tun hat, die Performance zu erreichen. (analog zum G80, bzw. RV870 damals)
Nach den aktuellen Spekulationen über die Mittelklasse 8000er AMD Karten befürchte ich aber, das der Performancezuwachs beim AMD Topmodell mehr wie nur ein paar wenige Prozent sein werden. Sprich min. 14 SMX + hoher Basistakt (~800-850MHz) + scharfem Turbo und ne TDP von ~240-250W wären das Resultat. Ggf. dann sich die "Arbeit" über den Preis zurück holen beim Topmodell (so ala 7800 GTX 512MB Edition). Und die GTX 770 als 13 SMX Version mit ner ganzen Ecke weniger Takt für die Resteverwertung nutzen. Bzw. für die K20 Modelle.

Sag mal: Das AMD nach oben nicht skaliert, hast du bis heute nicht verstanden? :hmm:
Hoher Takt ist toll für Chips, deren Transistorenanzahl um die 3,5 Mrd. liegen. Viel Spass, wenn dein High-End Chip aber mehr in Richtung 5 Mrd. geht.

Bei AMD ist die Lage wohl etwas anders, man baut mit den 7900er GPUs ein grundsolides Produkt, was in mehreren Bereichen abgestellt ist. Kann gute Chips von schlechten trennen und die in die jeweiligen Märkte kippen. Und auch rein Leistungstechnisch sind die Karten gut aufgestellt. Sieht man mal direkt von K20 DP Performance etwas ab, bleiben immernoch genügend andere Märkte, die man sehr gut dasteht, rein auf die Leistung bezogen. Erst wenn NV hier den Dampfhammer rauspackt, wie K20 mit der DP Performance, wäre man wirklich gezwungen da zu handeln. Und säße dabei sogar noch in der komfortableren Position als zweiter die Taktraten am Konkurenten anzupassen, wie es NV seit GF100 auch tut.

7900 verlor im Desktopmarkt, im Quadro-Markt (lol gegen Fermi) und spielt im HPC Markt keine Rolle. Ja, das ist "ein grundsolides Produkt, was in mehreren Bereichen abgestellt ist". :rofl:

GK110 ist kein Dampfhammer, sondern die Verwirklichung einer Design-Strategie, wo nicht der Prozess limitiert sondern der Stromverbrauch. GK110 bietet ein 50% besseres Perf/Watt Verhältnis bei theoretischen Werten und ist sogar schneller als zwei Tahiti-Chips in praktischen Anwendungen bei weniger Strom.

Man muss schon sehr viel Phantasie aufbringen, um zu behaupten, dass nVidia den Dampfhammer schon rausgebracht hätte. Würde sie das tun, dann würden sie AMD überrollen.
 
und du kannst uns sicher auch erklären, was die Transistoranzahl mit der Taktrate zu tun hat!? Nur zur Info, Tahiti LE besteht aus mehr wie 3,5Mrd Transistoren. Und skaliert wunderbar mit dem Takt ;) Was so einige OC Reviews beweisen.
Irgendwie macht es den Eindruck, als hast du so gar keine Ahnung, was du da von dir gibst... Aber das ist ja nix neues, hauptsache NV im Avatar ;)

Achso, nicht vergessen. Tahiti ist aktuell schneller wie GK104... Tahiti ist als Workstation Karte immernoch in der Lage K5000 Kepler in die Schranken zu weisen und das teils deutlich, wenn die Anwendung anständig mit AMD Hardware läuft. Geht man in den GPGPU Bereich mit so einer Karte, sogar massivst.
K20 ist ein tolles Produkt, leider nur stand heute schlichtweg nicht für Grafikanwendungen geschaffen. Was also trollst du hier bitte rum!?

Und 50% besseres Performance/Watt verhältnis? Woher stammen die Zahlen? Und unter welchen Bedinungen?
In Games? Sicher nicht ;) und um nichts anderes geht es hier.

EDIT aber sontin weis es ja sowieso besser, ich sag nur 60% Performancezuwachs für GK104 auf GF110 ;) Da wart ich bis heute drauf :fresse:

EDIT2: ließ mal ein paar AMD Reviews, ich weis, wirst du nicht tun, passt nicht in dein Ego, aber die bescheinigen komischerweise ne recht lineare Skalierung der HD7970. Je nach Game und Restsystem. Was also willst du uns mit der Aussage von wegen hoher Takt ist toll für 3,5Mrd Chips sagen? Außer das sie zweifelsfrei absoluter quatsch ist?
http://extreme.pcgameshardware.de/g...ste-radeon-hd-7970-im-custom-design.html#A010
kannst du mal schnuppern, wie man mit über 4Mrd Transistoren auch bei hohem Takt gute OC Skalierung bekommt.
 
Zuletzt bearbeitet:
und du kannst uns sicher auch erklären, was die Transistoranzahl mit der Taktrate zu tun hat!? Nur zur Info, Tahiti LE besteht aus mehr wie 3,5Mrd Transistoren. Und skaliert wunderbar mit dem Takt ;) Was so einige OC Reviews beweisen.
Irgendwie macht es den Eindruck, als hast du so gar keine Ahnung, was du da von dir gibst... Aber das ist ja nix neues, hauptsache NV im Avatar ;)

Yeah, ist das nicht der Chip, der auf Karten den selben Stromverbrauch hat wie die 7970, dabei aber weniger Leistung bietet?
Muss ein Wunderwerk der heutigen Technik sein. :sick:

Achso, nicht vergessen. Tahiti ist aktuell schneller wie GK104...

... bei erheblich mehr Stromverbrauch durch eine Taktrate von 1050MHz. Bei 925MHz und 20 Watt mehr Verbrauch ist man dagegen langsamer und gewinnt nur dank der höhreren Bandbreite in einigen Titeln.

Tahiti ist als Workstation Karte immernoch in der Lage K5000 Kepler in die Schranken zu weisen und das teils deutlich, wenn die Anwendung anständig mit AMD Hardware läuft. Geht man in den GPGPU Bereich mit so einer Karte, sogar massivst.

Es gibt keinen Test der K5000. Abgesehen davon ist K5000 auch nicht die Konkurrenz zu Tahiti. Mit 122 Watt ist man Welten unter AMD. Und AMD verliert massiv, wenn es um Geometrieleistung geht. GPGPU ist eben im Workstationmarkt nicht alles. Konkurrenz ist nämlich...

K20 ist ein tolles Produkt, leider nur stand heute schlichtweg nicht für Grafikanwendungen geschaffen. Was also trollst du hier bitte rum!?

Interessante Aussage. K20 bietet 15% mehr Texturleistung und >2x die Geometrieleistung von W9000. Hm, irgendwie scheinst du keine Ahnung zu haben. "Was also trollst du hier bitte rum!?"

Und 50% besseres Performance/Watt verhältnis? Woher stammen die Zahlen? Und unter welchen Bedinungen?
In Games? Sicher nicht ;) und um nichts anderes geht es hier.

EDIT aber sontin weis es ja sowieso besser, ich sag nur 60% Performancezuwachs für GK104 auf GF110 ;) Da wart ich bis heute drauf :fresse:

Risen 2, Farcry 3, Dirt:Showdown. Überall wo nicht Bandbreite limitiert, ist die GTX680 an die 60% schneller. Und schlägt sogar Tahiti. Aber Tahiti ist eben überall so gut, selbst wenn man nur 2. ist - von 2. :banana:

EDIT2: ließ mal ein paar AMD Reviews, ich weis, wirst du nicht tun, passt nicht in dein Ego, aber die bescheinigen komischerweise ne recht lineare Skalierung der HD7970. Je nach Game und Restsystem. Was also willst du uns mit der Aussage von wegen hoher Takt ist toll für 3,5Mrd Chips sagen? Außer das sie zweifelsfrei absoluter quatsch ist?
[Review] Sapphire Radeon HD 7970 Dual-X OC-Edition im PCGHX-Check - Die aktuell beste Radeon HD 7970 im Custom-Design!?
kannst du mal schnuppern, wie man mit über 4Mrd Transistoren auch bei hohem Takt gute OC Skalierung bekommt.

Cool story bro. Freu mich schon auf die 350 Watt Monster von AMD, um gegen nVidia mithalten zu können. :fresse:
 
K20 ist ein tolles Produkt, leider nur stand heute schlichtweg nicht für Grafikanwendungen geschaffen. .

Wie kann man denn bereits Stand Heute zu solch einem Fazit kommen,wenn noch niemand ein Quadro,oder Geforce System basierend auf GK110 zu Gesicht bekommen hat?

Ich würde bei der Leistungsentfaltung des Teslas eher behaupten,das es die 8er Radeon schwer haben wird,gegen einen Chip dieser Größe zu bestehen,da der GK110 auf mehr Recourcen zurückgreifen kann,wie das architektonisch ausgereizte Radeon Design

Bedenke immer noch das GK104 nicht das obere Ende darstellt was an Chipfläche für Kepler geplant ist u war.Zum weiteren ist dieser von der Spannung her fest gepinnt,sonst sehe es bereits jetzt zappen duster aus.

EVGA_Classified.jpg
Warum man den großen Chip erstmal anderen Projekten zugeteilt hat,liegt angesichts der Gewinnerwartungen für seinen ersten Einsatzzweck nun ja ganz klar auf der Hand
 
Zuletzt bearbeitet:
GK 110 wird deine erwartungen niemals erfüllen.

Ich habe nirgendwo Erwartungen gepostet,nur das offen gelegt was bereits der "Kleine" kann,wenn man die Zügel so lockern würde wie bei AMDs GHZ Modell

Und da ist nichtmal der Bandbreitenvorteil mit reingerechnet den der Große Chip mit seinem aufgebohrten SI dann selbstredend bieten wird
 
Zuletzt bearbeitet:
Intel im diskreten Grafikkartenmarkt bzw in dem Leistungsbereich von dem hier die Rede ist?

Bei GPGPU würde da mit Xeon Phi ja noch n Schuh draus
 
Selbst Ailuros wurde eine 7970 kaufen bei dem Preis.(bruno mars young wild and free)
 
Zuletzt bearbeitet:
Also ich sag mal so: ich wär jetzt bereit für diverse GK110 Infos! Auch wenns nur falsche Billiggerüchte sind :) Aber die Bombe muss im März platzen. Ein Jahr lang ist Nvidia auf der 680GTX rumgeritten, das reicht.
 
Yeah, ist das nicht der Chip, der auf Karten den selben Stromverbrauch hat wie die 7970, dabei aber weniger Leistung bietet?
Muss ein Wunderwerk der heutigen Technik sein. :sick:
Jupp, scheint so, zumindest um deine unsinnige Aussage mit der Transistoranzahl im direkten Abhänigkeitsverhältnis zur Taktskalierung zu entkräften reicht es vollkommen aus ;)

Es gibt keinen Test der K5000. Abgesehen davon ist K5000 auch nicht die Konkurrenz zu Tahiti. Mit 122 Watt ist man Welten unter AMD. Und AMD verliert massiv, wenn es um Geometrieleistung geht. GPGPU ist eben im Workstationmarkt nicht alles. Konkurrenz ist nämlich...
Es gibt keine K5000 Tests?
Dann geh in den Laden, kauf dir eine und teste selbst...
K5000 ist genau so Konkurenz zu Tahiti basierten FirePro Karten wie die HD7970 Konkurenz zur GTX 680 ist. K5000 ist als Quadroableger im Moment der aktuellste Workstationableger, den man auf den Markt hat. Ich kann doch nix für, das GK110 auf sich warten lässt in dem Bereich... Also muss er sich dort auch gegen die Konkurenz anstellen.

Interessante Aussage. K20 bietet 15% mehr Texturleistung und >2x die Geometrieleistung von W9000. Hm, irgendwie scheinst du keine Ahnung zu haben. "Was also trollst du hier bitte rum!?"
Dir ist aufgefallen, wie viele Anschlüsse eine aktuelle TESLA!! K20(X) Karte für GPGPU Anwendungen hat?
Kleine Hilfestellung, siehe Bild:
11zswi.jpg

Erzähl uns bitte mehr, wie man diese Leistung einer Karte für Grafikanwendungen! wie Spiele oder diverse Rendertools mit Echtzeitberechnungen nutzt, wenn man an das Teil nichtmal nen Monitor zum simplen Desktopbetrieb anstecken kann...

Freu mich schon auf die 350 Watt Monster von AMD, um gegen nVidia mithalten zu können. :fresse:

Spielt doch keine Rolle wie viel die Teile verbrauchen... Laut aktuellen Gerüchten werden zumindest die kleinen HD88x0 Ableger mit ner TDP von ~160W max. nicht die Stromschleudern, wie du sie gern hättest. Und mit annähernd 4TFlop/s sollen diese auch noch schneller als Tahiti XT aktuell sein.

Wie kann man denn bereits Stand Heute zu solch einem Fazit kommen,wenn noch niemand ein Quadro,oder Geforce System basierend auf GK110 zu Gesicht bekommen hat?

Das kann ich dir genauestens verraten. Ich sprach explizit von K20 als Tesla Ableger... Das macht jeden Vergleich von sontin über Leistungsberechnungen im Quadro/Geforcemarkt hinfällig. ;)
Wie ich mir einen GK110 vorstellen, der im Quadro/Geforce Endkundenmarkt nach den aktuellen Infos aufgestellt sein könnte, habe ich oben mehrfach vorgerechnet ;) Das ändert aber nichts an K20(X) und dessen Ausrichtung rein auf den Markt für "General-purpose computing on graphics processing units".

Ich habe nirgendwo Erwartungen gepostet,nur das offen gelegt was bereits der "Kleine" kann,wenn man die Zügel so lockern würde wie bei AMDs GHZ Modell

Und genau das könnte NV zum Problem werden... GK110 wird man wohl nicht unter Luft mit default 2 Slot Kühlung einfach freien Lauf lassen können, ohne Leistungsaufnahmetechnisch die Grenzen zu überschreiten.
Bei GK104 kann man das in einem gewissen Maße tun.

Wie gesagt, zwischen K5000 als GK104 Ableger mit 700MHz GPU Takt und GK110 im Vollausbau mit ebenso fiktiven 700MHz GPU Takt liegen 88% mehr Leistung.
Eine GTX 680 im aktuellen Stadium (im Bandbreitenlimit sowie unter Badacht der restriktierten Spannung) platziert sich da ziemlich genau mit 50% oberhalt des 700MHz GK104 Modells. Bleiben ~25% Luft bis zum fiktiven 700MHz 15 SMX Vollausbau.
K20X schafft aktuell schafft ziemlich genau 2% weniger mit 14 SMX und 735MHz und wird damit auf 235W eingestuft.

Die Rechenbeispiele sind eigentlich ziemlich eindeutig. GK104 ist aktuell zu gut für diese Welt. GK110 muss da noch was drauf legen. Ob NV das packt, steht auf nem anderen Blatt.
 
Und genau das könnte NV zum Problem werden... GK110 wird man wohl nicht unter Luft mit default 2 Slot Kühlung einfach freien Lauf lassen können, ohne Leistungsaufnahmetechnisch die Grenzen zu überschreiten.

Wenn das für das Geforce/Quadro Derivat des K20 zum Problem werden sollte,wie du annimmst,wie kann es dann sein,das du bei der 8er Radeon diese zu Grunde liegenden Probleme nicht siehst?
Die ja nun unbestritten leistungstechnisch viel näher am Architekturlimit liegt,wie der derzeitige Kepler Chip,ganz gleich ob man nun Ausbaustufe oder thermische Grenzen heranzieht,oder gar beides

Man sollte schon nicht aus dem Auge verlieren,das die Kohlen die man im Ofen nachlegen kann,nicht gleich verteilt sind

Das Kepler auch nicht verlegen ist,einen hohen Takt zu fahren,wenn man ihn denn lässt,zeigt der gepostete Screen

Betrachtet man das nun innerhalb der gesteckten Limits,die zwangsläufig für beide Hersteller gelten,hat die Architektur gute Vorraussetzungen sich dort zu positionieren,wo man sie gern hätte
 
Zuletzt bearbeitet:
Durchaus, aber auch dahingehend habe ich schon was geschrieben. Nach aktuellen Spekulationen soll sich die HD8870 bei knappen ~4TFlop/s einfinden. Das ist mehr wie Tahiti XT als GHz Edition heute bringt. Und laut diesen Spekulationen soll diese GPU eine TDP Einstufung von 160W bekommen.
Das ist sind minimal über 50% des absoluten Maximums der PCIe Spezifikationen für eine Karte (300W)

Auch erwähnte ich bereits, das eine HD8870 mit diesen spekulierten Werten und 160W TDP Einstufung eben noch massiv Luft nach oben lässt, bis man erstmal die Werte von K20 bzw. K20X erreicht. Wenn es AMD schafft, eine derart effizienzte GPU zu bringen, wäre eine ahnlich gute, wenn auch nicht wie ich immer sage, gleiche oder bessere Effizienz, für Venus XT im Vollausbau ebenso möglich.

Bei K20X schaut es aktuell so aus, das 235W TDP laut deiner Meinung (und auch der anderer) auch im Realverbrauch nicht überschritten werden.
Ich gehe somit einher und lege den selben Betrachtungswinkel an K5000 GK104 an. Heist 122W max. Verbrauch. Das wäre eine Steigerung von ~92% mehr maximale Energieaufnahme. Bei einer realen Mehrleistung von Gamerinteressanten 83,75% mehr SP Leistung, die möglich sind.

Wie man sieht, K5000 ist rein auf SP Leistung runtergebrochen etwas effizienter als K20X Tesla.
Übrigens ist eine GTX 680 mit der Einstufung von 195W an der Stelle (wohlwissentlich, das diese idR weniger als 195W benötigt) ebenso ein kleines Stück ineffizienter als K5000. Der hohe Takt und der Turbo mit der fixen (und ich finde recht hohen) Spannung fordert da wohl ihren Tribut.

Nichts destotrotz bleibt nüchtern betrachtet nach aktuellen Gerüchten für den Tahiti XT Nachfolger Venus XT aufbauend auf den Spekulationen zur HD8870 recht viel Luft nach oben. Man bedenke. Bei simpler 1:1 Skalierung wäre das immerhin eine Leistung von 5,79TFlop/s für SP (160W zu 235W = ~46%, 3,94TFlop/s für HD8870 x ~46%)
Die aktuellen Spekulationen mit 2560 ALUs und 1050MHz (1100MHz Boost) liegen mit ~5,38TFlop/s da recht nahe dran und lassen auf eine ähnlich gute Effizienz schließen.

Das ganze nochmal in Kurzen Daten:
Effizienz K5000 zu K20X (SP Leistung/Leistungsaufnahme) = 1:1,0985
Effizienz K5000 zu GTX 680 (SP Leistung/Leistungsaufnahme) = 1:1,1968
Effizienz HD7870 zu HD7970 GHz Edition (SP Leistung/Leistungsaufnahme) = 1:1,675 :fresse: (da gibts definitiv noch Verbesserungspotential ;))
 
Sag mal: Das AMD nach oben nicht skaliert, hast du bis heute nicht verstanden?

Gibt es einen Test der zeigt, dass AMD nicht nach oben skaliert?
Wenn ich mir die HD 7870 im Vergleich zur HD 7970 ansehe, passt die Skalierung doch eigentlich.

PCGH sieht die Karte 30% in ihrem Leistungsindex vor einer HD 7870.

Bei gleichem Takt ist die HD 7970 der HD 7950 in etwa 7% voraus, aus welchem Grund soll die HD 7970 viel schneller sein?
Bandbreite fast gleich, gleiche ROP´s etc..
Die nackte Shaderanzahl ist um 11% höher. Nicht jeder Titel ist extrem Shaderlastig, sondern je nach Szene ist mal die Rasterizerleistung wichtig, mal die BAndbreite oder sonstwas.

Wer behauptet denn noch, dass irgendetwas bei Tahiti limitiert und nicht skalieren soll?
 
Die nackte Shaderanzahl ist um 11% höher
(Klugscheißermodus an) 14% :fresse: 2048 gegenüber 1792^^

Die Frage ist doch weiterhin, wie das bei noch mehr Einheiten aussieht. Möglicherweise kommt da ja immer weniger Leistung bei raus, sodass die 2560 Shader im Endeffekt "sogut" wie gar nichts bringen, bzw. nur noch rund 10% mehr Leistung bei rumkommt.
 
Zuletzt bearbeitet:
neja normal sollte laut Theorie mit stiegender Einheitenzahl die Skalierung immer weiter abflachen. Nur trifft das natürlich auch auf die Konkurenz zu ;) Und bei GCN kann zumindest eine 16fach Vectoreinheit sich gänzlich in "1D" Einheiten verteilen... Weshalb wohl auch überall von 1D EInheiten bei GCN gesprochen wird, obwohl die offiziellen Folien bei AMD explizit 16fach Vector Unit + eine skalar Einheit aufzeigen ;)

Heist also, rein auf die nakte Anzahl runtergebrochen bewegen wir uns bei beiden in einem ähnlichen Rahmen. Eventuell sogar gut mehr für GK110, wenn es da 14 oder 15 SMX werden.


Den Umstand der abflachenden Skalierung bei mehr Einheiten hat übrigens mr.dude schon kurz nach G92/G200 Zeiten hier in irgend nem Thread mal fallen lassen ;)
Und wenn man ganz nüchtern betrachtet, zieht sich das ganze sowohl bei AMD als auch bei NV seit R600/G80 durch. Richtig auffallend aber nun scheint es beim GK104, da er nen größeren Sprung zum Vorgänger GF110 machte rein in der Anzahl. Auch bei AMD gabs da mal so paar Sprünge, wenn die Anzahl der ALUs stärker stieg.

Aber mal schauen was wird.
Ich bin nach wie vor noch nicht 100% von GK110 überzeugt. Mir schwant, das Teil könnte nur 20-30% über GK104 anlaufen. :(
 
Okay 14% da habe ich mich doch arg verrechnet.

Was ist denn jetzt konkret der limitierende Faktor? die ROP´s?
Resterizer Leistung?

Mir schwant, das Teil könnte nur 20-30% über GK104 anlaufen.

Och ich bin da optimistischer und rechne mit 35 bis 40%.
 
Aber mal schauen was wird.
Ich bin nach wie vor noch nicht 100% von GK110 überzeugt. Mir schwant, das Teil könnte nur 20-30% über GK104 anlaufen. :(

Naja, wenigstens kannst du dann ja auch nur Positiv überrascht werden:fresse:



Ich gehe mal von +45% aus, ja ich weiß, vllt etwas "übertrieben" allerdings bleibe ich dabei:P

(Stark vereinfacht)
GK110 (15SMX) gegenüber GK104 (8SMX) (100%):
Einheiten: 2880 Shader (+87,5%)
Bandbreite: 288GB/s (+50%)
Takt: ~850 MHz (-24%/ GK104 hat rund 32% mehr Takt)
Mir scheint da, dass auch ein voller GK110 mit 850 MHz wohl recht monströs performen könnte:fresse:, die Frage ist weiterhin: Wird so einer direkt am Anfang kommen?^

HD 8970 vs 7970 GHz Ed. (100%):
Einheiten: 2560 (+25%)
Bandbreite: warscheinlich weiterhin bei 288GB/s (+0%)
Takt: ~1050 MHz, vllt auch mehr (+0/X)
Und ein paar weitere Verbesserungen
Aber: Um erlich zu sein... wenn die HD 8970 wirklich so kommen sollte...
 
Zuletzt bearbeitet:
Eigentlich reicht es doch, wenn AMD die HD 8970 ca 20 bis 25% vor die Gigahertz HD 7970 setzt.
Was will Nvidia schon noch groß reißen? Man liegt dann in etwa 30 bis 35% vor einer GTX 680.
Wenn Nvidia jetzt 40% auf die GTX 680 draufpackt, was denke ich realistisch ist, dann endet Nvidia bei etwa 5 bis 7% Vorsprung zur HD 8970, also noch weniger Vorsprung wie der GTX 680 zur HD 7970.

Ich denke ja mal, dass die HD 8970 auch sogar mit 1150 mhz takten könnte.
Ich hab mir erst vor kurzem ne ganz frische HD 7970 DCII geholt und die geht ohen Spannungserhöhung auf satte 1120 mhz hoch, von 925^^ stabil unter Crysis Warhead, da geht einem ja das Herz auf.
 
Ich hab mir erst vor kurzem ne ganz frische HD 7970 DCII geholt und die geht ohen Spannungserhöhung auf satte 1120 mhz hoch, von 925^^ stabil unter Crysis Warhead, da geht einem ja das Herz auf.
Nice^^ (meine alte GTX 680(März) taktet auch mit stand. Spannung auf 1241MHz, mit 1,212V sind etwa 1333MHz stabil ->Referenzkarte und Kühler:fresse:


Naja, bei mir kommen allerdings eher ~30% gegenüber der GTX 680 raus (1,25x1,05=1,3125:)), lassen wir die HD 8970 dann rund 35% vor einer GTX 680 liegen. Ist im Endeffekt aber auch egal. ich gehe wieder von einer Situation wie GTX 480/HD 5870 und GTX 580/HD 6970 aus, also jeweils rund 15% Vorsprung für die Geforce gegenüber der Radeon:d
 
Zuletzt bearbeitet:
Ich denke mal, das größte "Problem" an der Sache dürfte die starre Implemenation der ganzen Front-End Sachen sein. Bei GF100/110 sowie GK104 wohl auch GK110 ist dies nicht der Fall. Da sind bestimmte Einheiten zu Clustern zusammen gefasst, wärend jeweils diese Cluster mit einem kleinen Stück des gesamten Front-Ends gepaart sind.
Bei AMD läuft das aktuell etwas anders... Da gibts ein Stück Front-End. Und dahinter reiht sich der Rest, wenn man so will. Egal wie "groß" nun der Rest auch ist.

Ob sich das bei Venus XT nun ändert, steht in den Sternen aktuell ;) Ggf. sehen wir da aber ne Änderung. AMD macht sowas ja oftmals etapenweise.
Das Tahiti Front-End ähnelt wohl recht stark dem Cayman Front-End. Wurde aber an einigen Stellen aufgepumpt. Dennoch hat man die ganzen ALUs völlig anders "organisiert".

GK110 hätte hier sicher den Vorteil...

Die große Preisfrage ist halt, ob es nur daran liegt!?
Denn wenn man sich anschaut, AMD hat mit Tahiti XT non Ghz seit Release der letzten paar Treiber ziemlich Boden gut gemacht. Und das ohne architektonische Änderungen ;)
Wärend im Releaseartikel von CB der 680er diese noch ca. 1-9% vor Tahiti XT lag. Sind im aktuellen Bench zumindest die Vorzeichen anders ;)
Und wie ich gerade sehe, die verwenden da OCed Modelle. Sprich Tahiti XT als GHz Edition + Boost um 5%. Und OCed 680 um "schlappe" 11% + Boost auf 17% sowie Memory um 10%.
Und dennoch schlägt eine Tahiti die 680er um ~15% im SingleScreenSetup. Den GHz Bonus durch den hohen Takt muss man freilich noch abziehen... Aber die Vorzeichen bleiben gleich. Und das obwohl die 680er auch OCed sind (sogar mehr im Verhältnis)

Ich will den Test nun zwar nicht auf die Goldwage legen, weil es eben kein 100% vergleichbares Ergebnis ist, zeigt aber schon, das man da durchaus dran was arbeitet.

(Stark vereinfacht)
GK110 (15SMX) gegenüber GK104 (8SMX) (100%):
Einheiten: 2880 Shader (+87,5%)
Bandbreite: 288GB/s (+50%)
Takt: ~850 MHz (-24%/ GK104 hat rund 32% mehr Takt)
Mir scheint da, dass auch ein voller GK110 mit 850 MHz wohl recht monströs performen könnte:fresse:, die Frage ist weiterhin: Wird so einer direkt am Anfang kommen?^

... und ohne berücksichtigung der Leistungsaufnahme ;)
Wie angesprochen K20 bzw. K20X ist aus dem Sack, daran kann man anfangen zu messen. 14 SMX bei 735MHz ergeben maximale 235W.
Das wären ~15,6% mehr Leistungsaufnahme allein durch den Takt. Und den 15. SMX gibts auch nicht umsonst ;)
Rein rechnerisch wärst du bei dem Takt schon bei ~270W. Und Takt skaliert zur Leistungsaufnahme schlicht linear ;) Bestenfalls kannst du hier mit niedrigerer Spannung punkten. Aber ich behaupte, K20 sowie K20X werden an der Stelle nicht Luft ohne Ende lassen. Vllt ein bisschen, wie scully sagte um tage/wochenlange GPGPU Volllast auszuhalten. Aber da machst du mal nicht einfach so ~50W gut.
Um diese ~15,6% auszugleichen müsstest du die Spannung um ganz grob gesagt 7,5% senken. Rechne mal wie viel das schon wären bei fiktiven 1,1-1,2V auf der GPU. -> da benötigt es schon annähernd 0,08V weniger.

Nice^^ (meine alte GTX 680(März) taktet auch mit stand. Spannung auf 1241MHz, mit 1,212V sind etwa 1333MHz stabil ->Referenzkarte und Kühler:fresse:

Naja, bei mir kommen allerdings eher ~30% gegenüber der GTX 680 raus (1,25x1,05=1,3125:)), lassen wir die HD 8970 dann rund 35% vor einer GTX 680 liegen. Ist im Endeffekt aber auch egal. ich gehe wieder von einer Situation wie GTX 480/HD 5870 und GTX 580/HD 6970 aus, also jeweils rund 15% Vorsprung für die Geforce gegenüber der Radeon:d

Ich schaffe mit beiden Zotac übrigens 1294MHz rockstabil mit default Boostspannung von 1,175V über mehrere Tage Dauervolllast. Ich habe den VRAM aber nur um ~10% angehoben, könnte also durchaus sein, das mit steigendem VRAM Takt, also weniger anliegendem Bandbreitenlimit da mehr Instabilität rein kommt. Aber das mir wumpe. Es läuft so seit dem ersten Tag und wird so laufen, bis die Karten rausfliegen :fresse:

PS: vergiss bei deinem Venus XT Einschätzung bitte nicht, das aktuell eine Tahiti XT GHz Edition gut und gerne ~15% über einer 680er siedelt (und laut dem CB Test wie gesagt, war das sogar ein 680er OC Modell). Ich kann es nur immer wieder erwähnen ;) Ihr fallt sonst auf die Nase, wenn die Katze das Teil aus dem Sack lässt :fresse:
Oder eben ich ;)
Heute 15%, Morgen 35% mit der neuen, wäre eine Steigerung von gerade mal ~17% zwischen Tahiti XT Ghz vs. Venus XT. Das ist recht mager, wenn man bedenkt, das allein der Takt um ~10% im Boostmodus steigt.

EDIT: auch ht4u.net messen im neuesten Test 2% zugunsten der non GHz Tahiti auf die 680er in FullHD sowie ganze 9% in 2560*1440. Die GHz Edition liegt 12 respektive 18% vorn.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh