nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Also englisch ausgesprochen finde ich Titan schon geil. Mächtiger als so ne blöde Nummer :d

Finde ich überhaupt nicht. "Titan" und? Aber Geforce GTX 780! Die 80 steht eben schon seit Jahren für das maximal mögliche (zumindest ich assoziiere damit immer das Topmodell, wie bei AMD eben die X870 oder X970), egal ob 8800, 280, 480 oder 580 (680 mal außen vor). Ich sehe keinen grund, wieso man schon jetzt vom gewöhnlichen Namensschema abweichen sollte. Das kann man machen, wenn man die 980 vergeben hat :d
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ach Zahlen, ich weiß ja nicht. Die heftigsten Karten heißen auch Ares oder Mars oder Devil, das ist doch auch cool. Sowas find ich einprägsamer irgendwie.
 
Macht lieber was sinnvolleres und zieht euch Crysis 3 in der Beta rein ein Hardwarehunger der Bände sprechen wird.
Gerade kurz angemacht wenn meine kleine im Bett ist wird mal richtig gecheckt.
Ich sage nur eins kein häslicher Grainfilter und 8Fach MSAA möglich also supersampling läst grüssen das prob wird sein auf sehr hoch ohne msaa schon sehr hart für die Grakas.
Gut ein paar Treiber werden da vielleicht noch was raus reisen.
Wunderschöne Texturen im Vergleich zu Teil2.
Selbst crys1 mit Mods hält da glaube ich nicht mit habe zu kurz rein geschaut auf jeden Fall wird das gekauft.
 
Zuletzt bearbeitet:
ich fände das als Sonder-Version wg. dem Supercomputer "TITAN" schon ganz nett.. aber ich könnte auch mit "GTX 780 Ultra" leben.. ^^
Aber gar nicht mit 780 TI. :d
 
Ach Zahlen, ich weiß ja nicht. Die heftigsten Karten heißen auch Ares oder Mars oder Devil, das ist doch auch cool. Sowas find ich einprägsamer irgendwie.

Naja, ist wohl geschmackssache. Ich werde mir bei solchen Preisen aber wohl eher ne zweite GTX 680 kaufen. Beide zusammen + etwas OC sollten auch einen GK110 in meinen Settings recht alt aussehen lassen. Und dann noch das "neue" smooth Vsync- einfach traumnhaft:d AUßerdem komme ich da doch deutlich günstiger weg. Alles über 650€ betrachte ich als zu viel.

ich fände das als Sonder-Version wg. dem Supercomputer "TITAN" schon ganz nett.. aber ich könnte auch mit "GTX 780 Ultra" leben.. ^^
Damit könnte ich auch noch gut leben, damit wird man eben an die 8800GTX Ultra erinnert, was aber nur passen würde, falls die auch kreise um AMDs Topmodell drehen würde :d
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

aber keine Serienprodukte
das Ding heisst 780 und vielleicht gibts ne Titan nebenher, weil NV vielleicht mal ne Referenz Ares/Mars/Lightning whatever bringen will..

imho aber Käse... Sweclockers sagen Titan und alle fressens
wtf is bitte Sweclockers
machen wirs doch auch
HwLuxx Germany sagt einfach das Ding heisst Krautroxxor und dann basteln wir noch einen GPU-Z Screen und fertig..
 
Zuletzt bearbeitet:
Finde ich überhaupt nicht. "Titan" und? Aber Geforce GTX 780! Die 80 steht eben schon seit Jahren für das maximal mögliche (zumindest ich assoziiere damit immer das Topmodell, wie bei AMD eben die X870 oder X970), egal ob 8800, 280, 480 oder 580 (680 mal außen vor). Ich sehe keinen grund, wieso man schon jetzt vom gewöhnlichen Namensschema abweichen sollte. Das kann man machen, wenn man die 980 vergeben hat :d
Evtl. will man mit dem Namen einfach deutlich machen, dass das halt ne Karte mit einem anderen Chip ist. Wenn man die einfach in die anderen GK104 Modelle einordnet, wäre das auch nicht logisch. Ein Name wie Titan lässt sich letztlich auch einfach vermarkten bei der Masse. Aber da könnte man halt zurecht einwänden, dass die Karte eher nicht für die Masse ist. Letztlich kann uns der Name doch eh egal sein, der Inhalt zählt.
 
Zuletzt bearbeitet:
Auch wenn das Teil nicht Titan heißt, hoffentlich kommen wir mal auf mehr als 10-30% mehr Leistung gegenüber der 680. Nicht wieder so eine mickrige Billigkarte nach einem ganzen Jahr!!! Wenn das Teil aber wirklich nur 10-30% mehr Leistung bietet, dann hat es nicht Titan zu heißen und schon gar nicht über 500€ zu kosten!!! Die werden die Preise der 680 auf saubere 350-400 drücken und die 780 für 500 bis maximal 550 verkaufen. Dann könnten wir das Titanthema vergessen. Wäre auch ok, mit mehr kann man heutzutage ja gar nicht mehr rechnen.

So ein teures Titanmonster mit mindestens 50%+ wäre ne Überraschung!
 
Evtl. will man mit dem Namen einfach deutlich machen, dass das halt ne Karte mit einem anderen Chip ist. Wenn man die einfach in die anderen GK104 Modelle einordnet, wäre das auch nicht logisch. Ein Name wie Titan lässt sich letztlich auch einfach vermarkten bei der Masse. Aber da könnte man halt zurecht einwänden, dass die Karte eher nicht für die Masse ist. Letztlich kann uns der Name doch eh egal sein, der Inhalt zählt.

Wieso? GK104 würde dann endlich dahin wandern, wo der Chip auch hingehört: In den Performance-Bereich. Erst mit einem GK110 hätte man die für nVidia Typische Anordnung wieder, wie sie seit Jahren bestand hat. Und ich glaube, dass sich der Name GTX 780 deutlich besser vermarkten lassen würde, als GTX Titan. Ich meine, wie viele Leute kennen schon diesen Super-Computer? Selbst der großteil der potentiellen GK110 besitzer wird wohl sogut wie kaum etwas davon gehört haben...

Die GTX 680 und die ganze GTX 600er Reihe ist ja das, was eigentlich total unüblich für Nvidia ist, nicht, dass ein Monsterchip das absolute High-End darstellt.
 
Zuletzt bearbeitet:
habe mir nach dem Essen mal die letzten Seiten durchgelesen. Hätte ich den Magen nicht schon voll, wäre Popcorn ideal gewesen.

Gehen wir mal davon aus der Typ bekommt wirklich ne GTX zugesteckt.
GTX und Titan laut Boxleitner sind 2 verschiedene paar Schuhe. - ok.
Titan heißt 100% Titan..auch - ok
Da er die Karte noch nicht hat und auf das hört was ihm bislang erzählt wurde scheinen sich manche Dinge zu decken..Aber das kann er genauso aus dem Netz haben wie wir. - egal erstmal

GTX 680=GK104=100%=490 Euro
GTX 780=?=?%=? Euro
GTX Titan=GK110=?%=? Euro

Da man sich auf die Releasepreise der alten Gen konzentriert und den entsprechenden Leistungsgewinn in % auf den Preis addiert
Ich nutze jetzt mal seine Angaben

GTX 680=GK104=100%=490 Euro
GTX 780=?=118%= 578,- Euro
GTX Titan=GK110=155 bis 160%= 759,50 bis 784,- Euro

Titan im Idealfall und Ausnahmezustand nochmals paar % oben drauf die aber nicht im Preis kalkuliert sind...wohl Benchviagra

kleine Rückrechnung:
GTX680 = 100%=490,-€
GTX690 gleich GTX680SLI gleich GTX680+80%(skalierung) gleich 180% = 882,-€ (reell waren es aber etwas über 1000,-€, ob GTX680SLI oder GTX690)
Titan gleich 160%
ziehe ich jetzt die 20% Leistungsdifferenz=Preisunterschied ab komme ich aber nur auf 705,60 was wohl auf die Skalierung ungleich tatsächlicher Kosten zurück zu führen ist. .
gehe ich von den etwa 980,-€ einer 690 aus landen wir bei den Vorrausgesagten 784,-€ bei 160%


Zack..morgen lesen wir überall die TITAN ist nur 20% langsamer in 1080p als die 690 mit deutlichen Vorzügen einer Singlecard und mächtiger Bandbreite.
In Enthusiastischen Einstellungen kann man davon ausgehen .... weiter lesen :d

€dit:
nächste Gen GTX880
578,-€+25% (fiktiv) -> GTX880 kostet 722,-€ und Titan2 kostet weit über 1200,-€ :lol: .. so macht man Preise
 
Zuletzt bearbeitet:
Gewöhnt euch an die Preise. 20nm wird noch viel beschissener. Und boxleitnerb hat seine Infos nicht aus dem Netz. ;)
 
Und boxleitnerb hat seine Infos nicht aus dem Netz. ;)

Und kann sie dennoch mit Quellen nicht beweisen und bleiben somit weiterhin Gerüchte;)


Und nein, ich gewöhne mich nicht und akzeptiere nicht die Preise, auch bei 20nm, bzw. rechtfertige ich die einfach nicht. Ein "Titan" würde mit 800-900€ (1600-180DM) somit alles sprengen (Preismäßig), was das letzte Jahrzehnt herausgebracht wurde, ohne aber solch ein dickes Performance-Plus zu haben... Selbst 8800 Ultra oder auch die alten High-End Karten haben nicht soviel gekostet.

In meinen Augen hat nvidia bei solchen Preisen einfach nur einen an der Waffel. Das schlimme ist ja, dass nVidia solche Preise nichtmal verlangen müsste, siehe AMDs Karten... Nun gut, dass ich nicht gezwungen werde, solche Preise zu zahlen. Eigentlich kann man nur hoffen, dass die Nachfrage so gering bleibt, dass die die Preise senken müssen. Wird aber wohl leider nicht passieren ->letzte hoffnung liegt bei AMD...
Ich meine, selbst Ailuros aus'm 3DCenter hat ja gesagt, dass diese Mondpreise einfach nur lächerlich sind...
 
Zuletzt bearbeitet:
Ich muss sagen das mir der Preis recht egal ist, so bis 1000€ geht es noch (für mich) klar. So lange "Titan" mein GTX 580er SLI ablösen und noch ordentlich Leistung drauf haut. Bin ich Happy :)
 
Ich meine, selbst Ailuros aus'm 3DCenter hat ja gesagt, dass diese Mondpreise einfach nur lächerlich sind...

Der Typ hasst nVidia. Natürlich sagt er das. Laut ihm können wir auch alle die GTX680 für unter 300€ kaufen - seit März...

Es werden sich nur die wenigsten eine solche Karte kaufen, wo man für 50% mehr Leistung 100% mehr bezahlen darf. Alleine der Wertverlust wird absurd sein, wenn die 20nm Generation antanzt.
 
Schwachsinn, wie kommst du darauf? Der ist objektiv und hat/hatte selbst schon Nvidia Grafikkarten.
 
Der Typ hasst nVidia. Natürlich sagt er das. Laut ihm können wir auch alle die GTX680 für unter 300€ kaufen - seit März...

Es werden sich nur die wenigsten eine solche Karte kaufen, wo man für 50% mehr Leistung 100% mehr bezahlen darf. Alleine der Wertverlust wird absurd sein, wenn die 20nm Generation antanzt.

So ein Bullshit! Also das war jetzt echt ein Schuss ins Knie. Ja, er mag nicht immer alle korrekten Infos haben, na und? Wir warten immer noch drauf, dass die GTX680 im Schnitt 60% schneller als die GTX580 ist :d
Und mit den Preisen hat er doch absolut Recht. Von einer neuen Generation mit Shrink erwarte ich mindestens 50% besseres Preisleistungsverhältnis. Das hat Nvidia bislang eben nicht gebracht.
 
habe mir nach dem Essen mal die letzten Seiten durchgelesen. Hätte ich den Magen nicht schon voll, wäre Popcorn ideal gewesen.

Gehen wir mal davon aus der Typ bekommt wirklich ne GTX zugesteckt.
GTX und Titan laut Boxleitner sind 2 verschiedene paar Schuhe. - ok.
Titan heißt 100% Titan..auch - ok
Da er die Karte noch nicht hat und auf das hört was ihm bislang erzählt wurde scheinen sich manche Dinge zu decken..Aber das kann er genauso aus dem Netz haben wie wir. - egal erstmal



Da man sich auf die Releasepreise der alten Gen konzentriert und den entsprechenden Leistungsgewinn in % auf den Preis addiert
Ich nutze jetzt mal seine Angaben

GTX 680=GK104=100%=490 Euro
GTX 780=?=118%= 578,- Euro
GTX Titan=GK110=155 bis 160%= 759,50 bis 784,- Euro

Titan im Idealfall und Ausnahmezustand nochmals paar % oben drauf die aber nicht im Preis kalkuliert sind...wohl Benchviagra

kleine Rückrechnung:
GTX680 = 100%=490,-€
GTX690 gleich GTX680SLI gleich GTX680+80%(skalierung) gleich 180% = 882,-€ (reell waren es aber etwas über 1000,-€, ob GTX680SLI oder GTX690)
Titan gleich 160%
ziehe ich jetzt die 20% Leistungsdifferenz=Preisunterschied ab komme ich aber nur auf 705,60 was wohl auf die Skalierung ungleich tatsächlicher Kosten zurück zu führen ist. .
gehe ich von den etwa 980,-€ einer 690 aus landen wir bei den Vorrausgesagten 784,-€ bei 160%


Zack..morgen lesen wir überall die TITAN ist nur 20% langsamer in 1080p als die 690 mit deutlichen Vorzügen einer Singlecard und mächtiger Bandbreite.
In Enthusiastischen Einstellungen kann man davon ausgehen .... weiter lesen :d

€dit:
nächste Gen GTX880
578,-€+25% (fiktiv) -> GTX880 kostet 722,-€ und Titan2 kostet weit über 1200,-€ :lol: .. so macht man Preise

Schönes Rechenbeispiel.

So hab neue Infos. Laut Roadmap von Nvidia kommt der Hub in der die TopEnd Single GPU über der GTX690 liegt mit der 8xx Serie. Wenn man der (leider internen) Präsentation glauben kann kommt auch dann technologisch der wirkliche große Sprung in Richtung Leistungs(Verbrauchs) reduktion durch weitere Absenkung der Versorgungspannung. Und jetzt da Beste: Angestrebt wird das Weihnachtsgeschäft. Aber wer Termine und Nvidia kennt weis dass das höchstwahrscheinlich nix wird. Würde dafür sprechen dass die 7xx Generation wohl eher als interims Lösung zu sehen ist um den Vorsprung zu behalten. Titan wird das Stück dann wohl eher nicht heissen.
 
Zuletzt bearbeitet:
Hm, nicht ganz abwegig.

20nm wird vor Mitte 2014 nicht bereit sein, und es wird ja gemunkelt, dass Maxwell erstmal noch auf 28nm kommt. Wenn das Design fertig ist, könnte man das durchaus auch schon Ende 2013 bringen. Laut Ailuros wäre Maxwell ein größerer Sprung als Fermi auf Kepler. Also von der Architektur her.
 
Ja aber die loben bei Nvidia derzeit exorbitante Prämien aus um den Technologiehub vorzuziehen.
Vom wirtschaftlichen wäre es ja auch ungeschickt mitten im Jahr das Glanzlicht zu setzen.
 
Erstmal Verkleinerung der Strukturbreiten und dann irgendwelche Verbesserungen in der Steilheit der Transistoren und Verringerung der Gatekapazitäten, die in geringeren Versorgungsspannugen und kürzen Umschaltzeiten sich äußeren.
 
Wir sprechen aber immer noch vom 28nm Prozess, oder? Weil 20nm Ende 2013 kann man voll vergessen, da würde ich meinen Rechner drauf verwetten ;)
Inwiefern hat Nvidia denn auf die genannten Dinge Einfluss? Ich dachte, das ist Sache von TMSC. Die haben Design Regeln und daran orientiert man sich.
 
Zuletzt bearbeitet:
GTX680 -> GTX690 +80% aber nur im optimalen Fall !! Laut ihm im Mittel zwischen 70% und 75%
GTX680 +30% - 40% (je nach Anwendung) -> GTX "Titan" +35% -> GTX 690

Die Rechnung ist auch komisch...
Was heist laut ihm? Scheinbar ist er nicht in der Lage, ein SLI voll auszufahren. Ne 690er (genau sowie zwei 680er im SLI) erreicht teilweise 90%+ SLI Skalierung.
Mal ganz davon ab sind 1,3*1,35 schon 1,755... 1,4*1,35 aber schon 1,89...
Das passt irgendwie nicht.

Also nochmal, eine GTX690 setzt sich von einer GTX680 immer mehr ab je höher die Auflösung (bei entsprechender Qualität der Grafik).
Da eine GTX780 (oder Titan) von der Architektur einer GTX680 ähnlicher ist als einem Dual-Keppler ist doch alles logisch und stimmig.

Das stimmt so nicht. Die 690er entfaltet SLI typisch ihr Potential erst, wenn die Leistung auch abgefordert wird.
Und im immer näher rückenden CPU Limit muss man sich diese Leistungsanforderung eben durch Optiksteigernde Features ala AA/AF oder auch riesige Auflösungen sowie 3D bzw. TrippleScreensetups erkaufen.
Das ist seit jeher schon so gewesen...
Nur das zur heutigen Zeit die CPUs nach wie vor wenig bis nichts zulegen über die Jahre, wärend die GPUs im zwei Jahrestakt ca. 80-100% jeweils immer drauf packen.

Und auch die mögliche 780er oder Titan ist von der Architektur nicht ähnlicher einer 680er. Denn die 690er IST ein doppelter GK104. Mit Architektur hat das nix zu tun...

Jup, würde reichen. Damit könnte man so ziehmlich genau (+/-10%) die Performance ermitteln. Ein 800MHz (Base-Takt) GK110 mit 15SMX würde im Schnitt wohl rund 50% flotter als eine GTX 680 (1006MHz) sein. Mit Boost müssten der GK110 mit 900MHz takten, um dese Performance zu erreichen.

Das wird mit 800MHz schon recht schwer... Im Schnitt dürfte man da etwas unter 50% liegen, denke ich. Denn 800MHz bei 15 SMX = ~42% mehr theoretische Mehrleistung. In stark Bandbreitenabhänigigen Titeln kommt man da sicher hin. In eher wengier Bandbreitenabhängigen Titel wird das nicht für 50%+ reichen. Da reine Ausführungseinheiten idR nicht 1:1 mit der Anzahl skalieren. Takt hingegen unter Umständen schon. ;)

Und wie geht das? Die GHz Edition verbrät schon 235W in Spielen, das ist soviel wie die GTX 480! Lass es von mir aus etwas weniger sein durch variierende Testmethoden über die Zeit, aber viel Luft gibts nimmer. Auch ist die Frage, ob man dann nicht bandbreitenlimitiert wäre. Denn wenn die Bandbreite schon der GHz Edition ausgereicht hat, warum hat man dann bei dieser den Speichertakt erhöht? Aus Spass eher nicht denke ich.

Ich behaupte immernoch, das AMD durchaus einen drastischen Effizienzvorteil erziehlen kann.
Siehe HD3870 zu HD4870. Man erreichte durchaus in anfordernden Settings seine 90-100%+. Beide in 55nm, wenn mich nicht alles täuscht. Und erstere in etwa 100W Lastverbrauch, letztere ca. 130W...
Sowas geht also durchaus. Und wir wissen ja alle, das gerade die Tahiti Chips nicht die Effizientesten der aktuellen AMD Produktpalette sind. Luft ist da durchaus für Optimierungen.
Die Frage ist eher, ob man sich darauf einlässt. Tahiti zumindest als GHz Edition macht für mich etwas den Eindruck, als "kupfere" man bei NV ab, um quasi auf biegen und Brechen die Leistungskrone zu holen. Bis einschließlich der 6000er Karten gabs sowas unter dem AMD Deckmantel definitiv nicht.

So hab neue Infos. Laut Roadmap von Nvidia kommt der Hub in der die TopEnd Single GPU über der GTX690 liegt mit der 8xx Serie. Wenn man der (leider internen) Präsentation glauben kann kommt auch dann technologisch der wirkliche große Sprung in Richtung Leistungs(Verbrauchs) reduktion durch weitere Absenkung der Versorgungspannung. Und jetzt da Beste: Angestrebt wird das Weihnachtsgeschäft. Aber wer Termine und Nvidia kennt weis dass das höchstwahrscheinlich nix wird. Würde dafür sprechen dass die 7xx Generation wohl eher als interims Lösung zu sehen ist um den Vorsprung zu behalten. Titan wird das Stück dann wohl eher nicht heissen.

Das ist nichts, was wir nicht schon wusten ;)
Es ist seit jeher absolut unwarscheinlich, das GK110 als Titan oder whatever eine 690er im GPU Limit schlägt. Das hätte ich dir auch schon im März 2012 sagen können...
Somit liegt also die Vermutung nahe, das dies mit der Nachfolgegeneration geschehen soll.
Ebenso ist unter Anbetracht der Tatsache, das GK110 womöglich in Verbrauchsregionen ala Fermi vorstoßen wird, ziemlich klar, dass die Nachfolgegeneration irgendwie mehr Leistung primär durch mehr Effizienz bekommen muss.
Und das das Weihnachtsgeschäft angestrebt ist, ist auch nix neues. So versucht man das ebenso seit ganz paar Generationen nicht auszulassen, sofern irgendwie möglich. Siehe G80 Release... Oder auch Tahiti, wenn auch diese erst im Jan. darauf verfügbar waren.

Was dem ganzen aber entgegen steht, 20/22nm wird dieses Jahr wohl definitiv nix. Es macht aktuell nichtmal im Ansatz den Anschein, als hätte man seitens TSMC da was bereit für Ende 2013... Auch scheint 28nm noch etwas an Verbesserungspotential zu haben.

PS: im übrigen ist es auch vollkommen logisch, das man, wenn möglich, nen Refresh von Grafikkarten auf den Markt wirft um wieder was verkaufen zu können.
So hat man das bei den Fermis gemacht, so hat man das bei den G200er gemacht, auch G80 hat ne Art Refresh in Form des G92 bekommen... Das gleiche gilt zum Teil auch für die Mittelklassekarten.

Und das alles hat mir mein logisch denkendes Hirn verraten, keine Pseudoquelle in Form eines Freundes, der bei NV arbeitet.
Aber vllt ist ja mein Hirn in irgend ner Weise mit NV vernetzt? Und spuckt deswegen die Infos so aus? Scheiße Mann... Ich hab auch ne Quelle!! :fresse:
 
Zuletzt bearbeitet:
@fdsonne:
Dann erklär mir mal, warum AMD die GHz Edition so gemacht hat im Referenzdesign. Warum soviel Spannung, warum mehr Speichertakt. Yields? Wobei das noch vergleichsweise früh im 28nm Prozess war. Bei den nächsten Karten von AMD ist der Prozess 15-18 Monate alt und sicher noch reifer. Gleiches gilt aber auch für Nvidia, von daher glaube ich nicht, dass sich da großartig was ändert.
 
@bix
Zumindest den ersten Tahiti GPUs wird ja nachgesagt, das sie vergleichsweise hohe Spannung bekommen haben... Und wenn mich nicht alles täuscht, waren darunter auch ein paar Karten, die in Sachen OC nicht nennenswert über 1,05-1,1GHz rausgekommen sind. Könnte also durchaus ein Ausbeutungsproblem gewesen sein. Vor allem, da AMD ja auch ein viertel Jahr eher war als NV und sozusagen die ersten 28nm Karten überhaupt brachte.
Die GHz kam im Juni... Also grob ein halbes Jahr nach Release von Tahiti... Brachte nen höheren Basistakt sowie nen Boost mit. Könnte durchaus sein, das man das, was in Sachen Verbesserung der Fertigung erzielt wurde in dem halben Jahr wieder durch den Mehrtakt drauf ging oder man die Ausbeute noch weiter steigern wollte?!

Interessant ist halt der Leistungsaufnahmevergleich zwischen den AMD Referenzmodellen bei Release und den nachfolgenden Custom Modellen mit Anpassung der Boardpartner. ht4u.net misst zum Beispiel eine R7970 Lightning mit 1,070GHz und 2,8GHz VRAM Takt bei 224W unter Spielelast. Wärend ne default HD7970 GHz Edition dort mit 255W gemessen wurde. Ne default non GHz wird mit 210W gemessen.
Das sind zwischen default 7970 zu Lightning grob 5% mehr Verbrauch bei grob grob 10% mehr Leistung. Und das so mal aus der Kalten ;) Da geht durchaus was... (und das laut ht4u.net sogar bei gleicher Spannung, wenn man 0,002V Unterschied mal als gleich bezeichnet)

Warum und wieso man den Speichertakt hochgeschraubt hat, keine Ahnung. Vllt weil man es konnte?
Sind denn die gleichen Chips verbaut? Sprich sind die auf 3GHz spezifiziert? Weil wenn ja, dann dürfte allein der Takt wohl so extrem viel Gewicht nicht haben im Verbrauch zwischen der ersten Tahiti XT Version...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh