nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Eine zweite "schwächere" Karte die nicht GTX 780 heißt, würde die Aura "GTX" gefährden.
Es kann eigentlich nur eine Titan geben... ein schwächerer Ableger würde das Ganze ja fast nach einem neuen Segment aussehen lassen und eine GTX 780 hätte für 480 Euro eigentlich kaum noch "Glanz".
Exakt!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist es ja gerade. GK110 besitzt, so wie es zurzeit aussieht, nichts, was diesen Preis rechtfertigen würde. Eine annähernd GTX 690 Leistung? Nope.

Andersrum betrachtet gab es schon einige Modelle, wo lange Zeit nur das HighEnd Dickschiff (ggf. mit kleinem Bruder) kam und die Mittelklasse viel später.
Siehe G80 -> halbes Jahr Luft und riesen Lücke
Siehe G200 -> gabs nur ne aufgewärmte G92 GPU mit immer nur mehr Takt
Siehe Fermi -> immerhin 4 Monate bis zur 460

Die Lücke selbst als Indikator würde ich da nicht nehmen. Bestenfalls die Zeit. Aber es scheint unbekannt, was da noch für die Zukunft kommt.
Spekuliert wird ja aktuell Herbst... Wäre immerhin auch "nur" ein halbes Jahr ;)

Bis dahin sammelt man teildefekte GK110 Chips und schiebt ne mini Titan nach. Genau in der Mitte. Noch ein oder zwei SMX weniger. Ggf. was weniger Takt, 320Bit SI und 2,5GB VRAM. -> passt genau ins Bild.
 
Bei AMD ist es aktuell sehr still, Chef hat wichtige teile der Belegschaft gefeuert, ehem. ATI Chef ist auch weg...tja was soll man dazu noch sagen? Was für ne Lücke soll AMD mit 2 Modellen füllen? Ein Chip mit 2560 Shader (40 CUs), möglicher 7970 Nachfolger macht nur dann sinn wenn man das Frontend verbessern kann, bei Pitcairn > Tahiti Game skalierung sieht man das Frontend ist zu schwach.

Selbst bei unverbessertem Frontend sollte mit etwas mehr takt rund 20% mehr Leistung möglich sein. Und selbst dann sieht GK110 schon recht ernüchternt mit nur 14% Vorsprung vor der direkten Konkurenz aus.

ein schwächerer Ableger würde das Ganze ja fast nach einem neuen Segment aussehen lassen und eine GTX 780 hätte für 480 Euro eigentlich kaum noch "Glanz".

Was ist wichtiger? Vermeintlicher "Glanz" oder bares Geld? Ich wäre klar für zweites... Meinen persöhnlichen Ruf als Anbieter würde das dennoch nicht schaden.
 
Zuletzt bearbeitet:
Selbst bei unverbessertem Frontend sollte mit etwas mehr takt rund 20% mehr Leistung möglich sein. Und selbst dann sieht GK110 schon recht ernüchternt mit nur 14% Vorsprung vor der direkten Konkurenz aus.
Wenn die Leistungsaufnahme nicht eine wichtige Rolle spielen würde, dann hättest du schon längst ein größeren ATI Chp gesehen.
Abwarten, nicht das der Chip dann wie Cayman ein reinfall wird :fresse:
 
Zuletzt bearbeitet:
Erheben wir uns schon wieder in grenzenloßer Selbstüberschätzung zum Foren Sheriff?

Nein, ich verstehe nur nicht, warum du Forenuser immer wieder angreifst, nur weil sie nicht der Meinung sind. ;)
Ich finds jedenfalls etwas kleinkariert, sich darüber aufzuregen dass über AMD geredet wird, aber wenn der Mod was über AMD sagt, dann sagt der kleine scully1234 nichts dagegen. :d

Duplex schrieb:
Und Nvidia kann auch noch Modelle nachschieben, 1920 Shader @384 Bit SI bei 350mm² (evtl. GK204) und AMD sieht kein Land mehr.

Jeder Hersteller kann schnellere Modelle nachschieben, dass jemand das nicht kann und volkommen am Limit ist ist schlichtweg Blödsinn, aber scully und sontin sehen das mal wieder anders, wie soll es auch anders sein.

Sontin schrieb:
Natürlich ist AMD am Limit. Die 7970GHz verbraucht zwischen 220 - 250 Watt in Spielen.

Mehr Recheneinheiten, gleichbliebender Takt, besserer Fertigungsprozess, geringe Spannungen.
Das ist gar nichts am Limit, ansonsten würde AMD ja nicht mit Sea Islands planen.

Mit den Aktuellen Spannungen ist man da sicherlich nahe am Limit. Wie OC Versionen aber zeigen, würde noch ein schnelleres Modell bei gleicher Spannung gehen, genauso wie bei Nvidia.
Man geht aber sowieso den Weg der gesteigerten Recheneinheiten.

scully1234; schrieb:
Quelle?

Das was AMD derzeit eröffnet klingt alles andere aber nicht nach pushen

Achso und du meinst AMD kann den Chip nicht vergrößern und "puschen"?.
Langsam geht mir dein Blödsinn auf die Nüsse.

Wenn AMD etwas macht ist es schlecht, wenn Nvidia das gleiche tut ist es super. Wenn Nvidia den Tahiti GPGPU Chip gebracht hätte und AMD GK104, dann gäbe es nur Häme von dir, was AMD doch alles weggelassen hat.

Duplex schrieb:
Das hat Nvidia nur so gemacht weil AMDs 7970 Chip damals nur 40% gegenüber den Vorgänger Cayman zulegen konnte.

Ach ja, klar. Und dann haben sie erst im Spätsommer die teuren Teslas an Cray geliefert, weil vorher hatte man ja schon billige Desktopkarten wirtschaftlich produzieren können.
Nvidia hätte, wäre die GHZ Edtion der HD 7970 zuerst gekommen, bzw wenn AMD noch schneller gewesen wäre einfach nichts gehabt, was man adequat hätte bringen können, lies mal was Ailuros sagt.

Nvidia hätte nie und nimmer hier irgendeinen Chip in naher Zeit bringen können. Mit Druck wäre vielleicht ende 2012 was gegangen. Aber wenn man so verblendet ist und total biased, ist das auch kein Wunder ,dass man immer meint, der gewünschte Hersteller könnte gleich etwas bringen, dann frage ich mich doch, warum das mit den GPGPU Karten die viel wichtiger sind, solange gedauert hat und man erst jetzt K20X käuflich erwerben kann.

Kleiner Reality Check: AMD verkauft einen größeren Chip mit mehr Speicher für weniger Geld. Sieht irgendwie nicht so doll aus...

Dein "Reality" Check ist aber unvollständig.
Pitcairn ist kleiner als der Chip einer GTX 660, aber schneller bei vergleichbarem Stromverbrauch. Mit den großen Chips macht man weniger Umsätze.

Ansonsten hätte man das ganze entweder aufteilen müssen GK110Tesla/GK110Geforce was aber die Großkunden wohl missbilligt hätten,oder sich mit dem 2ten Platz zu frieden geben

Thats the real story

korrekt. Und du darfst mal raten was ein Gewinnorientiertes Unternehmen wohl lieber tut.
 
Zuletzt bearbeitet:
Wenn die Leistungsaufnahme nicht eine wichtige Rolle spielen würde, dann hättest du schon längst ein größeren ATI Chp gesehen.

Wieso? AMDs Tahiti mit 2048 Shader und 384 Bit scheint ein wirklich ausgewogener Chip zu sein. Und die Chipgröße Passt doch ganz gut. AMD brauche in den letzten Jahren nie so große CHips, um mit Nvidia mitzualten.
 
Zuletzt bearbeitet:
Stimmt, weil Maximalverbrauch auch das selbe ist wie ein Durchschnittsverbrauch. :rolleyes:

Und was interessiert der Maximalverbrauch?
Nur zu deiner Erinnerung. Du sprichst von TDP Vergleichen. Ein Wert der üblicherweise mit dem Kühler zu tun hat, nicht mit der Leistungsaufnahme ;)

Wenn die Leistungsaufnahme nicht eine wichtige Rolle spielen würde, dann hättest du schon längst ein größeren ATI Chp gesehen.
Abwarten, nicht das der Chip dann wie Cayman ein reinfall wird :fresse:

Warum sollte nicht auch AMD an der Energieeffizienz feilen können?
Ihr machts euch wieder viel zu einfach...
Wenn NV ein 7,1Mrd Transistormonster mit einer ähnlichen Energieeffizienz wie GK104 mit halbem Gewicht aus dem Hut zaubern kann, dann ist die selbe Leistung auf für AMD nicht unmöglich.
 
Nvidia hätte, wäre die GHZ Edtion der HD 7970 zuerst gekommen, bzw wenn AMD noch schneller gewesen wäre einfach nichts gehabt, was man adequat hätte bringen können, lies mal was Ailuros sagt.
Die GK104 Dual Karte hätte man weitaus günstiger verkaufen können wenn es darum ginge, selbst bei 600 Euro bliebe noch gut Gewinn übrig.
 
Nvidia hätte, wäre die GHZ Edtion der HD 7970 zuerst gekommen, bzw wenn AMD noch schneller gewesen wäre einfach nichts gehabt, was man adequat hätte bringen können, lies mal was Ailuros sagt.
Doch, einen GK104 mit 1202/3304 GHz. Somit wäre man teils wieder an der GHz Ed. vorbei oder gleichauf:)


Warum sollte nicht auch AMD an der Energieeffizienz feilen können?
Ihr machts euch wieder viel zu einfach...
Wenn NV ein 7,1Mrd Transistormonster mit einer ähnlichen Energieeffizienz wie GK104 mit halbem Gewicht aus dem Hut zaubern kann, dann ist die selbe Leistung auf für AMD nicht unmöglich.
Genau so sieht es aus. Nvidia kann genauso wenig wie AMD zaubern.


PS: Selbst Cayman war rund 15% schneller als die HD 5870, würde also auch reichen, und dennoch weniger als 20% differenz zum Titan erbringen.
 
Zuletzt bearbeitet:
Cayman braucht für 15% mehr Leistung auch 30% mehr Strom...
 
Selbst Cayman war rund 15% schneller als die HD 5870, würde also auch reichen, und dennoch weniger als 20% differenz zum Titan erbringen.
Dafür ist Cayman fast 20% größer als Cypress und zudem hat Cayman >30% mehr Saft gezogen.
Außerdem hat AMD bei BQ beschissen...
 
Zuletzt bearbeitet:
Ich spekuliere mal das die "GeForce Titan" den GK110 im Vollausbau nutzt samt 6GB RAM. Da bei der Produktion vermutlich ohnehin nicht viele vollfunktionsfähige Chips abfallen, bremst nVidia die Nachfrage mit dem sehr hohen Kostenpunkt ein ... ein absolutes Single-GPU Prestige Objekt eben.

Für die GTX 780 könnte man dann einen teildefekten GK110 mit 14 SMX und 3GB VRAM nutzen zu den "üblichen" High-End Preisen und auch wahrscheinlich die höhere Nachfrage bedienen ... dabei würde "Titan" aber generationsübergreifend immer noch an der Spitze bleiben.

... wahrscheinlich auch deswegen der Name außerhalb der üblichen Bezeichnungen?!
 
Zuletzt bearbeitet:
Endlich mal einer, ders begriffen hat in der ganzen "AMD Untergangsthematik" der letzten Seiten hier :fresse:
PS: die Intel Hexacores sind an der Stelle wohl nicht ganz vergleichbar. ;)
Die Maßgabe im oberen Workstationbereich liegt aktuell immernoch etwas mehr auf Multithreading als auf reinem IPC. Im Mainstream bekommst du aber ohne mehr IPC und/oder Takt keine mehr CPU Leistung. Deswegen baut auch Intel den Mainstreambereich zuerst auf die neuen Techniken um.
Das ganze zieht sich 1:1 durch die ganze Palette. Schau auf noch viel höher preisige Multi-Sockel Xeons. Da bekommst du aktuell zwar 10 Cores. Aber nur Westmeretechnik. Im Desktopbereich schon horn alte Kamelle, wo man schon zwei Gens. drüber weg ist. ;)



So sehe ich das auch. Ist eins falsch, liegt die Vermutung nahe, das der Rest auch nicht stimmt. Gerade das SI dürfte aufbauend auf GK110 ja eins der Werte sein, die wirklich fix sind. GK110 hat meine ich keine Möglichkeit auf 512Bit zurückzugreifen.
Könnte aber viel eher auch ne Dual GK104 Lösung sein? Weil 1019MHz klingt stark nach 690er :fresse: 2x256Bit SI wären auch im SLI wie 512Bit.
Das klingt viel eher nach Fakewerten...

Mein CPU Beispiel war nur vereinfacht und sollte nur dem Darstellen, der aktuellen Situation, im CPU Sektor dienen.
 
Dafür ist Cayman fast 20% größer als Cypress und hat >30% mehr Saft gezogen.

Und wieso dürfte ein AMD Flaggschiff keine 300 Watt verbrauchen, Nvidias Karte aber schon?
Nochmal: Beide Hersteller können nicht zaubern und kochen nur mit Wasser. Und bis max. 20% sollte allein durch ein Taktupgrade machbar sein. Dalls AMD wirklich das Frontend verbessert haben sollte (würde), aber nicht mehr Einheiten draufpackt, könnten auch rund +30% zur GHz Ed. kommen. Dann würde GK110 ganz schnell seinen "Glanz" als Prestige-Objekt verlieren.
 
AMD verbraucht jetzt schon 300 Watt - Furmark. Da geht einfach nichts mehr.
 
AMD verbraucht jetzt schon 300 Watt - Furmark. Da geht einfach nichts mehr.

Komm mir nicht mit Furmark. Das ist eben das maximal mögliche (in games sind es um die 200-220 Watt (GHz Ed.). Und sollte AMD ebenfalls eine ähnliche Boost-Funktion wie Kepler besitzten, ist das auch vollkommen egal... Dann senkt die Karte eben einfach ihre Spannung und den takt. Macht die GHz Ed. zurzeit ja auch schon teilweise.
 
Zuletzt bearbeitet:
möglicher 7970 Nachfolger macht nur dann sinn wenn man das Frontend verbessern kann
Ach komm, AMD skaliert zum beispiel mit höherem Takt ziemlich gut, auch mehr Eineiten bringen etwas, auch wenn es vielleicht nicht so gut skaliert wie bei Nvidia ( sind ja aber auch nicht die gleichen Shader).
Sich jetzt nur an dem Frontend aufzuhängen und zu sagen, ohne ein neues ergibt es keinen Sinn ist doch etwas polemisch.
Vielleicht lohnt sich auch der Aufwand gar nicht in den Nachfolger soviel Manpower und Kohle reinzupumpen.

Und warum sollte nVidia nicht die selbe Taktrate wie bei der GTX680 nehmen? Spricht da irgendwas dagegen?!

Ich kann mir da auch gar keine Gründe vorstellen die dagegen sprechen, Nvidia bringt einfach nen 80% größeren Chip und taktete den mit den gleichen Taktraten und bleibt dabei unter 250 Watt.
Die 235 Watt TDP der Teslas mit 732mhz, sind Falschangaben.

Sontin schrieb:
AMD verbraucht jetzt schon 300 Watt - Furmark. Da geht einfach nichts mehr.

Das Problem ist, dass du dir deine Argumente hindrehst wie du es brauchst.
Furmark interessiert niemanden, notfalls wird gedrosselt. Das gleiche ahst du auch beim GTX 480 Release geschwafelt oder bei der GTX 580.
Nun, schwenkst du wieder um.. imimer der gleiche BS von dir, seit Jahren, zuerst im 3DC und jetzt geht dein Irrsin hier weiter.

Die GK104 Dual Karte hätte man weitaus günstiger verkaufen können wenn es darum ginge, selbst bei 600 Euro bliebe noch gut Gewinn übrig.

Ja klar, jetzt muss die Dualkarte herhalten.

LSSJBroly schrieb:
Genau so sieht es aus. Nvidia kann genauso wenig wie AMD zaubern.

Ach.. laut Sontin geht das schon. über 1000mz bei 240 Watt Verbrauch für G110.
Ich werd ihn mit seinen Erwartungen wie bei GK104 Launch wieder aufziehen, wenns soweit ist.
 
Zuletzt bearbeitet:
Und wieso dürfte ein AMD Flaggschiff keine 300 Watt verbrauchen, Nvidias Karte aber schon?
GK110 Geforce wird in Games keine 300w ziehen, das ist unsinn.
Falls AMD wirklich das Frontend verbessert haben sollte (würde), aber nicht mehr Einheiten draufpackt, könnten auch rund +30% zur GHz Ed. kommen. Dann würde GK110 ganz schnell seinen "Glanz" als Prestige-Objekt verlieren.
Ziemlich unwahrscheinlich das man so einen großen Sprung machen wird, AMD hatte schon immer das Frontend Problem, ewigkeiten auch bei CPUs, deswegen haben die Phenoms/BD sowenig Singlethread Performance ;)
 
Zuletzt bearbeitet:
Und wieso dürfte ein AMD Flaggschiff keine 300 Watt verbrauchen, Nvidias Karte aber schon?

Verbrauch von 300Watt ja nur hat man das Design bereits mit der 7970er voll ausgefahren u ist mit der GHZ Edition schon schier am Kollidieren mit den Spezifikationsgrenzen


Warum gab es keine 7990...

Und da wären wir eben wieder beim nicht Zaubern können

Nvidias Transistormonster soll nach bisherigen Tesla Spez. ~235Watt TDP haben,den Bereich hat die GHZ Edition bereits überschritten u dazu nichtmal im Ansatz den Leistungsbonus nebst 3GB zusätzlichem Vram
 
Zuletzt bearbeitet:
GK110 Geforce wird in Games keine 300w ziehen, das ist unsinn.
Dann verabschiede dich mal ganz schnell von max. Taktraten von über 900 MHz. Selbst 850MHz Durchschnittsboost sollte nur schwer erreichbar sein.

Ziemlich unwahrscheinlich das man so einen großen Sprung machen wird, AMD hatte schon immer das Frontend Problem, ewigkeiten auch bei CPUs, deswegen haben die Phenoms/BD sowenig Singlethread Performance ;)
Der Unterschied ist aber, dass AMD zurzeit die Single-GPU Krone inne hat...


Verbrauch von 300Watt ja nur hat man das Design bereits mit der 7970er voll ausgefahren u ist mit der GHZ Edition schon schier am Kollidieren mit den Spezifikationsgrenzen

Ich sehe in aktuellen Revies immer nur rund 200-220 Watt Spiele leistungsaufnahme. Und eins sollten wir nicht vergessen. die HD 7970 GHz Ed. nutzt eine lächerlich hohe Standardspannung. Das beste beispiel sind custom HD 7970er mit 1050 oder 1070 MHz Takt. Und diese verbrauchen selbst in Games nur rund 200 Watt;)

Z.B. Hier:
http://www.computerbase.de/artikel/grafikkarten/2012/kurztest-4-x-amd-radeon-hd-7970/7/
GTX 680 ziehmlich genau (eigentlich sogut wie immer) dank GPU-Boost 170 Watt. Die +15% der MSI 7970 und man kommt auf unter 200 Watt realem Gaming-Verbrauch.
 
Zuletzt bearbeitet:
Ich spekuliere mal das die "GeForce Titan" den GK110 im Vollausbau nutzt samt 6GB RAM. Da bei der Produktion vermutlich ohnehin nicht viele vollfunktionsfähige Chips abfallen, bremst nVidia die Nachfrage mit dem sehr hohen Kostenpunkt ein ... ein absolutes Single-GPU Prestige Objekt eben.

Für die GTX 780 könnte man dann einen teildefekten GK110 mit 14 SMX und 3GB VRAM nutzen zu den "üblichen" High-End Preisen und auch wahrscheinlich die höhere Nachfrage bedienen ... dabei würde "Titan" aber generationsübergreifend immer noch an der Spitze bleiben.

... wahrscheinlich auch deswegen der Name außerhalb der üblichen Bezeichnungen?!

Was dagegen spricht ist, dass GK110 schon im März oder April 2012 sein Tapeout hatte. Bis zum Produktionsstart vergehen dann meistens 4-6 Monate. Im September wurden die ersten GK110 ausgeliefert, jetzt sind aber nochmal 5 Monate vergangen. Dh. es kann durchaus sein, das nochmal ein Respin etc. gemacht wurde. Also ich denke wenn man mit GK110 Gewinn machen will, muss man auch ordentliche Stückzahlen verkaufen. Mit 800-1000 € schafft man das aber IMO nicht. Bei der 690 war es einfacher, da GK104 ja schon auf 670 und 680 eingesetzt wurde. GK110 wurde ja bisher auch nicht in Stückzahlen von einigen 100.000 Karten verkauft sondern eher ein paar 10.000.
 
Ich sehe in aktuellen Revies immer nur rund 200-220 Watt Spiele leistungsaufnahme. Und eins sollten wir nicht vergessen. die HD 7970 GHz Ed. nutzt eine lächerlich hohe Standardspannung. Das beste beispiel sind custom HD 7970er mit 1050 oder 1070 MHz Takt. Und diese verbrauchen selbst in Games unter 200 Watt;)

Das wird nicht grundloß geschehen ich kann auch selektierte 680er unter 160-170Watt drücken nur ist das Gro der Chips eben nicht auf dem Level genau da setzt eben die Vcore an

Wenn AMD was in Petto hätte,dann hätte man sich nicht zu so ner aktionärsvergraulenden Meldung hinreißen lassen

Release irgendwann Ende 2013/Anfang2014 sondern hätte seelenruhig abgewartet bis "die Katze aus dem Sack ist":d und dann seine Trümpfe gespielt
 
Zuletzt bearbeitet:
Das wird nicht grundloß geschehen ich kann auch selektierte 680er unter 160-170Watt drücken nur ist das Gro der Chips eben nicht auf dem Level genau da setzt eben die Vcore an

Sogut wie jede HD 7970 läuft auch noch mit 1,05V statt 1,175V. Da ist sogut wie nichts selektiert. Woher soll denn sonst der große OC-Spielraum herkommen?
http://www.computerbase.de/artikel/grafikkarten/2012/bericht-amd-radeon-hd-7900/3/

Im vergleich lassen sich GTX 680er nicht so stark drücken.


Ich verstehe einfach nur nicht, wieso man teilweise nicht will, dass AMD keine konkurenz zum GK110 bietet? Schließlich kommt das vor allem uns Käufern zu gute...
 
Zuletzt bearbeitet:
Dafür ist Cayman fast 20% größer als Cypress und zudem hat Cayman >30% mehr Saft gezogen.
Außerdem hat AMD bei BQ beschissen...

doppelter VRAM nebst Tesselationverbesserungen. Metro legt über 40% zu. Von nix kommt nix.
Und um das Fermi Niveau zu erreichen in Sachen Effizienz war das doch OK. Überschritten hat man es freilich nicht ;)

Und da wären wir eben wieder beim nicht Zaubern können

Nvidias Transistormonster soll nach bisherigen Tesla Spez. ~235Watt TDP haben,den Bereich hat die GHZ Edition bereits überschritten u dazu nichtmal im Ansatz den Leistungsbonus nebst 3GB zusätzlichem Vram

Warum sprichst du nur NV das zaubern zu?
Das macht doch keinen Sinn...
235W TDP sind poplige 20% über dem der 680er. Die Energieeffizienz würde um das dopplte ansteigen, wenn GK110 daraus dann 40% Performanceplus zaubern könnte. Ja zaubern ist da genau das richtige Wort.
Warum ist NV so "dämlich" und baut ne GK104 mit ner TDP von 195W, wenn das Teil auch mit weit weniger auskommen würde, gemessen am zauber GK110 wäre dies genau der Fall.

Lasst doch mal die Kirche im Dorf :(

Vielleicht war/ist es einfach so, das GPUs mit Datum Q1 2012 und somit die ersten Modelle auf 28nm noch gar nicht die Möglichkeiten hatten, ihre Energieeffizienz derart gut auszubauen, wie man heute mit GK110 könnte? Aber wenn GK110 das heute schafft, warum sollte das in anderen Modellen nicht auch gehen?
 
Ich spekuliere mal das die "GeForce Titan" den GK110 im Vollausbau nutzt samt 6GB RAM. Da bei der Produktion vermutlich ohnehin nicht viele vollfunktionsfähige Chips abfallen, bremst nVidia die Nachfrage mit dem sehr hohen Kostenpunkt ein ... ein absolutes Single-GPU Prestige Objekt eben.

Für die GTX 780 könnte man dann einen teildefekten GK110 mit 14 SMX und 3GB VRAM nutzen zu den "üblichen" High-End Preisen und auch wahrscheinlich die höhere Nachfrage bedienen ... dabei würde "Titan" aber generationsübergreifend immer noch an der Spitze bleiben.

... wahrscheinlich auch deswegen der Name außerhalb der üblichen Bezeichnungen?!

schöne vorstellung, da würde ich direkt zuschlagen
 
schöne vorstellung, da würde ich direkt zuschlagen

Ich würde mir dann wohl eher die GTX 780 mit 14 SMX kaufen. Nicht nur deutlich billiger, da die Karte wohl ebenfalls am SI und der Bandbreite festklebt, wie schon die GTX 680/670, dürfte mit OC teils deutlich mehr leistung drin sein als eben der Vollausbau liefert. Und mit zwei GK 110 ala 14 SMX GTX 780 für rund 100€ hätte man ja schon teils deutlich mehr als eben eine 15SMX GPU:fresse:
 
Warum ist NV so "dämlich" und baut ne GK104 mit ner TDP von 195W, wenn das Teil auch mit weit weniger auskommen würde, gemessen am zauber GK110 wäre dies genau der Fall.

Nvidia ist nicht zu dämlich Nvidia geht mit dem kleinen Chip per hohen Takt auf Performancejagd während GK110 in die Breite baut

Wir alle u auch du wissen wie die Effizienz abnimmt mit steigender Taktrate,das hat rein gar nix mit Zaubern am Hut Bulldozer u P4 sind die besten Beispiele wie höher werdender Takt sich immer mehr ins negative verkehrt
Die TDP von K20X ist bekannt u wird auch im weit mehr fordernden Clusterbereich nicht überschritten also keine Magie
 
Zuletzt bearbeitet:
In der ClBenchmark Datenbank gibt es eine GTX TITAN. Die Leistungswerte sind uninteressant, da OpenCL und nVidia interessiert das nicht mehr so wirklich.
Interessanter sind die Specs:
14 SMX und max clock von 875MHz.
CLBenchmark - OpenCL Compute Performance of NVIDIA GeForce GTX Titan

Wobei die Taktrate nichts sagt. Die GTX680 hatte mit alten Treibern auch nur 700MHz anliegen. :d

/edit: Datum ist vom 23.01. Wird wohl nicht der volle Takt sein.
 
Zuletzt bearbeitet:
Ja klar, jetzt muss die Dualkarte herhalten.
Hat AMD damals bei der HD3800 X2 nicht anders gemacht.

Dann verabschiede dich mal ganz schnell von max. Taktraten von über 900 MHz. Selbst 850MHz Durchschnittsboost sollte nur schwer erreichbar sein.
Evtl. hat Nvidia ein neues Stepping damit mehr Takt bei weniger Energie möglich wird.
Der Unterschied ist aber, dass AMD zurzeit die Single-GPU Krone inne hat...
Aber nicht mehr lange :d

doppelter VRAM nebst Tesselationverbesserungen. Metro legt über 40% zu. Von nix kommt nix.
Und um das Fermi Niveau zu erreichen in Sachen Effizienz war das doch OK. Überschritten hat man es freilich nicht ;)
Tesselation war selbst bei Cayman nicht auf Nvidia Level Radeon HD 6970 und HD 6950 im Test: AMDs neue Oberklasse-Grafikkarten - Radeon HD 6970/6950 im Test: Tessellation unter der Lupe

 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh