nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich vermute man nennt das Ding Titan, damit es die Leute, also IHR auch brav kauft, unabhängig ob das Ding nun DER Kracher ist, auch im Bezug zur Konkurenz. Weil der Profimarkt alleine nicht ausreicht zur Finanzierung eines solchen Chips.

Etwas später bringt man die GTX780 günstiger mit etwas weniger Leistung und ohne den ganzen GPGPU-Ballast. Effizienter und für Nvidia mit höherem Gewinn. So ähnlich wie 8800GTX und 8800GTS (G92).

Und nun steinigt mich. :xmas:
 
7107 wären monströs, doppelt so flott wie eine 680. Kann ich mir jetzt nicht so ganz vorstellen.
Zumal der 3DMark bei Kepler vs Kepler durchaus akkurat ist, nur Nvidia vs AMD oder generationenübergreifend kann man das schlecht vergleichen.
 
An den Teslas hängt eine Menge Support dran. Nvidia ist auch mit Forschungseinrichtungen, Unis usw. involviert, gibt Kurse, Vorträge etc. Das kostet viel Geld. Klar verdienen sie gut mit Tesla, aber so gut wie das oftmals angenommen wird im Vergleich zum Desktop...ich weiß ja nicht.
 
, aber so gut wie das oftmals angenommen wird im Vergleich zum Desktop...ich weiß ja nicht.

Siehst du doch schon an der Zuweißung der Prioritäten was mehr Gewichtung hat,wenn da der Geforce Bereich das rentablere Betätigungsfeld wäre,würde GK110 auch dort zu erst Einzug halten

Man schlägt ja nicht die Hand ab die einen füttert:)

Oak Ridge bzw die Cluster allgemein scheint da das dickere Brot zu sein,denn
"Big Blue" gehts ja auch nicht gerade mies in dem Sektor
 
Zuletzt bearbeitet:
Rentabler ja, ich hab nichts anderes behauptet. Aber jetzt nicht so exorbitant rentabel wie die Kartenpreise suggerieren würden. Zumal man auch nicht vergessen darf, dass um November rum Xeon Phi und S10000 kamen. Mit der 680 war Nvidia zu dem Zeitpunkt noch prima aufgestellt im Gamerbereich, aber für DP-Berechnungen hatte man noch nichts, daher war der Profimarkt da erstmal wichtiger. Sonst hätte man wohl Marktanteile verloren.
 
Der Terroristenlink geht nicht mehr. Was stand denn da ?
 
An den Teslas hängt eine Menge Support dran. Nvidia ist auch mit Forschungseinrichtungen, Unis usw. involviert, gibt Kurse, Vorträge etc. Das kostet viel Geld. Klar verdienen sie gut mit Tesla, aber so gut wie das oftmals angenommen wird im Vergleich zum Desktop...ich weiß ja nicht.

Den Support werden die sich auch bezahlen lassen, das läuft da dann ja nicht nach dem Gießkannen-Prinzip wie beim Gratis-Support im Desktop-Markt. Das ganze Forschungs- und Uni-Gedöns können die bestimmt steuerlich absetzen. ;) Der Profit pro GPU dürfte in diesem Bereich weit höher sein.
 
Es gibt noch keine Speicherchips mit 4 Gbit Kapazität. Samsung zieht sich aus dem GDDR5 Geschäft zurück, bleiben also nur noch Hynix und Elpida, auf deren Webseiten maximal 2 Gbit Chips gelistet sind. Die 7970 6 GB und die 680 4 GB haben alle doppelt soviele Chips, nämlich vorne und hinten.

Dann bräuchte man aber auch ein doppelt so großer Interface, von daher wird es wohl schon irgendwo 4Gbit Chips geben.
 
Bei 5760x1080 Ramauslastung bei Crysis3 werden 3,8GB geschafft.
6GB wären für einen 2 Jahresplan wohl nicht verkehrt.
 
Dann bräuchte man aber auch ein doppelt so großer Interface, von daher wird es wohl schon irgendwo 4Gbit Chips geben.

Nein braucht man nicht. Weder K20, K20X, Tahiti oder GK104 haben ein doppelt so großes Interface und kommen dennoch auch mit 4, 5 bzw. 6 GB.
Mit 2 Gbit Chips ist das nicht möglich, wenn die Chipanzahl nicht steigen soll. Bei den Teslas weiß ich es nicht, aber bei Geforce und Radeon haben alle Karten mit 4 und 6 GB auch auf der Rückseite Chips.

Wie genau sie es machen mit der Ansteuerung, weiß ich nicht, aber es geht.
 
Zuletzt bearbeitet:
Zumal man auch nicht vergessen darf, dass um November rum Xeon Phi und S10000 kamen. Mit der 680 war Nvidia zu dem Zeitpunkt noch prima aufgestellt im Gamerbereich, aber für DP-Berechnungen hatte man noch nichts, daher war der Profimarkt da erstmal wichtiger. Sonst hätte man wohl Marktanteile verloren.

Das wird der Grund gewesen sein, sowie feste Verträge. Aber im Vergleich zum restlichen Markt ist das fast nichts. Bei Nvidia waren das 2009 auf die schnelle gegoogelt 30Mio Chips. Selbst wenn davon nur 1% Performancechips und größer waren sind das bereits 300k.
 
Nvidias
Nvidias „GeForce Titan“ schneller als GeForce GTX 690?
Darüber hinaus gibt es erste Spekulationen über die zu erwartende Geschwindigkeit. Diese soll angeblich gar die hauseigene Multi-GPU-Karte GeForce GTX 690 übertreffen können, womit AMDs Radeon-HD-8000-Serie zumindest mit nur einem Rechenkern voraussichtlich chancenlos wäre. Allerdings sagt die Angabe alleine wenig aus, da die Geschwindigkeit der GeForce GTX 690 ausschließlich vom SLI-Profil abhängig ist. So ist die Karte im Optimalfall vielleicht 90 Prozent zügiger unterwegs als eine GeForce GTX 680, in unseren Tests sind es dagegen je nach Qualitätseinstellung aber „nur“ 50 bis 60 Prozent. Dementsprechend lässt sich derzeit nur schwer einordnen, wo GeForce Titan genau landen wird.

Zudem gibt es auch Gerüchte über das PCB, welches angeblich dem der GeForce GTX 680 ähnlich sein soll, abgesehen davon, dass dieses sechs Gigabyte Speicher sowie ein 384 Bit breites Speicherinterface tragen soll.

Zu guter Letzt etwas zum Erscheinungsdatum: GeForce Titan könnte Ende Februar erscheinen, denn für diesen Zeitraum soll die Karte in Hong Kong gelistet sein. Damit würde Nvidia die Grafikkarte noch vor der diesjährigen CeBIT vorstellen.
6GB klingt unglaublich wäre aber der Hammer eigentlich geizt NV mit dem Ram immer.
 
Zuletzt bearbeitet:
Sources SweClockers state that both AMD and Nvidia decided to postpone the next generation of video cards. The new circuits can be "at best" pop up in the fourth quarter of 2013, ie in the period October-december. This could mean, for example, the Radeon HD 7970 has time to fill two years before a proper replacement can find on the market.

Nästa generation Geforce och Radeon skjuts upp till Q4 2013 - Grafikkort - SweClockers.com

Aeugle hat was von Weihnachten gesagt, das würde dazu passen. Wäre ja sehr hart...
 
Es gibt bis auf GK110 auch keine neuen GPUs von nVidia. Die neue Generation kommt dann auf 20nm zum Ende des Jahres.
 
Das wäre arg unwahrscheinlich.
Erstens gab es bis jetzt immer einen Refresh - das wäre das erste Mal, dass es keinen gibt. Zweitens glaube ich nicht, dass 20nm Ende 2013 schon bereit ist. Angeblich sind die Probleme noch größer als bei 28nm, sprich schlechte Yields und noch teurere Wafer, da gibts ja von Nvidia eine Folie dazu. Da ist es wahrscheinlicher, wenn erste 20nm Produkte erst ab Mitte 2014 kommen, wenn man halbwegs rentabel herstellen kann. Und drittens steht da klar was von "verschieben". Laut aktuellen Roadmaps wird Maxwell sowieso erst 2014 erwartet, und der Sea Islands/Central Islands...whatever Nachfolger auch. Das passt also nicht, wäre ja vorgezogen dann. Nächste Generation muss in dem Sinne nicht den Shrink meinen, sondern einfach die nächste Serie, in dem Fall den Refresh.

Es gibt auch Überlegungen, dass Nvidia Maxwell erstmal auf einem reifen und günstigen 28nm Prozess rausbringt (AMD womöglich auch). Das wäre dann durchaus eine neue Generation, Maxwell bringt ja mit der Integration der ARM-Kerne doch mehr Neuerungen mit sich als Kepler es ggü. Fermi getan hat. Die Situation dieses Jahr ist echt undurchsichtig, es ändern sich gerade ziemlich viele Dinge, sowohl technologisch als auch marktwirtschaftlich.
 
Zuletzt bearbeitet:
Es gab auch von den 65nm Produkten keinen Refresh, sondern ein Shrink, da nVidia zu der damaligen Zeit eben sich länger Zeit gelassen hat.
Kepler funktioniert einwandfrei. Das gibt es nichts zu refreshen oder zu fixen. Neue Designs kosten einen haufen Geld. Das kann man sich sparen.

Laut TSMC wird 20nm im Jahr 2014 einen höheren Anteil haben als 28nm im Jahr 2012. Damit ist dann auch alles gesagt.
Und nein, es gibt keine Überlegung Maxwell auf 28nm zu bringen. Kepler kam auch nicht auf 40nm, der zum damaligen Zeitpunkt wohl nur die Hälfte als 28nm gekosten haben dürfe.
 
Also die GTX285 oder 275 würde ich jetzt schon als Refresh sehen, Shrink hin oder her. Oder HD4870 -> HD4890. Ich denke, es kommt auf die Definition an. Unter Refresh verstehe ich einen kleineren Leistungssprung (egal ob durch Shrink oder verbesserte Fertigung im selben Prozess oder verbesserte Architektur), so 10-20%. Im Gegensatz dazu standen bisher immer die größeren Sprünge, z.B. 8800 GTX, GTX280, GTX480 usw. Dieses Schema weicht gerade etwas auf finde ich.

Ja er funktioniert einwandfrei, aber dennoch kann man immer was verbessern. Der Prozess ist wohl in dem knappen Jahr seit GK104 Release gereift. Mit ein paar Tweaks kann man sicher noch 10% mehr Takt bei gleicher oder sogar etwas geringerer Leistungsaufnahme erreichen?

TSMC ist natürlich optimistisch, schließlich wollen sie ihre Kunden nicht verprellen. Ich bin eher zurückhaltend bei sowas - 28nm kam auch recht spät im Vergleich zu 40nm (wir erinnern uns, September 2009 und bei kleineren Testballons wie der 4770 noch früher). Nur weil Nvidia Kepler nicht auf 40nm gebracht hat, heißt das nicht, dass sie sowas in Zukunft nicht ändern könnten. Sie haben z.B. auch den Hotclock aufgegeben, weil es sich wohl nicht mehr gelohnt hat bzw. es eine bessere Möglichkeit gab. Warum soll sowas nicht auch auf die Fertigung zutreffen können? Umstände und die daraus folgenden Strategien ändern sich nunmal.

Generell war es bislang eben so, dass ungefähr jedes Jahr etwas erschienen ist, womit man bei gleichem Preis bessere Performance bekommen hat. Üblicherweise hat sich die Leistung zum gleichen Preis alle 2 Jahre verdoppelt. Nun könnten es 3 Jahre sein, nämlich von November 2010 (GTX580) bis November 2013 (GTX ???).
 
Zuletzt bearbeitet:
10%? Wow, das ist echt goldig. Dafür sollen sie also Millionen an Kosten aufnehmen? Und wer bezahlt die Entwicklungs- und Tapeout-Kosten? Du als Kunde? Bezweifel ich, wenn man schon kritisiert, dass man keine Verdopplung zum selben Preis bekommt.

Kepler ist komplett fertig. Ressourcen sollten klar in Richtung 20nm investiert werden.
 
Ich denke kaum, dass es keinen Refresh gibt, zumindest wird es einen bei AMD in den nächsten Monaten geben.
GCN2 dürfte doch eigentlich schon sogut wie fertig sein und auch wieder die Preise etwas anheben können bzw die Kauflaune verbessern.

Und wer bezahlt die Entwicklungs- und Tapeout-Kosten? Du als Kunde?

Wie war es denn bisher? Es spricht doch überhaupt nichts dafür, dass kein Refresh kommt.
Bisher ist immer etwas gekommen, besonders wenn der nächste Prozess wohl noch auf sich warten lässt.
20nm Ende 2013 ist doch Wunschdenken.
Und natürlich zahlt das der Kunde, durch einerseits höhere Preise der Modelle, andererseits sinken die Kosten sowieso bei höherer Yield Rate.
 
Zuletzt bearbeitet:
10%? Wow, das ist echt goldig. Dafür sollen sie also Millionen an Kosten aufnehmen? Und wer bezahlt die Entwicklungs- und Tapeout-Kosten? Du als Kunde? Bezweifel ich, wenn man schon kritisiert, dass man keine Verdopplung zum selben Preis bekommt.

Kepler ist komplett fertig. Ressourcen sollten klar in Richtung 20nm investiert werden.

Warum hat man es dann bisher gemacht? G200 -> G200b, GF10x -> GF11x, Cypress -> Cayman, R420 -> R480, G70 -> G71, R520 -> R580
Teilweise waren dabei Shrinks dabei, aber die waren im Vergleich zu heute deutlich kleiner.

Die grundlegende Frage wäre: Müssen wir uns davon verabschieden, dass im 12-15 Monatsrhytmus neue Karten (mit demselben Preispunkt wie ihre Vorgänger) kommen?
 
Ich würde ja glatt behaupten man hat mit 19000 verkauften Teslas,nebst Wartungsvertrag auf Jahre hinaus,schon ein sehr gutes Polster zur Refinanzierung des Designs:)

Das denke ich nicht... Überleg mal, K20 bzw. K20X, was kost da eine Karte?
3000$-4000$ müsste hinkommen.

Rechnen wir mit 4000$ x 19000 = 76Mio$...
All inkl. für den Käufer.

Rechne mal im Vergleich mit realistischen 1Mio verkauften Gamerchips. Selbst wenn du dort 100$ pro im Schnitt angestzt, bist du mit 100Mio$ schon ~40% drüber.
Und dabei ist der Gamerbereich wohl weit weniger Kostenintensiv als der Profimarkt.

Wartungsverträge und Co. sind auch eher Schall und Raucht. Denn idR schließt man diese mit dem Distri bzw. Händler. als direkt mit dem Hersteller der Karte. Dazu kommt, der Boardpartner hängt auch noch mit drin (und will was vom verkauften Kuchen abhaben)
Und Softwarewartung für Tesla wird wohl kein Geld ab. Denn da ist es wohl eher wurscht, ob du eine oder 19000 Karten im System stecken hast. Es würde theoretisch eine einziger Vertrag die Softwarewartung abdecken. ;)

Ich behaupte auch, das die Leute, die den SuperComputer gebaut haben, nicht den Vollpreis gezahlt haben. 30-50% Nachlass sind im Vergleich zum Listenpreis mehr als üblich ;) Das bekommen teils schon Unternehmen mit nichtmal 100 MA bei Server/Hardwarekosten von wenigen tausend Euros...
Da bleibt ehrlich gesagt nicht so extrem viel übrig muss ich sagen. Vor allem im Vergleich zu nicht unrealistischen 1Mio verkauften Gamerchips bei deutlich mehr Umsatz...

Ich habe aber so gar keine Ahnung, in wie weit die Entwicklungskosten für GK110 rein auf diesen Chip festgezurrt ins Gewicht fallen.

Siehst du doch schon an der Zuweißung der Prioritäten was mehr Gewichtung hat,wenn da der Geforce Bereich das rentablere Betätigungsfeld wäre,würde GK110 auch dort zu erst Einzug halten

Hat er doch, GK104 als Gamerkarte war die erste Kepler GPU am Markt, und diese kam zuerst im Gamerbereich.
Das man diesmal nen kleinen abgespeckten Chip vor dem riesen Dickschiff vorgezogen hat für den Gamermarkt, dürfte strategische Entscheidungen bei NV gehabt haben...

Es gab auch von den 65nm Produkten keinen Refresh, sondern ein Shrink, da nVidia zu der damaligen Zeit eben sich länger Zeit gelassen hat.
Kepler funktioniert einwandfrei. Das gibt es nichts zu refreshen oder zu fixen. Neue Designs kosten einen haufen Geld. Das kann man sich sparen.

65nm ist auch ein Prozess aus der Reihe ;)
Genau so wie 90nm.
G80 kam in 90nm, weil es damals nix anderes gab. R600, welcher ein halbes Jahr später kam, kam schon in 80nm.
G92 kam in 65nm, wurde in 55nm mehrfach geshrinkt bzw. refresht.
Auch G200 kam als erste Version erst in 65nm, wurde dann in 55nm refresht bzw. geshrinkt.
 
Warum hat man es dann bisher gemacht? G200 -> G200b, GF10x -> GF11x, Cypress -> Cayman, R420 -> R480, G70 -> G71, R520 -> R580

R520 -> R580: 90nm, Luft nach oben für Refresh - immerhin 3x soviele Alus
G70 -> G71: Shrink von 110nm auf 90nm, 50% mehr Leistung bei 33% kleineren Die sowie 300mm^2 wafer
GT200 -> GT200b: Shrink, geringere Kosten durch kleineren Die und leicht geringerer Stromverbrauch
GF10x -> GF11x: Fixen einer kaputten Architektur, um mehr Leistung zu erreichen
Cypress -> Cayman: Architekturüberarbeitung, um massive Nachteile auszugleichen: Tessellationleistung, ROPs, GPGPU. Gleichzeitig massiver Perf/Watt verlust (15% mehr Leistung für 30% mehr Strom)

Es ist ziemlich offensichtlich, dass ein Großteil der Refresh entweder Shrinks waren oder kleine Chips, die das Maximum nicht ausgenutzt haben.
Und das wäre in unserem Fall bei nVidia eben GK110.
 
Warum müssen? Wir haben es schon längst getan. Die Sprünge sind deutlich kleiner als früher und die Preise steigen von Generation zu Generation.
Guckst du hier!

Also gemessen daran, das zu Geforce 2 Zeiten 1000DM durchaus keine Seltenheit waren, sind die aktuellen ~400€ für GK104 als Topmodell bzw. preislich was drunter die GHz HD7970 doch noch günstig ;)
ich würde eher sagen, das man sich aktuell auf einem Niveau befindet, was durchaus realistisch ist.
Wie auch die Vergangenheit mehrfach zeigte...

Geht es natürlich Richtung 1000€, sieht das schon anders aus. Dual GPU Karten halte ich an der Stelle aber nicht so extrem für Vergleichbar. Denn SLI/CF geht seit ~2004. Und mit je zwei HighEnd Modellen warst du dort genau so schon auf diesem Niveau.
Positiv sticht eigentlich nur RV770 bzw. G200b herraus. Wo du für die Karten mit ~130€ ziemlich ganz oben dabei warst. Die GTX 285 lag schlussendlich wie Stein im Regal mit ~300€ und mehr.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh