nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich sage mal wenn der Titan so wie der GK104 scalliert wird das ding bei 850Mhz turbotakt grade so 50% schneller sein VS GTX680!
 
Zuletzt bearbeitet:
keiner weiß etwas genaues bei 1000 megaherzdenke ich dass die karte sicherlich das potential für 70 bis 80 prozent mehr leistung gegenüber der 680 .
für mich ist das absolut wichtigste dass der titan sich in der spannungsversorgung deutlich unterscheidet es muss ganz einfach möglich sein die spannung nach freien willen einzustellen
 
keiner weiß etwas genaues bei 1000 megaherzdenke ich dass die karte sicherlich das potential für 70 bis 80 prozent mehr leistung gegenüber der 680 .
für mich ist das absolut wichtigste dass der titan sich in der spannungsversorgung deutlich unterscheidet es muss ganz einfach möglich sein die spannung nach freien willen einzustellen

Jo genau so muss das sein weil sonst kaufe ich wieder ne AMD fals das OC potenzial wieder so gut wird!
 
Jupp könnte so kommen

Allerdings kommmt mir das fast einer Absprache gleich

Wie kann man denn simultan aus beiden Lagern das selbe eröffnen
 
Also ich sag mal so: wenn die 8000er und 700er Karten erst Ende 2013 erscheinen, dann hat Nvidia gar keine Konkurrenz und dann reichen auch 50% gegenüber der 680. Sollte AMD den Stoff jetzt auch bald raushauen, dann sind 50% natürlich auch ok, aber als Titankarte? Eher nicht....dann sollten sie das Teil lieber regulär 780GTX nennen. Ne reine Geforce Titan muss schon etwas Prestige mitbringen.

Nächste Woche erfahren wir sicher, ob das Teil wirklich 6gb hat und sauber läuft.
 
NV dürfte aber von den Boardpartnern für die GK110 Chips höhere Margen nehmen können. Der Gewinn dürfte also höher sein als bei zwei GK104 Chips.

Schaut man sich die ganze Karte an ist es natürlich noch etwas "schlimmer". Ich brauche zwei eigenständige Spannungsversorgungen und mehr Speicher, ohne wirklichen Mehrgewinn. Da dürfte eine GK110 Karte ordentlich kostengünstiger sein.

Durchaus dürfte die Marge (runtergebrochen rein auf die Hardware) höher sein. Nur darf auch nicht vergessen werden, das Karten im Profimarkt auch ganz andere Kosten erzeugen... Speziell was Treiber und sonstige Softwaregeschichten angeht. Da kann sich quasi niemand erlauben, irgendwas einfach mal nicht zu machen oder auszusitzen, wie es gern mal im Gamermarkt gemacht wird.
Speziell bei K20/K20X sehe ich da eben das Problem, das die ~19000 Karten direkt an eine Stelle gingen. Dieser eine Endkunde würde nen Teufel tun, für alle ~19000 Karten dediziert Softwareverträge einzugehen. Warum auch? Macht ja keinen Sinn. Ein Vertrag angewendet reicht für alle Produkte im Besitz.

Rein auf die Karte im ganzen betrachtet, bleibt wie angesprochen vieles an den Boardpartner hängen. Erst werden die Händler gemolken, dann die Boardpartner... Erst zulässt lässt der Hersteller selbst Federn. Siehe G200(b) mit extremst niedrig Preisen. Wo die großen Modelle Boardpartnerseitig mit Draufzahlen an den Mann gebracht wurden (was Meldungen sogar bestätigten)

Sofern also GK104 im Rahmen bleibt, was Gewinne betrifft, geht sich das auch als Dual GPU aus. Denn NV verkauft GK104 als GPU, nicht als Gespann. ;) GK110 wird ebenso als GPU verkauft. Was der Boardpartner dann noch da rausholt, ist sein Bier...
Die unbelegbare Preisfrage bleibt also, wie viel reingewinn wirft ein Gamer GK110 im Vergleich zu einem oder zwei GK104 ab. Und hier dürfte GK104 in meinen Augen die besseren Karten haben, aufgrund von weniger Problemen bei der Fertigung. Nicht umsonst hat man K20 mit 13 und K20X mit 14 SMX ausgeliefert. Irgendwie muss es da noch etwas "klemmen"

Das soll jetzt was implizieren?

Das man daraus das Verhalten von Big K extrahieren kann?

Nix ;)
Es sollte nur aussagen, das auch GK104 wie so viele andere GPUs auch am Markt dediziert schon mit Caches arbeitet. GK110 wird wohl Keplerarchitekturtypisch nicht so extrem viele Änderungen im Cachemanagement haben. Sondern man legt an vielen Stellen wohl nur in der Größe zu. So bietet auch GK104 für VRAM Zugriffe einen Cache, der aber eben nicht so groß ist. Steinigt mich, wenn ich irre, aber ich behaupte, das ganze Cachezeugs hilft zwar, aber rettet nicht bei nem möglichen (Bandbreiten) Limit als Beispiel. ;)
Keine Frage, für gewisse Sachen dürfte das durchaus massiv von Vorteil sein, größere Caches zu haben... Wie viel genau, und was dabei in der Praxis (Games) übrig bleibt, werden wir noch sehen.
 
Zuletzt bearbeitet:
GK110 wird wohl Keplerarchitekturtypisch nicht so extrem viele Änderungen im Cachemanagement haben. .


Abwarten GK110 ist in erster Linie eine GPGPU Karte die am Durchsatz hängt wie das Kleinkind an der Mutterbrust

Da wird man sich von der Warte schon Gedanken gemacht haben,was der aufgeblaßene Cache bringen soll
 
Zuletzt bearbeitet:
Hier geht es ja munter weiter so halten wir das noch durch bis zum Titan:banana:
Zum Thema OC die Luxxer bzw die GK104 Käufer sind selber schuld wen es beim GK110 nicht gehen wird mit der Spannungsanhebung.
Das was NV mit dem GK104 geleistet hat hätte mit nicht kauf bestraft werden müssen da mit NV mehr auf Ihre Highendkunden eingeht .
Ist meine Meinung.
Allein das 256 Bit Interface war eine Schande für Angebliches Highend.
Bei aller liebe zu NV ich habe das nicht mit mir machen lassen.
Schade das es so viele Mitläufer gibt .
So macht NV mit uns was sie wollen die aktuellen Preise sprechen ja für sich.
 
Zuletzt bearbeitet:
Wieso ist G80 eigentlich der Heilsbringer?
"poplige" 69%+ zu ner X1950XTX... Ist nix ungewöhnliches. Oder andersrum betrachtet. Ne X1950XTX ist gerade mal 41% langsamer als ne 8800GTX. Und das zum Messzeitpunkt Release HD3870 (Werte von CB)
Zum Release wars noch was weniger ;)

In der PCGH 2/2013 testen die 100GPUs, auch die 8800 Ultra, HD 3870 und auch die X1950XTX - und da ist der G80 oft rund 60, aber auch mal tweils über 100% schneller als die 3870 oder die X1950XTX - soetwas hat es seit damals eben nicht mehr Gegeben. Selbst heute kann man ohne MSAA noch einigermaßen damit spielen (natürlich nur bis DX10).
Und im Vergleich wird der GK110 sicherlich keine 60% schneller als die direkte AMD Konkurenz, da einfach nicht machbar. Bei G80 waren die Preise auch im Verhältnis zu heute mehr als angemessen.

Das was NV mit dem GK104 geleistet hat hätte mit nicht kauf bestraft werden müssen da mit NV mehr auf Ihre Highendkunden eingeht .
Das Problem ist doch a) die High-End Kunden machen nur einen extrem kleinen Bereich aus, b) der GK104, egal was man sagt, hat sich deutlich besser verkauft als AMDs GCN. Martwirtschaftlich hat nVidia mit der GTX 680, sowie allen Kepler-Karten alles richtig gemacht.
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

also wer eine 480 oder 580 hat und keine 680 gekauft hat weil es sich nicht lohnt - tja, einiges verpasst :)
es is doch egal ob das nur 256bit ist oder ein vermeintlicher Performancechip zu Highend Preisen verkauft wurde...

die 680 ist so ziemlich das beste was ich jemals im Rechner hatte
mit Taktraten um 1200 ist das Ding sehr flott und trägt auch zurecht das GTX Branding

verstehe auch das Gemecker bzgl Performancechip und Sauerei und und und nicht

selbst wenn "Titan" "nur" 40-50% einer 690 erreicht ist das Prima, weil besser als 680 und keine MGPU Problematik

aber die 680 wird zu unrecht gescholten :) nehmt euch ne Lightning mit 1,35V zur Brust und ihr liebt auch GK104 ;)
 
keiner weiß etwas genaues bei 1000 megaherzdenke ich dass die karte sicherlich das potential für 70 bis 80 prozent mehr leistung gegenüber der 680 .
für mich ist das absolut wichtigste dass der titan sich in der spannungsversorgung deutlich unterscheidet es muss ganz einfach möglich sein die spannung nach freien willen einzustellen

Dürfte aber träumerei bleiben.

Also ich sag mal so: wenn die 8000er und 700er Karten erst Ende 2013 erscheinen, dann hat Nvidia gar keine Konkurrenz und dann reichen auch 50% gegenüber der 680. Sollte AMD den Stoff jetzt auch bald raushauen, dann sind 50% natürlich auch ok, aber als Titankarte? Eher nicht....dann sollten sie das Teil lieber regulär 780GTX nennen. Ne reine Geforce Titan muss schon etwas Prestige mitbringen.

Nächste Woche erfahren wir sicher, ob das Teil wirklich 6gb hat und sauber läuft.

Was is denn "Titan"? Nicht mehr als ein Name, also Schall und Rauch. NV ist da zu nichts verpflichtet.

Durchaus dürfte die Marge (runtergebrochen rein auf die Hardware) höher sein. Nur darf auch nicht vergessen werden, das Karten im Profimarkt auch ganz andere Kosten erzeugen... Speziell was Treiber und sonstige Softwaregeschichten angeht. Da kann sich quasi niemand erlauben, irgendwas einfach mal nicht zu machen oder auszusitzen, wie es gern mal im Gamermarkt gemacht wird.
Speziell bei K20/K20X sehe ich da eben das Problem, das die ~19000 Karten direkt an eine Stelle gingen. Dieser eine Endkunde würde nen Teufel tun, für alle ~19000 Karten dediziert Softwareverträge einzugehen. Warum auch? Macht ja keinen Sinn. Ein Vertrag angewendet reicht für alle Produkte im Besitz.

Rein auf die Karte im ganzen betrachtet, bleibt wie angesprochen vieles an den Boardpartner hängen. Erst werden die Händler gemolken, dann die Boardpartner... Erst zulässt lässt der Hersteller selbst Federn. Siehe G200(b) mit extremst niedrig Preisen. Wo die großen Modelle Boardpartnerseitig mit Draufzahlen an den Mann gebracht wurden (was Meldungen sogar bestätigten)

Sofern also GK104 im Rahmen bleibt, was Gewinne betrifft, geht sich das auch als Dual GPU aus. Denn NV verkauft GK104 als GPU, nicht als Gespann. ;) GK110 wird ebenso als GPU verkauft. Was der Boardpartner dann noch da rausholt, ist sein Bier...
Die unbelegbare Preisfrage bleibt also, wie viel reingewinn wirft ein Gamer GK110 im Vergleich zu einem oder zwei GK104 ab. Und hier dürfte GK104 in meinen Augen die besseren Karten haben, aufgrund von weniger Problemen bei der Fertigung. Nicht umsonst hat man K20 mit 13 und K20X mit 14 SMX ausgeliefert. Irgendwie muss es da noch etwas "klemmen"

Ich bezog mich bei der Aussage aber rein auf Karten für den Desktop und das komplett.

Was man so hört scheint GK110 aber ganz gut zu laufen. Wie gesagt, hast du die gleiche Anzahl Fehler aufm Wafer ist die Ausbeute bei kleinen Chips logischerweise höher. Trotzdem sind die GPUs auch nur Teilkosten einer Karte. Es bringt aber nichts bei so vielen unbekannten zu diskutieren, ich hielt es nunmal nicht für unmöglich das GK110 als SGPU-Karte günstiger ist als GK104 als MGPU-Karte. Wenn du das anders siehst, könntest du ebenfalls recht haben.
 
So weit ich das in den Foren verfolgt habe geht es weder bei der DC. Lightning .oder EVGA NV hat doch ausdrücklich ein Riegel vorgeschoben.

Und es geht auch wieder los trägt zu Recht das GTX Logo usw.das mag ja auch sein.
Ich finde den Chip selbst auch Super den Rest jedoch nicht.

Zu mindest wird da endlich Abhilfe geschaffen in Form von GK110.
 
Abwarten GK110 ist in erster Linie eine GPGPU Karte die am Durchsatz hängt wie das Kleinkind an der Mutterbrust

Da wird man sich von der Warte schon Gedanken gemacht haben,was der aufgeblaßene Cache bringen soll

Durchaus, nur sind GPGPU Szenarien wohl ne etwas andere Thematik, speziell was Speicherzugriffe angeht. Das sieht man auch gut an CPUs und deren Caches. Es gibt CPUs ohne L3 Cache als kleine Mainstream Produkte. In einigen Anwendungen merkt man davon sogut wie nix, in anderen Fällen ist der Unterschied enorm. Alles eine Frage der Software ;)

Und gerade weil eben der GPGPU Markt andere Ansprüche stellt an das Speichermanagement im großen und ganzen, kann man direkt nicht viel davon auf den Gamermarkt ableiten.
Kommt halt immer drauf an, wie ein Bandbreitenlimit zustande kommt. Wenn du Megabyteweise Texturedaten durch den VRAM ziehst, nutzt dir ein "popliger" 1 oder 2MB Cache sogut wie gar nix. Da die Daten direkt aus dem VRAM kommen (müssen)
Gehts aber beispielsweise darum, Zwischenergebnise von Berechnungen schnell verfügbar zu haben, so bringt dir ein Kleinstcache mit Pfeilschnelleranbindung riesige Vorteile.
So 100% belegt ist da aber aktuell scheinbar nix, was Games angeht. Viel geht da dediziert in die Hardwarebetrachtung, die das gemeine Volk eher weniger bis gar nicht interessiert, solange die FPS hinten am Monitorausgang rausfluppen anstatt rauskriechen ;)

Zum Thema OC die Luxxer bzw die GK104 Käufer sind selber schuld wen es beim GK110 nicht gehen wird mit der Spannungsanhebung.
Das was NV mit dem GK104 geleistet hat hätte mit nicht kauf bestraft werden müssen da mit NV mehr auf Ihre Highendkunden eingeht .
Ist meine Meinung.
Allein das 256 Bit Interface war eine Schande für Angebliches Highend.
Bei aller liebe zu NV ich habe das nicht mit mir machen lassen.
Schade das es so viele Mitläufer gibt .
So macht NV mit uns was sie wollen die aktuellen Preise sprechen ja für sich.

Thunder, nicht jeder steigt direkt von GTX 580er (bzw. SLI) Karten oder ähnlichem auf ne 680er um. Bzw. hat diese Performance vorher im Rechner gehabt.
Bei einigen waren ganz andere Leistungswerte vorher im PC. Mein OCed 470er SLI wurde in höheren Settings (1,28GB VRAM Limit der 470er bei DS, SGSSAA oder sonstigem Zusatzzeugs) sogar von einer 680er geschlagen.
Dafür das ich die Performance durchaus für gut fand, mit zwei 680ern sogar für richtig gut ;) war der Wechsel nicht verkehrt.
Trotz nur 2GB VRAM und 256Bit SI sowie dem OC Limit. Wobei man das auch kein wirkliches Limit nennen kann. Denn fast 25% OC+ in Sachen Takt sowohl bei GPU als auch Speicher sind nun so schlecht nicht. Da gabs andere Kalliber, die unter Luft deutlich eher schluss gemacht hatten. ;)

Über die Preise braucht man aber wohl nicht zu diskutieren, die sind unverschähmt hoch, keine Frage... Weniger würde ich mir auch wünschen. Aber solange man es leisten kann und vor allem, sich leisten will, steht dem Vorhaben auch nix im Wege.
Mal gucken, wo meine wirkliche Schmerzgrenze zu finden ist. Die anfänglich 1000€ für ne 690er waren mir auch zu viel. Dennoch habe ich 2x 504,99€ + Versand für die 680er gelegt.
Sowas nennt sich dann wohl Enthusiast. Auch wenn ich damit wohl erst im unteren Bereich vom Enthusiastenstadium angelegt bin. (siehe 4x680er oder Dual 690er)

In der PCGH 2/2013 testen die 100GPUs, auch die 8800 Ultra, HD 3870 und auch die X1950XTX - und da ist der G80 oft rund 60, aber auch mal tweils über 100% schneller als die 3870 oder die X1950XTX - soetwas hat es seit damals eben nicht mehr Gegeben. Selbst heute kann man ohne MSAA noch einigermaßen damit spielen (natürlich nur bis DX10).
Und im Vergleich wird der GK110 sicherlich keine 60% schneller als die direkte AMD Konkurenz, da einfach nicht machbar. Bei G80 waren die Preise auch im Verhältnis zu heute mehr als angemessen.

Neja es ist müßig grob 6 Jahre nach Release von ner GPU einen Test zu nehmen und daran die Performance von damals zu messen.
Damals waren es weit weniger als 100%. Was eben die Tests von damals auch belegten... Sicher war der Sprung enorm, speziell auf G71 bezogen. Weltbewegend fand ich den aber nicht. Da gab es andere Karten, die ähnlich gut oder gar leicht besser performten. Beispielsweise ne 480er GTX auf den direkten Vorgänger (285er)

Und zu den Preisen. Also der offizielle Releasepreis der 8800 GTX lag soweit ich weis bei ~580€... Die Ultra schlug sogar mit 699€ in den Geldbeutel. Da sind wir aktuell noch ne Ecke entfernt von ;)
Wobei natürlich die Preise ansich damals zur direkten Konkurenz schon extrem hoch waren. Heute hast du was niedrigere Preise, dafür aber auch stärkere Konkurenz.
 
Sicher war der Sprung enorm, speziell auf G71 bezogen. Weltbewegend fand ich den aber nicht. Da gab es andere Karten, die ähnlich gut oder gar leicht besser performten. Beispielsweise ne 480er GTX auf den direkten Vorgänger (285er)

Darum ging es gar nicht -es ging nur um den Vergleich von G80 und der direkten Konkurenz. Und diese konnte erst mit einer HD 4800er mitziehen/vorbeiziehen. Sowohl die HD2900XT als auch die HD 3870 hat man mit diesem Abstand (rund 50%) geschlagen. Und die GTX 480 war auch nur rund 15-20% schneller als die HD 5870, genau das selbe mit der GTX 580 und auch mit der GTX 285 und HD 4890.
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Hier geht es ja munter weiter so halten wir das noch durch bis zum Titan:banana:
Zum Thema OC die Luxxer bzw die GK104 Käufer sind selber schuld wen es beim GK110 nicht gehen wird mit der Spannungsanhebung.
Das was NV mit dem GK104 geleistet hat hätte mit nicht kauf bestraft werden müssen da mit NV mehr auf Ihre Highendkunden eingeht .
Ist meine Meinung.
Allein das 256 Bit Interface war eine Schande für Angebliches Highend.
Bei aller liebe zu NV ich habe das nicht mit mir machen lassen.
Schade das es so viele Mitläufer gibt .
So macht NV mit uns was sie wollen die aktuellen Preise sprechen ja für sich.

Ich habe zu NV gegriffen da ich mit meiner letzten AMD Karte nur Probleme hatte und bluescreens an der Tagesordnung waren. Daher werde ich auch höstwahrscheinlich in nächster Zeit NICHT zu AMD greifen


^^iPod lässt Grüßen^^
 
Was man so hört scheint GK110 aber ganz gut zu laufen. Wie gesagt, hast du die gleiche Anzahl Fehler aufm Wafer ist die Ausbeute bei kleinen Chips logischerweise höher. Trotzdem sind die GPUs auch nur Teilkosten einer Karte. Es bringt aber nichts bei so vielen unbekannten zu diskutieren, ich hielt es nunmal nicht für unmöglich das GK110 als SGPU-Karte günstiger ist als GK104 als MGPU-Karte. Wenn du das anders siehst, könntest du ebenfalls recht haben.

Wie gesagt, ein dediziertes Gegenhalten der Chipkosten (durch deren Größe, Ausbeute usw) von NV als Chiphersteller gegen die Kosten der gesamten Karte der Boardpartner halte ich für eher undurchsichtig. Weil es eben zwei völlig verschiedene paar Schuhe sind. Kleine Chips holen den Gewinn bekanntlich über die Menge. Nicht umsonst wird nach wie vor gesagt, das Geld kommt vom Mainstreammarkt. Also kleine Desktopmodelle im Preisbereich von vllt 50-200€, wenn überhaupt so viel.

Wenn du es natürlich rein aus Boardpartnersicht siehst, könntest du aber durchaus recht haben. Unbekannt bleibt halt, in wieweit sich NV die fetten GK110 Chips zusätzlich für Gamer bezahlen lässt. Das sehen wir erst dann, wenn Konkurenz da ist und die Preise purzeln. Irgendwo wird die Schmerzgrenze liegen :fresse:

Darum ging es gar nicht -es ging nur um den Vergleich von G80 und der direkten Konkurenz. Und diese konnte erst mit einer HD 4800er mitziehen/vorbeiziehen. Sowohl die HD2900XT als auch die HD 3870 hat man mit diesem Abstand (rund 50%) geschlagen. Und die GTX 480 war auch nur rund 15-20% schneller als die HD 5870, genau das selbe mit der GTX 580 und auch mit der GTX 285 und HD 4890.

Nur gab es zum Releasezeitpunkt aber keine HD2900XT oder HD3870 whatever. Somit musste sich G80 an der am Markt befindlichen X1950XTX sowie der 7900GTX/7950GX2 messen. Bezogen auf die X1950XTX misst CB im Releaseartikel 62% bei 1600x1200, 4xMSAA und 16xAF. Ein großer Sprung, aber nichts weltbewegendes.
Wie du aber richtigerweise sagst, G80 hatte den riesigen Vorteil, das AMD damals nicht so richtig konnte oder zum Teil auch nicht wollte. Man gab ja auch Statements, das man mehr auf Effizienz hinaus will.
Wobei ich rückblickend den Vergleich schon für etwas "schöngeredet" betrachte. Denn G80 gegen die technisch direkte DX10 AMD Konkurenz in Form der HD2900XT, welche ca. ein halbes Jahr später kam und gleichsam ne HD5870, welche grob ein halbes Jahr früher gegen die 480er kam, zu stellen macht den Vergleich irgendwie etwas kaputt. ;)

PS: und noch ein kleiner Seitenhieb
CB misst im Releasetest der HD3870 einen Vorsprung derer von 13% auf ne G80 Ultra (in 1600p bei 8xMSAA/16xAF) :fresse:

Ich habe zu NV gegriffen da ich mit meiner letzten AMD Karte nur Probleme hatte und bluescreens an der Tagesordnung waren. Daher werde ich auch höstwahrscheinlich in nächster Zeit NICHT zu AMD greifen

Dann solltest du mal deine Hardware überprüfen ;) Oder auch deine Software.
In meinen Händen waren schon so einige ATI/AMD Modelle, seit Beginn an gab es da keine Bluescreens, vor allem nicht an der Tagesordnung ;)
Ein Bluescreen ist eine Art Schutzmechanismus vom Windows und im Grunde genau so gewollt.
Ein Hardwaredefekt kann dir beispielsweise genau so bei NV auch passieren und hat nichts mit AMD als Chiphersteller zu tun.
Aber vllt sind meine ganzen ATI/AMD Karten auch alle nur von nem anderen Planeten, denn diese laufen auf wundersame Weise einfach nur, genau so wie sie sollen ;)
 
Zuletzt bearbeitet:
Scully, poste doch das Ganze, damit wir lachen können:

NV GTX titan, Performance hat sich über die GTX690 weg, in der Tat, er war nicht eine neue Generation von Kern (Übertragung über das Netzwerk der GTX780?) In der Tat, er ist die die NV frühesten Design-Produkte, aber die Hersteller, er ist noch nicht ausgereift, so dass es keine Start Jetzt reifen (limitierte Produktion), aber seine Leistung ist zu stark, die direkt über die GTX690, was seine Position als unabhängiger zu werden, als Titan. . . GTX700-Serie, ist er nicht der nächsten Generation der Implikation, und die tun sb Dual-Core-Grafikkarte, über den Tod, wie Napoleon in einem verrückten Push dass über zehntausend Grafikkarte direkt erschossen wurde, um wahr Serie 700 Grafikkarten zumindest nach Juni 2013, im Grunde NV wurde technisch frei Spike AMD, das Problem ist, dass die die AMD rücksichtslosen wollen. . . Exclusive brach die Nachricht geben Sie bitte die Quelle ~ Danke ~ in Hua Huanghe 30. Januar 2013

Also ich bin jetzt schlauer, ihr auch? :fresse:
 
Darum ging es gar nicht -es ging nur um den Vergleich von G80 und der direkten Konkurenz. Und diese konnte erst mit einer HD 4800er mitziehen/vorbeiziehen. Sowohl die HD2900XT als auch die HD 3870 hat man mit diesem Abstand (rund 50%) geschlagen. Und die GTX 480 war auch nur rund 15-20% schneller als die HD 5870, genau das selbe mit der GTX 580 und auch mit der GTX 285 und HD 4890.

Soweit ich mich erinnere wurde die 3870 zwar geschlagen, aber nie und nimmer um 50% und gleichzeitig hat die 8800 auch mehr Strom aus der Dose gezogen.
 
Hier gehts aber nicht um die alten Schmutz ATI Karten Jungs :wink:

Nein, aber um zu zeigen, dass eben G80 teils meilenweit vor der direkten Konkurenz und einigen nachfolgern lag, was auch damals den hohen Preis rechtfertigte. GK110 wird dies aber wohl nicht schaffen können ->hoher Preis nicht gerechtfertig.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh