nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Die Graka wird doch net über 800€ kosten, wie die völlig überteuert 690GTX? Oder über was wird hier gelabert?

Doch, zurzeit sieht es danach aus. Falls das wirklich so sein sollte, kann man nur hoffen, dass AMD was ähnlich schnelles Bringt, aber rund 300€ billiger ist...
Mal abwarten, wenn jetzt wirklich nur eine 14SMX version erscheinen soll, kann ich noch etwas länger warten. dann kommt sicherlich auch ne 15SMX raus, wie damals bei GTX 480 -> 580.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mal abwarten, wenn jetzt wirklich nur eine 14SMX version erscheinen soll, kann ich noch etwas länger warten. dann kommt sicherlich auch ne 15SMX raus, wie damals bei GTX 480 -> 580.
Da bekommt man glatt schlechte Laune.
 
Und wann hat zuletzt ne Single-GPU Graka über 600€ gekostet? Warum jetzt so dicke in die Hosentasche greifen müssen?
 
Und wann hat zuletzt ne Single-GPU Graka über 600€ gekostet? Warum jetzt so dicke in die Hosentasche greifen müssen?

warscheinlich, damit man den GK104 nachfolger weiterhin so teuer (rund 500€) verkaufen kann und möglicherweise, weil der GK110 so teuer in der Produktion ist. Aber ich meine, wir reden hier von rund 1600-1800DM, selbst ne Geforce2 Ultra hat damals niemals soviel gekostet xD

@espanolplaya
komm mal von deinem Fanboygeplärre wieder runter. Bis zur GTX 670 gehen die Preise ja teils vollkommen in ordnung, zwar etwas mehr, aber nun ja, ist eben so. Die GTX 680 ist aber klar zu teuer, normalisiert sich aber auch so langsam...
GK110 soll so aber in einer ganz anderen Liga spielen...

Fakt ist, falls nvidia wirklich so bescheuert ist und AMD wirklich ein gutes, konkurenzfähiges Produkt anbietet, bin ich sicher nicht gewillt, soviel Geld für ein produkt auszugeben. Dann kaufe ich mir lieber ne HD 8970, komme im besten Fall einige Hundert € günstiger udn habe mit OC in etwa die selbe Leistung:d
 
Zuletzt bearbeitet:
Eben, wenn die 7XX echt so teuer ist, dann kauft man sich eben SLI und fährt damit besser/günstiger und hat sowieso mehr Leistung.
 
Na ja. Nach dem was ich so weiß ist ein mal GK110 ziemlich genau zwei mal GF110. Abgesehen vom Verbrauch ;) Also kommst du mit zwei GTX680 (4GB) über der 690 heraus. Aber da auch in jeder Hinsicht (Verbrauch, Kosten & Leistung).
 
Absoluter Quatsch... Ich kann zwei GK104 GPUs bei fast 1,3GHz im SLI spielend auf unspielbarkeits FPS Regionen drücken in FullHD. Wozu also mehr?
Und es ändert nix an der Tatsache, das (laut Steam Hardwareumfrage) gut 1/3 aller genutzten Monitore nur FullHD kann. Es ist also die mit Abstand meist genutzte Monitorauflösung. Also muss sich die Hardware daran auch messen.

Und ganz ehrlich, nicht jeder möchte mit nur 30 FPS spielen ;)
Mit einer einzigen GK104 GPU bei ~1,3GHz und 3,6GHz Speichertakt schaffe ich in einigen Games gerade mal diese FPS Raten, wenn man SGSSAA drauf haut.


Was ist jetzt Quatsch? Ich wollte doch nur sagen wenn ich im CPU Limit bin die schnellste Graka nichts bringt, daher muss ich dann mit SGSSAA benchen um noch einen Vorteil aus der Mehrleistung ziehen zu können. Wenn ich immer stark im CPU Limit bin und damit zufrieden bin, dann kann ich mir gleich was langsameres kaufen. Oder reden wir hier aneinander vorbei?
 
Also eine neue Karte wär schon schön, denn so langsam reicht mir die GTX 680 nicht mehr aus um die 100 - 120 FPS konstant bei 120 Hz in FullHD zu halten und eig habe ich auf SLI&Dual keine lust.



Grüße
Sharie
 
Also eine neue Karte wär schon schön, denn so langsam reicht mir die GTX 680 nicht mehr aus um die 100 - 120 FPS konstant bei 120 Hz in FullHD zu halten und eig habe ich auf SLI&Dual keine lust.



Grüße
Sharie

Das Problem ist leider, dass oft die Graka gar nix dafür kann, weil die CPU die Information für die neue Bilder nicht liefern kann. In Manchen Spielen schafft man 120 FPS auch mit Quad-SLI nicht durchgehend. D3 ist so ein Fall. Multiplayer auf Rakkis Crossing, da gehen die FPS teilweise derbe in den Keller.
 
Oder noch ein Beispiel. Du streubst dich doch genau so, VRAM überlaufende Benches/Settings allein für einen Vergleich ranzuziehen. Siehe diverse Diskusionen von damals.
Das zeigt genau so ein Potential für die Zukunft... Interessiert aber Stand heute dich zumindest nicht, weil läuft ja stand heute ;)

Da werd ich mich wohl auch Stand Dezember dieses Jahres noch streuben weil die Konsolen keinen signifikanten Zugewinn an Texturierungsdaten erreichen werden mit der "Überperformance" an technischen Know How

Bleibt als Anwendungsbereich also weiterhin nur Downsampling im großen Stil was nicht jedermans Priorität ist,schon gar nicht der der 0815 User um die es in solchen Tests im allgemeinen geht

Aber das ist ein anderer Zweig und hat mit dem gelagerten Fall erstmal gar nix am Hut

Wer sowas betreibt hat auch das Verständnis dafür wann er was benötigt

Hier gehts aber um den Normalo der sich anhand der "Tests" ein Bild über seine Hardware machen soll u das geht nur wenn es ihn der Test so leicht als möglich macht,ohne groß Hardwarelimitierungen rausrechnen zu müssen

---------- Post added at 16:01 ---------- Previous post was at 15:51 ----------

Kein Fanboygehabe, habe AMD sowie NVidia Karten. P/L Mäßig ist es einfach Fakt, dass NVidia überteuert ist, jaja ich weiß Effizienz. :lol: Das einzigste was an AMD stört sind die Treiber.

Und das sagt wer? Der Weihnachtsmann,der Osterhase,das Christkind,dein persönliches Bauchgefühl?

Der Umsatz u Gewinn sagt da was vollkommen anderes,nicht wer ständig rote Zahlen schreibt überlebt im Business;)

Wenn du meinst "Geiz ist Geil" zu Kaufen dann mach das,nur auf absehbare Zeit geht sich das für deinen hochgelobten Konzern nicht aus
 
Zuletzt bearbeitet:
nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread] (1. Seite lesen!)

Was habt ihr eigtl gegen gk 110 und full hd tests ? Mit aa , sgssaa und allen sonstigen schmankerln knabert doch schon der gk 104 an den 60 fps vsync bei nicht wenigen games. Da kommt gk110 gerade recht.

Ist ziemlicher kaese immer wieder zu behaupten gk 110 waere nur fuer 30 zoll monitore u.ae. Sinvoll


Sent from my iPhone 4 using Hardwareluxx app
 
Sagt auch niemand. Hab ja selbst nur einen FullHD Monitor und hatte 4 GPUs dran. Wollte nur sagen, Graka bitte nicht im CPU Limit messen. Natürlich sind 1080p Benchmarks ok, wenns dann auch welche mit SGSSAA und das auch noch in hohen Auflösungen gibt.

3820*2160 mit 8xAA zwingt auch 4 übertaktete GK104 in die Knie.
 
Zuletzt bearbeitet:
Auf jeden Fall wird mit einer Karte @Full HD max OC auf der Cpu Pflicht sein da mit man die Monster ausfahren kann in Full HD wenn man kein Supersampling oder Downsampling nutzt.
 
Was habt ihr eigtl gegen gk 110 und full hd tests ? Mit aa , sgssaa und allen sonstigen schmankerln knabert doch schon der gk 104 an den 60 fps vsync bei nicht wenigen games. Da kommt gk110 gerade recht.

Weil man da nunmal mit einigen Szenarios ins CPU Limit rennt mit Grafikkarten dieser Größenordnungen

Schnullermark würde auch keiner mehr auf die Idee kommen ne Highend GPU im Entire Preset zu testen und das als repräsentativ abzulegen für Vergleiche unter verschiedenen Grafikgenerationen

Man kanns ja gerne tun nur sollte man die Einsteiger eben dahingehend aufklären,das bei solchen Setups bereits die Gefahr besteht das sich die Highendkarte anderst verhält,wie mit genügend CPU Rohpower an ihrer Seite

Entweder das oder ich eliminiere den CPU Part,indem ich die Auflösung höher schalte

So wie das CB gelößt hat beim CPU Benchen mit einer allgemein verständlichen Erklärung dazu ists denke ich der Problematik recht angemessen:)
 
Zuletzt bearbeitet:
Was ist jetzt Quatsch? Ich wollte doch nur sagen wenn ich im CPU Limit bin die schnellste Graka nichts bringt, daher muss ich dann mit SGSSAA benchen um noch einen Vorteil aus der Mehrleistung ziehen zu können. Wenn ich immer stark im CPU Limit bin und damit zufrieden bin, dann kann ich mir gleich was langsameres kaufen. Oder reden wir hier aneinander vorbei?

Neja oben schriebst du noch, wer ein SLI kauft und nur FullHD mit 4xAA spielt ist selbst schuld. Und das ist Quatsch. Weil es auch in dieser Konstellation schon zu Problemen kommen kann, was die FPS Rate angeht.
Auch kommt dazu, das nicht jedes Spiel gleich performt. Wo ein Game noch orgentlich skaliert muss dies bei einem anderen nicht ebenso so sein.
Pauschal ne Mindestauflösung in den Raum zu knallen und zu sagen, wer sowas macht, der kann auch kleinere Hardware kaufen macht da keinen Sinn ;)

Da werd ich mich wohl auch Stand Dezember dieses Jahres noch streuben weil die Konsolen keinen signifikanten Zugewinn an Texturierungsdaten erreichen werden mit der "Überperformance" an technischen Know How

Bleibt als Anwendungsbereich also weiterhin nur Downsampling im großen Stil was nicht jedermans Priorität ist,schon gar nicht der der 0815 User um die es in solchen Tests im allgemeinen geht

Aber das ist ein anderer Zweig und hat mit dem gelagerten Fall erstmal gar nix am Hut

Grundsätzlich sind es zwei verschiedene Szenarien, das stimmt. Der Effekt ist aber der gleiche... Nämlich in beiden Fällen wird mehr Leistung gefordert, als zum Testzeitpunkt im Schnitt notwendig. Warum soll das eine erlaubt und sogar von dir (und anderen) gefordert werden (alleiniges Testen von Auflösungen größer FullHD), wärend das andere von dir absolut nicht gewünscht ist (erzwungene Mittel für mehr VRAM Bedarf)? -> das ist messen mit zweierlei Maß. Hat nichts mehr mit Objektivität zu tun und hilft dem gemeinen User kein Stück weiter.

Ich kann mich nur widerholen, ich streite bei weitem nicht ab, das die neuen Karten auch in höheren Settings getestet werden sollen/müssen. Dennoch darf gängiger Standard nicht fehlen. Und damit stehe ich scheinbar auch nicht allein dar. Ebenso sagte ich bereits, das die Karte ihre Leistungsfähigkeit deswegen nicht in höheren Settings verlieren wird. Ich gehe sozusagen 100% Konform mit eurer Meinung. Nur das ich ZUSÄTZLICH! noch einen Test in default Settings fordere, der genau so nüchtern zu betrachten ist, wie es in höheren Settings auch gemacht wird. Nicht mehr und nicht weniger...

Ebenso denke ich, wenn man unvoreingenommen von einem Produkt ist, wird man stark differenzieren können, wie die Ergebnise zu bewerten sind. Auch sage ich, diese Fähigkeit der Ergebnisbewertung habe nicht nur ich allein. Sondern du sicher auch, genau so wie box sie hat. Wo ist also das Problem so einen Test hinzunehmen?

Man kanns ja gerne tun nur sollte man die Einsteiger eben dahingehend aufklären,das bei solchen Setups bereits die Gefahr besteht das sich die Highendkarte anderst verhält,wie mit genügend CPU Rohpower an ihrer Seite

Entweder das oder ich eliminiere den CPU Part,indem ich die Auflösung höher schalte

So wie das CB gelößt hat beim CPU Benchen mit einer allgemein verständlichen Erklärung dazu ists denke ich der Problematik recht angemessen:)

Siehste geht doch. Darauf wollte ich hinaus :fresse:
Ein abschließendes Fazit mit dem CPU Limit bzw. der Gefahr, oder das gleich in den Text bei den Benches einfließen lassen und gut ist.
Damit werden alle Seiten bedient, jeder kann für sich und sein System die mögliche Performance halbwegs abschätzen. Und wer nichts mit hohen Auflösungen/Downsampling/SSAA usw. am Hut hat, wird genau so zu dem Schluss kommen, das ggf. so ein Produkt zu viel ist und er das Potential nicht nutzen kann...

Sagt auch niemand. Hab ja selbst nur einen FullHD Monitor und hatte 4 GPUs dran. Wollte nur sagen, Graka bitte nicht im CPU Limit messen. Natürlich sind 1080p Benchmarks ok, wenns dann auch welche mit SGSSAA und das auch noch in hohen Auflösungen gibt.

Und warum auf biegen und brechen ein CPU Limit 100% ausschließen wollen?
Wer weis denn als Otto Normalo, das ein CPU Limit existiert? -> das weis doch keiner... Erst wenn man es testet, wird man es wissen. Und anhand solcher Tests (wie ich foderte), wird genau sowas aufgedeckt.
Ggf. lässt sich sowas auch in nem seperaten, späteren Test verpacken. Sprich CPU Skalierungstests mit GK110. Ein paar Ansätze gibts ja dafür hier im Forum schon.
Und das ist bei weitem nicht rosig, speziell im SLI/CF und nicht erst seit GK104, sondern schon ganz paar Monate/Jahre früher...
 
Zuletzt bearbeitet:
na das heißt ja wieder alles und nichts hier :(
also weiter warten und Tee trinken. Das mit den Preisen ist auch so ne Sache. Also 800 Lappen löhne ich jedenfalls nicht für ne Karte. Da behalte ich mein 680er SLI lieber.
 
Neja das Teil könnte ne recht lange Zeit überbrücken müssen... Da könnte man schon nen höheren Anschaffungspreis über die Laufzeit rechtfertigen...
Aber 680er SLI Leistung zu toppen für ne Single Karte wird wohl eher nicht drin sein ;) Sprich willst du mehr, brauchst du zwei ;)
 
ja das ohnehin.
5760x1080 ist kein großes Argument mehr. Mich hätte jetzt ein Test 2er Titan vs einem 690er/680er Quad gereizt. Wenn ich aber sehe das ich 1600,-€ dann dafür blechen müsste plus Wakü vergeht mir die Laune schnell daran. Da gibts auch keinerlei Rechtfertigung in Sachen Langzeitanschaffung.
Für den Kurs komme ich dann lieber mit meinem Gespann ein weiteres Jahr zurecht, auch wenn ich gerne mehr hätte.
 
Was wohl wäre, wenn ich euch erzählen würde, dass ich noch mit 1680 unterwegs bin :fresse:

Bevor der HP nicht stirbt oder 22-24" mit doppelter Auflösung in den Handel kommen, wird sich daran auch nichts ändern.
Ich brauch fps und davon immer viel :)
 
@Grinsemann

Naja so richtig vernünftig,wäre ein Wechseln von 2x680ern auf sowas so oder so nicht,aber hei das ist das Luxx:d

Ich seh dich doch schon wieder mit dem Finger kreisend,u nervös zuckend auf dem Bestellbutton:asthanos:
 
Zuletzt bearbeitet:
@Grinsemann

Naja so richtig vernünftig,wäre ein Wechseln von 2x680ern auf sowas so oder so nicht,aber hei das ist das Luxx:d

Ich seh dich doch schon wieder mit dem Finger kreisend,u nervös zuckend auf dem Bestellbutton:asthanos:

najaa, ganz unrecht haste ja nicht. Beispielsweise bei MP3 geht der schonmal ganz gerne der VRAM aus. Hat man dann aber mehr vram gehen bei anderen Spielereien dann die Rechenleistung aus...irgendetwas ist ja immer^^ :fresse:
Lu(x)xusproblemchen eben :d
Von daher kahm mir der Wechsel eigendlich nicht unbedingt sinnlos vor. Für 1100 Lappen mache ich das dann aber schon gerne um keine Kopromisse mehr eingehen zu müssen. Aber nochmal 500 drauf wäre mehr als ne Frechheit. So viel hätte ich jetzt auch nicht parat. Die 750,-€ und der Erlös meiner zwei 680er dachte ich mir sollten mir schon zu zwei wassergekühlten verhelfen.
Diesmal denke ich schon das Wasser uns hier weiter helfen wird im Gegensatz zur 680er.
 
Erstmal abwarten wie teuer sie nacher wirklich werden. Die 899$ sind auch nicht mehr als nen Gerücht.
 
Neja das Teil könnte ne recht lange Zeit überbrücken müssen... Da könnte man schon nen höheren Anschaffungspreis über die Laufzeit rechtfertigen...
Aber 680er SLI Leistung zu toppen für ne Single Karte wird wohl eher nicht drin sein ;) Sprich willst du mehr, brauchst du zwei ;)

Bei mir ist noch viel blöder, weil mit zwei GK110 habe ich gerade mal soviel Leistung wie ich mit meinen 4 GPUs hatte. Dh ich habe hier mehrere Optionen:
- mit normalem GK110 SLI zufrieden sein, ist ja doch etwas einfach als 4-Way-SLI
- 3-Way-SLI mit GK110 sollte doch schon einiges mehr bringen als 4-Way-SLI mit GK104
- 4-Way-SLI mit GK110 was aber schon wieder sehr extrem ist, vor allem wenn die karten wirklich 900 € Kosten
- 4-Way-SLI mit GK104 Nachfolger (GK204?) und wieder die Dual-GPU Karte nehmen, eventuell werden das aber wieder Speicher- und Speicherinterfacekrüppel

Option 4 wär mir eigentlich am liebsten, da ich das jetzt auch schon hatte und relativ zufrieden damit war.
Lange dauert es ja hoffentlich nicht mehr...
 
Zuletzt bearbeitet:
scully, hast du schon gesehen, bei CB stehen möglicherweise halbwegs finale Spezifikationen für die neue Xbox bereit.
Das Teil soll 8GB Speicher bekommen. Schaut aber so aus, als wäre der GPU Part ohne eigenen VRAM angebunden und bedient sich analog den APUs aus dem lokalen RAM des Systems... Zumindest der Leistungsbedarf in Sachen RAM aktueller Titel lässt dabei drauf schließen das gewaltig Luft im Speicher ist. Vllt sehen wir ja nen deutlichen Zuwachs an HighRes Texturen wenn die neuen Konsolen kommen. Vor allem ist es ja so, das HighRes Texturen im Grunde nahezu keine mehr GPU Leistung fordern.
Sollte man da reichlich Luft lassen für die Zukunft, stimmt mich das persönlich schonmal glücklich ;)
Und mit den möglichen 3GB auf ner GK110 GPU wäre ich dann auch vorerst zufrieden :fresse:

@bans3i
das ist immer der "Fluch", wenn man von einem SLI System auf ein neues geht. Im Grunde müsstest du wenn dann wieder auf vier GPUs setzen, damit die Mehrleistung auch entsprechend ist.
Aber ich kenn das auch. Damals von 2x470er SLI auf anfangs eine 680er. -> Leistungstechnisch war da kein nennenswerter Unterschied. Außer in VRAM limitierenden Settings beim 470er SLI. Deswegen hat sich auch recht zeitnah hinterher ne zweite 680er eingefunden.

Und ich denke mal, es wird bei mir wieder so laufen. Sprich erstmal eine, und dann ggf. ne zweite dazu.
 
Zuletzt bearbeitet:
It's Ultra Time...:d

titan-ultra54kmi.png


Freuen würde ich mich ja schon über so eine Karte - wobei das mit 6GB VRAM und 2 x 8 Pin noch besser wäre, aber soviel würde NV sicher auch dem Vollausbau nicht spendieren.
Gut, selbst diese Version würde wohl die 300W sprengen, zumindest wenn sie in derselben Revision wie Tesla erscheinen würde, was mir aber auch zweitrangig wäre. :)
 
Zuletzt bearbeitet:
eventuell sehen wir ja 6GB Modelle analog der 580ers 3GB Versionen später als aufgeborte Boardpartnerversionen ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh