nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Wenn man denn den Gerüchten zufolge Glauben schenken kann, die 6GB sind nämlich, soweit ich informiert bin noch nicht zu 100% bestätigt und basieren ebenfalls auf Gerüchten.

zumindest halten sich die Gerüchte sehr hartnäckig... Auch Anspielungen auf VRAM Chips auf Kartenrückseite würden dieses Gerücht eher verstärken als entkräften. -> mal gucken. 6GB sind aber schon ziemlich krass. Da kann man dann auch bedenkenlos Texturpacks drauf knallen, was das INet her gibt :fresse:

Richtig, und gerade für Multi-GPU wird das eine Wohltat. Allerdings ist man dort auch mit den 4GiB Versionen von 670 und 680 nicht schlecht bedient.

Durchaus, rückblickend hätte ich auch lieber zwei 670er mit 4GB genommen anstatt für den gleichen Preis zwei 680er mit 2GB. Nur war damals eben weder 4GB noch die 670er zu haben, weil diese erst später kamen. Von den 690er Dual GPU Karten gibts sowas auch nicht.

Ich verstehe wirklich nicht mehr. Als die Radeon User gemeint haben AMD 7970 3GB ram haben alle geschrieben vram ist nicht wichtig jetzt kommt NV mit 6 GB Ramm + 900€ ist jetzt wieder Vram wichtig geworden. :bigok:

Das ist genau das, was ich vorher sagte... Wenn NV was macht, ist es richtig, wenn AMD was macht, braucht man es nicht ;)
Ich für meinen Teil bin von Anfang an der Meinung, das GK104 für seine Leistung zu wenig VRAM hat. Speziell auf den Preis getrachtet. Denn bei 1000€ im SLI will man nicht wissentlich bei Kauf schon Kompromisse zugestehen müssen. Und das mit Ansage... Muss man aber... Und das nachweislich.

Stimmen die 6GB, wird GK110 eine löbliche Ausnahme in der Liste der NV GPUs, die mal weit aus dem default VRAM Ausstattungsmuster fällt. Und das positiv ;) -> was mir durchaus recht ist.

Ganz blöde Frage zu den 6 GB:

Wie will man die überhaupt auslasten? Ich mein, die allermeisten Games sind doch eh 32 Bit. D.h. du kannst nur 4 GB adressieren. Oder hat das Game gar keinen Direktzugriff auf den VRAM?

Das hat damit nix bzw. wenig zu tun.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für ein Titan SLI sind 6GB sicherlich nicht verkehrt, nur für single GPU Nutzer sollten zur Zeit eigentlich 3GB reichen.

Wenn das stimmt : Next-Gen-Launch-Titel-nicht-schoener-als-Crysis-3 dann sollte man auf Full HD locker die nächsten 2 Jahre mit 3GB auskommen. Wer eine 2560er Auflösung mit einem Titan befeuern möchte braucht auch nicht mehr Vram denn die Rohleistung reicht kaum für 4/8xMSAA @ NextGen. In dem Fall tun auch Mods nicht so weh weil die AA Keule nicht kompensiert werden muß....

Eine GTX 780TI mit 13 SMX, ordentlich Taktpotenzial und nur 3 GB wären mir für 650€ derzeit lieber als ein 850€ Titan so wie man ihn jetzt erahnt. In 2 Jahren wenn da richtig Kontent kommt von den Konsolen ist auch schon wieder die 20nm Gen in den Startlöchern, dann kann man immernoch 6GB verbauen.
 
naja, habe damals mit Singlescreen die 2GB z.b. bei pCars schon knall voll gehabt... Ohne DS und co... jetzt mit Triplescreen habe ich sogar schon kurze nachladeruckler... Da sind die 6GB des Titan eine wohltat auf die ich mich freue!
 
Genau deswegen geht die Vorfreude abhanden. Jetzt liest man wieder ständig irgendein 20-30% Mist für 900-1200€ mit unnützen 6gb bei der Leistung. Schlimm schlimm.

Wäre nett, wenn es sich zur Abwechslung mal nicht bewahrheiten würde. Aber Nvidia kennt da nix. Hauptsache viel Ram, nur reguläre 20-30% mehr Leistung und gute 1000€ verlangen :d. Besser gehts kaum...Aber so wirds nicht kommen, denn da könnte AMD sofort locker kontern und viel mehr Grakas für weniger Geld verkaufen. 20-30% bei der 780GTX ja, bei der Titan niemals :mad:
 
Zuletzt bearbeitet:
Ich sage da nur abwarten. Ich denke das wenn der titan jetzt kommt wird die 780GTX nochmal einen drauf legen.
Warum reagiert wohl AMD nicht und lässt die HD7000 noch länger laufen? Das teil wird nicht so übermächtig dadrauf würde ich wetten
 
Stimmt schon 6GB VRam rechtfertigen keine 900€+, dann kauft man sich lieber für 500 eine 7970 mit 6GB, wenn man denn so viel VRam wirklich benötigt.
 
ich dachte der Titan soll besser sein als die GTX780 nach allem was ich hier so gelesen habe? Hab das Thema jetzt seit 4-5 Tagen abbonniert seitdem ich nen neuen PC plane ... jetzt zuckt es in den Fingern und bei jedem Post hoffe ich auch irgendeinen brauchbaren leak^^
 
Für ein Titan SLI sind 6GB sicherlich nicht verkehrt, nur für single GPU Nutzer sollten zur Zeit eigentlich 3GB reichen.

Wenn das stimmt : Next-Gen-Launch-Titel-nicht-schoener-als-Crysis-3 dann sollte man auf Full HD locker die nächsten 2 Jahre mit 3GB auskommen. Wer eine 2560er Auflösung mit einem Titan befeuern möchte braucht auch nicht mehr Vram denn die Rohleistung reicht kaum für 4/8xMSAA @ NextGen. In dem Fall tun auch Mods nicht so weh weil die AA Keule nicht kompensiert werden muß....

Es geht ja nicht um "reichen"...
In meinen Augen ist das ein ziemliches Unding. Man greift ganz oben ins Regal. Zahlt den Preis, der idR sehr weit untem im P/L Verhältnis steht. Bekommt idR fast kompromisslos GPU Power ohne Ende... Aber muss sich mit Mainstreamausbauten im VRAM zufrieden geben.
Auch hat die Auflösung nicht primär was mit dem VRAM Bedarf zu tun. Zwischen FullHD und 1440p (selbes Seitenverhältnis) liegen maximal ~77,8% mehr Pixel. Der VRAM Bedarf wird um vllt 10, 20 oder 30% steigen. Keinesfalls linear.
Wenn du aber einen Titel spielst, der per default schon die 2GB voll bekommt. Willst du nun 1440p = +10-30% VRAM Bedarf angenommen. Läuft dir der Spaß über... Auch hast du so fast keine Optionen mehr, die BQ zu steigern. Gerade die HighEnd Ableger sollten sowas eigentlich gangbar machen.
Denn reicht die GPU Power irgendwann nicht, steckst du ne zweite, dritte oder vierte GPU zu. Reicht der VRAM nicht? Was machst du dann... Du stehst im Regen. Hast im schlechtesten Fall ~2000€ in den Sand gesetzt (vier GK104 2GB GPUs) und kannst immernoch nicht deine Settings spielen.


PS: Den PCG Artikel finde ich absolut nichts sagend. Denn es steht nirgendwo definiert, wie sich "besser aussehen" überhaupt definiert.
Gestochen scharfe HighRes 4/8k Texturen benötigen einen heiden Speicherplatz. Bringen dich aber in Sachen Effektqualität (Explosionen, Rauch, Wasser, Bewegungen von Gegenständen/Personen, Physikeffekte usw.) absolut kein Stück weiter. Die Aufzählung in der Klammer hingegen benötigt idR aber fast ausschließlich mehr GPU Power, wärend der Speicherbedarf nahezu gar nicht steigt. Bei den Texturen ist es genau andersrum. Ob du ne 0,5/1k Textur oder ne 8k Textur verwendest, juckt die GPU fast überhaupt nicht, reicht der VRAM aber nicht, ist essig ;)

Eine Zukunftsprognose abzugeben, wie der Bedarf steigen wird, ist äußerst schwer. Wenn nicht gar unmöglich...
Die neuen Konsolen mit deutlich gesteigerten Caches/RAM Ausbauten könnten aber frischen Wind in die Sache bringen. Speziell wenn man sich dadurch vom immer mehr verwendeten Schlauchleveldesign abwendet und Welten mit Weitsicht schafft wird Speicher viel wichtiger. Denn wärend ein Schlauchlevel immer nur von einer Wand zur nächsten geht, hast du bei riesigen OpenWorld Games extreme Sichtweiten. x mal mehr Objekte direkt im Blick heist auch x mal mehr Texturen direkt im VRAM.





EDIT: auch hier kann ich meine Gothic 3 Erfahrungen wieder mit einbringen.
Titel ist von 2006. Ich habe anfangs mit ner X1950Pro gespielt. Ganz ohne Mods, alles default... Die hatte 256MB. Es lief so lala und ruckelte teils enorm.
Die 512MB der folgenden Karten brachten Besserung. Aber an ini Mods mit massiver Sichtweitenerhöhung war nicht zu denken.
Erst mit der 470GTX im SLI war endlich halbwegs flüssiges feeling vorhanden. Durch viel GPU Power kam man in den Genuss von SGSSAA (wichtig bei G3, sonst flimmerts und das nicht zu knapp) -> blöd nur, 1,25GB VRAM sind nicht ausreichend.
4xSGSSAA in FullHD laufen beispeilsweise heute mit ner 680er 2GB als Single Karte schon sehr ordentlich. Der VRAM reicht gerade so...
Schaltet man Downsampling dazu, was dem Detailgrad nochmal nen ganzen Zacken mehr Pepp gibt, ist aber wieder Essig... Mit ner 580er 3GB soll es wohl so halbwegs gehen, aber auch mit dem ein oder anderen Nachladeruckler. Und immernoch etwas Spielraum in Sachen Sichtweite, der brach liegt.

Das ist freilich nur ein einziges Beispiel. Zeigt aber sehr schön, das auch ein und der selbe Titel über die Jahre mit den Anforderungen weiter VRAM Bedarf zulegt.
Und falls man meint, G3 ist scheiße. Mag sein, in Sachen Sichtweite und Objektdetailreichtum kann Skyrim bestenfalls mit Mods aber gerade so mal mithalten. ;) Speziell die Sichtweite selbst ist aber selbst Skyrim enorm überlegen. Weil dort irgendwann in der Ferne nur noch nakte Bodentexturen ohne Objekte sichtbar sind. Gibts bei G3 nicht... Zumindest nicht, wenn man die ini anpasst. (und genügend VRAM hat :fresse:)
 
Tja das sieht super aus. Ich hol mir jedenfalls den Titan nur, wenn er grob 50% über der 680 liegt. Darunter nur für max 500€...
 
Er ist noch neu und war bei den anderen Spekuthreads noch nicht dabei :d

Das Potential hat GK110, Frage bleibt halt nur der Takt denn breit genug ist der Chip.
 
Langsamer als eine 690? Mal angenommen das stimmt, wäre das dann nicht eher eine Enttäuschung?
 
Mich stört irgendwie das eine Karte wie die Titan die eigentlich Highend Karte der Kepler serie entspricht und nvidia hingegangen ist und diese mit 900€ anpeilt.
Dann wird eine mittelklasse Karte wie die GTX 680 in 500€ regionen verkauft.

Irgendwo stört mich das. Mich hat es schon mit der GTX 680 gestört , aber ok habe die im Frühjahr kurz vor dem GTX 670 launch für 400€ bekommen.
Karte war ein Moanat alt und nur kurz im SLI getestet was dann für mich schon ein guter Kurs war , aber dennoch recht teuer , dafür das es nicht Keplers vollausbau ist.
Lediglich ist das problem das AMD denke in nächster Zeit nichts entgegen zu setzen hat.
Daher ist es in gewisser maßen fair die Karte so hoch anzusiedeln sonst würde ja keiner mehr ne HD 7970 oder ähnliches kaufen.
 
Wobei ich die 690er dort für was schwach halte... Im Vergleich zum CB 11er EE Ergebnis fehlen da gut und gerne 200 Punkte. Eventuell CPU limitiert?
Zwischen dem 11er und dem 13er Ergebnis bricht die 690er sogar weiter ein.
Wärend sich "Titan" mit 64,8 zu 66,6% fast linear hält.

@Godfather
wenn AMD die Preise drückt, steht Titan schnell im Regen bei dem spekulierten Preisen. Und das man nix hat, kann man nicht sagen. Die GHz Edition ist der 680er um 12-15% vorraus. Viel eher ist aktuell NV erstmal im Zugzwang. Und wenn es sich so bewahrheiten soll, erkauft man sich die Leistungskrone diesmal mit einem extremen Preis. Den dürfte aber nicht jeder bereit sein zu zahlen. ;)
Ob das ausgeht für NV, bleibt abzuwarten.
 
Zuletzt bearbeitet:
Langsamer als eine 690? Mal angenommen das stimmt, wäre das dann nicht eher eine Enttäuschung?

Ne, denn vergesst nicht, das ist beides Kepler. Die 580 war auch nicht fast so schnell wie eine 590. Für dieselbe Fertigung wäre das hervorragend. Man muss das mal auf die 580 umrechnen: Da wäre man mindestens doppelt so schnell.

Im 3DMark11 ist die 690 wirklich etwas schwach, aber beim Firestrike passen die Ergebnisse sehr gut. Auch Computerbase hat festgestellt, dass die 690 noch nicht so gut skaliert.
 
OBR ist auch mit dabei. Angeblich ist alles im Netz falsch (außer die Infos von Sweclockers). Und Ergebnisse hat er auch:



Sieht stimmig aus, im neuen 3DMark skaliert die 690 noch nicht so toll.

Auch beim Tschechen würde ich mit gehen jupp sieht plausibel aus:)

NVIDIA GeForce GTX 690 video card benchmark result - Intel Core i7-3930K Processor,ASUSTeK COMPUTER INC. RAMPAGE IV FORMULA score: P5316 3DMarks


Na wenigstens einer der beiden Entertainer lebt noch:d
 
Zuletzt bearbeitet:
Jetzt übertreib mal nicht, wenn die Tabelle da oben stimmt, ist die Leistung für knapp "1000€" eher lächerlich. Eine gut übertaktete 680/7970 kommt der Titan verdammt nahe.

Ich habe auch nicht die Leistung der Titan bewertet, sonder Prophezeit, was hier kommen wird...^^ :d Und Stock vs OC-Vergleiche sind so eine Sache, der Saturn-Mond wird wohl auch ein zwei Mhz OC-Potential besitzen...
 
Ich verstehe wirklich nicht mehr. Als die Radeon User gemeint haben AMD 7970 3GB ram haben alle geschrieben vram ist nicht wichtig jetzt kommt NV mit 6 GB Ramm + 900€ ist jetzt wieder Vram wichtig geworden. :bigok:

Hast du mich was anderes sagen hören?

Nur weil einige in jedem 2 Thread das Wort Vram in den Mund nehmen,wirds kein bisschen priorisierender für andere

6GB sind nice to have aber das wars dann auch schon

3D Vision braucht Coreleistung u nicht Unmengen an Vram
 
Zuletzt bearbeitet:
Es geht ja nicht um "reichen"...
..... steckst du ne zweite, dritte oder vierte GPU zu. Reicht der VRAM nicht? Was machst du dann... Du stehst im Regen. Hast im schlechtesten Fall ~2000€ in den Sand gesetzt (vier GK104 2GB GPUs) und kannst immernoch nicht deine Settings spielen...... :fresse:)

Wenn man nur ein bißchen P/L orientiert ist kann es auch im Highend um "reichen" gehen.

Natürlich hast du recht, jeder der auch nur ansatzweise über Mehr-GPU'ing @ Titan nachdenkt sollte froh über die 6GB sein. Nur ich weiß doch auch was man alles schönes mit 3GB Vram anfangen kann (siehe mein letztes SLI). Mit 3GB kann es auf einem 1440p Monitor alles super aussehen, endgeil....obwohl ich sie nur selten mit ca. Titanpower (2xGTX 580) ausgenutzt habe. Man muß schon wie "bescheuert" alles mit Mods vollbomben damit es eng wird. Das Problem ist die Rohleistung, zumindest wenn man sich fest für single Kepler GPU entschieden hat ;)

Natürlich bestätigen Ausnahmen die Regel. Nur wegen ein paar schlecht gemachten spielen ab vom Mainstream muß man doch nicht noch 200€ mehr ausgeben als nötig.

Wenn Nvidia Titan so bringt wie vermutet, und das zu dem Kurs, dann quetschen sie uns erneut die Eier... Da überleg ich echt mir ne 7970Ghz Matrix Edition zu kaufen, und da unter Wasser 350 Watt rein zu jagen. Macht auch Spass....
 
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Hab den 13er noch nicht gemacht, aber vielleicht "frisst" der VRAM? Ist die 690 deswegen nicht mehr so stark?
Whatever, die OBR-Infos finde ich interessant. :)
 
Wie kommt man denn bitteschön auf die Idee, dass GTX 680 Mittelklasse ist?

Es ist ein Chip der ursprünglich für ein Mittelklasse Produkt vorgesehen gewesen wäre (GTX 660). Als man dann sah, das er mit genügend Takt auch mit der Radeon 7980 mithalten kann, hat man sich entschieden den im Highend Segment zu verkaufen. Eigentlich hätte GK110 ja schon früher kommen sollen, aber dank Problemen mit 28nm, hat sich alles verschoben.
 
Die 7970 ist mehr Highend wie eine 680, definitiv. Aber wenn ich mal auf die vergangenen Generationen schaue, ist es selbst schwierig, die 7970 GHz mit ihren 50% Plus auf die GTX580 als Highend zu bezeichnen. Da gabs in den letzten 6 Jahren IMMER größere Steigerungen auf die vormals schnellste Karte.

Diese 50% Steigerung kommt mit etwas Glück wenigstens wieder mit dem Titan. Wenn wir alle zusammen ein wenig beten, könnte es was werden!
Außer das ist ne beschnittene 700MHZ Billigkarte :rolleyes:
 
@Pumpi
Das Problem ist doch, du kannst nicht einfach Speicher zustecken... Somit muss das Produkt für jeder der vier möglichen Konstallationen ausgewogen sein, sprich als SingleGPU sowie als Dual, Tripple oder Quad SLI. Sparst du am Speicher, gucken unter Umständen die Leute mit mehr wie einer GPU in die Röhre. Nur sind das genau die, die die meiste Kohle aufgewendet haben!!
Es wurmt mich persönlich viel mehr, das man bei den aktuellen Preisen eben so am Speicher spart. Vor allem, weil Speicher vergleichsweise günstig ist. Man lässt sich aber vom Kunden winzige Mehrleistung (~10% 670 zu 680) mit weit mehr wie 20% drauf bezahlen. Wo wenn nicht im HighEnd Bereich sollte man nicht klotzen statt kleckern?

Vor allem, (auch wenn scully mich so langsam wieder hassen wird :fresse:) wird immer wieder vergessen, das es schon im hier und jetzt knapp werden KANN! Was ist morgen, oder übermorgen?
So einen GPU Ausbau, gerade im SLI wirfst du nicht nach 3 Monaten wieder raus... Sondern das taugt auchmal für ein ganzes Jahr oder gar mehr, wenn die nächste Generation auf sich warten lässt.

Dieses Schicksal haben wie angesprochen so einige Modelle schon erfahren. Nämlich zum Releasezeitpunkt ausreichenden Speicherausbau, mit der Zeit aber zu wenig. Und der Bedarf steigt immer weiter, zumindest so lange mindestens einer der beiden Kontrahenten nachlegt. ;)

PS: Frage, du sagst, du hast 3GB 580er Karten. Warum? Zum Release waren auch 1,5GB ausreichend. Was hat dich bewogen die doppelt ausgebauten Modelle zu nutzen? Doch sicher nicht, weil du die Kohle nicht woanders losgeworden bist... Sondern mit gewisser Absicht oder Weitsicht für Zukünftige Spiele, Spielereien whatever ;)
 
Wieder die High-End schiene? Der GK104 ist und war schon immer der Performance-chip, nichts mit High-End. Im vergleich ist dieser dem GK114 mehr als nur ähnlich, was das SI und die Shader angeht. Die Fehlende GPGPU-Performance spricht ebenfalls Bände, wieso der GK104 niemals der Nachfolger der GTX 580 war. AMD mit ihrer HD 7970 besitzt wenigstens einen Chip, der deutlich mehr nach High-End aussieht - 384Bit SI, viel bandbreite und viel GPGPU-Performance. Allerdings sagte AMD selbst, dass die keine High-End Chips mehr bauen (seit der HD 2900 XT). Und wer jetzt mit dem Preis oder der Leistung kommt:

Eine GTX 560 Ti mit 1000 MHz war auch in etwa so schnell wie eine GTX 570 aber dadurch trotzdem kein High-End, oder eine HD 7870 mit 1250 MHz, zwar so schnell wie eine HD 7970, aber weiterhin Performance-Segment.

Fakt ist, sobald der GK110 erscheint, ist zumindest bei nVidia wieder alles so, wie es immer schon war:

GF110 -> GK110
GF114 -> GK104
(...)

@fdsonne
Mit dem Vram hast du im prinzip ja auch recht. Zwar funktioniert jetzt alles recht gut, dennoch, es gibt eben fälle, wo dieser nicht mehr reicht (2GiB). Fakt ist, Skyrim könnte ich auch noch in 3840x2160 mit MSAA mit rund 30-40Fps spielen. Mit Hi-res texturen -> 10. Und mit nem SLi ist die Power vorhanden, damit diese Settings auch richtig gut laufen. Wenn der Vram aber zu ende ist... bringt eben die beste GPU-power nichts mehr.
 
Zuletzt bearbeitet:
Wieder die High-End schiene? Der GK104 ist und war schon immer der Performance-chip, nichts mit High-End. Im vergleich ist dieser dem GK114 mehr als nur ähnlich, was das SI und die Shader angeht. Die Fehlende GPGPU-Performance spricht ebenfalls Bände, wieso der GK104 niemals der Nachfolger der GTX 580 war. AMD mit ihrer HD 7970 besitzt wenigstens einen Chip, der deutlich mehr nach High-End aussieht - 384Bit SI, viel bandbreite und viel GPGPU-Performance. Allerdings sagte AMD selbst, dass die keine High-End Chips mehr bauen (seit der HD 2900 XT). Und wer jetzt mit dem Preis oder der Leistung kommt:

Eine GTX 560 Ti mit 1000 MHz war auch in etwa so schnell wie eine GTX 570 aber dadurch trotzdem kein High-End, oder eine HD 7870 mit 1250 MHz, zwar so schnell wie eine HD 7970, aber weiterhin Performance-Segment.

Fakt ist, sobald der GK110 erscheint, ist zumindest bei nVidia wieder alles so, wie es immer schon war:

GF110 -> GK110
GF114 -> GK104
(...)

Besser könnte man es nicht ausdrücken.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh