nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
@fdsonne
Zitat: Es gibt schlicht keinen direkten Zusammenhang

Wenn du dir gern ruckelorgien anschaust kanns du 6GB sicher ausnutzen sons mit der Leistung nicht. Und das ist keine teorie sondern fakt.:)

Auf welchem belegbaren Benchmark bzw. welchem Spiel beruht denn dein selbst ernannter Fakt?
Für gewöhnlich ist es eher so, das der Unterschied zwischen LowRes und HighRes Texturen nur unwenig mehr GPU Leistung fordert. Letzteres geht aber nur, wenn der VRAM auch vorhanden ist.
Schau dir Skyrim als Beispiel an, es gibt diverse HighRes Texturpakete. Die GPU Leistung einer einzigen 680er mit 2GB VRAM reicht dicke aus. Du kommst aber dem VRAM Limit nahe, zusammen mit anderen Optionen überschreitest du dieses sogar.

Auch geht es wie immer nicht darum, die 6GB voll zu bekommen, wovon du scheinbar ausgehst. Was ich einfach mal aus deinem Wörtchen "ausnutzen" schlussfolgere. Sondern viel eher darum, auch oberhalb von 2 oder 3GB Modellen noch Luft zu haben.
Ob du nun 4, 5 oder 6GB belegst, ist vollkommen irrelevant, denn in allen drei Fällen lacht die Karte drüber. Wärend ein 2 oder 3GB Modell nichtmal in den als absolutes Minimum angesehenen Bereich von 25 FPS hinkommt.

ein Drittel oberhalb einer Geforce GTX 680 liegt
Tesla K20X gelistet: Hinweis auf die Spezfikationen der Geforce Titan? Plus Bild der Platine
Na ja 900 Euro dann lachhaft.

Lies doch die Sätze auch richtig...
Damit die Rechenleistung mindestens ein Drittel oberhalb einer Geforce GTX 680 liegt, müsste die Titan mit 765 MHz laufen
Was ist daran lachhaft?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
900Mhz@ turbo und 14SMX.. Aber warum sollte man solch eine gpu verschleudern wenn im server markt da deutlich mehr geld gemacht wird.
Lieber 13smx und 1064Mhz@ turbo weil dann rockt das teil sicherlich brutal los, das wäre dann auch ne ecke schneller als wenn man 14SMX hat welche nur mit 900MHz taktet.

Bei 860MHZ wäre mir das einfach viel zu langsam es sei den die karte scaliert komplett anders als die GTX680.
Besonders wenn ich da mal BF3 mp gegenüber stelle da wäre die karte grade mal 10% schneller als eine HD7970 welche aber 30% OC packt und dann muss die titan auch erstmal 20% mehr takt schaffen was dann 1032Mhz sind womit der titan dann nur so schnell wie eine HD7970@1200Mhz ist... Das wäre dann fatal.
Naja vieleicht scalliert der titan durch die mehr chache ja dann besser.


Kommt mir nun bitte nicht mit den lächerlichen Sp benchmarks.

P.s. Ich bin da noch eher skeptisch lasse mich aber gerne eines besseren belehren fals das teil rockt aber wenn es so kommt wie ichs ausgerechnet habe ist eine MSI lightning 7970@wakü mit 1300-1350Mhz die deutlich bessere und schnellere wahl!
 
Zuletzt bearbeitet:
Wird es dann was von EVGA geben weiss das wer?

Hatte bisher immer nur die Asus DC II,so nen Hydro Copper wäre richtig richtig fett!

10 Tage noch:wall:
 
@Powerplay
Wenn die Grundleistung passt wird die Karte gekauft .
Werde BF3 online dann mal testen im vergleich zur 1250 mhz HD7970.
Dan werden wir sehen wo der Titan steht.
 
Zuletzt bearbeitet:
Da bin ich mal gespannt weil du hast ja jetzt schon bald 100FPS AVG mit der einen 7970 und ob der Titan das packt ist echt fraglich..
Vorallem wenn du deiner Lightning ne wakü verbaust packste vieleicht mit deinem Radiator die 1350-1400Mhz und das knackste bestimmt nicht mit dem Titan aber fals er das doch packt wäre Titan der falsche name ;) Ich würde das teil dann Zeus nennen :d

Bis heute kenne ich nur zwei Karten dennen ich den namen Titan gegeben hätte und das ist einmal die legendäre ATI 9800 und dann die NV 8800GTX
 
Zuletzt bearbeitet:
Schauen wir mal wie gesagt erst mal muss die Grundleistung stimmen .
Dann gibt es nen schonungslosen Bericht über den Titan von mir.
Für mich gilt es mit dem Titan die 61 min FPS an der Tanke zu Toppen ohne Oc.
Da es bei mir ein GPU limit gibt in der Szene beim sprengen.
 
Zuletzt bearbeitet:
Das sehe ich ähnlich scully wer weis vielleicht liefern die Karten auch so gutes OC das man die Leistung einer 690 erreicht oder gar knapp knackt .
Man jucken mir die Finger brauche offizielles.

ich glaube da nicht dran. Jedenfalls nicht mit einer maximalen Möglichkeit von 300w.
erinnert ihr euch !? ;)
It'd need to be clocked quite a bit higher than the GTX 690 to reach 85% of 690-performance, but I don't see a GK110 reaching such speeds without breaking 300W...

nungut, wenn es 80% werden könnten ists auch nice. Allerdings hätte ich damit gerechnet das 2x8Pin Anschlüsse verbaut sind, um entsprechend unter Wasser mehr rausholen zu können insofern da NV HW-Seitig nicht wieder ein Riegel vorschiebt.

Was SLI und die MR angeht wird es sicherlich nicht schlechter als bei den gk104 Karten sein. Vielleicht haben die sogar noch ein wenig dran optimiert :)
 
also wenn ich richtig gerechnet habe braucht man bei +89% zu einer GTX680 mit 14SMX 1150Mhz und das das klappt kann ich mir kaum vorstellen besonders wenn nur 300Watt max drin ist + Voltage lock
 
Das wird sich alles bald zeigen.
Mit wieviel war damals die 580 angegeben? 225 oder oder etwas mehr das ding hatte auch eine TDP speere trotzdem gingen1000 MHZ mit 300W.
Unter Wakku fehlt die verlustleistung auch noch mal deutlich bei 45°C im vergleich bei knapp 90 unter Luft bei OC.
Lüfter fressen auch Saft auf der Karte das muss man alles erstmal abwarten.

Wenn V lock drinn ist muss man mal sehen was unter Turbo freigegeben ist wenn es auch 1.175 V sind wie bei der 680 könnte was gehen.
Zu mindest unter Wakkü man weis ja nicht ob NV bei der Luftkühlung einen richtig guten kühler präsentiert
 
Zuletzt bearbeitet:
ja trozdem sind 1150MHZ da eine hausnummer und du darfst nicht vergessen das die GTX680 schon ingame das gleiche verbraucht wie bei Furemark... Dann kommt noch hinzu das die GTX580 doch kein volt Lock hatte so wie die 680!

Bei der GTX680 ist das ja schon ne turbo sache was takt usw angeht!

Die Tesla K20X mit 14SMX und 735Mhz hat schon ne TDP von 235Watt und nur 250GB/s bandbreite was meinste wird dann eine karte mit 860Mhz+Turbo und 300GB/s bandbreite haben?
Das geht sicherlich auf 250Watt - 20Watt für den lüfter wo wir dann bei 230Watt sind nur 70Watt spielraum für OC haben!

Also ich denke 1000-1100Mhz werden bestimmt drin sein und bei 1200Mhz würde ich die AMDs verkaufen :fresse:
 
Zuletzt bearbeitet:
wird jaauchma zeit die discountkarten da loszuwerden und auf die dunkle seite der macht zu wechseln, die war ja schon bei star wars attraktiver
 
naja ich nutze beide seiten der macht das ist dann noch effizienter :d
 
Titan 550mm2 1.175 V reicht dicke weist du wie schwer sich mein Radi damals in der Wohnung getan hat 1.81 V GTX 580 ×2.
Wenn NV diese Spannung stellt reicht das für die normalen Wakkü Nutzer .

Die Leute die eine Wakkü auf ihrer 680 haben sagen auch das der Turbo takt nicht schwankt.
Es ist TDP und Temperatur in kombination bei GK104 so weit ich mich belesen habe.

Beide Seiten der Macht zu nutzen ist manch mal etwas intelligenter.

Hier gab es ja mal ein link wo jemand sagte das er mit OC nicht an eine GTX690 ran kam er schrieb aber nichts über die Temperaturen das muss nicht zwangsweise eine TDP begrenzung gewesen sein so fern da überhaupt was dran war.

Das erste was der Spreader zu sehen bekommt bei Wakkü ist Liquidmetall Ultra.

Ich bin fast fest da von überzeugt das gerade bei einem Titan eine Wakkü Wunder bewirken wird nicht so wie es derzeit bei der GTX 680 ist da kommt ja keine Hitze bei rum bei diesem Spielzeug Die.
Beim GK hätte man mit noch mehr Spannung arbeiten können aber beim Titan werden 1.175V schon gewaltig sein zum Kühlen wenn er so viel bekommt.
 
Zuletzt bearbeitet:
Da bin ich mal gespannt weil du hast ja jetzt schon bald 100FPS AVG mit der einen 7970 und ob der Titan das packt ist echt fraglich..

Warum ist das fraglich?
Es ist eher unsinnig, den Titan gegen ne massiv übertaktete 7970 antreten zu lassen, wo A) nichtmal klar ist, wie es mit Titan OC ausschaut und B) nichtmal klar ist, wie hoch überhaupt die Basisleistung ausfällt.
Auf welcher Basis fußt denn diese "echt fraglich" Aussage?

ich glaube da nicht dran. Jedenfalls nicht mit einer maximalen Möglichkeit von 300w.
erinnert ihr euch !? ;)

Auch hier, wo sind denn die 300W in Stein gemeißelt?
Es steht und fällt wohl daran, wie hoch die VGPU Spannung ausfallen wird. Viel default VGPU Spannung heist selbst bei niedrigem Takt eben hoher Verbrauch.
Könnte aber ein Indiz für mehr OC "Luft" sein. Andersrum wird der GPU wohl bei wenig also sehr knapp bemessener VGPU Spannung in Sachen OC schnell die Puste ausgehen.


Ich könnte mir aber schon vorstellen, das man einen ähnlich aggresiven Turbo wie beim GK104, vllt gar ne Ecke mächtiger einbaut. Zusammen mit GK104 üblichen +32-35% Powertargetanhebung würden sich ausgehend von 235W = 317W ergeben. Das schon ne ganze Ecke Luft.
Vor allem wenn die Spannung fix ist, heist das 1:1 Verbrauch zu Takt. Da Takt bekanntermaßen gleich mit dem Verbrauch skaliert.
Gemessen an einem default Turbo von sagen wir 850MHz wären das knackige 1147,5MHz...

also wenn ich richtig gerechnet habe braucht man bei +89% zu einer GTX680 mit 14SMX 1150Mhz und das das klappt kann ich mir kaum vorstellen besonders wenn nur 300Watt max drin ist + Voltage lock

Was hast du gerechnet?
Weil es ist aktuell absolut unklar wie Takt/ALU Ausbau im Vergleich zu GK104 überhaupt skaliert.
Man bedenke, GK110 wird wohl nur 48ROPs bekommen. Bei fiktiven 850MHz wären das "nur" 20,5% mehr Pixelfüllrate. Ob sich das schlussendlich auswirkt ist aktuell absulut ungeklärt.
Selbst wenn du von bester Einheiten/Taktskalierung ausgehst, wären 14SMX = 75% mehr Leistung. Für 89% benötigst du somit 1,75*1,08%. Was 1142,64MHz ausgehend von 1058MHz default Turbo der 680er wären.
Was du aber vollkommen unbeachtet lässt, ist die Bandbreite. Denn diese steigt womöglich mit 3GHz VRAMs "nur" um 50%. Die GPU Leistung würde ggf. einfach verpuffen, wenn man über 50% drauf packt. Auch ist ungeklärt wie sich GPGPU-Markt Überbleibsel wie größere Caches auswirken werden. Andersrum gesehen legt Metro bei 20% VRAM OC alleine schon knappe 10% FPS Leistung zu (680er) somit wären 50% mehr Bandbreite allein schon 25% mehr FPS. Heist also, du bräuchtest nur noch ~50% mehr ALU Leistung, was bei 14 SMX etwas über 850MHz wären.

Wie man sieht, es gibt aktuel viel zu viele Baustellen, die noch ungeklärt sind. Mal mal nicht alles schwarz ;)

PS: und ich gebe dir Brief und Siegel, mit 6GB VRAM (sofern die stimmen) bekommst du in Extremsettings weit mehr wie doppelte GK104/Tahiti Leistung... Einfach weil diese Aufgrund des VRAMs irgendwann mal wegbrechen werden.
 
Das mit dem weg brechen hat Powerplay schon selbst am Leibe erfahren bei 3GB ob wohl eigentlich genug fps da waren.
Er kennt sich da bestens aus was geht und nicht.

6GB allein können super hohe preise nicht rechtfertigen da zu gehört auch eine Solide Leistung .Da rum finde ich es schon ok wenn man mit 1200MHZ gegen testet.
Sonst kann man gleich zu einer Saphir mit 6GB greifen die auch ihre 1200 locker macht.
 
Zuletzt bearbeitet:
Du hast es richtig erkannt. Ich habe die bandbreite vernachlässigt.
Das sind halt alles theoretische werte mehr nicht aber genau deswegen kann es aber sogar noch schlechter als errechnet hinauslaufen? Bei 6Gb Vram muss man diese aber auch voll bekommen.
Besser wären da meiner meinung nach 4GB mit 512BIT

P.s. Ich finde es auch besse alles etwas skeptischer zu sehen als die absolute macht zu sehen weil dann wird man nicht entäuscht oder man wird überrascht!
Schau dir einfach mal den R600 oder AMD BD fail an genauso wie damals die 5800ultra!
 
Zuletzt bearbeitet:
Ich bin fast fest da von überzeugt das gerade bei einem Titan eine Wakkü Wunder bewirken wird nicht so wie es derzeit bei der GTX 680 ist da kommt ja keine Hitze bei rum bei diesem Spielzeug Die.
Beim GK hätte man mit noch mehr Spannung arbeiten können aber beim Titan werden 1.175V schon gewaltig sein zum Kühlen wenn er so viel bekommt.

Das wird wohl definitiv so sein...
Denn bekanntermaßen erzeugt mehr Hitze auf mehr Verbrauch.
Bei meinen beiden alten 470ern stieg der Gesamtsystemverbrauch in Furmark von knappen 900W im kalten Zustand nach Boot auf 1006W bei 110°C. -> mit 114°C ist der Treiberabgeschmiert.
Kalter Zustand waren wohl irgendwas im Bereich um die 50-60°C. Jeweils 100% Lüfterspeed, stock Lüfter.

Bei GK104 ist das Verhalten identisch, nur eben absolut gesehen nicht so riesig. Sondern das sind nur ein paar wenige Watt. Bei nem OC Verbrauch von 300W kann genügend Kälte aber auch deutlich mehr Luft erzeugen.
Wichig ist halt, das die Spannung so hoch wählbar ist (oder gesetzt ist), das die GPUs den OC Takt auch mitmachen. Denn Luft im Powertarget nutzt nix, wenn du mit dem GPU Takt nicht weiter kommst.
So wie aktuell bei vielen GK104 GPUs.
Ich hänge dort bei 1296MHz auf beiden GPUs. Powertarget nicht ganz auf max. dürften 25% oder sowas sein. 100% Luft bei humaner Raumtemperatur = 65-70°C GPU Temp. Mehr würde also schon gehen, aber mehr machen die GPUs nicht mit der Spannung.

Das mit dem weg brechen hat Powerplay schon selbst am Leibe erfahren bei 3GB ob wohl eigentlich genug fps da waren.
Er kennt sich da bestens aus was geht und nicht.

Wenn es Settings sind, die er nutzen würde, wäre GK110 mit 6GB für ihn wie gemacht ;) Denn der wird definitiv nicht wegbrechen in den gleichen Settings.
Und wenn das Teil dann mit OC in humanen Settings nur 20 oder 30% über ner massivst OCed Tahiti GPU steht, kann dem GK110 dieser Vorteil nicht genommen werden ;)

Du hast es richtig erkannt. Ich habe die bandbreite vernachlässigt.
Das sind halt alles theoretische werte mehr nicht aber genau deswegen kann es aber sogar noch schlechter als errechnet hinauslaufen

Meine vorsichtige Prognose für FullHD und normalen Settings liegt bei ca. 30%+, vllt auch 40%+ auf GK104.
In 1600p und mit gehobenen Ansprüchen durchaus 40-50%+
Im VRAM Limit -> keine Chance für GK104/Tahiti. ;)

Die Frage ist halt, wer für sich in welche der drei Möglichkeiten eintaucht und wo seine Priorität setzen würde...
 
Zuletzt bearbeitet:
@fdsonne

Deine werte halte ich auch für absolut realistisch. Alles andere wäre einfach nur wunschdenken.
Daher habe ich das alles auch mal für mich ausgerechnet.

Bei kommenden games schätze ich das man auch bei 1080p nen performence zuwachs von 40-50 verbuchen wird (crysis 3)
 
Zuletzt bearbeitet:
@Thunderburne Wakkü?!

Sorry das konnt ich mir nicht verkneifen :d

Nur über die Auflösung wirds aber schwierig mit dem VRam-Limit. Zumindest bei 3GB wie bei der 7970.
 
@fdsonne
GTX 580 1000 MHz unter 54°C Pflicht bei 2 Karten war das hart.
HD 7970 1390 MHZ unter 38°C Pflicht 34°C war full Load im CF gingen 1350 bei 38°C.
Gut wo ich das CF hatte wurde ich zum Kellerkind weil das schönste im Leben passiert ist und zwar Papa zu werden.

Neuro 3GB ist auch schon recht ordentlich.
Es geht bei 2 3 Titeln auch ohne über die Auflösung zu gehen.
 
Zuletzt bearbeitet:
Also noch gibt es kaum ein spiel welches die 3GB meiner HD7970 bei 1080 killt erst bei 2560x1440 schafft man das aber ich denke fals die ps4 und xbox 3 mehr vram bekommen wird man das vieleicht öffters schaffen nur sind 6G. einfach so viel das ich mir nur bei 3x1080p vorstellen kann das das geht aber dann brauchste auch wieder 3 GPUS
 
Da bin ich mal gespannt weil du hast ja jetzt schon bald 100FPS AVG mit der einen 7970 und ob der Titan das packt ist echt fraglich..
Vorallem wenn du deiner Lightning ne wakü verbaust packste vieleicht mit deinem Radiator die 1350-1400Mhz und das knackste bestimmt nicht mit dem Titan aber fals er das doch packt wäre Titan der falsche name ;) Ich würde das teil dann Zeus nennen :d

Bis heute kenne ich nur zwei Karten dennen ich den namen Titan gegeben hätte und das ist einmal die legendäre ATI 9800 und dann die NV 8800GTX

Geforce 2 haste vergessen, da gabs auch nix von ATI was mithalten konnte ;)
 
Eben, es geht in erster Linie nicht um die Auflösung sondern um die Texturen.

Richtig... Zumindest wenn man sich in humanen Regionen bewegt, ist der reine Zuwachs durch mehr Auflösung recht gering/überschaubar.
Ich habe aber nicht schlecht gestaunt, als ich Gothic 3 mit 3840x2160 gedownsamplet hatte. 2GB reichen da nicht :fresse: Und 3GB auf Dauer wohl auch nicht. Obwohl mit einer 680er schon spielbare FPS Raten drin sind, sofern der VRAM nicht überquillt.

Ein dedizierter Vergleich zwischen 4GB und 2GB 680er vs. GK110 wäre dann durchaus interessant. Vor allem, wie weit man die Settings drücken muss, im Vergleich.
 
Mit 3840 knack man schon in einigen Games die 3GB.
Gerade das geht ja super mit NVs Benutzerdefinierten Auflösung aber da müssen den auch 2 GPUs von herhalten.
 
Also noch gibt es kaum ein spiel welches die 3GB meiner HD7970 bei 1080 killt erst bei 2560x1440 schafft man das aber ich denke fals die ps4 und xbox 3 mehr vram bekommen wird man das vieleicht öffters schaffen nur sind 6G. einfach so viel das ich mir nur bei 3x1080p vorstellen kann das das geht aber dann brauchste auch wieder 3 GPUS

ich denke 2 sollten da auch reichen

Ein dedizierter Vergleich zwischen 4GB und 2GB 680er vs. GK110 wäre dann durchaus interessant. Vor allem, wie weit man die Settings drücken muss, im Vergleich.
jo, auf so nen Test freue ich mich auch schon. Hoffendlich wird nicht wieder Tripplescreen vernachlässigt.
 
Geforce 2 haste vergessen, da gabs auch nix von ATI was mithalten konnte ;)

Der Vergleich ist ziemlich weit her geholt. Immer dieses sinfreie AMD/ATI bashing... Irgendwie nervt es gewaltigst, das man nichtmal ansatzweise Objektiv sein kann... :rolleyes:
Die Radeon 7500 war laut ein paar Tests im Schnitt ca. gleichschnell mit einer Geforce 2 TI. Welche wiederum nur 30MHz VRAM Taktunterschied sowie selben GPU Takt zur Ultra aufzeigte.

PS: lesen ;)
3DCenter - ATi Radeon 7500 vs. nVidia GeForce2 Ti Review
 
jo, auf so nen Test freue ich mich auch schon. Hoffendlich wird nicht wieder Tripplescreen vernachlässigt.

Da wirst du wohl lange suchen müssen, für was fundiertes... Die meisten werden sicher 2GB 680/670er testen...
4GB Tests sind ja so schon äußerst selten vertreten.
Und meist dann auch mit unsinnigen Faziten, weil die Reviewer nicht in der Lage sind, die Settings auch entsprechend zu wählen.
Mit dem stino Testlauf wie bei allen aktuellen GPUs am Markt, kommt man da freilich Null Vorteile. Das ist aber jedem logisch denkenden auch vorher schon klar ;)
 
Richtig... Zumindest wenn man sich in humanen Regionen bewegt, ist der reine Zuwachs durch mehr Auflösung recht gering/überschaubar.
Ich habe aber nicht schlecht gestaunt, als ich Gothic 3 mit 3840x2160 gedownsamplet hatte. 2GB reichen da nicht :fresse: Und 3GB auf Dauer wohl auch nicht. Obwohl mit einer 680er schon spielbare FPS Raten drin sind, sofern der VRAM nicht überquillt.

Ein dedizierter Vergleich zwischen 4GB und 2GB 680er vs. GK110 wäre dann durchaus interessant. Vor allem, wie weit man die Settings drücken muss, im Vergleich.

Gothic 3 ist aber auch nen schlechtes Beispiel. Hier harkts nämlich auch etwas bei der Programmierung.

Mit 3840 knack man schon in einigen Games die 3GB.
Gerade das geht ja super mit NVs Benutzerdefinierten Auflösung aber da müssen den auch 2 GPUs von herhalten.

Naja, schaut man sich die neue PCGH an gibts bei Stock games @4K von 6 getesteten Titeln mit verschiedenen AA-Modi gerade mal einen (Crysis Warhead) bei dem sich eine 680 mit 4GB von der 2GB absetzen kann und das nicht bei spielbaren Frameraten.

Das ist eben zur Zeit noch das Problem, an dem Punkt wo der VRam voll läuft reicht die GPU-Power eh nicht um auch mit mehr VRam noch irgendwas zu reißen.
 
Mit 3840 knack man schon in einigen Games die 3GB.
Gerade das geht ja super mit NVs Benutzerdefinierten Auflösung aber da müssen den auch 2 GPUs von herhalten.

Beim meinem Quad hatte ich gerade in 3840 Probleme mit AA. Leistung wäre noch da gewesen, aber der Speicher ging aus. Natürlich hatte ich da nur 2 GiB, aber 6 GiB sind bei einer Karte mit Titan im Name nicht verkehrt. Gerade wenn mehr als eine Karte eingesetzt wird.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh