NVIDIA GeForce GTX 790 und Titan Black Edition bei ersten Händlern gelistet

Denke auch das es auf sowas hinaus läuft das schlimere übel wären 320 bit mit 2.5 GB was damals das Gerücht mit 5GB erklären konnte wobei man dann aber von 10 Sprach.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
an 2,5GiB glaube ich überhaupt nicht, wenn, dann bleibt man bei 3GiB und verbaut etwas sparsameren Vram (lässt z.B. 7Gbps Chips mit nur 1.500 statt 1.750 MHz laufen und nutzt geringere Spannungen). 6GiB bleiben für die GTX Titan (Black).

Und zu den 3GiB Vram: noirmalerweise rechen die im SLI für Spielbare Settings immer:
http://www.pcgameshardware.de/Nvidi...98/Specials/GTX-Titan-Black-Test-6GB-1110998/

Klar, die Benchmarks zeigen nur einen kleinen Ausschnitt - aber: In den Fällen, wo der Vram ausgeht, bringt eine zweite Karte auch nur bedingt spielbare Fps.
 
Zuletzt bearbeitet:
Wenn man dem Stromverbrauch Einheit gebieten muss traue ich nv auch nur 2.5 GB zu.

Und ja in den meisten Fällen kommt mann mit 3GB locker klar wenn man an der 60FPS Grenze arbeitet.
Wählt man settings wo 3GB nicht reichen befindet man sich meist auch schon im 40 -50Fps Berreich was für mich vom Spielvergnügen dann auch nicht mehr aktzeptabel wird.
 
Zuletzt bearbeitet:
Wählt man settings wo 3GB nicht reichen befindet man sich meist auch schon im 40 -50Fps Berreich was für mich vom Spielvergnügen dann auch nicht mehr aktzeptabel wird.

Nutzt man setting wie in den Benchmarks, befindet man sich in bereichen von eher 30 bis 40Fps - mit ner Single-GPU teilweise spielbar, aber Multi-GPU und so geringe Fps... (wehe jetzt kommt jemand, der mein, es gäbe keine MR mehr :shot:)

Wenn man dem Stromverbrauch Einheit gebieten muss traue ich nv auch nur 2.5 GB zu.
Man hat bei der GTX Titan gegenüber der 780 und der Titan Black gegenüber der 780 Ti gesehen, dass das mehr an Vram sogut wie kaum mehr Verbrauch bedeutet. Im Test der Titan Black (PCGH 04/2014 - zurzeit nur für Abo-user) steht es rund 250 Watt (780 Ti - 3GiB) gegen 260 Watt (Titan Black - 6GiB) - und die Titan Black rennt stock schon mit höheren Taktraten.

Wie gesagt, Spannungs-optimierung + selektion ist wohl deutlich sinnvoller, da effektiver. Meine GTX 780 verbraucht mit etwa 0,950V und 902/3.500 MHz nur etwa 170 Watt - GTX 680 gefilde. Mit den standard 3.004 MHz sind es um die 160-165 Watt.
 
Zuletzt bearbeitet:
Nutzt man setting wie in den Benchmarks, befindet man sich in bereichen von eher 30 bis 40Fps - mit ner Single-GPU teilweise spielbar, aber Multi-GPU und so geringe Fps... (wehe jetzt kommt jemand, der mein, es gäbe keine MR mehr :shot:)
Jo mit Multi Gpu unter 60 Fps ist sehr unschön von daher bin ich auch der Meinung das man mit 3GB und SLI sehr gut klar kommt.

Jo selektieren könnt gut was bringen mein B1 Chip macht die 1200 bei 1,037V:wink:

Was V Ram angeht habe ich NV aber auch ne Art Trauma und halte es nicht für Ausgeschlossen mit 2,5GB.
Wären ja immerhin 512 MB mehr zur 690 also auch ein Fortschritt:lol:
Auf lange Sicht wären 5GB aber schon ne schöne Sache das wird aber wohl ein Traum bleiben vor allem könnte man sich dann auch 1000Euro locker abschminken für so ein Kärtchen dann würde es bestimmt in Richtung 1250+Euro gehen.:d
 
Zuletzt bearbeitet:
Was V Ram angeht habe ich NV aber auch ne Art Trauma und halte es nicht für Ausgeschlossen mit 2,5GB.
Wären ja immerhin 512 MB mehr zur 690 also auch ein Fortschritt:lol:
Gerade die GTX Titan zeigt doch auch, dass man auch Karten bringen kann, die keine Kompromisse eingehen, auch was den Vram angeht. Ich bleibe dabei: 2,5GiB werden wir auf einer Dual-GK110-Karte nicht sehen. Man hat zumindest die letzten Jahre immer mindestens genauso viel Vram draufgebaut, wie auch das Single-GPU-Flaggschiff der Serie (in dem Fall die GTX 780 Ti) besessen hat.

Dazu kommt dann auch noch, dass die Karte ein problem mit der Speicherbandbreite besitzen wird, falls man 2,5/5GiB @320Bit SI nutzen wird. 384Bit + 1.500 MHz ist fast schon pflicht, damit das Plus (auch gegenüber der GTX 690) durchschlägt.
 
Zuletzt bearbeitet:
Man hat zumindest die letzten Jahre immer mindestens genauso viel Vram draufgebaut, wie auch das Single-GPU-Flaggschiff der Serie (in dem Fall die GTX 780 Ti) besessen hat.

Wobei das nicht ganz stimmt... Die Dual GPU Modelle bei NV waren bis dato immer irgendwie zu knapp im VRAM bemessen.
Vor allem gab es die Top Single GPU Modelle mit gleicher GPU Basis oftmals mit ner doppelten VRAM Ausstattung, wenn auch idR etwas nach Markteinführung der ersten Version. Die Dual GPU Modelle der Geforce Reihe haben da aber nicht mit/nachgezogen.
- 680 -> 4GB, 690 -> 2x2GB
- 580 -> 3GB, 590 -> 2x1,5GB
- 285 -> 1GB? Gabs da nicht auch 2GB Modelle? Aber sei es drum, 295 -> 0,9GB
- 8800Ultra -> 768MB, 9800GX2 -> 2x512MB. (wobei das etwas unfair ist)
-> das sind Rückblickend die letzten gut 8 Jahre ;)

Wobei die 690er da noch mit Abstand am besten dastand... :wink:
Denn mit den 2x2GB konnte man durchaus noch was anfangen. Die 9800GX2 und die 295er waren mit Abstand die schlimmsten VRAM Krüppel :fresse:


Das NV hier mal eine löbliche Ausnahme machen könnte, halte ich zwar immernoch nicht für 100% ausgeschlossen, aber ich glaube nicht selbst dran... Die 780TI zeigt doch, das NV da wenig(er) Wert drauf legt.
Ich mein das Ding geht mal richtig ab. Aber für ne Dual/Tripple SLI Konfig ist/wird 3GB durchaus schon eng... Nicht in default Settings und normalen Regionen. Aber beim Einsatz von SGSSAA und/oder Downsampling. Müssen nichtmal die neuesten Titel sein -> die bringen oftmals selbst mit so ner Konfig nicht genügend FPS. Aber ältere Titel richtig aufmöbeln und trotzdem im VRAM Limit kleben ist aus meiner Sicht noch viel ärgerlicher.
Titan ist zwar die seit Ewigkeiten einzige Ausnahme mit ordentlich viel VRAM zur gegenwertigen Zeit. -> Aber auch mit Abstand das teuerste, was man als TopModell überhaupt auf den Markt gebracht hat. An 5/6GB pro GPU glaube ich erst, wenn ich es sehe :fresse: -> oder das Dingens wird mal minimum 50% teurer als Titan (BE).

Und ja in den meisten Fällen kommt mann mit 3GB locker klar wenn man an der 60FPS Grenze arbeitet.
Wählt man settings wo 3GB nicht reichen befindet man sich meist auch schon im 40 -50Fps Berreich was für mich vom Spielvergnügen dann auch nicht mehr aktzeptabel wird.

Bei immer den neuesten Titel stimmt das wohl... Geht man mal ein paar Monate, teils Jahre zurück, muss das nicht so sein.
Ich suche immernoch ein GPU Gespann, was mir Gothic 3 aus dem Jahre 2006 in 2x2DS + 4xSGSSAA Ruckelfrei auf den Schirm bringt.
Ne Single 780TI bei um die 1200MHz packt schonmal die 30-50 FPS. Leider immernoch hier und da mit Nachladerucklern... :( VRAM Bedarf 3GB Anschlag + "X" nach ein paar Minuten rumlaufen in der Welt.
 
Ich möchte mal behaupten eine 690 nass zu machen sollte nicht das Problem werden, der hängt ja eine 780er schon am Arsch: Nvidia GeForce GTX 780 Ti gegen GTX Titan im Test (Seite 4) - ComputerBase
Naja, im GPU-limit skaliert SLI im schnitt mit rund 70 bis 90% - die einzelergebnisse zeigens deutlich besser (und selbst da wird es wohl vereinzenlt noch CPU-limits geben)
http://www.computerbase.de/artikel/...m-test/5/#diagramm-metro-last-light-2560-1600


Wobei das nicht ganz stimmt... Die Dual GPU Modelle bei NV waren bis dato immer irgendwie zu knapp im VRAM bemessen.
Vor allem gab es die Top Single GPU Modelle mit gleicher GPU Basis oftmals mit ner doppelten VRAM Ausstattung, wenn auch idR etwas nach Markteinführung der ersten Version. Die Dual GPU Modelle der Geforce Reihe haben da aber nicht mit/nachgezogen.
- 680 -> 4GB, 690 -> 2x2GB
- 580 -> 3GB, 590 -> 2x1,5GB
- 285 -> 1GB? Gabs da nicht auch 2GB Modelle? Aber sei es drum, 295 -> 0,9GB
- 8800Ultra -> 768MB, 9800GX2 -> 2x512MB. (wobei das etwas unfair ist)
-> das sind Rückblickend die letzten gut 8 Jahre ;)
Ich bezog das auf die standardmodelle, die so wie von Nvidia direkt released wurden, ergo GTX 580 -> 1,5GiB, 680 -> 2GiB. Ist aber auch egal:)

Wobei die 690er da noch mit Abstand am besten dastand... :wink:
Denn mit den 2x2GB konnte man durchaus noch was anfangen. Die 9800GX2 und die 295er waren mit Abstand die schlimmsten VRAM Krüppel :fresse:
Jup.

Bei immer den neuesten Titel stimmt das wohl... Geht man mal ein paar Monate, teils Jahre zurück, muss das nicht so sein.
Ich suche immernoch ein GPU Gespann, was mir Gothic 3 aus dem Jahre 2006 in 2x2DS + 4xSGSSAA Ruckelfrei auf den Schirm bringt.
Ne Single 780TI bei um die 1200MHz packt schonmal die 30-50 FPS. Leider immernoch hier und da mit Nachladerucklern... :( VRAM Bedarf 3GB Anschlag + "X" nach ein paar Minuten rumlaufen in der Welt.

Tja, da ist die GTX Titan Black genau richtig für dich :shot: Zwar die selben Fps, aber keine Nachladeruckler mehr :fresse:


@fdsonne
Du spielst ja auch recht häufig Skyrim - kannst du ebnfalls bestätigen, dass das Game recht empfindlich bei zu viel OC reagiert (mit SGSSAA)?
 
Zuletzt bearbeitet:
@fdsonne
Jo in den meisten Fällen eben bedeutet ja nicht immer.
AMD war da auch deutlich besser aufgestellt mit der 7990 als die GTX690 das weis ich weil ich viel auch mit alten Games Gedownsampelt habe dank Tomti Tool war es auch bei AMD möglich Games in 3840×2160 laufen zu lassen.
Ich war sehr entäuscht als die GTX 690 mit 2 GB da her kam.
Mit 3GB kommt man wie gesagt schon recht gut klar imo kann sich aber noch schlagartig ändern .
Die Titan ist zwar ne toole Karte aber wenn ich so bedenke das uns ende des Jahres neue erwarten sind 2000 euro doch zu viel des guten.
 
Zuletzt bearbeitet:
Naja, im GPU-limit skaliert SLI im schnitt mit rund 70 bis 90% - die einzelergebnisse zeigens deutlich besser (und selbst da wird es wohl vereinzenlt noch CPU-limits geben)
Nvidia GeForce GTX 780 Ti gegen GTX Titan im Test (Seite 5) - ComputerBase

Für mich ist schlicht nicht die Frage ob sondern nur wie die 690 geschlagen wird. ;) Hängt leider davon ab, wie sie mit der TDP umgehen und wie gut die Fertigung inzwischen ist, wie viel schneller es wird.

Aber mit dem Prozentzahlen hatte ich unrecht, da scheint bei Company of Heros das SLI-Profil nicht funktioniert zu haben... :d Mea Culpa. ;)
 
Ganz einfach hau zum Beispiel in BF4 max resulution scale mit 4×Mssaa unter 1080 p rein.:d2GB ade da wirds schon mit 3GB enge.
Es gibt schon titel unter full hd wenn man max ingame settings setzt wo sich selbst eine 690 quält.
TR kann man auch resulution scale(SSAA) nutzen geht dann auch an die 3GB.
Bieten immer immer Titel.
Auch im aktuellen Metro z.b.
 
Zuletzt bearbeitet:
Für mich ist schlicht nicht die Frage ob sondern nur wie die 690 geschlagen wird. ;) Hängt leider davon ab, wie sie mit der TDP umgehen und wie gut die Fertigung inzwischen ist, wie viel schneller es wird.

Klar ist die Frage wie - nur wird man, wenn man bei 300 Watt bleibt, kompromisse eingehen müssen. Also entweder mehr Takt und weniger Shader (12 SMX und über 900 MHz) oder mehr Shader und weniger Takt (15 SMX und unter 900 MHz). Würde man zwei 12 SMX mit ähnlichen Taktraten wie die 780 fahren, wäre man aber auch "nur" zwischen 20 und 30% schneller als die 690 (wo der Vram nicht limitiert). Bei 350 Watt wäre natürlich deutlich mehr drin.

Immerhin, falls die 790 kommt, wissen wir jetzt schon, dass Nvidia wohl sicherlich den Kühler der 690 wieder nutzen wird (gegebenfalls ein paar optimierungen vornimmt). All zu laut wird der Spaß dann zum glück nicht :)
 
Zuletzt bearbeitet:
Du umreißt quasi die spannende Frage. ;) Wäre ich Nvidia würde ich die TDP etwas hochziehen, da fällt bei solchen GPUs nun wirklich keiner vor Schreck vom Baum... :d
 
Jo 2×8Pin wäre da genau richtigso was gehört dann natürlich unter Wasser.
Glaube aber nicht gerade daran das NV das machen wird.
 
Zuletzt bearbeitet:
Du umreißt quasi die spannende Frage. ;) Wäre ich Nvidia würde ich die TDP etwas hochziehen, da fällt bei solchen GPUs nun wirklich keiner vor Schreck vom Baum... :d

Jup:) 350 Watt Dual-GPUs haben wir schon öfters gesehen. Damit könnte man auch wohl GTX 780 bis 780 Ti SLI performance hinbekommen.
 
Irgendwie geht es mit der HWL App nicht oder ? Kann den Artikel nicht offnen ..
 
Jup:) 350 Watt Dual-GPUs haben wir schon öfters gesehen. Damit könnte man auch wohl GTX 780 bis 780 Ti SLI performance hinbekommen.

Leider wird NVIDIA das nicht mehr machen. Der Grund liegt im Sparen der Bauteilkosten. Wer die Leistung limitiert, der muss weit weniger aufwendige PCBs herstellen. Teuer verkaufen lassen sich die beschnittenen Karten ja offensichtlich schon. Das hat NVIDIA in einer Titan-Studie explizit analysiert...
 
Mehr Verbrauch bedeutet mehr Abwärme bedeutet eine lautere Kühlung. Das läuft Nvidias mit Kepler begonnener Strategie von Effizienz und geringer Lautstärke zuwider.

Ich hätte mir auch ein Dual GPU-Monster gewünscht.
 
Naja Effizienz ist ja bekanntlich relativ, das sollte eher weniger das Problem sein und eine etwas bessere Kühllösung, die mehr weg schafft ohne dabei lauter zu werden. Machbar sollte das sein, ob sie es tun weiß ich leider nicht. :d
 
Da ist kein druck vorhanden um das zu tun gäbe es eine 295X wäre das bestimmt ne ganz andere Situation.
 
Naja es gibt auch keinen Grund für eine Titan Black, außer dass sie es eben können. ;) Schaun mer mal wie sich das "Refresh"-Jahr 2014 so entwickelt...
 
Na klar gibt es einen AMD bietet 4GB auf ihren Karten.
Das konnte man Topen + Ne Schippe drauf auf die Titan die nicht mehr die schnellste war.
 
Naja so könnte man die Argumentation aber bezüglich einer fetten 790 auch stricken und wenn man am Ende nur einer 290x2 vorbeugen will... :fresse2:
 
Bis AMD es schaft ne 290X 2 auf die Beine zu stellen man errinere sich an die 7990 ...ist Maxwell da und keiner will mehr was von der 290X 2 mehr wissen:fresse2:
Die 790 kommt schon recht spät.
 
Zuletzt bearbeitet:
Also ich würde mal behaupten wir werden den GM200 nicht vor Q2 2015 sehen, sondern nur die kleinen Maxwellchips und die dürften jetzt nicht viel schneller werden wie eine Titan Black Edition.
 
Bis AMD es schaft ne 290X 2 auf die Beine zu stellen man errinere sich an die 7990 ...ist Maxwell da und keiner will mehr was von der 290X 2 mehr wissen:fresse2:
Die 790 kommt schon recht spät.

Aber AMD hat die 7990 geliefert, spät und überflüssig hoch drei, aber sie haben geliefert. :d Vielleicht ist bis zu einer 290x2 auch Frampace mal im Final-Status... :shot: Warten wir mal ab was da so kommt. :haha:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh