Gtx 980 8gb SLI?

Christopher25

Neuling
Thread Starter
Mitglied seit
08.02.2014
Beiträge
10
Hallo Leute.

Ich bin noch nicht allzu lange aktiv in diesem Forum und stelle mich erstmal vor.
Ich heiße Christopher bin 21 Jahre jung und in der Ausbildung zum Anwendungsentwickler. (2. Jahr)

Meine Frage ist, ich möchte gerne zwei Gtx 980 kaufen und diese im SLI laufen lassen.
Meine Wahl lag bei dem Custom-Design von Inno3D Ichill X4 Ultra Edition da man diese noch gut
bei sehr guter Kühlung Overclocken kann (meine Idee war ~1500-1550 Core und ~2000-2100 MHz Ram Takt)

Jetzt lese ich aber hier (Geforce GTX 980: Nvidia angeblich auch bald mit 8-GiByte-Versionen), dass es bald eine Gtx 980 mit 8GB kommen soll, welche für ein SLI-Verbund natürlich vom Großen Wert ist.
Wenn ihr euch fragt, warum möchte der Junge so einen Overhead an Grafikleistung haben nun...
Ich habe diesen Monitor mir gekauft (https://www.cyberport.de/?DEEP=6121-4CV&APID=6) und möchte jetzt die nötige Grafikleistung bekommen^^
Ob SLI oder nicht SLI ist mir relativ egal aber ich möchte ungerne bis ende 1Q 2015 Warten bis ich endlich auf diesem Monitor auch anständig zocken kann^^
Ich habe derzeit nämlich meine vorigen Karten verkauft (hatte vorher 280X CF drin) um mir dann jetzt zwei 980er zu kaufen von Inno3D.
Aber jetzt bin ich bisschen stutzig geworden, da die 8GB für ein SLI-System schon besser wären.

Was sagt ihr dazu? Wird es im Dezember oder gar schon nächsten Monat im Novemeber eine Gtx 980 mit 8GB geben und wenn ja,
wird da eine Zeit lang nur das gammlige Referenzdesign mit 80°C bei Last kommen oder kann ich da auf die geile Kühllösung von Inno3D mit dem IChill X4 kühler?
Es muss nicht unbedingt dieser sein (auch wenn er unschlaugbar ist laut den Tests bei ~57°C bei fast 1400MHz Core Takt).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die 8GB Vram wären natürlich mit Sicherheit nicht verkehrt.
Ich bezweifel aber trotzdem, dass man mit 2 980 richtig gescheit @4K zocken kann.
Zumindest nicht ohne Abstriche zu machen.
Der Vram ist durch die aus meiner Sicht immer noch unzureichende Leistung eher sekundär zu betrachten.
 
Würde ich ähnlich sehen. Bei trippel monitoring. Also 3 mal FullHD kommst du nie über 3GB VRAM last. Und wenn du soweit kommst dann bist du bei 2 Titan schon im berreich von 10-15 fps angekommen.

Ergo wirst du deine 4GB nicht vollbekommen (außer mit Mods die das erzwingen) ohne dabei in Regionen zu kommen die einfach nichtmehr flüssig spielbar sind. Du kannst natürlich hoffen das du bei 30 fps mit Gsync noch einigermaßen zurecht kommst und in neuen Games dann hohe einstellungen fahren kannst.
 
Meine Meinung dazu bleibt auch Maxwell Release dieselbe: Die derzeitgen Karten laufen bei solchen Anforderungen an der absoluten Leistungsgrenze oder sind schon längst drüber, da ist es ziemlich egal ob man 3, 4, 6 oder 8GB RAM hat, weil die Chips es sowieso nicht besser packen.* Quelle: Zocke seit über einem Jahr via Downsampling @3840x2400. Bei aktuellen Spielen bist du froh, wenn du bei solchen Auflösungen irgendwie 60FPS zusammenbekommst. Von speicherlastigen Kantenglättungsmodi, Texturmods, usw. gar nicht angefangen - der reinste Overkill. Es braucht erstmal Chips die deutlich mehr Leistung bringen, bevor man sich über sowas wirklich ausreizen kann. Also entweder das kaufen was es jetzt gibt - oder am besten auf AMDs Fiji oder den Maxwell Vollausbau abwarten, würde ich sagen.

*Und bevor jetzt wieder jemand mit Skyrim oder sonst irgendeinem Einzelfall unter allen anderen Spielen um die Ecke kommt: Ausnahmen bestätigen die Regel...
 
Zuletzt bearbeitet:
Mh also lieber doch die zwei kaufen hm?
Ich mein wenn ein Spiel unter 40 oder niedriger geht mit den beiden Grafikkarten OC,
dann mache ich darauf einfach 1600p. Ist ja alles Abwärtskompatibel.
Aber soweit ich weiß läuft Crysis 3 mit 2x MSAA auf UHD bei ~50fps durchschnittsfps.
Danke schonmal ich habe mir die Karten schon bestellt in 4GB und wem es interessiert, werde ich einige Videos
von Benchmarks und mein Overclocking Ergebnis bereitstellen.
Falls jemand dann überlegt, diese Karte/n auch zu holen, kann ich vielleicht etwas dazu beitragen, seine/ihre Entscheidung,
fest zu legen =)

Mit freundlichen Grüßen <3
 
Das dürfte nicht wirklich am Design liegen^^
Inno3D benutzt eh das selbe PCB wie im Referenzdesign.
Es ist der Selbe Chip und ich denke, dass es einfach auf die Karte ankommt,
ob die gut gebaut ist oder nicht.
Wo hast du deine Daten denn her? Das Ref-Design ist viel heißer als das von Inno3D.
Bei Last ca. 80°C gegen 56°C von Inno3D.
 
Ich rede von der Kühlung her, Radiallüfter funktionieren im SLI-Verbund halt schlicht am besten.

Das hat rein gar nichts mit dem PCB zu tun.
 
Du meinst, dass die Luft nach außen geleitet werden und nicht ins Gehäuse?
nun ich habe in meinem Gehäuse (AeroCool GT-S White Edition Big Tower ohne Netzteil)
Alle Lüfter belegt und auch die Optionalen Lüftern angeschlossen.
(In diesem Fall habe ich 5x140mm, 2x300mm und 1x230mm Lüfter) denke das reicht gut um das Gehäuse zu kühlen.
 
Mir stellt sich eher die Frage, was erhoffst du dir davon, wenn die Karte anstatt 80°C eben 55°C hält?
Ist doch beides völlig bedenkenlos im grünen Rahmen...

Der TrippleSlot Kühler der Ichill X4 Ultra ist aber schweine groß und belässt die Abluft im Gehäuse. Dazu kommt, das wenn ich das richtig sehe, die Kühlkörper um 90° gedreht sind. Das heist, die Luft strömt nicht über das PCB der länge nach, sondern geht an den kurzen Seiten ab. Da aber auf der einen Seite das Board ist, wird die Abluft an der anderen Seite rausströmen und somit die direkte Umgebung aufheizen.

Großer Kühler gut und schön, aber der kann auch nur, wie jeder andere Kühler auch, ein gewisses Delta zwischen Umgebungstemperatur und Chiptemperatur halten. Steigt die unmittelbare Umgebungstemperatur an, steigt auch die Chiptemperatur. -> logisch. Ob die Karte meiner zweiten darunter noch die gleichen Temperaturwerte schafft, ist bestenfalls fraglich ;)


Ansonsten, was die 8GB angeht. Ich halte es heute für unsinnig. Warum? Es gibt selbst mit Mods und Co. nur wenige Titel, die man überhaupt dazu bewegen kann, signifikant mehr VRAM überhaupt zu belegen, wie es 3 oder 4GB Modelle inne haben.
Zu diesen gehört bspw. ein gemoddetes Skyrim. Was aber eben die Ausnahme darstellt.
Dazu kommt die Tatsache, das Geschichten wie SGSSAA erzwungen über AA-Bits immer seltener werden... -> hierfür würde man VRAM brauchen ohne Ende!

Noch vor gut einem Jahr war eher der Bereich 2GB als gängige Größe am Markt. (Stichwort GK104) Und das lief auch ohne wirkliche Schmerzen, wenn man eben nicht auf diese Modgeschichten schielte.
Binnen so kurzer Zeit kann sich der VRAM Bedarf quasi nicht verdreifachen, so dass die 8GB Modelle ansatzweise Sinn ergeben würden.
Was in Zukunft ist, weis keiner... Aber der Bedarf richtet sich nach dem Markt. Kein Entwickler baut eine Software, die er am Markt nicht los bekommt. Und kein Entwickler wird sich für riesige große 4/8k Texturen entscheiden, wenn nur ein Bruchteil der Enthusiasten in Summe überhaupt diese stemmen könnten, vom ganzen Mittelklasse Geschäft ganz zu schweigen.
Bis wir also an dem Punkt sind, wo mehr wie 4GB wirklich notwendig und sinnvoll sind, dann haben wir minimum NVs Pascal Chip, wenn nicht gar den Nachfolger von Pascal im Laden stehen. Und das dauert minimum noch 2 Jahre :wink:

Und wie L0rd_Helmchen schon sagte, die GPU Power ist viel eher entscheidend. Und SLI trägt zwar zur unmittelbaren Besserung der Leistung bei, aber ist nicht der Weisheit letzter Schluss. Ein Risen 3 als halbwegs aktueller Titel begnügt sich in UHD mit ca. 2,2-2,5GB VRAM. Läuft aber phasenweise nur mit ~25 FPS in der heutigen GPU Leistungsklasse von HighEnd. Und SLI geht schlicht nicht ;) Du bekommst bei sowas dann gar nicht die Möglichkeit, die SLI Power auszunutzen. Und von BQ steigernden Settings, die ggf. VRAM fressen, ganz zu schweigen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh