Macht es Sinn von zwei GTX 980 (1400MHz) auf eine GTX Titan X umzusteigen?

@Mustrum der TE wollte von einem Sli System auf eine Einzelkarte, da bleiben halt nur die 3 stärksten Karten aus beiden Häusern ohne zuviel Fps zu verlieren. Ob es natürlich Sinn machte wegen evtl. 5% mehr Speed bei der Titan X bedeutend mehr Geld auszugeben sei dahingestellt. Aber darum ging es ja nicht.
Ich spiele MMOs und die meisten aktuellen unterstützen MGPU Systeme bzw machen zumindest keine Bildfehler :xmas:

WoW zb. läuft super mit Sli und auch mit Crossfire siehe meine wenn auch übertriebene Bildchen.
Wer sowas Spielt, kauft sich besser die stärkste Single GPU
Es kommt wie schon geschrieben immer auf die restliche Hardware (Monitor) und Ansprüche des Users an. Für ein Fullhd Monitor langen natürlich Singel Karten bei 4 K Monitoren wird es da sehr schnell Eng. Kommt aber auch wieder auf den User an welche Ansprüche er hat und was er für Games spielt.

Der TE schaut jetzt erst einmal Richtung G-Sync Monitoren.

Wenn ich schon sehe das BF4-SLI unter Win10 nicht funktioniert .... Juhu. Genau das brauche ich nicht mehr.
@HisN Battlefield 4 läuft doch mit Windows 10 und Sli (sogar anständig). Guggst du hier

Auflösungsskala mal auf 200% gesetzt... 9 Fps :xmas:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich bin von zwei Titan Black auf eine Titan X umgestiegen.
Ist ja in der Relation genau das gleiche.

Im Schlimmsten Fall verliere ich 10% an FPS.
Dafür sind alle SLI-Probleme weg.

Für mich ein klarer Gewinn bei der Titan X, und das obwohl ich in UHD unterwegs bin, wo ja immer alle erzählen "das schafft keine SGPU".


Result

Das ist nicht zielführend.

Meine beiden 980er verblassen eine Titan X ja locker.

Result

Ich werde mich druchwurseln bis Pascal und dann mal schauen.
 
Die 100% Skallierung wirst du in Spielen so gut wie nie erhalten. Oftmals sind es dann eben doch nur 60-80%. Und manchmal auch 0%. Mag sein, dass deine beiden 980er eine Titan X im synthetischen Benchmark "verblasen", aber der ist eben nur synthetisch und eben anständig für SLI/CF-Konstellationen mitentwickelt worden. Gehen wir mal von dem Fall aus, dass eine Skallierung von "nur" 80% anliegt, so schrumpft der Vorsprung von 30% aufeinmal auf nur noch 10%. Ein Vorteil der messbar, aber nicht mehr spürbar ist.
Mit SLI und CF ist es eben jedesmal aufs neue eine Partie Roulette, wenn ein neues Spiel erscheint: Die Skallierung kann irgendwo zwischen 0% und 100%. Nur das du als Endverbraucher eben keinen Einfluss darauf hast und eben nur hoffen kannst, dass es eine anständige Multi-GPU-Unterstützung gibt. Die Titan X hingegen läuft dazu realtiv gesehen immer mit vollen 100%.
Deswegen würde ich mir persönlich kein Mulit-GPU-System zulegen wollen.
Der Beitrag von HisN ist in dem Fall schon zielführend, da er mit Sicherheit vom gemittelten Wert ausgeht und in dem Fall kommen 10% gut hin.
 
Zuletzt bearbeitet:
wenn du es dir leisten kanns dann kauf die titan x schon wegen dem ram
aber dann nicht geizen und eine wakü einbauen
 
Bullshit hoch 10.

Wenn ich 700€ bzw. 1000€ für eine Grafikkarte ausgebe, dann gibt es nur Einstellung: ALL MAXED OUT.

Und bei 4K reicht die Power dafür nicht. Weder bei der GTX980Ti noch bei der Titan X.

So viel zum Thema: ALL MAXED OUT.



Da reicht nicht einmal eine TX geschweige denn ein 980Ti Sli.

@Schrotti

Entweder auf Pascal warten oder jetzt noch auf GM200 wechseln, deine Entscheidung.

edit: lol der Arbeitsspeicher Verbrauch ist auch pervers
 
Zuletzt bearbeitet:
Bullshit hoch 10.

Wenn ich 700€ bzw. 1000€ für eine Grafikkarte ausgebe, dann gibt es nur Einstellung: ALL MAXED OUT.

Und bei 4K reicht die Power dafür nicht. Weder bei der GTX980Ti noch bei der Titan X.

Reicht nicht mal in FHD. Hoffe Du hast Deinen 17" TFT mit 1280er Auflösung noch. Ist mir letztens mal wieder über den Weg gelaufen :-)

 
Zuletzt bearbeitet:
Auwei wieder UBISOFT.
 
das passt so nicht


4k + 8x MSAA.... kein wunder

AA sollte man sperat erwähnen falls eingestellt.

du kannst schlecht 4k + AA reinhauen und dann sagen 4k läuft nicht. ;)
 
Zuletzt bearbeitet:
Mein Posting bezog sich eher auf MENCHI's "4k ALL MAXED OUT" das dies Blödsinn ist sollte klar sein. ;)

edit: @Gerd Weller

mit DSR nachgestellt

zwedit: damit sollte auch im zweifel ein 980er SLi funktionieren

 
Zuletzt bearbeitet:
Zu der ganzen mGPU Debatte wollte ich eigentlich nur ein paar Worte verlieren. Da ich extrem viele Early Access spiele spiele (Rust,Ark,DayZ,Squad,Space Engineers) und davon kein einziges Multi GPU unterstützt, stellt sich bei mir gar nicht mehr die Frage nach Multi GPU. Selbst fertige Spiele in meiner Steam liste unterstützen zu 70% kein MGPU, und das sind vielleicht pi mal daumen 6-7 Titel. Ja nicht mal Fallout 4 welches eines der wenigen Singleplayer Spiele ist welche mich interessieren unterstützt CF oder Sli. Das ist einfach verdammt schade. Ich hätte so gerne eine 295X2 (Auf die ich leider vergebens bei ebay geboten habe) und wollte vor ner Woche noch ein 980 SLI, wollte die erste Karte schon abholen. Aber nachdem ich gemerkt habe wie blöd die aktuelle Situation ist, habe ich es doch gelassen. Was bringen mir zwei GPUs wenn die zweite nie funktioniert. Ich spiele in 1440p, sprich da ist es von der Leistung noch nicht so wild, aber trotzdem hätte ich gerne das Maximum was in meinem Preisrahmen noch möglich ist. Und ca. 700€ für ne 980 TI die mir gefällt ist mir irgendwie zu schade ums Geld, da ich die 980 TI nicht ansprechend finde. Weder vom Namen, noch vom Kühler (Halt wie immer), noch von der Technik. Deshalb hab ich mir jetzt erstmal ne gammelige R9 290 geholt damit ich die Zeit bis Pascal überbrücken kann und dann direkt das Topmodell der ersten Serie holen werde. Da fällts mir viel leichter so viel Kohle auszugeben wenn das Produkt aus einer komplett neuen Serie stammt und die Karten komplett überarbeitet wurden (HBM,Kühlerdesign,Stromverbrauch). Ändert aber nichts an der Tatsache dass single GPU halt langweilig ist, das wird auch der Grund sein warum manche sich ne Titan X holen. Kein normal denkender Mensch kauft sich ne Titan X weil ihm die 980 TI zu langsam ist, sondern einfach nur weil die Karte noch nen Ticken zu mainstream ist und die Titan wiederrum richtig auf die Kacke haut. Ich hab auch 32GB Ram im Rechner der allein mehr kostet als mancher i7, brauche nie im Leben so viel, aber es ist halt geil, und optisch sieht er auch schick aus. Selbes bei der Titan. Glaube kaum dass jemand die 12GB vollkriegt bevor die Rohleistung in 4K abkackt. Jedenfalls hat mich damals die Titan classic glücklicher als die 970 gemacht die ich danach gekauft habe, auch wenn die 970er schneller war... man kann also sagen dass die Titans allesamt Bullshit sind für Menschen die extrem auf das P/L achten und die es nur juckt ob die Karte läuft. Soll auch Leute geben die nicht verstehen warum man sich ne Titan X zulegt, aber genau für diese Leute wurde die 980 TI gemacht. Man weiß zwar dass man ne verdammt schnelle Karte hat, aber es gibt noch ein "Premiumerereres" modell in Form der Titan X. State of the art nennt sich das... und wenn dies niemanden jucken würde, würden wir noch beim Sockel 2011 mit dem ersten X79 Ableger stecken bleiben, da die Leistung der CPU praktisch für alles reicht und niemand nen Grund sieht einfach mal was neues zu probieren. Diese Lust auf neues ist doch das was uns antreibt, der Grund warum wir überhaupt arbeiten gehen. Wenns dies nicht geben würde, dann würden sich Summen auf unseren Konten ansammeln für die wir keine Verwendung haben, wir hätten gar keine Ziele und würden uns mit unserem 95er Baujahr Passat zufrieden geben, das Auto fährt ja schließlich... erst wenn man sich etwas neues zulegt merkt man was man die ganze Zeit eigentlich verpasst hat. Niemand hat diesen Text gelesen, ist aber verständlich da ich gerade selbst gemerkt habe dass er zu lange ist, lol.
 
Glaube kaum dass jemand die 12GB vollkriegt bevor die Rohleistung in 4K abkackt.

Der Fehler in der Betrachtungsweise ist, wenn man genau so rangeht ;)
Die TitanX respektive alle Karten mit doppeltem VRAM Ausbau zu den kleineren Brüdern spielen ihren Vorteil schlicht nicht erst dann aus, wenn man den VRAM voll macht. Sondern schon ab dem Zeitpunkt, andem man mehr belegt/benötigt, wie das kleinere Modell liefert.
Es reicht also prinzipiell schon, da 6GB+ an Bedarf zu haben -> schon ist es ein Vorteil.

Ob es einem das Wert ist? Muss jeder selbst entscheiden... Es wird ja niemand zu seinem "Glück" gezwungen... Einfach kaufen, wenn Bedarf besteht oder eben nicht, wenn nicht.
 
Da hast du tatsächlich recht, habe deinen Beitrag nochmals durchgelesen und verstehe was du meinst. Trotzdem bleibt die Frage ob die Spiele anfangen schlechter zu laufen sobald der VRAM voll ist. Black Ops III sollte sich zu Release ja angeblich so viel gönnen wie gerade da war, keine Ahnung ob das weiterhin so ist. Das wäre jedenfalls schon mal kein Benchmark an dem man sich orientieren sollte. Gab hier sogar einen User der sich statt ner 4GB Karte ne 8GB karte geholt hat da er in Black Ops III in 1440p nen vollen VRAM hatte. :)

HisN ist für mich weiterhin der Speicher-Profi der gerne mal Benchmarks raushaut. Welche Spiele gönnen sich eigentlich über 6GB in 4K bevor es anfängt FPS mäßig unflüssig zu sein? Ich meine selbst mit mittleren Details kanns gerne mal in AAA spielen mit den FPS in den keller gehen, und da macht es ja erst recht keinen Sinn noch an über 6GB festzuhalten wenn man so schon nicht mehr spielen möchte.
 
Na wenn es sauber funktioniert, dann passiert da nix... Soweit zumindest die Theorie. In der Praxis kommen da mehrere Probleme aufeinander. Voller VRAM heist nicht automatisch schlechte FPS oder ähnliches. Voller VRAM heist in der Praxis idR zumeist unruhige Frametimes -> sprich FPS sind "noch" gut, aber die Frametimes zwischen Bildern ist unruhig, was zu einem subjektiv schlechteren Flüssigkeitsempfinden führt bzw. führen kann. Wenn dazu noch größere Mengen permanent umgeschaufelt werden, dann hast du ggf. auch Aussetzer in der Bildausgabe, Stichwort Nachladeruckler.

Übrigens, der zweite Fehler in der VRAM Betrachtungsweise ist, die VRAM Menge anhand von der Auflösung oder GPU Power bestimmen zu wollen. Das Argument mit der Auflösung ist ein heute idR lange überholtes Überbleibsel aus den Anfängen der Karten. Am Anfang war der VRAM noch entscheidend für die Auflösung. War nicht genügend Speicher da, konnten die hohen Auflösungen einfach nicht gefahren werden, weil die Bilder da schlicht keinen Platz drin hatten. Heute ist der VRAM idR so groß, dass davon nichts mehr zu spüren ist. Das einzige, was dir passieren kann, skaliert das Sichtfeld im Spiel mit der Auflösung, wird folgerichtig auch mehr Speicherbedarf entstehen -> weil ja mehr auf dem Schirm zu sehen sein soll. Skaliert das Sichtfeld hingegen nicht? Gibts da auch wenig, was hohen VRAM erklärt... Gerade HisN seine Messungen zeigen das übrigens. Ob hohe oder niedrige Auflösung? Eigentlich wurscht... Entweder das Spiel kann den VRAM nutzen und entsprechend viele Daten da rein schaufeln oder nicht. Wenn nicht, wird auch eine drastische Erhöhung der Auflösung daran nix ändern bis auf den Part mit dem Sichtfeld.
-> und der andere Punkt mit der GPU Leistung. HighRes Texturen kosten idR keine GPU Power in der Nutzung, können aber Spiele sehr viel hübscher machen... Mit diesem Umstand ist es natürlich möglich trotz gleicher GPU Power deutlich mehr VRAM zu belegen. Eine Abhängigkeit zwischen GPU Leistung und VRAM Menge entsteht eigentlich nur an dem Punkt, wo Spieleentwickler ihre Produkte für gewisse Märkte releasen. Ein Spiel, was nur 500MB VRAM braucht, egal was man macht, lässt heute Potential liegen. Und ein Spiel, was mit sagen wir unter 16GB VRAM nicht laufen würde, würde auch nicht verkauft werden -> also ähnlich der GPU Leistung muss das am Markt befindliche die Titel abdecken können.
Interessant wird das Thema, wenn du in die Modding Szene gehst... RPGs und dergleichen lassen sich häufig modden und vor allem gibts ganze Ansammlungen von Gruppen, die sich das auf die Fahne schreiben... Mit dem Wunsch auf Kompromislose Optik kann man da schnell aktuell genutzte 1-2k Texturen durch 4-8k Texturen ersätzen. Kost quasi keine GPU Power, sieht aber hübscher aus. VRAM Bedarf steigt stark! Ist er dann zu klein, wirds nicht gehen...

PS: CoD:BO3 ist ein eher blödes Beispiel. Das Spiel hat einen Schalter im Bauch, wenn man den umlegt, wird der vorhandene VRAM möglichst ausgereizt um Nachladen während des Spiels zu vermeiden. Um so mehr rein geht, um so weniger muss nachgeladen werden. -> der Vorgänger konnte das auch schon. Ob sinnvoll oder nicht, muss jeder für sich selbst entscheiden. Daten von Objekten, die man im Spielfluss NIE wieder zu gesicht bekommt, müssen nicht im VRAM gehalten werden und dort wertvollen Platz belegen. Gerade in Schlauchleveln ist sowas eher unsinn. Bei OpenWorld Titeln hingegen kann sowas schon Sinn machen... Setzt halt vorraus, dass entsprechend viel Cache auch da ist um das abzudecken.
 
*closed* der Thread ist fast 5 Monate alt. Falls der TE Interesse an einer Weiterführung hat: PN


€: Wieder auf, da hatte heute Morgen wohl ein Kaffee gefehlt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh