NVIDIA GeForce GTX Titan X im Test

will man jetzt 4 k kommt man und min Sli und co nicht rum

sagen nur die Leute die selbst kein 4k haben. (hab ich früher auch dazu gehört)
SLI ist ein Krampf und die X ist in der Lage es überflüssig zu machen, solange Du es schaffst vom Ultra Trip runterzukommen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Krampf ich lach mich tot. Eine 600 Euro 4GB 295X2 dreht kreise um die 1000 Euro X auch in 4k besonders wenn man es schafft vom Ultra Tripp runter zu kommen. Was ist am SLI so schlecht wenn man sich auskennt?
 
Zuletzt bearbeitet:
Spielst du schon oder benchst du noch?

Crossfire (und SLI) sind nur für Blockbustertitel verfügbar und do oft erst Monate später. Das betrifft beide Firmen. Wer nicht Call of Duty 13 spielen will sondern auch mal weniger bekannte Titel hat schon mal grundsätzlich ein Problem mit zwei GPU's.

aber genau die Blockbustertitel sind es idr auch dann die die gewünschte grafikpracht mit nem dualgespann auf den schirm zaubern und nicht irgendwelche indiunderground nonamespiele
 
aber genau die Blockbustertitel sind es idr auch dann die die gewünschte grafikpracht mit nem dualgespann auf den schirm zaubern und nicht irgendwelche indiunderground nonamespiele
Anforderungen sind verschieden. Ich zocke mit drei Bildschirmen. Andere mit 4k Bildschirmen. Für beides reicht eine handelsübliche 290x bzw 980 nicht aus. SLI/Crossfire wäre die Lösung, nur funktioniert es nicht. Und auch "irgendwelche indiunderground nonamespiele " laufen da nicht rund.

Zusätzlich zocke ich mit dem Oculus Rift DK2. Da ist SLI und crossfire nicht optimal da es Latenz erzeugt (zumindest bis nvidia/AMD ihre angekündigten Lösungen bringen).
 
Zuletzt bearbeitet:
Hängt aber wiederrrum von Dir und von Deiner Software ab.
Als ich noch an drei Monitoren gesessen habe, hab ich das SLI abgeschafft, da eine Titan Black MEINE Software gestemmt hat. Alleine.
Die 2. Black war eher ein Zufall und ein "will haben" als ein "muss haben".

Und selbst in 4K überlege ich die ganze Zeit schon die 2. Black zu verbannen, weil sie nur nervt. Jetzt ist das drinne. Keine Schattenflackern mehr, kein Treiberkarussell mehr, keine Suche nach SLI-Bits, keine Dateien umbenennen oder Löschen, keine Fake-FPS, keine Suche nach 60 FPS-Settings mehr.
Ich freu mich drauf.
 
Hängt aber wiederrrum von Dir und von Deiner Software ab.
Als ich noch an drei Monitoren gesessen habe, hab ich das SLI abgeschafft, da eine Titan Black MEINE Software gestemmt hat. Alleine.
Die 2. Black war eher ein Zufall und ein "will haben" als ein "muss haben".

Und selbst in 4K überlege ich die ganze Zeit schon die 2. Black zu verbannen, weil sie nur nervt. Jetzt ist das drinne. Keine Schattenflackern mehr, kein Treiberkarussell mehr, keine Suche nach SLI-Bits, keine Dateien umbenennen oder Löschen, keine Fake-FPS, keine Suche nach 60 FPS-Settings mehr.
Ich freu mich drauf.
Ich glaube du hast mich falsch verstanden. Ich sehe das eben genau so wie du.
Das ist der Grund warum ich eine absurd schnelle single GPU suche. 1000€ sind verdammt viel aber wenn die 390x nicht hinkommt werde ich eventuell genau aus den von dir genannten Gründen in den sauren Apfel beißen.
 
CB hat geschrieben, dass man bei der EVGA Hydro Copper den Wasserkühler wird selbst montieren müssen, weil Nvidia Alternativkühler untersagt. Stimmt ersteres, war das so bei den alten GTX Titan? Ich dachte bisher immer der Wasserkühler wäre vormontiert und das Verbot für Alternativkühler gelte nur für Luftkühler.
 
Hängt aber wiederrrum von Dir und von Deiner Software ab.
Als ich noch an drei Monitoren gesessen habe, hab ich das SLI abgeschafft, da eine Titan Black MEINE Software gestemmt hat. Alleine.
Die 2. Black war eher ein Zufall und ein "will haben" als ein "muss haben".

Und selbst in 4K überlege ich die ganze Zeit schon die 2. Black zu verbannen, weil sie nur nervt. Jetzt ist das drinne. Keine Schattenflackern mehr, kein Treiberkarussell mehr, keine Suche nach SLI-Bits, keine Dateien umbenennen oder Löschen, keine Fake-FPS, keine Suche nach 60 FPS-Settings mehr.
Ich freu mich drauf.

Irgendwie bekomme ich gerade bedenken, ob ich mir wirklich zwei Titans oder zwei Fijis kaufen sollte. Im Prinzip hast du völlig Recht. Andererseits, wenn SLI/CF mal funktioniert ist es einfach toll, auch wenn es immer eine Bastelei ist.
 
Und besonders bei spielen die dann mal mehr als nur 4GB brauchen....
 
Schade wollte über Ostern 2 von den Karten im SLI testen... Wird laut den großen Online-Shops wohl ende April werden... Shice Paper-Launch :-/
 
Feuerkreise. Hehe. Sehr viel sachkompetenz steckt in diesen Worten. Was dachtest du denn wie heiß eine Karte wird die 2 Chips beherbergt. Und wenn diese noch übertaktet sind. Das war bei den 690ern genau so. Totaler Schwachsinn was du erzählst. Solche Karten gehören unter so einer last in ein Wasserkorsett. Alles andere ist Blödsinn oder man juckt sich nicht an der Lautstärke der Propeller.


Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Klar gehören solche Karten unter Wasser aber nicht jeder teilt unsere Meinung.

Der musste sein :d
 
Zuletzt bearbeitet:
Ich sag ja die haben einfach null plan

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Gute Karte.

Aber ih kann Hardwareluxx nicht mehr ganz ernst nehmen.
Die Verbrauchsmessungen sind doch bei euch mittlerweile totaler Unsinn geworden.
20 Watt mehr als die GTX 980? Während es bei PCGH/Computerbase 90 Watt sind?
Überarbeitet das endlich, das ist ja totaler Schmarrn.
 
Der Verbrauch kommt doch (gerade bei Maxwell) extrem auf das Testszenario an. Wenn Hwluxx nun einmal andere Situationen testet als CB, was soll da geändert werden? Ich habe lieber worst Case Werte, als schön geredete.
 
Keine Ahnung vielleicht testen sie im CPU Limit.
Es kann doch nicht sein, dass eine HD 7970 fast 100 Watt mehr zieht wie ne 680, obwohl jeder weiß dass sich die Karten kaum etwas genommen haben. ( CB 15 Watt Differenz)
Dass einem als Redakteur dieses Missverhältnis nicht auffällt und man es mit einem anderen, fairen Testszenario gerade rückt, fällt schon fast unter " Die haben keine Ahnung was die da messen".
Und dass eine 680 bei weitem sparsamer wie ne 980 ist, ist doch auch quatsch.

Wechselt endlich das blöde Testszenario und macht mal frische Werte.
Das hab ich jetzt schon 100x angesprochen und keinen interessierts.
 
Zuletzt bearbeitet:
Gute Karte.

Aber ih kann Hardwareluxx nicht mehr ganz ernst nehmen.
Die Verbrauchsmessungen sind doch bei euch mittlerweile totaler Unsinn geworden.
20 Watt mehr als die GTX 980? Während es bei PCGH/Computerbase 90 Watt sind?
Überarbeitet das endlich, das ist ja totaler Schmarrn.

Ich glaube nicht, dass alle mit dem selben System testen und da immer der Gesamtverbrauch gemessen wird, können da schon mal höhere Werte anfallen.
 
Die 7970 hat schon deutlich mehr gezogen als die 680. 50W und mehr war da der Unterschied. Marginal ist das nicht.
 
Die 7970 hat schon deutlich mehr gezogen als die 680. 50W und mehr war da der Unterschied. Marginal ist das nicht.

50W ist nichts, da die 7970 bedeutend günstiger war und man das anhand der Stromrechnung nicht gemerkt hätte. Erst nach ca. 2-3 Jahre würde man das merken, wenn die Differenz zu 680 abgezahlt wäre.
 
Ah, stimmt. Wenn ich mal auf anandtech lese war's bei der Ur-7970 30W zur 680 und bei der GHz dann 60W.

Als "marginal" sehe ich das nicht an. "Marginal" sind bei mir so <4%. Aber wir sind uns ja einig, dass es auch nicht "massiv" ist ;)
 
Zuletzt bearbeitet von einem Moderator:
Der Verbrauch hängt immer sehr stark, am Game, an der Szene, der Umgebung (CPU, Board...).
Zur 290X gibt es im Netz auch von 224W bis 289W alles zu finden. Immer @Stock...
Ich halte die ca 242-246W die ich mehrfach gelesen habe für realistisch.

Ich persönlich, finde aber auch das 50W nicht nichts sind...Einfach aus Technikgeilheit. Bei 250W für eine nicht übertaktete Karte hört bei mir der Spaß auf...
 
Soeben hat NVIDIA den offiziellen Preis für die GeForce GTX Titan X veröffentlicht. 1.149 Euro werden für die vorerst schnellste Single-GPU-Grafkkarten aus dem Hause NVIDIA fällig.
 
Und wann kann man die in Europa kaufen?

gesendet "Nicht von zu Hause"
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh