GDC: NVIDIA zeigt die GeForce GTX Titan X

Und was bitte sehr hat ein TitanX Custom-Kühler mit Fiji XT zu tun?
Wahrscheinlich damit beide Wasserkühlung haben, lol.

Wüsste allerdings eher nicht wieso man sich ein Bundle von EVGA holen sollte. Die sind bisher eher teuerer als wenn man die EVGA Karte alleine kauft und einen Kühler einer anderen marke drauf bastelt. SO oder so bleibt bei EVGA ja bekanntlich die Garantie erhalten.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Weil Fiji XT die Titan X in die Schranken weisen wird
30 bis 40 Watt Mehrverbrauch sei mal dahingestellt, das Problem bei NV wird ähnlich wie damals bei der R9 290(X) der Titan Kühler diesmal werden.

Noch "guter" Verbrauch und akzeptable Geräuschkulisse bis etwa 250 bis 260 Watt
dann wird es auch für die GTX Titan X nicht mehr leicht werden, Herr über die Karte zu sein!
Deshalb kommen wohl KEINE Custom Kühler zur Titan X bis sich NV selbst zu Hybrid Kühlung entscheiden wird.
 
wer sich die Titan X Kauft bekommt von mir "handgeschrieben" ein Gedicht

es fängt an mit "Du sollst keine anderen Götter haben außer NVidia"

Solche Posts verstehe ich ja einfach nicht...:stupid:
 
Leider trotzdem zu teuer. Erst recht wenn der Preis weit über 1000€ liegen wird... :/
 
Wenn man das Baby voll ausfährt dann geht das Ding richtig zur Sache.
Dann bewegt man sich in Bereichen der jetzigen Dualkarten .
Aber halt nicht nur mit 4GB oder 6 sondern mit dicken fetten 12GB .
Im SLI ein Traum derzeit.
 
Zuletzt bearbeitet:
KOmmt halt drauf an wie man es sieht. 12 GB Vram auf ner Single GPU sind halt einzigartig und das lässt sich Nvidia eben bezahlen. Könnte vllt wirklich sein, dass Fiji schneller wird, allerdings eben mit weniger Vram. Kommt Zeit kommt Rat...Erstmal Morgen abwarten, was die Titan X wirklich leistet!
 
Was sie wirklich leistet wird man nur unter Wasser sehen.
Der Referenzkühler gibt da nicht all zu viel her und das PT auch nicht.
 
Wenn Sie Ihr muckis nur unter Wasser UND mit mod Bios spielen lassen kann... Dann hat nvidia alles in der falschen Richtung gelenkt... Sieht man die 970/980 so können die 95-98% unter lukü ihre Leistung ausspielen.... Wakü bringt 2-5% und das ist genau der richtige Weg... Weil 99% der PCler nur lukü haben bzw max die cpu unter Wasser haben
 
Da es aber von der Titan nur die Referenzversion gibt, liegt der Fokus natürlich etwas mehr auf einer Wasserkühlung. Die 970/980 haben auch eine geringere Leistungsaufnahme abzuführen. Sollte die Titan X wirklich 250 Watt TDP haben, müsste der Kühler schon mehr ackern als bei einer 9707980. Aber wie gesagt, wir warten einfach mal den morgigen Tag ab :)
 
Der Kühler der Titan X wird aber effektiver sein, als der der 980. Schliesslich hat die 980 keine vapor chamber.
 
Kommt halt drauf an ob man Coustoms erlauben wird .
 
Ja Natürlich... Aber dennoch wenn es so ist wie bei den 780er... Wäre in meinem en Augen dann ein Rückschritt
 
Denke ich auch eher nicht. Vllt effektiv aber nicht auch noch gleichzeitig leise ;)
 
Mit meiner 780Ti hatte der Radiallüfter auch ordentlich zu kämpfen bedingt durch die hohe Asic von 83% konnte der Kühler nur Stocktakt nach Paar Min halten.
Also 887MHZ ohne die Steuerung anzupassen.
Mit Wakü am Mora dran 1325MHZ bei 1.174V und 35°C.
 
Zuletzt bearbeitet:
Seit wann hat die ASIC was damit zu tun? Wer hat das Märchen eigentlich verbreitet?
 
Ich hatte schon ziemlich viele Karten mit Asics über 80% es viel mir immer auf das diese Karten ein paar °C mehr heizen.
Aber häufig gut takten was bei der 780Ti aber kein Indiz war.
 
Zuletzt bearbeitet:
Hat bei mir nie einen Unterschied gemacht...
 
Ich hatte schon ziemlich viele Karten mit Asics über 80% es viel mir immer auf das diese Karten ein paar °C mehr heizen.
Aber häufig gut takten was bei der 780Ti aber kein Indiz war.

Eigentlich ist es genau umgekehrt. Je höher der ASIC, desto niedriger der Verbrauch, was wiederum die Temperatur leicht fallen lässt.

 
Hat bei mir nie einen Unterschied gemacht...

Im Endeffekt ist es auch Wurst der Ref.Kühler war gut beschäftigt mit der Ti das sollte der Kern meiner Aussage sein.
Wieviel du in das andere interpretierst über lasse ich dir.
Das sind meine Erfahrungen die ich gesammelt habe und sollen auch nicht den Mittelpunkt der Welt darstellen.

- - - Updated - - -

Eigentlich ist es genau umgekehrt. Je höher der ASIC, desto niedriger der Verbrauch, was wiederum die Temperatur leicht fallen lässt.


Wie ich sagte meine Erfahrungen mit ca 20 Karten von AMD und NV seit 28Nm .
Vielleicht verhält es sich hier und da anders.
Mir ist hohe Asic für mehr Leckströme also niedrigere V bekannt niedrige Asic für hohe V kühler Chip bekannt.
 
Zuletzt bearbeitet:
Dann widerspricht deine Erfahrung der technischen Interpretation. Schreib ein Paper.
 
Dann widerspricht deine Erfahrung der technischen Interpretation. Schreib ein Paper.

Ja die Interpretation von GPU Z hat mich auf Grund dessen auch immer grübeln lassen.
Tatsache war bei mir Asic vom um die 80% lag die vid meist in der Nähe von 1.1V je niedriger die Asic wurde um so mehr ging die V Richtung 1,2.
 
Zuletzt bearbeitet:
Ich hatte 4 780er hier und die mit ner 65er asic hat knapp 15watt weniger verbraucht und war flüster leise..
Die 82er Asic hat geheizt wie verrückt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh