XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.137
<p><strong><img style="margin: 10px; float: left;" alt="titan-logo" src="/images/stories/galleries/reviews/2013/geforce-titan/titan-logo.jpg" width="100" height="100" /></strong></p>
<p><strong>Die Titanen bilden das älteste Göttergeschlecht der Theogonie der griechischen Mythologie. Oft werden sie als Riesen in Menschengestalt beschrieben, die über die legendäre Goldene Ära herrschten. NVIDIA hat "Titan" als Namen seiner neuesten Desktop-Grafikkarten gewählt. Die GeForce GTX Titan soll das Non-Plus-Ultra der aktuellen GPU-Entwicklung darstellen und NVIDIA gibt in Sachen Performance und Preisgestaltung an, keinerlei Kompromisse eingehen zu wollen. In der <strong>griechischen Mythologie verloren die Titanen den Kampf gegen die Olympier und wurden in die Unterwelt verbannt. Ob...<br /><br /><a href="/index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wurde ja auch langsam Zeit und sieht bisher ja auch sehr ordentlich aus.

Dann sind wir mal gespannt auf die Benchmarks und ob die im Vorfeld kolportierten 60% Mehrleistung gegenüber einer GTX680 auch wirklich eingehalten werden.
 
Ihr seit doch wahnsinnig ;)
 
Wenn dann noch der Preis stimmt, 950€ find ich jedenfalls persönlich nicht gerechtfertigt.... ;)
 
1000Mhz Boost Clock ? Das hört sich ja richtig stark an, besonders bei den Temperatur / Lautstärke Werten.
Mann mann, da juckts einem doch in den Fingern :d Dann warten wir mal die Benchmarks ab ;)
 
950,- EUR für ein Ticket auf der TITANic. Bei dem Performanceplus ^^

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan/performance
 
Da bleibt die frage "warum nicht dürfen" würde das ergebnis die verkaufszahlen negativ beeinflussen ?! :)

Nvidia gibt damit allen Redaktionen eine Gewisse zeit um sorgfältige Tests zu machen, nicht das die ersten schnell gemachten Tests die wichtigen und oft gelesenen sind.

So hat jede Redaktion gnügend Zeit ausführliche tests zu machen ohne Angst haben zu müssen das jemand anderes Tests vorher veröffentlicht ohne massive Konsequenzen zu befürchten
 
Ist das beabsichtigt, dass im 2ten Video man die FPS vom Valley Benchmark im EVGA Tool sehen konnte? Damit könnte man ja jetzt sogar die Leistung der Karte berechnen ^^ (naja oder eher gesagt mehr oder weniger abschätzen.)
 
Da bleibt die frage "warum nicht dürfen" würde das ergebnis die verkaufszahlen negativ beeinflussen ?! :)

Das übliche Bedingungen zwischen Hersteller und Presse. So wie es auch Bedingung war, bis heute zu warten mit den Infos, dies wir gerade veröffentlicht haben.
 
Danke für den ersten Teil des Testberichtes.
Nach all den Spekulationen ist das wohl ne richtige Arbeit, alles zeitnah beisammen zu haben und in solch einem Test zu präsentieren.

Was mir bisher ganz gut an Titan gefällt:
- 1 GHz offensichtlich möglich
- Temperatur spielt wieder eine größere Rolle, d.h. Besitzer einer WaKü dürfen sich auf bessere OC-Ergebnisse freuen
- VCore bis 1,2V möglich
- 6GB VRAM

Den Sinn des Display-OC versteh ich nicht ganz. Das hatte ich doch vorher auch schon:
- 120 Hz-TFT als Voraussetzung
- FPS-Grenze (z.B. 90 FPS) im EVGA-Tool eingestellt und Spaß gehabt.
Wo ist da künftig der Unterschied?

Noch eine Frage: Habe ich das nun richtig verstanden, dass die Hersteller nun unterschiedliche BIOS-Versionen mit unterschiedlichen VCore-Werten freigeben können?
Heisst für mich als User: BIOS flashen und loslegen!

Jetzt fehlen noch die Benchmarks :)
Dann kann ich entscheiden!
 
Noch eine Frage: Habe ich das nun richtig verstanden, dass die Hersteller nun unterschiedliche BIOS-Versionen mit unterschiedlichen VCore-Werten freigeben können?
Heisst für mich als User: BIOS flashen und loslegen!

NVIDIA bietet seinen Partner zwei SKUs: Standard und OC. Die Hersteller MÜSSEN im BIOS das OverVoltaging freigeben, sonst nimmt die Karte sich selbst ihren maximalen Boost. Ob mehr als 1,2 Volt möglich sind und was die Hersteller hier anbieten werden, müssen wir noch sehen.
 
Da scheinen laut test sogar wesentlich mehr als 1ghz möglich. Guck dir mal das video an. 1ghz rennt das ding auf standart. Im groben ersten test mit unausgereiften evga tool wobei die spannung bei max 1,15-1,165V lag waren boostete die karte sogar bis auf 1188 mhz hoch. mit mehr feintuning, mehr spannung und einem besseren tool kann man da glaube noch so einiges erwarten. schade das die karte für mich zu teuer ist. sie hört sich mehr als interessant an und vorallem auch die sache mit dem boost 2.0
 
NVIDIA bietet seinen Partner zwei SKUs: Standard und OC. Die Hersteller MÜSSEN im BIOS das OverVoltaging freigeben, sonst nimmt die Karte sich selbst ihren maximalen Boost. Ob mehr als 1,2 Volt möglich sind und was die Hersteller hier anbieten werden, müssen wir noch sehen.
Ok, danke für die Aufklärung :)
Jetzt hat sich die Redaktion erstmal n Päuschen verdient :d

@Gubb3L: Video kann ich hier auf Arbeit noch nicht sehen. Freue mich schon auf heute Abend daheim :d
 
Ich freu mich auch schon auf die ersten benchmarks und erstrecht wenn die ersten overclocker das ding mal in den händen halten und ihr richtig feier unterm arsch geben. Will mir nicht einer die karte schenken ? :P hab eh zurzeit dank semester ferien mehr als genug zeit zum benchen.
 
Unter Last liegt der Verbrauch einer GeForce GTX Titan rund 12 Watt über dem einer GeForce GTX 680. Damit liegen wir auch hier im erwarteten Bereich, denn je nach Test- und Messszenario wird die Karte mehr oder weniger voll ausgelastet. Auf Messungen mit speziellen Verbrauchstools wie Furmark oder OCCT verzichten wir.


Dürften wir vielleicht die Testanwendung erfahren oder bleibt das ein Geheimnis? Weil so ist das voll sinnlos. Sich erst echauffieren wegen Furmark und Co und noch nicht einmal die Anwendung nennen können.
 
Assassins Creed III wenn du es wissen willst. Warum wir Furmark und Co. nicht für sinnvoll halten wäre aber die wichtigere Frage.
 
Was für ein lächerlicher Preis. Da wird nVidia auf den Karten sitzen bleiben, es sind doch maximal 100 Leute weltweit so drauf um 1000€ für eine SINGLE-GPU Karte auszugeben.
Edit:
@Don Dh. ihr erzwingt im Treiber CF/SLI? Bei mir zumindest nutzt AC3 nur eine GPU...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh