XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

super Test, danke ;)

bin nur enttäuscht, die Leistung an sich geht in Ordnung, aber für keine 900 Euro.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Preis für diese Leistung sollte bei max 550€-600€ liegen, wen ich den FC3 Bench sehe wird mir schlecht, da ist sie genau so schnell wie eine 680 er bei den Min FPS.. Und bei den Spielen worauf es ankommt ist sie zu langsam bei den Min FPS. Das ist wie ein spring von einer GTX580 zur 680 nicht mehr nicht weniger, aber dafür fast 100% mehr zu verlangen...

Schade, wird nicht gekauft...
 
Krass, geht echt gut ab die Karre. Trotzdem zu teuer. Mal gucken wie es Ende des Jahres aussehen wird.
 
Scheint ja richtig richtig gut zu performen fuer ne Solo-GPU Karte. Preis leider (zu) hoch.

Wuerde mich interessieren was die 'Verrueckten' OC-Jungs mit arktischer Kuehlung aus der Karte ziehen koennen =D
 
erstmal müsste man drauf rumlöten damit die Karte mehr Strom ziehen kann ^^ mit 300 W maximum durch die Anschlüsse kommt man nicht weit, selbst mit -193°C^^
 
Der Preis für diese Leistung sollte bei max 550€-600€ liegen, wen ich den FC3 Bench sehe wird mir schlecht, da ist sie genau so schnell wie eine 680 er bei den Min FPS..

Schade, wird nicht gekauft...

Schonmal drüber nach gedacht wenn das Ding im CPU Limit hängt nützt die beste Karte nix schau dir die Triple Screen Benches an u du weißt bescheid was für Potential darin ist

Das Ding ist nunmal mit heutigen CPUs unten rum nicht ans Limit zu bekommen,frag doch mal Intel ob sie dir ne 7GHZ CPU basteln dann sehe das ganze Szenario in den Mickie Maus Auflösungen anderst aus
 
Zuletzt bearbeitet:
Bei BF3 stimmt was mit den Werten der GTX 580 nicht. Da sind die Min-FPS höher als die Average. Werte versehentlich vertauscht?!

bf6.jpg
 
Soweit ich dem Review entnehmen konnte ist zumindest auf den Testexemplaren noch n ungenutzter 8-Pol Stecker im PCB vorbereitet :fire:
 
Aus betriebswirtschaftlicher Sicht völlig plausibel, dass NV die Dinger so teuer macht. Wahrscheinlich wenig rentabel, weil geringe Stückzahl wegen "Lückenfüller-Charakter". Zudem keine Single GPU Konkurrenz.
 
Wann kann ich die kaufen?
 
Wäre mal interessant das Teil für ein paar Tage zu testen, wahrscheinlich hängt der 3570k dann easy mit 5 Ghz noch am CPU Limit (bei FullHD Auflösung ohne SS) :d

Die 670 @ 1320 MHz kann ich mit 4,5 Ghz gerade so ausfahren.
 
Hier in der Schweiz bekommt man die Karte umgerechnet für 850€, aber selbst das ist mir bei der gebotenen Leistung noch etwas zu teuer.. :stupid:
 
die +50% zur 680 sind nicht geblieben, wurde ja fleißig mit solchen Werten um sich geworfen.
Am Ende sinds 20-30% geworden... ernüchternd
 
@Don/ Redaktion

Gerade bei der Titan interessiert mich besonders die CPU Computing Leistung in der realen Welt. Wo Nvidia seit der GTX 480 immer weiter abgebaut hat, hat AMD derzeit Leistungstechnisch die Nase deutlich vorne, wird aber bei professioneller Software kaum Unterstützt.
Möchte man in der 3D-Branche auf der GPU Rendern, ist man also derzeit quasi auf Nvidia angewiesen.

Leider gibt es für iRay und Vray keinen Benchmark (außer selbst erstellte Demoszenen), für den octane Renderer gibt es allerdings eine Szene vom Hersteller direkt. Kann einfach hier heruntergeladen werden: Octane Render. Demoszenen gibt es auch unter dem Link

Wäre echt klasse, denn im Gegensatz zu Luxmark oder sonstigen Synthetischen Tests ist Octane eine Anwendung die wirklich genutzt wird und auch vom Rating her nah an Vray RT liegt.
 
Scully Du weißt genau so wenig wie Wir, wie sich Titan mit einer 7GHz CPU von Intel verhält. Was wir aber wissen, ist, dass Titan mit aktueller Hardware nicht so viel Leistung bringt wie erhofft und durch den Preis eher ein Sammlerobjekt zu sein scheint.

Deshalb wünsche ich allen Käufern viel Spaß an ihren Karten und staubt sie auch ja jeden Tag ab!
 
@Don/ Redaktion

Gerade bei der Titan interessiert mich besonders die CPU Computing Leistung in der realen Welt. Wo Nvidia seit der GTX 480 immer weiter abgebaut hat, hat AMD derzeit Leistungstechnisch die Nase deutlich vorne, wird aber bei professioneller Software kaum Unterstützt.
Möchte man in der 3D-Branche auf der GPU Rendern, ist man also derzeit quasi auf Nvidia angewiesen.

Leider gibt es für iRay und Vray keinen Benchmark (außer selbst erstellte Demoszenen), für den octane Renderer gibt es allerdings eine Szene vom Hersteller direkt. Kann einfach hier heruntergeladen werden: Octane Render. Demoszenen gibt es auch unter dem Link

Wäre echt klasse, denn im Gegensatz zu Luxmark oder sonstigen Synthetischen Tests ist Octane eine Anwendung die wirklich genutzt wird und auch vom Rating her nah an Vray RT liegt.

Ich lade mir das mal herunter und schaue es mir an.
 
die +50% zur 680 sind nicht geblieben, wurde ja fleißig mit solchen Werten um sich geworfen.
Am Ende sinds 20-30% geworden... ernüchternd

also ich kann da durchaus +50% sehen zu ner 680 ^^

du solltest nur nicht bei 1080p ohne AA schauen, dafür ist die Karte nicht gemacht, da bremst die CPU wohl
 
Extrem ernüchternd, nur 20 bis 25% mehr Leistung als die HD 7970 ghz und mit einer übertriebenen Bremse versehen.
Bei Computerbase läuft das teil nicht mal mit den mindest Boost.

Wenn man die Bremse löst, ist das Teil dann 7% schneller bei 75 watt Mehrverbauch, jetzt weiß man auch warum die Karte so sparsam ist, einfach weil Nvidia per Trick die Karte einbremst und limitiert.

Trotzdem eine gute Karte, keine Frage aber für denm Preis und angesicts der erwartungshaltung bin ich etwas baff.
 
@Don,

Danke. Ist nicht so viel Aufwand :-)

Octane Render Forums - View topic - OCTANE BENCHMARK: Submit performance scores for your rig!

Da steht noch alles weitere und auch wie die Jungs dort benchmarken. Wenn dann noch irgedwann ein paar Viewport Tests kommen, kann es sein das ne Quadro (noch) überflüssiger für Nicht-Architektur-3Dler wird ;-).

EDIT:

Mir sagt der OctaneRenderer, es seien keine CUDA-GPUs vorhanden.

verdammt. Fehlt wohl noch offizieller support. Die K20 läuft. Ist etwa 40% schneller als ne 680. Ich hoffe in nicht all zu ferner Zukunft löst sich das Problem.
 
Zuletzt bearbeitet:
Naja, also auch wieder nur ca. so schnell wie ne neue Generation. Da die nächste Generation ja auch so langsam kommen sollte, ist der Preis absolut nicht gerechtfertigt.
Dadurch habe ich Angst, dass die High End Modelle nun ab jetzt immer so viel kosten werden, gerade wenn ich lese wie viele sich das Ding wirklich für so viel Geld zulegen wollen...
 
Schonmal drüber nach gedacht wenn das Ding im CPU Limit hängt nützt die beste Karte nix schau dir die Triple Screen Benches an u du weißt bescheid was für Potential darin ist

Das Ding ist nunmal mit heutigen CPUs unten rum nicht ans Limit zu bekommen,frag doch mal Intel ob sie dir ne 7GHZ CPU basteln dann sehe das ganze Szenario in den Mickie Maus Auflösungen anderst aus


Bei der 690 geht es aber...:bigok:
 
Geiles Ding, warten wir mal was Sie bringt wenn Sie von 2 Xeons Befeuert wird. Ich denk da hängt es. Thx an HWLuxx für die Benches. mfg
 
Geiles Ding, warten wir mal was Sie bringt wenn Sie von 2 Xeons Befeuert wird. Ich denk da hängt es. Thx an HWLuxx für die Benches. mfg

Gar nix... Weil Games bekanntermaßen über die Cores größer 4-6 so ohne weiteres fast gar nicht skalieren. Dazu kommt der ggf. niedrigere Takt. Und bei aktuellen Modellen die fehlende OC Features, die die Leistung im Vergleich zu ner SIngle Desktop CPU noch weiter einbremsen.
 
nach den Werten der Leistungsaufnahme war das kein wunder, kaum schneller als eine AMD 7970GHz :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh