Test: Zotac GeForce GTX Titan AMP! Edition - Titan noch schneller

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.065
<p><img style="margin: 10px; float: left;" alt="titan-logo" src="/images/stories/galleries/reviews/2013/geforce-titan/titan-logo.jpg" width="100" height="100" /></p>
<p>Bereits zum Start der <a href="index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html" target="_blank">GeForce GTX Titan (Hardwareluxx-Artikel)</a> kündigte NVIDIA an: Es wird übertaktete und anderweitig veränderte Modelle der GeForce GTX Titan geben. Nach dieser Ankündigung fehlte es allerdings an konkret verfügbaren Produkten, auch wenn Hersteller wie EVGA, Gigabyte, Inno3D und Co. entsprechende Produkte bereits zeigten. Als einer der ersten Hersteller bringt nun Zotac die GeForce GTX Titan AMP! Edition auf den Markt. Anders als die bisherigen AMP!-Editionen, muss Zotac aber...<br /><br /><a href="/index.php/artikel/hardware/grafikkarten/26157-test-zotac-geforce-gtx-titan-amp-edition.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Würde NVIDIA nicht so rumzicken mit ihren Vorgaben, dann hätte jede Customkarte jetzt einen besseren Kühler drauf, ist zwar nicht so schön, dass das Design dann wegfällt, aber dann können die Hersteller auch noch mehr Potenzial aus dieser Karte heraus schöpfen, wobei es doch eher wenig Leute gibt, die sich eine Titan mal so eben zulegen.
 
Seit wann bestimmt der GPU-Boost auch den Vram-Takt? Oder wieso zeigt EVGA PrecisionX auf der ersten Seite nur 3005MHz an? Habt ihr vllt die Karte mit den standardwerten der Titan (837(876)/3004 MHz) getestet (wie auf seite 2 GPU-z)? :fresse:
Das würde auch erklären, wieso die Karte im Schnitt nicht mehr als 1-2% (Messungenauigkeit) schneller als die stock Karte wäre, trotz des deutlich höheren GPU- und Speicher-Takts...
 
Don könnt ihr mal den Gegentest machen, die Karte im OC Test mal nur mit Lüfter @85% (Rest auf default) bzw. mal nur mit Temptarget auf max. (Rest auf default) zu benchen?
Die paar Benches im OC Test reichen in den Settings denke ich auch aus...

Ich finde die Werte ehrlich gesagt sehr gering. Das sind teils nichtmal 10%, trotz dem Boosttakt von knappen 20% mehr (sofern die Dauerhaft anliegen)
Auch sehe ich die default Werte eigentlich nahezu alle samt im Rahmen der Messtoleranz von teils nichtmal 1 FPS an. Der Mehrpreis scheint da völlig rausgeschmissenes Geld.
 
Warum NVIDIA ihrer Titan so eine kümmerliche Spannungsversorgung verpasst hat, bleibt für mich ein Rätsel.
300 Watt sind spezifiziert und sollten doch bei einer Titan möglich gemacht werden, aber bei 250 Watt wird der 1000 Euro-Karte schon der Saft abgedreht. :stupid:

Sie hätten wenigstens das Powertarget für die OC-Modelle der Partner freigeben können auf 120% mit dementsprechenden PCIe-Stromversorgungsanschlüssen. Aber das verstehe wirklich keiner wer will. :hmm:
 
liegt wohl daran, das eben der Lüfter auch Strom braucht... ;)

Interessant wären aber genaue Werte.
 
Er meinte, dass die Karte wegen der hohen Lüfterdrehzahl in nem kritischen Temperaturbereich wäre, dass es am Strom vom Lüfter liegt, kann natürlich auch sein.
 
100€ Aufpreis für ein modifiziertes BIOS ohne jeden praktischen Wert. Wer bereit ist knapp 1000€ für eine Grafikkarte auf den Tisch zu legen wird wohl selber mit den beiliegenden Tools eine effektivere Einstellung auswählen.
Und wer die AMP kauft - wird das auch tun
 
Seit wann bestimmt der GPU-Boost auch den Vram-Takt? Oder wieso zeigt EVGA PrecisionX auf der ersten Seite nur 3005MHz an? Habt ihr vllt die Karte mit den standardwerten der Titan (837(876)/3004 MHz) getestet (wie auf seite 2 GPU-z)? :fresse:
Das würde auch erklären, wieso die Karte im Schnitt nicht mehr als 1-2% (Messungenauigkeit) schneller als die stock Karte wäre, trotz des deutlich höheren GPU- und Speicher-Takts...

EVGA zeigt hier 1502 MHz an, da wir hier einmal zeigen wollen, dass die GPU ausgebremst wird anhand der Temperatur. Da wir an den Taktraten gefummelt haben, haben wir beim Takt vergessen den manuell wieder auf 1652 zu bringen. Da ist wohl auch der GPU-Z-Screenshot entstanden, der zumindest beim Default-Wert die 1652 MHz nennet. Ich schaue mir das aber noch einmal an.

Ich finde die Werte ehrlich gesagt sehr gering. Das sind teils nichtmal 10%, trotz dem Boosttakt von knappen 20% mehr (sofern die Dauerhaft anliegen)
Auch sehe ich die default Werte eigentlich nahezu alle samt im Rahmen der Messtoleranz von teils nichtmal 1 FPS an. Der Mehrpreis scheint da völlig rausgeschmissenes Geld.

Man kann leider nicht mehr wie früher GPU-Boost-Takt gegen GPU-Boost-Takt vergleichen. Da verhält sich jede Karte einfach anders. Wir haben nur noch Mindestvorgaben und je nach Kühlung ergeben sich oftmals recht ähnliche Werte. Irgendwo bei 1000 MHz liegt die Grenze, die eine Karte macht 993 und die andere 1006 MHz (als Beispielwerte), da können sich die Karten einfach nicht mehr viel unterscheiden.

Zotac garantiert einfach nur die 954 MHz gegenüber NVIDIA mit 876 MHz, diese Werte existieren aber größtenteils nur auf dem Papier.
 
Die HydroCopper sollen wir diese Woche bekommen ;)
 
Sind so fertig WaKü Grakas genauso gut wie eine selbst ausgewählte Kühlung?
 
Das kommt auf den Wasserkühler an und EVGA verbaut solche von Swiftech.
 
Riesen Schwachsinn! Dank der Handbremsen im Powertarget und Temptarget bringt mir das OC ca 1 fps mehr.

Aber jeden Morgen steht ja ein dummer auf :)
 
Was verlangt man von einer Referenzkarte, wo alles gleich ist, außer RAM-Takt und Spiele-Bundle? Mehr als 1% bekommt man nur von speicherbandbreitenabhängigen Anwendungen. Und dafür einen Aufpreis von 130€? Nein, danke!
 
EVGA zeigt hier 1502 MHz an, da wir hier einmal zeigen wollen, dass die GPU ausgebremst wird anhand der Temperatur. Da wir an den Taktraten gefummelt haben, haben wir beim Takt vergessen den manuell wieder auf 1652 zu bringen. Da ist wohl auch der GPU-Z-Screenshot entstanden, der zumindest beim Default-Wert die 1652 MHz nennet. Ich schaue mir das aber noch einmal an.



Man kann leider nicht mehr wie früher GPU-Boost-Takt gegen GPU-Boost-Takt vergleichen. Da verhält sich jede Karte einfach anders. Wir haben nur noch Mindestvorgaben und je nach Kühlung ergeben sich oftmals recht ähnliche Werte. Irgendwo bei 1000 MHz liegt die Grenze, die eine Karte macht 993 und die andere 1006 MHz (als Beispielwerte), da können sich die Karten einfach nicht mehr viel unterscheiden.

Zotac garantiert einfach nur die 954 MHz gegenüber NVIDIA mit 876 MHz, diese Werte existieren aber größtenteils nur auf dem Papier.

Ich will hier bestimmt nicht der Spielverderber sein, aber wieso werde ich dieses dumme Gefühl nicht los, dass die Werte an denen "rumgefummelt" wurde um etwas zu veranschaulichen, auch während der
Tests auf eben besagten niedrigeren Werten lagen... wenn sie schon bei machen der Screenshots "vergessen" wurden... Nur mal so ein Gedanke.
 
So ist das mir Gefühlen, sie können einen täuschen.

1. Wir testen erst die Karte, schauen uns an, was die Taktraten machen und dann kümmern wir uns um solch spezielle Sachen wie GPU-Boost. So machen wir auch erst alle Messungen, bevor wir den Kühler abnehmen. Alles andere könnte die Werte verfälschen.
2. Das ist nicht die erste Karte, die wir testen.

Noch einmal: Man kann leider nicht mehr wie früher GPU-Boost-Takt gegen GPU-Boost-Takt vergleichen. Da verhält sich jede Karte einfach anders. Wir haben nur noch Mindestvorgaben und je nach Kühlung ergeben sich oftmals recht ähnliche Werte. Irgendwo bei 1000 MHz liegt die Grenze, die eine Karte macht 993 und die andere 1006 MHz (als Beispielwerte), da können sich die Karten einfach nicht mehr viel unterscheiden. Daran ändert dann auch der Speicher nicht viel.
 
Wieso kann Nv nicht einfach den Boardpartnern erlauben einen stromanschluss mehr zu verpassen? Oder villeicht sogar 3x 8pin?
 
So ist das mir Gefühlen, sie können einen täuschen.

1. Wir testen erst die Karte, schauen uns an, was die Taktraten machen und dann kümmern wir uns um solch spezielle Sachen wie GPU-Boost. So machen wir auch erst alle Messungen, bevor wir den Kühler abnehmen. Alles andere könnte die Werte verfälschen.
2. Das ist nicht die erste Karte, die wir testen.

Noch einmal: Man kann leider nicht mehr wie früher GPU-Boost-Takt gegen GPU-Boost-Takt vergleichen. Da verhält sich jede Karte einfach anders. Wir haben nur noch Mindestvorgaben und je nach Kühlung ergeben sich oftmals recht ähnliche Werte. Irgendwo bei 1000 MHz liegt die Grenze, die eine Karte macht 993 und die andere 1006 MHz (als Beispielwerte), da können sich die Karten einfach nicht mehr viel unterscheiden. Daran ändert dann auch der Speicher nicht viel.

Wollte da nichts in Frage stellen. Ich verstehe auch vollkommen was du meinst bzgl des GPU-Boost-Taktes. Ich hatte das auch schon bei zwei Titans beobachtet die ich mal hier hatte. Komisch war auch, dass mit dem übertakten des Speichers auch die maximal erreichbare GPU-Taktung sank. Im endeffekt trug wohl der übertaktete Speicher zur Erhitzung bzw Wattauslastung bei.
 
Wieso kann Nv nicht einfach den Boardpartnern erlauben einen stromanschluss mehr zu verpassen? Oder villeicht sogar 3x 8pin?

Wer übernimmt die Verantwortung? Das ist wohl der zentrale Angelpunkt an der Geschichte

Wenn der Core durch einen solch starken Ausbau dann irreparabel beschädigt wird,will hier nicht nvidia dafür gerade stehen müssen,denn ihren zumutbaren Bereich haben sie mit den Referenzvorgaben gesteckt

Und die Boardpartner selbst wollen das Risiko alleine wohl auch nicht auf sich bürden
 
Zuletzt bearbeitet:
Wie ist die ACIS der Zotac?

Wohl nicht höher wie 67 wenn du den Takt ran nimmst den sie vorgibt(980)

1006 für die ASIC Werte ab 73 aufwärts scheint sie aus dem Stand nicht zu machen wenn ich das richtig sehe

Olis Tabelle gilt hier sicher auch pi mal Daumen

asic_boostnlux1.jpg
 
Zuletzt bearbeitet:
Häh??? Die ist doch schon oc'ed...
 
quadsmiles schrieb:
Wieso kann Nv nicht einfach den Boardpartnern erlauben einen stromanschluss mehr zu verpassen? Oder villeicht sogar 3x 8pin?

Eventuell will Nvidia die Reklamationsquote verringern, oder einfach die nächsten Karten etwas attraktiver machen und diese in der Leistung etwas limitieren.
 
Häh??? Die ist doch schon oc'ed...

Das was übertaktet ist muss ja nicht zwangsläufig den Max Boost beeinflussen

Der scheint sich weiterhin unbeirrt am ASIC Wert zu orientieren mit Standardsettings wohlgemerkt:)


Wäre schön wenn Don den Asic Wert nochmal preis geben würde von der Karte um zu sehen ob sich dieser unterhalb der 67er Klasse einordnet
 
Zuletzt bearbeitet:
Wieso Verantwortung für alles? Hab ich nie gesagt.

NVIDIA Garantiert die off. freigegebenen Parameter.

EVGA übernimmt die Verantwortung für die ordentliche Implementierung der Features um EVBOT und die Fehlerfreiheit bei sachgemäßer Benutzung (siehe Anleitung & Garantiebestimmungen).

Die Verantwortung für Schäden bei unsachgemäßer Benutzung übernimmt wie immer der doch hoffentlich kundige Anwender. Wenn er schrottet ist er selbst dran doof.

Warum also Die Hardwarekünstler von EVGA zurückpfeifen und den Kunden als unmündige Geldmelkkuh dastehen lassen..
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh