XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

:hmm:


Die Titan ist mit 837MHz GPU-Takt spezifiziert. Der Boost ist fakultativ und variiert je nach den Bedingungen. Ist not a bug it´s a feature. Ganz einfach zu verstehen, oder?

Da gibt es dann auch nichts zum aufregen... .

Natuerlich gibts was zum aufregen :)
Weil dadurch die Vergleichbarkeit und Transparenz floeten geht.

Wie kann ich nen Fahrzeug vergleichen, welches nominell 120 PS hat, jedoch bei -20 Grad es auf 200 PS bringt?
Wenn es dann ne Stunde gelaufen ist bringt es nur noch 100 PS. Du verstehst auch nich ganz wo der Hund begraben liegt ^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Richtig, aber dann muss man auch so konsequent sein und das Ding mit 837Mhz testen.
Es ist hier schwierig gerecht zu testen, jedoch ist @ 837 MHz sicher am praktikabelsten und objektivsten.

Oder spielst du nur 5min? Und was ist im Sommer?
Länger als 5 min und @WaKü, weswegen ich die obigen Sorgen nicht haben muss.
Und ja, auch im Sommer... .:asthanos:
 
@scully1234

sage mal langsam reicht es mit deinen kommentaren echt, Turbo Amd und NV über den gleichen klee zu ziehen wie Boost 2.0 ist mal ganz daneben, das zeigt erstmal das du technisch garnichts verstanden hast worum es eigentlich geht,

1.Ja ich hab die Technik dahinter verstanden wie auch viele andere hier die das Feature nicht anprangern

2.Ja ich hab auch verstanden das ein paar Trolle hier über ein Feature herziehen was sich AMD ebenso zu Eigen macht u zieht man nen Querschnitt scheinen die Bubis das gerne mal auszublenden.Und tun auch noch verwundert wenn man sie mit den Gegebenheiten konfrontiert

3.Die "Klappe" lass ich mir schonmal gar nicht verbieten!
 
Zuletzt bearbeitet:
Der Boost ist sicherlich sinnvoll und für Leutchen mit Wakü perfekt.

Mit der Empfehlung seitens NVIDIA die Titan gut gekühlt zu benchen wirft das natürlich einen Schatten auf die weisse Weste. Testergebnissebevorteilung. Das so viele "proffessionelle" Tester darauf reingefallen sind und sich nicht genügend mit dem Funktionsweise auseinandergesetzt haben wirft ein sehr schlechtes Bild auf diese. Auch auf NVIDIA wegen der Empfehlung.

Test: Nvidia GeForce GTX Titan (Seite 19) - ComputerBase
 
Zuletzt bearbeitet:
Ich werde mal ne Petition in Umlauf bringen das AMD Karten mit überdurchschnittlichen ASIC Werten nicht mehr gebencht werden in Reviews damit die lieben Tester sich auch ja nicht "täuschen lassen" von dem was der Turbo kaschiert

Nur um dieser Lächerlichkeit die hier gerade grassiert auch die Waage zu halten:)
 
Zuletzt bearbeitet:
Warum nur kann man mit manchen Leuten keine fachliche und sachliche Diskussion lesen? Fakt ist, egal ob Nvidia oder AMD, es ist nicht förderlich, wenn ein begrenzter Boost mit beurteilt wird... Und ob das Teil jemand mit Wasser oder von mir aus mit Cola kühlt ist so was von Jacke.... Das Teil wird mit Luftkühler verkauft also ist das Argument "hat eh jeder eine Wakü und da geht es ab" fürn Arsc*. So engstirnig wie mancher hier ist, kann man doch nicht sein... Es ist Kritik bzw ein konstruktiver Austausch an EINEM Hersteller, nicht an EUREM Hersteller/Firma... Ich habe auch bei AMD ein paar Kritikpunkte und höre mir die gerne an bzw Teile Meinungen, aber bei einigen hier ist alles von Nvidia der heilige Grahl und von AMD Schrott oder nachgemacht oder aus Prinzip schlecht... Seit ihr im Privatleben auch so?

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Ich bin zufrieden, wenn es so gemacht wird wie PCGH und CB es gezeigt haben. Standardbetrieb mit Vorwärmen bzw. im Gehäuse und einmal dem Boost freien Lauf lassen. So sind alle zufrieden.
 
Und der Boost wird auch keinesfalls unterschritten wenn man das möchte jeder kann das im Diagramm sehen das generell immer über 900MHZ möglich sind bei richtigen Einstellungen

Also liefert die Karte auch die Leistung wie in den Reviews

Zudem wird der garantierte Grundtakt auch gehalten

Wer garantiert eigentlich bei nem schlechten ASIC Wert für den Turbo?

Vielleicht kann das mal die andere Fraktion erläutern,unser eins ist ja technisch nicht auf der Höhe^^
 
Zuletzt bearbeitet:
So viel hierzu

Test: Nvidia GeForce GTX Titan (Seite 19) - ComputerBase

Mit den Standardeinstellungen wird die GeForce GTX Titan in fast jedem Spiel durch die Temperaturbegrenzung des GPU-Boosts ausgebremst, die versucht, den Rechenkern bei 80 Grad Celsius zu halten. Den von Nvidia angegebenen Durchschnittstakt von 876 MHz kann die Grafikkarte nur in Battlefield 3 sowie Project Cars halten. In Metro 2033 wechselt sich diese durchweg zwischen 836 MHz und 875 MHz ab.

In Anno 2070, Planetside 2 sowie The Witcher 2 erreicht die GeForce GTX Titan gar nur den Base-Takt, in Dirt: Showdown wechselt sich dieser mit 849 MHz ab. In allen anderen Spielen liegen die Taktraten zwischen dem Base- und dem Boost-Takt.

Einstellungen ändern auf die "richtige Einstellung" geht einher mit erhöhter Lautstärke und Stromverbrauch ... und das geht nun mal gar nicht da in den Generationen nach Thermi die Effizienz ja so wichtig geworden ist. ^^
 
Einstellungen ändern auf die "richtige Einstellung" geht einher mit erhöhter Lautstärke und Stromverbrauch ... und das geht nun mal gar nicht da in den Generationen nach Thermi die Effizienz ja so wichtig geworden ist. ^^

Zumindestens kann man diese ändern wie man es selber gerne möchte u ohne Garantieverlust

Ich frag nochmal in die Runde was passiert beim schlechten ASIC Wert mit dem AMD Turbo?

Und diesmal vielleicht nicht wieder Ausflüchte oder das Steine Werfen im Glashaus bleiben lassen
 
AMDs Boost ist Vergleichbar mit dem der Nvidia 6xx Serie. Anandtech z.B. hat genug dazu geschrieben.

Da geht es auch nicht um solche Schwankungen und tempabhängigkeiten wie sie bei der TITAN auftreten ... und wo man sich die praxisgerechten Meßergebnisse mit der Lupe raussuchen muss. Ablenken gilt daher nicht ...
 
Der Boost von der 6xx Serie und von Titan ist doch im Grunde gleich. Der einzige Unterschied ist, dass Titan nicht so freizügig hochtaktet. Bei GK104 und Konsorten sind es bis zu 4% Takt, die man von 95 Grad ausgehend drauflegen kann, wenn man unter 70 Grad kommt:
NVIDIA GeForce GTX 680 Kepler 2 GB Review | techPowerUp

Bei Titan sind es 10-15%, die man mit weniger Temperatur gewinnen kann. Prozentual gesehen taktet Titan sogar höher, aber die Bedingungen sind unter Standardbedingungen eben strikter als bei der 6xx Serie.
 
Irgendwie habe ich das Gefühl, dass sich die Diskussion seit einiger Zeit im Kreis dreht - und zwar gewaltig.

Ich versuche daher nun mal zusammenzufassen:

Wir sind uns alle einig, das Tests immer möglichst objektiv und realitätsnah sein sollte. Dies ist nicht immer ganz leicht, da es ohnehin schon immer eine mitunter große Serienstreuung zwischen den Karten gibt und die Tester durch NDA und andere Fristen nicht immer genug Zeit für ausführliche Tests haben. Durch die neue Boost 2.0 Technologie wird es zusätzlich noch etwas erschwert, da der Boost nicht mehr nur TDP sondern auch temperaturabhängig ist.

Wie objektive und möglichst realitätsnahe Testberichte aussehen sollen, da divergieren dann die Meinungen (wie sooft).

Nun gibt es genug Testberichte, die unter idealen Bedingungen testen - aber auch zwei Testberichte, die untere "Worst Case" Bedingungen testen. Die Wahrheit liegt, zumindest meiner Meinung nach, irgendwo in der Mitte, da bei CB das Gehäuse nicht ausreichend belüftet wurde (2 Lüfter mit nur 750rpm um eine absolute highend Karte mit Frischluft zu versorgen - ist einfach unzureichend) und PCGH mit 28°C Lufttemperatur das Extremum für den Hochsommer aufzeigt, das auch nicht in allen Ländern und Wohnungen erreicht wird (Stichwort: Erdgeschoss, Haus mit Keller zum Zocken, sinnvolles und häufiges Lüften, AC).

Für den Leser/Kunden ist das zwar im ersten Moment schlecht, falls er sich der Situation gar nicht bewusst ist, aber mit etwas Lesekompetenz (Finden und Lesen mehrerer Testberichte, u.A. auch der oben genannten) ist er sich schnell dieser Problematik bewusst und kann für sich entscheiden, welche Testergebnisse für ihn mehr Relevanz haben.

Ob man von einen Enthusiasten, der 1000€ für eine GPU ausgibt, "erwarten" kann dass er sich über die Technik und Funktionsweise bewusst ist, ist wieder eine andere Diskussion. Meiner Meinung nach kann man davon ausgehen, da die wenigsten Leute eine solche Investition tätigen werden, ohne genau zu wissen was sie wollen, aber auch das ist wieder Auslegungssache und hier driften wir dann schnell in die Haarspalterei ab.

Man kann also sagen... ja, es wird schwieriger objektiv und praxisrelevant zu testen und die Kunden müssen sich besser und genauer informieren als zuvor, dafür hat der Boost 2.0 aber auch Vorteile und erlaubt dem Nutzer eine bisher nie dagewesene Individualisierung seiner Karte.
 
Zuletzt bearbeitet:
Eine Info an die jenen, die sich eine Gtx titan zulegen wollen oder vor haben.

Kenne eine Shop wo man die Karte für 922€ bekommt. Link folgen.

http://shop.city-pc.de/advanced_search_result.php?quick=Gtx+titan&search_in_description=1
 
Und der Boost wird auch keinesfalls unterschritten wenn man das möchte jeder kann das im Diagramm sehen das generell immer über 900MHZ möglich sind bei richtigen Einstellungen

Es geht aber nicht darum was jemand möchte..weiß man ja als Tester auch erstmal gar nicht.

Wer garantiert eigentlich bei nem schlechten ASIC Wert für den Turbo?

HAst du schonmal ein Review gelesen wo der Turbo der HD 7970 ghz nicht durchweg gehalten hat?
 
gibt es eigentlich schon einen Test/Benchmark/Review zu einem 4-way SLI der Titan??? Mich würde die Skalierung besonders interessieren...ob dass dann zu einer Titan wenigstens 250% mehr Leistung bringt oder viel weniger (220%) oder mehr (260% +++)

Oder einen 4K Test?

Und was mich noch interessieren würde... vllt schon einen Hinweis zu einem Vollausbau dieses Chips?? Wobei da nicht mehr soviel Leistung rauskommen dürfte oder? (vllt 10%)
 
Also ich hab jetzt die 86 seiten durch und komme zu dem entschluss...ü900 ocken ist keine karte wert...schon garnicht eine single gpu.denke wir sind uns alle einig dass das eine Super karte ist und zwar un mehreren punten.1.Rohleistung2.verbrauch3.lautstärke.und bezüglich der kühlung sollten wir uns mal die ares2 ansehen.denke das wird die zukunft der kühlung im absoluten highend segment werden.(natürlich immer kompakter)wie bitteschön soll man denn mit luft rechner kühlen,die mehrere karten vom schlage der titan oder 7990 oder 690 drin haben.das geht bei luft wenn überhaupt nur über die lautstärke.
Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Richtig. Maximal 699 Euro. Das wäre die Grenze. Schade das viele diesen Preis, den Nvidia uns da vordichtet, unterstützen.
Somit Entwickelt sich Nvidia zu einem zweiten Apple und als Kunde, hat man das Nachsehen.
Ist ja nicht so, dass der Preis gerechtfertigt ist.
Leistung zu Euro sind einfach zu schlecht.
Aber solange schön gekauft wird heißt es, dass Sie ja alles Richtig gemacht haben.
Ich gehe jede Wette ein, Gtx 780 wird 799 kosten.
Nicht weil sie es wert ist. Weil man es verlangen kann.
 
Richtig. Maximal 699 Euro. Das wäre die Grenze. Schade das viele diesen Preis, den Nvidia uns da vordichtet, unterstützen.
Somit Entwickelt sich Nvidia zu einem zweiten Apple und als Kunde, hat man das Nachsehen.
Ist ja nicht so, dass der Preis gerechtfertigt ist.
Leistung zu Euro sind einfach zu schlecht.
Aber solange schön gekauft wird heißt es, dass Sie ja alles Richtig gemacht haben.
Ich gehe jede Wette ein, Gtx 780 wird 799 kosten.
Nicht weil sie es wert ist. Weil man es verlangen kann.

ich verstehe dich voll und ganz aber ein bugatti veyron ist mit sicherheit auch nicht sein geld wert! ABER es gibt leute den diese exclusivität und auch qualität das wert ist!
Der Titan das muss man zugeben ist die zur Zeit Beste Grafikkarte die am Markt ist !
 
Ähm nein? Die 690 ist schneller als die Titan und damit die schnellste Karte von nVidia.
Wie du darauf kommst, dass die veraltet sein soll, ist mir nicht ganz klar, sie wird in aktueller Strukturgröße (ich glaube es sind 28nm) gebaut und damit aktuell.
 
Zuletzt bearbeitet:
pauschal überall schneller kann man aber auch nicht sagen ;)
man ist auf funktionierendes SLI angewiesen. Und das funkt nunmal nicht überall vollumfänglich... Dazu kommt der Speicherausbau von 2GB im SLI Betrieb, den man ohne viel Aufwand schlicht überfüllen kann -> mit dem Resultat der grottigen Performance, wo Titan munter weiter läuft.

Veraltet würde ich es zwar auch nicht nennen, schließlich ist es eins der Produkte der aktuellen Palette.
 
@ fdsonne

Doch kann ma die 690 ist schneller zeig mir ein Game wo das nicht so ist. Der Titan ist der Witz schlechthinn knapp 1000 Teuro, dann braucht man noch ne Kühlung die anständig Kohle kostet, sonst throttelt das ding einer hochgtakteten 680 oder 7970 nhinterher. Die viel weniger als die hälfte kostet. Das Ding schön zu reden sollte man lieber dem NV Marketing überlassen-
 
Zuletzt bearbeitet:
@ fdsonne

Der Titan ist der Witz schlechthinn knapp 1000 Teuro, dann braucht man noch ne Kühlung die anständig Kohle kostet, sonst throttelt das ding einer hochgtakteten 680 oder 7970 nhinterher.

Der Witz schlechthin ist eher immer die Aussage von jemanden der was von throtteln gehört hat u meint aus seinem "reichhaltigen praktischen" Umgang mit Titan so auf Dummfang gehen zu wollen

Zu deinem eigenen Leidwesen funktioniert das nicht ;)

http://www.hardwareluxx.de/communit...rste-seite-lesen-944618-149.html#post20362697
 
Zuletzt bearbeitet:
Doch kann ma die 690 ist schneller zeig mir ein Game wo das nicht so ist. Der Titan ist der Witz schlechthinn knapp 1000 Teuro, dann braucht man noch ne Kühlung die anständig Kohle kostet, sonst throttelt das ding einer hochgtakteten 680 oder 7970 nhinterher. Die viel weniger als die hälfte kostet. Das Ding schön zu reden sollte man lieber dem NV Marketing überlassen-

Ich fühle mich mit meiner Titan, die @1150 - 1202MHz fast so schnell wie eine 690 läuft, einfach supi, was ich von den beiden HD7970 nicht behaupten konnte, postwendend damals zurückgeschickt, den heizenden stromschluckenden und daher uneffektiv arbeitenden AMD-Schrott! Und sich ihre AMD-Karten schön saufen, das machen AMD User wohl mindestens genau so gut, gelle!
 
Zuletzt bearbeitet:
na bei dem preis deiner karte ist dir doch der stromverbrauch egal oder?
ist die karte nicht durch den boost 2.0 so wahnsinnig stromsparend?
 
Zuletzt bearbeitet:
Die Stromverbrauchs-Diskussion bei High-End-Karten ist sowieso das lächerlichste, das es gibt. Als ob sich jemand, der sich so ne Karte kauft um die paar Euro schert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh