XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

Ich denke eher, dass 4Lüfter @800-1000 rpm ein Scherz sind - damit möchte ich mich nicht rumschlagen müssen.

Wieso ist das ein Scherz?

Ich habe verbaut:

- 2x 120mm be quiet! Silent Wings verbaut, die sind unter <900rpm unhörbar, beim Gamen (Headset) drehen sie dann bis zu 1200rpm hoch
- 2x 140mm be quiet! Silent Wings verbaut, die sind unter <600rpm unhörbar, beim Gamen (Headset) drehen sie dann bis zu 900rpm hoch

Im Idle wirklich unhörbar (man hört nur die HDD minimal aus dem System heraus) und beim Gamen immer noch akustisch sehr angenehm.

Mit nem Voltcraft SL-200 gemessen: 35,9 dB(A) bei nem Ruhepegep von 35,9 db(A).

Wieso sollte man also auf eine leise und effektive Kühlung verzichten?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich persönlich denke, dass der ganze Boost-Schwachsinn nur die Kunden verwirren soll.


Einige reden sich was zusammen das gibt's bei Intel genauso nennt sich ebenso Turbo,da störts euch Haarspalter anscheinend nicht

Nvidia hat mit GK104 diese Technik auf die GPUs adaptiert u nun in einer zweiten Version verfeinert

Selbst AMD äfft die ganze Turbotaktung nach ihr wisst doch gar nicht mehr was ihr noch schwätzen sollt
 
Zuletzt bearbeitet:
Einige reden sich was zusammen das gibt's bei Intel genauso nennt sich ebenso Turbo,da störts euch Haarspalter anscheinend nicht

Nvidia hat mit GK104 diese Technik auf die GPUs adaptiert u nun in einer zweiten Version verfeinert

Selbst AMD äfft die ganze Turbotaktung nach ihr wisst doch gar nicht mehr was ihr noch schwätzen sollt

Mit dem Unterschied, dass der Turbo bei CPU's ewig lange gehalten werden kann, da es einfacher ist ne hochgetaktete CPU zu kuehlen als ne GPU.
Die Hauseigenen GPU Kuehlloesungen sind halt nich fuer Turbo und so kram gedacht bzw. ausgelegt.

Bei Wasser siehts natuerlich anders aus, aber dann brauch der Hersteller nun wirklich nicht damit werben, wenn nicht jeder User das volle
Potential der Hardware ausschoepfen kann.

Mich stoert das auch dass hier wahllos verschleiert wird. Wenn ein Takt von 1000MHz ++ beworben wird, dann erwarte ich auch
dass diese Leistung immer anliegen kann. Und nicht dass sich die Hardware nach 5 Minuten auf ne 500€ guenstigere Karte heruntertaktet, da sie
sonst um die Ohren fliegen wuerde...

Laut Tests ist die Titan somit ne kuehle und leise Karte. Ja wieviel Leistung bringt sie denn dauerhaft wenn sie Kuehl und Leise ist?

Grueße...
 
Mich stoert das auch dass hier wahllos verschleiert wird. Wenn ein Takt von 1000MHz ++ beworben wird, dann erwarte ich auch
dass diese Leistung immer anliegen kann. Und nicht dass sich die Hardware nach 5 Minuten auf ne 500€ guenstigere Karte heruntertaktet, da sie
sonst um die Ohren fliegen wuerde...

Wo werden denn 1006MHz+ beworben? Beworben wird nur der Basistakt, der Mindestens erreicht wird (also Immer). Alles, was dann Taktmäßig draufkommt, selbst der Durchshcnittsboost von 876MHz!, ist ein Plus! und kein Minus.
 
TITAN ist leise und kühl, wenn die Karte runterregelt. Siehe dazu auch die Messungen von Computerbase.de.

Der Max Clock ist auch immer zu 100% zu halten, wenn man sich um die Temperatur kümmert. Wie, das ist ja jedem selbst überlassen.
 
Mich stoert das auch dass hier wahllos verschleiert wird. Wenn ein Takt von 1000MHz ++ beworben wird, dann erwarte ich auch
dass diese Leistung immer anliegen kann.


Grueße...

Wo wird denn bitteschön ein Takt von 1000MHZ+ beworben in den Spezifikationen?

Nirgendwo richtig?

Also dann kommen wir wieder auf Anfang zurück booten neu u suchen weitere Angriffsflächen

Zudem ein weiterer wichtiger Aspekt dieser Regeltechnik ist das sich die Karte selbst vor dem Hitzetod schützt sind Kühler verdreckt oder der Lüfter fällt aus wartet das Ding eben nicht bis zur Kernschmelze u man muss wenns hard auf hard kommt nur den Lüfter tauschen bzw die Kühlrippen reinigen
 
Zuletzt bearbeitet:
Es geht einfach um die Werte von Verbrauch, Temperatur, Lautstärke im Bezug zur Leistung. Die Leistung kann nicht über die ganze Dauer gehalten werden und sie ist in Wirklichkeit niedriger. Das Bild wird somit verfälscht. Drehe ich zb. am Temptarget ist auch die Lautstärke und Temperatur höher.

Und mit dem CPU-Turbo ist das überhauptnicht zu vergleichen weil dort die Leistung immer erreicht wird und nicht nur in Benchmarks (2-3min) wo die Hardware beim Laden abkühlt.

Die Werte Temperatur, Leistung, Verbrauch, Lautstärke standen immer im Bezug zu einander. Dem Titan ist das egal. Er zeigt in kurzen Momentaufnahmen nur die Schockoladenseite und beim Kunden zu Hause unter längerer Last sein wahres Ich.

Wie kann man nur so verblendet sein.:wall:
 
Zuletzt bearbeitet:
Da hilft auch kein Hit the Wall die Argumente sind immer noch fadenscheinig warum habt ihr nicht schon gemeckert als das ganze aufkam?

Ja ich weiß ist schon n Weilchen her u ist für das hier dann doch nicht mehr zweckdienlich genug


Bin mal gespannt ob das Klientel der Verblender auch schreit wenn AMD das selbe in einer AMD Turbo Second Edition per Copy Paste adaptiert;)
 
Zuletzt bearbeitet:
Ich bin bei dem Thema hin- und hergerissen. Boost 2.0 ist ein tolles Feature und bringt dem Wakü-Nutzer wohl nen echten Mehrwert.

Allerdings sehe ich es zum Teil so wie fdsonne. Durch das gängige Testprozedere steht die Grafikkarte in Reviews ein paar Prozentpunkte besser da, als sie unter Spielebetrieb wohl ist. Ich schätze mal, dass NVIDIA zumindest nicht unglücklich ist mit dem bei vielen Testern gängigen Testablauf. Zudem werden auf der NVIDA-Seite 876 MHz Boost spezifiziert (ohne den Hinweis, dass dieser Takt auch unterschritten werden kann) - und die 876 MHz hält die Karte halt doch nicht in allen Lebenslagen.

Und bitte jetzt nicht mit Wasserkühlung anfangen. Ich weiß selbst, dass viele die Karte umbauen werden (würde ich auch ohne mit der Wimper zu zucken tun). Allerdings macht das halt nicht jeder. Die ersten drei Titans hier im Forum sind schließlich in Luftkühlungs-PCs gewandert. Luft und Wasser wird sich bei Titan vielleicht die Waage halten. Deshalb Wasser als Standard zu definieren halte ich für fraglich.
 
Zuletzt bearbeitet:
und die 876 MHz hält die Karte halt doch nicht in allen Lebenslagen.

Die 876MHz ist der Durschnittsboost der in allen games und Settings erreicht wird. In einem Game mal weniger, in nem anderen mal mehr, Durschnitt eben. Fakt ist, dass die Karte nicht mit weniger als 837MHz Taktet.
 
Die 876MHz ist der Durschnittsboost der in allen games und Settings erreicht wird. In einem Game mal weniger, in nem anderen mal mehr, Durschnitt eben. Fakt ist, dass die Karte nicht mit weniger als 837MHz Taktet.

Das ist ja alles richtig (was anderes habe ich auch nicht behauptet). ;)

Dennoch wird das seitens NVIDIA nirgends erwähnt. Da steht "Boost-Taktung 876 MHz". Kein sterbenswörtchen über Durchschnitt oder ähnliches. Insofern wird das, was auf der Herstellerseite als Spezifikation steht, nicht in allen Lebenslagen eingehalten.
 
Zuletzt bearbeitet:
Da hilft auch kein Hit the Wall die Argumente sind immer noch fadenscheinig warum habt ihr nicht schon gemeckert als das ganze aufkam?

Ja ich weiß ist schon n Weilchen her u ist für das hier dann doch nicht mehr zweckdienlich genug


Bin mal gespannt ob das Klientel der Verblender auch schreit wenn AMD das selbe in einer AMD Turbo Second Edition per Copy Paste adaptiert;)

Wieso man nicht frueher 'gemeckert' hat?
Na weil's da noch keine Zahlen, Daten & Fakten aus raelistischen Testbedingungen gab. Hellsehen kann soweit ich weiß keiner von uns.

& Bei AMD wird hoffentlich genauso genoergelt.

Waere doch gleichzusetzen wie wenn der Daimler nun ab Werk NOS-Aufgelandene Motoren verkauft.
Kann kurzzeitig +300 PS machen, doch wenns laenger geht, explodiert die Maschine.

Fuer kurze Sprints (Benchmarks in dem Fall) macht das natuerlich n super Bild, doch in der Praxis _FAIL_ weil
wenn ich daddel, dann geh das laenger als 3 Minuten.

Aber klar, ist ja alles nachvollziehbar und transparent was die Hersteller da tun, deshalb muessen wir sie dabei unterstuetzen ;)
 
Na und der Turbo bei Intel ist auch nur sporadisch u liegt nicht durchgehend an was soll das bitteschön?

837MHz ist Grundtakt wie bei Intel Turbo ist 876 average wie bei Intel alles darüber ist OC

Was ist also bitteschön anderst
 
Zuletzt bearbeitet:
Na und der Turbo bei Intel ist auch nur sporadisch u liegt nicht durchgehend an was soll das bitteschön?

Wann hast Du unter normalen Bedingungen z.B beim Zocken ne 100%ige CPU Load, so dass der Turbo permanent oben sein muss?
Okay, selbst bei < 100% Load steht der Turbo dennoch auf Anschlag.

Ich versteh gar nicht wieso du dich so an der CPU festbeißt. Die Dinger haben mittlerweile weniger als 1/2 der TDP einer GPU.
Und die CPU Kuehler sehen m.E. nach trotzdem leistungsstaerker aus ;)

Merkste was ?

[edit]

Vergessen zu erwaehnen:
Beim Zocken steht die GPU Load aber meistens auf 100%...

[/edit]


[edit2]
Scully.. Du kannst einfach keine CPU mit ner GPU vergleichen. PUNKT.

CPU's heizen mittlerweile kaum mehr. Selbst wenn ich ne CPU Stark uebertakte +800Mhz oder gar noch staerker ist
sie TROTZDEM noch mit humanen mitteln DAUERHAFT und leise kuehlbar.

Bei ner GPU machen sich aber schon +100MHz deutlich in der Temperatur bemerkbar, weil da n paar Einheiten mehr
drinne stecken, die fuer Hitze sorgen.

Und dadurch verschleiert die Turbo-Geschichte bei GPUs einafch extrem die Tatsaechliche Leistung / Lautstaerke einer Grafikkarte
[/edit2]
 
Zuletzt bearbeitet:
Na und der Turbo bei Intel ist auch nur sporadisch u liegt nicht durchgehend an was soll das bitteschön?

Dafür schreibt Intel hin, dass es eine "Max. Turbo-Taktfrequenz" ist: Produktseite Core i7-3770K

Aufgrund dieser Angabe erwartet man imho auf keinen Fall permanent 3,9 GHz beim 3770K. Aufgrund der Kennzeichnung bei NVIDIA würde ich 876 MHz Coretakt als gegeben ansehen - was aber bekanntlich in einigen wenigen Szenarien nicht hinkommt.

Hätte NVIDIA korrekterweise "durchschnittliche" oder "voraussichtliche Boost-Taktung 876 MHz" hingeschrieben, würde es die Diskussion nicht geben. Aber sie haben nunmal einen Wert vermerkt, der ein permanentes erreichen impliziert.

Ich kann mit diesem Fakt umgehen und meine Schlüsse daraus ziehen. Es gibt aber genug Leute da draußen, die zwar das nötige Kleingeld für das Beste vom Besten, von der dahinter stehenden Technik aber keinen Schimmer haben. Diese Leute fragen nicht, ob das irgendein Durchschnittswert ist oder nicht. Die nehmen das, was spezifiziert ist, als bare Münze. Und NVIDIA erweckt eben den Anschein, als wären das 876 MHz.
 
Ich versteh gar nicht wieso du dich so an der CPU festbeißt.

Weil ihr Haarspalter ein Feature bemängelt das anderstwo schon Gang u Gäbe ist u keinen hats jemals gestört nichtmal bei CPU Benchmaks. Muss man euch euren Fehltritt anhand dessen halt begreiflich machen

---------- Post added at 14:57 ---------- Previous post was at 14:55 ----------

. Aufgrund der Kennzeichnung bei NVIDIA würde ich 876 MHz Coretakt als gegeben ansehen - was aber bekanntlich in einigen wenigen Szenarien nicht hinkommt.

Aus dem Mund eines Harwareinteressierten der nicht Boost von Grundtakt unterscheiden kann:shot: LOL

Welche Kennzeichnung in den Spezifikationen verstehst du denn nicht(halt ich formuliere es anderst gibts du fadenscheinig vor nicht zu verstehen)
 
Zuletzt bearbeitet:
Weil ihr Haarspalter ein Feature bemängelt das anderstwo schon Gang u Gäbe ist u keinen hats jemals gestört nichtmal bei CPU Benchmakrs muss man euch euren Fehltritt anhand dessen halt begreiflich machen

Erstens bin ich kein Haarspalter und zweitens habe ich sowas nie behauptet. Ich versuche hier sachlich ueber die GPU-Boost Geschichte zu argumentieren, mehr nicht.
Und fuer mich sprechen da viele Argumente dagegen, das ist fuer mich reiner Marketing-Muell und Augenwischerei!

Wieso ich so denke?
- Eine Karte mit ~300W TDP kann mit nem Luftkuehler nicht Leise,Kuehl UND Leistungsstark gleichzeitig sein.
(Sofern nich grad 2KG Kupfer auf der GPU hausen...)
Und genau das 'biegt' diese Boost geschichte heimlich zurecht, damit sie in den Tests gut dasteht!
 
Zuletzt bearbeitet:
Falsch, der Boost biegt es überhaupt nicht zurecht. Er ist vollkommen transparent, weil nVidia den Zugriff auf alle Informationen per freier API zur Verfügung stellt.

Nur deswegen wird hier rumheult, weil nVidia nichts zu verheimlichen hat.
 
- Eine Karte mit ~300W TDP kann mit nem Luftkuehler nicht Leise,Kuehl UND Leistungsstark gleichzeitig sein.

Ach Schätzelein selbst eine 690er kann leise sein mit so einem Kühler u deren TDP liegt noch höher wie die des Titan u verfügt nicht über Boost 2.0

Können wir die Theateraufführung jetzt beenden ja?
 
Frage mich eher, wer hier grad Zirkus spielt aber okay.
 
Aus dem Mund eines Harwareinteressierten der nicht Boost von Grundtakt unterscheiden kann:shot: LOL

Welche Kennzeichnung in den Spezifikationen verstehst du denn nicht(halt ich formuliere es anderst gibts du fadenscheinig vor nicht zu verstehen)

Gehts noch?

Lies mein Post bitte bis zum Ende. Dann picke dir nicht nur einen Satz raus sondern sehe die Aussage im gesamten Kontext. Und dann überdenke deinen Post bitte nochmal.

Was ich verstehe, was ich nicht verstehe, was ich verstehen will oder nicht - das lass mal meine Sorge sein. Mit dem Boost habe ich persönlich aus technischen Gesichtspunkten keine Probleme (ob du das nun glaubst, glauben willst oder nicht). ;) Das ändert nichts daran, dass einem - wie ich übrigens bereits schrieb - nicht technisch versierten Nutzer eine Zahl genannt wird, die nicht immer eingehalten wird.
 
Und genau das 'biegt' diese Boost geschichte heimlich zurecht, damit sie in den Tests gut dasteht!

Hat man gut gesehen an den vielen Launchtests zur TITAN die Ihre Testmethoden nicht dahingehend angepasst haben und nur scheuklappenartig Ihre bisherigen Methoden runtergebetet haben. Ein paar Ausnahmen gab es zum Glück ja ...
 
Es würde auch niemand mekern wenn das Temptarget entsprechnd gut gewählt wäre.
Es würde auch niemand mekern wenn der Titan in Benchmarks mit der garantieren Performance drins stehen würde.

So dient es nur der Wettbewerbsverzerung. Bei CPUs ist das noch mal was ganz anders. Der Turbo wird nicht von der Temperatur beinflusst, oder nicht in diesem Maße. Dort ist auch nur ein Kern häufig ausgelastet und daher taktet dieser dan höher. völlig ok. Es ist aber immer reproduzierbar und wird beim Kunden auch so sein.

Bei Nvidia gibts aber ab jetzt nur noch Releases in den Wintermonaten. Das ist doch auch was oder?
 
Also die virale Marketingstrategie von AMD ist ziemlich genial:
Man lässt Mitarbeiter in Internetforen immer und immer und immer und immer wieder die selben falschen Aussagen wiederholen und hoffen, dass Diskussionspartner eben nicht mehr weiter machen. So steht der AMD Mitarbeiter als Sieger dar, da seinen Aussagen nicht mehr widersprochen werden.

Es ist daher hilfreich für Leser zu wissen, dass solche Leute eben nicht die Wahrheit sagen, sondern gezielt Propaganda betreiben.
 
Also die virale Marketingstrategie von NVIDIA ist ziemlich genial:
Man lässt Mitarbeiter in Internetforen immer und immer und immer und immer wieder die selben falschen Aussagen wiederholen und hoffen, dass Diskussionspartner eben nicht mehr weiter machen. So steht der NVIDIA Mitarbeiter als Sieger dar, da seinen Aussagen nicht mehr widersprochen werden.

Es ist daher hilfreich für Leser zu wissen, dass solche Leute eben nicht die Wahrheit sagen, sondern gezielt Propaganda betreiben.
 
.... Sagte er und betete seinen heiligen Gral weiter an.. Sorry, aber dein pro Nvidia macht es auch nicht besser. Zumal man deine Posts immer etwas bei Nvidia loben und im gleichen Atemzug bei AMD selbiges vernichtet wird @sontin

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Ja, ich hasse nVidia Mitarbeiter auch.

Generell ist virales Marketing ätzend. Sieht man sehr schön in diesen Thread, wo selbst nach Berichtigung der Falschaussagen inkl. eines 90 minutigen Videos der Funktionweise von Boost 2.0 immer wieder das selbe behauptet wird.

Es wäre daher wirklich hilfreich, wenn solche Leute einfach sich aus diesen Threads fernhalten und die Marketingblogs der Firmen verwenden. Denn es interessiert niemanden, dass AMD Mitarbeiter denken, dass AMD Kunden gerne mit 66db spielen.
 
Schade nur, dass fast jede Diskussion zw. Intel/AMD & AMD/NVidia irgendwann im Gebashe endet.

Wenn die Argumente fehlen, wirft man halt irgend nen Propaganda-Bullshit in den Raum.
Ich werde weder von Nvidia noch von AMD bezahlt, bleibe trotzdem bei meiner Meinung bzgl. Boost 2.0.

Und jetzt kommst du.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh