XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

Nun, wenn er in ner wärmeren Gegend lebt (Fortaleza,...), dann gibts mit Lukü und OC definitiv Probleme. Hier in den Gefilden von São Paulo hält es sich in Grenzen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Lässt sich die Karte bereits mit Adobe Premiere / Photoshop usw. per Hack nutzen?
 
Endlich eine Karte wo es nicht mehr ruckelt?!
Naja, schade das die Grafikkarten Hersteller immernoch hinterher hinken.
Vor drei jahre hab ich schon geschaut, mehr wie HD zu bekommen, immerhin gib es 3er Surround. und nun muss ich lesen das ich mit ner 950 Euro karte, gleich 3 davon brauche, dass es flüssig auf höchststufe läuft... OMG....!
Läuft der 3er SLI überhaupt dann mit vier Bildschirmen?
hmm, die EGA sign edition im SLI ist hoffentlich ausreichend für Crysis 3 auf 3840x2160..

Aber die Temp. probleme sind lösbar, ruckeln find ich da schlimmer. Die monitor Kabel sind so gut, der PC im Keller wäre dann auch nicht mehr hörbar, egal wie der lüfter rauscht :)
und wer sich die Karten kauft, hat auch so issolierte zimmer das es max 28° hat. (oder Lüftet ihr im Sommer durch öffnen der Fenster in der Mittagssonne?)
Oder man wohnt entspannt auf nem Mittelgebirge wo es 5° kühler ist. :P

Grüße
Martin
 
Zuletzt bearbeitet:
Selbst die von fdsonne angesetzte Dachboden bzw. Dachgeschoss Konstellation ist schon ein relativer Einzel/Sonderfall, aber du fängst gleich mit 35°C Raumtemperatur an :banana:

Ich wohne im Erdgeschoss. Leider Sonnenseite, sprich volle Mittagssonne, mit dem Zimmer, wo die Technik steht.
35°C sind dabei keine Seltenheit, vor allem bei Außentemperaturen von 30°C+

Und es ist ja nicht so, das die Technik keine Wärme erzeugt. Setz dich mal ein ein GF100/GF110 SLI. Am besten noch OCed. Spiel ne Stunde mit Volllast auf den GPUs und du bekommst einen Eindruck, wie sich ein Raum trotz bester GPU Kühlung und bester Gehäusebelüftung erwärmen kann. Daran gibts eigentlich nix zu rütteln...
Das mittlerweile für HighEnd Hardware im privat Bereich dediziert Kältetechnik von nöten ist, wäre mir zumindest neu. Mit Titan kommt man diesem Umstand zumindest schon näher. Denn die Performance bricht um ~10% ein, wenn es der Karte zu warm wird.


Aber NV ist nicht ganz doof. Das Marketing funktioniert scheinbar 1A... Denn die ganze Welt spricht nicht von Einbruch der Leistung, nein. Die Welt dreht den Spaß um 180° und legt das Argument pro NV aus. Nämlich für volle Leistungsentfaltung bzw. vollen Entfaltung des Potentials muss man die Kühlung haben. Oder so eine Karte kauft man sowieso nur mit Wakü usw.
Denk mal zwei drei Jahre zurück. Früher hätte die Karte nen maximaltakt erhalten, der heute der Basistakt ist. Den sie unter jeder erdenklichen Bedinung auch hält. Selbst bei 40°C Raumtemperatur...
Früher wäre das Geschrei sowas von riesig gewesen, wenn die Karte so massiv Leistung verliert, weil die Otto Normalverbraucher Kühlung nicht passt... Und man hätte sich äußerst negativ darüber geäußerst, das der Hersteller einem Werte suggiert, die in der Praxis unter vielen Umständen überhaupt nicht erreichbar sind.

Das witzige daran ist. Ihr merkt das nichtmal und stellt euch noch schützend vor die Machenschaften dieses einen Herstellers... :wall:
 
Zuletzt bearbeitet:
Wo wird da was suggeriert? Den Boosttakt garantiert dir keiner, das war immer nur ein von Nvidia angegebener Mittelwert, den sie beobachtet haben. Erst recht nicht die höheren Taktraten in manchen Reviews. Ich weiß zwar nicht genau, wie die Kommunikation zwischen Nvidia und den Testern abgelaufen ist, aber es klingt mir nicht danach, dass diese gezwungen wurden, unter besonderen Bedingungen zu testen. Es wurde ihnen vielleicht empfohlen, aber wenn ein Reviewer so blöd ist und das tut, liegt die Schuld bei ihm und nicht bei Nvidia. Denn er ist letztendlich dafür verantwortlich für einen Test und die Bedingungen dort.
 
Weder finde den Boost 2.0, den du als "Machenschaften von Nvidia" betitelst, per se schlecht, noch stelle ich mich in irgendeiner Weise schützend vor sie.

Der Markt verändert sich nun mal eben, da kannst du noch so dagegen wettern wie du willst. Boost 2.0 ist ein neues Feature, das neben Vorteilen eben auch Nachteile hat. Aufgabe der Tester und der Kunden ist es, sich diesen Gegebenheiten anzupassen und diese in ihre Kaufentscheidung mitein zu beziehen. Ich denke Don weist in diesem Test durchaus auf die Funktionsweise und auch auf die, sich dadurch ggf. ergebenden, springenden Taktraten Leistungswerte hin.

Ich als Leser begrüße einen Test, der die Karte in (zumindest für MICH im subjektiven Sinne) realistischen Umgebungen mit 20-22°C Raumtemperatur testet, und nicht nur/vor allem in einem Worst Case Szenario. Denn in einem solchen sehen auch die Werte bei Boost 1.0 Karten anders aus, wenn auch bei weitem nicht so drastisch.

Ob und welche Raumtemperatur in der Praxis bei den Usern daheim erreicht wird, kann ein Tester ohnehin nicht ahnen und dieses Spektrum auch nicht komplett abdecken; denn das unterscheidet sich logischerweise von Käufer zu Käufer teils massiv. Ich erreiche 35°C Raumtemperatur z.B auch im Sommer nicht mal im Ansatz - und das im ersten Stock mit Sonnenseite (Nachmittagssonne). Dafür lüfte ich aber auch so, dass Morgens und Nachts sehr viel kältere Luft eindringen kann und schütze die Fenster mit Rollos vor zu viel aufheizenden Sonnenstrahlen (gerade auch wenn niemand daheim ist). Aber das ist auch wieder subjektiv und das kann ja jeder selbst beurteilen, je nach eigenen Gegebenheiten.

Die Preispolitik finde ich, genau wie andere hier im Thread, etwas verfehlt. Für 750 - 800€ hätte ich mir eine Titan bestellt. Die Bestellung halte ich daher aus zwei Gründen (noch) zurück: Erstens, weil ich als Student möglichst jegliche unnötige Ausgabe vermeiden möchte und nicht wirklich viel Geld zur Verfügung habe (trotz Nebenjob) - und dafür schäme ich mich auch nicht. Der zweite Grund ist, dass ich die Preispolitik (+ üblichem Early Adopter Aufschlag) nicht unbedingt unterstützen möchte.

Soviel zum Thema schützend vor Nvidia stellen :-)
 
Zuletzt bearbeitet:
Neja viele unbedarfte User stützen sich zurecht auf Tests... Um so mehr verwundert es, das auch Leute, die offenbar in der Lage sind, objektiv zu betrachten, dann Tests mit viel Boost in den Vordergrund schieben. Mit eben oben benannten Begründungen von wegen, so ne Karte kauft man nur mit Wakü. Oder die Testsysteme sind nicht ausreichend belüftet usw. Solche Reviews suggieren also entsprechend hohe Leistung. Klar NV kann da primär nix für. ich könnte mir aber vorstellen, dass NV zum Teil darauf auch abgezielt hat. Schließlich ist der Aufwand ungleich höher, Gamer-Realitätsnahe Temperaturbedinungen wärend eines Reviews zu schaffen. Ähnlich wie es PCGH oder CB getätigt haben mit 28°C angewärmter Luft oder eben "vorgeheizten" Karten.

Hätten alle Reviewer mit realistischen Bedinungen gemessen, wäre der Vorsprung weit weniger, als er heute rumgetratscht wird. Nämlich irgendwas zwischen ~30-35% im Schnitt bei FullHD - 1440/1600p und default 4xMSAA/16xAF über verschiedenste mehr oder weniger aktuelle Games.
So hast du vermehrt aber Ergebnise von 40-50%+, was angesichts des Preises gleich ganz anders klingt...

Ich hatte hier in irgend nem Thread von gelesen, das die Tester angehalten wurden, in kalten Bedindungen zu testen... Ob das natürlich stimmt, keine Ahnung :fresse: Vor allem hatte ich mich erst gewundert, wieso manche Tests deutlich bessere Werte als andere lieferten. Bis ich dann die Auführungen seitens CB und PCGH studiert habe.
Zutrauen würde ich NV das schon. Zumal es seinerzeit mit G200 GPUs schonmal "Vorschriften" an die Redaktionen gab... Speziell was Spieleauswahl/Bedingungen anbelangte.

@ralle_h
da spricht ja auch nix gegen... In Sachen Temperatur gilt es seitens der Redaktion einen Mittelwert zu finden, den die meisten Leser auch anspricht. Und beispielsweise die bei PCGH zusätzlich ermittelten Werte mit 22°C Frischluft im offenen Aufbau sind schlicht nicht Mittelwert.
Egal wie hoch die Raumtemperatur durch Bedinungen von außen ist, bei 200-300W Verlustleistung in Form von Wärme deutert es je nach Raumgröße mal mehr mal weniger lange, bis da die Temperatur steigt. Davor kann man sich schlicht nicht schützen. Außer mit offenem Aufbau in riesigen Räumen oder Kältetechnik.
Beispielsweise erreichte ich auf 12m² Fläche bei normaler Raumhöhe binnen einer Stunde eine grob 5°C höhere Raumtemperatur, egal ob Sommer oder Winter, wenn der Raum geschlossen ist, sprich Tür/Fenster zu. Und ich setzte dabei ~700-800W Hitzeleistung um mit nem GF100 SLI. Da war eben nach ner Stunde zocken aus 22 eben 27°C geworden. Gehäuseinnenraumtemperatur stieg dazu noch stärker. Wobei da auf die Lokation der Messung ankommt.

Und ja, ich finde GPU Boost 2 eine Machenschaft. Denn der Hersteller schreibt mir vor, wie ich das Produkt einzusetzen habe. Passe ich nicht in den erdachten Rahmen, wird mir Leistung gedrosselt. Obwohl dies nicht nötig ist. Für was hat das Teil ein Temptarget? Das macht per se keinen Sinn. Denn das Produkt ist nicht nur bis 80°C spezifiziert. Nein. Man macht das wissentlich als Hersteller um in meinen Augen geschöne Verbrauchs/Temperaturwerte sowie Werte von Lautstärkemessungen zu erreichen, die sich in vielen Reviews/Tests finden lassen.
Schau doch das jeweilige Fazit der Tests. Vielfach wird der Verbrauch, die Lautstärke sowie die Kühlleistung angesprochen und positiv bewertet. Objektiv gesehen ist das Teil schlicht mit angezogener Handbremse gemessen. Somit sind die besagten Werte also auch nicht primär positiv, sondern unter dem Deckmantel der gedrosselten Leistung ermittelt. Aber hat man sowas wirklich nötig? Speziell bei dem Preis?
Ich für meinen Teil heiße nicht jedes "Feature", was mir vorgesetzt wird, für gut ;)

PS: dem schützend vor den Hersteller war absichtlich ein "ihr" vorrangestellt um nicht primär dich anzusprechen, sondern eine nicht namentlich benannte "Masse" von Leuten hier im Thread/Forum.
 
Zuletzt bearbeitet:
Also mal ehrlich Leute :d

ich verstehe ja dass es wohl etwas getrickst ist mit den unnatürlichen Luft/Temperaturbedingungen in den Tests, aber wie einer der Vorrredner schon gesagt hat..Wer 950€ oder eben auch 700€ für die Grafikkarte ausgeben kann/will wird doch wohl noch geld für eine kleine Wakü (nur für die graka haben)

Habe selber eine 690 unter Wasser und hätte bestimmt auch keine 930€+140€ wasserkühler bezahlt wenn ich mir einen rechner für 1500€ hinstelle :d

Spaß kostet halt nunmal...egal bei was und ich finde dass hier einige das Prinzip im Leben nicht verstanden haben ....jeder hat andere Prioritäten und gibt für das was ihm am wichtigsten ist mehr oder weniger Geld aus (natürlich abhängig vom einkommen) und ich kann mir auch keinen BMW M5 vor die Tür stellen wenn ich dann rummotze wegen 20Liter Benzin auf 100km :d:d

die Leute die hier richtig hart rummmotzen werden sich sowieso niemals eine Grafikkarte über 500 € kaufen ...geschweige denn einen kompletten PC für 1500-2000€ ...(meine Ansicht)

Klar finde ich die 950€ auch etwas übertrieben aber ihr müsst halt auch mal bedenken was das ganze in der entwicklung kostet!!!!! die machen bei solchen Presitgeobjekten eher Verlust ..klar die Herstellung ist wesentlich billiger..( bei TITAN vllt 300€, geschätzt also bitte nicht direkt mit dreck beschmeissen :d) aber die Entwicklung kostet Millionen..und wenn ich dann sehe was NVidia dort für eine Ingeneurkunst betreibt, kann ich gut nachvollziehen dass die Karte zum Release 950€ kostet...

Und dass man dieses Biest unter Wasser oder auch KOmpressorkühlung betreibt..ist doch wohl hoffentlich klar ;-) Und dann halte ich 1300mhz für realistisch ;-) bei 40-50°C chiptemp, dann ist sie auch genauso schnell wie eine 690 und es ist NUR EINE SINGLECHIP KARTE!!!!!!!!
Aber selbst unter Luft (anständiges Case vorrausgesetzt, kein billiges 50€ CASE) ist hier einiges an OC drin ;-)

Ich habe 2xMora 3 Pro und damit sollte dieses Biest auch in 3-way oder 4-way SLI locker zu kühlen sein :d:d Wenns nicht reicht kommt noch ein Dritter an die Wand :d:d platz ist genug da :p
und eine günstige Wakü für 200€ kann sich ja wohl jeder leisten, der 700€ und mehr für ne Grafikkarte ausgibt :d

Also entweder man liebt sie und braucht die Leistung oder man hasst sie weil man sie sich nicht leisten kann/will..

Mit freundlichen Grüßen

Robin
 
Zuletzt bearbeitet:
Und ja, ich finde GPU Boost 2 eine Machenschaft. Denn der Hersteller schreibt mir vor, wie ich das Produkt einzusetzen habe.
:hmm:
Welche Vorschriften werden seites Nvidia denn gemacht?

AFAIK gibt es hier nichts, nur dass eben bei guter Kühlung der Boost stärker ausgeschöpft wird.

AFAIK darfst Du eine Titan jedoch auch als SLI in einem gedämmten Midi-Tower verbauen, oder liege ich da etwa falsch?

Da gibt es doch keine Vorschriften!
 
:hmm:
Welche Vorschriften werden seites Nvidia denn gemacht?

AFAIK gibt es hier nichts, nur dass eben bei guter Kühlung der Boost stärker ausgeschöpft wird.

AFAIK darfst Du eine Titan jedoch auch als SLI in einem gedämmten Midi-Tower verbauen, oder liege ich da etwa falsch?

Da gibt es doch keine Vorschriften!



Da gebe ich dir vollkommen recht ;-) allerdings dürfte wohl eine schon im MIDI-TOWER total fehl am platz sein :d:d
Es ist keine Vorschrift, eher eine Empfehlung des Herstellers...So wie beim Auto, sollst ja auch die ersten 1000Km das ding nicht in den roten bereich drehen ..kannst es aber ;-)
 
Zuletzt bearbeitet:
Da gebe ich dir vollkommen recht ;-) allerdings dürfte wohl eine schon im MIDI-TOWER total fehl am platz sein :d:d
Es ist keine Vorschrift, eher eine Empfehlung des Herstellers...So wie beim Auto, sollst ja auch die ersten 1000Km das ding nicht in den roten bereich drehen ..kannst es aber ;-)

Hatte ein Quad-690 im Midi-Tower was ohne Probleme lief. Die Karten wurden sogar um 150 Mhz übertaktet.
 
Schließlich ist der Aufwand ungleich höher, Gamer-Realitätsnahe Temperaturbedinungen wärend eines Reviews zu schaffen. Ähnlich wie es PCGH oder CB getätigt haben mit 28°C angewärmter Luft oder eben "vorgeheizten" Karten.
Das eigentlich sinnvollere wäre es doch, so wie es die PCGH auch gemacht hat, einmal bei 22°C zu messen und dann eben noch mal bei 28°C. Dann kriegt man ein Gefühl dafür, wie sich die Leistung mit der Temperatur entwickelt und jeder kann sich überlegen, was er unter seinen speziellen Bedingungen erwarten kann.
Allgemeine Aussagen sind schlicht nicht mehr möglich, da eben jeder unterschiedlich heizt, lüftet oder wohnt. Für mich sind schon 25° eine Sommer-Ausnahme, die eben vor allem dann auftritt, wenn die 25° Außentemperatur an etwa 30 Tagen im Jahr erreicht oder überschritten wird, sonst verringere ich die Temperatur, so gut es eben geht, indem ich einfach ein Fenster öffne.
 
Zuletzt bearbeitet:
@ runningdodl

Hier von Seite 28 ...

* Vorrausgesetzt die Raumtemperatur entspricht der Spezifikation der geeichten Leistungsmessung,also ca. 15-20 Grad sowie der Annahme einer für den Preis akzeptablen und von NVIDIA spezifizierten Gehäuseentlüftung um eine Gewährleistung dieser Angaben zu Garantieren. Dazu ist der Käufer dieser Karte angehalten sich in wärmeren Regionen (Siehe Tabelle**) oder sich im jahreszeitlichen Wechsel den gegeben Umständen anzupassen und eine optional erhältliche Wasserkühlung zu verbauen, die den Spezifikationen entsprechend ausgelegt ist.
Bei Nichtbeachten dieser von NVIDIA kalkulierten Voraussetzung ist keinerlei Ansprüche der Erwerber auf die Leistungskrone dieser Karte zu erheben und sich gegebenenfalls beim Fachhändler vor Ort schlau zu machen.

Sehe das eher als ausdrückliche Empfehlung an und nicht als Vorschrift.


Hatte ein Quad-690 im Midi-Tower was ohne Probleme lief. Die Karten wurden sogar um 150 Mhz übertaktet.

Ja das geht ;-) die 690 ist aber auch echt super gelungen, jedoch kann sie nicht wesentlich höher als 1200 mhz ziehen aufgrund der nicht erhöhbaren Spannung ...egal ob Luft oder Wasser
und wenn du es könntest und diese vllt auf 1300 oder 1400 mhz ziehst ist ein Midi-tower glaub ich (je nach Kühlung) dann doch nicht mehr ganz ausreichend ....
 
Zuletzt bearbeitet:
Sehe das eher als ausdrückliche Empfehlung an und nicht als Vorschrift.
Das ist weder das eine, noch das andere, auch kein offizielle Verlautbarung seitens Nvidia, sondern nur ein ironisch zugespitztes Fake-Zitat eines Forenusers hier.

Sollte man eigentlich zumindest anhand des letzten Satzes
In folgenden Regionen ist keine zusätzliche Kühlung notwendig.
Nordpol, Südpol, Alaska und Weißrussland
auch selbst drauf kommen können! ;)
 
Gut hätte ich mal vorher prüfen sollen :d:d naja verlässt man sich auf andere ist man verlassen .....

verdammt :d:d einfach zu schnell gelesen :p
 
Ja das geht ;-) die 690 ist aber auch echt super gelungen, jedoch kann sie nicht wesentlich höher als 1200 mhz ziehen aufgrund der nicht erhöhbaren Spannung ...egal ob Luft oder Wasser
und wenn du es könntest und diese vllt auf 1300 oder 1400 mhz ziehst ist ein Midi-tower glaub ich (je nach Kühlung) dann doch nicht mehr ganz ausreichend ....

Ich werde es bald am eigenen Leib spüren wenn ich die Titan Karten habe.
 
hehe ;-) hast du einen Monitor mit der Möglichkeit auf 4K downzusamplen??? Wenn ja was für ne CPU hast du drin??

musst du mal austesten :d:d und mal bescheid sagen ob die 2 ind die knie gehen oder aufgrund des riesigen speichers von 6GB das noch packen ;-)
Holst du dir 2 oder gleich mehr :p ??

will mir eig auch dieses jahr noch 2 holen evtl. noch mehr oder halt dann anfang nächsten jahres ...da ich leider kein riesenbudget für hardware habe dieses jahr ...Case Modding mit Wasserkühlungserweiterung kostet mich schon 1500€ :-( ^^
 
Zuletzt bearbeitet:
For example: in Anno 2070: 75 FPS on the first run, 63 FPS with a warm card. That's a pretty massive difference
Rcapitulatif des performances - Nvidia GeForce GTX Titan en test : big Kepler dbarque enfin ! - HardWare.fr

Bei dieser Temperaturabhängigkeit sollte man solche Karten nur mit der Garantierten Leitung in Rankings aufnehmen. Die Vergleichbarkeit geht doch total flöten.

Es ist Paradox, dass man eine solch teure Karte mit so einem hochwertigen Kühler kauft um sie dann auf Wakü umzubauen um überhaupt die gesamte Leistung abrufen zu können und zu allem Überdruss noch die Garantie verliert.

Zudem durch fehlendes Dx11.1 der Konsolen jetzt schon Schnee von gestern ist. Aber das wird man erst in 1-2 Jahren sehen. ;)
 
Zuletzt bearbeitet:
hehe ;-) hast du einen Monitor mit der Möglichkeit auf 4K downzusamplen??? Wenn ja was für ne CPU hast du drin??

musst du mal austesten :d:d und mal bescheid sagen ob die 2 ind die knie gehen oder aufgrund des riesigen speichers von 6GB das noch packen ;-)
Holst du dir 2 oder gleich mehr :p ??

will mir eig auch dieses jahr noch 2 holen evtl. noch mehr oder halt dann anfang nächsten jahres ...da ich leider kein riesenbudget für hardware habe dieses jahr ...Case Modding mit Wasserkühlungserweiterung kostet mich schon 1500€ :-( ^^

Richtig, genau so mache ich das. 3D Vision zieht auch ordentlich Leistung und es gibt noch weitere Spielereien (SSAA, Ambient Occlusion, ...)

Zwei oder drei, aber ich warte erst einmal bis sie überall verfügbar sind. Jetzt haben sind die Preise ja wieder etwas angezogen.

---------- Post added at 16:21 ---------- Previous post was at 16:20 ----------

Zudem durch fehlendes Dx11.1 der Konsolen jetzt schon Schnee von gestern ist. Aber das wird man erst in 1-2 Jahren sehen. ;)

Interessiert mich überhaupt nicht. Wenn das wichtig wird, habe ich schon längst neue Karten.
 
Rcapitulatif des performances - Nvidia GeForce GTX Titan en test : big Kepler dbarque enfin ! - HardWare.fr

Bei dieser Temperaturabhängigkeit sollte man solche Karten nur mit der Garantierten Leitung in Rankings aufnehmen. Die Vergleichbarkeit geht doch total flöten.

Dann sollte man AMD Karten ebenfalls auf das selbe Lautstärke- und Stromniveau bringen. Kann ja nicht sein, dass der eine Hersteller für sein Nichtstun belohnt wird (Turbinelautstärke und Stromverbrauchsmonster), der andere aber kritisiert wird.
 
Auch bei dir sollte nach 1 Jahr angekommen sein, dass man das Referenzdesign so gut wie nirgends kaufen kann. Auch ist eine OC-Version der Hersteller genauso schnell wie die GHz-Version und in der Regel sparsamer.

Selbst wenn, wen interessiersts? Bei 2 Std Volllastbetrieb und 45 Watt Differenz brauchst du 68Jahre bevor sich der Titan rechnet. Und das für läpische 20% bei 580€ Aufpreis. Das ist (leider) kein Sarkasmus.

http://www.stromverbrauchinfo.de/stromkostenrechner.php
 
Zuletzt bearbeitet:
Dann sollte man AMD Karten ebenfalls auf das selbe Lautstärke- und Stromniveau bringen. Kann ja nicht sein, dass der eine Hersteller für sein Nichtstun belohnt wird (Turbinelautstärke und Stromverbrauchsmonster), der andere aber kritisiert wird.

Du bist und bleibst ein kleiner Troll ohne jegliches Wissen. :fresse: :bigok:
Und ja, Gecko hat völlig recht mit seinem von Dir zitierten Post. Hier geht es um die Art und Weise, wie der Titan gemessen wurde, und nicht um irgendeine AMD-Karte. Gerallt, Troll?
 
:hmm:
Welche Vorschriften werden seites Nvidia denn gemacht?

AFAIK gibt es hier nichts, nur dass eben bei guter Kühlung der Boost stärker ausgeschöpft wird.

AFAIK darfst Du eine Titan jedoch auch als SLI in einem gedämmten Midi-Tower verbauen, oder liege ich da etwa falsch?

Da gibt es doch keine Vorschriften!

Ich seh es von der anderen Seite... Das steht aber oben schon.
Nämlich das höhere Werte angedacht sind. Man diese Werte zugunsten geschönter Verbrauchs/Lautstärke/Temperaturwerte aber nicht ausfährt per default.
Test: Nvidia GeForce GTX Titan (Seite 19) - ComputerBase
Beispielsweise misst CB in einigen Titeln nichtmal den minimal Boost.

Und ja, das ist für mich eine Vorschrift, denn ich bin A) als potentieller Käufer auf externe Kühlmethoden angewiesen. Oder ich muss B) selbst Hand anlegen und die Handbremse lösen. Was ich aber eigentlich nicht nötig habe. Denn das Teil läuft auch ohne dedizierte Kühlmethoden mit mehr Boost als per default drin ist. Nämlich wenn ich dieses unnütze Temptarget anhebe auf 96°C. Dann habe ich meinen Spielraum nach oben und die Karte boostet deutlich höher. Witzigerweise erlischt wenn nichtmal die Garantie bzw. Gewährleisung.
Welchen sinnvollen Grund hat so eine Begrenztung wenn es keine Vorschrift ist?

Auch sehe ich es eben kritisch an, das man eine Karte mit einem super Kühler ausliefert. Aber zugunsten von Lautstärke und Co. die default Einstellungen eben wegdrosselt.
Wenn man darauf spekuliert, hätte man das Teil gleich mit Wakü ausliefern können. Dann wäre das Problem nicht vorhanden. Für den Preis des Teils sehe ich aber ehrlich nicht ein, noch viel mehr Aufwand zu betreiben.
Das hat auch nix mit leisten können zu tun. Als arbeitender Mensch für mein Geld kann ich dies durchaus. Nur für eben ~30-40% mehr Performance unter Luft ist ein halb so gutes P/L Verhältnis wie es ne GK104 GPU bietet, eben unter aller Sau. + Geldaufwand für ne externe Kühlmethode ala Wakü. Wo schnell nochmal 300 oder 400€ zusammen kommen können.

Dann sollte man AMD Karten ebenfalls auf das selbe Lautstärke- und Stromniveau bringen. Kann ja nicht sein, dass der eine Hersteller für sein Nichtstun belohnt wird (Turbinelautstärke und Stromverbrauchsmonster), der andere aber kritisiert wird.

Deine Vorderungen werden immer lächerlicher... :rolleyes:
Vor allem, das Wort Verbrauchsmonster im selben Satz zu bringen, wo ne Kritik über AMD steht, wärend Titan noch deutlich mehr Strom zieht als Tahiti, wenn man die Handbremse löst.

Aber vllt sollte man ab sofort gar keine Karten mehr vergleichen. Denn schließlich hat NV über ein Jahr gebraucht um die Tahiti Performance überhaupt erstmal zu schlagen :fresse: Und erkauft sich die sogar noch mit nem Mörderpreis...
 
Zuletzt bearbeitet:
Auch bei dir sollte nach 1 Jahr angekommen sein, dass man das Referenzdesign so gut wie nirgends kaufen kann. Auch ist eine OC-Version der Hersteller genauso schnell wie die GHz-Version und in der Regel sparsamer.

Selbst wenn, wen interessiersts? Bei 2 Std Volllastbetrieb und 45 Watt Differenz brauchst du 68Jahre bevor sich der Titan rechnet. Und das für läpische 20% bei 580€ Aufpreis. Das ist (leider) kein Sarkasmus.

Stromkostenrechner | kWh oder Watt-Anzahl von Geräten in Kosten umrechnen

Cheaten ist cheaten. Ich weiß, AMD Befürworter sind da viel lascher, solange ihre Firma cheatet, aber trotzdem.
Achja, Custom-Design bedeutet zum Großteil kein CF. Und wenn es danach ginge, kann man auch gleich Wasserkühlungsversionen der TITAN testen. Man muss eben nur genug Ausreden finden. :lol:

Und Stromverbrauch ist Stromverbrauch. Die Mehrkosten interessieren hier keinen, da ich bei TITAN selbst bestimmen kann, was ich haben möchte. Da hier aber immer auf Default rumgeritten wird, muss man daher anmerken: AMD verbraucht mehr Strom -> Cheat!
 
Cheaten ist cheaten. Ich weiß, AMD Befürworter sind da viel lascher, solange ihre Firma cheatet, aber trotzdem.
Achja, Custom-Design bedeutet zum Großteil kein CF. Und wenn es danach ginge, kann man auch gleich Wasserkühlungsversionen der TITAN testen. Man muss eben nur genug Ausreden finden. :lol:

Und Stromverbrauch ist Stromverbrauch. Die Mehrkosten interessieren hier keinen, da ich bei TITAN selbst bestimmen kann, was ich haben möchte. Da hier aber immer auf Default rumgeritten wird, muss man daher anmerken: AMD verbraucht mehr Strom -> Cheat!

Oh Gott, selten solch einen Gehirn-Dünnpfiff gelesen... :stupid: :wall:
 
Zuletzt bearbeitet:
Auch bei dir sollte nach 1 Jahr angekommen sein, dass man das Referenzdesign so gut wie nirgends kaufen kann. Auch ist eine OC-Version der Hersteller genauso schnell wie die GHz-Version und in der Regel sparsamer.[/url]

Dafür aber auch teurer.
 
Aber vllt sollte man ab sofort gar keine Karten mehr vergleichen.

Ach... Das kann man schon machen, allerdings sollte man es selber machen und sich nicht auf dummdämliche Testberichte berichte beziehen die sich meist so zu Hause nicht ergeben !

Ich hab meine eigene Vergleiche gemacht und die zeigen meist ein anderes Bild, als die ich im Netz so mir anschaue - Ich benutze das was bei mir den besten Eindruck hinterlassen hat und nicht das was andere meinen ;)

Denn schließlich hat NV über ein Jahr gebraucht um die Tahiti Performance überhaupt erstmal zu schlagen :fresse: Und erkauft sich die sogar noch mit nem Mörderpreis...
Die Grafikkarten von nV mit den Mörderpreisen sind zufälligerweise Marktführer im dedizierten Bereich : Graphics add-in board shipments crash from last quarter, reports Jon Peddie Research - Comments - Press Releases
Das trotz massiven Preissenkungen ( was in einer deutlich niedrigeren Einnahmen resultiert zu nV ) und noch Spiele-Bundles sich die Karten schlecht verkaufen, dass nenne ich einen gewaltig fetten Konsumenten-Arschtritt und zeigt eigentlich auch, dass trotz positiven Benchmark-Ergebnissen der selbsternannten Flachpresse auf zig Hardware-Seiten, dass es eigentlich keine Auswirkungen hat wie man ein Produkt bewertet . Der Konsument da draußen entscheidet über Erfolg/Misserfolg eines Produktes was sich in Verkaufszahlen niederschlägt und man kann mit Fug und Recht behaupten, dass quasi die komplette HD7xxx Reihe geflopt ist ! Das wird sicherlich auch in zukünftige Entwicklungen mit einfließen, weniger Umsätze/Gewinne die gebraucht werden für neue Generationen. Man wird sehen wohin sich das ganze entwickeln wird, ein Strohhalm dürfte die Konsolen sein, ob die an die Erfolge der Vorgänger-Generation anknüpfen kann muss sich erst noch zeigen. Ich persönlich sehe die Konsolen auf einen absteigenden Ast, wenns anders kommen sollte, würde es mich doch arg Wundern ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh