XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

Und mit dem CPU-Turbo ist das überhauptnicht zu vergleichen weil dort die Leistung immer erreicht wird und nicht nur in Benchmarks (2-3min) wo die Hardware beim Laden abkühlt.

Stimmt doch gar nicht, schau dir mal den Intel Boost bei mobilen CPUs an. Außerdem ist der Fakt, dass der Turbo Takt immer und mit allen Kernen gehalten wird, oft einer falschen UEFI Implementierung der Mainboard Hersteller geschuldet. Quasi übertakten die User somit unfreiwillig ihre CPUs, ohne es zu wollen (und meist auch zu wissen).

Ein Mainboard Hersteller hat damit begonnen und andere haben nachgezogen, um in Benchmarks nicht schlechter dazustehen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
66db? Meine 7970 hat 0db und hat inkl Wakü unter 400€ gekostet. Oktober letztes Jahr wohlgemerkt.

Und das es die AMD Karten im Referenzdesign kaum zu kaufen gibt ist in deinem Kleinhirn auch noch nicht angekommen oder?
7970 in PCIe Preisvergleich | Geizhals Deutschland

Und Titan schon im Rechner sontin? Ist doch die Überkarte des Jahres? "neutrale" User-Reviews werden doch immer gern gesehen.

@ralle_h
Bei Mobilprozessoren weiß ich es nicht, dass kann sein.
 
Zuletzt bearbeitet:
Stimmt doch gar nicht, schau dir mal den Intel Boost bei mobilen CPUs an. Außerdem ist der Fakt, dass der Turbo Takt immer und mit allen Kernen gehalten wird, oft eine falsche UEFI Implementierung der Mainboard Hersteller. Quasi übertakten die User somit unfreiwillig ihre CPUs, ohne es zu wollen (und meist auch zu wissen).

Ein Mainboard Hersteller hat damit begonnen und andere haben nachgezogen, um in Benchmarks nicht schlechter dazustehen.

Die Diskussion driftet immer weiter ab, ralle... Ich sitze grad an so nem Notebook mit nem i7 - Serientakt 2,2GHz. Das Ding boosted auf bis zu 3,3 GHz hoch. Das sind satte 50%!
Und viele der Notebooks boosten so extrem weit hoch.

Da muesste der TITAN schon auf >1300MHz boosten, damit die Diskussion hier Hand und Fuß hat ;)
 
Fakt ist doch, die Boost Funktion ist eine nette Sache und eine gute Entwicklung. Es ist nur eben dann nicht mehr richtig vergleichbar, wenn es überall anders taktet. Dann lieber 2 Stufen und gut. Normal und boost. Wer gut lüftet hat dauerhaft boost und wer nicht eben nur standard. Denn würde jeder, so wie gesagt wird, eine übertolle Belüftung haben, könnte Nvidia den boost doch gleich als standardtakt nehmen. Was mich stört sind die unfairen Argumentationen, überheblichkeiten und sturheiten...

Ich meine Argumente wie "verschieb den powertarget und das ding geht ab und zaubert." das ist sinnlos, ansonsten kann ich argumentieren: "schieb die Taktraten und die Spannung hoch und die zaubert." sobald man den powertarget verschiebt, verschleiert man die vergleichbarkeit noch mehr....

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Die Diskussion um den Boost ist vollkommener Unfug!!!
Der Boost als solches ist genial. Er wird erst dann zu etwas worüber man sich aufregen kann, wenn es den ehrenwerten Testern nicht gelingt die Besonderheiten dieser Technik bei ihren Tests zu berücksichtigen!

Wer nimmt den nicht gerne Leistung mit die er nicht bezahlen muss? Wenn es hier User gibt die Wasserkühlung verwenden, dann investieren sie Geld und werden dank der intelligenten Technik mit mehr Leistung belohnt
vollkommen ohne weiteres Übertakten, klasse!
Was aber eben nicht schön ist und das muss man schon erwähnen, den typische Aufbau gibt es nicht, aber ich behaupte mal das immer noch sehr viele mit einem 120er oder 140er in der Front und ebenso einem im Heck unterwegs sind.
Und das ist schon viel mehr wie die Atx Spezifikationen hergeben. Unter eben diesen muss die Karte das leisten was man laut Hersteller anschlägt nicht mehr aber auch nicht weniger.
Wenn dann durch die Besonderheiten der Boosttechnik Schwankungen auftreten, dann sollte man dies in den Messungen sehr wohl berücksichtigen und nicht weil es einigen nicht gefällt unter den Tisch fallen lassen, da kann man noch so oft
schreiben wer macht sowas. Ich sage z.B Komplett PC-Bauer machen sowas und nicht wenige Händler die für gut betuchte Kunden PC zusammenstellen habe ich in meinem Bekanntenkreis öfter!

Was bleibt, eine geniale Technik die Diskussionen auslöst, weil einige Tester eben nicht verstehen, dass man das Bestcase Szenario besser nicht abbilden sollte sondern eher das was man unter "normalen" Bedingungen erreicht, aber Moment, dann würde man ja einen Shitstorm der Anhänger dieser Firma ernten ;-)

Fakt ist, Titan ist eine geniale Grafikkarte, NV kocht aber auch nur mit Wasser und unterliegt ebenso den Gesetzten der Physik. Das Ergebnis ist, das viele undifferenzierte Tests ein falsches Bild zeigen, dass nur die Enthusiasten erleben werden, der "normale" Poweruser der einfach zu seinem
Händler geht und sagt ich will einen Pc wo ich einfach alles nach rechts schieben kann und trotzdem das Ganze flüssig läuft, wird für abgebildete Leistung bezahlen die er i.d.R. nur die ersten Minuten des Spielens erfahren kann.
Auf der anderen Seite sind die Enthusiasten und Schrauber die schon höhere Werte erreichen werden durch die optimale Bedingungen wie wir sie in den vielen Test gesehen haben auch ohne Wasser.

Es sollten einige in diesem Forum mal drüber nachdenken warum Sie immer missionarisch unterwegs sein müssen ob nun Pro AMD oder Pro NVidia ??? Es ist doch toll wenn man aufgrund der Bedingungen die man zum Teil mit viel Aufwand und Geld schafft ein rattenschnelles System hat und ja ich lese das ohne Neid im Gegenteil es freut mich für den der damit Spaß hat.
Und auf der anderen Seite die AMD Fraktion.... stellt jemand der nicht komplett verblendet ist etwa Intel K CPU´s in frage? Die können fast alle 4,5 GHZ und trotzdem kommt niemand auf die Idee zu sagen ******! Und der Preis ...ja das Ding ist teuer aber es bleibt doch jedem selbst üdberlassen was man mit seinem sauer verdienten Geld macht oder!? Ich kenne kaum einen der nicht gerne ein Porsche fahren würde aber bezahlen wollen und können ihn nur wenige, so ist das nun mal in der schönen Welt des Kapitalismus und ja verdammt ausfahren kann man ihn meist auch nicht zu viel Verkehr, natürlich bin ich mit einem BMW 530 D nicht viel langsamer am Ziel und ja er ist günstiger in der Anschaffung wie im Unterhalt aber macht es auch so viel Spaß?:asthanos:

So habe fertig:)
 
Zuletzt bearbeitet:
Die Diskussion driftet immer weiter ab, ralle... Ich sitze grad an so nem Notebook mit nem i7 - Serientakt 2,2GHz. Das Ding boosted auf bis zu 3,3 GHz hoch. Das sind satte 50%!

Jep, aber der Intel Boost ist bei mobilen CPUs Temperatur UND TDP abhängig (siehe Intel Whitepapers).

Der Boost ist ne gute Sache, den weder du noch ich, oder andere Notebook User, missen wollen würden.

GPU 2.0 ist genau das selbe, nur eben bei einer GPU :)

Darauf wollte ich hinaus, auf nichts anderes. Wie hoch konkret der Boost nun ist, tut ja nichts zur Sache - ist ja klar, dass man CPUs und GPUs da nicht vergleichen kann.
 
Zuletzt bearbeitet:
Einige reden sich was zusammen das gibt's bei Intel genauso nennt sich ebenso Turbo,da störts euch Haarspalter anscheinend nicht

Nvidia hat mit GK104 diese Technik auf die GPUs adaptiert u nun in einer zweiten Version verfeinert

Selbst AMD äfft die ganze Turbotaktung nach ihr wisst doch gar nicht mehr was ihr noch schwätzen sollt

wo bitte habe ich geschrieben, dass ich den Schwachsinn bei CPUs gut finde?
Sorry aber nur weil ich anderer Meinung bin, kannst du dir ja nicht irgendwelche Argumente zurechtbiegen.
Also wo bitte weiß ich nicht was ich schwätzen soll?


Wieso ist das ein Scherz?

Ich habe verbaut:

- 2x 120mm be quiet! Silent Wings verbaut, die sind unter <900rpm unhörbar, beim Gamen (Headset) drehen sie dann bis zu 1200rpm hoch
- 2x 140mm be quiet! Silent Wings verbaut, die sind unter <600rpm unhörbar, beim Gamen (Headset) drehen sie dann bis zu 900rpm hoch

Im Idle wirklich unhörbar (man hört nur die HDD minimal aus dem System heraus) und beim Gamen immer noch akustisch sehr angenehm.

Mit nem Voltcraft SL-200 gemessen: 35,9 dB(A) bei nem Ruhepegep von 35,9 db(A).

Wieso sollte man also auf eine leise und effektive Kühlung verzichten?

aha und was soll uns der Wert sagen?
Ohne Abstandsangabe, Winkel ect. hat das nicht wirklich Sinn, da können wir ja gleich mit dem Smartphone messen ;)
mir wären Lüfter @900rpm zu laut - verwende selbst Noiseblocker PK2 @0 rpm im Idle und max 500rpm (Wakü + AMS sei dank)
ist halt Subjetkiv...
eine Testumgebung sollte man nicht zu stark optimieren, sonst läuft man Gefahr Ergebnisse zu produzieren, welche die "breite" Masse nicht mehr nachstellen kann.



@ Topic
Ich finde den Vergleich zur GTX480 schon recht erstaunlich... doppelte Leistung bei doppeltem Preis
Ich fürchte ich hatte einfach zu hohe Erwartungen an den Titan.
Er ist gut geworden ja, aber in Anbetracht des Preises erwarte ich eigentlich mehr.

Wem Microruckler bei CF stören soll sich mal 3-Way anschaun ;)
 
Das liegt doch alles an den Testern, nicht an Nvidia.

Hätte man eben einmal mit 3*140 mm @ 500 rpm getestet und einmal mit 1500 rpm und schon gäbe es einen ganz guten Vergleich. Habe hier bewusst nur die Umdrehungen variiert, nicht die Lüfterzahl, damit besser etwaige Unterschiede deutlich werden. Je mehr Faktoren man ändert, desto mehr wird die Vergleichbarkeit gemindert ...
 
Zuletzt bearbeitet:
aha und was soll uns der Wert sagen?
Ohne Abstandsangabe, Winkel ect. hat das nicht wirklich Sinn, da können wir ja gleich mit dem Smartphone messen ;)
mir wären Lüfter @900rpm zu laut - verwende selbst Noiseblocker PK2 @0 rpm im Idle und max 500rpm (Wakü + AMS sei dank)
ist halt Subjetkiv...
eine Testumgebung sollte man nicht zu stark optimieren, sonst läuft man Gefahr Ergebnisse zu produzieren, welche die "breite" Masse nicht mehr nachstellen kann.

Sorry, hatte ich vergessen zu erwähnen. Die meist üblichen 30cm vom Gehäuse entfernt.

Ja, die Noiseblocker PK2 hatte ich auch schon mehrfach hier, die sind mit 900rpm nicht mehr unhörbar.

Das liegt doch alles an den Testern, nicht an Nvidia.

Hätte man eben einmal mit 3*140 mm @ 500 rpm getestet und einmal mit 1500 rpm und schon gäbe es einen ganz guten Vergleich. Habe hier bewusst nur die Umdrehungen variiert, nicht die Lüfterzahl, damit besser etwaige Unterschiede deutlich werden. Je mehr Faktoren man ändert, desto mehr wird die Vergleichbarkeit gemindert ...

Jep, solche Tests wären z.B. super gewesen.

Leider hatten die Tester aber durch den kurzfristigen Versand der Testsamples und das NDA Chaos nicht wirklich viel Zeit zu testen, wenn man Don's Statement in diesem Test z.B. durchliest. Andere Tests haben Ähnliches verlauten lassen.
 
Zuletzt bearbeitet:
Jep, solche Tests wären z.B. super gewesen.

Leider hatten die Tester aber durch den kurzfristigen Versand der Testsamples und das NDA Chaos nicht wirklich viel Zeit zu testen, wenn man Don's Statement in diesem Test z.B. durchliest. Andere Tests haben Ähnliches verlauten lassen.

Solch kurze Testzeiträume sind leider mittlerweile die Regel. Ich kann mich nicht mehr an den letzten Test erinnern, an dem ich mal Hardware länger als vier Tage vor NDA-Ablauf in den Fingern hatte. Und auch beim Vishera-Launch kam wenige Stunden vor NDA-Ablauf noch ein neuer Treiber ins Spiel, der einige meiner Testergebnisse beinahe obsolet machte (ja, selbst bei CPUs passiert sowas).

Einerseits kann man die Hersteller ja verstehen. Je länger die Hardware zur Verfügung steht, desto größer die Wahrscheinlichkeit von Leaks. Andererseits kommen dann Artikel raus, die viele Aspekte überhaupt nicht begutachten können, weil einfach die Zeit fehlt.
 
Das Problem ist ja gut herausgekommen in den letzten Posts. Ausführliche Tests wäre natürlich toll und sinnvoll. Man könnte anfangen mit der Umgebeungstemp zu spielen; ein offenes und geschlossenens Case nehmen; die Belüftung andersweitig verändern etc. Vielleicht wäre auch nen Test mit standard Settings bei z.B. 35°C Raumtemp und einmal 18°C ganz nett. Dann auch noch einmal Wakü. Dann nochmal unterschiedliche CPUs...

So alles schön und gut aber das gibts nicht im ersten Test bzw. kann es nicht geben, wenn die Karten bei den Testern nur wenige Tage vor dem Release eingehen. Ausführliche Betrachtungen gehen nur im Nachinein. Sowas gabs ja auch schon, z.B. von CB. vielleicht kommt da nochwas oder jemand hier setzt sich mal hin.

Und Thema Setup:

Endweder man versucht die Bedingungen immer gleich zu halten. Sprich System, Temperatur, Reinraum etc. Alle werden schreien wie abstrakt das wäre. Also wieder wie bisher. Dann gibts Uterschiede durch unterschiedliche Bedingungen. Wieder schreien alle insbesondere bei solch neuen Features der Karte.

Meine Meinung: Vergleiche sind sowieso nicht allumfassend möglich. Selbst ne andere CPU oder Board haut dir diesen Gedanken um die Ohren. So what? Mich interessiert nicht ob die Karte nun genau 33,45% in allen Test schneller ist. Unterschiede sollten lieber zum Denken anregen. Das eröffet neue Möglichkeiten vielleicht als User mehr rauszuholen.

Und Leistungsschummelei? Also ich hab mehrere Test zum Titan gelesen. Manchmal gibts richtig viel Mehrleistung, manchmal auch nur wenig. Manchmal unterscheidet sich der Stromverbrauch deutlich. Machmal sind diese Dinge somit toll und manchmal ganz und garnicht. Ich nenne das zufällige Streuung.
 
Zuletzt bearbeitet:
Es spricht überhaupt nichts dagegen. Die einzigen, die sich beschweren, fahren doch eine Agenda. Ich nenne sowas umgangssprachlich "virales Marketing".
Jeder kann mit Boost 2.0 seine Einstellungen wählen. nVidia's default ist eben aus ihrer sicht das beste "Erlebnis" aus Lautstärke, Leistung und Stromverbrauch.

Du musst dir doch nur mal den Post von fdsonne zu Gemüte führen und dann darüber nachdenken und nicht einfach irgendetwas dagegen sagen, was nicht zutrifft.
Ich finde den Boost per se ach nicht schlecht, ich finde es aber nicht gut wenn Nvidia ihn dazu nutzt um bei Reviews besser dazustehen und man argumentiert, Verbrauch ist super Lautstärke ist toll, aber wir wollen doch die Tests sehen , wo die Karte kühl bleibt.. achja und Verbrauch Lautstärke? Ach jeder hat ne Wakü

Man dreht es sich zurecht wie es passt..

Würde AMD einen so temperaturabhängigen Boost in ihre Karten einbauen und in reviews keine vergleichbare Performance garantieren, würdet ihr die ersten sein die sich darüber empören.
Ich bin es einfach leid, dass man bei Grafikherstellern immer mit so einer extremen Doppelmoral diskutiert.

sontin; schrieb:
Aber wahrscheinlich sind Leute wie schaffe nur sauer, dass ihre Firma eben nicht auf solche Kleinigkeiten gekommen sind. Da muss man wohl auch den Wut mal rauslassen.

Sofort wenn Kritik nur zu erahnen ist, senkst du das Niveau auf Verbalattacken, bezüglich Firmenliebe.
Völliger Blödsinn. Ich bin kein Fan von so einem tempeeraturabhängigen Boost.
Wenn ich die Karte selbst habe, ist es meinetwegen auch nicht schlimm, ich kann ja hier tweaken, für eine allgemeine ( objektive) nicht subjektive Aussage, muss man aber an des Thema völlig anders rangehen.
Da scheitert ihr im Augenblick.

Mir ist auch klar, dass ihr euer favorisiertes Produkt verteidigen wollt, aber man muss schon mal auch etwas ehrlich zu sich selbst sein, ob der andere vielleicht doch nicht meilenweit daneben liegt.

---------- Post added at 19:28 ---------- Previous post was at 18:48 ----------

Es geht einfach um die Werte von Verbrauch und Lautstärke im Bezug zur Leistung. Die Leistung kann nicht über die ganze Dauer gehalten werden und sie ist in Wirklichkeit niedriger. Das Bild wird somit verfälscht. Drehe ich zb. am Temptarget ist auch die Lautstärke und Temperatur höher.

Da hilft auch kein Hit the Wall die Argumente sind immer noch fadenscheinig warum habt ihr nicht schon gemeckert als das ganze aufkam?

Wenn du dir selbst so sicher bist, dass die Argumente fadenscheinig sind, dann erkläre mir doch mal anhand obigen Beitrag von G3cko wo dort ein fadenscheiniges Argument vorzufinden ist, aber bitte mal ohne sinnfreie Polemik und am besten sachlich, ohne Abschweifungen.

Wie lang ist es eigentlich her als AMD ihr veränderbares optimiertes Tesselation einsetzen wollte?
Weißt du noch wie groß die Ablehnung war? Du warst an erster Front dabei und hast kritisiert, die Tester sind einfach zu doof und würden AMD optimiert drinn lassen und damit in Benchmarks nicht die wahre Leistung der AMD Karten gezeigt werde.

Plötzlich sind Tester aber dazu in der Lage eine GPU realistisch vorzuheizen um sicherzustellen, dass Werte die veröffentlicht werden, mit den Werten aller anderen Tester übereinstimmen und auch mit dem Produkt selbst korellieren.
Hier haben wir ein ähnlich geartetes Problem.
Kritik kommt von dir keine. Wo bereits mal wieder belegt wäre, dass du einfach eine Doppelmoral fährst, je nach dem um welchen Hersteller es gerade geht.

Na und der Turbo bei Intel ist auch nur sporadisch u liegt nicht durchgehend an was soll das bitteschön?

Bei CPU´s wird das Testsystem auch vorgeheizt und zudem ist das Spektrum was durch den Turbo abgedeckt wird viel kleiner als mit einer kühlen vs. heißen Titan Karte.
Warum gehts denn jetzt bitte um CPU´s?
Wir wollen doch beim Thema bleiben.

scully1234; schrieb:
Bin mal gespannt ob das Klientel der Verblender auch schreit

Wen interessiert das jetzt? Bleib doch mal beim Kernthema.

Falsch, der Boost biegt es überhaupt nicht zurecht. Er ist vollkommen transparent, weil nVidia den Zugriff auf alle Informationen per freier API zur Verfügung stellt.

Es ist nicht transparent, wenn in Benchmarkwerte des kühlen Chips in reviews gezeigt werden, während Spieler das in ihrem Case nur mit einer hohen Lauststärke erreichen können, denn es dauert etwas bis sich ein Chip erwärmt. Eine einminütige Benchmarkszene heizt nicht sehr doll die GPU auf.
Nvidia hat die Tester offiziell dazu angehalten bitte in kühlen Umgebungen zu testen, tut mir leid aber das hat keinen Sinn.
Ich brauche die FPS zum Spielen und nicht zum Benchmarken.

Nur deswegen wird hier rumheult, weil nVidia nichts zu verheimlichen hat.

Deine Unfähigkeit eine konstruktive Diskussion zu führen ist eigentlich mit rumgeheule gleichzusetzen.
Mehrere User sehen in dieser Art und Weise des Boost ein Problem welches sie mit Substanz begründen und du was machst du denn schon?
Du machst dich lächerlich mit irgendwelchen Rethorik Geplärre, anstatt dich der Diskussion zu stellen.

Man kann übrigens auch der Meinung sein der Boost ist positiv, ohne andere User die es anders sehen in die Fanboy Ecke " AMD Mitarbeiter" zu schieben.

Es ist daher hilfreich für Leser zu wissen, dass solche Leute eben nicht die Wahrheit sagen, sondern gezielt Propaganda betreiben.

Dann zeig mir doch mal die Propaganda in einem Quote, welche hier angeblich verbreitet wird.
Warum ist es denn so, dass du dich nicht mit Inhalten wehren kannst? Warum kann scully nicht im Kontext antworten, sondern muss sich auf Textfetzen stürzen?

Es ist immer dieselbe never ending Story.

Wer gut lüftet hat dauerhaft boost und wer nicht eben nur standard. Denn würde jeder, so wie gesagt wird, eine übertolle Belüftung haben, könnte Nvidia den boost doch gleich als standardtakt nehmen. Was mich stört sind die unfairen Argumentationen, überheblichkeiten und sturheiten...

Boost an sich ist, wenn man noch reserven hat eine gute Möglichkeit das Produkt auszunutzen und kann sicherlich je nach Szenario auch durchweg positiv für den Nutzer sein.
Niemand kritisert die Thematik Boost an sich plakativ. Das ist doch nur eine vorgeschobene Schutzbehauptung, wers noch nicht gemerkt hat,m jetzt hab ichs erwähnt.

Es geht darum wie der Boost oder nicht Boost bei hoher Temperatur oder niedriger Temperatur in Ahängigkeit zur Lautstärke und zum Stromverbrauch sich verhält.
Und dort gibts es beim Benchmarken im vergleich zur Dauernutzung 10 mal höhere Diskrepanzen im Vergleich zur GTX 680.

Diese Diskrepanzen müssen von einem objektiven tester ermittelt werden und aus Fairnessgrünen muss immer mit einer vorgeheizten Karte gemessen werden, da dies realen Bedingungen entspricht.

Was der Nutzer selbst mit der Karte anstellt bleibt ihm überlassen und dann kann man sich auch freuen, wenn der Boost höher geht, weil ich selbst bestimme, dass mich der höhere Stromverrauch und die daraus resultierende Lautstärke nicht sonderlich stören.

Das kann ich aber in einem Test nicht vorraussetzen, aber manche finden das scheinbar völlig in Ordnung.
Das ist schlicht der Punkt der mich stört. Und ich kann es ehrlich gesagt nicht einsehen, warum man sich daran aufhängt, also würde sich sonst die Welt verbiegen.

Es ist nunmal einfach so und schluss.

Wenn dann durch die Besonderheiten der Boosttechnik Schwankungen auftreten, dann sollte man dies in den Messungen sehr wohl berücksichtigen und nicht weil es einigen nicht gefällt unter den Tisch fallen lassen, da kann man noch so oft
schreiben wer macht sowas. Ich sage z.B Komplett PC-Bauer machen sowas und nicht wenige Händler die für gut betuchte Kunden PC zusammenstellen habe ich in meinem Bekanntenkreis öfter!

+1
 
Zuletzt bearbeitet:
Gehts noch?

Lies mein Post bitte bis zum Ende. Dann picke dir nicht nur einen Satz raus sondern sehe die Aussage im gesamten Kontext. Und dann überdenke deinen Post bitte nochmal.
.

Ich überdenke den gar nicht du hast gesagt du kannst aus Nvidias Spezifikationen Grundtakt u Boost nicht außeinander halten dafür kann man nur ein großes LOL übrig haben

Und der Post wird auch zum Ende keinesfalls besser oder legt etwas anderst da

Zu deinem wie du es augedrückt hast Noob: Glaubst du den interessiert auch nur in irgend einer Weiße die Techjnik dahinter das die sensationslüsternde Ganovenstory um unterschlagenen Taktfrequenzen aufgeht? zweites LOL.

Zumal das immer noch Blödsinn ist denn die Spezifikationen sind eindeutig!


Und die ganze sinnlose Sandkastendisskusion über ungelegte Eier wie den Boost 2.0 selber ist jetzt hiermit auch beendet und Zitatfuzzie oben drüber bekommt schon mal gar keine Antwort
 
Zuletzt bearbeitet:
Hab ich doch damit quasi gemeint. Boost gut und schön und ist auch supi, aber mal eben "powertarget" erhöhen und das ding rennt hat in Tests nichts zu suchen. Bei Usertests sehr gerne, aber in allgemeinen Tests ist es ein wenig fehl am Platz. Weil es eben bei einigen falsche Erwartungen erweckt...

Abschließend kann ich nur sagen, dass ich es sehr schade finde, dass einige hier (auch "alte Hasen") nicht wirklich sachlich diskutieren können und auch nicht mal über den Tellerrand sehen....

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Und die ganze sinnlose Sandkastendisskusion über ungelegte Eier wie den Boost 2.0 selber ist jetzt hiermit auch beendet und Zitatfuzzie oben drüber bekommt schon mal gar keine Antwort

Weißt du wieso diese 'Sandkastendiskussion' hier endet?
Weil du schlicht und einfach nicht in der Lage bist eine Diskussion zu fuehren. Dazu bedarf es naemlich Argumente, welche du nicht besitzt. Du greifst irgendwelche Stellen eines Posts ab und schmierst
es deinem gegenueber mit nem faden Beigeschmack wieder vor die Nase.

Aber hiermit disqualifizierst du dich ja eh selbst.

15.000 Beitraege geschrieben, die armen Augen die das lesen mussten. Mir reichen deine letzten 10 ^^
 
Mein Spam-Counter ist auch bei 6000+ und ich bin grundsätzlich unsachlich und polemisch, wurde mir gesagt..: :d
 
Wenn AMD auch mit diesem Scheiß kommt, dann Prost Mahlzeit, - die Vergleichbarkeit ist dahin. Dann muss man in der Rubrik Testsystem auch noch die Temperatur aufführen und das Gehäuse auf eine genormte Position im Raum stellen. Top!

Und im Sommer gibts dann Threads ala "mein Battlefield 4 ruckelt urplötzlich" und die passende Antwort: "kauf dir eine Wakü, aber die Garantie ist dann dahin."
 
Mick Foley

Das eine Wort hab ich schonmal gehört:d

---------- Post added at 20:59 ---------- Previous post was at 20:55 ----------

Wenn AMD auch mit diesem Scheiß kommt, dann Prost Mahlzeit,

Sag mal lebst du eigentlich hinterm Mond?


AMD brings turbo boost to Radeon HD7970 | Tech, Tech News | PC Gamer

The really interesting part of the HD7970 GE release is that automated overclocking set-up, which works in a similar manner to NVIDIA’s GPU Boost
 
Zuletzt bearbeitet:
Mein Spam-Counter ist auch bei 6000+ und ich bin grundsätzlich unsachlich und polemisch, wurde mir gesagt..:

Ach komm jeder weiß dass du nicht das Durchaltevermögen hast den Braindump von scully und Konsorten durchzuziehen.:bigok:

Ne, im ernst, es wurde auf den letzten Seiten alles wissenswerte zum Boost 2 diskutiert.

Der Boost kann für den User eine tolle Sache sein ( was ich persönlich nicht so sehe, weil OC vorher unkomplizierter war), für reviews ist der Boost zweifelhaft und man braucht Tester die Sachverstand haben um einen faire werte zu ermitteln.

Wissenschaftlich sicherlich ein Mittel die Leistungsaufnahme auch bei Monsterkarten im Zaum zu halten, was auch positiv zu vermerken ist.

Ist der auch so temperaturabhängig?

Nein ist er nicht. Die HD 7950 Boost ist am zum Beispiel auch ein Produkt welches je nach Asic Wert unterschiedlich hoch taktet.
Ich hoffe AMD übertreibt es nicht mit dem Boost.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
@scully1234

sage mal langsam reicht es mit deinen kommentaren echt, Turbo Amd und NV über den gleichen klee zu ziehen wie Boost 2.0 ist mal ganz daneben, das zeigt erstmal das du technisch garnichts verstanden hast worum es eigentlich geht, lieber mal die klappe halten.....
und dein Spamm kannst du mal einstellen das nerft nur noch.

lg
 
Oha. Ich denk da sollte jemand mal ne Runde nachsitzen.
Diese Rechtschreibung... das nervt auch.

Aber... wo sind denn aus Deiner Sicht die Unterschiede, die das so unvergleichbar machen?
 
Zuletzt bearbeitet:
Aber... wo sind denn aus Deiner Sicht die Unterschiede, die das so unvergleichbar machen?

Naja das eine arbeitet auf einer GPU und das andere arbeitet auf einer GPU! Sowas kann man nicht vergleichen, genauso wenig wie CPUs, Mainboards, RAM, HDDs, SSDs usw.

Das die Nerds hier immer so ein Mysterium aus ihrer Hardware machen... :d
 
Ich überdenke den gar nicht du hast gesagt du kannst aus Nvidias Spezifikationen Grundtakt u Boost nicht außeinander halten dafür kann man nur ein großes LOL übrig haben

Das habe ich zwar eben nicht so geschrieben, sondern im Kontext eine andere Aussage getroffen. Aber wenn du die nicht siehst oder sehen willst, dann bittschön. Mit Höflichkeit kommt man hier ja nicht weiter....



Und der Post wird auch zum Ende keinesfalls besser oder legt etwas anderst da

Doch, er sagt was anderes aus. Aber wie schon gesagt: Wenn du das nicht siehst oder sehen willst - bitteschön.



Zu deinem wie du es augedrückt hast Noob: Glaubst du den interessiert auch nur in irgend einer Weiße die Techjnik dahinter das die sensationslüsternde Ganovenstory um unterschlagenen Taktfrequenzen aufgeht? zweites LOL.

Ich kenne im realen Leben genügend Leute, die sich mindestens ägern, wenn nicht gar lautstark aufregen würden, wenn die Taktrate nicht immer das Niveau erreicht, was NVIDIA auf der Spezifikationsseite angibt. Sei doch froh, wenn du solche Leute nicht kennst - ich schon. Interessanterweise kommt man bei diesen Leuten sogar argumentativ weiter.... :fresse:



Zumal das immer noch Blödsinn ist denn die Spezifikationen sind eindeutig!

Sowohl meine Meinung als auch meine Argumentation dazu habe ich mehrfach kundgetan. Argumentativ hast du sie bisher nicht entkräftet, sodass ich das nicht mehr wiederholen werde. Die, die es verstehen wollen, verstehen es auch. ;)

Ich wünsche dir jetzt viel Spaß beim Zitieren meines Posts. Vielleicht findest du ja wieder einen Satz, den du aus dem Kontext reißen kannst und dann darauf rumreitest. Soll mich nicht weiter stören, denn ich werde mich zu diesem Thema nicht weiter äußern. Denn wie schon gesagt, kommt man argumentativ hier ja nicht weiter.

Ich wünsche dir zudem viel Spaß mit deinen Titans und deinem Beamer-Setup (was ich übrigens super finde :hail:). Allerdings gehe ich mir jetzt andere Leute zum diskutieren suchen. Nämlich solche, mit denen man auch diskutieren kann.
 
Ich kenne im realen Leben genügend Leute, die sich mindestens ägern, wenn nicht gar lautstark aufregen würden, wenn die Taktrate nicht immer das Niveau erreicht, was NVIDIA auf der Spezifikationsseite angibt. Sei doch froh, wenn du solche Leute nicht kennst - ich schon. Interessanterweise kommt man bei diesen Leuten sogar argumentativ weiter.... :fresse:
:hmm:


Die Titan ist mit 837MHz GPU-Takt spezifiziert. Der Boost ist fakultativ und variiert je nach den Bedingungen. Ist not a bug it´s a feature. Ganz einfach zu verstehen, oder?

Da gibt es dann auch nichts zum aufregen... .
 
:hmm:


Die Titan ist mit 837MHz GPU-Takt spezifiziert. Der Boost ist fakultativ und variiert je nach den Bedingungen. Ist not a bug it´s a feature. Ganz einfach zu verstehen, oder?

Da gibt es dann auch nichts zum aufregen... .

Richtig, aber dann muss man auch so konsequent sein und das Ding mit 837Mhz testen. Oder spielst du nur 5min? Und was ist im Sommer?
Computerbase schrieb:
So startet die GeForce GTX Titan immer mit satten 1.006 MHz, um dann kurze Zeit später auf 993 MHz zu fallen. Kurz darauf wird die Taktrate sowie die GPU-Spannung dann schrittweise immer weiter bis zur endgültigen Frequenz verringert.
Und was man wo mit welchen Einstellungen ändern kann ist egal, weil es nichts anders als OC ist. Dann sind auch Lautstärke, Verbrauch, Temperatur nicht mehr vergleichbar.

Als würde Niemand auf die Barikaden gehen wenn AMD einen Boost rausbringt wo die Karte für 2min mit 3V auf 5000MHZ übertakten würde und nach 5min auf 500MHz runtergeht, weil das Temptarget bei 60°C liegt. Dann würde wohl jeder die Karte loben weil sie ja 300% schneller ist und extrem leise und kalt ist oder wie? lächerlich ist das hier.

Ich bin hier raus. Beweihräuchert ihr euch schön weiter. hf
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh