XXL-Test: NVIDIA GeForce GTX Titan im 3-Way-SLI

Und ja, das ist für mich eine Vorschrift, denn ich bin A) als potentieller Käufer auf externe Kühlmethoden angewiesen. Oder ich muss B) selbst Hand anlegen und die Handbremse lösen. Was ich aber eigentlich nicht nötig habe. Denn das Teil läuft auch ohne dedizierte Kühlmethoden mit mehr Boost als per default drin ist. Nämlich wenn ich dieses unnütze Temptarget anhebe auf 96°C. Dann habe ich meinen Spielraum nach oben und die Karte boostet deutlich höher. Witzigerweise erlischt wenn nichtmal die Garantie bzw. Gewährleisung.
Welchen sinnvollen Grund hat so eine Begrenztung wenn es keine Vorschrift ist?
Du sagst es -- Du kannst das Temptarget auch hoch setzen und hast weiterhin Garantie, da werden Dir keine Vorschriften gemacht. ;)

Ich finde Du hast Dich mit dem Gebrauch des Begriffes "Vorschriften" argumentaiv verrannt. Schade, dass Du das so schlecht reflektieren kannst.

Die Titan hat einfach eine kluge automatische Übertaktungsfunktion, die eine breite Temperatur-Sicherheitsmarge mit einbezieht -- nicht mehr und nicht weniger.

Und besondere, titan-exklusive Vorschriften von Nvidia bezüglich Betrieb und Kühlung, die gibt es einfach nicht, das ist so formuliert einfach falsch.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du sagst es -- Du kannst das Temptarget auch hoch setzen und hast weiterhin Garantie, da werden Dir keine Vorschriften gemacht. ;)

Ich finde Du hast Dich mit dem Gebrauch des Begriffes "Vorschriften" argumentaiv verrannt. Schade, dass Du das so schlecht reflektieren kannst.

Die Titan hat einfach eine kluge automatische Übertaktungsfunktion, die eine breite Temperatur-Sicherheitsmarge mit einbezieht -- nicht mehr und nicht weniger.

Ich habe auf eine Rhetorikdiskusion so gar keinen Bock.
Für mich ist das eine Vorschrift, wenn mir der Hersteller die 80°C per default vorschreibt... Für was bitte? Es ist schlicht und ergreifend quark an der Stelle.
Und was soll es sonst sein? Eine Empfehlung? Beispiel: das Tempo 80 auf der Landstraße. Ja das ist ne Vorschrift. Hält sich deswegen jeder dran?

PS: das Thema Garantie ist da übrigens nichtmal 100% geklärt. Denn idR heist es, jegliches verändert der default Einstellung führt zum Garantieverlust. Aber hier ist auch nicht NV der Schwarze Peter, sondern der Boardpartner, wo von Partner zu Partner die Garantiezeiten sowie Bedinungen unterschiedlich sind.

Und wie angesprochen, ich seh es von der anderen Seite, man könnte auch meinen, ich bilde mir meine eigene Meinung, anstatt dem Marketinggesabbel zu vertrauen ;)
Das Teil hat für mich keine Übertaktungsfunktion. Genau so wie bei CPUs der AllCore Turbo, der quasi immer anliegt, total unsinn ist...
Sondern drosselt bei überschreiten der Temperatur, die deutlich zu niedrig angesetzt ist, damit sich das Produkt "voll" entfalten kann.
Turbo, Boost whatever hat für mich nichts mit Übertakten zu tun. Übertakten ist das wissentlich erhöhen von Takt. Der Boost ist mir von NV verkauft. Man wirbt damit... Und genau das verlange ich als potentieller Kunde auch. Nur kann ich es nicht nutzen, wenn die Temp zu weit steigt. Und das dies im default Zustand passieren wird, hat CB in ihrem Test eindrucksvoll gezeigt. Nämlich zum Teil nur minimal über base clock, teils nur base clock bei vorgewärmten Karten anstatt der üblichen ~30 Sekunden Benchdauer auf kalter Hardware.

EDIT: Temperatur-Sicherheitsmarge
So nennt man das heute also ;)
Kurze Frage, was wäre passiert, wenn NV das Teil mit exakt den selben Taktraten gebracht hätte, per default aber das Temptarget auf 96°C (eben max. des Reglers) geschoben hätte? ;)

Ich kann es dir sagen:
- per default ~10% mehr Leistung
- per default ein Verbrauch von ~280W in Games
- per default deutlich lauter
- weniger OC Spielraum oben drauf
- meckernde Presse, über Lautstärke, Temperatur und Verbrauch

Und du willst mir erzählen, die Funktion ist aus Endkundensicht positiv zu bewerten!? Ne, bei aller Liebe zu NV nicht ;)
 
Zuletzt bearbeitet:
Der Konsument da draußen entscheidet über Erfolg/Misserfolg eines Produktes was sich in Verkaufszahlen niederschlägt und man kann mit Fug und Recht behaupten, dass quasi die komplette HD7xxx Reihe geflopt ist !

Ähm, auf welchem Planeten lebst Du eigentlich? Geflopt? Nun, ich weiß nicht, was Du für eine ganz eigene Derfinition des Wortes "Flop" hast, aber die 7xxx-Serie ist alles, aber kein Flop.

---------- Post added at 19:56 ---------- Previous post was at 19:55 ----------

Ich habe auf eine Rhetorikdiskusion so gar keinen Bock.
Für mich ist das eine Vorschrift, wenn mir der Hersteller die 80°C per default vorschreibt... Für was bitte? Es ist schlicht und ergreifend quark an der Stelle.
Und was soll es sonst sein? Eine Empfehlung? Beispiel: das Tempo 80 auf der Landstraße. Ja das ist ne Vorschrift. Hält sich deswegen jeder dran?

PS: das Thema Garantie ist da übrigens nichtmal 100% geklärt. Denn idR heist es, jegliches verändert der default Einstellung führt zum Garantieverlust. Aber hier ist auch nicht NV der Schwarze Peter, sondern der Boardpartner, wo von Partner zu Partner die Garantiezeiten sowie Bedinungen unterschiedlich sind.

Und wie angesprochen, ich seh es von der anderen Seite, man könnte auch meinen, ich bilde mir meine eigene Meinung, anstatt dem Marketinggesabbel zu vertrauen ;)
Das Teil hat für mich keine Übertaktungsfunktion. Genau so wie bei CPUs der AllCore Turbo, der quasi immer anliegt, total unsinn ist...
Sondern drosselt bei überschreiten der Temperatur, die deutlich zu niedrig angesetzt ist, damit sich das Produkt "voll" entfalten kann.
Turbo, Boost whatever hat für mich nichts mit Übertakten zu tun. Übertakten ist das wissentlich erhöhen von Takt. Der Boost ist mir von NV verkauft. Man wirbt damit... Und genau das verlange ich als potentieller Kunde auch. Nur kann ich es nicht nutzen, wenn die Temp zu weit steigt. Und das dies im default Zustand passieren wird, hat CB in ihrem Test eindrucksvoll gezeigt. Nämlich zum Teil nur minimal über base clock, teils nur base clock bei vorgewärmten Karten anstatt der üblichen ~30 Sekunden Benchdauer auf kalter Hardware.

EDIT: Temperatur-Sicherheitsmarge
So nennt man das heute also ;)
Kurze Frage, was wäre passiert, wenn NV das Teil mit exakt den selben Taktraten gebracht hätte, per default aber das Temptarget auf 96°C (eben max. des Reglers) geschoben hätte? ;)

Ich kann es dir sagen:
- per default ~10% mehr Leistung
- per default ein Verbrauch von ~280W in Games
- per default deutlich lauter
- weniger OC Spielraum oben drauf
- meckernde Presse, über Lautstärke, Temperatur und Verbrauch

Und du willst mir erzählen, die Funktion ist aus Endkundensicht positiv zu bewerten!? Ne, bei aller Liebe zu NV nicht ;)

Kann man so hundertprozentig unterschreiben.
 
Ich habe auf eine Rhetorikdiskusion so gar keinen Bock.
Warum diskutierst Du denn dann weiter?
Für mich ist das eine Vorschrift, wenn mir der Hersteller die 80°C per default vorschreibt... Für was bitte? Es ist schlicht und ergreifend quark an der Stelle.
Und was soll es sonst sein? Eine Empfehlung?
Es ist keine Vorschrift, sondern die Default-Einstellung der temperaturabhängigen automatischen Übertaktungsfunktion.
Aber das hatte ich Dir ja so schon erklärt, Du willst es halt nicht einsehen und redest weiter unzutreffend von irgendwelchen Vorschriften.

Beispiel: das Tempo 80 auf der Landstraße. Ja das ist ne Vorschrift. Hält sich deswegen jeder dran?
Ja, das ist wirklich eine Vorschrift und wer dagegen verstößt, begeht eine Ordnungswidrigkeit und kann dafür bestarft werden.
Du darfst unter keinen Umständen die 80 km/h überschreiten -- nur Einsatzfahrzeuge mit Blaulicht dürfen das und das nur im Einsatz.
Das sich viele leider trotzdem nicht daran halten (obwohl das ganz klar ist und jeder es weiss) ändert nichts daran, dass diese sich strafbar machen.

Schlechte Analogie.

EDIT: Temperatur-Sicherheitsmarge
So nennt man das heute also ;)
Kurze Frage, was wäre passiert, wenn NV das Teil mit exakt den selben Taktraten gebracht hätte, per default aber das Temptarget auf 96% geschoben hätte? ;)
Das Hochsetzen der Temperatur-Sicherheitsmarge auch unter Bedingungen schlechterer Kühlung bzw. bei höherer Umgebungstemperatur würde bewirken, dass die Karte die automatische Übertaktung auch unter diesen Bedingungen länger ausfährt.

Da sind wir uns dann wohl auch einig.

Und du willst mir erzählen, die Funktion ist aus Endkundensicht positiv zu bewerten!? Ne, bei aller Liebe zu NV nicht ;)
Wozu das gut ist, wissen wir nicht -- vielleicht steigert es die Lebensdauer? :)

Dass Grafikkarten das häufige Heisswerden und Abkühlen schlecht vertragen und nach einigen Jahren oft defekt gehen, ist Dir sicher bekannt. Die "ermüdeten" Lötstellen kann man dann oft durch "Gesundbacken" wieder für eine Weile lang revitalisieren (leitfähig machen) bis der Totalausfall kommt.
 
Zuletzt bearbeitet:
Ich sags ja, LN2 für alle ;) Wer sich 950€ für Titan leisten kann, hat auch die LN2 Flat bei Linde...

Höre ich da Ironie?

Einige hat bei der 690er der Kühler schon nicht interessiert u wird es auch bei Titan nicht

Darfst gern mal ne Umfrage starten wer der Kaufwiligen überhaupt das Kleidchen auf der Karte lässt

Das wäre glaube ich aber eher kontraproduktiv für dich so ne Umfrage
 
Dann sollte man AMD Karten ebenfalls auf das selbe Lautstärke- und Stromniveau bringen. Kann ja nicht sein, dass der eine Hersteller für sein Nichtstun belohnt wird (Turbinelautstärke und Stromverbrauchsmonster), der andere aber kritisiert wird.

Ich denke du solltest mal ne Verdetrol GHZ Pille nehmen und mal bei der Sache bleiben.
Niemand schert sich in dem Zusammenhang um Lautstärke, aber dass du nicht beim Thema bleiben kannst zeugt nur davon, dass du unrecht hast und du dich nicht mit anderen Mitteln wehren kannst.

Auch hat niemand den Stromverbrauch von Nvidia plakativ kritisiert. Du hast ein riesen Problem Junge.
Löse das mal.

Bevor du das Problem nicht gelöst hast ist es sinnlos überhaupt etwas mit dir zu diskutieren, außer man wetzt sich den Rücken an nem altten PCB von ner 8800gtx.

runningdodl schrieb:
Warum diskutierst Du denn dann weiter?

Warum? Weil es nicht sein kann, dass im Forum der Thread ständig von irgendwelchen verblendeten Fanboys kontrolliert wird( die sich nicht zu schade sind rethorikdiskussionen zu führen, mit allen blödsinnigen Mitteln), die jeden an die Gurgel springen, wenn man sich über das Thema Titan äußert und sich kritisch mit dem Boost auseinandersetzt.

Weil es kauft ja eh jeder ne Wakü..., dann bitte doch reviews die mehr Performance zeigen.
Ob diese Werte dann mit der entwicklung von Lautstärke Verbrauch und Hitze übereinstimmen ist egal.
Zum Lachen ist das, nicht mehr oder weniger.

Die Grafikkarten von nV mit den Mörderpreisen sind zufälligerweise Marktführer im dedizierten Bereich

Du musst seine Aussage im Zusammenang mit der von Sontin sehen und nicht plakativ seine Aussage nehmen und dann dagegen argumentieren.
Aber ist das so abgesprochen bei euch? Egal wieviel Blödsinn und Unwahrheiten der eine verzapft, man kritisiert ohne Ausnahme nur die Personen, von denen man meint, sie wollen Nvidia phöses? ...

Einige hat bei der 690er der Kühler schon nicht interessiert u wird es auch bei Titan nicht

Sehe ich da das festklammern an irgendwelche ironischen Aussagen, damit man wenigstens etwas entgegnen kann was Sinn ergibt? ;)
Ich würd jedenfalls bei ner 1000 Euro nicht so mir nichts dir nichts rumbasteln, jedenfalls stelle ich mir nicht vor, wie du es sagst, es würden soviel das "Kleidchen" wechseln.
 
Zuletzt bearbeitet:
Warum? Weil es nicht sein kann, dass im Forum der Thread ständig von irgendwelchen verblendeten Fanboys kontrolliert wird( die sich nicht zu schade sind rethorikdiskussionen zu führen, mit allen blödsinnigen Mitteln), die jeden an die Gurgel springen, wenn man sich über das Thema Titan äußert und sich kritisch mit dem Boost auseinandersetzt.
Ja, auch ich würde es sehr angebracht finden, sachlich zu bleiben. ;)
 
Also ohne Witz ich find die Funktion klasse. Warum auch nicht. Im Normalfall läuft die Karte also nicht über 80°C, bleibt somit "kühl" und leise und verbraucht "wenig". Hab ich recht niedrige Umgebungstemperturen so gibts nen bissel mehr Leistung. Wer möchte kann es ja manuell regeln.

Was könnte wenn überhaupt stören (neben dem preis von 950€ :stupid:): Ja es ist nicht möglich unter Plug&Play-Bedingungen überall dieselbe Leistung der Karte abzurufen. Das führt zu Unterschieden in den Reviews. Aber mal ganz ehrlich: :wayne: Der Einfluss der unterschiedlichen Testsysteme ist ja auch vorhanden. Insbesondere wenn die Karte plötzlich durch ne "schwache" CPU limitiert wird führt das zu Unterschieden. Oder wenn der Reviewer seine Heizung anhat verbraucht die Karte plötzlich weniger!? Dafür fällt der Verbrauch beim anderen Review wieder schlechter aus.

Und ja es ist quasi unfair wenn demnächst User A mit dem selben System in Dachnähe sitzt und sich totschwitzt und dafür auch noch weniger fps aufem Monitor hat während User B im Keller mehr Spaß mit der Karte hat. Kann ich oder NV was dafür, dass sich die Jungs diese Wohnungsbedingungen oder persönlichen Vorlieben aka Heizung ausgesucht haben? Nein... also wie schon erwähnt :wayne:

Die Karte ist insbesondere mit dem Preis eh für die Leute, die sich sowieso kaum um den Preis kümmern. Wer will nimmt ne Wakü und bekommt solange die Karte nicht mehr als zulässig schluckt halt mehr Takt. Ne Kellerwohnung im Sommer bei 18°C, nen sehr guter Chip (der nicht soviel säuft, sich aber auch noch ausreichend takten lässt) und noch ne optionale Wakü und man bekommt quasi maximalen Output. Obgleich ich dafür keine 950€ bezahlen möchte.


@€dit: Und was hätte NV von 10% mehr Leistung gehabt. Die Karte hängt doch insbesondere bei "geringen" Auflösungen schon jetzt oft im CPU-Limit. Man lese mal die Posts von den glücklichen Besitzern. Wie oft scheint die Karte vom System limitiert zu sein. Dafür dann die genannten negativen Aspekte bekommen und die Presse gegen sich? Das wäre absolut unklug.

Ich habe auf eine Rhetorikdiskusion so gar keinen Bock.
Für mich ist das eine Vorschrift, wenn mir der Hersteller die 80°C per default vorschreibt... Für was bitte? Es ist schlicht und ergreifend quark an der Stelle.
Und was soll es sonst sein? Eine Empfehlung? Beispiel: das Tempo 80 auf der Landstraße. Ja das ist ne Vorschrift. Hält sich deswegen jeder dran?

PS: das Thema Garantie ist da übrigens nichtmal 100% geklärt. Denn idR heist es, jegliches verändert der default Einstellung führt zum Garantieverlust. Aber hier ist auch nicht NV der Schwarze Peter, sondern der Boardpartner, wo von Partner zu Partner die Garantiezeiten sowie Bedinungen unterschiedlich sind.

Und wie angesprochen, ich seh es von der anderen Seite, man könnte auch meinen, ich bilde mir meine eigene Meinung, anstatt dem Marketinggesabbel zu vertrauen ;)
Das Teil hat für mich keine Übertaktungsfunktion. Genau so wie bei CPUs der AllCore Turbo, der quasi immer anliegt, total unsinn ist...
Sondern drosselt bei überschreiten der Temperatur, die deutlich zu niedrig angesetzt ist, damit sich das Produkt "voll" entfalten kann.
Turbo, Boost whatever hat für mich nichts mit Übertakten zu tun. Übertakten ist das wissentlich erhöhen von Takt. Der Boost ist mir von NV verkauft. Man wirbt damit... Und genau das verlange ich als potentieller Kunde auch. Nur kann ich es nicht nutzen, wenn die Temp zu weit steigt. Und das dies im default Zustand passieren wird, hat CB in ihrem Test eindrucksvoll gezeigt. Nämlich zum Teil nur minimal über base clock, teils nur base clock bei vorgewärmten Karten anstatt der üblichen ~30 Sekunden Benchdauer auf kalter Hardware.

EDIT: Temperatur-Sicherheitsmarge
So nennt man das heute also ;)
Kurze Frage, was wäre passiert, wenn NV das Teil mit exakt den selben Taktraten gebracht hätte, per default aber das Temptarget auf 96°C (eben max. des Reglers) geschoben hätte? ;)

Ich kann es dir sagen:
- per default ~10% mehr Leistung
- per default ein Verbrauch von ~280W in Games
- per default deutlich lauter
- weniger OC Spielraum oben drauf
- meckernde Presse, über Lautstärke, Temperatur und Verbrauch

Und du willst mir erzählen, die Funktion ist aus Endkundensicht positiv zu bewerten!? Ne, bei aller Liebe zu NV nicht ;)
 
Zuletzt bearbeitet:
Sehe ich da das festklammern an irgendwelche ironischen Aussagen, damit man wenigstens etwas entgegnen kann was Sinn ergibt? ;)
Ich würd jedenfalls bei ner 1000 Euro nicht so mir nichts dir nichts rumbasteln, jedenfalls stelle ich mir nicht vor, wie du es sagst, es würden soviel das "Kleidchen" wechseln.

Gääähn

Was für dich unvorstellbar ist ist für andere in ein paar Wochen schon Realität

Pseudo Analytiker hin oder her

Und im Sommer werd ich die Aussagen nochmal vor holen um mir ne Bauchfellentzündung zu holen vor Lachen troll_nvidia.png
 
Zuletzt bearbeitet:
Ne Kellerwohnung im Sommer bei 18°C, nen sehr guter Chip (der nicht soviel säuft, sich aber auch noch ausreichend takten lässt) und noch ne optionale Wakü und man bekommt quasi maximalen Output.

Das eröffnet ganz neue Dimensionen in der Wohnungssuch-Anzeigen-Sparte! :d "Suche kühles Erdloch um mit meiner Titan zu rocken..." :d
 
Also ohne Witz ich find die Funktion klasse.

Es spricht überhaupt nichts dagegen. Die einzigen, die sich beschweren, fahren doch eine Agenda. Ich nenne sowas umgangssprachlich "virales Marketing".
Jeder kann mit Boost 2.0 seine Einstellungen wählen. nVidia's default ist eben aus ihrer sicht das beste "Erlebnis" aus Lautstärke, Leistung und Stromverbrauch.

Wer will kann sich das Video mit Peterson und Ryan Shrout von PCPER.com ansehen:NVIDIA GeForce GTX 660 Ti Live Review Recap - PC Perspective - YouTube

Dort wird alles erklärt und auch obrige Aussage getätigt.

Aber wahrscheinlich sind Leute wie schaffe nur sauer, dass ihre Firma eben nicht auf solche Kleinigkeiten gekommen sind. Da muss man wohl auch den Wut mal rauslassen.
 
Insbesondere bei ner Wakü ist das Temperaturlimit ja eh fast egal. Vorher zieht die Karte eh zu viel aus der Leitung und wird dadurch limitiert. Der gemeine Wakühler bekommt halt neben geringeren Temperaturen, einer längeren Lebenszeit, (ggf.) weniger Lärm als Belohnung ab sofort noch nen bissel Boost ab Werk mit drauf ;)
 
Zuletzt bearbeitet:
Nicht nur Wakü-User. Sollte es in Zukunft Custom-Lösungen geben, werden diese auch höher Boosten.
Es gewinnen eigentlich alle - außer Leute von AMD. Aber wieso die sich auch zum Thema äußern, ist mir schleierhaft und befremdlich.
 
Ich verstehe auch nicht, was alle gegen den GPU-Boost (2.0) haben. Wenn man sich mal etwas genauer damit befasst und wirklich versteht, wie der fuktioniert, kann man den wunderbar einsetzen, um die perfekten Settings für einem selbst zu wählen, eine Karte individuell anpassen ->sollte das nicht der Traum eines jeden (GPU-besitzers) sein? Wenn ich zu viel leistung habe, die ich nicht brauche -> PT runter. Wenn ich mehr Power brauche -> PT hoch (und Temp-Target hoch). Und das beste: Dabei wird der ganze TDP-Spielraum optimal ausgenutzt...
 
Ich verstehe auch nicht, was alle gegen den GPU-Boost (2.0) haben.

Bei uns hier im Norden gibt es ein Sprichwort: "Wat de Buur nech kännt, dat fräit eh nicht!" (Plattdeutsch als Lautsprache :d ) Auf Deutsch: "Was der Bauer nicht kennt, das frisst er nicht!" Sprich neues ist grundsätzlich schlecht, das ist nicht nur auf dem Land so... :d
 
Bei uns hier im Norden gibt es ein Sprichwort: "Wat de Buur nech kännt, dat fräit eh nicht!" (Plattdeutsch als Lautsprache :d ) Auf Deutsch: "Was der Bauer nicht kennt, das frisst er nicht!" Sprich neues ist grundsätzlich schlecht, das ist nicht nur auf dem Land so... :d


Scheint wohl so:d Ich hab mein 580 SLI, trotz downgrade, durch ne GTX 680 ersetzt - allein, weil ich was neues ausprobieren wollte -> GPU Boost gehört dazu^^
 
Ich geb ehrlich zu, wenn das Teil nicht so teuer wär, hätt ich mir auch eine geholt, ich will halt immer das Schnellste, ob nu Nvidia oder AMD is mir egal. Aber das war mir dann doch zu viel, nu hab ich mir ne 7970 Vapor X 6GB geholt und bin zufrieden, obwohls immernoch juckt. :d
 
Jeder kann mit Boost 2.0 seine Einstellungen wählen. nVidia's default ist eben aus ihrer sicht das beste "Erlebnis" aus Lautstärke, Leistung und Stromverbrauch.

Das ist Richtig. Jeder kann das Feature so wählen wie man möchte mit allen Vor- und Nachteilen.
Jedoch muss man dann auch so fair sein und die Karte mit garantiertem Takt/Leistung in das Ranking aufnehmen. Denn der Boost 2.0 ist so wie er nun mal aktuell ist eine Beschönigung für Benchmarks. Eben nur für ein paar Sekunden/Minuten ein Performancevorteil. Mehr nicht. Denn Kriterien wie Verbrauch, Hitze, Lautstärke haben keine Bedeutung mehr wenn man an den Reglern dreht. So bleiben am Ende läpische max 20% auf 7970GHz Niveau für über 550€ - ohne Wakü.

Es sollte gerade auch im Interesse von Nvidia-Fanboys sein, dass die Hardware zur Konkurenz richtig darsteht. Am Ende seid nämlich Ihr die Jenigen, welche überhöhte Preise für ein kaum besseres Produkt bezahlen und diese Preise auch in Zukunft hinnehmen müssen.

Mir kanns egal sein. Ich habe seit ewigen Zeiten (2003) mal wieder eine AMD im Rechner. Pech gehabt Nvidia.
 
Also ich lese primär hier ja nur mit aber bei manchen hier stellen sich mir die Nackenhaare auf... Da wird einerseits argumentiert, man könne ja auf Wakü umbauen und schon die Regler erhöhen und im gleichem Atemzug kritisiert man die 7970er als zu Laut und Stromhungrig.... Kann man die dann, der fairnesshalber, nicht auch einfach auf Wakü umbauen? Dann wird es kritisiert, dass die GHz oft Custom ist, erzählt aber 10min. später wie toll Titan mit Custom wird....
Genauso das Argument von wegen Titan baut eh jeder auf Wakü um. Halte ich für sehr weit aus dem Fenster gelehnt. Nur weil in allen Foren vielleicht 1000Stück umgebaut werden, ist das noch lange nicht die Masse... Ich würde sogar behaupten, dass der Großteil eben unter Luft betrieben wird...

Fakt ist, die Titan ist gut geworden, aber eben nicht solch ein Weltwunder wie sie manche gerne hinstellen... Der Boost ist eine nette Sache, verfälscht aber eben das Ergebnis ein wenig, da er sehr variabel ist...

Nix für un gut, ich habe auch über eine Titan (als Ersatz meiner 7970) nachgedacht, bin aber vom P/L enttäuscht. Also kam noch eine 7970 dazu... Und bitte, erspart euch Kommentare wie "AMD kaufen die, die sich Titan nicht leisten können" oder "Titan hat tollere Treiber". Gebe es weniger von der Sorte Leuten wie hier einige (wo man meint Nvidia bezahlt dafür), würden auch mehr Leute Sachen kritischer sehen/hinterfragen und AMD testen.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Es sollte gerade auch im Interesse von Nvidia-Fanboys sein, dass die Hardware zur Konkurenz richtig darsteht. Am Ende seid nämlich Ihr die Jenigen, welche überhöhte Preise für ein kaum besseres Produkt bezahlen und diese Preise auch in Zukunft hinnehmen müssen.

Welche Vorteile siehst Du Aktuell darin, wenn nV ihre Preise der Produktpalette senkt ? Muss nicht dann auch AMD wiederum ihre Preispolitik ändern ? Werden dann nicht auch die Umsätze/Gewinne beider drastisch sinken ? Kann der Markt davon profitieren wenn die Preisen sinken, owohl die Tendenz im PC-Spielebereich eher rückläufig ist ? Muss nicht auch ein Unternehmen Geld verdienen um Wirtschaftlich gut dazu stehen ? Werden von drastischen Preissenkungen auch zukünftige Entwicklungen profitieren ? Werden durch feinere Fertigungsstrukturen die Produkte auch preislich in der Zukunft günstiger werden ?
 
Also ich lese primär hier ja nur mit aber bei manchen hier stellen sich mir die Nackenhaare auf... Da wird einerseits argumentiert, man könne ja auf Wakü umbauen und schon die Regler erhöhen und im gleichem Atemzug kritisiert man die 7970er als zu Laut und Stromhungrig.... Kann man die dann, der fairnesshalber, nicht auch einfach auf Wakü umbauen? Dann wird es kritisiert, dass die GHz oft Custom ist, erzählt aber 10min. später wie toll Titan mit Custom wird....
Genauso das Argument von wegen Titan baut eh jeder auf Wakü um. Halte ich für sehr weit aus dem Fenster gelehnt. Nur weil in allen Foren vielleicht 1000Stück umgebaut werden, ist das noch lange nicht die Masse... Ich würde sogar behaupten, dass der Großteil eben unter Luft betrieben wird...

Fakt ist, die Titan ist gut geworden, aber eben nicht solch ein Weltwunder wie sie manche gerne hinstellen... Der Boost ist eine nette Sache, verfälscht aber eben das Ergebnis ein wenig, da er sehr variabel ist...

Nix für un gut, ich habe auch über eine Titan (als Ersatz meiner 7970) nachgedacht, bin aber vom P/L enttäuscht. Also kam noch eine 7970 dazu... Und bitte, erspart euch Kommentare wie "AMD kaufen die, die sich Titan nicht leisten können" oder "Titan hat tollere Treiber". Gebe es weniger von der Sorte Leuten wie hier einige (wo man meint Nvidia bezahlt dafür), würden auch mehr Leute Sachen kritischer sehen/hinterfragen und AMD testen.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App

+1
Dem gibt es nix hinzuzufügen.
 
Das ist Richtig. Jeder kann das Feature so wählen wie man möchte mit allen Vor- und Nachteilen.
Jedoch muss man dann auch so fair sein und die Karte mit garantiertem Takt/Leistung in das Ranking aufnehmen. Denn der Boost 2.0 ist so wie er nun mal aktuell ist eine Beschönigung für Benchmarks. Eben nur für ein paar Sekunden/Minuten ein Performancevorteil. Mehr nicht. Denn Kriterien wie Verbrauch, Hitze, Lautstärke haben keine Bedeutung mehr wenn man an den Reglern dreht. So bleiben am Ende läpische max 20% auf 7970GHz Niveau für über 550€ - ohne Wakü.

Achje, immer noch hat der AMD Mitarbeiter Boost 2.0 nicht verstanden. Was erwartest du nun? Wieder ein Monolog, wie er funktioniert?
Da ich sage: Stopp. Diesmal lass ich deinen Schwachsinn mit folgenden Worten unkommentiert:
Ätschibätschi.

Es sollte gerade auch im Interesse von Nvidia-Fanboys sein, dass die Hardware zur Konkurenz richtig darsteht. Am Ende seid nämlich Ihr die Jenigen, welche überhöhte Preise für ein kaum besseres Produkt bezahlen und diese Preise auch in Zukunft hinnehmen müssen.
dia.

Wir bezahlen dank deinem Arbeitgeber überhöhte Preise. Aber das hat man wohl aus seinem Gedächtnis "erast". Pf, eine 7970 für 500€. :lol:
 
Welche Vorteile siehst Du Aktuell darin, wenn nV ihre Preise der Produktpalette senkt ? Muss nicht dann auch AMD wiederum ihre Preispolitik ändern ?

Das wäre wahrscheinlich in der Tat so. Da Nvidia zur Zeit bei den Kunden besser darsteht können sie auch höhere Preise verlangen. Jedoch können wir die Margen nicht beurteilen, daher kann ich als objektiver Kunde nur nach P/L gehen.

Andererseits finde ich Wettbewerb auch wichtig besonders wenn es nur 2 Hersteller gibt. Wenn da ein Großteil der Kunden nicht mehr objektiv ist, ist das sehr traurig und dann muss man wohl auch diese Preise in Zukunft hinnehmen. An ein zweites Intel/AMD sollte wohl niemand wirklich Interesse haben.

Das Nvidia nicht in den Preiskampf geht ist für die Hersteller gut. Dem Kunden anscheinend auch egal.

3D-Center schrieb:
Als gute Referenz mag hier die GeForce GTX 480 gelten, welche vor knapp drei Jahren als erste HighEnd-Lösung der 40nm-Generation von nVidia vorgestellt wurde: Der GF100-Chip der GeForce GTX 480 war seinerzeit auch schon seine 529mm² Chipfläche groß – und die Karte ging ganz regulär für ca. 500 Euro in den Handel, ganz ähnlich wie jeweils zuvor die GeForce GTX 280 (GT200, 576mm²) und die GeForce 8800 GTX (G80, 484mm²). Mit der 28nm-Generation haben wir zum ersten Mal mit der GeForce GTX 680 für einen (viel kleineren) 300mm²-Chip einen Karten-Launchpreis von um die 500 Euro gehabt – und bekommen nun die Rechnung präsentiert in Form dessen, daß der eigentliche HighEnd-Chip mit 551mm² Chipfläche einen Karten-Launchpreis von mehr als 900 Euro haben soll.

Wieder zurückblickend zur GeForce GTX 480 läßt sich zudem noch etwas anderes feststellen: Diese Karte wurde seinerzeit von uns auf einen Performance-Index von 240% festgesetzt. Die GeForce GTX Titan verdoppelt diesen Wert heuer mit ihrem Performance-Index von 480% exakt, will aber auch ungefähr den doppelten Preis dafür sehen. Betrachtet rein GeForce GTX 480 und GeForce GTX Titan kann man also trefflich feststellen, daß die 28nm-Fertigung dem Grafikkarten-Käufer nichts gebracht hat, weil zwar absolut mehr Performance geboten wird, dafür aber auch absolut höhere Preispunkte in gleichem Maße eingefordert werden.

Wir bezahlen dank deinem Arbeitgeber überhöhte Preise. Aber das hat man wohl aus seinem Gedächtnis "erast". Pf, eine 7970 für 500€. :lol:
Der Einzige der den Boost nicht verstanden hat bist du.

Der Preispunkt für eine 7970 war gerechtfertigt. Selbst heute wäre er noch gerechtfertigt würde man objektiv beurteilen und erkennen, dass die GTX680 (400€) weniger leistet und weniger VRAm besitzt, sowie kein Dx11.1 hat, und somit die 7970 zwischen Titan (900€) und 680 anzusiedeln ist.

Der springende Punkt ist aber, dass man es AMD nicht vorwerfen kann mit einem höhren Preis zu Starten. Immerhin konnte Nvidia bei 40nm lange Zeit nichts bieten während die 5870 verschärbelt wurde. Einen Fehler den man sichtlich nicht nocheinmal macht.

Nun kommst du bestimmt und erzählst mir, dass man so auch beim Titan argumentieren kann. Das stimmt nur teilweise, denn der GK104 ist objektivgesehen der 7970 unterlegen und müsste einen ganz anderen Preispunkt haben. Auch aufgrund der Chipgröße, SI, Speicher, Featurelevel, GPGPU, aber das wurde schon 1000x durchgekaut.

Wie schon woanders geschrieben. Titan ist nur die Spitze des Eisberges und das war schon Anfang letzten Jahres klar. Durch das gehype wurde der Preis von der Käuferschaft akzeptiert. Das jetzt die ganzen Leute ihre Bestellungen stornieren daher ehr verwunderlich.

sontin Titan schon bestellt?
 
Zuletzt bearbeitet:
Das ist Richtig. Jeder kann das Feature so wählen wie man möchte mit allen Vor- und Nachteilen.
Jedoch muss man dann auch so fair sein und die Karte mit garantiertem Takt/Leistung in das Ranking aufnehmen. Denn der Boost 2.0 ist so wie er nun mal aktuell ist eine Beschönigung für Benchmarks. Eben nur für ein paar Sekunden/Minuten ein Performancevorteil. Mehr nicht. Denn Kriterien wie Verbrauch, Hitze, Lautstärke haben keine Bedeutung mehr wenn man an den Reglern dreht. So bleiben am Ende läpische max 20% auf 7970GHz Niveau für über 550€ - ohne Wakü.

Damit hast du theoretisch schon recht, aber der faktische Beweis fehlt m.E. da noch komplett.

Das Gehäuse von CB ist für ein Testsystem, in dem eine 1000€ Graka getestet, wird völlig unzureichend belüftet:

Gehäuse
Corsair Obsidian 800D (2 x 120-mm-Lüfter mit 750 Umdrehungen pro Minute)
Test: Nvidia GeForce GTX Titan (Anhang 1) - ComputerBase

Sorry, aber das ist ein Scherz. 3x140mm und 1x120mm oder 2x140mm und 2x120mm von be quiet! oder Noiseblocker @ 800-1000 RPM (so dass diese leicht hörbar aber nicht nervig sind) ist das mindeste, was ein Enthusiast, der sich eine Titan gönnt, zur Gehäusebelüftung einsetzt. Damit wären es realistische und brauchbare Werte gewesen - so sind sie es aber, zumindest für meinen Standpunkt, nicht.

Die von PCGH erreichten 28°C warme Ansaugluft erreiche ich hier fast nie, selbst im Sommer ist die Raumtemperatur mit 24-26°C schon unerträglich für mich und dann sitze ich meist auch nicht vor dem PC. Aber das ist subjektiv und PCGH hat hier besser differenziert als CB - hier kennt jeder seine Raumtemperatur selbst am besten und kann die Relevanz dieser Werte für sich selbst bestimmen.

Aber selbst wenn es hart auf hart kommen würde und der Boost Takt bei mir im Gehäuse nicht dauerhaft gehalten werden könnte, gibt es hier Abhilfe:

- Temp Target auf 90°C anheben, darüber würde ich persönlich nicht gehen (kein Garantieverlust!)
- Kühler abbauen und Liquid Ultra auf die GPU - hat bei meiner 670°C auch 5-10°C bessere Temps gebracht (bei manchen Herstellern Garantieverlust bei Demontage des Kühlers)
- Ansonsten ne Custom Kühlung drauf oder ne Wakü (bei manchen Herstellern Garantieverlust bei Demontage des Kühlers)

Damit habe ich dann einen konstanten Boost Takt von mindestens 1150 Mhz denke ich - aber den habe ich zu 90% bei meinen Bedinungen auch oben die oben genannten Modifkationen.

Nix für un gut, ich habe auch über eine Titan (als Ersatz meiner 7970) nachgedacht, bin aber vom P/L enttäuscht. Also kam noch eine 7970 dazu... Und bitte, erspart euch Kommentare wie "AMD kaufen die, die sich Titan nicht leisten können" oder "Titan hat tollere Treiber". Gebe es weniger von der Sorte Leuten wie hier einige (wo man meint Nvidia bezahlt dafür), würden auch mehr Leute Sachen kritischer sehen/hinterfragen und AMD testen.

Dann erspar du dir bzw. ihr aber auch bitte die Sprüche von wegen "Fanboys", wenn ich deine Aussage jetzt kritisch hinterfrage und aufzeige warum AMD für einige User, inklusive mir, einfach nicht zur Debatte steht. Dazu muss man sagen... ich bin immer für alle Hersteller offen und hatte auch AMD Karten der aktuellen Generation zum Test hier, diese konnten mich aber wegen einem subjektiv unruhigen und unflüssigem Spielgefühl damals nicht überzeugen (trotz eigentlich ausreichender fps Werte).

Der aktuellste ComputerBase Report bezüglich der Framelatenzen bestätigt meine damals subjektiven Eindrücke:

Die Framelatenzmessungen sind damit eine wertvolle Ergänzung zu den üblichen FPS-Messungen. Denn diese zeigen nun auch plastisch und messbar, was schon länger spürbar ist: Nämlich dass AMD in einigen Spielen Schwierigkeiten mit der FPS-Abfolge hat. AMD hat dies bereits zugegeben und möchte demnächst einen Treiber mit einem modifizierten Speichermanagement veröffentlichen, der den Rucklern entgegenwirken soll.
Quelle: http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/7/

Davon abgesehen hat AMD bekanntermaßen bei CF mit deutlich heftigeren Mikrorucklern zu kämpfen, als Nvidia mit SLI.

Wenn diese dich nicht stören bzw. du diese nicht siehst, ist das schön für dich, aber andere stört das eben.

Ich muss aber fairerweise zugeben bei solchen Dingen sehr pingelig zu sein, ich könnte auch nie auf einem 60 bzw. 75Hz Monitor spielen, da es für mich mit dieser Wiederholfrequenz einfach nicht flüssig aussieht. Ich habe daher sehr lange meinen alten CRT behalten und dann erst auf die ersten 120Hz TFTs gewechselt - meine Auge ist also bei solchen Dingen sehr anspruchsvoll.
 
Zuletzt bearbeitet:
Hallo zusammen,


ich glaube bald einige bekommen echt von NV ihr geld hier.
Wenn ihr nicht die Weitsicht habt von Boost 2.0 der Titan mal auf zukünftige produkte zu schauen, tja dann
habt ihr euch einfach mal Disqualifiziert technisch darüber zu diskutieren.
Dave und Fsone hat es schon gut angerissen man darf egal wer immer Kritische gedanken äussern und das giebt niemanden das
recht sie herab zu würdigen.
Für meinen fall sehe ich Titan als Prestige Objekt das so lange (knapp 6monate) feinschliff bekam von NV, aber viel zu Teuer.
( der Vergleich mit dem Pagani fand ich gut, nur der ist halt nicht nur schnell er hat noch weit aus mehr vorzüge die ich beim Titan nicht erkennen kann)
Hm oft bekam ich hier schon zu hören das ist das Luxx das darf mehr kosten lauter sein aufwendiger etc. und auf einmal
weil es einigen passt ändern ihr diese Aussagen? wenn was leise ist = gut wenn was laut ist = schlecht aber wenn das gesammt produkt nicht
mehr vergleichbar ist, je nach umgebungstemp dann sind wir da angekommen, das jedes review nicht mehr im ansatz etwas aussagen kann
über das was der kunde für sich kauft?
Wenn ihr parr verfechter das soll wollt ist mir das persönlich egal , aber wir anderen Mündigen Käufer
sagen dazu nein und lassen uns nicht von irgend einem Bling bling Marketing so leicht verschaukeln.

lg
 
Das hat nichts mit Hersteller-Affinität zu tun, euer Aufriss ist einfach künstlich und totaler Quatsch. Die CPU Hersteller haben den dynamischen Boost eingeführt, das machte dort viel Sinn, ist auch überaus positiv aufgenommen worden und hat sich in der Folge längst etabliert. Warum in aller Welt soll das gleiche Verfahren bei GPUs angewandt nun plötzlich böse sein? Das ist Käse, mit Blick auf den derzeitigen Effektivitäts-Wahn war das wohl sogar überfällig. Und es ist aus Leistungssicht auch kein Problem, man muss einfach nur für ausreichende Kühlung sorgen - was sowieso absolute Normalität sein sollte. Wenn man eine beschissene Kühlung hat, dann kann man halt nicht halt übertakten. Und? Pech halt, da kann der Hersteller doch nichts für. Es kommt auch kein Mensch der Welt auf die Idee, plötzlich Intel verklagen zu wollen, weil man mit dem Boxed Kühler bei 40°C Raumtemperatur plötzlich den Boost nicht mehr nutzen kann. Oder weil man das Ding in ein Gehäuse ohne Luftstrom gesteckt hat. Der Gedanke ist ja geradezu lachhaft. Nur der Grundtakt ist von der Minimalkühlung garantiert, der Boost ist ein Bonus im Rahmen der thermischen Möglichkeiten - damit ist das Thema aus meiner Sicht erledigt.
 
Zuletzt bearbeitet:
Damit hast du theoretisch schon recht, aber der faktische Beweis fehlt m.E. da noch komplett.

Sorry, aber das ist ein Scherz. 3x140mm und 1x120mm oder 2x140mm und 2x120mm von be quiet! oder Noiseblocker @ 800-1000 RPM (so dass diese leicht hörbar aber nicht nervig sind)

Ich denke eher, dass 4Lüfter @800-1000 rpm ein Scherz sind - damit möchte ich mich nicht rumschlagen müssen.



Ich persönlich denke, dass der ganze Boost-Schwachsinn nur die Kunden verwirren soll. Man nehme einen Testaufbau in einem klimatisierten Raum und erreicht Werte, welche dann ein Käufer in seiner Dachgeschosswohnung nicht mehr schaffen kann. Damit werden Punkte wie Verbrauch, Übertaktbarkeit und Leistung verschleiert.

Ich war vom Titan eher enttäuscht - dei 1000€ sind in ein 70-200L gewandert ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh