Kratzt die GeForce GTX 670 Ti an der 300-Watt-Marke?

Kleiner Tipp rechne mal 30Watt für den Rest der Platine und das ist schon extrem konservativ ausgelegt

Alleine die Spannungswandler der GPU könnten schon ~20W unter Vollast verbraten, dann kommt noch der Speicher und die Spannungswandler für die Speicher hinzu. Der Lüfter dürfte unter Last auch ein paar Watt brauchen. 30W für den Rest sind deswegen nicht wirklich großzügig gerechnet oder 'worst case'.

---------- Post added at 00:07 ---------- Previous post was at 00:01 ----------

Wer hat denn nach dem Pentium 4 und seinem letztendlich unkühlbaren Netburstdisaster gedacht,das Intel kurz darauf mit der Core 2 Architektur leistungs und effizenztechnisch AMD nicht nur aufholen konnte,sondern sogar vorbei zog;)

Hehe, die Core 2 Architektur war doch keine Überraschung, der Merom war doch nur ein verbesserter Yonah, der wiederrum ein doppelter Pentium M war. Diese Architektur hat parallel zum Netburst bereits ewig bestanden. Und ich kann mich auch nicht daran erinnern, dass der Pentium M oder Yonah (Core Architektur) je ineffizineter als der Athlon64 (X2) gewesen wären.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nicht wirklich großzügig gerechnet oder 'worst case'.

Wären Summa Summarum 180Watt TDP

Nächste Woche wird man sehen ob das großzügig gerechnet war:d

---------- Post added at 00:12 ---------- Previous post was at 00:09 ----------

Hehe, die Core 2 Architektur war doch keine Überraschung, der Merom war doch nur ein verbesserter Yonah, der wiederrum ein doppelter Pentium M war. Diese Architektur hat parallel zum Netburst bereits ewig bestanden.

Sicherlich war das so ich wollte damit auch nur aufzeigen das man nicht zwangsläufig Parallelen zur Vorgängerarchitektur ziehen kann,wenn ausgerechnet einer der Schwerpunkte bei der neuen Architektur Effizienzverbesserung ist

Diese hohen Taktbereiche brachen damals dem P4 das Genick und bei Nvidia scheint es nun wohl beim Shadertakt eines der Gründe für astronomischen Anstieg gewesen zu sein
 
Zuletzt bearbeitet:
Wären Summa Summarum 180Watt TDP

Also ich bin da noch skeptisch, wenn der GK104 leistungsmäßig über Tahiti Pro liegen soll ;) Aber andererseits hat Nvidia die GTX580 auch dreist mit 244W TDP ausgewiesen, wobei sie real bis zu ~320W geschluckt hat. Ausserdem gäbe es bei max. 180W TDP wirklich keinen Grund mehr auf 6+8 PCIe zu setzen, ausser die 180W TDP sind wieder nur Augenwischerei.

Diese hohen Taktbereiche brachen damals dem P4 das Genick und bei Nvidia scheint es nun wohl beim Shadertakt eines der Gründe für astronomischen Anstieg gewesen zu sein

Das ist ein Argument, Bulldozer wird beispielweise auch nur bei sehr hohen Taktraten ineffizient. Auch war die Nvidia GeForce 7000er Reihe damals um Welten effizienter als die Radeon X1800/X1900-Reihe. Wobei man aber nicht vergessen darf, dass die Bildqualität dieser Nvidia-Generation (aus heutiger Sicht) fast schon beschämend schlecht war. Auf alle Fälle müsste Nivida mit dem GK104 den Effizienz-Sprung ihres Lebens machen, um Erwartungen wie 180W TDP bei höherer Performance als HD 7950 zu erfüllen.
 
Zuletzt bearbeitet:
Als ich letztens über einen hohen Stromverbrauch spekuliert hab, um vor dem GK110 Release noch ne GPU zu haben die in etwa an die HD7970 herankommt, wurde ich noch von Scully blöd angemacht.
Tatsächlich liegt nämlich der Stromverbrauch des Chips "alleine" bei 150Watt. Da kommt aber noch etwas hinzu.
Vielleicht enpuppt sich das gute Performance/Watt Verhältnis als Märchen und man kommt nicht darum herum trotz des relativ effizienter Chips die Spannung hoch anzusetzen um mehr Dies aus den Wafern verwenden zu können.
Denn diese sind ja nach Nvidias eigenen Aussagen nicht in Massen vorhanden.

Von Ailuros hieß es weniger als 150W. 20W für den Speicher. Dazu noch Kleingedöhns. 170W TDP können durchaus hinkommen.
 
Wartet doch ersteinmal ab was die Karte letztendlich aus den eventuell 300Watt macht.Vielleicht ist sie ja 3x so schnell wie die 7970. :eek: Wahrscheinlich nicht, aber wenn es so wäre können die Leute die sparen wollen auch zu der Leistungsklasse/ Verbrauchsklasse weiter unten greifen. Verstehe das Rumgeheule nicht.
 
Mal ganz ehrlich... Interessiert euch der Stromverbrauch so sehr, dass darüber nun so heiß diskutiert wird? Würde hier jemand die Karte nicht kaufen, weil die nun 10, 20, 30, 60 whatever Watt mehr braucht als eine 7950/70? Die Sandys werden auf 5Ghz gequält, aber die Nvidia darf auf keinen Fall zuviel Strom ziehen! Für mich ergibt diese Diskussion keinen Sinn.
 
Interessiert euch der Stromverbrauch so sehr, dass darüber nun so heiß diskutiert wird? Würde hier jemand die Karte nicht kaufen, weil die nun 10, 20, 30, 60 whatever Watt mehr braucht als eine 7950/70?

Wenn die Karte keine Mehrleistung gegenüber der 79XX Serie aufweisen würde - natürlich!
 
Verbrauch ist schon wichtig. Bei Kepler soll Nvidia sich hauptsächlich die Effizienz als Ziel gesetzt haben, da darf man schon erwarten, dass da was bei rum kommt. TDP mag höher sein wegen OC-Reserven, aber mit Standardtakt schätze ich den Verbrauch auf 7950-Niveau oder leicht darunter ein.
 
Wenn die Karte keine Mehrleistung gegenüber der 79XX Serie aufweisen würde - natürlich!

Also kaufst Du eine Grafikkarte nur dann, wenn Verbrauch und Leistung im guten Verhältnis stehen? Was ist mit

- Bildqualität
- Physx
- Cuda
- Tesselation

...um nur mal wenige Punkte aufzuführen.

Wenn Du deinen i2500K mit 4Ghz fährst, brauchst Du auch weniger Strom und Du wirst dennoch kein CPU-Limit erleben, sondern trotz deiner 7970 GPU-Limit. Warum also verbrennst Du hier den Strom, aber bei der GPU ist das für Dich DAS Kriterium?
 
Also kaufst Du eine Grafikkarte nur dann, wenn Verbrauch und Leistung im guten Verhältnis stehen? Was ist mit

- Bildqualität
- Physx
- Cuda
- Tesselation

...um nur mal wenige Punkte aufzuführen.

Wenn Du deinen i2500K mit 4Ghz fährst, brauchst Du auch weniger Strom und Du wirst dennoch kein CPU-Limit erleben, sondern trotz deiner 7970 GPU-Limit. Warum also verbrennst Du hier den Strom, aber bei der GPU ist das für Dich DAS Kriterium?

Deine Argumentation ist mehr als seltsam. Irgendwie vergleichst du hier Äpfel mit Birnen.

Meine CPU läuft fast mit mit Standardspannung, alle Stromsparfeatures sind auch aktiviert und ich bekomme durch das OCing ja deutliche Mehrleistung!

Wenn ich zwei Grafikkarten hernehme, die auf ähnlichem Leistungsniveau sind, ist ein eklatanter Mehrverbrauch schon entscheidend.

Zu deinen Punkten:

Bildqualität der 79XX ist sehr gut
Telessalationsleistung ist sehr gut
PhysX interessiert mich nicht, da kaum unterstützte Games
 
Da wundert es mich nicht, das die ganzen Regierungen die EU nicht unter kontrolle bekommen bzw. den Weltfrieden. Das klappt ja nichtmal im Luxx. Wahnsinn was hier abgeht.
Ich stimmer hier Stegan/fdsonne 100%zu.

Eagle

Was erwartest du: Beim Weltfrieden klappt es nicht da sich erwachsene Menschen streiten wer jetzt den cooleren imaginären Freund hat. Hier im Luxx ist das nix anderes: Für manche ist es eine Religion die um alles verteidigt werden muss. Wieso warten wir einfach nicht noch ein paar Tage und Wochen und sehen dann was die Karte kann und was sie verbraucht?

@ G3cko: Sicher... Es macht wirtschaftlich keinen Sinn eine Graka auf den Markt zu bringen die 3x so schnell ist als das Topmodell von AMD oder der eigenen alten Generation. Zum einen würde man dann das ganze Schwarzpulver (Know-How, Technologie etc.) auf einmal verballern (wenn so viel da wäre) und zum anderen müsste man dann pro Karte deutlich mehr verlangen da man schlecht 6 Monate später eine weitere Karte nachschieben kann die nochmals leistungsstärker ist. Verstehst?
Es ist wirtschaftlicher wenn man alle X Monate eine Karte auf den Markt bringt die 10-30% mehr Leistung hat. Schließlich rennen jedes mal einige los und müssen sich das Topmodell holen.
 
Mal ganz ehrlich... Interessiert euch der Stromverbrauch so sehr, dass darüber nun so heiß diskutiert wird? Würde hier jemand die Karte nicht kaufen, weil die nun 10, 20, 30, 60 whatever Watt mehr braucht als eine 7950/70? Die Sandys werden auf 5Ghz gequält, aber die Nvidia darf auf keinen Fall zuviel Strom ziehen! Für mich ergibt diese Diskussion keinen Sinn.
Der Verbrauch muss ganz einfach in Relation zur Leistung stehen. Die Features die du noch aufzählst sind bis auf die Bildqualität füry Zocken eigentlich zweitrangig. Und wenn sich die Spekulationen zum Verbrauch von 180-300W ziehen, gibts das logischerweise ne Menge Diskussionsspielraum ;)
 
Es ist aber doch seltsam, die CPU ordentlich zu übertakten und dann beim Stromverbrauch zu jammern ;)
Das Ding verbrät doch sicher 50W mehr als auf Standardtakt, mindestens. Kannst ja gerne mal nachmessen. Je nach Spiel und Einstellung kannst du die Mehrleistung in Spielen mit der Lupe suchen oder eben nicht.
 
Der Mehrheit ist das ein wichtiger Punkt, deshalb will nV auf diesem Gebiet diesmal punkten. Mir persönlich war und ist das immer schon egal, solange die Performance passt! Deswegen hab ich auch die 480er bereits knapp zwei Jahre im Kasten aber langsam wird es Zeit für was Neues und wenn nV weiter keine Infos bekannt gibt, werde ich erstmals nach vielen Jahren auf Ati/Amd switchen...

Gesendet von meinem LG-P990 mit der Hardwareluxx App
 
Ich bezweifle das Du bei 4,9Ghz eine deutliche Mehrleistung hast gegenüber 4Ghz. Ich beziehe mich mal auf das allseits bekannte GPU-Limit. Das die CPU das mit beinahe Standard-VCore schafft ist toll. Das bedeutet auch, das die CPU bei 4Ghz deutlich weniger brauchen würde, Du somit also Strom einsparen könntest. Stromsparfeatures sind uninteressant, da wir hier nur über den Lastverbrauch reden, sowohl bei GPU als auch bei CPU. Bei einem eklatanten Mehrverbrauch, verstehe ich den Ansatz, jedoch hatte ich in meinem Post extra verschiedene Differenzen aufgeführt, 10, 20, 30, 60...

Mir persönlich wäre es egal, wenn die Karte nun 60W mehr zieht als eine vergleichbare AMD-Karte. Denn was macht das im Jahr aus, wenn man nicht gerade 10h am Tag zockt? Wenn konsequent, dann richtig!

€: Nur um klarzustellen worauf ich hinaus möchte... Jetzt haben alle die Befürchtung das Kepler, im Vergleich zu AMD, möglicherweise viel Strom zieht. Ich verwette mein linkes Ei, dass 100% der "Stromsparer" hier im Thread die Erstkäufer von Kepler darstellen, sofern die Karte von der Presse einfach hochgejubelt wird, Stromverbrauch hin oder her.

Amen.
 
Zuletzt bearbeitet:
Mal ganz ehrlich... Interessiert euch der Stromverbrauch so sehr, dass darüber nun so heiß diskutiert wird? Würde hier jemand die Karte nicht kaufen, weil die nun 10, 20, 30, 60 whatever Watt mehr braucht als eine 7950/70? Die Sandys werden auf 5Ghz gequält, aber die Nvidia darf auf keinen Fall zuviel Strom ziehen! Für mich ergibt diese Diskussion keinen Sinn.


Kommt drauf an.
Idle Verbrauch ist wichtig (da haben die neuen Radeon gut vorgelegt), unter Last darf die Karte ruhig ziehen, wenn es in Relation zur Leistung steht. Wenn der 104 250W zieht und nur 10% vor der 7950 ist, dann wäre das lächerlich (natürlich nur ein Beispiel).
 
@ G3cko: Sicher... Es macht wirtschaftlich keinen Sinn ....
Nicht zu fassen das das Jemand ernst nimmt. Was ich damit sagen wollte: OHNE DIE LEISTUNG ZU KENNEN BRAUCHT MAN AUCH NICHT ÜBER DEN VERBRAUCH MEKERN!
 
Zuletzt bearbeitet:
Kommt drauf an.
Idle Verbrauch ist wichtig (da haben die neuen Radeon gut vorgelegt), unter Last darf die Karte ruhig ziehen, wenn es in Relation zur Leistung steht. Wenn der 104 250W zieht und nur 10% vor der 7950 ist, dann wäre das lächerlich (natürlich nur ein Beispiel).

Ja, aber zum Idle-Verbrauch gibt es keinen Raum für Spekulationen, da es hier nur um Last-Verbrauch geht. Und wenn Kepler nun 10W mehr idle zieht, ist es halt so -.- Natürlich muss die Relation irgendwo stimmen. Aber weder Leistung noch Stromverbrauch noch Ladenpreise sind bekannt. Das Kepler in allen genannten Punkten AMDs aktuelle Generation überholt (im positiven Sinne), glaube ich nicht. Und natürlich hat jeder Käufer seine eigenen Kaufkriterien. Für mich ist der Stromverbrauch jedoch der Geringste. Das Preis-/Leistungsverhältnis ist für mich entscheidend. Und User die hier mit 5Ghz-Sandys unterwegs sind, sollten das eigentlich genauso sehen, tun sie aber nicht.

Das ist genauso wie ein TDI mit 5l Hubraum: Inkonsequent.
 
Mal ganz ehrlich... Interessiert euch der Stromverbrauch so sehr, dass darüber nun so heiß diskutiert wird? Würde hier jemand die Karte nicht kaufen, weil die nun 10, 20, 30, 60 whatever Watt mehr braucht als eine 7950/70? Die Sandys werden auf 5Ghz gequält, aber die Nvidia darf auf keinen Fall zuviel Strom ziehen! Für mich ergibt diese Diskussion keinen Sinn.

Mir persönlich geht der Stromverbrauch selbst auch ziemlich am A. vorbei... Dennoch ist er sehr wichtig. Um so mehr Strom das Teil verbrät, desto höher die Abwärme. Diesen Schluss sollte man definitiv mit einbeziehen. Ich mag selbst keine Karten mit 100°C+ bei GPU Volllast, und dennoch gibt es sowas heute schon. Man denke an Dual GPU Karten, oder an teilweise sogar nur leicht OCed Fermi Karten im SLI.
In meinen Augen gibts hier deutlich nachholebedarf. Sicher darf die neue Karte auch was mehr verbrauchen, wenn die Leistung stimmt. Nur sollte es eben kühlbar bleiben. Bei manchen "Konstruktionen" kommen mir da arge zweifel ;)


PS: die Core2 Diskusion hat hier nix verloren. :btt:
 
Der Acelero beweißt das es leise und kühl funkioniert da sollte NV und AMD mal genauer hin schauen.
Nach dem ich mein SLI mi Wakkü aufgelöst hatte und 2 Referenz Karten aller HD 7970 im CF verbaut hatte kann ich mir nur noch Wakkü oder einen Acelero im Sys vorstellen bei Highend Karten.
MFG
 
Ja, aber zum Idle-Verbrauch gibt es keinen Raum für Spekulationen, da es hier nur um Last-Verbrauch geht. Und wenn Kepler nun 10W mehr idle zieht, ist es halt so -.- Natürlich muss die Relation irgendwo stimmen. Aber weder Leistung noch Stromverbrauch noch Ladenpreise sind bekannt. Das Kepler in allen genannten Punkten AMDs aktuelle Generation überholt (im positiven Sinne), glaube ich nicht. Und natürlich hat jeder Käufer seine eigenen Kaufkriterien. Für mich ist der Stromverbrauch jedoch der Geringste. Das Preis-/Leistungsverhältnis ist für mich entscheidend. Und User die hier mit 5Ghz-Sandys unterwegs sind, sollten das eigentlich genauso sehen, tun sie aber nicht.

Das ist genauso wie ein TDI mit 5l Hubraum: Inkonsequent.


Verbrauch ist für mich auch nicht das wichtigste, dennoch sollte man diesen Punkt nicht vernachlässigen.
Ein Verbrauchsmonster dass man mit Luftkühlern nicht leise und kühl bekommt, kommt mir nicht mehr ins Case. Zudem hat ja Nvidia selbst gesagt dass der Verbrauch mit Kepler gesenkt wird, schaffen die das jetzt nicht ist das schon mal ein Teil Fail.
 
In meinen Augen wäre es nur ein Fail wenn die Leistung da zu nicht passt.
Die Heutigen Serien Luftkühler passen weder zu einer GTX580 noch zu einer HD7970.
 
Zuletzt bearbeitet:
Aber man kann auch einen 8-Pin kombinieren. Bedeutet das, das man die Option auf 6+6 oder 6+8-Pin hat? Das wäre aus OC-Gründen interessant :d
 
entweder aus oc gründen oder gk110 benutzt das gleiche pcb.obwohl ich erstes für wahrscheinlicher halte.
 
Vielleicht die Option 2*6 oder 1*8? Das fände ich genial, da brauch ich nur 1 Kabel verlegen.
 
Vielleicht die Option 2*6 oder 1*8? Das fände ich genial, da brauch ich nur 1 Kabel verlegen.

Das wäre durchaus interessant. Vor alle, den Standard gibts schon ne Weile. Sprich halbwegs aktuelle PCs dürften NT seitig mit mindestens einem 8Pin bzw. einem 6+2Pin Stromstecker ausgerüstet sein.
Und ob da nun PCIe 16x Strom + 2x6 Pin = 225W oder PCIe Strom + 1x8Pin = 225W kommen, ist wohl ziemlich egal. ;)

In Sachen OC und "Überbelastung" der Stromstecker würde man mit 2x6Pin aber weiter kommen als mit 1x8Pin. Einfach weil 2x6Pin mit größter Warscheinlichkeit mehr "Reserven" in Sachen NT seitige Absicherung bieten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh