Kratzt die GeForce GTX 670 Ti an der 300-Watt-Marke?

tja da wette ich mal nicht gegen. da stehen die chancen nämlich ziemlich hoch, dass der fall eintritt

Naja wenn interessiert mich der maximale Last-Verbrauch. Was interessiert mich eine Auslastung von 20, 30 oder 50%? Ich bin zwar kein Freund von Furmark, aber will man es anders lösen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die TDP ist doch eigentlich die wertloseste oder zumindest die wageste Angabe von allen um den Verbrauch einer Karte auszudrücken. Die TDP stimmt häufig weder mit der Spiele-Leistungsaufnahme, noch mit der Volllast-Leistungsaufnahme überein.

Wobei der Verbrauch nicht nur je nach Spiel locker um 40-50W(!) real (da sind noch nicht mal NT-Verluste inbegriffen) differieren kann, sondern auch je nach Architektur/GPU-Hersteller, was einen fairer Vergleich oder konkrete Werte noch sträker erschwert:
Leistungsaufnahme von Grafikkarten in Spielen - Leistungsaufnahme GeForce GTS 250 / GTX 285 (Seite 3) - HT4U.net
Leistungsaufnahme von Grafikkarten in Spielen - Leistungsaufnahme Radeon HD 4850 / HD 4890 (Seite 4) - HT4U.net

Das Festlegen auf ein bestimmtes Spiel ist auch heikel, denn es soll möglichst keine(n) Architektur/Hersteller oder Leistungsklasse bei Verbrauchsmessungen benachteiligen/übervorteilen. Gleichzeitig sollte das Spiel generell eine starke Auslastung herbeiführen und nicht nur bissl "streicheln" wie z.B. Far Cry 2.

Falls man sich dann doch mal für ein Spiel entscheidet, bleibt es trotzdem nur ein Fallbeispiel, das nicht allgemein repräsentativ ist. HT4U hat sich beispielsweise für Hawx als Spiel entschieden, da es nach deren Erfahrung recht stark auslastet und die Temperaturen hochtreibt. Die Verbrauchsmesswerte der HD 7950 Karten (darunter viele OC Modelle) liegen in diesem Fall nur bei 148-156W (Furmark dagegen bei ~200W).

Wenn der GK104 beispielsweise mit 180W TDP gekennzeichnet wird und Nvidia damit wieder nur die maximale Spiele-Leistungsaufnahme bestimmt, wurde das von einigen Usern erwartet Ziel, die HD 7950 bei der Effizienz bzw. dem Verbrauch zu übertrumpfen, bereits verfehlt.

Edit: Die Spannungswandler irritieren aber trotzdem, 5 Phasen für die GPU wären einfach nicht nötig, wenn sich die Karte auf dem Verbrauchsniveau (oder etwas unterhalb) einer HD 7950 oder GTX470 bewegen würde. Möglich wäre also, dass das Foto gar kein GK104 Referenzdesign zeigt (Fake?) oder Nvidia sich OCing im Bereich 20-30%+ verspricht bzw. ermöglichen will (inkl. Spannungsanpassungen).
 
Zuletzt bearbeitet:
Optimal ist die TDP nicht, da geb ich dir schon Recht. Aber Furmark genausowenig. Wenn ich wählen muss im Bezug auf Spiele, wähle ich klar die TDP. Bei reellen Messungen reichen die drei Anhaltspunkte, die PCGH, HT4U und Techpowerup liefern, doch eigentlich aus. Wir müssen keine Wissenschaft draus machen.

Na wer findets

Ich hol schonmal Popcorn

Toll, ich übersetze jetzt nicht halb China ins Deutsche :d
 
Zuletzt bearbeitet:
der verbrauch wird am besten an der leistung gemessen und die kennen wir noch nicht ;)
 
Was soll der scheiss mit irgendwelchen anonymen Statements? Lächerlich...
 
so wenig verbraucht die 7950 nur?
naja dann wette ich doch, dass gk104 unter 200 last furmark bleiben wird. (außer die 7950 hat einen limiter und nvida nicht)
denn weniger als die 7950, wird sie allemal verbrauchen :)

das bild vom pcb war natürlich ein es sample
 
Optimal ist die TDP nicht, da geb ich dir schon Recht. Aber Furmark genausowenig. Wenn ich wählen muss im Bezug auf Spiele, wähle ich klar die TDP.

Dann verkauft sich AMD aber theoretisch häufig unterm Wert, denn die TDP wird immer deutlich unterboten unter Spielelast (bis zu 40-50W in einigen Fällen). Wenn man die TDP berücksichtig ist auch ein Vergleich zwischen Nvidia und AMD nicht möglich.
 
Zuletzt bearbeitet:
AMD gibt auch gar keine TDP an, sondern maximum board power und (manchmal) typical board power. Aber es geht hier ja um Nvidia, die haben noch eine TDP ;)
 
AMD gibt auch gar keine TDP an, sondern maximum board power und (manchmal) typical board power. Aber es geht hier ja um Nvidia, die haben noch eine TDP ;)

Das ist mir noch gar nicht aufgefallen, weil Seiten wie HT4U (z.B. in allen Reviews) oder Computerbase die Bezeichnung TDP verwenden. Ganz aktuelle auch bei dieser News: Spezifikationen der AMD Radeon HD 7850/7870 bekannt (Update) - 03.03.2012 - ComputerBase

Das steht tatsächlich Typical Board Power und der Redaktuer schreibt im Text TDP^^ Wobei Typical dann auch nicht wirklich zutrifft, wenn man unter typischer Spielelast da immer noch genauso deutlich (bis zu 50W) davon entfernt.
 
Zuletzt bearbeitet:

Meinst du den Fehler?^^

Nee ernsthaft, was immer auch mit "5 supply power" gemeint war (Netzteil? Spannungswandler?), eine Effizienz von fast 96% klingt so gut, dass es zwangsläufig etwas unrealistisch erscheint.
 
Zuletzt bearbeitet:
5 Phasen sind gemeint PCB seitig

115Watt sind nur für den Core,nicht für das gesamte PCB
 
Zuletzt bearbeitet:
Ah ok, danke. Ich dachte 5W für die Spannungswandler bei 115W für den Core, das hätte nämlich einen Wirkungsgrad von fast 96% ergeben.

Aber wenn 5 GPU Phasen damit gemeint sind, bestätigt er das was auf dem Foto zu sehen war. Fragt sich nur warum so viele Phasen verbaut werden.

Naja und der Speicherverbrauch kommt noch hinzu. Die Spannunswandler (5 GPU + 2 RAM Phasen) werden auch einiges verballern. Den Lüfter und Kleinzeugs nicht zu vergessen. Man kann natürlich alles weglassen und die GPU isoliert betrachten, dann haben wir unseren neuen Nvidia-Rekord ;)
 
Zuletzt bearbeitet:
Ok, dann lassen wir uns überraschen :) So ne großzügige Spannunsgversorgung will aber auch bezahlt werden.
 
So ne großzügige Spannunsgversorgung will aber auch bezahlt werden.

Ob sich das so umfassend auf den letztendlichen Endpreis auswirkt ob 4 oder 5Phasen,wenn ich dafür die Platine allen Einsatzgebieten zugänglich mache?

Letztendlich ist ein gutes OC Potential dem Image auch nicht unbedingt abträglich.Da Nvidia wie sich abzeichnet mit dem kleinen Chip gegenhalten kann,ist da sicher auch noch etwas Vermögen übrig um 1Phase mehr zu integrieren:)
 
Zuletzt bearbeitet:
warum von mir?

und das ss habe ich jetzt mal überlesen ;). Kepler wird geil,wenn nicht rede ich ihn mir schön,wie soviele die das mit anderer Hardware machen :d.

Ne mal im ernst wenn sie nicht der brüller wird,dann hab ich auch meine meinung dazu. Hatte ich bei der 580 auch,fand die leistungssteigerung zu dem aufpreis nicht so toll. Die 480 fand ich besser zu release auch wenn der verbrauch höher war. Die 5870 oder 5850 fand ich auch richtig gut. Bei allen hat auch der preis gestimmt und die Leistung zu den vorgängern.

Die 5xx und 6xxx waren eher etwas enttäuschend,aber war ja auch kein shrink vorhanden. Kepler wird das alles richten,HOFFE ICH :d
 
Ach wer war das denn nur :(

vielleicht auch boxleitner mhm. Es ging um den Preis für GK104 Ich habe gesagt, mehr als 350 Euro.
 
mhm das würde ich auch denken,also so um den dreh.

lieber wären mir 200€ :d. Finde die 300€ aber schon zu teuer für neue mainstream gen.
 
@scully1234

An einer Phase hängt ja gleich mehr dran, neben der Spule kommen noch 3 Mosfets und paar Kondensatoren hinzu. Möglicherweise werden auch weitere SMD-Bausteine und mehr Layer beim PCB benötigt. Und wenn die GK104 Karte wirklich deutlich unter 200W liegen würde, wären vermutlich nicht mal 4 Phasen mit gleich 3 Mosfets pro Spule nötig. Aber evtl. bestücken die Boardpartner die PCBs bei Standard-Versionen auch gar nicht alle Phasen mit Bauteilen. Gibt auch Hersteller die zwar mehr Spulen draufmachen, dafür aber bei den Mosfets einsparen. Das GK104 PCB scheint sich eher an High-End PCBs als an Mainstream PCBs zu orientieren. Ist wohl flexibel im Einsatz, aber vielleicht nicht die wirtschaftlichste Lösung.
 
@scully1234

An einer Phase hängt ja gleich mehr dran, neben der Spule kommen noch 3 Mosfets und paar Kondensatoren hinzu. Möglicherweise werden auch weitere SMD-Bausteine und mehr Layer beim PCB benötigt. .

Wie sagen die verehrten Politiker immer "alles Peanuts" retten wir Griechenland:)

Ne so dramatisch ist der Ausbau dann doch nicht.Ich denke schon das ein solch flexibles PCB auch Vorteile bei der Fertigung und Bestückung haben könnte. All zu groß ist der DIE ja auch nicht vielleicht ist damit sogar ne Dualplatine machbar
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh