GT300 begnügt sich mit 225-Watt-TDP

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.274
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="nvidia" src="images/stories/logos/nvidia.gif" height="100" width="100" />Während <a href="http://www.amd.com/de-de/" target="_blank">AMD</a> auf der diesjährigen Computex in Teipeh vor allem mit <a href="index.php/news/hardware/grafikkarten/12300-amd-gibt-weitere-details-zu-directx-11-bekannt.html" target="_blank">Informationen zu DirectX 11</a> und seiner ATI Radeon HD 4770 vorpreschte, hielt sich Konkurrent <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a> wieder einmal mehr bedeckt. Wie auf Bright Side Of News nun zu lesen ist, soll die Karte nicht nur über insgesamt 512 skalare Einheiten verfügen, sondern auch auf einen 1100 MHz schnellen GDDR5-Videospeicher zurückgreifen können....<p><a href="/index.php?option=com_content&view=article&id=12351&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das sind doch mal gute News, also kommt die lahme GTX275 bald wieder raus :d ;)
225 Watt sind zwar nicht gerade wenig aber für so ein Transistoren-Monster schon ok.
 
Jungs TDP ungleich dem endgültigen Verbrauch der Karte...

Die Leier gabs doch schon beim R600, welche ebenso mit 225W TDP angegeben ist... Aber in der Ursprungsversion mit 1,2V VGPU Spannung im 3D Modus mit 161W auskam.

Also nicht zu viel Wert drauf legen...
 
Wenn das so weiter geht braucht man bald wirklich keine Heizung mehr im Winter... 225W TDP :stupid: Die Chips sollten lieber schnell noch kleiner werden...
 
Mit der TDP wird die Verlustleistung der GPU angegeben, das ist mir schon klar ;)
Es steht aber auch da zwei 6-Pin Stromstecker fdsonne, also kann die Karte nicht soooo viel verbraten.
 
Mit der TDP wird die Verlustleistung der GPU angegeben, das ist mir schon klar ;)
Es steht aber auch da zwei 6-Pin Stromstecker fdsonne, also kann die Karte nicht soooo viel verbraten.

Nein eben nicht, die TDP gibt die Dimensionen der Kühllösung an, bzw. wird dafür verwendet, wie viel die Karte schlussendlich verbraucht kann man davon nicht ableiten... Ich bin eigentlich der Meinung, das sollte man nun so langsam mal wissen...

Und 2x6Pin + Slot ergeben 225W (in der Theorie) ;) Mal ganz davon abgesehen das die Anzahl der Pins nur rein theoretisch angibt, wie viel Leistung durch das Kabel geht... ;)
Praktisch läuft das oft auch gänzlich anders, siehe dazu HD4870 X2 mit gemessenen 370W+ Verbrauch bei nur 1x8Pin+1x6Pin+Slot=300W theoretisches Maximum ;)
 
Ihr tut ja so als ob das schon eine tatsache wäre. :rolleyes:

Na klar, nvidia sagt auf der computex keinen piep zur neuen GPU aber BSN (in anderen foren habe ich gelesen, das stehe mittlerweile für BullShitNews :haha:) drängelt sich wieder mit solchen behauptungen in den vordergrund...

Die seite muss doch erstmal irgendwas in die welt setzen was sich dann als wahr oder zumindest halbwahr erwiesen hat. Vorher ist das alles doch gar nichts wert...
 
warum wird man nur auf die Luxx Forumseite verlinkt bei Informationen zu DX11?

Es steht aber auch da zwei 6-Pin Stromstecker fdsonne, also kann die Karte nicht soooo viel verbraten.

naja, eigendlich nur, dass sie nicht soviel Ampere auf der 12V Leitung benötigt. Bei der 295 war das schon eklatant....aber so kann man getrost wenigstens über ein SLI nachdenken ohne sich das Revolution NT kaufen zu müssen.
 
ähm.... und uber 225Watt soll man sich nun freuen??
Wäre doch schon mal ein wirklicher Fortschritt gegenüber den vorher prognostizierten 300 Watt. Die TDP einer GTX 280 liegt mit 236 Watt sogar nochmals etwas drüber.

Abwarten, Jungs! :wink:

warum wird man nur auf die Luxx Forumseite verlinkt bei Informationen zu DX11?

http://www.hardwareluxx.de/index.ph...bt-weitere-details-zu-directx-11-bekannt.html
 
Zuletzt bearbeitet:
Also 75 Watt + 75 Watt + 75 Watt (beide Stromstecker + 75 Watt von PCIe)
Und wie ist es dann bei der 8800GTX und 8800Ultra? Die Ultra hat ne geringere TDP als die GTX.
Jetzt strapazier ich dich fdsonne ;)
 
Nein eben nicht, die TDP gibt die Dimensionen der Kühllösung an, bzw. wird dafür verwendet, wie viel die Karte schlussendlich verbraucht kann man davon nicht ableiten... Ich bin eigentlich der Meinung, das sollte man nun so langsam mal wissen...

Genau das hat er doch gesagt. Verlustleistung ist die wärme die vom kühlkörper abgeführt werden muss!
 
nur weil die Kühlung eben ausgelegt ist für eine Verlustleistung von 225Watt heißt das aber noch lange nicht, dass die Karte auch so viel Leistung braucht. Konnte man doch auch gut am oben genannten Beispiel mit der HD2900XT sehen, da gibts eben einen Unterschied zwischen TDP und tatsächlicher Verlustleistung.
 
Also 75 Watt + 75 Watt + 75 Watt (beide Stromstecker + 75 Watt von PCIe)
Und wie ist es dann bei der 8800GTX und 8800Ultra? Die Ultra hat ne geringere TDP als die GTX.
Jetzt strapazier ich dich fdsonne ;)

Schau mal bei wikipedia.de nach TDP... Da wird dir erklärt warum die Ultra weniger TDP hat als die GTX

Und wie schon gesagt, das ist doch ein eindeutiges Indiz dafür, das die TDP Angabe absolut zu vernachlässigen ist.
Selbst wenn die bei 500W liegen würde, ist doch schnuppe, das was zählt ist die Leistung, welche die Karte benötigt, und die kann man aus der TDP Angabe nicht ableiten.

Genau das hat er doch gesagt. Verlustleistung ist die wärme die vom kühlkörper abgeführt werden muss!

Ja Verlustleistung ist die Leistung, welche vom Kühlkörper abgeführt werden muss, ändert aber nix daran, das die TDP nicht explizit diese Verlustleistung angibt, sondern es gibt einen groben Richtwert für die Dimensionierung des Kühlers, wie viel Leistung dieser abführen können sollte. Was dann am Ende wirklich an Leistung abgeben wird, steht auf einem ganz anderen Blatt (und hängt dazu noch vom Lastzustand und anderen Faktoren ab)
Der nächste Punkt wäre, das eben die TPD Angabe den Enduser überhaupt nicht stört, weil sie nix über den Stromverbrauch aussagt...
Siehe dazu R600, 225W TDP aber nur 161W bei 1,2V Verbrauch. (würde also die GPU wirkliich 225W abgeben bei nur 161W Verbrauch, würde die Karte Energie Produzieren, die wirkliche Wärmeabgabe der GPU alleine liegt also deutlich unter dem nachmessbaren Verbrauch der Karte... (sprich TDP sagt absolut gar nix aus)
Das ist der Punkt den viele vergessen, es wird nur ein "W" hinter einer Zahl gelesen und immer gleich gemeckert... :wall:
 
Zuletzt bearbeitet:
Begnügt? :rolleyes: Also ich sehe das weit weniger positiv. Es ist doch eher ein weiteres Indiz, dass der GT300 tatsächlich wieder so ein Monster wird. Und das ist alles andere als gut.
Klar, den einen oder anderen Enthusiasten wird es freuen. Das war es dann aber auch schon. Ökonomisch und ökologisch aber total unsinnig. Für das Segment, was nVidia hier anstrebt, also Mainstream und Performance Gamer, sollte bei 150 W Schluss sein, erst recht mit 40 nm. Aber vielleicht überrascht uns nVidia ja und bringt zeitnah eine abgespeckte Variante der Architektur, welche die Anforderungen besser erfüllt. Persönlich glaube ich aber nicht daran.
 
Begnügt? :rolleyes: Also ich sehe das weit weniger positiv. Es ist doch eher ein weiteres Indiz, dass der GT300 tatsächlich wieder so ein Monster wird. Und das ist alles andere als gut.
Klar, den einen oder anderen Enthusiasten wird es freuen. Das war es dann aber auch schon. Ökonomisch und ökologisch aber total unsinnig. Für das Segment, was nVidia hier anstrebt, also Mainstream und Performance Gamer, sollte bei 150 W Schluss sein, erst recht mit 40 nm. Aber vielleicht überrascht uns nVidia ja und bringt zeitnah eine abgespeckte Variante der Architektur, welche die Anforderungen besser erfüllt. Persönlich glaube ich aber nicht daran.

Hm, nichts gegen dich, aber lest ihr eigentlich überhaupt noch die Beiträge die vorangehen?

TDP ist nicht unbedingt dem Realstromverbrauch gleichzusetzen, wurde doch schon mehrmals gesagt.

Naja, ich bin gespannt auf die GT300 Chips, vllt gibt es ja wirklich wieder so 'nen Ultrahammer wie die 8800GTX
 
Hm, nichts gegen dich, aber lest ihr eigentlich überhaupt noch die Beiträge die vorangehen?

TDP ist nicht unbedingt dem Realstromverbrauch gleichzusetzen, wurde doch schon mehrmals gesagt.
Das ist zwar richtig, hat mit meinem Beitrag aber nichts zu tun. Wenn ein zusätzlicher 6-Pin Stecker nicht ausreicht, liegt man eben über 150 W. Und darauf bezog sich meine Kritik. Inwiefern die 225 W TDP ausgereizt werden, ist wieder ein anderes Thema. Und mal abgesehen davon, ich denke, das werden sie wohl recht gut (>200 W real bei maximaler Last).
 
Das ist zwar richtig, hat mit meinem Beitrag aber nichts zu tun. Wenn ein zusätzlicher 6-Pin Stecker nicht ausreicht, liegt man eben über 150 W. Und darauf bezog sich meine Kritik. Inwiefern die 225 W TDP ausgereizt werden, ist wieder ein anderes Thema. Und mal abgesehen davon, ich denke, das werden sie wohl recht gut (>200 W real bei maximaler Last).

Ich würde in der Hinsicht mal abwarten. Auch hier wird es vermutlich eine abgespeckte Variante geben welche sich mit weniger als 200W begnügen wird.
Das gab es bisher immer. Wenn man sich mal ansieht, dass es bisher in nahezu jeder Grafikkartenserie eines Chips irgendwie was gab, was nur einen PCIe 6-Pin gebraucht hat.
Von daher würde ich auch hier mal Abwarten und Kaffee oder Wahlweise Tee trinken. nVidia wird es sich nicht leisten können, das Mittelfeld mit 2x PCIe 6-Pin und 200W abzuschrecken. Da wird vermutlich was kommen. Aber wie gesagt... Ich hole meine Wunderkugel und setze derweil schonmal Tee auf ;)
 
Dass wir hier vom Top Modell reden, sollte aber klar sein, oder?
 
Ich finde nicht unbedingt das die Strategie von NV eine falsche ist einen Monsterchip zu bringen. Mal abwarten was da kommt.
 
Ich finde nicht unbedingt das die Strategie von NV eine falsche ist einen Monsterchip zu bringen. Mal abwarten was da kommt.

Neja, so ein Teil ansich ist schon gut, aber ich hoffe doch mal das NV auch den Mittelklassebereich abdeckt irgendwie, da ist ja seit den 8600/8500er Karten nix mehr gekommen, sondern es wurden einfach ehemalige Oberklassekarten dazu missbraucht...

Ob ein auf 40nm geshrinkter G200 da noch was reißen wird?
 
Ob ein auf 40nm geshrinkter G200 da noch was reißen wird?

Och ja, ich denke schon.

Durch den Shrink würde der chip wohl um einiges günstiger. Die Frage ist halt nur ob es sich lohnt ihn um DX 11 zu erweitern oder ob NV ihn einfach bei DX10 belässt.
 
Ne ich meine, ob es Sinn macht eine Architektur welche eigenltich auf 65nm aufbaut, und welche schon auf 55nm geshrinkt wurde, nochmals zu verkleinern...

Die Vergangenheit zeigte bis jetzt eigentlich immer, das native Designs auf einen bestimmten Herstellungsprozess effizienter waren, als Shrinks von größeren Prozessen...

Das mein ich damit...

Und ob NV DX11 "anpappen" kann, mhhh gute Frage, keine Ahnung ob sowas möglich ist!? Denke mal da müssten dann schon tiefgründigere Änderungen gemacht werden...

Aber nur HighEnd mit DX11 zu beliefern, wär wohl auch der falsche weg
 
Neja, so ein Teil ansich ist schon gut, aber ich hoffe doch mal das NV auch den Mittelklassebereich abdeckt irgendwie, da ist ja seit den 8600/8500er Karten nix mehr gekommen, sondern es wurden einfach ehemalige Oberklassekarten dazu missbraucht...

Ob ein auf 40nm geshrinkter G200 da noch was reißen wird?

die 8600/8500 waren zwar leistungsmäßig kein großer wurf (128bit kleines SI), aber verbrauchten ganz im gegensatz zu den "neuen" mittelklassemodellen deutlich weniger strom und waren für den massenmarkt m.m nach deutlich besser zu gebrauchen!
 
Eben, das mein ich ja, echte Mittelklassekarten würden da mehr bringen als ehemalige Oberklassenprodukte mit ein paar Optimierungen.
 
* AMD Evergreen - 180mm2, 40nm TSMC
* AMD Cypress - 360-400mm2 [2x180mm2], 40nm TSMC
* nVIDIA GT300 - 500mm2, 40nm TSMC
* Intel Larrabee - 600mm2, 45nm Intel

Das wird ja wieder nen riesen Bomber von nvidia. Ob das mal nicht in die Hose geht, da man auch vermutet, um so größer um so wahrscheinlicher ein Defekt.

TDP von 225 Watt, sagt mir eigentlich nur, das da wieder ein riesiger Kühler drauf ist, der sich wie eine Turbine anhört. ;) Bin mal gespannt, was aus dem gt 300 wird.
 
stimmt, diese TDP muss erstmal gekühlt werden... :fresse:

hoffentlich kommen dann wieder echte mittelklassemodelle rauß, welche abgespeckte highendkarten sind (takt, shadereinheiten, SI,...) und nicht wieder was aufgewärmtes, z.b. aus der GTX260 ne GTX350 machen :rolleyes:
 
* AMD Evergreen - 180mm2, 40nm TSMC
* AMD Cypress - 360-400mm2 [2x180mm2], 40nm TSMC
* nVIDIA GT300 - 500mm2, 40nm TSMC
* Intel Larrabee - 600mm2, 45nm Intel

Das wird ja wieder nen riesen Bomber von nvidia. Ob das mal nicht in die Hose geht, da man auch vermutet, um so größer um so wahrscheinlicher ein Defekt.

Logisch, da Fehler im Wafer bei kleineren Chips nicht so drastisch auf die Yield-Rate wirken.

TDP von 225 Watt, sagt mir eigentlich nur, das da wieder ein riesiger Kühler drauf ist, der sich wie eine Turbine anhört. ;) Bin mal gespannt, was aus dem gt 300 wird.

Naja, mal gucken. Ich denke das Problem bei einer solchen Kühlung ist sie bei dem geringen Raum auch effezient zu bekommen. Mit größeren Kühllösungen wie sie Dritte anbieten ist das Kühlen ja meist kein Problem.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh