GF100: Kommt der wohl heißeste Chip doch schon im Februar?

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.238
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="nvidia" src="images/stories/logos/nvidia.gif" height="100" width="100" />Sofern man den neusten Gerüchten Glauben schenken kann, gibt es an dieser Stelle neben einer positiven auch eine durchwachsene Nachricht über die kommende Grafikkarten-Generation von NVIDIA zu berichten. Die schlechte zuerst: Den Informationen auf Fudzilla.com zufolge soll Fermi nicht nur zu den komplexesten Chips zählen, sondern sich auch zu den heißesten Single-GPU-Karten seiner Art gesellen. Während die ATI Radeon HD 5870 über eine Thermal Design Power (TDP) von 188 Watt verfügt, soll das kommende High-End-Modell von <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a><a> hingegen die 200-Watt-Marke erreichen. Böse Zungen...<p><a href="/index.php?option=com_content&view=article&id=14178&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Solange die Power stimmt, darf er auch ein bisschen wärmer werden :d
Freue mich schon eine ganze Zeit auf Fermi, da ich derzeit nur eine Übergangsgraka drin habe (8600gt). Meine alte war anfang Dezember abgeraucht :(. ne GTX380 odet 360 ist auf jedenfall drin und wenn Fermi dann auch noch im Februar statt im März kommt, sind die Semesterferien gerettet :d
 
schei* doch auf die TDP den Strom zahl ich sowieso nicht :d:d

Hoffe, dass das stimmt, wäre ja nicht das erste mal, dass zilla sich \"irrT\"
 
Wo wird in dieser Meldung bitte von einem release im Februar gesprochen? Es wird nur gesagt, dass die Board-Partner die fertigen Karten im Laufe des Februars bekommen sollen ,was auch völlig normal ist, wenn man plant im März zu releasen.

"Retail board to launch in March"
 
Mich interessiert die Leistung einer Graka und nicht deren TDP.
 
12W mehr als eine HD5870? Macht bitte aus einer Mücke keinen Elefanten...
 
Es werden keine 200W es wird mit sicherheit 225W TDP.
Ach ja und um es nochmal zu erwähnen TDP ist nicht der Stromverbrauch!
 
"We still don’t know the final TDP figures, but GF100, GT300 chip is definitely going to exceed 200W TDP"

Sie sagen, dass sie die genaue TDP natürlich nicht kennen, aber das sie definitv 200W überschreiten wird.
 
12W mehr als eine HD5870? Macht bitte aus einer Mücke keinen Elefanten...
Man sollte sich vielleicht erstmal die Quelle anschauen. Dort ist die Rede von "exceed 200W TDP". Da hat Stegan bei der Übersetzung geschludert. Weiterhin wird erwähnt "some sources even implied that the single card should end up close to 300W". Es sind mit Sicherheit also nicht nur 12 W. ;)
 
Meine Güte bei der Leistung ist die etwas größere TDP im Vergleich zur ATi doch nun wirklich nicht so wild. Da man eh nicht die ganze Zeit spielt oder seine Karte mit FurMark quält sollte sich der Geräuschpegel ja wenigstens im idle halbwegs in Grenzen halten. Es wäre fatal wenn Nvidia die Karte mit einem lauten Kühler versaut, damit spielen sie ATi in die Hände.
 
Meine Güte bei der Leistung ist die etwas größere TDP im Vergleich zur ATi doch nun wirklich nicht so wild. Da man eh nicht die ganze Zeit spielt oder seine Karte mit FurMark quält sollte sich der Geräuschpegel ja wenigstens im idle halbwegs in Grenzen halten. Es wäre fatal wenn Nvidia die Karte mit einem lauten Kühler versaut, damit spielen sie ATi in die Hände.

Und wie ist die leistung im vergleich zu ATI , anscheind weisst du es ja schon , also teil es uns mit :fresse:


Und Strohmverbrauch zählt immer , ausser ihr seit irgendwelche kiddys die zuhause wohnen und mama zahlt oder reif für sendungen wie "schluss mit Hotel mama":kotz:

:banana::banana:
 
Mit TDP wird aber nicht der W verbrauch an sich gemeint,sondern die Abwärme,da ist es schon gewaltig,ob die GPU 188W TDP hat oder über 200W TDP!Sozusagen,die Verlustleistung in Form von Wärme...
 
Also mich Interessiert der Stromverbrauch auch nicht, selbst wenn mein Pc-System 1000 Watt verbraucht. Es läuft fast nie da kann die Grafikkarte wenn ich mal Spielen will ruhig 500Watt verbrauchen, sollange die Leistung stimmt.
 
@Haro

Jez machen wir uns ma nichts vor, jeder weiß, dass Nvidia stärker wird als AMD.. Und das sag ich nich als Fanboy (hab z.Z ne hd 5850 - steige trotzdem wieder auf nvidia um :p)

Sieh dir mal die Eckdaten an..
 
@Haro

Jez machen wir uns ma nichts vor, jeder weiß, dass Nvidia stärker wird als AMD.. Und das sag ich nich als Fanboy (hab z.Z ne hd 5850 - steige trotzdem wieder auf nvidia um :p)

Sieh dir mal die Eckdaten an..

dann schau dir die eckdaten des R600 an oder damals vom FX5800 :fresse:


Das sie schneller wird sag ich auch immer, aber was wenn die 20% schneller wird aber dafür 50% mehr abwährme hat , das steht in keiner relation!

Aber stimmt du weisst ja wie viel schneller wie viel abwährme und wie viel verbraucht, sry :fresse:


Und anschein mein hier welche, solang er schneller wird, darf er ruhig heizen wie 1000L heizöl und verbrauchen wie Las Vegas.
 
Zuletzt bearbeitet:
Also mich Interessiert der Stromverbrauch auch nicht, selbst wenn mein Pc-System 1000 Watt verbraucht. Es läuft fast nie da kann die Grafikkarte wenn ich mal Spielen will ruhig 500Watt verbrauchen, sollange die Leistung stimmt.

so ein käse...1000w...anmachen,mal surfen,film schauen machst du nie...da kommt ganz schön ne summe übers jahr zusammen!
es geht doch nicht um 12w oder so...wenn man aber z.b. für 20% mehr leistung 300w anstatt 200w aus der dose zieht,ist das einfach der falsche weg,das energie ressourcen bzw. die,die wir jetzt nutzen nicht unendlich sind,ist dir egal....wenn du mal kinder hat,die können sich dann nen hamster holen,weil alles andere nicht mehr da ist!
solche dummen kommentare!
 
Zuletzt bearbeitet:
Das sie schneller wird sag ich auch immer, aber was wenn die 20% schneller wird aber dafür 50% mehr abwährme hat , das steht in keiner relation!

Aber stimmt du weisst ja wie viel schneller wie viel abwährme und wie viel verbraucht, sry :fresse:

Teilweise so dämliche aussagen :stupid::stupid:

Natürlich weiß ich nicht, wieviel xxxxxxxxx, aber wie schon erwähnt ...
 
Teilweise so dämliche aussagen :stupid::stupid:

Natürlich weiß ich nicht, wieviel xxxxxxxxx, aber wie schon erwähnt ...

ja wie schon von dir erwähnt , ist der mehrverbrauch und mehr abwährme gerechtfertigt (wenn es denn so kommt) , weiss zwar immernochnicht womit du es begründest aber es ist gerechtfertigt :lol:
 
Zuletzt bearbeitet:
so ein käse...1000w...anmachen,mal surfen,film schauen machst du nie...da kommt ganz schön ne summe übers jahr zusammen!
es geht doch nicht um 12w oder so...wenn man aber z.b. für 20% mehr leistung 300w anstatt 200w aus der dose zieht,ist das einfach der falsche weg,das energie ressourcen bzw. die,die wir jetzt nutzen nicht unendlich sind,ist dir egal....wenn du mal kinder hat,die können sich dann nen hamster holen,weil alles andere nicht mehr da ist!
solche dummen kommentare!

Also mein Rechner ist ja nicht voll ausgelastet wenn FireFox mit 2 Tabs offen ist. Deiner anscheinend schon... :X
 
Wenn der Chip annähernd doppelt so schnell wird wie eine 285GTx u dabei nur um die 225 Watt verbraucht,dann ist dies vollkommen legitim.

Man kann nicht auf der einen Seite Performance ohne Ende erwarten u auf der anderen ein Perpetuum Mobile fordern
 
@Haro

Jez machen wir uns ma nichts vor, jeder weiß, dass Nvidia stärker wird als AMD.. Und das sag ich nich als Fanboy (hab z.Z ne hd 5850 - steige trotzdem wieder auf nvidia um :p)

Sieh dir mal die Eckdaten an..

Natürlich sagst du das als Fanboy. Du hast keine Ahnung wie schnell der Fermi wird, was er kosten wird, wieviel Strom er verbraucht, wie laut die Karte usw,usw. Du hast keine Ahnung wie der Fermi wird und willst aber umsteigen.

Sowas sagt nur ein Fanboy. Ansonsten würdest du abwarten was der Fermi tatsächlich leistet,bevor du so eine Aussage triffst.
 
Man sollte sich vielleicht erstmal die Quelle anschauen. Dort ist die Rede von "exceed 200W TDP". Da hat Stegan bei der Übersetzung geschludert. Weiterhin wird erwähnt "some sources even implied that the single card should end up close to 300W". Es sind mit Sicherheit also nicht nur 12 W. ;)
Als Schluderei würde ich das nicht unbedingt bezeichnen. Denn wenn man die 200-Watt-Marke erreicht, kann die TDP auch etwas oberhalb derer liegen. Dass Fermi allerdings an die 300 Watt in der Single-GPU-Variante herkommt, daran glaube weder ich noch Fudzilla. Deswegen auch: "böse Zugen sprechen sogar von deutlich mehr".

Die eierlegende Wollmilchsau, die bei der Komplexität den RV870 in Sachen TDP noch unterbietet, wird es meiner Meinung aber nach nicht geben. Spekulationsansätze gibt es genug. Warum sollte Fermi heißer werden wo doch die ATI Radeon HD 5870 mehr Watt pro Quatradmillimeter abwirft? Warum einen 8- und einen 6-Pin-PCI-Express-Stromstecker?

Es ist längst nicht das letzte Wort gesprochen. Alle Details wird man wohl erst zum offiziellen Start in Erfahrung bringen. Solange müssen wir uns wohl oder übel mit solchen Gerüchten zufrieden geben. :)

Grüße
:wink:
 
ich persönlich kann gut auf ein paar prozent leistung verzichten wenn ich dafür strom spare..
.. mein i7 läuft trotzdem auf 4GHz und das sys bei 200W .. aber der unterschied von 2,67GHz auf 4GHz beträgt auch mehr als nur ein paar prozent ;)

sparsam ist mein rechner leider nicht ..
aber ich muss nicht extra n heizkraftwerk einbauen wenns anders geht


ich warte derweil auf die 5870 und begnüge mich mit meiner ständig abstürzenden GTX260 von XFX die ich runtertakten musste damits läuft ^^


ich hoffe trotzdem auf eine starke nVidia karte .. irgendwann will ich ja auch wieder aufrüsten :p
 
Zuletzt bearbeitet:
Wenn der Chip annähernd doppelt so schnell wird wie eine 285GTx u dabei nur um die 225 Watt verbraucht,dann ist dies vollkommen legitim.

Man kann nicht auf der einen Seite Performance ohne Ende erwarten u auf der anderen ein Perpetuum Mobile fordern

Das gibts ja auch ganricht bzw. Physikalisch Unmöglich!
Aber manche,nicht du denken nur von der Couch bis zum Klo!

Energie wird heutzutage zu 80-90% Weltweit aus fossilen Rohstoffen gewonnen,die neigen sich dem Ende!Preis steigt...ausserdem ist Dtl nicht das einzigste Land,was Strom haben will,gerade aufstrebende Schwellenländer,wie China,Indien,Brasilien,vorderer Orient (Saudi,Dubai...)Russland lassen die Nachfrage steigen,Energie wird ganz normal wie alles andere gehandelt,ergo große Nachfrage,sinkendes Angebot...steigender Preis...Energie wird teurer,da kann man als Diplomvolkswirt solche Aussagen wie:"Mir egal" nicht stehen lassen,denn sowas,auch wenns den Mods nicht gefällt ist schlichtweg dumm!
Wenn die Karte (alles nur Gerüchte) für evtl 20% mehr Leistung,ein vielfaches z.B. 50% mehr Strom brauch,ist das eben der falsche Weg!Wenn ein Auto für 20km/h mehr Geschwindigkeit oder 20Ps mehr aufeinmal 10l statt der 8l des Vorgängers brauch...regen wir uns auch alle auf...was machen die Pkw Hersteller,entwickeln Motoren,die aus 1,4l 150Ps holen,statt früher 15l nur noch um die 8l wollen,Zurückgewinnung von Energie durch Bremsen usw...bei Grakas ist das doch im Prinzip das gleiche,durch bessere Entwicklung,etc. kann man mehr Leistung aus weiniger rausholen,Effizienz ist hier das Zauberwort.Als Konsument hat man nicht viele Möglichkeiten,aber Firmen durch Nichtkauf zu bestrafen,für einen falschen Weg gehört aber zu den wenigen Möglichkeiten!
Wennd er Fermi nur wenig mehr Energie will,für die (Gerüchte) 20-30% mehr Leistung sagt niemand was,wenn aber eben exponentiell mehr Energie für Power verlangt wird,ist das aus ökonimisches Sicht der falsche Weg!
 
Zuletzt bearbeitet:
Für mich ist der Idle der wichtigste Kritikpunkt einer Grafikkarte, wenn der nicht stimmt, dann kauf ich das Produkt erst gar nicht.
 
Wenn dich nur Idle interessiert kaufst du so eine Graka erst gar nicht, sondern was kleiners ;)
 
Wenn dich nur Idle interessiert kaufst du so eine Graka erst gar nicht, sondern was kleiners ;)

Warum?
Schau dir doch mal die Idle-Werte einer 5770 und einer 5870 an, da sind nur ein paar Watt unterschied.
4, um genau zu sein.

Nur würde ich tatsächlich keine High-End mehr kaufen, wenn die noch 50-80 Watt im Idle verbrauchen würden, das ist einfach nicht mehr zeitgemäß.

Muss ja nicht für dich gelten, jeder wie er mag, oder?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh