nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
Naja so Werte lassen sich ja etwas verändern oder die Redaktion testet auf anderen Systemen oder oder oder oder...

Eben - ich glaube kaum, dass jemand die Werte 1:1 von Redaktionstestsystem leakt. Man könnte ja mal benchen, dann die Leistungsverhältnisse der Karten zueinander berechnen und dann halt entsprechend Punkte addieren oder subtrahieren.

Alternative - anderes System oder andere Taktraten fahren. ;)


Zum Idle Verbrauch: Es mag zwar sein, dass GF100 mehr verbraucht als eine GTX 280, aber ich kann mir kaum vorstellen, dass der Wert deutlich höher ist als der einer GTX 295 (~ 59W).

Ich meinte, das Char-lie ja mal erwähnt haben soll, dass Fermi keine sehr niedrige VCore mitmachen soll - eventuell stimmt ja diese Vermutung (würde zumindest den Idle Verbrauch signifikant erhöhen).

Gut, ist eh immer so eine Sache mit dem Kerl wenns um NV geht.. :fresse:

Remember when we said that the GF100 GTX480 chip was having problems with transistors at minimal voltages? Basically Nvidia has to crank the voltages beyond what it wanted to keep borderline transistors from flaking out. The problem is that this creates heat, and a lot of it.

Aber die 70°C im Idle bei 70% Drehzahlen - ich glaub, das kann ins Traumland des Bashes wandern. ;)


Wir werden es vorraussichtlich nächsten Montag sehen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Leistungsaufnahme der HD5870 liegt eher so bei 20 Watt:

AMD ATI Radeon HD 5830 - Die letzte im Bunde - Leistungsaufnahme: Idle & Last (Seite 9) - Tests bei HardTecs4U

Wenn die Aussage von Motkachler stimmt, dass der Verbrauch der GTX 480 über der GTX 280 liegt, dann könnte er schon so um die 50-70 Watt betragen. Das deckt sich auch etwa mit den Aussagen verschiedener Leute im 3DCenter Forum. Damit wäre der Verbrauch höher als bei der 5970. Wenn dazu die Zahlen von infoleck stimmen, dann wäre das schon ein Rückschritt von Nvidia in Sachen Effizienz. Aber das haben viele vorher schon vermutet und wie sich langsam wohl rausstellt auch zu recht angeprangert.
 
Er ist höher als von einer 280GTX ;)

Stromsparen kannst in dem Fall mit nem CF System :d

Und so sehr der Kollege einer bestimmten Seite auch verteufelt wurde, er behält im großen und ganzen Recht wie sich das abzeichnet :fresse:
 
Zuletzt bearbeitet:
ich denke mal, nvidia kann beim fermi über treiber auch noch extrem was herausholen, und im paket mit physx werden die shader bzw. cuda-cores sogar zu etwas zu gebrauchen sein, auch wenn man nicht cruncht. Aber hoher verbrauch im idle und extreme wärmeentwicklung ist nicht gerade hip^^ und das gilt sowohl für die nutzung als gamer-hardware wie auch als supercomputing-hardware, wobei da der idle-verbrauch egal ist, die dinger sollte man ja schon auslasten.

interessant, dass nvidia die (enthusiast-level-) gamer in der entwicklung nur noch als randerscheinung betrachtet (die sie ja sind). logisch ist es, ich entwickle einen chip, setze voll auf computing-power, die ich (zur zeit noch) nahezu konkurrenzlos (3GFlops in einer Karte) hochpreisig an den Mann bringen kann im Supercomputing-Bereich (Tesla), und generiere darüber einen gewissen cashflow und einen neuen markt.

schade ist, dass sich mit der karte zwar spiele spielen lassen, aber wenn man die cuda-funktionen nicht nutzt, die karte alles andere als effizient zu sein scheint.

ich frage mich auch, ob es klug ist, aus einem solchen design midrange-karten oder gar on-board-gpu's abzuleiten. wobei man die anzahl der shader ja stark verringern kann, bis sie auf die anzahl der tmu's usw. besser passen als beim high-end fermi. evtl. kriegt man damit, gegeben das silikon spielt mit, auch die idle-stromaufnahme in einen angemessenen bereich..

nvidia hätte einen stromsparmodus implementieren sollen, der je nach belastung einzelne shadercluster abschaltet. dann wäre die karte auch für den hausgebrauch interessant...

hehe mal sehen wo die reise hin geht. evtl. setzt nV mehr und mehr auf diesen supercomputing-weg, weil im mid- und low-range-bereich bald on-board und on-chip-grakas (wie i3/i5) die masse machen werden und dann die klassische lösung, high-end als zugpferd, midrange als goldesel nicht mehr funktioniert....

Als gamer finde ich es natürlich gut, dass dann hoffentlich wenigstens ATI weiter gaming-spezialisierte Karten macht. Nur physx-unterstützung oder etwas vergleichbares dürften sie endlich noch integrieren, ist ja seit mindestens 3 jahren in planung ;) wobei die lösung, sich hierfür eine nV extra zuzulegen, ja gangbar, aber auch nicht soo energieoptimiert ist imo ;)
 
Zuletzt bearbeitet:
ich denke mal, nvidia kann beim fermi über treiber auch noch extrem was herausholen

man sollte bedenken, dass Infoleck sowohl als auch Heises Quelle offenbar nicht mit
dem inoffiziellen 10.3 Treiber gebencht haben. Denn hier erzielt die 5850 ca. 7.2xx Punkte.



Und Ati hat mit dem 10.3 erst begonnen zu optimieren, in den vorherigen Versionen wurde nur gefixt.
Da ist also noch einiges an FPS drinn (!!!)
 
Zuletzt bearbeitet:
Mein Gott wem interessieren den die 3D Marks ?

Die Games sind viel spannender :)
 
Etwas nein wohl sehr übertrieben. Da er angeblich Vantage Extreme (1920x1200) gebencht hat wars ein 24 Zoll Moni und das würde dann ca 110 W bedeuten.


Sehr hoch gegriffen, kommt auf das Panel drauf und und vor allem wie die Helligkeit eingestellt ist. Das können auch weniger als 50 Watt sein.

Unser Test bestätigt dies. Der Benq G2400WD und der Iiyama B2403WS mit ihrer vergleichsweise geringen maximalen Helligkeit verbrauchen im Betrieb nur etwas über 40 Watt.
Flachbildschirme im Test: Die zehn besten 24-Zoll-TFTs - computerwoche.de
 
man sollte bedenken, dass Infoleck sowohl als auch Heises Quelle offenbar nicht mit
dem inoffiziellen 10.3 Treiber gebencht haben. Denn hier erzielt die 5850 ca. 7.2xx Punkte.



Und Ati hat mit dem 10.3 erst begonnen zu optimieren, in den vorherigen Versionen wurde nur gefixt.
Da ist also noch einiges an FPS drinn (!!!)

Um so besser :)

Naja ich gehe aber davon aus, wenn nV es schafft, die ganze computingpower irgendwie sinnvoll im gaming-bereich einzusetzen (bislang haben sie es ja gerade geschafft, dass die karte 3d-berechnungen überhaupt ausführen kann ;) ), dass da auch noch einiges zu holen ist. Ist ja bei ATI ähnlich, es geht um die Auslastung der Shadereinheiten, aber bei ATI ist die gesamte Architektur von vornherein besser (für die 3d-berechnung) abgestimmt. man könnte also sagen bei ati sind die ungenutzten potentiale nicht so groß wie bei der neuen nv. Frage ist halt, wird man die je nutzen können.. Bzw. in dem Zeitraum, der nV zur Verfügung steht, bis ATI nachlegt..

Und exakt, treiberoptimierungen für einige benchmarks helfen (nV) da wenig, sieht zwar erstmal gut aus, aber die karte soll ja irgendwann mal auch zum spielen genutzt werden... Da muss nV entweder noch mehr geld in die spieleindustrie pumpen oder sich etwas sehr schlaues ausdenken ;)
 
Zuletzt bearbeitet:
Nur 9% schneller 6 Monate nach der 5870 bei dem Verbrauch würde ich als fail bezeichenen.
Aber Gamebenches gibts wohl noch nicht.
 
Zuletzt bearbeitet:
Idle knapp unter einer GTX 295 könnten nur 60-70 Watt sein. Das wäre das dreifache einer HD 5870.
 
@Grinsemann

Wären dann eher 2,5 - 3,5 mal soviel Verbrauch idle wie eine 5870. Klingt echt erschreckend.

ne 5K verbraucht doch 27W im Idle, oder?

GTX295 DB Test

na dann kann man nur hoffen, dass die satte Arbeit im Kühlsystem geleistet haben, denn meine x2 war schon nervig, geschweige wenn man ein SLI plant
 
und weiter gehts..

Beyond3D Forum - View Single Post - NVIDIA GF100 pre-release speculation

10032217007ff36decd61398ab.png
 
Da würde die GTX 480 unter Idle so viel ziehen wie eine HD5750 unter Last, muss man sich mal geben.
 
Da würde die GTX 480 unter Idle so viel ziehen wie eine HD5750 unter Last, muss man sich mal geben.

Ich geh mal davon aus das da auch ein deutlicher Leistungsunterschied herrscht, das muss man sich mal geben
 
Ich geh mal davon aus das da auch ein deutlicher Leistungsunterschied herrscht, das muss man sich mal geben


Es ging darum aufzuzeigen in welcher Dimension der Idle Verbrauch herrscht. Aber das war wohl wieder zu schwer, oder? Wie groß der Leistungsunterschied unter 2D sein wird, bleibt außerdem abzuwarten.
 
Wenn die schon Mäuse und Mauspads zu den GTX 480 dazugeben, warum dann nicht mal einen Kaffeetassenwärmer? Man könnte den hohen Verbrauch idle doch sinnvoll nutzen. Muss man sich nur was ausdenken, wie man die Wärme von der Karte auf den Tisch bekommt. Aber da fällt den Ingenieuren von Nvidia sicher was kreatives ein ;)
 
Klar der ist im 2 D schneller als ne 5770 in 3D da darf er auch im Idle soviel brauchen als ne 5770 unter Furmark.:)
Aber nen schönen Kühler hat sie ist doch auch was.
 
Zuletzt bearbeitet:
Ich rechne in Games und unter Berücksichtigung aktivierter Tesselation, bis zu 40% schneller, als eine HD5870. Leistungsmäßig wäre NV damit voll im Soll.
 
Metro mit Tesselation wurde nicht für den GF100 optimiert, sondern eher andersrum :wink:

gehopst wie gesprungen :coolblue:

Ich rechne in Games und unter Berücksichtigung aktivierter Tesselation, bis zu 40% schneller, als eine HD5870. Leistungsmäßig wäre NV damit voll im Soll.

bis Tesselation breit genutzt wird, ist der Fermi Schnee von Gestern.
Und da klopfen auch schon die Ati 6000 an die Türe *klopf* *klopf* :coolblue:
 
Ehm nein, FC2 und Metro dürfen gleichermaßen getestet werden! Nur weil diese Spiele Nvidia optimiert sind? Völlig egal, das sind viele!

Natürlich müssen auch andere Spiele gestetet werden...

@OliverM84: Wieso kannst du uns Werte geben? Woher?

Und was soll dieses Gerede von wegen, Schnee von gestern wenn Tesselation voll genutzt wird? Natürlich gibt es bald wieder schnellere Karten, na und???? Wenn man jetzt ne 480GTX hat und diese 1-2 Jahre behalten möchte wäre es doch wunderbar, wenn die Karte mit Tesselation deutlich schneller wäre, als ne 5870! Ich fänds gut, aber ob es zutreffen wird?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh