nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Ja das ist klar..
Worüber ich mich freuen würde wäre mal eine Ultra version die zwar överkill vom pcb ist dafür aber einen standart hat so das man auch ne komplett wakü bekommt nicht so wie bei den eigenen layouts...

Gibt NV das Layout von Anfang an frei?
Ich meine mich zu erinnern, das dies nicht der Fall ist, und bei der 4x0er eben NV vorerst vorschreibt, wie die Karten auszuschauen haben...

Dann kann man ja quasi auch nix falsch machen was den Kauf einer Wakü betrifft ;)


@Neurosphere
das war zu erwarten, ich hab da sowas munkeln gehört...
Aber nix genaues weis man nicht. Im Moment scheint es aber so, als wären noch absolut keine Karten wirklich im Umlauf bei den Redaktionen oder bei irgendwelchen Privatleuten...

Die Asiaten hatten ja damalas immer vor jedem Release Infos und Benches veröffentlicht, im Moment ist aber neben ein paar rausgepickten Benches seitens NV selbst nix im Umlauf.

Ein Schelm wer bösed denkt :fresse2:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ja schon nur wenn wieder die oc varianten kommen mit sehr krassem oc vermögen siehts wieder anders aus denke ich! wird wieder sonder layouts geben!
 
Mhh ja gut, das könnte sein... Aber ich finde das jetzt nicht zu tragisch muss ich sagen, muss man halt ein bisschen Infos vorher zusammen suchen. Dann geht das auch.
Ehrlich gesagt halte ich auch nicht viel von der immer nur Baby Einfach Politik im PC Bereich...
 
Da steht doch nur Müll.

ZB:Es seien mehrere aktuelle Spiele getestet worden, doch Einzelergebnisse dürfe man nicht nennen, da Nvidia sonst die Quellen nachvollziehen könne.

Ja klar da kommt n Benchmark mit Stalker COP und NVidia weiss sofort dass er von EVGA kommt oder falls es ein benchmakr von CODMW2 ist dann war es sicher MSI.

So ein Müll.

Und wenn die Graka im Idle 70c bei 70% Lüfterumdrehungen hat würdn es bei last un 100% sicher mehr als 125c.

Quelle ist Semiaccurate :rolleyes::wall::rolleyes:
 
Die erste Zeit ist immer Referenz Design daran müssen sich auch die OC Modelle halten.
 
er perpetuu mobile, stromversorgung für 300watt, wärmeausstoß für 305^^ schon klar...
 
Rechnung von SemiAccurate:

GTX470 => 225W/14(BlöckeSP470)*16(BlöckeSP480)=305W => Verbrauch GTX480

Rechnung überall wo anders auf der Welt

GTX470 => 225W/14(BlöckeSP470)*16(BlöckeSP480)=258W => Verbrauch GTX480

Und jedes mal 70°C Idle und 70% Lüftergeschwindigket, "aber nicht störend" bei einem angeblichem "1,8A Radiallüfter".

Bitte erschießt den Kerl. Wie kann ein Mann alleine so viel Müll von sich geben.

NVidia soll die Karte auf den Markt bringen. Beweisen das die Euserungen haltlos sind und dem Mann die Eier daraufhin abreißen wegen Kundenverhetzung und ruinierung des Geschäfts.
 
Zuletzt bearbeitet:
Rechnung von SemiAccurate:

GTX470 => 225W/14(BlöckeSP470)*16(BlöckeSP480)=305W => Verbrauch GTX480

Rechnung überall wo anders auf der Welt

GTX470 => 225W/14(BlöckeSP470)*16(BlöckeSP480)=258W => Verbrauch GTX480

Du weist aber schon das die TDP Angaben die ganze Karte betreffen und nicht allein die Anzahl der Shadereinheiten?
Ebenso ist es derzeit extrem ungewiss die die anliegende Spannung bei den Karten ist, sprich kommt die große vllt mit mehr Spannung daher um den stabilen Betrieb zu gewährleiten? Wer weis, wer weis...

Schlussendlich bleibt wiedermal nur abzuwarten was am Ende bei rum kommt, zumahl die TDP Angabe nix mit der viel entscheidenderen Leistungsaufnahme zu tun hat...
 
Rechnung von SemiAccurate:
70°C Idle und 70% Lüftergeschwindigket, "aber nicht störend" bei einem angeblichem "1,8A Radiallüfter".
Bitte erschießt den Kerl. Wie kann ein Mann alleine so viel Müll von sich geben.
des rätsels lösung ist recht einfach: das ist gar kein radiallüfter, sondenr ein windrad. durch die extremethermik schon im idle wird ein sog erzeugt, der das teil quietschend in bewegung setzt und diedifferenz zwischen bereitgestellter energie und benötigter energie erzeugen muss. deshalb auch die angabe "1,8A".
also wirklich ein perpetuum mobile! zwar nicht 1. grades, aber immerhin...
 
@fdsonne

Die reden ja das die Graka 305W aufnimmt an Leistung. Also nicht TDP sonder reel Verbrauch und die GTX470 ja nur 225W TDP=> reele Aufnahme weniger. Wo soll die Graka bitte noch ca. 100W verbrauchen. Hat das ding eine Lasershow auf der Platine integriert?

Glaubst du nicht wenn ich ein elektrisches Bauteil auch 20% größer mache, das der Verbrauch auch nur um 20% steigt.

Sonnst würde ein Staubsauger mit einem 20% Stärkerem Motor auch gleich 100% mehr verbrauchen.

@Poloniumium

Also eine Wärmepumpe, die die innere Wärme nutzt um dann mein Zimmer zu heizen.

Cool, ist gekauft.
 
Zuletzt bearbeitet:
@fdsonne

Glaubst du nicht wenn ich ein elektrisches Bauteil auch 20% größer mache, das der Verbrauch auch nur um 20% steigt.

Sonnst würde ein Staubsauger mit einem 20% Stärkerem Motor auch gleich 100% mehr verbrauchen.

@Poloniumium

Also eine Wärmepumpe, die die innere Wärme nutzt um dann mein Zimmer zu heizen.

Cool, ist gekauft.

Wo steht das der kleine Fermi Ableger in allen Belangen exakt genau um den Wert, den du oben ins Verhältniss gesetzt hast, seitens der Daten unter dem großen Ableger liegt?
Nur weil die Shadereinheiten so abgespeckt wurden bei der kleinen Karte muss das nicht auf alle anderen Bereiche zutreffen... Das ist der Punkt.

Und gerade wenn man sich im Grenzbereich des technisch aktuell machbaren begibt, ist oft jeder weitere Performancesprung mit deutlich mehr Stromverbrauch verbunden als das noch in deutlich kleineren Regionen der Fall sein kann. Denn wie gesagt, die anliegenden Spannungen sind unbekannt aktuell. Wenn die 480er GTX mehr Spannung benötigt um die Einheiten in Summe stabil zu halten, braucht sie auch mehr Leistung seitens des NTs. So einfach ist die Rechnung.

Und wie gesagt, TDP sagt gar nix aus. Vllt räumt man seitens NV auch der 480er ein deutlch größeres Poster in Sachen Kühlleistung ein als der kleinen Karte?
 
Annahme GTX470 braucht 200W, Spannung 1,1 V

Für die GTX480 Annahme 300W, da auf gleichem Siliciumprozess basierend kann bis auf die Spannung alles als Konstante angenommen werden.

Um witere 100W zu Verbraten müsste die GPU mit ca. 1,65 V betreiben werden.

Bei 470 0,9V wären bei 480 1,35V. Selbt dann wäre die Elektronenmigration so hoch für einen 40nm Prozess.

Es ist utopisch, das der 470 ca. 200W verbraucht und der 480 auf einmal 305W aus der Leitung zieht.

Es handelt sich hier um eine Grobabschätzung. Ich weiß das die Spannung im Quadrat in die Leistung eingeht.
 
Zuletzt bearbeitet:
Erstaunt bin ich nur über den Satz: Das in Bechmarks die jetzigen Treiber Grafikfehler verursachen, könnt ihr euch an das grisseln bei der 7800 erinnern da war es wohl ein ähnlicher Fall.

mfg
 
ich meine Mal etwas gelesen zu haben, je mehr Wärme ein Chip produziert umso mehr Spannung benötigt er für den stabilen Betrieb, wenn man sich nun anschaut wieviel größer der Vollausbau des Fermi ist, kann das schon hinkommen. Ich finde der Kühler und die Karte machen jetzt aber nicht den Eindruck eins solchen Heisssporns, aber das ist rein subjektiv.

Noch eine Frage: Stand auf der 470er nicht 275? und auf der 480 375?
kann es sein das Nvidia die nicht für 480 GTX tauglichen A2 Steppings auf den 470ern verbaut, würde sich ja mit den Gerüchten decken um die 448Shader und mit dem A3 Stepping es geschafft hat die 512 Shader funktionstüchtig zu bekommen?

Bei den Releaseterminen der entsprechenden PC-Magazine, welche kommt denn ungefähr um den Dreh des Release raus, würde mich nur interessieren ob wirklich erst am 28. NDA fällt oder nach der East-Pax am 26. eh alles wurscht ist und die Fakten auf dem Tisch liegen.
 
Die info sperre ist zum verrückt werden es wird langsam Zeit das gute Test online gestellt werden, so wie es jetzt ist würde ich sagen das ich noch nicht ganz überzeug bin als potenzieler Käufer, und was ich davon und dem ganzen Theater auf dauer halten soll.

mfg
 
Um mit der 470 200W zu verbrauchen und der 480 300W müssten die Spannungen so aussehen.

470 1,1V => 480 1,5732V
470 1V => 480 1,5V
470 0,9V => 480 1,423V

Nicht reel.
 
Zuletzt bearbeitet:
wie machen das eigentlich die ganzen portale zum metro-test?
die optimalempfehlung für das spiel, legt dem nutzer ja ne fermi nahe, das spiel kommt aber 10tage vor der präsentation raus und ist immer noch ne woche vorher spielbar (ab 19.03)
also entweder testen dann alle mit nem anderen hardwaregespann oder es gibt keine perfektdarstellung bzw. reißen sich alle wieder nur um die hardware, wenn es irgendwo auf maximum gezeigt wird...
 
@Poloniumium

Das ist doch ganz einfach. Man nehme eine GTX285, messe die FPS und multipliziere die dann mit 2 für den Fermi. :fresse:
 
@fdsonne

Die reden ja das die Graka 305W aufnimmt an Leistung. Also nicht TDP sonder reel Verbrauch und die GTX470 ja nur 225W TDP=> reele Aufnahme weniger. Wo soll die Graka bitte noch ca. 100W verbrauchen. Hat das ding eine Lasershow auf der Platine integriert?

.

Nein aber Overclockingfeatures

Lesst doch mal die News bei Domaninaber genau,dort steht das es sich um eine OC Version handelt

Was ist daran verwunderlich das diese bis zu max 305 Watt (PCie Spezifikation) aufnimmt?

Selbst meine alte 280GTX kann ich ohne Probleme mit ein Bisschen OC an diesen Wert u darüber hinaus bringen,je nachdem wie gut das NT ist
 
Zuletzt bearbeitet:
Bei 470 0,9V wären bei 480 1,35V. Selbt dann wäre die Elektronenmigration so hoch für einen 40nm Prozess.

Das heisst Elektromigration und nicht Elektronenmigration. Da migrieren nämlich keine Elektronen sondern Ionen. Wenn das Elektronen wären, dann wäre das kein Problem. Die haben nämlich so gut wie keine Masse und können somit eher schlecht zu Unterbrechungen oder Kurzschlüssen in den Leiterbahnen führen.

Nur so zur Info :bigok:
 
Poloniumium schrieb:
wie machen das eigentlich die ganzen portale zum metro-test?
Am Dienstag gehen die Benches online. Mit HD3k bis HD5k sowie GF8 bis GTX200. Fermi muss warten bis zu seinem Auftritt.
 
@y33h@: kann man das maximum an qualität in dem test schon erwarten/ nutzen oder muss man da unbedingt noch auf fermi warten?
sei mal bitte etwas indiskret und mach noch mehr appetit auf deinen test, bitte. ;)
 
scully1234 schrieb:
Nicht mal nen klitzekleinen Seitenhieb auf das bevorstehende Produkt?
Fermi erhält eine Erwähnung. Software verkauft Hardware.

@ Poloniumium

Auch mit einer HD5870 ist die maximale Optik möglich, sogar erweiterte PhysX-Effekte.
 
Laut den Entwicklern ist dies der Fall. Mit einer HD5k ist durch "Advanced PhysX" kein großer Leistungsabfall zu messen bzw. in GPU-limitierten Szenen überhaupt keiner.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh