nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Das war doch nur die Kartonage :fresse:
zwischenzeitig hat es geheissen das die Karte nur mit wie bisher gehabten 2x DVI Anschlüssen erscheinen soll

€dit: mann son Kack^^
nen riesen Text geschrieben und dann komme ich versehendlich auf die Löschtaste und alles ist futsch *G*
jetzt habe ich auch keine Lust mehr :fire:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
richtig, neues Benennungssystem.
Fermi = vorerst nur GTX480 und GTX470
alter Käse = 3xx Karten ;)
- kein DX11 nur 10.1 meine ich - weiss aber nicht mehr genau, da für mich tertiär

ist aber auch schon alt die Info !?!

also wenn ich das richtig verstehe

3xx Karten sind G80 Architektur Karten in 40nm

4xx Karten sind die Überarbeitete Architektur in 40nm

also wer bitte kauft sich 3xx karten wenn die 2xx kaum schlechter und deutlich günstiger sind ?
 
Die 600W sind nichts aussagend über den Verbrauch, weil es Angaben für BIllig NT sind.
Eine GTX280 hat die gleichen Vorrausetzungen.
Hier ist der 6 und 8Pin interessanter. -->max 300W naja Pcie Spezifikation.
 
Bei 12 Volt 42 A kann kein billig netzteil sein. Haben die billig Netzteile nämlich meist nicht.
 
Zuletzt bearbeitet:
Bei 12 Volt 42 A kann kein billig netzteil sein. Haben die billig Netzteile nämlich meist nicht.
Trotzdem nur eine Absicherung. Und da GF100 auch Spannungserhöhung unterstützt, sieht der Verbrauch schon recht gut aus und dürfte in etwa auf GTX280 Niveau bzw. leicht darüber liegen. Aber das hat man eh schon vorher vermutet, außer Charlie.
 
@Motkachler
Überlege mal . Wie ich schon geschrieben habe, aht die GTX280 die selben ANforderung und es hat sich gezeigt, das selbst ein 400W locker reicht.
Außerdem 12V*42=504W
1*6pin +1*8pin+PCIESlot =max 300
Da die Angaben in in der REgel mit einem i7 @3,2GHz(sprich die Extreme Variante gemacht werden) kann man von 120W nochmal ausgehen.
D.h. 84W bleiben übrig für das restliche Zeug. Und dies unter sehr realitätsfernen Bedingungen.
 
@Motkachler
Es geht aber in dem Fall um eine GTX480 und nicht um die GTX470.
Wer weis. Vielleicht die GTX470 nur zwei 6*pin . Sprich max.225W
Somit würde sie unter Furmark nur 25W über der HD5870 liegen.
Zu dem sollte man den Lastverbrauch nicht überschätzen oder lasst ihre eure Rechner 24H sieben Tage die Woche laufen ?
Ich glaube wohl kaum. Wenn der Fermi gute Energiesparmechanismen im Idle mit sich bringt, gleicht sich, dass mehr aus
 
Klar wichtiger ist der idle verbrauch bei Highend karten. Aber ich denke auch die 470 wird mit ihrem riesen Chip beim verbrauch nie an die 5K von ATI hinnkommen. Auch beim IDLe Verbrauch. Und 42W bei 12 Volt für die 480 ist schon ne menge Holz da gibts nicht so viele Netzteile die das haben.
 
Zuletzt bearbeitet:
Klar wichtiger ist der idle verbrauch bei Highend karten. Aber ich denke auch die 470 wird mit ihrem riesen Chip beim verbrauch nie an die 5K von ATI hinnkommen. Auch beim IDLe Verbrauch. Und 42W bei 12 Volt für die 480 ist schon ne menge Holz da gibts nicht so viele Netzteile die das haben.

Ja dass stimmt auch. Deswegen sind diese Angaben auch totaler Schwachfug.
Mein Silent Pro schafft grad mal 34A.
 
Mich intresiert vor allem die Hardware-Seitige overclocking Eigenschaften der Fermi Karte wie das aussehen wird wie von NVIDIA versprochen, dazu gabs nur sehr wenig darüber zu lesen, ob die Karten bis Ende April bei allen Händler lieferbar ist bezweifle ich. :hmm:

mfg
 
Mich intresiert vor allem die Hardware-Seitige overclocking Eigenschaften der Fermi Karte wie das aussehen wird wie von NVIDIA versprochen, dazu gabs nur sehr wenig darüber zu lesen, ob die Karten bis Ende April bei allen Händler lieferbar ist bezweifle ich. :hmm:

mfg


Wenn ich das alles richtig verstanden habe, gewährleistet Nvidia den Boardpartnern nur ein Jahr Garantie, wie gut sich die Karten dann dennoch takten lassen wird man sehen.
 
Aber den noch sie werden OC Karten anbieten, aber sicher ned von Anfang an, die infos sind eher rar, als das etwas verlässliches ans Licht kommt. Werde den Test von Luxx abwarten was der so sagt.

mfg
 

Anhänge

  • 4801-big.jpg
    4801-big.jpg
    134,9 KB · Aufrufe: 85
Zuletzt bearbeitet:
Das heißt auch wiederum das die 480er GTX vom Verbrauch her gar nicht am oberen Limit liegen kann,wegen der Overclockingfunktionen
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh