nVidia GF100/Geforce 4xx [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gelesen was Froschn geschrieben hat

Es sieht so aus als wenn der Fermi nicht so viel schneller ist als das es nicht möglich ist den zu knacken. ATI versucht es halt mit schelleren 5K karten ob es möglich ist wird man sehen. NV muss sich den Vorteil anscheinend mit sehr hohem Verbrauch erkämpfen.
Ich persönlich glaube nicht das es den Fermi so wie er jetzt ist lange geben wird.
Er dürfte kaum so schnell werden das er 70% mehrverbrauch rechtfertigen würde. NV wird da sicher schnellstmöglich versuchen was dran zu ändern
 
hmm hätten die bei sapphire auf 1 ghz getaktet, dann wär ja was geworden.
Die leistungssteigerung ist eifnach zu klein,
 
Zuletzt bearbeitet:
Es sieht so aus als wenn der Fermi nicht so viel schneller ist als das es nicht möglich ist den zu knacken. ATI versucht es halt mit schelleren 5K karten ob es möglich ist wird man sehen. NV muss sich den Vorteil anscheinend mit sehr hohem Verbrauch erkämpfen.
Ich persönlich glaube nicht das es den Fermi so wie er jetzt ist lange geben wird.
Er dürfte kaum so schnell werden das er 70% mehrverbrauch rechtfertigen würde. NV wird da sicher schnellstmöglich versuchen was dran zu ändern

Nur was will man denn am Fermi ändern?
Wenn das Teil mit 3Mrd. Transistoren kommt, schluckt es nunmal Strom ohne Ende... Ich traue ja NV das ein oder andere Kunststück zu, aber zaubern können sie nun auch nicht ;)

Ich meine also mal, selbst wenn man über die Monate mit der Produktion besser dasteht, wird man durch Spannungssenkungen so viel nicht einsparen können... (meine Vermutung)
 
Nur was will man denn am Fermi ändern?
Wenn das Teil mit 3Mrd. Transistoren kommt, schluckt es nunmal Strom ohne Ende... Ich traue ja NV das ein oder andere Kunststück zu, aber zaubern können sie nun auch nicht ;)

Ich meine also mal, selbst wenn man über die Monate mit der Produktion besser dasteht, wird man durch Spannungssenkungen so viel nicht einsparen können... (meine Vermutung)
Auf 32 bzw 28 nm shrinken wär ne möglichkeit wie schnell das möglich wäre weis ich nicht.
 
Das ist ja schon uralt :lol:

"Als Grundlage für diese Benchmarks dient jeweils die effektive Rohleistung der Produkte. Die Darstellung erfolgt mittels einer Verhältnis-Angabe zu einem Referenzprodukt, wobei das Referenzprodukt mit 100% den Ausgangswert darstellt und die sonst ausgewählten Produkte sich darüber oder darunter platzieren."

Aber scheinbar haben die da was mächtig vermasselt ;)
Wenn es um Rohleistung geht, müsste die AMD Karte mehr wie 50% über dem Fermi sein ;)
 
:btt: war gewünscht, diese Charlie Diskusion hat hier nix verloren. Punkt aus Ende!!!
Ist genauso OT wie eine ganze Seite zum Thema Heaven Benchmarks mit einer ATI HD5850@HD5870
Durchwischen sag ich da nur ;)

P.S: Und meinen Post jetzt gleich noch dazu
 
Ist genauso OT wie eine ganze Seite zum Thema Heaven Benchmarks mit einer ATI HD5850@HD5870
Durchwischen sag ich da nur ;)

P.S: Und meinen Post jetzt gleich noch dazu

Nein nichtig wirklich, auch wenn die AMD Benches durchaus schon grenzwertig sind lässt sich anhand dieser Werte einordnen, wie bei aktueller Newslage der Fermi dasteht. Man ist somit noch gut beim Thema...
 
Zuletzt bearbeitet:
Das geht wohl auch schlecht mit karten die bei Full load nahe 300W ziehen. und so wirds kommen auch wenns scully nicht glaubt.

könnte mir aber vorstellen wie damals bei der voodoo 5 6000 mit einem separaten netzteil :fresse2:
 
könnte mir aber vorstellen wie damals bei der voodoo 5 6000 mit einem separaten netzteil :fresse2:

Klar aber wohin mit der Abwärme?
Heute 1kW+ NTs sollten selbst zwei Fermis wenn sie mit 300W Verbrauch kommen sollten spielend auf einer Arschbacke beliefern können... Die Abwärme wird wohl das größere Übel sein...
 
Klar aber wohin mit der Abwärme?
Heute 1kW+ NTs sollten selbst zwei Fermis wenn sie mit 300W Verbrauch kommen sollten spielend auf einer Arschbacke beliefern können... Die Abwärme wird wohl das größere Übel sein...

Ja geil. Immer her damit...dann gibts hier demnächst Stromzählerbenchmarks......welcher dreht schneller :lol:
 
Oder vier 8Pin Anschlüssen und mitgelieferter Wasserkühlung ;)

oder gar in einem eigenen gehäuse wo nur ein breitbandkabel zum pci-e anschluss führt :shot:

dualkarte bleibt für mich auf der jetzigen basis einfach nur unrealistisch. zuviel strom und zuviel abwärme und evtl einfach zu hohe produktionskosten. also auf refresh warten wie damals beim g80 zu g92
 
Da ist Zensursula wieder was wichtiges zum Opfer gefallen:

Fudzilla - Dual Fermi card uncertain

Scheint so als würden sich die Vermutungen bestätigen. Dual-Fermi wird kein Them in naher Zukunft.

Da steht nicht wirklich was neues, denn Juni 2010 ist doch ca. 2 Monate nach dem Release. Bis jetzt ist man doch eh von min 2 Monaten ausgegangen. Die Abwärme dürfte allerdings wirklich ein Problem sein.
 
Ich glaube nicht, dass das so ein Problem wird wie hier beschrieben ^^

Nvidia hat doch angeblich neue und bessere Kühler, außerdem sagt ja keiner, dass der Kühler einer etwaigen Dualkarte leise sein muss.

Mit viel Umdrehungen lässt sich da einiges machen.

Außerdem wage ich mal zu behaupten, dass mind. 75% der Käufer einer "Dual-Fermi-Karte" wissen, dass dieses Teil wohl kaum leise sein kann.
 
@Hentur

If all goes well we might see the dual Fermi or some derived dual Fermi around Computex time, in the first days of June 2010.

Da steht es mag sein, dass man erste Karten im Juni zu sehen bekommt. Wenn man sich erinnert, wann man die ersten Fermi Karten zu sehen bekam und wann die dann zu kaufen sein werden, dann wird man schnell bemerken, dass es dann nochmal Monate dauern kann, bis die Karten wirklich verfügbar sind. Und so wie es aussieht wird es Dualkarten nur mit den kleineren Derivaten geben, und da sind noch nichtmal entsprechende Einzelkarten aufgetaucht. Daher rechne ich dieses Jahr nicht mehr mit verfügbaren Dualkarten. Wenn denn überhaupt noch welche kommen...
 
Ich denke die müssten den jetzigen Fermi zu sehr beschneiden um unter 300W TDP zu kommen. Und tüfteln daran das er weniger verbraucht bis ne Dual kommt. Die dann auch mithalten kann. Sonst lohnt sichs nicht.
 
Zuletzt bearbeitet:
hört doch auf Negatives über Nvidia zu schreiben

geht mal bischen raus oder so...
 
Das geht wohl auch schlecht mit karten die bei Full load nahe 300W ziehen. und so wirds kommen auch wenns scully nicht glaubt.
.

Bis jetzt weiß ich nur Gerüchteweiße von einer 470er mit 225Watt TDP die 215 Watt ziehen soll unter Furmark.

Warum sollte sich das bei der mit 250Watt TDP bezifferten Karte plötzlich um 50 Watt ins Gegenteil ändern

2 Unterschiedliche TDP Bewertungsgrundlagen wird Nvidia wohl nicht anwenden
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh