nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4

Status
Für weitere Antworten geschlossen.
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schon komisch das die Probleme ausgerechnet jetzt behoben sind wo Nvidia die Massenproduktion des Fermi ankündigt.

Wenn diese Probleme angeblich behoben sind,dann werden die Fehlerquoten bei der Fertigung auch nicht so dramatisch ausfallen;)

Mist doch kein Respin:fresse:
 
Zuletzt bearbeitet:
Schon komisch das die Probleme ausgerechnet jetzt behoben sind wo Nvidia die Massenproduktion des Fermi ankündigt

Vielleicht hat man mit der ankündigung der massenproduktion aber auch einfach nur gewartet bis produktionsprobleme beseitigt sind... und die fermi produktion somit nicht zu teuer wird ;)
 
wo steht was von Massenproduktion? hat das TSMC bestätigt?
 
nunja es hat damals die AMD und nv user auch nicht davon abgehalten eine karte zu kaufen nur weil sie im 3d modus lauter wurde. nur weil AMDs karte jetzt unter 3D etwas leiser ist als damals muss sich daran noch lange nichts geändert haben.

ich für meinen teil werde auf H²O setzen :>
 
Wer auf Stromkosten wert legt kauft sicher nicht im Highendbereich ein.

Das wäre das selbe als ob ein Ferrari Käufer nach dem Verbrauch schaut:cool:

Er sollte im Rahmen bleiben aber ist im Highendbereich trotz allem nicht das Hauptargument,genauso wenig wie der immer wieder angeführte Preis u das Argument"das kauft niemand zu dem Preis"

Bestes Beispiel 5870 ist ebenso überteuert u trotzdem wird sie gekauft


das ist einerseits korrekt, allerdings wenn ich jetzt mal auf das Kühlkonzept schiele, dann bedeutet eine Karte mit VIEL Stromverbrauch eine entsprechende Abwärme die ausgetauscht werden muß. Leider scheint es ja so zu sein, daß die Karte extrem heiß wird und das verspricht nicht unbedingt einen leisen Lüfter. Mal abgesehen von weiteren negativen Nebeneffekten einer heißen Graka im Case, erst recht im SLI. Das ist für mich persönlich DAS Argument welches nicht unbedingt für Fermi spricht.
Was den Preis angeht, sobald die Karte Released wurde gehe ich stark von einer raschen Normalisierung bis gar zu Kellerkursen bei ATI aus um die Karte attraktiver zu machen. Außerdem macht ATI ja nicht die Kurse, sondern der Markt. Dementsprechend erhoffe ich mir auch einen vernünftigen Preis für die Fermikarten.
 
http://www.brightsideofnews.com/news/2010/1/21/nvidia-gf100-fermi-silicon-cost-analysis.aspx
We know that mass production of GF100 boards will initialize in first week of February, with other AIB partners following in second, third and fourth week of February.

Hört sich schon mal gut an, hoffe Anfang März ist dann genug Material vorhanden :) Trotzdem dauerts noch en bissl und zur Leistung und dem Preis ist ja immernoch nicht viel bekannt....noja, man ist gespannt :)
 
das ist einerseits korrekt, allerdings wenn ich jetzt mal auf das Kühlkonzept schiele, dann bedeutet eine Karte mit VIEL Stromverbrauch eine entsprechende Abwärme die ausgetauscht werden muß. Leider scheint es ja so zu sein, daß die Karte extrem heiß wird und das verspricht nicht unbedingt einen leisen Lüfter. .

Noch kennt allerdings niemand den finalen Kühlkörper noch die max TDP,alle Aussagen(Gerüchte) in die Richtung sind von einem Gehäuse Hersteller,der von Nvidia als Auslegung eine max TDP von 300watt bekommen hat;)


Da wir aber von Nvidia schon bestätigt bekommen haben,das die Karten mit einem Voltage Tuner/Overclockingfunktion kommen wird,ist es nur verständlich das die Gehäuse eben auf diese hohe TDP ausgelegt werden müssen wenn Nvidia dafür ihren Namen hergibt u damit garantiert das sie in jeder Situation funktionieren

Aufgrund dieser Aussagen auf die Lautstärke des Kühlkörpers(Lüfters) u Standard TDP zu schliessen ist weiterhin Spekulatius:fresse:
 
Zuletzt bearbeitet:
Ich bezog mich eigendlich da mehr auf die Aussage von dem Typen aus dem CES Video.
....die Karte ist heisser als die heisseste ATI. Da waren doch gleich einige am diskutieren ob dies nun die x2 mit einschließen würde. Wenn die nun 2°C wärmer wird als ne normale Referenzkarte von ATI, dann haben alle um sonst geschriehen. :fresse:
 
also das eine wärmer wird als ne 5970 bezweifel ich einfach mal ganz stark. vielleicht war das "heisser" als alles von ATI aber auch auf was ganz anderes bezogen :d
 
Die finale Karte wird zwar 6+8 Pin Anschlüsse haben, heißt aber nicht zwangsläufig, dass sie standardmäßig mehr als 225 Watt ziehen wird. Auch die TDP von 280 Watt, die bisher gemunkelt wird, kann inkl. des Taktpotentials sein. Fermi wird ja Spannungserhöhung unterstützen. Ich würde keine allzu heiße Karte erwarten. Sicher mehr Verbrauch als eine 5870. Dazu muss man kein Hellseher sein. Aber übermäßig mehr muss es nicht sein.
Abwarten.
 
Hmm schau mer mal wie sich das entwickelt. Leider kam Fermi zu spät für meine Aufrüstung.
Hätte gern mal wieder ne NV gehabt.
Was zwingt dich denn so sehr zur Aufrüstung? Auch wenn die 5000er sicher gute solide Karten sind, spektakulär ist was anderes... in den Extremsettings in denen meine jetzigen Karten zu lahm sind, da sind die größtenteils auch immer noch zu lahm. Von daher besteht bei mir irgendwie Null Kaufinteresse an einer AMD - wenn was neues reinkommt, dann gleich was "richtiges", sprich Fermi.
Und wenn Fermi sich nicht spürbar absetzen kann, dann wird eben gar nichts neues gekauft und auf den nächsten Chip gewartet *schulterzuck*
 
wie ist das eigentlich mit dem surround gaming+3d, wird das mit dem fermi eingeführt oder soll das mit allen nv karten im sli gehen die auch 3d jetzt schon können ?
 
wie ist das eigentlich mit dem surround gaming+3d, wird das mit dem fermi eingeführt oder soll das mit allen nv karten im sli gehen die auch 3d jetzt schon können ?

Das soll dann auch mit den G200 Modellen gehen,allerdings sind dazu 2 Karten von Nöten,da eine Karte nur 2 Monitore ansteuern kann:)


The reason why SLI is needed is because both the GT200 series and the GF100 cards are only capable of having a pair of display adapters active at the same time

http://www.hardwarecanucks.com/foru...idia-s-geforce-gf100-under-microscope-15.html

Ich frag mich allerdings ob man bei einem Tripple SLI System die Lastenverteilung nicht auf alle 3Karten legen kann,also je ein Monitor pro Karte:hmm:

Dazu scheints noch keine Infos zu geben:confused:
 
Zuletzt bearbeitet:
??

hat mal einer bitte irgendwo ne Produktvorschau mit Bild usw.

Wollte ganz gerne mal wissen was die Karten für ne grösse haben werden.

Oder mal den Stromverbrauch.

die gtx260 sind ja nicht normal damit


mein pc schaltet ab wenn ich zb. crysis auf maximum zocke. 460 watt nt.

weil ich wollte nächstes jahr nicht NaCHZAHLEN bei meinem Stromversorger.
 
die gtx260 sind ja nicht normal damit


mein pc schaltet ab wenn ich zb. crysis auf maximum zocke. 460 watt nt.

weil ich wollte nächstes jahr nicht NaCHZAHLEN bei meinem Stromversorger.

Wenn du erwartest das eine neue Highperformance Karte im Full Load weniger Energie verbrät bei doppelter?? Leistung zur Vorgänger Generation wärst du sehr naiv:)

---------- Beitrag hinzugefügt um 21:16 ---------- Vorheriger Beitrag war um 21:16 ----------

geht das dann auch mit einer dual karte ?

MMh gute Frage:cool:

Wenn die Karte je 3 Displayausgänge hat könnte es funktionieren,aber gesichert ist das nicht ob das mit Gemini?? funzt.

Ich bin ja mal gespannt ob dann das Runtertakten geht per Treiber bei so einer 3Display Konfig,wobei ich da wieder arg dran Zweifel:fresse:
 
Zuletzt bearbeitet:
weil ich wollte nächstes jahr nicht NaCHZAHLEN bei meinem Stromversorger.

ICH an deiner Stelle würde performa für nächstes Jahr monatlich ein paar € drauf legen, denn allgemein benötigt dein PC immer mehr power. Solltest du ne Rückzahlung bekommen ists doch um so schöner :xmas:.
Was sollen denn die Enthusiasten sagen mit ihren Tripple SLI und 1,2k NTs^^ Nen 20,-€er kostets im Monat dann schon an Saft für den PC....man lebt nur einmal...und jeder kann dir bestätigen das das Hobby PC nicht billig ist :d
 
Zuletzt bearbeitet:
Wollte ganz gerne mal wissen was die Karten für ne grösse haben werden<<<<<




Nvidia hat offiziell bekanntgegeben, dass jene GF100, die man auf dem Foto den Unigine-Engine-Benchmark rendern sieht, 10,5 Zoll lang ist und damit dieselbe Länge einer Grafikkarte der Geforce-GTX-200-Reihe aufweisen würde. Veröffentlicht wurde diese Info bei Facebook.

Im metrischen System entsprechen diese Angaben 26,7 cm, also wirklich exakt die Länge beispielsweise einer Geforce GTX 285 im Referenzdesign. Die GF100-Fermi wäre damit sowohl etwas kürzer als Nvidias derzeit aktuelle Dual-GPU-Karte Geforce GTX 295, die es auf 27 cm bringt, als auch wie AMDs aktuelles Single-GPU-Flaggschiff Radeon HD 5870, welches eine Länge von 28 cm aufweist.
 
Was sollen denn die Enthusiasten sagen mit ihren Tripple SLI und 1,2k NTs^^

Ja und dann noch 3x120Hertz Displays für 3D Suround und das Undervolting/Runtertakten in 2D funktioniert nicht per Treiber(wovon man wohl wieder ausgehen muss),dann siehst du wie der Stromzähler sich überschlägt:wayne:
 
Zuletzt bearbeitet:
Ail hat doch nur Angst das ihn mal einer so richtig auf die Palme bringt und er sich verblabbert :d
spekus ..... naja da schreiben einige die haben Einblick in den fermi da würdeste dich kräftig wundern....
 
Stellt euch mal einen fermi mit einem GTX285 ähnlichem Kühler und 280 Watt vor, die Grösse soll ja identisch sein......

Kühlen kann man das sicherlich aber meinen Ohren würde ich das nicht antun wollen.

Bis auf Wakü wird wohl ein fermi schon aufgrund der Lautstärke ausscheiden. 180 Watt kann man noch mit ach und krach halbwegs leise mit Luft kühlen aber 280 Watt.... Hallo Staubsauger. Auf sowas wollt ihr Warten und 600 Euro ausgeben? na da viel Spaß^^
 
Stellt euch mal einen fermi mit einem GTX285 ähnlichem Kühler und 280 Watt

Und die Annahme beruht worauf?

180 Watt kann man noch mit ach und krach halbwegs leise mit Luft kühlen

Selbst eine 280 GTX kann man noch sehr gut mit 236Watt TDP kühlen mit so einem Standardkühler ohne "Ohrensausen" zu bekommen,unglaublich aber wahr;)
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    203,6 KB · Aufrufe: 59
Zuletzt bearbeitet:
Also das stromargument der ati fraktion zieht mal überhaupt nicht.
Wer sich eine 500 Euro+ Karte kaufen kann, kann auch den Strom zahlen, zumal es sowieso intelligenter ist an was sparsamen, aka laptop, zu arbeiten.
Wer an einem 3 sLI sys mit 1,2kw nt seine Worddokumente tipt, dem ist auch nicht mehr zu helfen ;)
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh