nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Auf dem verlinkten Bild sehen die beiden Lötpins ganz rechts anders aus als die anderen 12. Musste da etwa noch von Hand etwas angelötet werden, damit die Karte genügend Saft erhält?
Was für ein Netzteil wurde eigentlich verwendet?

Alles in allem klingt alles ja ziemlich übel, was Stromverbrauch angeht: 8+6-Pin Anschlüsse (=> TDP 226...300W), spezielle Fermi-zertifizierte Gehäuse von Thermaltake und Cooler Master. Für diejenigen, die französisch können:
http://www.pcworld.fr/2010/01/08/ma...dissipation-thermique-tres-importante/468101/

Retard, consommation de 300 watts, chauffe importante, autant d’éléments qui nous font dire que Fermi a beau être un bijou technologique, il semble d’ores et déjà mal né. Il se susurre d’ailleurs que la plus puissante des Fermi égalerait une Radeon HD 5870 mais pas la 5970. Pour aller au-delà de la 5870, il faudrait augmenter les fréquences et… dépasser alors la limite des 300 watts. La vie de Fermi pourrait dès lors être courte et la nouvelle génération arriverait nettement plus vite… A confirmer dans les mois à venir.

300W Stromverbrauch, Leistung vergleichbar mit HD5870 eher als 5970
 
Zuletzt bearbeitet:
Delay, Leistungsaufnahme von 300 Watt, heizt stark, alle wie wir die gesagt haben dass Fermi ein technologisches Wunder ist, sollen eines besseren belehrt werden. Gerüchteweise soll der mächtigste Fermi auch eine Radeon HD 5870 aber nicht 5970 schlagen können. Um über 5870 nivou zu gehen, müsste die frequenz erhöht werden... und dann überschreitet wer den Grenzwert von 300 Watt.

Was man nicht alles in der schule lernt
 
Da könnte auch ruhig stehen, dass der Fermi 500W zieht, solange die jemanden zitieren, der noch nie eine GTX380 in der Hand hatte, läßt mich das ziehmlich kalt. :)
 
@ Chemiker494

Ob der Techniker mit "la consommation de Fermi" nun die reale Leistungsaufnahme mit Spiel/Anwendung XY, die theoretische maximale Leistungsaufnahme gemäß PCI-E-Specs oder eine von NV benannte TDP mit den 300W meint, das ist nicht ersichtlich - aber alle drei Möglichkeiten könnten es sein. Wobei ich bezweifle, dass ein Cooler Master Ingenieur die reale Leistungsaufnahme einer GTX380 kennt, die arbeiten idR nur mit TDPs der IHVs.
 
Na gut, hier noch meine Übersetzung des Fazits:
Verspätung, 300W Stromverbrauch, grosse Hitzeentwicklung: Alle diese Elemente sagen uns, dass Fermi zwar ein technologisches Schmuckstück sein mag, aber dennoch totgeboren ist. Gerüchteweise ist zudem zu vernehmen, dass die stärkste Fermi mit einer HD5870 gleichziehen kann, aber nicht mit einer 5970. Um die 5870 zu schlagen, benötigt sie eine erhöhte Frequenz und überschreitet damit die Grenze von 300W. Fermis Lebensdauer dürfte somit kurz sein, und die Nachfolgegeneration schneller erscheinen - was in den nächsten Monaten zu bestätigen sein wird.
 
Wenn Maingear das übliche Silencer Netzteil mit 910W eingesetzt hat, welches normal 2*6 und 2*6+2 PEG Kabel hat, dann ist die Konfiguration mit 3 Kabeln sehr merkwürdig.
 
@ Chemiker494

Ob der Techniker mit "la consommation de Fermi" nun die reale Leistungsaufnahme mit Spiel/Anwendung XY, die theoretische maximale Leistungsaufnahme gemäß PCI-E-Specs oder eine von NV benannte TDP mit den 300W meint, das ist nicht ersichtlich - aber alle drei Möglichkeiten könnten es sein. Wobei ich bezweifle, dass ein Cooler Master Ingenieur die reale Leistungsaufnahme einer GTX380 kennt, die arbeiten idR nur mit TDPs der IHVs.

Ich denke auch, dass einen Cooler Master Ingenieur am ehesten die TDP interessiert. Schliesslich ist dies seine Aufgabe: diese Verlustleistung in Form von Wärme an die Umwelt abzugeben. Wieviel die Karte nun in jeder Anwendung tatsächlich verbraucht, ist wichtig für die Stromrechnung des Kunden, aber so lange der Wert innerhalb der TDP liegt, kümmert ihn das kaum.
 
Cooler Master hat seit der 88GTX iirc den Referenzkühler für die Geforces gebaut. Ist dies auch bei Fermi der Fall (bisher ist mir nichts anderes zu Ohren gekommen), so sollten die ganz genau wissen, wo das Teil was an Hitze abführt. Nicht das so ein Fail wie bei der 9800 "Toaster" GX2 rauskommt, die so viel Hitze nach unten schiebt, dass einige Chipsätze überhitzen und das MoBo abfliegt.
 
Zuletzt bearbeitet:
Hier noch der Rest des verlinkten Artikels inkl. Übersetzung:
(Ich hoffe, dassich damit nicht irgendwelche IP verletze, aber es dünkt mich wichtig, dass diese Informationen verbreitet werden, zumal in letzter Zeit Desinformation verbreitet wurde à la "das ist alles für die Overclocking Features des Fermi" HD5970 hat eine TDP von 299W und wird mit "Overclocking Features" beworben. Wieviel Luft besteht denn hier bis zur Grenze von 300W (PCIe-Spezifikation)

Si nous n'avons pas appris grand chose sur Fermi chez Nvidia, nous en avons appris davantage chez Thermaltake et Cooler Master. Le sujet qui a été abordé : le dégagement thermique des futures cartes Nvidia...

Fermi était présent sur le stand de Nvidia puisqu’un boîtier renfermait bien une carte GF100, nous l’avons vérifié par la porte latérale transparente, sans pour autant prendre de photos, les sbires verts montant la garde. Au-delà de cette brève apparition, nous avons pu discuter des futures cartes Nvidia avec les… fabricants de boîtiers. Et le moins que l’on puisse dire, c’est que nous avons été quelque peu surpris de ce que nous avons appris. Chez Thermaltake par exemple, nous avons pu voir un boîtier aux couleurs de Nvidia, l’Element V, qui sera certifié pour la GeForce Fermi 100. Pourquoi une certification ? Parce que ce boîtier dispose d’un système de refroidissement dédié au SLI de la future carte de la firme au caméléon. Il s’agit d’un module supplémentaire à mettre en place une fois les cartes graphiques installées. Il vient alors couvrir une bonne partie de la carte avec au bout un ventilateur de 120 millimètres. C’est ce système qui a été validé par Nvidia après que de nombreux exemplaires envoyés à la firme de Santa Clara soient revenus avec la mention « failed ». La cause ? Refroidissement insuffisant pour évacuer la chaleur générée par deux cartes Fermi en SLI.

Fermi1 fermi2 fermi3

Fermi chez Nvidia et... chez Thermaltake, sans y être

Même son de cloche chez Cooler Master où nous avons pu voir le futur boîtier HAF X, sous NDA malheureusement, qui lui aussi sera certifié Nvidia Fermi. Pourquoi ? Parce que lui aussi est capable de participer activement à la dissipation de la chaleur générée par Fermi. L’ingénieur responsable nous a par ailleurs donné la consommation de Fermi : 300 watts ! Il s’agit là de la limite autorisée par la norme PCI-Express 2.0 et pour rappel, Fermi n’est doté que d’un seul GPU!

Auch wenn wir von Nvidia kaum ezwas zum Fermi erfahren haben, haben wir doch von Thermaltake und Cooler Master einiges gelernt zum Thema Wärmeentwicklung.

Fermi war zwar auf dem Nvidia-Stand anwesend, und wir konnten dies durch das transparente Seitenteil des Gehäuses auch sehen, aber durften keine Photos machen, die Handlanger Nvidias verhinderten dies. Jenseits dieser kurze Vorstellung konnten wir die zukünftigen Nvidia- Grafikkarten diskutieren mit ... Gehäuseherstellern. Und zumindest können wir sagen, dass wir doch etwas überrascht waren, über was wir erfuhren. Bei Thermaltake wurde uns z.B. ein Gehäuse in den Nvidia-Farben gezeigt, das Element V, welches für die neuen Fermi zertifiziert ein soll. Wozu eine Zertifizierung? Weil dieses Gehäuse eine spezielle Kühlung aufweist für die zukünftigen Karten der Firma mit dem Chamäleon. Es handelt sich dabei um ein Zusatzmodul, welches nachträglich installiert wird und einen Grossteil der Karte mit einem 120-mm Lüfter kühlt. Dieses System wurde angeblich von Nvidia zertifiziert, nachdem zuerst mehrere Exemplare als "Failed" nach Santa Clara zurückgeschickt werden mussten. Grund dafür: ungenügende Kühlung, wenn zwei Karten im SLI betrieben wurden.
Derselbe Ton wurde bei Cooler Master angeschlagen, wo wir das HAFX Gehäuse besichtigen konnten, welches noch unter NDA steht, aber ebenfalls eine Fermi-Zertifikation aufweisen soll. Warum? Auch dieses Gehäuse soll sich aktiv an der Dissipation der Verlustleistung beteiligen, und der verantwortliche Ingenieur nannte uns auch den Stromverbrauch von Fermi: 300Watt! Dabei handelt es sich um die Obergrenze der PCIe Spezifikation, und zur Erinnerung, dies ist bloss für eine GPU!
 
Wenn sich das alles bewahrheiten sollte, ganz gleich, wie schnell Fermi letztendlich wird, sehe ich schwarz für NV, oder ATI-Rot für mich :d

Und sobald die 5800er Karten überall richtig verfügbar sein werden, wird auch sicher der Preis auf ~200-230 für die 50er und 300€ für die 70er sinken, womit NV deutliche Probleme bekommen könnte.
 
das denk ich auch, und ich find es komisch das es sogut wie noch keine infos gibt, und deswegen bin ich zum ersten mal zu ati gewechselt. und hab es bis jetzt nicht bereut
 
Wenn ich mir das alles mal zusammenfassend angucke, gibt es eig. immer noch nichts neues und handfestes. :( Und die NV Mitarbeiter scheinen die Fermikarte, sowie Infos, extrem gut zu bewachen. Warum? Und wieso keine Fotos, es gibt doch schon welche im Netz?
Gut die Karte wird wohl viel verbrauchen, aber wen überrascht das jetzt ? Mich nicht.
 
Zuletzt bearbeitet:
Gut die Karte wird wohl viel verbrauchen, aber wen überrascht das jetzt ? Mich nicht.

:hmm:

Ich glaub das wenige damit gerechnet haben das die Geforce mit 2x8pin kommt.. und 300w verraucht.

Oder gar ein zertifiziertes NT/Gehäuse notwendig is um stable gewisse Konfigs zu fahren.. (auch wenns nur Geldmacherei sein könnte und nicht wirklich notwendig, zumindest für nen Bastler :asthanos: )
 
:hmm:

Ich glaub das wenige damit gerechnet haben das die Geforce mit 2x8pin kommt.. und 300w verraucht.
)

Sagt wer?:)

Oder gar ein zertifiziertes NT/Gehäuse notwendig is um stable gewisse Konfigs zu fahren..

Die Aussage bezog sich bei den Gehäusen bisher nur auf die SLI Konfigurationen u da finde ich eine durchdachte Luftzirkulation bei luftgekühlten Karten sogar sehr sinnvoll.

Selbst ein Crossfiresystem kommt bei schlechter Gehäusebelüftung in thermische Probleme

Ps: nettes Beispiel

http://www.youtube.com/watch?v=FG9fTkT0JCA&feature=related
 
Zuletzt bearbeitet:
Hoffe mal der Fermi wird immer noch ein ganzes Stück schneller so 30% minimum.

Treiber bekommt man bei ATi ohne Zahlengewurstel.
Bauqualität war zuletzt bei ATI deutlich besser.
Und 2D und Videobild hat ATI auch ein viel besseres.
Dazu geht ATI bei Boinc wo ich mitrechne extrem gut ab.

Sehe da sonst einfach keinen Sinn darin ne NV zu kaufen
 
Zuletzt bearbeitet:
was juckt nvidia noch der fermi?
NV is jetzt zuliefere fürs audi, da interessiert die ne hand voll gamer noch weniger
 
Speaking to several case vendors at CES, we were told that while running one Fermi card alone or two single-GPU cards is fine, going any higher may introduce thermal issues.
und was ist an der Hitzeproblematik Fermi-Spezifisch?
Wenn direkt im benachbarten Slot eine weitere Graka steckt, dürften andere Grakas ebenfalls Probleme haben.
Davon mal abgesehen laufen laut der Quelle aber sogar zwei Karten ausgezeichnet.
 
Zuletzt bearbeitet:
Ne gute gehäusebelüftung ist nicht Fermispezifisch sollte man immer haben. Wenn man aber ein extra Gehäuse mit riesen Lüftern dafür brauchen sollte ists schon ein zeichen dafür das er mehr heizt als alles was bisher da war. Wenn man WAKÜ hat ist das aber eh wayne. Wenn der Fermi richtig abgeht interessiert mich das zb. nicht. Aber viele andre schon.
 
Zuletzt bearbeitet:
ich könnte mir gut vorstellen das sich der G100 mit mit viel power an profis und firmen richtet und der G104 kommt für PC zocker mit weniger stromverbrauch, leiser und weniger power.
 
Ne gute gehäusebelüftung ist nicht Fermispezifisch sollte man immer haben. Wenn man aber ein extra Gehäuse mit riesen Lüftern dafür brauchen sollte ists schon ein zeichen dafür das er mehr heizt als alles was bisher da war. Wenn man WAKÜ hat ist das aber eh wayne. Wenn der Fermi richtig abgeht interessiert mich das zb. nicht. Aber viele andre schon.

Wo hast du denn die Infos her? Aus dem Hut gezaubert?:cool:

Es ist lediglich davon die Rede den Luftstrom richtig zu führen bei ich wiederhole es nochmal SLI Systemen u daran ist nichts verwerfliches.

Nirgens steht was von Lüftern so groß wie Mühlräder:cool:

Oder muss man jetzt auch noch Motkachler als neue Quelle angeben
 
Zuletzt bearbeitet:
@scully1234
Wo ich die herhab ein bischen lesen sollte man schon können auch wenn man kein Französisch kann.
http://www.hardwareluxx.de/community/showpost.php?p=13722506&postcount=820

Da lese ich das selbe das ein System installiert wurde um den Luftstrom im SLI Modus richtig zu führen:hmm:

Oder pickst du dir immer nur die halbe News als Info raus

Jeder der ein SLI oder Crossfire System schonmal luftgekühlt hat weiss,das es bei Karten die eng aufeinander sitzen 2+4 oder auch noch 6 Slot zu thermischen Problemen kommen kann
 
Zuletzt bearbeitet:
Ich lese da, dass für ein SLI Sys. bestehend aus 2x Fermikarten ein 120er Lüfter, der die Fermikarten aktiv kühlt "nötig" ist, da davor Karten nicht funktionierten oder so.

"nachdem zuerst mehrere Exemplare als "Failed" nach Santa Clara zurückgeschickt werden mussten"
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh