nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bleiben dennoch die real nachweisbar/nachmessbaren bis zu über 370W allein für die HD4870 X2 in Furmark bei auch nur 6+8Pin PCIe ;)
Soviel zum Thema 300W maximal... ;)
 
bleiben dennoch die real nachweisbar/nachmessbaren bis zu über 370W allein für die HD4870 X2 in Furmark bei auch nur 6+8Pin PCIe ;)
Soviel zum Thema 300W maximal... ;)


Wurde da nicht auch vorsichtig gesagt "nachgebessert" nach dem das bekannt wurde;)

Und in einem Rechenzentrum wird Anhand von Specs Sicherlich auch die andere Pheriperie bemessen,wenn Nvidia hier falsche Zahlen abliefern würde bei Tesla,gebe das bestimmt böses Blut
 
Zuletzt bearbeitet:
Wenn die Tesla nahe an 300 Watt wären,wäre das mit Sicherheit mit so nem filigranen Kühlkörper nicht mehr möglich,diese zuverlässsig u stabil zu halten in einem Cluster über Tage oder Wochen

Vergiss aber nicht, das die Teslas in der Rackmount Version mit den 4 Karten bei 1HE 40mm Lüfter verbaut haben, die über 10k rpm blasen. Da kommt ein nicht zu verachtender Luftstrom zustande. Ebenso ist es idR in Serverrechenzentren nicht kälter als 20-22°C.

Sprich man kann sich hier durchaus erlauben etwas kleinere Kühler zu montieren, weil erstens die Umgebung recht kühl und zweitens überhaupt keinen Wert auf Lautstärke gelegt wird. Um so größer die Luftdurchstrommenge, desto kleiner kann die Kühlfläche sein, um die selbe Kühlleistung zu erzielen.

Wurde da nicht auch vorsichtig gesagt "nachgebessert" nach dem das bekannt wurde;)

Was heist nachgebessert, viel Unterschiede zwischen den ersten Tests und den späteren Kaufversionen gibts nicht. Sind eher minimal ;)
Auch wurde die Spannung soweit ich weis nicht wirklich runter gedreht...

ja indem der treiber die karte drosselt sobar furmark erkannt wird :d

Das wirkt aber nicht bei der X2 ;)
Denn sobald die exe Datei Furmark.exe heist, erkennt der Treiber sie und drosselt. Nur blöderweise funkt mit der Furmark.exe kein CF, sprich es läuft nur eine GPU der X2.
Wer CF in Furmark will, muss/sollte die exe in etqw.exe umbenennen. Dann funkt auch CF und der Treiber drosselt nicht künstlich...
So kommt Furmark in späteren Versionen auch nicht mehr nur mit einer Furmark.exe sondern zusätzlich noch mit einer etqw.exe ;)
 
Zuletzt bearbeitet:
Was heist nachgebessert, ;)

Viele Möglichkeiten gab es ja nicht Spannung runter wäre nur per Bios Update möglich gewesen,also siehe unten



Das wirkt aber nicht bei der X2 ;)
Denn sobald die exe Datei Furmark.exe heist, erkennt der Treiber sie und drosselt. Nur blöderweise funkt mit der Furmark.exe kein CF, sprich es läuft nur eine GPU der X2.
Wer CF in Furmark will, muss/sollte die exe in etqw.exe umbenennen. Dann funkt auch CF und der Treiber drosselt nicht künstlich...
So kommt Furmark in späteren Versionen auch nicht mehr nur mit einer Furmark.exe sondern zusätzlich noch mit einer etqw.exe ;)


Das wurde aber aus diesem Grund getan um Überhitzung u Schäden an der 4er Reihe vorzubeugen,aber wir schweifen schon wieder zu sehr ab;)

---------- Beitrag hinzugefügt um 13:21 ---------- Vorheriger Beitrag war um 13:14 ----------

Sprich man kann sich hier durchaus erlauben etwas kleinere Kühler zu montieren, weil erstens die Umgebung recht kühl und zweitens überhaupt keinen Wert auf Lautstärke gelegt wird. Um so größer die Luftdurchstrommenge, desto kleiner kann die Kühlfläche sein, um die selbe Kühlleistung zu erzielen.

Selbes müsste dann auch für die Quadro Plex Systeme mit Tesla Chip gelten,diese laufen aber nicht unter "idealbedingungen" u ist in Filmstudios bzw Schnittstudios eine Lautstärke eines abhebenden Düsenjets sicherlich auch nicht erwünscht
 
Zuletzt bearbeitet:
Ich muss hier immer über die User grinsen die meinen hunderte von Euro ausgeben zu müssen damit ihr System ein paar Watt weniger verbraucht.
Wundert mich auch warum über Stromverbrauch gejammert wird.
300 W ist nicht wenig, keine Frage, aber wenn der Fermi jetzt wirklich 300 W braucht und dafür ein Tier ist was seine Leistung angeht, wär mir das sowas von egal.
Wieviel sie jetzt dann wirklich braucht und was sie zu leisten vermag, das wird erst klar werden wenn erste glaubwürdige Infos rauskommen.
 
wurscht wenn sie im idle sparsam wäre und ca.50% schneller als eine 5870 aber ich glaubs nit mehr.
 
Aber mit weihnachten wird es jetzt 100% nichts mehr mit dem GF100 , das schonmal sicher!

Und eine sache ist auch noch sicher, sie kommt 2010 , das jahr ist ja noch lang dann :d
 
tippe mal auf 2*6 pin für singlegpu wobei man es auf ca 240W überschreitet.

Nob 8+6 Pin das ist doch schon fest;)

Auch die alte GTX hatte 8+6 was ist daran verwwerflich u da Nvidia ne Spannungsoption/Übertaktungsfunktion anbieten will wegen verbauter Volterras wäre 6+6 auch sinnlos

Allein wegen dem Feature der Übertaktung/Spannungserhöhung gehe ich nicht davon aus das sie von Grund auf schon viel mehr als die angegebenen TDP Werte aufnimmt,denn dann bräuchte man dieses nicht zu bewerben;)
 
Zuletzt bearbeitet:

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    195,5 KB · Aufrufe: 113
Zuletzt bearbeitet:
nicht zu vergessen die karte ist ja durch CUDA und PhysX ja auhc eher in dem profibereich anzusiedeln :lol: da fallen die preise immer was höher aus :d
 
nicht zu vergessen die karte ist ja durch CUDA und PhysX ja auhc eher in dem profibereich anzusiedeln :lol: da fallen die preise immer was höher aus :d

Volkommener Quatsch das ist eine Geforce GT 9400 u wir reden hier im Thread gerade mal über den GT 300.Also darf für diese Karte aus der fernen Zukunft schon ruhig mal n bisschen mehr auf den Gabenteller gepackt werden:coolblue:

So macht man Geschäfte ja ne is klar:fresse:
 
Zuletzt bearbeitet:
Er hatte leider meist recht wenns um den Fermi ging.
[/url]


Andererseits schreibt er aber auch sehr oft sehr viel Schei**
Und er ist nicht wirklich pro NV, ich wette wenn irgendjemand der semiaccurate nur halbwegs als kompetent erscheint denen ein negatives und aus den fingern gezogenes gerücht unterbreiten würde, würden sie es als erstes als news verfassen...

sie kriegen nicht ohne grund keine statements mehr von nvidia.

und wenn ich den artikel so durchlese frag ich mich zudem wie er darauf kommt taktraten von tesla gpus mit taktraten von geforce gpus zu vergleichen :rolleyes:
 
da steht TESLA 448 Cores, nicht mehr und nicht weniger
was der so alles wissen will...
 
und wenn ich den artikel so durchlese frag ich mich zudem wie er darauf kommt taktraten von tesla gpus mit taktraten von geforce gpus zu vergleichen :rolleyes:

Warum nicht? Welche physikalischen Grundgesetze werden denn geändert, indem man ein Produkt als GeForce und nicht mehr als Tesla verkauft?

An alle die, welche hoffen, 499-$ Fermi GeForce werden 512 Shader mit 1700MHz haben, während 3999-$ Fermi Teslas mit 448 SP/1400MHz über den Ladentisch gehen: Pech gehabt.
 
noe chemiker, das ist nunmal so das die Profikarten mit etwas weniger "Leistung" wesentlich teurer sind, da kommts auf Qualität und Stabilität an und nicht um Maximale Leistung geteilt durch minimale Anzahl Bluescreens...

ne Quadro G80 kostet auch ne Stange mehr Geld
 
Worauf Chemiker wohl hinaus wollte, ist, dass 512/1700 zu 448/1400 ein signifikanter Unterschied ist. Und das erscheint daher ziemlich unrealistisch. Ich sehe das genauso. IMO kommen die Desktop Ableger ebenfalls mit 448 Shader, könnten dafür aber etwas höhere Taktraten haben, vielleicht 50-150 MHz.
 
Die 512 @ 1,7 GHz waren ein Forenpost bei BSN von einem Niemand mit grüner Brille. Niemals bestätigt oder wo anders geleakt. Sicher sind nur 512 ALUs als Vollausbau, die man schon mal mit 1,23 GHz laufen lassen konnte - in der A2 (!) wohlgemerkt. Nun ist man auf FLOPS-gleiche 448 @ 1,4 GHz geswitcht um die Ausbeute zu erhöhen. Die A3 ist grade am werkeln, da sollten dann die vollen 512 @ 1,5 GHz machbar sein. 6+8-Pin sind 300W, da ist genug Luft für mehr als 1,05V. Und btw: Bei GT200-Architektur reichen 448 @ 1,4 GHz schon um die HD5870 zu schlagen.

Und wenn die A3 so rockt die beim G80 ... dann taugt Fermi auch :d
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh