Neurosphere
Enthusiast
- Mitglied seit
- 06.11.2008
- Beiträge
- 4.324
Toll ^^ und was soll das?
Die ist aber nicht zum zocken gedacht oder ?
Äh...nein
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Toll ^^ und was soll das?
Die ist aber nicht zum zocken gedacht oder ?
Sicher? Warum dann so nen geheimnisumwobener Counter wenn das produkt schon bekannt ist?!
Die ist aber nicht zum zocken gedacht oder ?
So, dicke News zu den neuen Workstation - Fermis:
http://www.computerbase.de/news/har...009/november/nvidia_tesla-fermi-grafikkarten/
--
Weiß allerdings nicht ob das -uns- als Gamer etwas bringt.
Auf jeden Fall setzt NV nun auch auf GDDR5.
Überlegt euch mal was da für Speicherbandbreiten drin sind, wenn das SI größer als 256Bit ist
Außerdem soll die TDP einer Karte, wenn ich das richtig gelesen habe bei max. 225 Watt liegen.
Zitat: "Für die C2050 und die C2070 gibt Nvidia eine typische Leistungsaufnahme von 190 Watt und einen Maximalwert von 225 Watt an."
Das klingt doch soweit ganz gut oder ?
P.S. wenn die Desktopgrafikkarten das gleiche Design haben wäre das genial. Die Karten/der Kühler sieht mördermäßig geil aus!
*edit*
Sry. der Link war ja oben schon da. Egal hab ja noch en bissl daraus "zitiert" und zusammengefasst.
So, dicke News zu den neuen Workstation - Fermis:
http://www.computerbase.de/news/har...009/november/nvidia_tesla-fermi-grafikkarten/
--
Weiß allerdings nicht ob das -uns- als Gamer etwas bringt.
Man, was macht NV denn da.
Shader-Takt ist 1230MHz, Launch auf den Folien erst ab Q2, heise schreibt von Mai, dazu 225W TDP...
Achso, jetzt hab ichs auch geschnallt, heise.de gibt Auskunft
Aber mal was anderes, hat das jemand mal zurück gerechnet?
1230GFlops in SP bei 512 Cores und 1230MHz Shadertakt...
Wenn man sich aktuell den G200b anschaut kommt man auf folgendes:
240 Shadereinheiten * 3 FLOPS (MADD+1MUL) * 1,476 GHz (Shadertakt) = ~1.063 GFLOPS
Jetzt andersrum gerechnet, 1260GFlops/1,230 GHz (Shadertakt) / 512 Shadereinheiten = ~2...
Heist soviel wie, die Karte kann dann wohl nur noch ein MADD pro Takt und nicht mehr MADD+MUL
@fdsonne: Genau, GT200 = MADD+MUL, Fermi = MADD only. Aber man muss auch bedenken, dass die MUL nicht immer genutzt werden konnte, die GT200 FLOPs sind also nicht "echt" (genauso wie beim Cypress). Die Fermi FLOPs sollten "echt" sein.
Aber ich hatte mit min. 1600MHz Shadertakt gerechnet, da sind 1230MHz wirklich eine Enttäuschung. Zumal die aktuellen Tesla Karte auch nicht langsamer als ihre GeForce Pendants takten.
Langsam bin ich mir nicht mehr so sicher dass der Fermi Cypress wirklich so deutlich schlagen wird. Zumal er vielleicht schon gegen einen Refresh antritt.
der GT300 Fermi wird meiner Meinung nach 20% schneller als die GTX295, Taktraten sagen nichts über Leistung aus & ist doch scheiss egal wenn die Karte über 200w verbraucht...
Die vermutungen die in verschiedenen Foren aufgetaucht sind das der Fermi soviel Strom braucht das es gar nicht möglich ist den höher zu takten scheinen sich wohl zu bestätigen.
Die vermutungen die in verschiedenen Foren aufgetaucht sind das der Fermi soviel Strom braucht das es gar nicht möglich ist den höher zu takten scheinen sich wohl zu bestätigen.
fdsonne schrieb:190W sind aber bei weitem noch nicht wirklich viel...
Wenn ich da an den R600 denke, ~160W Volllast bei 1,2V und Stock Takt... Das ganze auf 1,35-1,4V hoch (oder noch mehr) und Taktraten von 1GHz+
Zwar nur unter Wakü, aber mit der Spannung und dem Takt geht da weit mehr durch die Leitung als 190W...
Und von 190 zu 225W (theoretisches max. bei 2x6Pin PCIe Stromstecker + Slot) sind auchnoch mal gut 35W Luft + Reserve, wo die Hersteller sich sowieso nicht drum kümmern, wie man an erhältlichen Modellen sehen kann...
Zur Not halt 1x6Pin + 1x8Pin und die 300W können kommen
@Archiee: Wieso warst du denn angenehmen überrascht?