Drei Fermi-Karten zum Start?

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.274
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="nvidia" src="images/stories/logos/nvidia.gif" width="100" height="100" />Erst in dieser Woche stellte <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a> seine neue Fermi-Architektur offiziell vor (<a href="index.php/news/hardware/grafikkarten/13208-nvidia-praesentiert-next-generation-gpu-fermi-bzw-gt300.html" target="_blank">wir berichteten</a>). Demnach wird der Chip nicht nur im 40-nm-Fertigungsverfahren gefertigt, sondern kann auch auf eine Vielzahl von Shadereinheiten zurückgreifen. So sollen insgesamt 512 solcher Einheiten zur Verfügung stehen. Erstmals setzt der kalifornische Grafikkartenspezialist auch auf GDDR5-Videospeicher – bis zu 6 GB werden unterstützt – samt einer Anbindung von 384...<p><a href="/index.php?option=com_content&view=article&id=13234&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hmm soll das heißen das das Topmodell eine Duallösung dann ist.

Füre eine Singlekarte 225W TDP da kann mann gespannt sein, ist evtel schneller wie die 5870 aber das lässt sich Nvidia bestimmt wieder Königlich bezahlen zumal der Verbrauch auch nicht der burner seit wird unter Last.
 
Ich bin mal gespannt, wie bei der Dual GPU Karte dann die Kühlung ausfallen wird, zumal die jetzige bei der GTX 295 gerade mal so ausreichend ist (in Hinsicht auf die Lautstärke/Temps).
 
der verbrauch liegt unter GTX280 neveau , das wurde von Hardware-infos bereits verraten

und wen dann AMD die 5890 rausbringt wird der verbraucht wohl der selbe sein...

die Dualkarte würde mich interessieren =D
 
Sind 3 Karten für das Weihnachtsgeschäft nicht ein bissl wenig? :fresse:
 
Ich bin zuversichtlich. Zur Not muss halt noch jemand in den Baumarkt, neue Spaxschrauben und Heisskleber holen.
 
Ich bin etwas überrascht, seit wann ist ein teildeaktivierter G 100- CHip (wohl 360 GTX mit 480 oder 448 shadereinheiten) der konkurrent zur 5850, ist das nicht eher der konkurrent zur 5870? :confused:
 
Ich bin etwas überrascht, seit wann ist ein teildeaktivierter G 100- CHip (wohl 360 GTX mit 480 oder 448 shadereinheiten) der konkurrent zur 5850, ist das nicht eher der konkurrent zur 5870? :confused:

Vll vom Preis her. 20% mehr Leistung, 10% höherer Preis oder so.

Aber wie das am Ende aussehen wird kann man nur schwer abschätzen.

Da kann man nur auf neue Infos warten.
 
So bald schon? Kommt mir anhand der Tatsache dass für die Vorstellung noch ein Plagiat nötig war recht früh vor.
Freuen tät's mich natürlich schon, auch wenn ich noch nicht weiß ob ich umsteig, seh ich dann wenn erste Benchmark-Ergebnisse publik sind.
 
Ja das ist auch so ein problem, die glaubwürdigkeit NVidias. Ob sie wirklich einen hardlaunch dies jahr hinkriegen, das bezweifeln ja viele.

UNd wann die preislich interessanten Karten für unter 250 euro kommen, man wird sehen. Am Anfang kommt erstma die 380 gtx für irgendwas über 400 Euro und ne 360 GTX, 300 euro wird man da auch mindestens berappen müssen.

Nicht vor frühjahr 2010 und dann kommt ja auch ATIs refresh, also wohl was in 28 nm, das heißt nochmal mehr leistung, bei weniger chipfläche, da wird sich nvidia warm anziehen müssen.
 
ahahahahahaha ich glaube kaum das sich nvidia warm anziehen muss gegen ati ihr werdet schon sehen die haben wider mehr leistung und scheis auf den strom wenn ich jedes mal an den denken würde wenn ich mein rechner anmachen würde umgottes willen dann müsste ich ja weinen wenn ich kaffe koche oder bügle oder den fön anmache mit 2000w also
 
Aja, mit dem Unterschied dass dein "2000 Watt-Föhn" vllt. 15 Minuten läuft und dein PC am Tag schätzungsweise 8 Stunden. Da möcht' ich dann nicht unbedingt 3 300 Watt-Karten drin haben :fresse:
 
ahahahahahaha ich glaube kaum das sich nvidia warm anziehen muss gegen ati ihr werdet schon sehen die haben wider mehr leistung und scheis auf den strom wenn ich jedes mal an den denken würde wenn ich mein rechner anmachen würde umgottes willen dann müsste ich ja weinen wenn ich kaffe koche oder bügle oder den fön anmache mit 2000w also

Vielleicht kriegst du ja für das geld noch eine schachtel satzzeichen dazu, damit solche amüsanten postings beim lesen nicht so schmerzen. :lol:
 
300 Watt TDP einzuhalten bei der Dual-GPU Lösung wär natürlich top - auch wenn man dann zwei teildeaktivierte GF100 wird einsetzen müssen - ähnlich GTX 295.

Wenn eine GTX 380 (?) 225 Watt TDP hat, dann wären in Vollausstattung (also 512 Shader Units, 384 Bit usw.) bei der GTX 395 (?) sicher locker an die 400 Watt TDP von Nöten, wenn man die TDP noch etwas optimieren würde - das schreit dann imho eher nach 32 oder 28nm Shrink, um die 300 Watt zu schaffen.

Die HD 5870 X2 soll ja 375 Watt verbrauchen - wobei man dann 2 x 6+2 pol. PCIe Buchsen verbauen müsste - die bisher gezeigten X2 Karten kamen ja wie bisher mit 6+2 und 6 pol. PCIe aus, also 300 Watt TDP.


Ich denke auch mal, dass die nächst kleinere Karte (GTX 360 ?) auf 448 1D Shader, 320 Bit SI und 1,28 GB VRAM setzen wird.
Die Performance Modelle (GTS 350 ?) werden dann vielleicht 384 oder 320 Shader, 256 Bit SI und 1 GB VRAM haben.
Die nächst kleinere Karte (GTS 340 ?) sehe ich etwa mit 240 Shader und 256 Bit SI - sollte dank neuer oder stark verbesserten Architektur zwischen GTX 285 und GTX 295 liegen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh