NVIDIA: Mögliche Taktraten des G300 aufgedeckt

SileX86

Enthusiast
Thread Starter
Mitglied seit
02.03.2006
Beiträge
784
Ort
Zelt
<p><img height="100" width="100" style="float: left; margin: 10px;" src="images/stories/logos/nvidia.gif" alt="nvidia" />Gerade erst hatten wir erfahren, dass NVIDIAs G300-Grafikchip vermutlich bereits sein <a target="blank" href="index.php/news/hardware/grafikkarten/12071-nvidia-tape-out-des-g300-schon-vollzogen.html">Tape-Out</a> feiern durfte und schon tauchen erste Informationen zu den möglichen Taktraten auf. Die ersten lauffähigen Samples im A1-Stepping kommen demzufolge mit einem Chiptakt von 700 MHz daher. Der Shadertakt beträgt 1600 MHz und der GDDR5-Speicher wird mit 1100 MHz betrieben (effektiv 4400 MHz). Sofern die Spekulationen über die Anzahl (512) und Funktionsweise (1D) der Shadereinheiten stimmen, sollte die GPU eine theoretische Rechenleistung...<p><a href="/index.php?option=com_content&view=article&id=12097&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wenns stimmt, gute arbeit. wird aber mit sicherheit nicht billig. ich weiss nicht welcher weg der bessere ist, amds günstige karten mit "moderater" leistung oder solche brachialen von nvidia die sicher einen x-fachen kostenpunkt haben werden und dafür länger halten.
ich (persönlich) denke ersteres ist besser, weil flexibler. so schnelllebig wie der grafikkartenmarkt ist hol ich mir lieber jedes jahr ne karte für 100€ statt einmal eine für 3 jahre und 300€. denn wer weiss schon wie lange dx11 aktuell ist, wann sich ne neue schnittstelle etabliert, ein krasser stromsparmechanismus entwickelt wurde, oder halt irgend ne änderung eintritt die eine neue grafikkarte attraktiv macht. wobei nvidia die preispolitik ja sicher wieder umstricken wird, je nachdem wie gut amds antwort ausfallen wird.
 
Das mit dem tape-out halte ich übrigens für unsinn. Es ist doch wie jedesmal wenn eine neue generation ansteht, seiten die kaum wer kennt und besucht, drängen sich mit solchen stories ins rampenlicht um hits abzukassieren - es ist ja noch nicht mal so, dass einschlägig bekannte gerüchteküchen diese dinge ebenfalls "bestätigen"...

Insofern ist es eigentlich schade, dass Luxx die formulierung so gewählt hat, als ob es eine tatsache sei. Es ist genauso nur ein gerücht wie alles andere um die specs dieser GPU. Das sollte immer im ton mitschwingen.
 
Das mit dem tape-out halte ich übrigens für unsinn. Es ist doch wie jedesmal wenn eine neue generation ansteht, seiten die kaum wer kennt und besucht, drängen sich mit solchen stories ins rampenlicht um hits abzukassieren - es ist ja noch nicht mal so, dass einschlägig bekannte gerüchteküchen diese dinge ebenfalls "bestätigen"...

Insofern ist es eigentlich schade, dass Luxx die formulierung so gewählt hat, als ob es eine tatsache sei. Es ist genauso nur ein gerücht wie alles andere um die specs dieser GPU. Das sollte immer im ton mitschwingen.
Dann hast du noch nicht die storys von the inquirer gelesen auch sehr amüsant muss ich zugeben:haha:

Mindestens genauso unterhaltsam:d
 
Dann hast du noch nicht die storys von the inquirer gelesen auch sehr amüsant muss ich zugeben:haha:

Mindestens genauso unterhaltsam:d

Hmm also das letzte an das ich mich von inq erinnere war dieser einzeiler mit tapeout im juni. Oder habe ich da was verpasst? :fresse:
 
Danke für den link!

Einiges was er sagt macht schon sinn, aber vieles ist auch ziemlich gehässig formuliert und deshalb zweifelhaft. Aber was die wirtschaftlichkeit der aktuellen produkte angeht stimme ich ihm zu. Zumindest der kosten nachteil zu ATI produkten ist rechnerisch ganz einfach zu belegen anhand er DIE grössen und PCB kosten. Wenn also nur die hälfte der gerüchte stimmen die da rumschwirren, wirds erst richtig hässlich bevors besser wird.

Mal sehen was wird, ich kaufe mir ja ohnehin keine high-end grakas mehr. :)
 
Insofern ist es eigentlich schade, dass Luxx die formulierung so gewählt hat, als ob es eine tatsache sei. Es ist genauso nur ein gerücht wie alles andere um die specs dieser GPU. Das sollte immer im ton mitschwingen.

Daher ja auch die Formulierungen der News-Titel:

Mögliche Taktraten des G300 aufgedeckt

Tape-Out des G300 schon vollzogen ?

;)
 
Der erste satz reflektiert den titel der anderen news aber nicht, sondern impliziert, dass es wirklich so wäre. ;)
 
@Gani

Da hast du Recht, ich gebe mich geschlagen. ;) Habe es mal korrigiert.
 
So richtig hoch sind die Taktraten aber nicht.Dachte,Nvidia zielt vllt auf auch 1Ghz Coretakt.Wär sicher in der Werbung prestigeträchtig zu vermarkten.
 
Die GTX380 wird 2x 8Pin Strom Anschluss benötigen, ich denke diese wird ca. 280-350 Watt verbrauchen, kann auch höher sein. Ich bin gespannt ob Nvidia wieder eine Karte anbietet die deaktivierte Shadereinheiten hat oder diesmal eine andere Richtung geht als moment die GTX260, die mit Wenig gewinn verkauft wird. So ein Chip wie der GT300 kann nicht billig hergestellt werden, ich denke diesmal wird Nvidia die GTX380 alleine als High End vermarkten, eine GTX360 wäre in der Produktion zu teuer, wenn man diese wieder 150 € günstiger als die GTX380 anbietet, sieht das mit der Gewinnspanne nicht gut aus, aber die GTX360 wäre bestimmt noch 20-30% stärker als ATIs 5870 und die GTX380 wird bestimmt 50% schneller sein.

Edit:

meine Preisvorstellungen:

GTX380 = 550-600 €
refresh mittel High End Rev. A2 oder A3 = 350-400 €
HD5870 = 300-350 €
 
Zuletzt bearbeitet:
kühl du mal vernünftig ne 500w graka. quad-slot kühler? :fresse:
wird nicht so viel werden, aber wenn die leistung stimmt kann se meinetwegen gerne mehr ziehen
 
kühl du mal vernünftig ne 500w graka. quad-slot kühler? :fresse:
wird nicht so viel werden, aber wenn die leistung stimmt kann se meinetwegen gerne mehr ziehen

kannst du nicht lesen, ich habe geschrieben das die Karte vorraussichtlich 280-350 watt verbrauchen wird!
 
Jetzt fängt das Raten wieder an! -.- Wieso könnt ihr nicht einfach warten und die Fakten dann sprechen lassen? Bis zum 4.Quartal kann noch einiges passieren. ;)
Das Teil wird auf jeden Fall wieder alles platt machen, außer AMD kommt wieder mit ner Multi-GPU Lösung. :fresse:
 
Woher nimmst du diese Information

512 Bit SI + 512 Shader + 2GB DDR5

denkst du das der 40nm Prozess sparsammer wird, ne ne die Karte wird garantiert mehr Strom als die aktuellen Karten ziehen. Eine GTX280 zieht mit 1,18v ca. 240w aus der Dose, beim GT300 kommen mehr shader + DDR5 dazu, das teil wird ein Monster mit einer mind. steigerung von 150 % laut spekus.
 
Zuletzt bearbeitet:
Falls das mit den 2x8Pin stimmt hat sich die karte für mich erledigt, mein Netzteil hat nur 1x6-Pin und 1x-8-Pin:kotz:
 
512 Bit SI + 512 Shader + 2GB DDR5

denkst du das der 40nm Prozess sparsammer wird, ne ne die Karte wird garantiert mehr Strom als die aktuellen Karten ziehen. Eine GTX280 zieht mit 1,18v ca. 240w aus der Dose, beim GT300 kommen mehr shader + DDR5 dazu, das teil wird ein Monster mit einer mind. steigerung von 150 % laut spekus.

Ähm nö, erstens brauchst du durch ein breiteres SI nicht mehr Strom, zweitens brauch GDDR5 Speicher bei gleichem Takt weniger Strom als GDDR3 Speicher (und auch die schlussendliche Größe dessen macht den Braten nicht weiter Fett)
Und drittens kommt eine einzige 280GTX mit Stock Takt und Stock Spannung in gewöhnlichen 3D Games nicht mal auf 180W...
http://xbitlabs.com/images/video/evga-geforce-gtx285ssc/evga285_power.png

Also Abwarten und Tee trinken... bis Fakten bekannt sind.

Falls das mit den 2x8Pin stimmt hat sich die karte für mich erledigt, mein Netzteil hat nur 1x6-Pin und 1x-8-Pin:kotz:

Das bleibt ebenfalls abzuwarten, denn die PCIe Spezifikation schreibt aktuell ein maximalen Ausbau von 1x6Pin + 1x8Pin Stromadapter vor.
Ebenso ist der eigentliche maximale Verbrauch der kompletten Karte auf 300W laut Spezifikation begrenzt.

Aktuelle DualGPU Karten ala HD4870 X2 kommen in Furmark zwar teils ne ganze Ecke drüber, aber dennoch funkt das 1A mit nem 6Pin und nem 8Pin Stromstecker...
 
Zuletzt bearbeitet:
Ähm nö, erstens brauchst du durch ein breiteres SI nicht mehr Strom, zweitens brauch GDDR5 Speicher bei gleichem Takt weniger Strom als GDDR3 Speicher (und auch die schlussendliche Größe dessen macht den Braten nicht weiter Fett)
Und drittens kommt eine einzige 280GTX mit Stock Takt und Stock Spannung in gewöhnlichen 3D Games nicht mal auf 180W...
http://xbitlabs.com/images/video/evga-geforce-gtx285ssc/evga285_power.png

Also Abwarten und Tee trinken... bis Fakten bekannt sind.

Wie sind deine Vorstellungen zum GT300 ? ungefähr abschätzen...
 
kannst du nicht lesen, ich habe geschrieben das die Karte vorraussichtlich 280-350 watt verbrauchen wird!

werd ma nicht gleich kratzig.
als ich angefangen hab zu schreiben, war deine nachricht noch nicht da, hab deine auch erst gesehen, als ich meine schon abgeschickt hatte.
außerdem hatte ich selber geschrieben, dass es "nicht so viel werden" wird.
der :fresse: drückt auch aus, dass das nicht ganz ernst gemeint war

so, und jetzt :btt:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh