nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber die Specs wegen der max. TDP sind noch nicht draußen oder?

Ich schätze mal - Steigerung beim PCIe Port von 75W auf 100Watt und der 6+2 pol. PCIe Adapter soll ja auch Standard werden,
also max. TDP Steigerung von 300 auf 400 Watt (bei 2 x 6+2 pol.).


Das wird natürlich im SLi oder CF Brutal vom Platzverbrauch, nicht auszudenken bei 3 way SLI oder CrossFire X ! :fresse:

Gut, dann werden wohl Boards wie das Asus X58 SuperComputer neuer Enthusiasten Standard werden. :)
 
Zuletzt bearbeitet:
Kann ich mir nicht vorstellen, dass über den PCIe Port 100 W aufgenommen werden sollen. Dann wäre es nicht abwärtskompatibel.
Ich hab was von 2x 6+2 poligen Adaptern pro Karte gelesen.
 
Kann ich mir nicht vorstellen, dass über den PCIe Port 100 W aufgenommen werden sollen. Dann wäre es nicht abwärtskompatibel.
Ich hab was von 2x 6+2 poligen Adaptern pro Karte gelesen.

Wieso sollte denn der PCIe Port mit max. 100W nicht abwärtskompatibel sein? Man könnte rein theoretisch die Stromaufnahme der Karte ermitteln; sobald es eine PCIe 3.0 fähige GraKa ist, werden auch die benötigten 100W geliefert. Sobald man aber eine PCIe 2.0 Karte in den Slot steckt, werden nur noch 75W geliefert. Das wäre technisch doch überhaupt kein so großes Problem?
 
Wieso sollte denn der PCIe Port mit max. 100W nicht abwärtskompatibel sein? Man könnte rein theoretisch die Stromaufnahme der Karte ermitteln; sobald es eine PCIe 3.0 fähige GraKa ist, werden auch die benötigten 100W geliefert. Sobald man aber eine PCIe 2.0 Karte in den Slot steckt, werden nur noch 75W geliefert. Das wäre technisch doch überhaupt kein so großes Problem?

was aber wenn man eine PCI-E3 karte in ein 2er slot steckt? und die dann 100watt will?
 
Aber es wären die PCIe 3.0 KArten nicht PCIe 2.0 kompatibel.


Edith sagt:
Verdammt, da war einer schneller^^
 
was aber wenn man eine PCI-E3 karte in ein 2er slot steckt? und die dann 100watt will?

Ganz genau. Wenn eine Graka nach PCIe3-Standart gefertigt wird und die dann 100 W über den Port aufnehmen will, klappt das mit der Stromversorgung nicht.
Ist der PCIe 3.0-Standart eigentlich schon final verabschiedet?
 
Zuletzt bearbeitet:
Ok, da hab ich die Abwärtskompatibilität wohl andersrum vergessen. Aber eine Möglichkeit gäbe es trotzdem. In dem PCIe 2.0 Slot könnte die Karte dann mehr Strom über die PCIe Stecker aufnehmen und so den Bedarf kompensieren sobald festgestellt wird, dass sie in einem PCIe 2.0 Slot steckt.

Im großen und ganzen ist das wohl doch etwas zu kompliziert und kostspielig. Von daher wird der PCIe 3.0 Slot wohl auch 75W liefern...
 
Ok, da hab ich die Abwärtskompatibilität wohl andersrum vergessen. Aber eine Möglichkeit gäbe es trotzdem. In dem PCIe 2.0 Slot könnte die Karte dann mehr Strom über die PCIe Stecker aufnehmen und so den Bedarf kompensieren sobald festgestellt wird, dass sie in einem PCIe 2.0 Slot steckt.

Im großen und ganzen ist das wohl doch etwas zu kompliziert und kostspielig. Von daher wird der PCIe 3.0 Slot wohl auch 75W liefern...

Das macht aber auch wenig Sinn, denn so könnte man gleich die Karte über die Stromstecker versorgen...

Andererseits sind 25W auch nicht sooo sonderlich viel, also wenn dann könnte ich mir vorstellen, das der 3.0er Slot mehr liefern kann, und wenn eine 3.0er Karte in nem 3.0er Slot steckt, diese auf Zusatzstromversorgung verzichten kann... Sprich 3.0er Karte in 2.0er Slot -> Zusatzstromversorgung pflicht, 3.0er Karte in 3.0er Slot -> Zusatzstromversorgung optional. Aber das geht sich bei 25W wohl noch nicht aus...


Das ganze Stromthema wird aber auch etwas hochgehypt, wenn ich sehe, eine aktuelle X2 zieht teils bis zu 270W.
Man nehme nun ein NT mit nur 6Pin Steckern und besorge sich dazu nen 6Pin to 8Pin Adapter, dann geht das auch problemlos obwohl das NT eigentlich nur 75W Pro 6Pin Stecker geben dürfte...
 
Zuletzt bearbeitet:
Die 100W für den PCIe 3.0 sind doch nur für Karten interessant die über keinen Stromanschluss verfügen.
Bei Karten mit Stromanschluss, kann es doch egal sein was die benötigen.
 
Die 100W für den PCIe 3.0 sind doch nur für Karten interessant die über keinen Stromanschluss verfügen.
Bei Karten mit Stromanschluss, kann es doch egal sein was die benötigen.

Messungen aktueller Karten zeigen das die 75W des Slots eigentlich in jedemfall voll ausgenutzt werden und eher die Steckerstromversorgung dann nur noch den Rest benötigte Energie liefert... Bei 100W oder mehr am Slot wird das sicher nicht anders sein.

Man könnte dementsprechend auf die Stromstecker unter umständen verzichten oder diese als Optional ausweisen.
Ich denke da beispielsweise an die 2900XT, realverbrauch um die 160W der ersten Karten mit 1,2V VGPU Spannung. Aber mit nem 8Pin + 6Pin Stromstecker.
Man hätte so zum Beispiel den 8Pin Stecker weglassen können, sprich 100W über den Slot + 75W über den 6Pinner... 75W Slot + 75W 6Pin Stecker wäre da zu wenig gewesen, also mussten es zwei Stromstecker sein...
 
wobei man es auch so machen könnte pcieE kann 100W oder mehr liefern allerdings wird das effektiv erst mit 3.1 oder 4.0 umgesetzt 3.0 dient als Übergangszeit da bis zum nächsten PCIE dann ne Sättigung von über 90% herrscht mit Mainboards die das können
 
Das wär echt prima - solange alle Infos dabei erwähnt werden oder halt genug Samples an die Presse verteilt werden.

- Genaue technische Specs
- Verbrauchswerte und Temperaturen
- Ordentlich Benches am besten mit HD 5xx0ern als Vergleich.
- Übertaktbarkeit ! :fresse:

Da bin ich mal gespannt - mal hoffen, dass das kein "leeres" Gerücht ist ! :)
 
Zuletzt bearbeitet:
Tja und ATI kann die Preise schön hoch halten

Das Vorhaben könnte aber auch in die Hose gehen... Denn wenn die NV GPUs wirklich massiv schneller werden (und was wird sich ja dann wohl schon kurz nach dem AMD Release zeigen) werden sicher einige Leute warten, die sonst potentiell erstmal die AMD Hardware kaufen...

Aber mal gucken was passiert, sich persönlich rechne wieder mit nem Vorsprung von um die 25% von Top SingleGPU Modell zu Top SingleGPU Modell.
 
Aber mal gucken was passiert, sich persönlich rechne wieder mit nem Vorsprung von um die 25% von Top SingleGPU Modell zu Top SingleGPU Modell.

Das ist immer schwer zu bemessen. Wenn man mal die grobe Fläche von NV und ATI von den neuen Modellen vergleich (laut Spekus) kommt der RV870 auf 300mm² und der G300 auf 500mm². Bei gleicher Effizienz wären das schon 66% unterschied.

Naja, mal schauen was kommt. NV wird sicherlich noch mehr Wert auf GPGPU gelegt haben als ATI, von daher kann man sich natürlich nicht wirklich an der Fläche orientieren, man weiß ja auch nicht wie Effizient die neuen Designs gegeneinander sind.
 
Wobei man hier beachten muss, dass diese nicht auf der gleichen Strukturbreite basierten. Der Flächenunterschied zwischen RV790 und GT200b war auch etwa 66%, Performance etwa 5-10%.
 
Zuletzt bearbeitet:
größe ist nicht alles, takt spielt auch eine rolle und der ist bei ati für gewöhnlich höher
 
und? wenn das NV nicht hinbekommt ihr Problem ebenso wie es ATIs Problem ist mit dem GDDR5 runtertakten
 
...takt spielt auch eine rolle und der ist bei ati für gewöhnlich höher
kann man imho nicht vergleichen, da Nvidia mit unterschiedlichen Taktraten bei Kern und Shadern arbeitet.

ciao Tom
 
Überhaupt sollte man die Taktraten einzelner Generationen nicht miteinander Vergleichen. Vielleicht werden die des G300 auch deutlich höher als die des RV8xx ausfallen.
 
Das kann ich mir nicht recht vorstellen - um die 700 MHz Default - Takt für den G300 in Kombination mit 1600 MHz Shadertakt sind wohl realistisch. Darauf deuten auch diverse Spekulationen hin.

Der RV870 wird sicherlich mit 850 - 950 MHz laufen, wenn man davon ausgeht, dass die HD 4890 im 55nm Prozess schon 850 MHz hat. Vielleicht peilt man für eine HD 5890 ja sogar die 1 GHz Marke an.


Nun ja - erstens kann man, wie schon gesagt, die Taktraten aufgrund der anderen Architekturen eh nicht so gut miteinander vergleichen und zweitens war ja NV seit dem G80 mit einem niedrigeren Takt schneller als ATi, natürlich spielt der hohe Shadertakt sicher auch eine Rolle.

So wird es auch beim G300 der Fall sein - ich bin sicher, dass er auch wieder mehr OC Potenzial als der RV870 bietet, andererseits sollten auch die ATIs dank 40nm Prozess sehr gut gehen - siehe HD 4770.

Hoffentlich bringt man wie gemutmaßt schon Ende September einen G300 Paperlaunch - dann müssen wir nicht mehr weiter spekulieren ! :fresse:
 
Das, was vermutet wurde, ist nun offiziell:

Hardlaunch der G300 Karten (Codename D12U) laut nVidia Roadmap erst ab Q1/2010 :

http://www.semiaccurate.com/2009/09/01/nvidia-roadmaps-turn/


Somit bleibts also wohl beim Paperlaunch 2009 (frühstens Ende September für Presse + Partnerhersteller).

ob ich so lange warten kann..mmh. schade! bis dahin kommt dann sicher auch bald die 5890 als kleiner reresh..

---------- Beitrag hinzugefügt um 23:13 ---------- Vorheriger Beitrag war um 23:10 ----------

was ist den D10U in Q3/2009 midrange?
 
hab mich jetzt mal eingelesen..ist schon ziehmlich pro ati der artikel..wenn es aber wirklich so kommt stehn nv zumindest zwei schlechte quartale ins haus..
bei mir auch gamer...! hab gerad meine X2 verkauft..brauche also in bälde was;)
hätte gern wieder ne nv drin...war damals total begeistert vom G80 dessen design ja aufgebohrt eigentlich immer noch aktuell ist..
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh