nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich ebenso - kann mir einfach nicht vorstellen, dass ein voll ausgebauter GF100, auch mit etwas höheren Taktraten, soviel zieht wie 2 x RV870 mit gedrosselten Taktraten, auch wenn man leistungsmäßig nicht soweit entfernt wäre.

Dazu müssten die Spannungen schon sehr hoch liegen, was zu massiven Spitzentemperaturen führen würde.

Vom einem Dual-GPU Modell erst gar nicht zu sprechen.
 
naja überlegung war Tesla mit 1,2-1,4Ghz Ghz und 448 Shader ca um 200W NV selber gab das bisher mit 190W normal 225 max an.
wenn man das jetzt auf 1,5-1,7Ghz erhöht und alle Shader freischaltet damit man die 5970 angreifen kann kommt man auf rechnerisch ~300W, Praktisch sollte der verbrauch sogar noch höher ansteigen.

Ist gleich wahrscheinlich wie das der GF deutlich schneller ist als der 5970
 
Wer weiß, wenn es bis dahin PCIe 3.0 gibt hat man mit der TDP andere Möglichkeiten. Und da sich die Karte eh nur an Enthusiasten richtet spielt Green-IT dann keine Hauptrolle.

.

Ich hoffe die treiben nur die Bandbreite in die Höhe,aber nicht die Energieaufnahme.

Jeder weiss doch wo das enden wird,wenn der PCI E Slot auf einmal 150Watt liefern kann:shake::shot:

Man ist den herstellern mit den 8Pin stromstecker doch schon entgegengekommen ich finde,selbst als Enthusiast,das dieses genügt u die Grafikkartenhersteller sich bewegen müssen um die Chips in den Grenzen zu halten.
 
Wer weiß, wenn es bis dahin PCIe 3.0 gibt hat man mit der TDP andere Möglichkeiten. Und da sich die Karte eh nur an Enthusiasten richtet spielt Green-IT dann keine Hauptrolle.

Green-IT nicht aber Effizient müssen sie sein!
Mit weniger Einheiten die HD5XXX wegrocken wäre schon Genial! :coolblue:

P.S. meine GTX285 wird mit 186W TDP angegeben, rechnerisch komme ich auf max. 150W.
Also da ist schon eine gewisse Reserve mit einberechnet!

:wink:
 
denke mal mehr bandbreite auch allerdings wäre das ihmo noch nit umbedingt nötig aber lieber zu früh als zu spät

---------- Beitrag hinzugefügt um 13:26 ---------- Vorheriger Beitrag war um 13:08 ----------

ach ja wegen PCIE 3.0

http://www.golem.de/0908/68913.html

2011 jetzt wisma wann der fermi kommt ^^
 
PCIE 3.0 ist aber z.Zt sowas von unnötig.
Bis man an die Grenzen von PCIE 2.0 stösst vergehen mindestens noch ein, wenn nicht sogar zwei Generationen von Grafikkarten.
Wie war das noch mit den Benchmarks von 4-16 Lanes. :d

Was ich eher für möglich halte ist die Grafikkarte mit 3x6er Stromanschluss, z.B. oder gar mehr.

Die Techniker finden schpn Möglichkeiten eine Grafikkarte mit 500 Watt zu versorgen.
 
Zuletzt bearbeitet:
wie gesagt 2x 8 pin = 4x6 pin wird zu 99% sicher kommen, fix isst es aber erst ab sommer 2010
 
wie gesagt 2x 8 pin = 4x6 pin wird zu 99% sicher kommen, fix isst es aber erst ab sommer 2010

Das kannst du alles heute schon haben,entsprechende NTs vorrausgesetzt.

Nur ist eine Entwicklung in diese Richtung gar nicht gut,für eine Singelcoregrafikkarte.

Zum Glück zeigt die Luftkühlung den Herstellern so langsam Grenzen auf,sonst wären wir da bin ich sicher schon weit über 300Watt ganz gleich was die PCIe Specs sagen
 
Eben, also wozu PCIE 3.0, wenn man den Saft auch über das NT direkt beziehen kann.
Okay für die meisten Käufer wäre es nicht akzeptabel ein z.B. 1 KW-NT in den Rechner zu bauen, aber für die Leistungskrone ist sowas sekundär.

Ich perönlich ziehe z.B. die Grenze bei 450 Watt-Netzteilen bzw. max. Leistungsaufnahme von 300 Watt.
 
Zuletzt bearbeitet:
kannst du ahben wird aber vom PCIE konssortium nit abgesegnet biste also ausserhlab der spezifiaktionen.
Das selbe bei 3 Slot Lüftern

weshalb es auch nur die Asus Mars im Desktop damit gibt
 
Nochmal zu den Matrizen. Es bringt dir aber im Endeffekt nichts wenn du die Matrix verkleinerst weil das nicht in allen Fällen möglich ist. Es ist zwar schön das die Vec5 Shader dann mehr Leistung haben, aber es bringt nichts wenn ich die Matrizen nunmal aufgrund der Werte anders aufbauen muss. Von daher halte ich das Thema optimierten Code für nichtig, weil realitätsfern. NV hat ja das selbe Problem, nur halt nicht so stark.
Also im besagten Beispiel hat nVidia erstmal ein grösseres Problem, 40% ist immer noch weniger als 45%. Und Optimierungen sind alles andere als nichtig. Diese werden ja schliesslich vom Compiler durchgeführt, der die Blöckgrössen festlegen kann, wie er lustig ist. Und mit diesen Optimierungen kommt der Entwickler auf High-Level Sprachebene auch nicht in Berührung. Was der Typ gemacht hat, ist einfach besseren Code als ATIs Compiler zu implementieren. Das hat mit nVidia und "einen Mittelweg zu finden" gar nichts zu tun.
 
Noch keine Informationen, wann es gescheite Tests zum G300 gibt? Und wann kann man das Ding kaufen? Die sollen mal gas geben!
 
denkt ihr echt das die G300 high end modelle 2x 8 pin GPU benötigen ?
 
denkt ihr echt das die G300 high end modelle 2x 8 pin GPU benötigen ?

Für die Tesla Karten vieleicht schon, aber für die Gamerkarte glaube (hoffe) ich nicht.

Man muss sich mal vorstellen wenn das so kommen sollte, welches NT sollen 8x 8PIN anbieten ?:shake: (weil ich schonmal einer für Quad SLI bin)
 
eher umgekehrt ^^

tesla wird weniger brauchen


allerdings denke ich erwartet das hier niemand geht eher um die dualgpu da der GF100 ziemlich sicher über 200W braucht selbst bei moderaten Taktraten sofern sie jetzt nicht noch A4 oder gar noch B1 machen und der viel besser wird
 
nö können sie nicht da wie gesagt PCIE frühestens mitte 2010 überhaupt spezifiziert wird

wobei für die dual könnte es sich ausgehen ma gucken.
 
an eine Dualkarte glaub ich erst recht nicht, die ASUS MARS läuft nichtmal standard stabil die Karte wird 100° was soll das beim Dual G100 werden.....
 
denkt ihr echt das die G300 high end modelle 2x 8 pin GPU benötigen ?

Das würde bedeuten, das die Graka in einem Bereich von ~280W bis ~350W liegen würde. Möglich wäre das, aber in meinen Augen grenzt das schon sehr an eine Verzweiflungstat.

Also im besagten Beispiel hat nVidia erstmal ein grösseres Problem, 40% ist immer noch weniger als 45%. Und Optimierungen sind alles andere als nichtig. Diese werden ja schliesslich vom Compiler durchgeführt, der die Blöckgrössen festlegen kann, wie er lustig ist. Und mit diesen Optimierungen kommt der Entwickler auf High-Level Sprachebene auch nicht in Berührung. Was der Typ gemacht hat, ist einfach besseren Code als ATIs Compiler zu implementieren. Das hat mit nVidia und "einen Mittelweg zu finden" gar nichts zu tun.

Der Compiler kann zwar teilweise optimieren, aber um wirklich das Potential der Karte ausschöpfen zu können muss man (zumindest atm. noch) per Hand vektorisieren. Das ist aber z.B. bei der Verwendung von SSE2/3/4 nicht anders. Man könnte sogar sagen, dass Software, die zur Zeit gut auf SSEx ausgelegt ist, ganz gut zur ATI Architektur passt, denn SSEx benutzt ja auch Vec4.

@ mr. dude

Nochmal zu den Matrizen. Es bringt dir aber im Endeffekt nichts wenn du die Matrix verkleinerst weil das nicht in allen Fällen möglich ist. Es ist zwar schön das die Vec5 Shader dann mehr Leistung haben, aber es bringt nichts wenn ich die Matrizen nunmal aufgrund der Werte anders aufbauen muss. Von daher halte ich das Thema optimierten Code für nichtig, weil realitätsfern. NV hat ja das selbe Problem, nur halt nicht so stark. Als Entwickler des Chips muss ich versuchen einen mittelweg zu finden für die Effizienz des Chips. ATI hat eine Lösung, NV eine andere. Es gibt keine optimale und NV wird hier auch nicht bevorteilt, auch wenn das viele immer meinen.

Der einzige Fall, wo du die Vektorisierung nicht gut durchführen kann ist, wenn die Matrix zu klein ist. Jede größere Matrix kann man gut in eine Vielzahl kleinere Matritzen aufteilen. Und bei irgendwelchen Mini-Matritzen lohnt es sich sowieso nicht, das ganze auf die GPU auszulagern. Da nimmt dann besser die SSEx Einheit der CPU. Soweit ich die Beiträge in verschiedene Developer Foren richtig verstanden habe, liegt das Hauptproblem (vor allem bei den HD4xxx Karten) bei den Speicherzugriffen und nicht bei den ALUs selbst. In dem Bereich sind die HD5xxx Karten gerade erst dort angekommen, wo nVidia schon mit den GT200 war. Feature-seitig sind HD5xxx und GT200 in etwa gleich auf, wobei die HD5xxx natürlich wesentlich mehr Rohpower besitzt.
 
Zuletzt bearbeitet:
an eine Dualkarte glaub ich erst recht nicht, die ASUS MARS läuft nichtmal standard stabil die Karte wird 100° was soll das beim Dual G100 werden.....

Die Mars war auch ne total fehlebntwicklung viel zu schwacher lüfter dazu noch dual pcb. und aus genau dem grund kommen trippleslot kühler. und 8x8 brauchste eh nit 1 mal kann sli max 3 einzelkarten ausser der EVGA sonderanfertigung. 2 brauchsste dann 12 slots ^^
 
ja gut notfalls, gibt es ja noch adapter für die 6 pin stecker, aber heftig wäre das schon
 
Zuletzt bearbeitet:
Ich meine irgendwo gelesen zu haben das die neuen Karten weniger Strom brauchen sollten als die alten. Ich muß mal die Quelle suchen...

Quelle...
 
Zuletzt bearbeitet:
anfang oktober ^^ war da überhaupt schon A2 draußen ?

mom spricht man beid er tesla mit deaktivierten einheiten und low takt von 190W typischen verbrauch und 225W max was bereits über GTX 285 ist und teslas sind immer niedriger getaktet damit 100% nie ein rechenfehler passiert
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh