nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
jo na mal sehen :)

Was quatschen die da im 3DC davon schon wieder das die jetzt noch später kommen sollen, die quatchen was von mai/juni :confused: !?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
jo na mal sehen :)

Was quatschen die da im 3DC davon schon wieder das die jetzt noch später kommen sollen, die quatchen was von mai/juni :confused: !?

Lass dich nicht so leicht beirren nur wenn ein User mal seine übertriebene Meinung kund tut. ;)

Bevor nicht genau raus ist wie es nun wirklich um A3 steht weiß niemand etwas.
 

Hört sich doch schonmal lecker an!


Ironie an "Na dann wird Nvidia ja bald untergehen" Ironie aus

Einfach phantastisch was man sich hier so zusammenrechnet.Dann frag ich mich aber doch,warum ist Nvidia wieder so "blöd"und baut den Chip wenn hier schon einige "wissen" das Nvidia damit mindestens 50% Verlust pro Chip einfährt gegen ATI:shot:

Will nichtmal jemand dort anrufen u sie davon abhalten diesen Chip zu bauen:coolblue::d

:hail: :hail: Wäre auch das erste Unternehmen das ich kenne was freiwillig und gerne Verluste einfährt. Aber vielleicht denke ich da zu altmodisch :confused:


Tante Edith sagt: Haro hab ich auf Liste, solltest auch tun Bit, ist reinste Pixelverschwendung seine Posts

Warum sollte ich ihn auf Ignore stellen. Ich komme noch gut mit seinen Kommentaren klar, im gegensatz zu ihm bekommt man mich nicht soooo schnell auf 180°. Ich hab ein recht dickes Fell :drool:


mal sehen was sich hinter 32xAA verbirgt 16xQ sieht auch schlecht aus als 8xMSAA wenn man sich bewegt im Spiel(find ich).

16xAA + Wide Tend sind auch 32xAA sieht trotzdem kacke aus^^


16xQ besteht ja auch aus 8x MSAA + 8x CSAA wobei bei coverage AA das gesamte bild weichgezeichnet und das gefällt nicht jedem da kleinere details verloren gehen können. In manchen spielen siehts aber wirklich besser aus. (muss mich selbst mal korregieren, hab das mit tap verwechselt. coverage zeichnet nicht das gesamte bild weicher, aber wird nicht von jedem spiel unterstützt. denke mal daher kommt es zu qualitätsunterschieden zum gewöhnlichen 8x msaa)

Ich stimme dir aber größtenteils zu, ich glaub auch eher weniger das man von 8x MSAA direkt zu 32x MSAA springen wird. Eine weitere mischvariante ist da realistischer
 
Zuletzt bearbeitet:
Im B3D geht man übrigens davon aus das die Geforce Karten relativ unabhängig von den Teslas takten.

Man könnte davon ausgehen das die Teslas weniger verbrauchen als 225 Watt und sich jene angabe nur auf die maximal zur Verfügung gestellte Leistung beziehen, also 2x6Pin.
http://www.computerbase.de/bildstrecke/27497/23/

Die 190 Watt klingen auch sehr viel besser und NV hätte hier gute möglichkeiten durch die Spannung ordentlich an der Taktschraube zu drehen, also abwarten. 1400 MHz bei 190 Watt machen 1700 MHz bei 6+8Pin nicht gerade unmöglich. Die Frage ist halt nur was NV mit den Shadereinheiten anstellt.
 
Allein mit einer Takterhöhung verbrauchst du kaum mehr Saft. Die Verlustleistung steigt linear mit dem Takt und quadratisch mit der Spannung, NV wird also versuchen so viel Takt wie möglich aus so wenig Spannung wie möglich zu kitzeln ;)

Du sagst es, lineare Steigerung. Wenn man nun davon ausgeht, das bei der Menge verbauter Shader, diese den Großteil der Leistung verbraten, ergibt das bei einem angenommenen Takt von 1,7GHz bereits ein Plus von über 20% (225 * 1.20 = 270). Wenn man dann noch davon ausgeht, dass dafür wohl eine zumindest leichte Spannungserhöhung notwendig ist, haste die 300W. Schaltet man dann noch alle 512 Einheiten frei und du bist drüber.
Das einzige, was nVidia da retten könnte wäre ein deutlicher Sprung bei TSMCs Fertigungstechnologie, den aber auch AMD für Taktsteigerungen benutzen könnte.


Wie wir nun wirklich schon zu hauf festgestellt haben haut das mit der Rechnung wie du sie anstellst nicht hin.
Edith sagt: fdsonne war schneller...

Jo, so eine Rechnung ist vollkommener Unsinn. Habe ich ja auch dazu geschrieben.
 
Du sagst es, lineare Steigerung. Wenn man nun davon ausgeht, das bei der Menge verbauter Shader, diese den Großteil der Leistung verbraten, ergibt das bei einem angenommenen Takt von 1,7GHz bereits ein Plus von über 20% (225 * 1.20 = 270). Wenn man dann noch davon ausgeht, dass dafür wohl eine zumindest leichte Spannungserhöhung notwendig ist, haste die 300W. Schaltet man dann noch alle 512 Einheiten frei und du bist drüber.
Das einzige, was nVidia da retten könnte wäre ein deutlicher Sprung bei TSMCs Fertigungstechnologie, den aber auch AMD für Taktsteigerungen benutzen könnte.

Wie gesagt, die Frage ist halt ob man nicht von den 190 Watt ausgehen sollte und die 225 Watt nur als max Boardpower betrachtet. Dann wäre man nach deiner Rechnung nur bei 228 Watt bei 1,7 GHz, also würde es mit vollen Shadern und bei höherer Spannung 228+xWatt sein.
 
Wie gesagt, die Frage ist halt ob man nicht von den 190 Watt ausgehen sollte und die 225 Watt nur als max Boardpower betrachtet. Dann wäre man nach deiner Rechnung nur bei 228 Watt bei 1,7 GHz, also würde es mit vollen Shadern und bei höherer Spannung 228+xWatt sein.

Wenn das hier aber eine Tesla Karte darstellt???Dann kann sie weit mehr als 225 Watt max aufnehmen,da 6+8pin.Zeigt das Bild allerdings den Geforce könntest du mit deiner Vermuhtung recht haben.

Was mir daran auffällt die Karte hat einen Monitorausgang u kann deshalb eigentlich kein Tesla sein!!!
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    180,8 KB · Aufrufe: 56
Zuletzt bearbeitet:
Selbst wenn man von den 190W ausgeht, würde man inkl. Aktivierung aller Einheiten und höherem Takt (inkl. Spannungserhöhung) in den oberen 2xxW Bereich kommen und das als typische Leistungsaufnahme. Das wäre dann der Bereich, in dem sich die HD5970 bewegt (~220W/290W @ Spiele/Furmark laut HT4u)
 
Selbst wenn man von den 190W ausgeht, würde man inkl. Aktivierung aller Einheiten und höherem Takt (inkl. Spannungserhöhung) in den oberen 2xxW Bereich kommen und das als typische Leistungsaufnahme. Das wäre dann der Bereich, in dem sich die HD5970 bewegt (~220W/290W @ Spiele/Furmark laut HT4u)

Und was gibt es dagegen auszusetzen wenn die Karte dann ähnlich schnell ist ohne Dualchiplösung?

Edit:hier sieht man nochmal eine orginal Tesla Karte ohne Monitorausgang

http://www.youtube.com/watch?v=UlZ_IoY4XTg
 

Anhänge

  • Unbenannt.jpg
    Unbenannt.jpg
    167,6 KB · Aufrufe: 39
Zuletzt bearbeitet:
Selbst wenn man von den 190W ausgeht, würde man inkl. Aktivierung aller Einheiten und höherem Takt (inkl. Spannungserhöhung) in den oberen 2xxW Bereich kommen und das als typische Leistungsaufnahme. Das wäre dann der Bereich, in dem sich die HD5970 bewegt (~220W/290W @ Spiele/Furmark laut HT4u)

Da du nicht weißt in welchem Spannungsbereich man sich jetzt bewegt und wieviel mehr Shader an Leistung brauchen würden halte ich solche Spekus für ziemlichen Müll.

Aber is ja Weihnachten...
 
Dann frag ich mich aber doch,warum ist Nvidia wieder so "blöd"und baut den Chip wenn hier schon einige "wissen" das Nvidia damit mindestens 50% Verlust pro Chip einfährt gegen ATI
Warum haben sie G200 gebaut? ;) Die Chips, die heute gelauncht werden, waren schon vor Jahren in den Entwicklunglaboren. Und wenn die Konkurrenz nun mal besser und wirtschaftlicher designed, kann man das nicht einfach von heute auf morgen aufholen bzw seine eigenen Konzepte über den Haufen werfen. Natürlich will kein Unternehmen Verluste machen, aber das passiert nun mal, wenn Konkurrenz vorhanden ist.

Könnte man an der durchschnittlichen Flop-Leistung fest machen. http://www.3dcenter.org/news/2009-11-19 hier gibts ne schöne auflistung. Auch hier sieht man das die Shader von ATI schwerer auszulasten sind.
Selbst mit diesen Werten ist ATI (RV770) nicht schlechter mit einer Auslastung von 45% (540/1200) gegenüber nVidia (G200) und 40% (375/933). Das zeigt aber nur das, was ich bereits sagte, unzureichender Software Support. Hier kannst du mal nachlesen, was mit entsprechendem Support möglich ist. Der Typ passt einfach nur die für den Algorithmus verwendeten Datenblöcke entsprechend den RV770 Gegebenheiten an, soweit ich das verstehe. Er verwendet dabei einfache float4 Vektoren, was einen theoretischen Durchsatz von 960 GFLOPS für die 4870 bedeutet und erhält letztendlich ein Ergebnis von 880 GFLOPS bzw ~92% Peak. Recht beeindruckend. Bezogen auf den gesamten zur Verfügung stehenden Durchsatz immer noch ~73% Peak. Um letzteren zu erhöhen müsste man noch weitere Anpassungen am Code vornehmen, um auch den 5. SP pro Shader auszulasten, was dann weniger trivial sein dürften.
Und wenn wir das jetzt mal auf den RV870 übertragen, ist dort mindestens 2 GFLOPS realer Durchsatz zu erwarten. Da wird der G300 nicht hinkommen. Schon gar nicht mit dem bisher gemessenen Peak beim G200.
 
Zuletzt bearbeitet:
Natürlich will kein Unternehmen Verluste machen, aber das passiert nun mal, wenn Konkurrenz vorhanden ist.

.

Ich frag dich nochmal kennst du die Quartalszahlen von Nvidia oder wie kommst du zu dieser aus der Luft gegriffenen Behauptung,die du versuchst den Leuten zu suggerieren?:coolblue:

Ich kenne eine Firma die in den roten Zahlen ist u das ist nicht Nvidia,sondern einer der Mitbewerber
 
Zuletzt bearbeitet:
Ich frag dich nochmal kennst du die Quartalszahlen von Nvidia oder wie kommst du zu dieser aus der Luft gegriffenen Behauptung?
Die Quartalszahlen kannst du dir anschauen. Die machen die Unternehmen normalerweise öffentlich. Und da gab es das eine bzw andere Quartal in den letzten 2 Jahren, wo nVidia am Ende rote Zahlen schrieb. Ua eben, weil der G200 kaum Gewinn abgeworfen hat.

Ich kenne eine Firma die in den roten Zahlen ist u das ist nicht Nvidia,sondern einer der Mitbewerber
Ach ja, welches denn? Weder AMDs noch Intels Grafiksparte hatten im letzten Quartal Verluste. nVidia übrigens auch nicht. Ich weiss auch nicht, was das mit dem Thema zu tun haben soll. Schon seltsam, wie dünnhäutig einige nVidia Hardliner hier sind, wenn man über völlig pragmatische Fakten spricht. :rolleyes:
 
Zuletzt bearbeitet:
Selbst mit diesen Werten ist ATI (RV770) nicht schlechter mit einer Auslastung von 45% (540/1200) gegenüber nVidia (G200) und 40% (375/933). Das zeigt aber nur das, was ich bereits sagte, unzureichender Software Support. Hier kannst du mal nachlesen, was mit entsprechendem Support möglich ist. Der Typ passt einfach nur die für den Algorithmus verwendeten Datenblöcke entsprechend den RV770 Gegebenheiten an, soweit ich das verstehe. Er verwendet dabei einfache float4 Vektoren, was einen theoretischen Durchsatz von 960 GFLOPS für die 4870 bedeutet und erhält letztendlich ein Ergebnis von 880 GFLOPS bzw ~92% Peak. Recht beeindruckend. Bezogen auf den gesamten zur Verfügung stehenden Durchsatz immer noch ~73% Peak. Um letzteren zu erhöhen müsste man noch weitere Anpassungen am Code vornehmen, um auch den 5. SP pro Shader auszulasten, was dann weniger trivial sein dürften.
Und wenn wir das jetzt mal auf den RV870 übertragen, ist dort mindestens 2 GFLOPS realer Durchsatz zu erwarten. Da wird der G300 nicht hinkommen. Schon gar nicht mit dem bisher gemessenen Peak beim G200.

Wenn ich das richtig verstehe hat er die Matrizen verkleinert. Also mehr Matrizen aber weniger Berechnungen wenn er eine Matrixaddition/subtraktion oder dergleichen durchführt. Dafür hat er mehr Matrizen die er Handeln muss was über die Register läuft. Kann aber auch sein das ich das gerade nicht richtig verstehe.

Ein vergleich mit einer GT200 wäre interessant, aber er scheint sich nur auf den Ausgangswert zu beziehen. An Registermangel soll es bei dem GT200 ja eigentlich nicht hapern. Fermi soll auf die Einheiten gesehen weniger haben aber sie evtl in den Cache überlaufen lassen können, ist aber alles nur Hypothese.

Kommt übrigens bei deinem Prozent drauf an wie ich das mit dem MUL hinbekomme beim GT200. Ausgehend von der Matrizenrechnung würde ich sagen teilweise ziemlich bescheiden. Dann läge der Prozentwert bei 40-60% für den GT200, letzteres halt best Case weil ich von Vornerein sage das MUL kann ich bei der SP-Leistung raus nehmen.
 
Schon seltsam, wie dünnhäutig einige nVidia Hardliner hier sind, wenn man über völlig pragmatische Fakten spricht. :rolleyes:

Es sind keine Fakten das Nvidia Verluste einfährt:p



Und weiter? Hat der Beitrag auch irgendwie einen Sinn?

Das frag ich dich

Du redest von theoretischer GFlops Leistung in SP beim 5870 die er z.Zt nicht nutzen kann weil keiner die 5D Shader ausnutzt per Applikation

Du redest von 50% Wafervorteil bei ATI ohne zu wissen wie der G300 designed ist

Du redest von Verlusten bei Nvidia die es gar nicht gibt u teilst dann AMD/ATI in Grafik u Prozessorsparte um die Gesamtbilanz zu schönen.

Sorry ich geb auch Leuten von dieser Seite die kante die meinen(laut Nvidia) Direkt X 11 bräuchte man nicht,aber das was du hier beiträgts gibt genauso Grund zur Kritik
 
Zuletzt bearbeitet:
Und was gibt es dagegen auszusetzen wenn die Karte dann ähnlich schnell ist ohne Dualchiplösung?

Prinzipiell nichts, allerdings halte ich eben grundsätzlich Karten mit 200W+ Verlustleistung für fragwürdig, aber das muss schlussendlich jeder für sich entscheiden.

Edit:hier sieht man nochmal eine orginal Tesla Karte ohne Monitorausgang

http://www.youtube.com/watch?v=UlZ_IoY4XTg

Ich weiß nicht mehr, wo ich das gelesen habe, aber irgendwo stand mal, dass sich einige Anbieter von Tesla Lösungen für zukünftige Karten zumindest einen einfachen Monitoranschluss gewünscht haben um die Wartung zu vereinfachen. Ist ja auch schon ein wenig kurios. Da hat man teilweise bis zu 4 Grafikkarten im Rechner und muss noch eine 5. Einbauen, wenn man mal was direkt an der Workstation machen muss.

Da du nicht weißt in welchem Spannungsbereich man sich jetzt bewegt und wieviel mehr Shader an Leistung brauchen würden halte ich solche Spekus für ziemlichen Müll.

Aber is ja Weihnachten...

Naja, die wichtigsten Rahmenbedinungen sind eigentlich bekannt. 448 Shader, 1.05V, 190W/225W (nach dem Tesla-Datenblatt von der NVidia-Seite). Da die Shadercluster abgeschlossene Einheiten sind, kannst du von einem min. linearen Zusammenhang ausgehen. Takterhöhung geht ebenso linear ein, Spannungserhöhung quadratisch. Was noch interessant wäre bei so einer Betrachtung wäre die Aufteilung der Verlustleistung auf Shader und den ganzen Rest.

448 -> 512 Shader (~ +15%)
1,4GHz -> 1,7GHz (~ + 21%)
1.05V -> 1.1V (~ + 10%)

Das Ergebnis ist natürlich nur eine grobe Schätzung.
Was nicht berücksichtigt wurde sind z.B.
* Aufteilung Verlustleistung auf Shader/Rest
* Leckströme, die mit steigender Spannung noch zusätzlich für Verlustleistung sorgen
* Wenn die A3 Chips bei 1.05V schon häufiger an der 1,4GHz Marke scheitern, werden 0,05V eher nicht für 1,7GHz reichen.

Das Ziel dieses Posts ist es nicht den genauen Stromverbrauch einer nicht vorhandenen Karte zu errechnen, sondern nur zu verdeutlichen, warum ich eine Fermi-Karte mit 512 Shadern und 1,7GHz unter den derzeitigen Umständen für sehr unrealistisch halte.

So, das war's soweit von mir. Nun wünsche ich allen Frohe Weihnachten und schöne Geschenke. :)
 
Zuletzt bearbeitet:
Ich weiß nicht mehr, wo ich das gelesen habe, aber irgendwo stand mal, dass sich einige Anbieter von Tesla Lösungen für zukünftige Karten zumindest einen einfachen Monitoranschluss gewünscht haben um die Wartung zu vereinfachen. Ist ja auch schon ein wenig kurios. Da hat man teilweise bis zu 4 Grafikkarten im Rechner und muss noch eine 5. Einbauen, wenn man mal was direkt an der Workstation machen muss.

So, das war's soweit von mir. Nun wünsche ich allen Frohe Weihnachten und schöne Geschenke. :)

Ja das könnte natürlich sehr gut möglich sein bzw ergibt einen Sinn,um die Tesla Racks zu warten.Allerdings hätte dazu auch eine aus der Quadro Reihe genügt u die Produktionskosten der Teslas wären etwas niedriger ohne Monitorausgang:p
 
Zuletzt bearbeitet:
Wofür Monitorausgang?
IdR haben die Dual/Quad/Okta CPU Sockel Boards sowieso irgend ne IGP Onboard. Weil man in so ner Rechenmaschine idR keine Grafikkarte für die Bildausgabe verbaut.

Zu Wartungszwecken würde es ebenso der Onboard Analoganschluss tun ;)
 
Meint ihr es ist sinvoll sich jetzt schon eine HD 5850 zu kaufen?
Weil alles was ich bisher gelesen habe, deutet ja eher darauf hin, dass die neue Geforce eher schlechter werden soll.

Auf alle Fälle. Die HD5850 ist die beste Grafikkarte ihrer Leistungsklasse, wenn du eine unter 250€ kriegen kannst: zuschlagen! Alle schnelleren Grafikkarten sind überproportional teurer und verbrauchen z.T. massiv mehr Strom; alle günstigeren sind drastisch langsamer und haben meist nicht einmal DX11. Dazwischen gibt es noch die GTX 285 , die zwar teurer, aber langsamer und stromhungriger ist. Fermi wird daran auch seehr wenig ändern
 
Zuletzt bearbeitet:
Na, ich würde doch einfach mal warten was NVidia auf die Beine stellt. Dann erst werden sich die Preise von selbst regulieren. ATI scheint auch Probleme mit dem Chip zu haben, siehe hier und Foren weltweit:xmas::shot:
 
Wie gesagt, die Frage ist halt ob man nicht von den 190 Watt ausgehen sollte und die 225 Watt nur als max Boardpower betrachtet. Dann wäre man nach deiner Rechnung nur bei 228 Watt bei 1,7 GHz, also würde es mit vollen Shadern und bei höherer Spannung 228+xWatt sein.

Ich gehe einmal von gar nix aus, sondern schaue mir die 8-pin + 6-pin Stromversorgung an, und die sagt mir >225 <300 W, gemäss PCIe-Spezifikation.
 
Ich gehe einmal von gar nix aus, sondern schaue mir die 8-pin + 6-pin Stromversorgung an, und die sagt mir >225 <300 W, gemäss PCIe-Spezifikation.

Dann schau dir im Vergleich dazu die 2900Pro oder von mir aus die 2900XT von AMD an. Ebenso 6+8Pin und 225W TDP Angabe für die XT.
Realverbrauch in Games bei den ersten XTs mit 1,2V VGPU Spannung bei ~160W...

Spätere Karten mit 1,05V VGPU Spannung und die Pros mit weniger Takt und weniger Spannung hätten durchaus auch mit nur 2x6Pin auskommen können. Was auch in Form der 256Bit Pro mit sogar nur 1x6Pin Anschluss gekommen ist.

Wie man unschwer erkennen kann, sagen die Stromanschlüsse erstmal überhaupt nix aus ;)
 
Ich gehe davon aus das die 380 nahe an die Duallösung von ATI rankommt. Die 360 etwa 20 Prozent über der 5870. Aber, alles Spekulatius passend zur Weihnachtszeit:xmas:
 
Na, ich würde doch einfach mal warten was NVidia auf die Beine stellt. Dann erst werden sich die Preise von selbst regulieren. ATI scheint auch Probleme mit dem Chip zu haben, siehe hier und Foren weltweit:xmas::shot:

Die Probleme scheint vor allem TSMC zu verursachen, sowohl für AMD als auch für Nvidia. Man wollte wohl der Welt zeigen: Intel hat 45nm, wir haben 40nm! Hoffentlich konzentrieren die sich jetzt, da Intel 32nm einführt, auf technische Sachen wie die Verbesserung des 40-nm Prozesse und nicht auf Marketing/Prestige Geschichten.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh