nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Das hat nix mit Zusammmenschustern zu tun,fakt ist Direkt X11 wird sich u das ist sicher schneller Durchsetzen als seine beiden letzten Vorgänger 10 u 10.1.

Nvidia mag nette Features haben wie 3D Vision,Cuda,Phys X aber das ist nicht der Weisheit letzter Schluss.

Hört endlich mal mit dem gegenseitigen Geflamme auf u betrachtet die Sache mal objektiv:(

Der Ausspruch ist so wie ichs sage einfach nur Säbelrasseln nicht mehr nicht weniger

manche sind einfach nicht in der lage über den eigenen tellerrand zu schauen, sowas sollte man gar nicht erst beachten!

jepp, sehe ich wie du.
ein feature kann nicht gut sein, solange man selbst keine hardware hat die es unterstützt, aber wenn die eigenen produkte es auch können kommen dann sprüche treu dem motto "was interessiert mich mein geschwätz von gestern"

dx11 wird sicher schneller fuß fassen, da die softwarebasis jetzt schon deutlich breiter ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das hat nix mit Zusammmenschustern zu tun,fakt ist Direkt X11 wird sich u das ist sicher schneller Durchsetzen als seine beiden letzten Vorgänger 10 u 10.1.

Nvidia mag nette Features haben wie 3D Vision,Cuda,Phys X aber das ist nicht der Weisheit letzter Schluss.

Hört endlich mal mit dem gegenseitigen Geflamme auf u betrachtet die Sache mal objektiv:(

Der Ausspruch ist so wie ichs sage einfach nur Säbelrasseln nicht mehr nicht weniger

Ich hab mich schon wieder aufgepustet über den sein Post, aber dann hab ich deinen gelesen:d

*UNTERSCHREIB*
 
Ich hab mich schon wieder aufgepustet über den sein Post, aber dann hab ich deinen gelesen:d

*UNTERSCHREIB*

Den sein Post ist doch gar nicht so schlimm, den anderen ihre Posts sind übler. Find ich! :shot:
 
@1337BiTbUrGeR
was willst Du damit aussagen?
Das nVidia keine DX11-Grakas bringen wird und mit dem Rebranding bei Mid- und Lowrange weitermacht?
Da bin ich anderer Meinung. nVidia hat aufgrund der im Link genannten Gründe kein Problem damit, mit DX11 etwas später auf dem Markt zu sein wie ATI. Das ist alles.

hum? :hmm: seid wann bin ich kontra nv ? :xmas:

peace bruder :shot:
 
Dafür müsste man aber 2 separate Designs machen. Das halte ich für recht unwahrscheinlich.

Du meintest doch das man ein extra design machen müsste um die Gamerkarten zu "entschlacken". Zumindest habe ich das so verstanden. Und die Kernaussage zum Design deute ich gerade dahin das genau das nicht notwendig ist. Es also nicht nur um deaktivieren der Einheiten geht sondern um das entfernen dieser vom Chip.

PCGH schrieb:
Neu ist jedoch, dass für den Spielermarkt oder den Mainstream die Anzahl der DFMA-Einheiten unabhängig von den für Spiele und auch für Spieler-Physx wichtigen SDFMA-Einheiten reduziert werden und so den Chip deutlich "entschlacken" (rein aus Spielersicht) kann. Die Spieleleistung pro Quadratmillimeter Chipfläche und somit das Preis-Leistungsverhältnis aus Spielersicht kann dadurch merklich gesteigert werden.
 
Dafür müsste man aber 2 separate Designs machen. Das halte ich für recht unwahrscheinlich.

Aber wurden Cypress und Juniper nicht auch parallel entwickelt?

Ist natürlich eine aufwändige und teure Angelegenheit. Ein Unternehmen wird wohl die Vor- und Nachteile sowie den finanziellen Aufwand gegenrechnen und dann entscheiden. Unmöglich muss es daher nicht sein.
 
Du meintest doch das man ein extra design machen müsste um die Gamerkarten zu "entschlacken".
Korrekt.

Und die Kernaussage zum Design deute ich gerade dahin das genau das nicht notwendig ist. Es also nicht nur um deaktivieren der Einheiten geht sondern um das entfernen dieser vom Chip.
Und genau dafür brauchst du ein zweites Design. Etwas Gegenteiliges sagt PCGH ja auch nicht.

Aber wurden Cypress und Juniper nicht auch parallel entwickelt?
Korrekt. Das sind ebenfalls zwei verschiedene Designs. Allerdings beide für Desktops. Einmal Performance und einmal Mainstream. Um die Analogie herzustellen, müsste nVidia dann 3 Designs haben, professionell (DP, ECC, etc), High-End/Performance Desktop, Mainstream Desktop.
 
Korrekt. Das sind ebenfalls zwei verschiedene Designs. Allerdings beide für Desktops. Einmal Performance und einmal Mainstream. Um die Analogie herzustellen, müsste nVidia dann 3 Designs haben, professionell (DP, ECC, etc), High-End/Performance Desktop, Mainstream Desktop.

Unmöglich muss es deshalb ja nicht sein. Wenn NV mit dem Fermi Design genug Geld verdienen könnte und gleiches mit dem GF100 wären zwei Designs nicht unbedingt unmöglich. Zumal die grundlegende Entwicklung sich stark überschneidet und damit auch die zusätzlichen Kosten für die Lösung nicht so stark ausfallen würden.
 
Eben, ledicglich eine sperate fertigung und andere lichtmasken. ich glaub nicht das nvidia das gemacht hätte wenn dadurch "mehrkosten" enstanden wären :)
 
Eben, ledicglich eine sperate fertigung und andere lichtmasken. ich glaub nicht das nvidia das gemacht hätte wenn dadurch "mehrkosten" enstanden wären :)

Naja, ganz so wenig wie du das nen darstellst ist es nun auch nicht, aber wie gesagt, NV hat damals angegeben den Fermi modular entwickeln zu wollen was heißen würde das ich relativ einfach ins Design eingreifen kann.

Später hab ich allerdings das Problem das ich zwei verschiedene Produktabläufe bekomme mit eigenen Fehlern etc.
 
das bedeutet doch nur das bald noch mehr unterschiedliche karten auf den markt kommen und alles noch unübersichtlicher wird :fresse:
 
Sodele.. es ging um eine Abstimmung in der diskutiert wurde (und wird), ob Fermilein sich mit der Grafik nun offenbart hat, oder nicht.

..

1. Fermi ist wunderbar
2. Fermi ist nutzlos
3. Kann mich nicht entscheiden

(ganz platt ausgedrückt)

Im unteren Text zweifelte der Autor der Seite die Grafik an. Seiner Meinung nach sei es unwahrscheinlich, dass eine Single-GPU-Fermi eine (Dual-GPU)-Hemlock schlagen könne.

Mehr stand da jetzt nicht wirklich drinne. (abgesehen von einigen chinesischen Sprichwörtern, die ich nicht ins Deutsche zu übersetzen wage.)
 
Ist doch nix besonderes R600 und G80(?) können das auch die frage ist wie schnell.

8x so schnell ?

Kann sein, dann ist man eben statt 1 FPS jetzt bei 8 FPS :shot:
 
Zuletzt bearbeitet:
Ist doch nix besonderes R600 und G80(?) können das auch die frage ist wie schnell.

8x so schnell ?

Kann sein, dann ist man eben statt 1 FPS jetzt bei 8 FPS :shot:
Wenn dort steht Echtzeitraytracing dann wird er nicht bei 8 Bildern rumschwirren,sondern mindestens 25 Bilder die Sekunde schaffen;)

Und das ist eine Glanzleistung

Wenn das stimmt dann kann man von einer enormen Shaderperformance ausgehen
 
Zuletzt bearbeitet:
Sodele.. es ging um eine Abstimmung in der diskutiert wurde (und wird), ob Fermilein sich mit der Grafik nun offenbart hat, oder nicht.

..

1. Fermi ist wunderbar
2. Fermi ist nutzlos
3. Kann mich nicht entscheiden

(ganz platt ausgedrückt)

Im unteren Text zweifelte der Autor der Seite die Grafik an. Seiner Meinung nach sei es unwahrscheinlich, dass eine Single-GPU-Fermi eine (Dual-GPU)-Hemlock schlagen könne.

Mehr stand da jetzt nicht wirklich drinne. (abgesehen von einigen chinesischen Sprichwörtern, die ich nicht ins Deutsche zu übersetzen wage.)
Danke

Also wahr die Übersetzung von Googel fürn A... ums mal deutlich zu sagen:xmas:
 
8x so schnell ?

Kann sein, dann ist man eben statt 1 FPS jetzt bei 8 FPS :shot:
Nun ja, ich denke, die beziehen sich auf DP Berechnungen. Da waren die bisherigen nVidia GPUs aber auch absolute Krücken. Für Grafik eh uninteressant.

Lustig finde ich auch die Frage, ob Fermi eine 3D-Welt in Echtzeit raytracen kann. Das konnte schon 'ne gewöhnliche CPU vor 10 Jahren wie zB mit heaven seven. :haha:
 
Lustig finde ich auch die Frage, ob Fermi eine 3D-Welt in Echtzeit raytracen kann. Das konnte schon 'ne gewöhnliche CPU vor 10 Jahren wie zB mit heaven seven. :haha:
Zeig mir die CPU die vor 10 Jahren eine komplexe 3D Welt mit 25 bildern /sec Raytracen konnte u die ist gekauft;)

Warum hat wohl Intel sein Larabee Projekt (RIP) so stark mit Echtzeitraytracing als eines seiner Paradedisziplinen hingestellt?
Sicherlich nicht weil CPUs vor 10 Jahren das schon beherrschten in komplexen Szenen
 
Zuletzt bearbeitet:
Zeig mir die CPU die vor 10 Jahren eine komplexe 3D Welt mit 25 bildern /sec Raytracen konnte u die ist gekauft
Dann lass doch die heaven seaven Demo mal auf 'nem Pentium III laufen. Da wirst du problemlos genug FPS bekommen. Wenn mich nicht alles täuscht, wurde die Demo sogar lediglich auf 'nem Pentium 200 oder so entwickelt.
Du scheinst nicht zu verstehen, dass eine solche Aussage absolut wertlos ist. Wenn die Szene einfach genug und Strahlendichte und Auflösung gering genug gehalten ist, kannst du selbst mit den billigsten Prozessoren eine solche Szene in Echtzeit raytracen mit 25 FPS. Schau dir mal ernsthafte und komplexe Echtzeit-Raytracing Projekte an. Da brauchst du unter 10 TFLOPS gar nicht erst anfangen. Dieser Aufwand wird für komplexe kommerzielle Spiele ebenfalls notwendig sein. Und über die Komplexität hat nVidia überhaupt keine Angaben gemacht. ;)
 
Zuletzt bearbeitet:
Schau dir mal ernsthafte und komplexe Echtzeit-Raytracing Projekte an. Da brauchst du unter 10 TFLOPS gar nicht erst anfangen. Dieser Aufwand wird für komplexe kommerzielle Spiele ebenfalls notwendig sein. Und über die Komplexität hat nVidia überhaupt keine Angaben gemacht. ;)

Es geht hier denke ich schon um ernsthafte Projekte u keine "Playmobilgrafik" von vorgestern die Nvidia anpeilt mit seiner Optix Engine auf Cuda Basis

http://www.youtube.com/watch?v=BAZQlQ86IB4

Das läuft in Echtzeit ab auf 4xG200 GPGPU berechnet,also liegt es auch im Rahmen des möglichen das Fermi das mit einem Chip schafft
 
Zuletzt bearbeitet:
Das läuft in Echtzeit ab auf 4xG200 GPGPU berechnet,also liegt es auch im Rahmen des möglichen das Fermi das mit einem Chip schafft
Sehr unwahrscheinlich. Dafür müsste die SP Performance vervierfacht worden sein. Das ist definitiv nicht der Fall. Oder der G200 hat seine Shader unglaublich ineffizient ausgenutzt bzw ist an fehlendem Cache verhungert. Kann ich mir ehrlich gesagt nur sehr schwer vorstellen.
 
Sehr unwahrscheinlich. Dafür müsste die SP Performance vervierfacht worden sein. Das ist definitiv nicht der Fall. Oder der G200 hat seine Shader unglaublich ineffizient ausgenutzt bzw ist an fehlendem Cache verhungert. Kann ich mir ehrlich gesagt nur sehr schwer vorstellen.

NV hat ja mit dem Jubiläums-Patent eine Technik zur besseren Shaderauslastung eingereicht (allerdings scheint die Technik an sich schon länger von NV genutzt worden zu sein). Um ehrlich zu sein, es wäre nicht unmöglich das NV dort nachgebessert hat, aber es gibt zu viele Rätsel um Fermi als das man das beantworten könnte.

---------- Beitrag hinzugefügt um 22:18 ---------- Vorheriger Beitrag war um 21:44 ----------

DP...

http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf
Seite 6.
448 Cores....

Würde entweder heißen das NV aufgrund der Yields Kerne deaktiviert...oder noch besser, die Daten von damals garnicht von Chips mit 512 Cores so wie sie auf den GF100 kommen (vermutlich). 630 GFlops DP und die daraus resultierenden 1260 GFlops Sp würden sich dann in 720 GFlops DP und 1440 GFlops SP bei GF100 hochsummieren (theoretisch, praktisch weiß man eh nicht was bei Spielen davon rum kommt, aber die reine Rechenleistung steigt damit schonmal um über 10% Taktbefreit).
 
Die Frage beim theoretischen Durchsatz ist dann nur, ob auch die Taktraten die gleichen sind. Diese wirken sich schliesslich nicht nur auf die Leistungsaufnahme aus, die TDP muss auch entsprechend spezifiziert sein.
Ehrlich gesagt frage ich mich aber, warum die Desktop Varianten mehr Shader haben sollen. Wenn man auf Shaderleistung verzichten kann, dann doch eher dort und nicht bei Teslas.
 
Zuletzt bearbeitet:
Die Frage beim theoretischen Durchsatz ist dann nur, ob auch die Taktraten die gleichen sind. Diese wirken sich schliesslich nicht nur auf die Leistungsaufnahme aus, die TDP muss auch entsprechend spezifiziert sein.
Ehrlich gesagt frage ich mich aber, warum die Desktop Varianten mehr Shader haben sollen. Wenn man auf Shaderleistung verzichten kann, dann doch eher dort und nicht bei Teslas.

Die Frage wäre in wie weit man Fehler auf dem Die toleriert. Klar, wenn die Funktion nicht gegeben ist hat sich das mit dem Core sowieso erledigt, aber evtl achtet man auch auf die Qualität der Leiterbahnen an sich etc und macht daraufhin eine auslese.

Ich weiß es nicht genau, aber das die Qualitätsansprüche an den Tesla wesentlich höher sind als beim GF100 sollte klar sein.
 
Gibt es mittlerweile eine grobe Angabe, der man trauen kann, wann Rel. ist?

btw:
Wahnsinn was ihr an Wissen über "Dies" und Architektur habt..
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh