nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Komisch das dieser Satz immer wieder kommt u trotzdem die Quarrtalszahlen ein komplett anderes Bild aufzeigen;)

Immer u immer wieder wird es gepredigt auch wenn es dadurch nicht wahrer wird

Quartalszahlen beinhalten aber alles komplett.
Nimmst du jetzt nur mal den Gaming Grafikkartenbereich siehts da bei weitem nicht so rosig aus. Und auch der beste GPU Hersteller würde eine Sparte zumachen, wenn diese über Jahre nur noch Verlust bringen würde! Prestige hin oder her.

Also der Satz ansich auf die Gamingkarten bezogen ist schonmal gar nicht so verkehrt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hieß es nicht mal auf Fud das NV nochmal was zeigen wollte vom Fermie , so von wegen "im laufe des tages"?

Das jetzt aber schon wieder mehr als paar tage her und man hat nichts gehört, oder hab ich das überlesen, irgendwo?

Oder kam da echt nichts neues wo?
 
Quartalszahlen beinhalten aber alles komplett.
Nimmst du jetzt nur mal den Gaming Grafikkartenbereich siehts da bei weitem nicht so rosig aus. Und auch der beste GPU Hersteller würde eine Sparte zumachen, wenn diese über Jahre nur noch Verlust bringen würde! Prestige hin oder her.

Also der Satz ansich auf die Gamingkarten bezogen ist schonmal gar nicht so verkehrt.

Bitte belege mir mal diese Aussage das der Gaming/GraKa bereich bei NV im ganzen verluste eingefahren hat. Ich spreche nicht von einzelnen Produkten sondern im ganzen!
 
@Haro
meinst Du vielleicht das hier:
Klick
Klick2

wenn hier die letzten Tage nicht schon wieder so viel OT gepostet worden wäre, dann wärs vielleicht nicht soweit hinten.

ciao Tom
 
Also der Satz ansich auf die Gamingkarten bezogen ist schonmal gar nicht so verkehrt.

Da hast du recht nur geht es meistens immer prinzipiell um "G200" oder "Fermi" u da ist die Aussage nunmal nicht zutreffend bis jetzt;)

Mit Fermi wird diese Aussage wohl noch weiter in die falsche Richtung gezogen,da er prozentual wohl stärker im GPGPU Sektor anzutrefffen sein wird.Und jedem bei Preisen jenseits der 2000euro Marke für eine Profi Tesla Karte klar sein wird,das dieser Zweig kein Verlustgeschäft ist.
 
Zuletzt bearbeitet:
Bitte belege mir mal diese Aussage das der Gaming/GraKa bereich bei NV im ganzen verluste eingefahren hat. Ich spreche nicht von einzelnen Produkten sondern im ganzen!

Es ist hinsichtlich bekannt, das die 260GTX sowie die 295 Dual PCB bei NV oder besser gesagt den Boardpartnern Verlust gebracht hat, weil der Preis zu niedrig war.
Dazu gibts bestätigte Meldungen seitens der Boardpartner im Netz...

Auch das beste Unternehmen wird sich aus Produktbereichen zurück ziehen, wenn man dort nur Verlust einfährt.

Ich spreche nicht vom ganzen Gaming Bereich, denn NV könnte auch irgendwann mal einen ähnlichen Schritt wie AMD gehen und den HighEnd Bereich etwas konservativer angehen lassen. Somit wäre man mit dem Top Produkt gleich auf mit AMD (jetzt da immer so um die 20-30% drüber, reine Leistung im Schnitt über die Games)
Müsste um eine AMD Konkurenzkarte zu bringen nicht den großen teuren Chip teildeaktivieren und somit wertvollen Waferplatz für quasi nix verschwenden und könnte kostengünstiger produzieren.

@scully1234
ja prinzipiell erstmal auf den G200.
Zum Fermi, wenn wir mal krümelkackerisch sind ist der GT300 im HPC Bereich ja auch was anderes als der G300 im Gamingbereich.

Aber dennoch, auch mit den kleineren GPUs wird man sooo Wahnsinnig viel Gewinn pro verkaufte Karte nicht machen. Aber hier machts eben die Masse.
 
Müsste um eine AMD Konkurenzkarte zu bringen nicht den großen teuren Chip teildeaktivieren und somit wertvollen Waferplatz für quasi nix verschwenden und könnte kostengünstiger produzieren.
.

Sollte das nicht durch modularen Aufbau der Fermi Chips gelösst werden um das Preisgefüge nicht so aus dem Ruder laufen zu lassen wie beim G200?

Will heissen keine Teildeaktivierung mehr sondern nur noch das "verbaut" was gebraucht wird.
 
Zuletzt bearbeitet:
Modular waren die GPUs eigentlich schon ne weile , denn man kann ja einfach ein SIMD weg lassen und hat nen kleineren Chip , von der theoarie her geht es also schon vorher, man müsst nur die signalwege neu verlesen , weil der chip dann kompatker wär.
 
So schauts aus, dieses Modulare Design gibts seit dem G80. Und ist quasi genau das, worauf das Teildeaktivieren aufsetzt.

Du kannst quasi beliebig Einheiten wegschalten.

Dennoch besteht ein Unterschied zwischen nur wegschalten (LaserCut) oder gänzlichem weglassen.
Bei letzterem müsste man den Chip quasi komplett neu durchdenken. Um erstmal ne effiziente Platzanordnung zu bekommen und zweitens bräuchte man eine komplett eigene Fertigungsstraße für die Produktion.

Daher macht es keinen Sinn hier komplett Einheiten wegzulassen, wenn die Karte dadurch nicht signifikannt in anderen Leistungsbereichen spielt.

Teildeaktivieren ansich ist ja erstmal kein Problem und ne gute Sache, aber NV hat halt das Problem mit der Chipgröße, dort wo der Teildeaktivierte Chip mitspielt, bestimmt AMD den Preis. Gehen die runter, muss NV nachziehen (oder Einheiten zuschalten --> 260GTX)
Und genau das sehe ich aktuell als riesigen Nachteil an...
 
Zuletzt bearbeitet:
Das war aber auch so ziemlich das einzige was man damals machen konnte um Waferplatz zu sparen;)

Beim G200 konnte man ROP Cluster deaktivieren (ROPs, TMUs, TAUs, und das SI wurden beschnitten)
Und man konnte die Shadereinheiten in der Anzahl anpassen...

Vllt löst man das jetzt noch weiter auf, sprich es gibt keine ROP Cluster mehr, sondern kann die Einheiten direkt einzelln weglassen.
Ändert aber eigentlich an der Problematik nix, denn die eigene Fertigungsstraße und die Neuüberlegung der Einheitenanordnung bleiben weiterhin.

EDIT:
PCGH schrieb:
Unserem Gespräch zufolge nutzt Nvidia in den 32 Kernen der Shader-Multiprozessoren (SMs) jeweils eine separate Einheit für DFMA (Double-Precision Fused-Multiply-Add, also 64-Bit Multiplikation mit anschliessender Addition ohne das Zwischenergebnis der Multiplikation zu beschneiden), für Single-Precision FMA und eine zusätzliche Integer-Einheit - die DFMA-Einheit kann wahlweise auch für Single-Precision genutzt werden. Diese Vielzahl an Einheiten, die zudem nicht alle gleichzeitig genutzt werden können, wie Toni Tamasi zuvor bestätigte, bläht die Größe der einzelnen Prozessorkerne naheliegenderweise ziemlich auf, sodass der Fermi-Vollausbau relativ groß ausfallen dürfte - die Spekulationen für den 512-ALU-Chip liegen bei circa 500 mm².
Sehr interessante Aussage...
Also wird man dementsprechend wohl die DFMA Funktionalität deutlich entschlacken bei den Gamerkarten...
 
Zuletzt bearbeitet:
Vielleicht hat man die Produktionsstrasse ja dementsprechend angepasst.

So das man praktisch bestimmen kann ich produziere eine Tesla Karte u brauche mehr DP Einheiten(Shader)auf dem Chip,ich bau ne Geforce GTX u nutze entsprechend weniger davon;)

---------- Beitrag hinzugefügt um 16:32 ---------- Vorheriger Beitrag war um 16:29 ----------

Sehr interessante Aussage...
Also wird man dementsprechend wohl die DFMA Funktionalität deutlich entschlacken bei den Gamerkarten...

Genau das;)
 
Zuletzt bearbeitet:
Vielleicht hat man die Produktionsstrasse ja dementsprechend angepasst.

So das man praktisch bestimmen kann ich produziere eine Tesla Karte u brauche mehr DP Einheiten(Shader)auf dem Chip,ich bau ne Geforce GTX u nutze entsprechend weniger davon;)

Neja die Shader sind wohl immernoch die selben, also von der Anzahl. So wie ich das da verstehe wird den Shadern nur beigebracht, wie sie bei DP und bei SP zu laufen haben. Lässt man das DP Feature nun weg. Sinds immernoch 512 ALUs. Aber eben nur noch SP beherschen ;)

Gänzlich weglassen denke ich mal wäre auch nicht wirklich klug. Man wird wohl einige Shader auch für DP verwenden können, aber eben nicht alle...


Interessant wäre dazu noch, wie viel Platz man da schlussendlich gewinnt? ;)
 
Sehr interessante Aussage...
Also wird man dementsprechend wohl die DFMA Funktionalität deutlich entschlacken bei den Gamerkarten...


Hat auch den Vorteil.das nicht irgendwelche Freaks wie damals herkommen u mit gemoddeten Treibern Quadro oder Tesla Performance haben mit "billigen" Geforce Karten,da einfach die Einheiten fehlen dazu;)
 
wobei die "Fliege" der auf Quadro Modder wohl sogut wie gar nicht von Bedeutung ist... Denn sowas macht im Grunde sogut wie keiner ;) außer von ein paar privat Personen und irgendwelchen Forenfreaks mal abgesehen...
 
außer von ein paar privat Personen und irgendwelchen Forenfreaks mal abgesehen...

Aber aus solchen "Machbarkeitsstudien" von Forenfreaks kann auch schnell ein finanzieller Verlust entstehen:haha:

Nvidia hats bestimmt nicht gerne gesehen das auf einmal eine Geforce an Filmsequenzen gerendert hat die einem erheblich teureren Quadro Plex System nebst Software vorbehalten waren

Obwohl mir persönlich gefallen solche Freakprojekte:fresse:
 
Zuletzt bearbeitet:
Dafür müsste man aber 2 separate Designs machen. Das halte ich für recht unwahrscheinlich.

Ich eigentlich auch, aber wozu sonst so eine Funktionalität bringen?
Macht doch keinen Sinn, bei den Teslas werden wohl sowieso alle Einheiten drin sein. Und im Gamingbereich wo man DP wenig bis gar nicht brauch, könnte man sie ja rauslösen. Was aber wiederum mit Kosten verbunden ist.
 
was für kosten für die neue lichtmaske? sollte durch eingesparte fläche auf den wafern wieder eingespielt werden was das mehr kostet
 
Lässt man das DP Feature nun weg...
es muss ja nicht heißen, das das gleich für die ersten Fermi-basierten Highend-Geforce-Grakas umgesetzt wird.
Es gibt ja immer noch die Mid- und Lowrange-Bereiche, in denen dank DX11 und anderer Neuerungen mal wieder eine neue Chip-Generation fällig wird.

ciao Tom
 
@1337BiTbUrGeR
was willst Du damit aussagen?
Das nVidia keine DX11-Grakas bringen wird und mit dem Rebranding bei Mid- und Lowrange weitermacht?
Da bin ich anderer Meinung. nVidia hat aufgrund der im Link genannten Gründe kein Problem damit, mit DX11 etwas später auf dem Markt zu sein wie ATI. Das ist alles.
 
Zuletzt bearbeitet:
NV hat da vollkommen recht mit ihrer Aussage, nicht schnell was zusammenschustern wie bei ATI sondern lieber etwas warten und was vernünftiges im PC haben.
 
NV hat da vollkommen recht mit ihrer Aussage, nicht schnell was zusammenschustern wie bei ATI sondern lieber etwas warten und was vernünftiges im PC haben.

Das hat nix mit Zusammmenschustern zu tun,fakt ist Direkt X11 wird sich u das ist sicher schneller Durchsetzen als seine beiden letzten Vorgänger 10 u 10.1.

Nvidia mag nette Features haben wie 3D Vision,Cuda,Phys X aber das ist nicht der Weisheit letzter Schluss.

Hört endlich mal mit dem gegenseitigen Geflamme auf u betrachtet die Sache mal objektiv:(

Der Ausspruch ist so wie ichs sage einfach nur Säbelrasseln nicht mehr nicht weniger
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh