nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Nein zu groß sind die AMD GPUs bei 45nm mit Sicherheit nicht ;)

Das Problem liegt eher darin das beim neuen Fertigungsprozess noch zu viel Schrott auf dem Wafer erzeugt wird weil der Prozess noch nicht optimal läuft. Darum auch die geringe Ausbeute, das gleiche Problem wir auch unter Umständen Nvidia beim Fermi ereilen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Alles was da an Bildern in letzter Zeit rauskommt ist mehr als peinlich.

Da wird verbissen versucht die NV-Jünger bei der Stange zu halten.

Sie haben wohl einfach noch nichts anderes vorzuweisen als sowas da ^^

--

Ich warte nun in aller Ruhe mit der 5870 ab was NV im nächsten Jahr reist.

Wenn das besser sein sollte als das "was es jetzt gibt" super! Dann steige ich um.

Wenn nicht, interessiert es mich aber auch nicht :)
 
Zuletzt bearbeitet:
Jetzt gibts auf PCGH ne größere aufnahme von dem pic...
 

Anhänge

  • Nvidia-Fermi-Geforce100-GF100-SLI.jpg
    Nvidia-Fermi-Geforce100-GF100-SLI.jpg
    45,6 KB · Aufrufe: 103
bin ich blind? sorry ich seh auf dem aktuellen bild nicht ob da der lüfter in der mitte ist im vergleich zur coop von evga:hmm:

kannst du mir einen tipp geben ?
 
Oh man kannst du auch mal Ruhe geben?

Ich habe mich in Hinsicht der andere Bilder geirrt da auf dem Bild mit dem Bench der Lüfter nach hinten gewandert ist. Sonst gab es die Gehäuse nur mit mittlerem Lüfter. :hmm:
 
Wenn man durch auslagerung dieser Softwaresache die CPU entlasten kann denke ich kann man es doch gutheißen. Schöner wäre es aber wenn man es beiden Herstellern gutheißen könnte.

Das stimmt schon, sprich wäre eine gute Sache, aber dafür fährt NV leider die falsche Politik für die Sache.
Denn PhysX als Physikengine ist gar nichtmal schlecht, NV verhindert aber selbst die Ausbreitung. Das fängt beim künstlichen ausschalten bei Verwendung einer AMD als Hauptkarte + NV als PhysX GPU an und hört bei "NV only Feature" auf.
Gut, das eine NV Softwaresache NV only ist, ist nicht sonderlich verwunderlich... Das Problem ist aber, der GPU Markt im Gamingbereich ist fast hälfte/hälfte aufgeteilt. Ein auf einen Hersteller zugeschnittenes Produkt und das Ausschließen des anderen schließt gleich mal 50% des Marktes aus...
Das Produkt kann so Toll wie sonstwas sein, der Spieleentwickler hat schlussendlich die Arbeit und den Finger drauf...
Dazu kommen Lizenzkosten usw.

Aus Sicht der Spieleentwickler ist es fast Unsinn auf PhysX per GPU zu setzen. Ob sie es nun einsetzen oder nicht, mehr Verdienen tun sie damit nicht. Aber sie haben mehr Aufwand es zu implementieren und nur die hälfte der User die es nutzen kann...

Selbst bei PhysX basierend auf der CPU verlangt NV Lizenzkosten, hier kann aber auch jegliche Hardware genutzt werden... Daher sieht man auch deutlich mehr Titel mit PhysX Physikengine für CPU als für GPU.
Zumahl wohl alle derzeitigen Titel die PhysX GPU basiert nutzen im NV Programm drin sind und NV da teils auch Geld in die Entwicklung pumpt...
Aber lassen wir das, gehört hier nicht rein...

Nein das hat Nvidia sicher nicht. Allerdings hat man damals berteits angefangen die Grafikkarten so zu optimieren, dass in C programmierte Anwendungen gut darauf laufen. Der Fermi bildet hier nun den Abschluß dieser Entwicklung, denn er ist die erste 100% C++ kompatible GPU. Aus diesem Grund läuft PhysX auf NV-Karten. Selbst wenn ATI damals PhysX gekauft hätte und nicht NV, so wäre man bei ATI heute noch lange nicht soweit, dass PhysX auf ihren Karten laufen würde. Außerdem finde ich es sehr lustig, dass du nun die ganzen Optimierungen der NV-Chips für C klein reden willst. Vor ein paar Seiten hast du noch gesagt, dass der Fermi vieleicht gar nicht mehr für Games taugt, da NV ihn nur noch für GPGPU entwickelt hat. (Das halte ich natürlich auch für falsch. NV geht es darum beide Märkte gut zu bedienen.)

Das ist so nicht ganz richtig...
Unified Shader sind erstmal frei programmierbar. Welche Software (in Form von übersetze Programmcode in Maschinensprache) dann da oben drauf läuft und mit welcher Programmiersprache man diese Produkte ansprechen kann spielt keine Rolle.

Oder vereinfacht gesagt, eine Hardware muss nicht auf eine Software zugeschnitten sein, sondern eine Software wird auf eine Hardware zugeschnitten.
In unserem Fall gibt es Hardware in Form von 1D ALUs auf NV GPUs, es gibt eine Entwicklungsumgebung die mit C++ umgehen kann und es gibt ein Zwischenglied, welches Programmcode in Maschienensprache umsetzt...
Den ALUs ist es schnurz egal ob du nun mit C++, VB, Java oder weis der Teufel was ankommst solange das besagte Zwischenglied die Sprache in eine Maschinenverständliche Sprache übersetzen kann. Und genau diese Möglichkeit hat NV geschaffen. Und bietet C++ Kompatibilität an.

Das ist aber leider nur die eine Kehrseite der Medalie. C++ verstehen heist lange nicht, jeglichen C++ Programmcode ausführen zu können.
Ich denke da zum Beispiel an Befehlserweiterungen ala SSE. Sowas kann die GPU nicht und dementsprechend wird derartige Software nicht auf der GPU laufen, zumindest nicht ohne massive Anpassungen.

Soviel zum Thema Optimierungen der NV Chips für C++ :fresse:

Mit dem Fermi hat Nvidia für Supercomputing einen Meilenstein abgeliefert. Hier steigt die Leistung wirklich um den Faktor 8 und außerdem um enorm wichtige Elemente wie C++ und ECC. Da liegt sicher der Grund für die überschwängliche Werbung in diesem Bereich.

Da hast du natürlich recht, im Falle von C++ muss der Entwickler der Software nicht erst auf irgend ne NV only Programmiersprache umsatteln um die GPU nutzen zu können. Aber es gibt wie grade schon gesagt auch Stolpersteine zu bewältigen.
Schlussendlich interessiert uns Gamer Endkunden die Workstationfähigkeit aber keinen Milimeter...

Wir Gamer wären ja alle mehr als zufrieden, wenn wir dx11 und +100% bekommen. Das wäre aber im Gamingbereich nichts außergewöhnliches und kein Grund groß die Werbetrommel zu rühren. Daher sag ich mal abwarten und Tee trinken (eigentlich mag ich kein Tee ;) ).

Edit: Ich stimme dir auch zu, dass PhysX im Grunde ein Abfallprodukt ist. Hier sieht man allerdings die große stärke von NV und daher meiner Meinung nach auch die technische Überlegenheit der All-in-one-Karte. Wer weiß, was für Vorteile NV GPUs in Zukunft durch C++ und Supercomputing noch erhalten. Schließlich sind Mp3's ja auch nur ein Abfallprodukt.

Die Frage ist eher, was bringt uns Endkunden das?
Schau dich auf dem Software Markt um... Im Privat-Endkundenbreich gibt es nur wenige Anwendungsgebiete, die extrem Leistung brauchen. Da zählen Games noch zu den größten.
Dann gibt es die Audio/Video Bearbeitungssparte. Aber hier sind schon wieder drastisch wengier Anwender die davon profitieren würden, weils einfach mal nich jeder macht und wenn dann nicht sooo oft, das man davon signifikannt Zeitersparniss hätte.
Und danach hört es schon wieder auf. Das bisschen Office geplänkel der meinsten User macht ne aktuelle Dualcore CPU spielend.

Prima angeschnitten... Das gilt aber für beide Seiten der Fronten die hier diskutieren oder? Ist ja ok das hier viele AMD'ler nicht der selben zuversicht sind wie pro NV'ler. Aber in anbetracht dessen das sich hier noch niemand mit Gewissheit darüber äußern kann wie es um dessen Leistung schlußendlich steht, frag ich mich weshalb hier so oft versucht wird Pessimismus zu verbreiten. :hmm:

Es geht eher darum den Leuten versuchen begreiflich zu machen, das zu viel Optimismus am Ende auch eine Drastische Enttäuschung sein kann.
Das ganze kocht doch vor jedem Release von neuen hoch...

Ich erinnere mich da noch an unsere Spezis die die HD5870 deutlich vor einer HD4870 X2 gesehen haben, trotz halbwegs glaubbaren Spekulationen über die Anzahl der Shader/TMUs/ROPs...

Und selbes Problem dürfte nun AMD auch haben! :hmm: Chips sind zu groß waferausbeute zu klein ein wafer kostet 5000 euro round about mein ich mal gelesen zu haben lasse da 100 GPUs draus möglich sein und 40% ausbeute würden das ca 125€ pro GPU sein plus herstellungskosten des boards und speichereinkauf

AMD hat das Problem nur bedingt. Bzw. deutlich weniger. Denn NV wird sicher wieder eine Top Single GPU Karte vor AMD plazieren und mit einer zweiten abgeschwächten Version der AMD Karte Konkurenz bieten.
Also eine 360GTX wenn sie denn so heißen mag würde ich mir schon auf HD5870 Level, oder etwas drüber vorstellen können. Aber die Karte wäre dann wieder ein Teil deaktivierter Chip, wo man hätte sicher gut 20% oder mehr Chipfläche sparen können, wenn man hätte die GPU gleich so ausgelegt in der max. Ausbaustufe...
Sprich diese Karte muss auf einem ähnlichen Preisniveau verkauft werden wie das AMD Produkt. AMD hat die Preise in der Hand wenns um den Preiskampf geht... --> gleiche Situation wie beim RV770 vs. G200(b)

Wenn man sich die Meldungen der Boardpartner ansieht, die der 260GTX 55nm sogar Verlust beim verkauf zugesprochen haben, weil einfach der Kaufpreis zu niedig war/ist, dann könnte eine ähnliche wenn auch nicht so drastische Situation hier wieder auftreten. Genau das ist meine Befürchtung. Niedrige GPU Preise sind zwar was feines für den Endkunden, tun dem Hersteller aber nicht wirklich gut und somit auch den kommenden Produkten in Form von Entwicklungskosten.

Um nochmal kurz zum Workstation Bereich zu schwenken... Klar macht man hier mehr Gewinn, aber wenn der Gamingbereich ein +/- 0 Geschäft oder ein Verlustgeschäft wird, wird man sich als Hersteller wohl Gedanken machen ob man diesen Bereich nicht aufgibt und neue Standbeine in anderen Bereichen aufbaut... Im GPGPU Bereich ist NV ja quasi konkurenzlos...
 
Aber der RV870 in form der HD5850 hat doch auch die volle DIE größe oder liege ich da falsch? Werden die "beschnittenen" chips nicht bewusst so verkauft um den verschnitt der Wafer so gering wie möglich zu halten wenn ein vollwertiger chip nicht möglich war aufgrund von teildefekten?

Ich sag mal so ein Produkt noch unterm Preis zu verkaufen ist immer noch besser als garnicht zu verkaufen. Absolut richtig ist das für nvidias transistormonster TSMC's fertigungsqualität ganz offensichtlich unzureichend ist.

Und wenn das so bleibt könnte ich ein Ei drauf verwetten das für die nächste GPU Generation(en) beide Herstllern erstmal mit Optimierungen der aktuellen Achrchitektur vorlieb nehmen, bevor wieder größere dimensionen angepeilt werden. Man kann so eine schlechte ausbeute ja schließlich nicht auf längere sicht ständig in kauf nehmen.

Man merkt immer mehr das die physikalischen grenzen in der fertigung immer näher rücken.
 
Aber der RV870 in form der HD5850 hat doch auch die volle DIE größe oder liege ich da falsch? Werden die "beschnittenen" chips nicht bewusst so verkauft um den verschnitt der Wafer so gering wie möglich zu halten wenn ein vollwertiger chip nicht möglich war aufgrund von teildefekten?

Da liegst du vollkommen richtig, aber es brauch erstmal ein Konkurenzprodukt seitens NV damit AMD sich hier genötigt sieht was am Preis zu tun... Bei der großen und dessen kleinen Bruder wird es denke ich ähnlich der letzten Gen kommen. Sprich NV mit dem Top Produkt 20-30% vor AMD. Dann der kleine Bruder auf AMD Augenhöhe oder etwas drüber.
AMD hätte dann aber noch ein Stück drunter wieder ein Produkt wie die HD4830 oder die HD4770, HD3850 (bedingt) oder 2900Pro 256Bit (bedingt) welche quasi Konkurenzlos in ihrem Bereich agieren kann...

Beim G200 hat NV den Vorteil gehabt den guten G92 aufzupeppen um diesen in Form der 8800GTS, der 9800GTX bzw. schlussendlich der 250GTS für einen Konkurenten zu missbrauchen. Das fällt derzeit weg. Da kein DX11.

Ich glaube nicht das NV dicht gefolgt von den beiden Top Single GPU Karten gleich noch nen dritten hinterher bringt, und schon gar nicht mit eigenem Chipdesign und somit geringeren GPU Kosten. Die Lücke zwischen HighEnd und Mittelklasse im Single GPU Bereich wird wohl mindestens ~100% Leistung betragen. Sprich die Mittelklasse wird wohl ca. halb so schnell wie die HighEnd Klasse --> kein HD5850 Konkurent. Vllt eher knapp über der HD5770...

Was NV bräuchte wäre sowas wie der G92. Kleiner kompakter Chip, mörder Taktraten ala fast 2GHz Shadertakt, dazu kleines 128 oder 192Bit SI und schneller GDDR5 Speicher. Schon ist die Preisorientierte Mittelklasse gebohren :fresse:



Zum Thema Chipausbeute... Derzeit scheint es eher so, das die Produktion derart schlecht läuft, das bei defekten Chips mall nicht eben nur was abgeschalten werden kann. Sowas macht man wenn die Produktion gut bis sehr gut läuft und man die paar Restbestände an teildefekten Chips noch an den Mann bringen will.
Aber bei schlechter Ausbeute wird der Defekt idR nicht so einfach nur durch ein bisschen deaktiviererei behebbar sein... Sondern dann eher gleich hunderte/tausende ;)

Ich sag mal so ein Produkt noch unterm Preis zu verkaufen ist immer noch besser als garnicht zu verkaufen. Absolut richtig ist das für nvidias transistormonster TSMC's fertigungsqualität ganz offensichtlich unzureichend ist.

Und wenn das so bleibt könnte ich ein Ei drauf verwetten das für die nächste GPU Generation(en) beide Herstllern erstmal mit Optimierungen der aktuellen Achrchitektur vorlieb nehmen, bevor wieder größere dimensionen angepeilt werden. Man kann so eine schlechte ausbeute ja schließlich nicht auf längere sicht ständig in kauf nehmen.

Man merkt immer mehr das die physikalischen grenzen in der fertigung immer näher rücken.

Zwischen unter Wert verkaufen und unter Herstellungskosten zu verkaufen besteht aber noch ein nicht zu vernachlässigender Unterschied ;)
Letzteres ist Fatal, denn da zeigt sich, das die Planung sogut wie gar nicht gut war...

Zum letzten, würde ich vollkommen zustimmen ;)
 
Zuletzt bearbeitet:
Da bin ich wirklich mal gespannt, dadurch wird der kleinere GTX (360) wohl auch eher verfügbar sein als der große. Was die Midrange angeht, da bin ich auch gespannt ob nvidia nicht doch für eine überraschung gut ist. Die hatten doch gesagt das sich die architektur Fermi sehr gut eignen würde um sachen weg zu lassen die man in einem anderen bereicht nicht braucht. Wäre schön wenn es dadurch möglich wäre einen kleinen G92 nachfolger zu bauen. Und noch schöner wenn dieser tatsächlich so hohe shaderfrequenzen stemmen könnte.
 
Nun, 15% schneller als HEMLOCK ?? ---> bei welcher Anwendung, welchen Settings und vor Allem welchem Zusatz?
Dann würde NV sicherlich mehr verlangen, auch wenn HEMLOCK auf 400 Euro absinken würde, da die Vorteile der SingleKarte zu stark überwiegen würden. Rechne max. mit 20% über einer HD5870 bei Fermi´s High End Karte.

Soll wohl ein letzter Aufruf, Hilfeschrei noch vor Weihnachten werden seitens NV, denn die ATI Karten sollen ab morgen nochmals um ein vielfaches besser verfügbar werden...
Denn wann hat NV schon mal was verschenkt beim Preis wenn die Leistung da ist (wäre)
Alles bis +30% ist maximal realistisch gegenüber der HD5870, darüber hinaus nur unter gewissen Settings und unter Anwendung mit Pysik und Co, Batman und Co lässt grüßen!
 
Hallo,

die Spekus (Infos?) zu der Anzahl der ROPs und TMUs halten sich weiterhin (weiter unten gibts in diesem Artikel eine Tabelle):
http://www.brightsideofnews.com/news/2009/12/8/nvidia-gf100fermi-sli-powered-maingear-pc-pictured.aspx

edit ich hab die Tabelle mal um die Daten des G200b erweitert:

Aber vielleicht ist dem ja auch nur so, weils dazu nie andere Infos gab.
Update
Anscheinend hab ich nun die Quelle gefunden, die die Vorlage für die Daten in der Tabelle war:
Klick
Ich Depp, jetzt bin ich wieder mit der amerikanischen Schreibweise des Datums durcheinander gekommen:07 Dezember 2009
Da die Postings vom 12.07.2009 stammen, ist das dann immer noch eher unter dem Bereich Speku als unter dem Bereich Tatsache einzuordnen. So ernst würde ich das ganze dann doch wieder nicht nehmen.
Wobei einige der Infos ja doch mittlerweilen von offizieller Seite bestätigt wurden bzw. aufgrund der bekannten Infos als recht wahrscheinlich erscheinen (z.b. Speicherinterface, verbaute RAM-Menge).
Komischerweise sprach der Ersteller dort schon vom Januar 2010 als Veröffentlichungsmonat.


ciao Tom
 
Zuletzt bearbeitet:
@1337BiTbUrGeR
ich habs dann auch noch gemerkt

@all
wenn jemand einen Fehler beim G200b findet oder die Daten kennt, die noch fehlen, dann schreibt es einfach und ich passe das ganze an.
 
Das ganze sieht eigentlich ganz brauchbar aus. Wobei ich mal meinen würde, das 1700MHz Shaderclock bei der großen zu hoch sind...

Wenn man sieht, das ist nur unwesentlich unter der Taktrate des G92 und wir sind hier in der ersten Stufe, sprich noch kein Refresh oder ähnliches in Sicht.
Ich halte die Taktrate für deutlich zu hoch, das hat damals NV selbst beim G200 inkl. Refresh nicht geschafft.
Ich denke mal realistisch wären so um die 1400MHz. Für die große ;)

Das wären dann immernoch 716,8GFlop/s bei DP, was minimal über der SP Leistung der Vorgänger Generation liegen würde und auch ne ganze Ecke über NVs ~630GFlop/s Aussage ;)
Auch sollte damit ca. doppelte Leistung im Schnitt zur 285er GTX bei Games machbar sein, sofern der geringe Zuwachs an TMUs/ROPs sich nicht nachteilig bemerkbar macht.

Zumahl die Daten für rund 30% zwischen der kleinen und der großen Sprechen. Was wiederum heißen würde, die kleine könnte auf HD5870 und die große um ~30% drüber agieren...
Also das, was ich schon seit Jahr und Tag predige ;)
Aber wie gesagt, alles nur könnte und wäre ;)
 
die haben doch schon das tapeout A2 vollzogen vielleicht war ihnen das beim A1 nicht ausreichend das die taktraten unzureichend waren für das angesetzte ziel...

ausserdem wenn ich seh wie weit sich die radeons takten lassen halte ich das nicht mehr für ausgeschlossen. zumal der GF100 mit 8+6pin ausgestattet wird und amd dann sicherlich noch nen 5890 refresh raus werfen würde
 
A3 soll wohl auch schon fertig sein, allerdings nur Änderungen für eine bessere Fertigung enthalten.

Ich denke auch mal das sich der Shadertakt zwischen 1300-1600 MHz einordnen wird. Aber abwarten und Spekulatius essen.
 
Das ändert aber nix an der Tatsache, das man mal eben nen Chip baut, der mal so mir nix dir nix 1,7GHz auf den Shadern taktet ;)

Und die Taktbarkeit von AMD Karten ist mal so gut überhaupt nicht, 1GHz klingen zwar sehr hoch, aber im Verhältniss zum Stock Takt sind das gerade mal 17%.
 
fdsonne schrieb:
Das ändert aber nix an der Tatsache, das man mal eben nen Chip baut, der mal so mir nix dir nix 1,7GHz auf den Shadern taktet

Naja, man fängt ja nicht immer wieder bei Null an. Die allgemeine Taktrate steigt schon und das der Shadertakt über dem Niveau einer GT200b arbeitet muss nicht unrealistisch sein. Allerdings hat sich ja gezeigt das der wechsel auf 40nm dort nicht gerade viel geholfen hat.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh