nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
Egal ob du es jetzt Hardwarelösung oder Hardware basierter Lösung nennen willst, ist mir eigentlich egal, solange die GPU die komplette Berechnung übernimmt, ist es das für mich. Die umgesetzte Funktionalität basiert ja auf einem Konzept. Es steht aber nirgendwo, wie eine Implementierung konkret auszusehen hat. Wenn es im Endeffekt nicht effizient funktioniert, dann war das eben eine Fehlentscheidung beim Design. Soll ja hin und wieder passieren. :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Egal ob du es jetzt Hardwarelösung oder Hardware basierter Lösung nennen willst, ist mir eigentlich egal, solange die GPU die komplette Berechnung übernimmt, ist es das für mich. Die umgesetzte Funktionalität basiert ja auf einem Konzept. Es steht aber nirgendwo, wie eine Implementierung konkret auszusehen hat. Wenn es im Endeffekt nicht effizient funktioniert, dann war das eben eine Fehlentscheidung beim Design. Soll ja hin und wieder passieren. :)

Ich denke mal darauf wollte man oben hinaus, das eben eine nicht dediziert in Hardware umgesetzte Lösung wohl deutlich langsamer sein wird, als die dedizierte Hardware Lösung...

Die Frage ist, wie wirkt sich das am Ende aus und kann man diesen Umstand ggf. verschmerzen?
 
Ich lgaube nicht das Nvidia den tesselator "vergessen" hat, wir haben doch noch nichts von dem ominösen g300 gesehn. Vllt. hat man sehrwohl einen tesselator eingebaut, da man durch das rauswerfen von gpgpu wie den l2 cache oder die DP-einheiten viel fläche einspart.

Oder man hat doch eine sehr effiezente softwarelösung realisiert, die nur sehr wenig leistung kostet. ich glaube kaum das nvidia auf den tesselator verzivhtet um platz zu sparen, wenn der chip dafür unter DX11 DEUTLICH langsamer wird als mit. Dann hätten wise wohl eher ein paar shadereinheiten rausgehauen, was bei dem modularen aufbau ja kein problem ist.

sie werden wohl sehr gneau geguckt haben ob es mehr sinn macht vielleicht nur 440 shadereinheiten(fiktive zahl) und einen tesselator aud der fläche unterzubringen oder 512(auch fiktive zahl) und keinen tesselator und dwas hiinterher schneller ist.

Nvidia ist ja kein amateur.
 
Sry falls es diese Frage hier schon gab aber mich würde es brennend interesieren ob die neuen Modelle auch dieses Spulenfiepen haben.

Denn das war für mich ein Grund die GTX Serie nicht zu kaufen.

Grüße
 
Sry falls es diese Frage hier schon gab aber mich würde es brennend interesieren ob die neuen Modelle auch dieses Spulenfiepen haben.

Denn das war für mich ein Grund die GTX Serie nicht zu kaufen.

Grüße

Das weiß keiner, solange es keine funktionierenden Boards gibt. ;)
 
Niemand der nicht unter NDA steht hat die karte überhaupt je zu gesicht bekommen :rolleyes:

man es gibt echt leute... da fällt mir nix mehr zu ein :stupid:
 
Niemand der nicht unter NDA steht hat die karte überhaupt je zu gesicht bekommen :rolleyes:

man es gibt echt leute... da fällt mir nix mehr zu ein :stupid:

Man man man keine ahnung und gleich beleidigend werden, schonmal was von NEWS gehört?
Ich frage nicht ohne Grund. Es kann immer vorkommen dass NVIDIA als die neue Reihe vorgestellt und sagt " das Spulenfiepen wird definitiv eingestellt!"

Es gibt echt Leute..keine ahnung und einen auf Allwissend machen.

Da merkt man gleich dass Leute wie Lord in solchen Sachen einfach "reifer" mit dem Umgang in einem Forum sind.
 
Zuletzt bearbeitet:
sie werden wohl sehr gneau geguckt haben ob es mehr sinn macht vielleicht nur 440 shadereinheiten(fiktive zahl) und einen tesselator aud der fläche unterzubringen oder 512(auch fiktive zahl) und keinen tesselator und dwas hiinterher schneller ist.

Unwarscheinlich...
Entweder gibts die Gamingversion der Karte mit abgespeckten GPGPU Features oder sie bleibt identisch.
NV wird sich wohl kaum die Arbeit machen, hier zwei verschiedene Versionen zu entwickeln, schon alleine aus dem Grund, weil beim weglassen der Einheit bei den Profikarten (durch den mehr Platzverbrauch) diese nicht mehr DX11 compatibel (wegen Compute Shader) wäre...

Ebenso kannst du nichtmal eben so ein paar Shader weglassen, vor allem, wenn man bedenkt, das die besagte Tesselationseinheit nur in DX11 überhaupt von belang ist... Und bis diese Einheit überhaupt mal echten Nutzen finden wird, gehört die Karte sicher zum Alteisen ;)

Man man man keine ahnung und gleich beleidigend werden, schonmal was von NEWS gehört?
Ich frage nicht ohne Grund. Es kann immer vorkommen dass NVIDIA als die neue Reihe vorgestellt und sagt " das Spulenfiepen wird definitiv eingestellt!"

Es gibt echt Leute..keine ahnung und einen auf Allwissend machen.

Da merkt man gleich dass Leute wie Lord in solchen Sachen einfach "reifer" mit dem Umgang in einem Forum sind.

Neja so abwegig ist sein Argument nicht...
Du weist sicher selbst, das niemand hier Aussagen darüber machen kann, sofern noch keine Karten im Umlauf sind.

Ob Karten im Umlauf sind, erkennt jeder normal sterbliche Bürger in nich mal einer Minute anhand einer Google Abfrage...
Mit dem Ergebniss, Karten nicht verfügbar --> ergo keine Aussage über mögliches Spulenfiepen...

Schlussendlich ist es ja auch so, das eben nicht alle Karten bis jetzt gefiept haben, und anhand dieses Faktes sollte man doch noch viel mehr erkennen können, das eine Aussage jetzt ohne Karten defintiv nicht machbar wäre...
 
Zuletzt bearbeitet:
Das ist es ja, die Frage kam mir spontan da dachte ich ach hier frag ich mal vll weiß ja jemand was.

So wie du das gesagt hast kann man ja auch gleich sagen ist doch kein Problem :)

Ich dachte vll hat sich NVIDIA mal dazu geäußert, da sie das nicht gemacht haben hat sich die Frage erledigt und gut is hehe :)
 
Das mit dem Spulenfiepen liegt auch an den Boardherstellern. Immerhin kommt es darauf an ob sie bei den Komponenten Einsparungen vornehmen oder nicht. Auch die GTX Serie gäbe es ohne Spulenfiepen wenn dort nicht aufgrund des Preiskampfes abstriche hätten gemacht werden müssen.
 
Es gibt noch keine finalen treiber für die neuen Modelle, von daher wird sich dort noch einiges tun. Allerdings bist du dafür im falschen Thread!
 
Sry falls es diese Frage hier schon gab aber mich würde es brennend interesieren ob die neuen Modelle auch dieses Spulenfiepen haben.

Denn das war für mich ein Grund die GTX Serie nicht zu kaufen.

Grüße

Schalte V-Sync an, dann ist das fiepen weg.
 
Schalte V-Sync an, dann ist das fiepen weg.

Nicht immer. Kommt darauf an wie stark die Karte gefordert wird. Mehr Fps = mehr Stromverbrauch = höheren Anspruch an die Bauteile = Fiepen. Bei neueren Spielen bei denen die Framerate nicht mehr wirklich weit über 60 Frames liegt bringt es daher nicht immer die erhofte Erlösung.



Wieder zum G300. Scheinbar hat NV ihn ja auch hin zu einem Konkurenten für LRB Entwickelt. Die Frage wäre ob ATI nicht sowiese einen ähnlichen Weg gehen muss um (wenn G300 und LRB erstmal erschienen sind) auch Konkurenzfähig zu bleiben.

Wenn der G300 wirklich so Modular ist wie behauptet, wäre es dann ein Problem DP bzw GPGPU Einheiten einfach durch, für Spiele oder 3D-Anwendungen relevante, SP oder ähnliche Einheiten zu tauschen? Wenn ja hätte man wirklich einen verdammt guten Chip entwickelt.
 
Hallo,

in diese genannte "Modularität" würde ich jetzt nicht zu viel rein interpretieren. Vom G80 gabs auch kleinere Ableger mit weniger Einheiten (tatsächlich weniger Einheiten vorhanden und nicht nur welche deaktiviert).
Mit dem Schritt hin zu DX11 ist dies eben wieder notwendig, da man kleinere Karten (Midend, ...) nicht mit älteren Chipgenerationen abdecken kann.

ciao Tom
 
Hallo,

in diese genannte "Modularität" würde ich jetzt nicht zu viel rein interpretieren. Vom G80 gabs auch kleinere Ableger mit weniger Einheiten (tatsächlich weniger Einheiten vorhanden und nicht nur welche deaktiviert).
Mit dem Schritt hin zu DX11 ist dies eben wieder notwendig, da man kleinere Karten (Midend, ...) nicht mit älteren Chipgenerationen abdecken kann.

ciao Tom

Stimmt die gab es schon immer, das habe ich auch nicht bezweifelt. Neu wäre es allerdings wenn man Einheiten einfach durch andere Ersetzen könnte. möglich muss dies zwar nicht sein, aber es verwundert doch etwas das NV extra auf die Modularität hingewiesen hat wenn es sich nur um ein einfaches Weglassen von Einheiten für kleinere Chips halten würde.
 
Kann mir nicht vorstellen, wie man sowas realisieren soll. Einfach Einheiten austauschen geht zwar (in Bezug auf das Design des Chips mit HDL), das macht den Chip aber nicht besser. Oftmals funktioniert das, was dabei rauskommt, dann auch nur noch im Simulator. Und von Effizienz kann man da für gewöhnlich erst recht nicht mehr sprechen.
 
Kann mir nicht vorstellen, wie man sowas realisieren soll. Einfach Einheiten austauschen geht zwar (in Bezug auf das Design des Chips mit HDL), das macht den Chip aber nicht besser. Oftmals funktioniert das, was dabei rauskommt, dann auch nur noch im Simulator. Und von Effizienz kann man da für gewöhnlich erst recht nicht mehr sprechen.

Muss ja nicht beliebig sein, aber wenn ich den Chip auf (sagen wir mal) Einheit A und Einheit B abstimme könnte ich doch erreichen das Einheit A oder B austauschbares Element werden.
 
Trotzdem bräuchte es dann zwei verschiedene ASICs, was ich bei der scheinbar schon
sehr schwierigen Herstellung nur EINES ASIC (GT300) für sehr unwahrscheinlich halte.

Mit der Modularität meinen sie meines Erachtens einfach sowas wie M-SPACE bei AMD, wo das
M steht für:
Modular: Reconfigurable “building blocks” for design speed/agility

D.h. (in meinem Verständnis - kann mich nat. auch irren) es wird einfach in Blöcken entwickelt, die von unterschiedlichen Designteams
weiterentwickelt werden, deren Anbindung aber festgelegt ist. Um einen GT300 zu basteln,
holt man sich also die aktuellsten Designs eines SM, eines DRAM Controllers, eines Host Interfaces,
eines GT und des Caches, und puzzelt ein ASIC draus. Wenn dann z.B. rein hypothetisch
ein halbes Jahr später ein kleinerer Ableger des GT300 geschaffen werden soll, muss man
nicht unbedingt den GT300 halbieren, sondern kann den dann aktuellsten Entwicklungsstand
der Blöcke nutzen, also z.B. einen Speichercontroller mit GDDR6 Support, ein Host
Interface mit PCIe 3.0 Support, und einen Cache mit geringeren Latenzen.
Das verbessert die o.g. Agilität beim Chipdesign.


Was die vom PR-Mann von nVidia genannte "Gamervariante" des GT300 angeht,
kann man IMHO zumindest schonmal sicher davon ausgehen, dass Speicher ohne ECC eingesetzt wird,
weil das für eine Spielekarte nur Nachteile bringen würde.
Ob darüber hinaus auch weitere Funktionseinheiten deaktiviert werden (auch zur
Abgrenzung der "Professionellen" Varianten), wird man sehen müssen.

Denkbar wäre z.B., zur Kosteneinsparung einen der Speichercontroller zu deaktivieren,
wenn das kaum Mehrleistung im Spielebetrieb bringen würde. So könnte man Chips mit
defekten MCs verwurschteln, und würde zusätzlich noch Spielraum bei der Preisgestaltung
schaffen, weil das Board günstiger zu fertigen wäre.


Grüße,
Mr.Malik
 
Zuletzt bearbeitet:
Trotzdem bräuchte es dann zwei verschiedene ASICs, was ich bei der scheinbar schon
sehr schwierigen Herstellung nur EINES ASIC (GT300) für sehr unwahrscheinlich halte.

Nach meinem Verständniss entspricht das ASIC nur dem fertigem Design. Wenn du das anders denkst oder kennst müssen wir das nochmal klären.


Mit der Modularität meinen sie meines Erachtens einfach sowas wie M-SPACE bei AMD, wo das
M steht für:
Modular: Reconfigurable “building blocks” for design speed/agility

D.h. (in meinem Verständnis - kann mich nat. auch irren) es wird einfach in Blöcken entwickelt, die von unterschiedlichen Designteams
weiterentwickelt werden, deren Anbindung aber festgelegt ist. Um einen GT300 zu basteln,
holt man sich also die aktuellsten Designs eines SM, eines DRAM Controllers, eines Host Interfaces,
eines GT und des Caches, und puzzelt ein ASIC draus. Wenn dann z.B. rein hypothetisch
ein halbes Jahr später ein kleinerer Ableger des GT300 geschaffen werden soll, muss man
nicht unbedingt den GT300 halbieren, sondern kann den dann aktuellsten Entwicklungsstand
der Blöcke nutzen, also z.B. einen Speichercontroller mit GDDR6 Support, ein Host
Interface mit PCIe 3.0 Support, und einen Cache mit geringeren Latenzen.
Das verbessert die o.g. Agilität beim Chipdesign.

Zum einen, nutz NV nicht schon längst die gleiche Technik? Immerhin legt die von dir benannte Technik des ASIC es ja im Prinzip darauf an einzelne Fuktionselemente (deine Blöcke) in einem einzigen Element unterzubringen.

Ich wollte darauf hinaus das ich einen Block nehme den NV für hohe DP Leistung entwickelt hat durch einen mit hoher SP Leistung austausche (rein Vorstellungstechnisch). Technisch sollte es nicht wirklich schwer lösbar sein, man muss halt nur das Design schon dahingehend entwickeln in dieser Form änderbar zu sein.

Was die vom PR-Mann von nVidia genannte "Gamervariante" des GT300 angeht,
kann man IMHO zumindest schonmal sicher davon ausgehen, dass Speicher ohne ECC eingesetzt wird,
weil das für eine Spielekarte nur Nachteile bringen würde.
Ob darüber hinaus auch weitere Funktionseinheiten deaktiviert werden (auch zur
Abgrenzung der "Professionellen" Varianten), wird man sehen müssen.

Denkbar wäre z.B., zur Kosteneinsparung einen der Speichercontroller zu deaktivieren,
wenn das kaum Mehrleistung im Spielebetrieb bringen würde. So könnte man Chips mit
defekten MCs verwurschteln, und würde zusätzlich noch Spielraum bei der Preisgestaltung
schaffen, weil das Board günstiger zu fertigen wäre.


Grüße,
Mr.Malik

Das wäre ja die gleiche Vorgehensweise wie bisher, von da wohl sehr realitästnah. ECC Speicher wird man wohl aufgrund der höheren kosten und der geringeren Leistung ausschließen können, ja.
 
Nach meinem Verständniss entspricht das ASIC nur dem fertigem Design. Wenn du das anders denkst oder kennst müssen wir das nochmal klären.

Ein ASIC ist erstmal generell jeder für irgendeinen speziellen Nutzen angepasste Chip / integrierte Schaltkreis und damit mehr oder weniger alles, was da so zusammengebastelt wird.

Zur Modularität, bei Prozessoren mag das gehen, weil die überwiegend von Hand gebaut (designed) und entsprechend auch auf diese Art verdrahtet werden. Bei GPUs ist das nicht mehr so einfach. Wie gesagt, rein hypothetisch ist das sicherlich ohne weiteres denkbar, ich kann beim Design, sofern die Schnittstelle passt, auch anstatt meiner ALU eine RAM-Matrix anbringen ^^ Da ist die Modularität nicht wirklich ein Problem. Aber der Chip, der dabei herauskommt, wird wohl mit seinem Trägermaterial nicht besonders platzsparend umgehen, vom Routing der Leitungen ganz zu schweigen.
Davon abgesehen wird Fermi mit C++ - Kompatibilität beworben, und egal, wie sehr Marketing das in Wirklichkeit ist, ohne native DP-Unterstützung wäre das eher ungeschickt. Wobei ich mich hier auf dünnem Eis bewege, denn ATi hat auch keine "nativen DP-Einheiten" (Cypress). Der DP-Mathematik-Zauber entsteht dort auch nur durch Zusammenarbeiten zweier der Slim ALUs (FP32) im ALU-Cluster, wobei eine die oberen und die andere die unteren Bits bearbeitet. Sollte das bei nVidia genauso realisiert sein, gibt es überhaupt keinen Grund, irgendwas zu entfernen. Und das ist im Übrigen auch das, was ich annehme.

edit: Mir fällt ja gerade ein, das Whitepaper liegt doch hier rum :d Vielleicht nochmal checken.
 
Zuletzt bearbeitet:
Die Frage die sich mir gerade stellt ist wie NV die höhere DP Leistung überhaupt erzielt?
 
Nach meinem Verständniss entspricht das ASIC nur dem fertigem Design. Wenn du das anders denkst oder kennst müssen wir das nochmal klären.

Ein ASIC ist nicht nur das Design, sondern vielmehr der letztendliche Chip. Worauf ich
also hinaus will, ist, dass eine Änderung im Design (wie ein HW-Tesselator,
mehr SP o.Ä.) wie sie hier diskutiert wurde, einen eigenen, neuen Chip bedingen würde.
Zwar könnte man hier sicherlich schon ein bisschen von
der Erfahrung in der Fertigung des GT300 profitieren, dennoch wäre es ein
getrennter Auftrag für TSMC, mit anderen Masken, und würde somit deutliche
Mehrkosten verursachen. Und genau deshalb halte ich das eher für unwahrscheinlich.

Bisher wurden ja die Quadros und Teslas auch aus dem selben Stück Silizium
gefertigt, wie die GeForces. Zwar liegt damit ein bisschen Chipfläche bei den
GeForces brach, dafür braucht es nur einen Chip, der eingerichtet, optimiert
und gefertigt wird. Genauso wie eine GTX260 kein eigenständiger Chip ist,
oder ein AMD X3.

Allerdings ist das natürlich auch immer eine Sache der Abwägung:
Lohnt es sich eher einen eigenständigen Chip zu fertigen, mit entsprechenden
Einrichtungskosten, oder lohnt es sich eher, größere Chips zu beschneiden,
mit entsprechendem Kostennachteil bei der Fertigung.

Da der GT300 nach den bisherigen Vermutungen (mehr haben wir ja leider noch nicht)
nicht so die Spiele-Kanone werden wird, dafür aber für HPC sehr interessant, ist hier
allerdings die Diskrepanz in den Designzielen auch sehr
groß, so dass es vllt. ja tats. Sinn macht, eine eigene ASIC für Gamer zu
basteln. Nur: Auf Basis welcher Architektur? Fermi hielte ich da eig. eher
für unwahrscheinlich. Ein G200c wäre zumindest schonmal etwas, um wieder
konkurrenzfähig zu sein, aber der scheint ja (bis auf die kleineren Varianten, die jetzt
gerade den Retailmarkt erreichen) gecancelled worden zu sein.
Aber wer weiß, vllt. will uns nV das auch nur glauben lassen und überrascht uns noch :p


Zum einen, nutz NV nicht schon längst die gleiche Technik? Immerhin legt die von dir benannte Technik des ASIC es ja im Prinzip darauf an einzelne Fuktionselemente (deine Blöcke) in einem einzigen Element unterzubringen.

Ich wollte darauf hinaus das ich einen Block nehme den NV für hohe DP Leistung entwickelt hat durch einen mit hoher SP Leistung austausche (rein Vorstellungstechnisch). Technisch sollte es nicht wirklich schwer lösbar sein, man muss halt nur das Design schon dahingehend entwickeln in dieser Form änderbar zu sein.

Ja, das ist es ja: Eine grundlegende Neuerung ist es eig. nicht, aber irgendwas
tolles muss man auf so einer Präsentation ja erzählen ;)
Aber wie du auch schon richtig festgestellt hast: "man muss halt nur das Design schon dahingehend entwickeln in dieser Form änderbar zu sein",
was bei nVidia demzufolge bisher wohl noch nicht der Fall war.
Siehe auch AMD und Intel: Dank der genormten und flexiblen Schnittstelle
Hypertransport konnte man bei AMD auch einen Dualcore in einen Sockel stecken,
der eigentlich "für Singlecores gemacht wurde", und einen Quadcore in einen
Sockel, der eig. "für Single- und Dualcores gemacht wurde".
Und ASRock hat gerade ein MoBo mit 785G für S939 rausgebracht :haha:
Bei Intel hingegen haben sich die Pendants nach Aussen hin anders
verhalten, so dass sie trotz desselben Sockels einen neuen Chipsatz/VRM erforderten.

Das wäre ja die gleiche Vorgehensweise wie bisher, von da wohl sehr realitästnah. ECC Speicher wird man wohl aufgrund der höheren kosten und der geringeren Leistung ausschließen können, ja.

Naja, ich meinte das aber nicht nur für die abgespeckten Varianten des Fermi,
sondern dass es auch denkbar wäre, dass die High-End-Gamervariante bereits
gegenüber dem Tesla-Fermi abgespeckt sein könnte (nat. nur sofern das seiner
Spiele-Leistung nicht schadet), um noch weiter Kosten zu sparen.
Denn wenn der Fermi tats. bei HPC-Kunden so gut ankommt, ist es gut möglich,
dass man genug "Ausschussware" hat, bei der einer der 6 MCs defekt ist,
was zum Spielen aber vllt. garnicht wild wäre.

Das ist wie gesagt aber reine Spekulation. Nur bei der Abwesenheit von ECC bin ich mir sehr sicher.


Die Frage die sich mir gerade stellt ist wie NV die höhere DP Leistung überhaupt erzielt?

http://en.wikipedia.org/wiki/Fused_multiply-add


Grüße,
Mr.Malik
 
Zuletzt bearbeitet:
Also sprechen wir von FMA Einheiten die pro Taktzyklus eine Addition und eine Multiplikation durchführen können. Allerdings nach IEEE 754 Standart mit doppelter Precision als 8byte Zahl. Was also bei der Berechnung durch die späte Rundung zu viel Aufwand führt und zu längeren Zahlenwerten aber auch zu höhere Genauigkeit der Werte.

Hätte ich also die Aufgabe 2^1/2 würde ich bei einfacher Genauigkeit einen Wert mit knapp 40 Nachkommastellen und in doppelter Prezision mit rund 300 Nachkommastellen.

Ich hätte also zum einen das Problem der längeren/aufwändigeren Berechnung und zum anderen der größeren Zahlenwerte die ich händeln muss.

Wenn ich also nV wäre und die Fähigkeit meines Chips in DP steigere, steigere ich doch eigentlich auch automatisch die Leistung in SP, zumindest in der puren Berechnung der Zahlenwerte.
 
Zuletzt bearbeitet:
sorry für ot aber....

boah wenn ich das lese fängt bei mir an der kopp zu qualmen :d das is echt extrem was ihr so alles im kopp habt jungs :fresse:
 
jeder hat halt so nen paar themen wo er mehr weiß als die meisten anderen
wird bei dir sicher auch so sein

bei mir is es z.b. so das ich dank meines studiums sehr viel von RA verstehe ... aber wenn meine freundin nur einen paragraphen aus ihrem jura-studium erklären will schließt sich bei mir jede hirnzelle
 
@Dragozool: Nerds halt :stupid:

@TheDamage: RA? :confused:

@Neurosphere: Beim Fermi wurde das offenbar anders gelöst, da die SP Leistung
dort nur noch doppelt so hoch wie die DP Leistung ist.
Wie genau, weiß ich allerdings auch nicht.

Was ich auf die Schnelle gefunden habe:
[url]http://forums.slizone.com/index.php?showtopic=39522[/url] schrieb:
All of the processing done at the core level is now to IEEE spec. That’s IEEE-754 2008 for floating point math (same as RV870/5870) and full 32-bit for integers. In the past 32-bit integer multiplies had to be emulated, the hardware could only do 24-bit integer muls. That silliness is now gone. Fused Multiply Add is also included. The goal was to avoid doing any cheesy tricks to implement math. Everything should be industry standards compliant and give you the results that you’d expect.

Double precision floating point (FP64) performance is improved tremendously. Peak 64-bit FP execution rate is now 1/2 of 32-bit FP, it used to be 1/8 (AMD's is 1/5). Wow.

Würde vermuten, dass es also durch die Verbreiterung auf 32-Bit diesen
Performanceboost bei DP gibt.

Vllt. weiß Lord da ja was zu zu sagen?


Grüße,
Mr.Malik
 
Ich denke mal das de Cache ebenfalls einen Beitrag zur besseren Performance Leistet. Zum Rest müssen wir wohl wirklich warten was Lord dazu schreibt.
 
Wieder zum G300. Scheinbar hat NV ihn ja auch hin zu einem Konkurenten für LRB Entwickelt. Die Frage wäre ob ATI nicht sowiese einen ähnlichen Weg gehen muss um (wenn G300 und LRB erstmal erschienen sind) auch Konkurenzfähig zu bleiben.
Neja warum sollte AMD da was ändern?
Die haben doch durch ihre 5D Shader recht gute Vorraussetzungen... Klar man hat nur ein fünftel der SP Leistung bei DP, aber im Moment immernoch besser als NV, bei dehnen nur ein achtel der SP Leistung für DP anliegt ;)
Und dazu kommt, das die SP Leistung bei NV auch niedriger ist...

Die Frage ist, kann die Software die 5D Shader optimal ausnutzen um hier volle Leistung zu fahren... erste Versuche im GPGPU Bereich bei F...@Home oder ähnlichem zeigen, das die Software weit entfernt von optimal arbeitet ;)
(gut das zwar nur SP, aber dennoch...)

Wenn der G300 wirklich so Modular ist wie behauptet, wäre es dann ein Problem DP bzw GPGPU Einheiten einfach durch, für Spiele oder 3D-Anwendungen relevante, SP oder ähnliche Einheiten zu tauschen? Wenn ja hätte man wirklich einen verdammt guten Chip entwickelt.

Neja, wie schon gesagt wurde, so einfach wird das wohl nicht...
Aber ich könnte mir vorstellen, das man native DP Einheiten auch mit SP Aufgaben füttern kann, sollte theoretisch ja kein Problem darstellen... und somit die Leistung erhöhen.

Die Frage ist aber, ist eine aktuelle NV GPU Shaderlimitiert? Und wird eine kommende NV GPU Shaderlimitiert sein?
Wenn man aktuelle mögliche Spezifikationen ansieht, scheint NV mehr Shader als andere wichtige Einheiten einzubauen, sprich es liegt nahe, das die Karte ebenso wenig Shaderlimitiert sein wird, wie bei AMD.
Bei AMD kann man hier ganz klar sagen, nein, ist sie nicht, da limitieren die ROPs, TMUs oder was auch immer, aber nicht die Shader...

Denkbar wäre z.B., zur Kosteneinsparung einen der Speichercontroller zu deaktivieren,
wenn das kaum Mehrleistung im Spielebetrieb bringen würde. So könnte man Chips mit
defekten MCs verwurschteln, und würde zusätzlich noch Spielraum bei der Preisgestaltung
schaffen, weil das Board günstiger zu fertigen wäre.

Neja, bei NV hängt der Speichercontroller doch aktuell an den ROP Clustern, sprich so einfach das SI beschränken geht da nicht, man müsste in dem Fall einen kompletten ROP Cluster deaktivieren, was wiederum auch TMUs und ROPs abschaltet...
Denke nicht, das NV diesen guten Modularen Entwurf verwerfen wird...

Wobei ich mich hier auf dünnem Eis bewege, denn ATi hat auch keine "nativen DP-Einheiten" (Cypress). Der DP-Mathematik-Zauber entsteht dort auch nur durch Zusammenarbeiten zweier der Slim ALUs (FP32) im ALU-Cluster, wobei eine die oberen und die andere die unteren Bits bearbeitet. Sollte das bei nVidia genauso realisiert sein, gibt es überhaupt keinen Grund, irgendwas zu entfernen. Und das ist im Übrigen auch das, was ich annehme.

Bei AMD arbeitet doch seit dem R600 eine komplette "5D ALU" an einem DP Operation, was bedeutet, das man nur ein fünftel der SP Leistung für DP hat...
Bei NV geschieht dies doch derzeit durch mehrere Durchläuft durch die SP Einheiten + das bisschen, was die nativen DP Einheiten können, soweit ich weis...

Bisher wurden ja die Quadros und Teslas auch aus dem selben Stück Silizium
gefertigt, wie die GeForces. Zwar liegt damit ein bisschen Chipfläche bei den
GeForces brach, dafür braucht es nur einen Chip, der eingerichtet, optimiert
und gefertigt wird. Genauso wie eine GTX260 kein eigenständiger Chip ist,
oder ein AMD X3.

Allerdings ist das natürlich auch immer eine Sache der Abwägung:
Lohnt es sich eher einen eigenständigen Chip zu fertigen, mit entsprechenden
Einrichtungskosten, oder lohnt es sich eher, größere Chips zu beschneiden,
mit entsprechendem Kostennachteil bei der Fertigung.

Das ist aber auch wohl das größte Problem bei NV aktuell im oberen Performance Bereich, nämlich das sie dort Chips verwenden, die eigentlich deutlich mehr kosten müssten.
Eine native 260GTX zum Beispiel müsste weit kosteneffizienter sein, als das missbrauchen einer 285er GTX GPU und deaktivieren der Einheiten...
Das kostet unnötig Platz auf dem Wafer und steigert die Kosten für etwas, was gar nicht gebraucht wird...
 
@Mr.Malik
M-SPACE zielt eigentlich mehr darauf ab, dass man verschiedene Komponente in einer MPU flexibel unterbringen kann, CPU Kerne, GPU, Northbridge, usw, um so MPUs gezielt für bestimmte Märkte effizient entwickeln zu können. Mit den Entwicklungsteams selbst hat das wenig zu tun. Wobei es natürlich plausibel ist, wenn ein Entwicklungsteam jeweils an einer Komponente arbeitet und man sich am Ende über fest definierte Schnittstellen wieder trifft.

Was nVidia hier mit Modularität genau meint, erschliesst sich mir nicht wirklich. Ich würde es einfach mal als PR unkommentiert stehen lassen. Gerade GPUs sind schon seit jeher recht modular aufgebaut. Wirklich neu ist das nicht. Und diese Vorgehensweise mit separaten SP und DP Einheiten nutzt ja ansonsten auch keiner der anderen GPU Hersteller, afaik.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh