NVIDIA präsentiert Next-Generation GPU Fermi bzw. GT300

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.225
<p><img width="100" height="100" src="images/stories/logos/nvidia.gif" alt="nvidia" style="margin: 10px; float: left;" />Soeben hat NVIDIA einen Einblick auf das gegeben, was uns in der nächsten GPU-Generation erwarten wird. Demnach hat man unter dem Codenamen <em>Fermi</em> die dritte Generation seiner CUDA-Compute- und Grafik-Architektur entwickelt. Dabei greift man auf die Erfahrungen bei der Entwicklung des G80 und GT200 zurück und verbessert deren Architektur-Konzepte weiter. Demnach ist man mit der Performance der Single-Precision-Fließkomma-Performance schon sehr zufrieden, allerdings verlangten zahlreiche Anwendungszwecke immer mehr Double-Precision-Performance. Hinzu kommt die Notwendigkeit nach einer Fehlererkennung (ECC) im Speicher, was die Verwendung solcher GPUs...<p><a href="/index.php?option=com_content&view=article&id=13208&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
kann das teil DX11 und wird der preis für dieses monster einergermassen endverbraucher freundlich ausfallen?
ich wette, dass nicht viele gewillt sind 600€ oder so auf den tisch zu legen...
 
Auch hier nochmal , das sind alles GPGPU daten, aber spielerelevante sachen wie anzahl von TMUs oder Robs fehlen, oder gar der takt.

für den 08/15 gamer sind die daten nicht so wichtig.
 
Zuletzt bearbeitet:
Warte doch einfach auf die 2. Revision des Fermi in 32Nm. Die 280GTX war zu Anfang teuer und wurde dann ja schnell günstiger.

Die Frage wäre es ja, ob NV es schafft, eine Dual in 40Nm zu bauen, ohne auf 2X 8Pin und lauter Lukü zurück zu kommen.
 
Die veröffentlichten Informationen klingen eher nach einer weiteren Tesla oder Workstation- Grafikkarte.

Unter Last dürfte diese Lösung unglaublich viel Abwärme produzieren, ich erwarte mindestens 230 Watt. Dafür könnten viele Berechnungen, welche eigentlich der CPU vorbehalten wären nun durch den Grafik/Cuda-Chip verarbeitet werden.

Schade, dass Nvidia keine x86-Lizenz besitz
 
Die veröffentlichten Informationen klingen eher nach einer weiteren Tesla oder Workstation- Grafikkarte.

Unter Last dürfte diese Lösung unglaublich viel Abwärme produzieren, ich erwarte mindestens 230 Watt. Dafür könnten viele Berechnungen, welche eigentlich der CPU vorbehalten wären nun durch den Grafik/Cuda-Chip verarbeitet werden.

Schade, dass Nvidia keine x86-Lizenz besitz

das wär dann was für ATI :d die haben dank AMD doch X86-Lizenz von Intel oder dürfen die das intern nicht weitergeben?
 
Die Daten sind für Gamer wohl ziemlich irrellevant.
Ein Vorschau auf Taktraten, Ropes wäre da viel nützlicher...
@maatn: DX11 wirds ziemlich sicher geben, weil sonst wär die Karte (in verbindung mit W7) ein ziemlicher Reinfall.
 
Das ist auch keine Grafikkarten Präsentation - was das Ding in Spielen leistet kann man nicht mal erahnen und der Preis dürfte weit über 600€ liegen... ( je nach Ausbaustufe )

Nvidia ist jetzt voll dabei sich auf GPU Computing zu konzentrieren - ob das gut ist wird sich zeigen.
 
Das ist auch keine Grafikkarten Präsentation - was das Ding in Spielen leistet kann man nicht mal erahnen und der Preis dürfte weit über 600€ liegen... ( je nach Ausbaustufe )

Nvidia ist jetzt voll dabei sich auf GPU Computing zu konzentrieren - ob das gut ist wird sich zeigen.

NV braucht halt neue berreiche, AMD hat GPU und CPU

Intel hat CPU und GPUs (auch wenn nur onboard :d)

Aus NetBooks wird NV mit dem neuen Atom+GPU auf einem träger verträngt.

Langsam wird es eng und man muss auf mehr als nur GPU markt setzen.
 
Wer nutzt hier eigentlich gpgpu krams?Das ist doch ehrlich gesagt die Frage.Ka warum die das so anpreisen.D1e 98 % der Leute ist das doch wayne...Was habe ich als Spieler von Cuda?98 % sollte das doch ganricht intressieren.Für SPieler ist das ganze doch unintressant.
 
Zuletzt bearbeitet:
Tja, und dann machen auch die aussagen beim letzten conference call sinn, wo man ja meinte, DX11 wäre gar nicht so wichtig, viel wichtiger sei GPGPU. Klang damals schon unterschwellig nach einer strategischen neuausrichtung (die ohnehin kommen muss, der PC spiele markt schrumpft ja eigentlich nur noch und bei den chipsätzen kommen nur noch für mobile devices interessante dinge).

Das teil scheint also ganz schön potent in sachen GPGPU zu sein. Bei heise hat man unter annahme gleicher taktraten wie bei der aktuellen tesla c1060 nicht unbedingt markerschütternde SP und DP werte im vergleich zur 5870 errechnet. Aber auf diese theoretischen zahlenspiele kommt es auch nicht so an (aber war schon wichtig endlich die DP performance aus dem keller zu holen wenn man im HPC sektor mitmischen will). Viel wichtiger sind andere technische neuerungen, würde ich mal sagen.

Aber trotzdem hört man wieder nichts zum anderen, für uns interessanteren, aspekt: spiele performance. Warum nicht? Ist das ding zwar schnell, reisst aber doch nicht die erwarteten bäume aus weil es halt in erster linie auf GPGPU leistung ausgelegt wurde? Ich könnte es mir durchaus vorstellen.

Und bei heise stand, dass nvidia laut eigenen aussagen noch mindestens bis jahresende braucht um damit auf den markt zu kommen. Man scheint es also immer noch nicht ganz genau zu wissen, aber analysten und investoren soll man die karten schon mal gezeigt haben. Auch nicht wirklich typisch für nvidia.
 
Wenn die 360 auch noch viel schneller ist als die 5870 bzw nicht viel langsamer als die 380 also alles so wie beim letzten launch ist mir das Egal .
Dann warte ich bis der Erste run vorbei ist und hol die 360 schliesslich ist die 260 auch schnell genug immer noch obwohl meine nur 192 shader hat .
Und wenn man sich das ganze im vergleich mit der 5870 anschaut ist der Vorsprung der 285 zur 260 sowieso nicht der Rede wert .

MfGamiac
 
@The Specialist of all:
Ich würde gern GPGPU nutzen! Fürs Encoding gibts nichts schnelleres. Ich hab noch ne alte 8800GTS 640, die ist nur eingeschränkt GPGPU-fähig. Deshalb freue ich mich sehr über OpenCL, bzw. dass es in D3D11 integriert ist. Jetzt müssen nur noch entsprechende Programme rauskommen. Alles, was parallel berechenbar ist, wird von GPGPU profitieren. So kommt man vergleichsweise preiswert an massive Rechenpower. Ne Workstation mit mehreren Xeons ist mir zu teuer. Lieber gebe ich 600 Euro aus und hab noch mehr Leistung auf einer einzigen Karte, als mehrere tausend für 2 oder mehr CPUs mit entsprechendem Mainboard ;)
 
Wenn die 360 auch noch viel schneller ist als die 5870 bzw nicht viel langsamer als die 380 also alles so wie beim letzten launch ist mir das Egal .
Wie beim letzten Launch? Also die GTX 260 soll viel schneller gewesen sein als die HD 4870? Das musst du falsch in Erinnerung haben. Beide lagen gleich auf.
 
Wenn ich mir die Daten so ansehe hör ich in im Hinterkopf irengdwen immer \"Raytracing! Raytracing!\" rufen ;)
Wenn ich mir zb die 512 CUDA-Cores anseh muss ich zwangsläufig an Larrabee denken, die geht man ja auch davon aus der er eher auf Raytracing als auf klassische Rasterization (verdammt wie schreibt man das?) ausgelegt ist.

Spannend!
 
Leute, vom G300 wissen wir immer noch nichts - das hier ist der GT300 ( Tesla ).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh