nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4

Status
Für weitere Antworten geschlossen.

Koebes

Groß-Admiral deLuxx
Thread Starter
Mitglied seit
12.10.2006
Beiträge
2.533
Ort
DA - LIP
nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]


In Anlehnung an den guten alten
geht es in diesem Thread um Informationen, Meinungen, Fragen und Spekulationen
rund um das Thema zum kommenden NextGen. HighEnd DirectX 11 GT300 Chip.


HighEnd oder nicht HighEnd, das ist hier die Frage!?! ;)

Der GT212 sollte also erst der Nachfolger des GT200 (GTX 285) werden.


Somit wird klar, der NextGen. HighEnd DirectX 11 Chip in 40nm, ist der GT300.


nvlogodeluxxpp3.jpg

Infos zum nv GT300:


- Multiply Instruction Multiple Data (MIMD)-Einheiten

- neues Power- und Speichermanagement

- "wahrer" G80 Nachfolger


- 512 Shadereinheiten


- GDDR 5 Speicher


- 512 Bit Speicherinterface


- Anzahl der Shadercluster von 10 auf 16


- 128 statt 80 TMUs

...


Links:


http://www.hardware-infos.com/news.php?news=2663


http://www.fudzilla.com/index.php?option=com_content&task=view&id=11666&Itemid=65


http://www.pcgameshardware.de/aid,654085/TSMCs-40nm-GP-RV870-und-GT300-fast-viermal-so-schnell-wie-heute/Grafikkarte/News/


http://www.hartware.de/news_46678.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/april/erste_direct3d-11-karte_nvidia_q4_09/


http://www.fudzilla.com/index.php?option=com_content&task=view&id=13002&Itemid=65


http://www.hardware-infos.com/news.php?news=2871


http://www.hardware-infos.com/news.php?news=2891


http://www.hartware.de/news_46774.html


http://www.brightsideofnews.com/news/2009/4/22/nvidias-gt300-specifications-revealed---its-a-cgpu!.aspx


http://www.hardwareluxx.de/community/showthread.php?t=607119


http://www.hardware-infos.com/news.php?news=2904


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/april/kommt_nvidias_gt300_512_shadereinheiten/


http://www.hardware-infos.com/news.php?news=2930


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/mai/nvidia_gt300_512_bit_gddr5/


http://www.hardware-infos.com/news.php?news=2944


http://www.hardware-infos.com/news.php?news=2952


http://www.hardware-infos.com/news.php?news=2954


http://www.hardware-infos.com/news.php?news=2997


http://www.hartware.de/news_47143.html


http://www.computerbase.de/news/hardware/grafikkarten/2009/juni/gt300_rv870_wann_chips/


http://www.hardware-infos.com/news.php?news=3117


http://www.hartware.de/news_47452.html


http://www.hardware-infos.com/news.php?news=3225


http://www.hardware-infos.com/news.php?news=3226


http://www.hardware-infos.com/news.php?news=3227


http://www.hardware-infos.com/news.php?news=3228


http://www.hartware.de/news_47713.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/oktober/offiziell_fermi_gt300/




-----------------------------------------------------------------------------------------------------------------------------------------------------------------------



News - Historie zum nv GT212:

Der GT212 sollte im 40 nm Verfahren hergestellt werden.
Die Chipfläche beträgt ca. < 300 mm² mit < 1800 Mio. Transistoren.
Es gibt 384 Shadereinheiten und 96 TMUs.
Das Speicherinterface soll (von max. 512 Bit des GT 200) auf nur 256 Bit beschnitten werden.
Um ähnliche Bandbreite zu gewährleisten, sollte hier der verbaute GDDR5 Speicher statt GDDR3 für Abhilfe sorgen.
Launch des GT212 sollte im Q2/2009 sein.


Links:


http://www.hardware-infos.com/news.php?news=2629


http://www.hartware.de/news_46158.html


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/januar/erste_details_nvidias_gt212-chip/


http://www.pcgameshardware.de/aid,671975/News/GT212-_Angebliche_Specs_der_Nvidia-GPU_gesichtet/


http://www.hardware-infos.com/news.php?news=2612


http://www.hartware.de/news_46263.html


http://www.fudzilla.com/index.php?option=com_content&task=view&id=11696&Itemid=65


http://www.hartware.de/news_46365.html


http://www.hartware.de/news_46403.html


http://www.hardware-infos.com/news.php?news=2892




. . . to be updated ! . . .



.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn NV noch ein wenig rummährt bis zur endgültigen Markteinführung, wird wohl eher eine 6xxx, denn einer übertakteten 5890 der Mitbewerber sein^^

Ja ja übertreibt es mal nicht. ATI wird mit sicherheit so schnell keine neue Arcitektur herausbringen, immerhin ist die HD58xx ja nur eine aufgebohrte HD49xx. Was das geschwafel immer soll hier. Ihr habt anscheinend keine ahnung was das für ein aufwand ist eine Arcitektur zu entwickeln und die dann noch lauffähig zu bekommen. Der GF100 wird 3.000 Millionen Transistoren haben! Mehr als doppelt so viel wie der Cypress. Das ist schon ein wahnsinniger Technischer Aufwand eine hohe Chipausbeute zu erziehlen.
 
Zuletzt bearbeitet:
Ja ja übertreibt es mal nicht. ATI wird mit sicherheit so schnell keine neue Arcitektur herausbringen, immerhin ist die HD58xx ja nur eine aufgebohrte HD49xx. Was das geschwafel immer soll hier. Ihr habt anscheinend keine ahnung was das für ein aufwand ist eine Arcitektur zu entwickeln und die dann noch lauffähig zu bekommen. Der GF100 wird 3.000 Millionen Transistoren haben! Mehr als doppelt so viel wie der Cypress. Das ist schon ein wahnsinniger Technischer Aufwand eine hohe Chipausbeute zu erziehlen.

3 ist doppelt so viel wie 2 :hmm:

da hat wohl wer in mathe nicht aufgepasst:fresse:

Und zur neuen Architektur, A/A arbeitet wenn schon was länger dran, denn es wird immer parralel gearbeitet , bei NV auch , da ward mit der übernächsten generation angefangen obwohl die nächste noch nicht verkauft wird!
 
Dieser Artikel ist auch recht interessant:Klick
Seite 6 geht z.B. auf die Skalierbarkeit/Modularität des GF100 hinsichtlich kleinerer Ableger ein.
 
Zuletzt bearbeitet:
Leider halt noch mit einigen Fragezeichen dein Vergleich, aber i.O. ich versteh worauf ihr raus wollt.
Es mag aber auch Leute wie mich geben die gern eine schnelle Single-GPU-Karte haben wollen.

Ich will den Fermi nicht verteidigen, mir sind Firmen nämlich wirklich egal solange sie nicht mein Gehalt bezahlen.
Für mich ist das was man bisher gezeigt hat einfach alles andere als ein Flop, wenn auch vllt. ein bißchen zu spät.
Zwecks Kosten usw. kann man ja noch nichts sagen, oder kennt Ihr alle schon die UVP?
 
Mag ja sein. Das Problem ist aber, jetzt ist es die Konkurrenz.


2x 334 mm² (668 mm²)
294 W TDP
60-80% Yields

vs

>550 mm² (?)
280 W TDP (?)
<20% Yields momentan (?)


Wenn Fermi bezüglich Performance, Stromverbrauch und Chip-Kosten sich nicht mit Hemlock messen kann, wird es ein wirtschaftlicher Desaster. Besonders letzter Punkt kann ein echtes Problem werden. Nicht nur, was die Verfügbarkeit betrifft, sondern auch die ASPs. Cypress ist nach aktuellem Stand eine ganz andere Grössenordnung.

Wenn man von dem Standpunkt ausgeht und auch mal die MGPU Probleme mit reinrechnet wie Microruckler etc hätte Fermi schon gewonnen...
 
3 ist doppelt so viel wie 2 :hmm:

da hat wohl wer in mathe nicht aufgepasst:fresse:

Und zur neuen Architektur, A/A arbeitet wenn schon was länger dran, denn es wird immer parralel gearbeitet , bei NV auch , da ward mit der übernächsten generation angefangen obwohl die nächste noch nicht verkauft wird!

Ahh, da hab ich mich wieder so aufgeregt das ich mist geschrieben hab^^
Ihr wisst was gemeint ist. :)
 
Ihr habt anscheinend keine ahnung was das für ein aufwand ist eine Arcitektur zu entwickeln und die dann noch lauffähig zu bekommen.

Nein, habe ich nicht.

Aber bedenke bitte die Wirtschaftlichkeit.

Angenommen (reine Fiktion) die GTX 360 ist 25% schneller als die 5870.

Würdest Du für z.B.: eine "360" 450€ bezahlen, wenn Ati den Preis der "5870" auf 250,-€ senken würde?


Ach ja: Wie schön der Ignorieren Button ist.
 
Zuletzt bearbeitet:
Nein, habe ich nicht.

Und Du hast anscheinend keinen blassen Schimmer von Wirtschaftlichkeit.

Angenommen (reine Fiktion) die GTX 360 ist 25% schneller als die 5870.

Würdest Du für z.B.: eine "360" 450€ bezahlen, wenn Ati den Preis der "5870" auf 250,-€ senken würde?

ja da gibt es hier genug , denn es steht NV drauf :heuldoch:

Musste gerade sein :d

Ist denn jetzt die NDA gefallen? weiss denn dann jetzt wer , wann testsemples verschickt werden sollen oder so?
 
Nein, habe ich nicht.

Aber bedenke bitte die Wirtschaftlichkeit.

Angenommen (reine Fiktion) die GTX 360 ist 25% schneller als die 5870.

Würdest Du für z.B.: eine "360" 450€ bezahlen, wenn Ati den Preis der "5870" auf 250,-€ senken würde?


Ach ja: Wie schön der Ignorieren Button ist.

und wenn sie 80% schneller ist, rein fiktiv natürlich :d

Davon mal abgesehen wird man wohl auf den 512 (Juli...) refresh warten können oder wollen....
 
Hemlock wird bestimmt einen Tick schneller sein unter bestimmten vorrausetzungen.

Aber hat wiederum das Problem mit Microrucklern die wohl beim Hardware hungrigem Spielen der Zukunft (Tesslation) ein Problem sein könnten... ich weiß nicht wie hart es sich auf Framerates auswirkt(hab keine dx11 Karte noch hab ich jetzt extra nachgeforscht) 1090* ~4aa + Tesslation wird wohl auch so eine Karte in den 30er bereich runterziehen (Microruckler)

Ich muss aber hinzufügen, ich weiß nicht wie sich microruckler anfühlen und ob es so nervig ist wie alle behaupten - ich habe bisher keinen Grund gehabt DualGPUs in meinem System unterzubringen.

Folge dessen:
Ich hab lieber SingleGpu Karten, und wenn es nur einen minimalen unterschied an performance zw der 380 und der 5970 geben wird sehe ich bei halbwegs gleichen Preisen(~550€) keinen Grund die 5970 zu nehmen. (wenn ich überhaupt einen grund sehen würde meine derzeitige graka abzulösen, bzw etwas in der Preisregion kaufen zu wollen)

Wer jetzt ne Graka braucht soll sich ne 5870, oder 5970 holen sofern das Geld vorhanden ist - aber im Grunde gibts keinen Grund upzugraden(zumindest wenn man zb. etwas auf dem niveau einer 4870 o.ä hat) - ausser für den Status "Seht her ich hab ne dx11 Karte"(und den absoluten enthusiasten)
 
Zuletzt bearbeitet:
Nein, habe ich nicht.

Aber bedenke bitte die Wirtschaftlichkeit.

Angenommen (reine Fiktion) die GTX 360 ist 25% schneller als die 5870.

Würdest Du für z.B.: eine "360" 450€ bezahlen, wenn Ati den Preis der "5870" auf 250,-€ senken würde?


Ach ja: Wie schön der Ignorieren Button ist.

gibt ja auch viele,die komplett system kaufen,von mm oder so...tendenziell ist dann meist nv verbaut,trotz des höheren preises!
 
Und würde man die Shader auf 448 beschneiden , würden ja auch ein teil der TMUs wegfallen , da diese ja jetzt in einem shaderblock sitzen, und auch 1/4 der Tesselationeinheiten fallen dann weg und paar andere dinge ^^

Und so wie es aussieht setz er aber auch 512Shader, sonst sind es keine 64TMUs
 
Wenn man von dem Standpunkt ausgeht und auch mal die MGPU Probleme mit reinrechnet wie Microruckler etc hätte Fermi schon gewonnen...
Mikroruckler sind für GPGPU irrelevant. Und wie stark man es in Spielen wahrnimmt, ist individuell verschieden. Tatsache ist vielmehr, bekommt nVidia keine brauchbaren Yields mit A3 bzw A4 zustande (imo 40% bei sehr guter und 50-60% bei mäsziger Performance), dann hat Fermi verloren bzw ein Respin ist wahrscheinlich. Dann ist der Konkurrent aber nicht mehr Hemlock, sondern Northern Island. Aber hoffen wir, dass es soweit nicht kommt. Fehlende Konkurrenz nützt niemandem etwas.
 
Warum zum Geier muss man eine 5870 simulieren?

Kannst gleich Ausklammern solch einen Schwachsinn :stupid:
 
Warum zum Geier muss man eine 5870 simulieren?
wenn ich den Text darüber richtig verstanden habe, dann hat es damit zu tun, dass sie nicht genau den selben Test-PC zusammenstellen konnten (anderes Mainboard und andere RAM-Einstellungen), wie ihn nVidia verwendet hat. Aber 100prozentig sicher bin ich mir da auch nicht.
Sollte es so sein, dann ist der Hinweis "simulated" aber recht ungünstig gewählt.
 
Zuletzt bearbeitet:


genau mal wie gehabt in Echt :d

siehe minFPS, vollkommener Quark was die da schreiben.
 
@lefrog
Es sind die ergebnisse aus dem Farcry2 Video, der eine Reporter hat dann bei Nvidia nach dem System gefragt und es versucht 1:1 nachzustellen mit einer gtx285 und eben einer 5870... angäblich nur ein 1-2%iger unterschied somit sollten die Werte passen und es kein optimierter Farcry2 bench sein... Es ist also eine grobe richtlinie wie man die 5870 einschätzen kann, nicht in stein gemeisselt (hätten sie zb. statt dem i7960 nen amd genommen hätte die ati einige frames mehr...) Gab schon user tests auf xtremesystems
 
Zuletzt bearbeitet:
Wenn ich die simulierten Werte der 5870 mit den einschlägigen Tests vergleiche, stimmt besonders bei 4AA die Werte Recht gut.

Andererseits ist bekannt das FC2 besonders auf NVidia Karten gut läuft.

Setzt man das ganze dann in Bezug auf eine DualGPU 5970, erreicht diese einen Wert von gemittelt ~100FPS. Übertaktet auf 2*5870 sogar ~117FPS.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh