nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Nunja, ich weiß nicht so wirklich.

Durch die minimalst Refreshs der 9800 GT und 9800 GTX in Form der 240 GTS und 250 GTS glaube ich eigentlich so langsam nichtmehr, dass da nochwas kommt.

Zumal der G300 ja schon wieder für Spätsommer/Herbst angekündigt ist und es da ja auch sicherlich wieder kleinere Karten geben wird.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja aber vor dann dem neuen NextGen. GT300 Chip in 40nm, wird NV sicherlich noch den GT200 kastriert in 40nm gießen um den 40nm Fertigungsprozess auch testen zu können. Wäre ja sonst ein ziemlich grosses Risiko und ein GT300 noch in 55nm ist wohl ausgeschlossen(-> TDP Explosion) und auch net mehr zeitgemäß. ;)
 
Zuletzt bearbeitet:
Es wäre schön, ja. Und ein "Test" für NV in 40nm wäre auch nützlich stimmt.

Aber da wirklich gar nichts wirkliches bekannt ist gehe ich eher nicht davon aus.

Ansonsten ist ja alles immer schon ewig vorher bekannt.

Bei ATI kommen im April die ersten "größeren" 40nm Karten, die ziemlich interessant sind. (Preis-Leistung)
 
Nvidia's 40nm generation should be a killer

Nvidia's 40nm chip should be a great performer. This is what we got from the Cebit show, but we didn't actually get anything specific to back this bold claim up.

Nvidia learns from its mistakes, and it wants to win this round to make ATI look bad, that is the general goal. The claim comes from sources close to Nvidia, and naturally after quite a lot of messy rebranding, there might be some really new stuff coming in the next few months.

The one we really want to see out is GT218, a 40nm performance card, but from all we know this card shouldn't be out before Q3 2009 time, just in time to compete with ATI's RV8x0 architecture. We still don't know who might end up faster this round, as the stakes are really high for both players. Both sides already claim victory, but no one really knows the answer to this question today.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=12422&Itemid=1
 
sollte der gt218 nicht ein entry chip werden? -.-
 
"Roadmap":

Bin ich vorhin beim Stöbern im Netz drüber gestolpert:




Würde ja auch mit den meisten Infos von Seite 1 konform gehen. ;)



.
 
Wenn der GT300 wirklich über solche enorme Rechenpower verfügen sollte, ist er auf jeden Fall der würdige G80 -Erbe. ;)
 
Auf jeden Fall sollen die sich mal mit dem Release des GT300 etwas beeilen, ich will endlich Crysis ruckelfrei spielen! :fresse:
 
Bei den GT300 Karten werden wir teure Karten sehen, sprich Single GPU Karte für 400-500 €

Falls die HD5870 nicht mithalten kann, wird die Nvidia GTX380? also GT300 wirklich über 400 € kosten

Es reicht schon wenn der RV870 so stark wie die 4870 X2 wird.
 
Zuletzt bearbeitet:
Bisher war es auch immer so, dass die nächste Highend Karte ca. so stark war wie das Highend-Dualmodell der Vorgeneration.

Demnach müsste der G300 so schnell wie eine 295 GTX sein.

+-10%
 
Bisher war es auch immer so, dass die nächste Highend Karte ca. so stark war wie das Highend-Dualmodell der Vorgeneration.

Demnach müsste der G300 so schnell wie eine 295 GTX sein.

+-10%

Naja die GTX 280 warja fast doppelt so schnell wie der g80 nur halt aufgebohrt, erwarte mir da mehr als 2x GTX 260 (was die GTX 295 ja is) leistung
 
Ich erwarte vom GT300 Single Chip, das er 25-30% schneller als die GTX295 wird.
 
Bei den GT300 Karten werden wir teure Karten sehen, sprich Single GPU Karte für 400-500 €
Wenn die Leistung stimmt kaufen die sicher trotzdem genug Leute.:drool:
Bisher war es auch immer so, dass die nächste Highend Karte ca. so stark war wie das Highend-Dualmodell der Vorgeneration.

Demnach müsste der G300 so schnell wie eine 295 GTX sein.

+-10%
Ja bisher war es so, mal sehen ob der Trend mit einer neuen Gen gehalten werden kann.

Naja die GTX 280 warja fast doppelt so schnell wie der g80 nur halt aufgebohrt, erwarte mir da mehr als 2x GTX 260 (was die GTX 295 ja is) leistung
GTX280 war bei einigen Settings auf GX2 Niveau, wenn man den G92 als Nachfolger des G80 akzeptiert. :fresse:
 
Jo von mir aus kann gleich der GT600 kommen, auf den 300er pfeif ich.:fresse:

Aber der von dir verlinkte Test läuft doch nur auf der CPU oder?
 
Jo von mir aus kann gleich der GT600 kommen, auf den 300er pfeif ich.:fresse:

Aber der von dir verlinkte Test läuft doch nur auf der CPU oder?

Jepp werd nvidia bescheid geben das wir den 300er auslassen u gleich zum 600er übergehen keine halben sachen:shot:

Das ist es ja es weiss keiner so genau ob da cuda mit unterstüzt denn die grafikkarten werden auf jedenfall auch mitbelastet:)

Oder meinst du den test mit den gerenderten bällen?
 
Zuletzt bearbeitet:
Hier herrscht schon wieder die übliche Hype-Stimmung, lernt ihr denn nichts aus der Vergangenheit?

Wir rekapitulieren mal: Der G80 war lange draußen, der GT200 stand in den Startlöchern - jedermann hier ist von einem gigantischen Rechenmonster mit wahnsinnigen Fähigkeiten ausgegangen, "nach so langer Zeit endlich der würdige Nachfolger des G80". Eben genau das, was man mit Hype betitelt. Was ist dann passiert? Die GTX 280 ist erschienen und war eben weit, weit weg von 100% Mehrleistung gegenüber den stärksten G80-Derivaten (wer erzählt hier, dass die GTX280 doppelt so schnell war wie ein G80?). Was folgte, war Ernüchterung, CB zum Beispiel schrieb

CB schrieb:
Die erträumte doppelte Performance zur GeForce 8800 Ultra bleibt weiterhin nur Wunschdenken.

sowie

CB schrieb:
Eine Enttäuschung ist die GeForce GTX 280 auf jeden Fall nicht, aber auch nicht die erhoffte (und unrealistische) Geschwindigkeitsrakete.

Klar war die GTX280 schnell, aber das, was sich alle erhyped haben, war sie eben nicht. Und genau dasselbe sehe ich hier gerade wieder passieren. Klar, wir alle hätten gern soviel Grafikleistung wie möglich so schnell wie möglich, aber das ist einfach nicht realistisch. Das ist doch blanke Selbstblendung, sich jetzt hier erst auf "eigentlich schon sichere doppelte Leistung" zu freuen, um dann nachher entrüstet und enttäuscht Hassbeiträge gegen die neue Generation zu verfassen, weil sie das selbstkreierte Ziel nicht erreicht. Es ist blanker Unsinn, hier zu proklamieren, dass neue Generationen immer doppelt so schnell waren wie die Vorherigen, denn das war einfach mal nicht der Fall. Vielleicht Jahre später, unter langer Reifung der Treiber und (durch andere Spiele) einem völlig anderen Anforderungsprofil, aber bei Erscheinen oder kurz danach definitiv nicht.

Versteht mich nicht falsch, ich mag Spekulation auch und ich bin definitiv heiß auf neue Technologie, aber dieses "Sie wird doppelt so schnell! Nein, dreifach! Ach, was sage ich, so schnell wie alle Grafikkarten vorher zusammen!" ( [/irony] ;) ) ist keine Spekulation, sondern Träumerei, die zu nichts führt außer Enttäuschung.
 
Zuletzt bearbeitet:
Hier herrscht schon wieder die übliche Hype-Stimmung, lernt ihr denn nichts aus der Vergangenheit?

Wir rekapitulieren mal: Der G80 war lange draußen, der GT200 stand in den Startlöchern - jedermann hier ist von einem gigantischen Rechenmonster mit wahnsinnigen Fähigkeiten ausgegangen, "nach so langer Zeit endlich der würdige Nachfolger des G80". Eben genau das, was man mit Hype betitelt. Was ist dann passiert? Die GTX 280 ist erschienen und war eben weit, weit weg von 100% Mehrleistung gegenüber den stärksten G80-Derivaten (wer erzählt hier, dass die GTX280 doppelt so schnell war wie ein G80?). Was folgte, war Ernüchterung, CB zum Beispiel schrieb



sowie



Klar war die GTX280 schnell, aber das, was sich alle erhyped haben, war sie eben nicht. Und genau dasselbe sehe ich hier gerade wieder passieren. Klar, wir alle hätten gern soviel Grafikleistung wie möglich so schnell wie möglich, aber das ist einfach nicht realistisch. Das ist doch blanke Selbstblendung, sich jetzt hier erst auf "eigentlich schon sichere doppelte Leistung" zu freuen, um dann nachher entrüstet und enttäuscht Hassbeiträge gegen die neue Generation zu verfassen, weil sie das selbstkreierte Ziel nicht erreicht. Es ist blanker Unsinn, hier zu proklamieren, dass neue Generationen immer doppelt so schnell waren wie die Vorherigen, denn das war einfach mal nicht der Fall. Vielleicht Jahre später, unter langer Reifung der Treiber und (durch andere Spiele) einem völlig anderen Anforderungsprofil, aber bei Erscheinen oder kurz danach definitiv nicht.

Versteht mich nicht falsch, ich mag Spekulation auch und ich bin definitiv heiß auf neue Technologie, aber dieses "Sie wird doppelt so schnell! Nein, dreifach! Ach, was sage ich, so schnell wie alle Grafikkarten vorher zusammen!" ( [/irony] ;) ) ist keine Spekulation, sondern Träumerei, die zu nichts führt außer Enttäuschung.


Naja ich denke so unrealistisch ist es nicht, ich dachte der GT200 äre nen neuer chip, war aber G80 brute force edition, da der aber wies ausseiht am limit ist und nun was ganz neues kommt, ist es denke ich schon realistisch

Finde auch schwärmen ist ok ,wenns nachher nur 80% sind sits dcoh nicht schlimm, ich werd dann ejdenfalls net das ding schlecht reden
 
Zuletzt bearbeitet:
So? Was soll denn "ganz neues" kommen? Gibts jetzt keine Streamprozessoren, keine Shader, keine ALUs mehr? Das wäre was "ganz neues", aber was soll das sein?

Nein, solange keine konkreten Ideen darüber bekannt sind, was denn da jetzt ganz anders sein soll und auf einmal für abartige Leistungssteigerungen sorgt, halte ich das für ziemlich unrealistisch und muss davon ausgehen, dass es natürlich auch nur ein Aufguss des bisherigen ist. Nur vom Glauben an etwas "ganz neues" und einigen hilfesuchenden Gebeten kommt man vielleicht in der Kirche weiter, aber das hier ist technologisch doch ein bisschen bodenständiger. :)

Und klar ist schwärmen okay, ich stelle nur die Frage nach dem Sinn. Und ganz abheben sollte man auch beim schwärmen nicht.
 
Stimme hier Lord vollkommen zu. Dass der G300 etwas "ganz neues" ist, halte ich für unrealistisch. Sowas schustert man nicht einfach mal in 12 Monaten zusammen. Dafür braucht es schon mehrere Jahre. Realistischer ist, dass man auf den G200 aufbaut und sich die Leistungssprünge daher in Grenzen halten. Viel wichtiger wäre es sowieso erstmal, dass man das Design kompakter bekommt, anstatt weiter sinnlos aufzubohren. Schliesslich muss man im Mainstream Bereich auch irgendwann mal den G92 ablösen.
 
Stimme hier Lord vollkommen zu. Dass der G300 etwas "ganz neues" ist, halte ich für unrealistisch. Sowas schustert man nicht einfach mal in 12 Monaten zusammen. Dafür braucht es schon mehrere Jahre. Realistischer ist, dass man auf den G200 aufbaut und sich die Leistungssprünge daher in Grenzen halten. Viel wichtiger wäre es sowieso erstmal, dass man das Design kompakter bekommt, anstatt weiter sinnlos aufzubohren. Schliesslich muss man im Mainstream Bereich auch irgendwann mal den G92 ablösen.

ich denke du denkst falsch, an einem megachip wird immer 2,3 jahre geforscht, damit wurde warscheinlich auch nach dem g80 begonnen, zeitgleich mit den arbeiten am GT200 der eben die zeit dazwischen überbrücken soll. somit ists nun wiederzeit für was neues, ati machts ja nicht anders
 
Zuletzt bearbeitet:
Da hast du aber scheinbar völlig falsche Vorstellungen von "etwas neuem". G80 und R600 waren deshalb so neu, weil man zum ersten mal auf eine Shader Architektur setzte. Sowas wird es so schnell nicht wieder geben. Glaube es mir oder auch nicht, aber dass der G300 ein "Megachip" wird, halte ich für unrealistisch. Gerade auch deswegen, weil man schon beim G200 sieht, wie sehr man der Konkurrenz hinterherhinkt. nVidia braucht zwar dringend eine neue Architektur. Die wird aber noch etwas auf sich warten lassen. Entsprechende Veränderungen in der Führungsetage wurden ja erst im vergangenen Jahr vorgenommen. Vermutlich bis mindestens 2011 muss man noch auf erste Ergebnisse warten.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh