nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei nVidia wirds Zeit für ein komplett neues Design, sonst kommt sowas dabei raus und ein Monsterchip jagt den nächsten :)
 
Bei nVidia wirds Zeit für ein komplett neues Design, sonst kommt sowas dabei raus und ein Monsterchip jagt den nächsten :)

Den Gerüchten nach soll es ja ein vollkommen neues from-scratch-Design sein. Wenn ich allerdings jetzt diese News über die schlechten Yields zu lesen bekomme, kann ich mir das eigentlich nicht so recht vorstellen.

Die Ingenieure von nVidia sind nicht blöde und vor allem gibts nicht nur ein einziges Designteam, dass man derart unflexibel wäre. Vor fast 2 Jahren haben sie mit dem GT200 schonmal erlebt, dass große Chips teuer und schlecht zu fertigen sind (und mal ehrlich, mir kann keiner erzählen, dass die das nicht auch selber wissen). Und für gewöhnlich kann es sich so eine Firma nicht leisten, ihre Chips mit Gottvertrauen auf die hoffentlich bald verbesserten Fähigkeiten des Auftragsfertigers zu designen, sondern da wird hart kalkuliert. Insofern passt hier irgendwas nicht zusammen.
 
Wollen wir mal hoffen das nVidia dieses mal draus lernt...
 
naja vor 2 jahren. ne Graka entwicklung dauert meist deutlich über 2 jahren da ist nix mit einfach mal viel kleineren DIE planen
 
Aber spätestens jetzt sollte man es erkennen bei nVidia...
 
wenn man nach Fudzilla geht, könnte die Verzögerung auch daran liegen, dass der GT300 kein GT200 in 40 nm mit DirectX 11 sein soll.
Da ich einen Monster-Chip wie den G200 in meinem Rechner hab, kann ich entspannt auf den G300 warten.:d

ciao Tom

P.S. in Erinnerung an 3dfx macht mir die aktuelle Lage aber doch leichte Sorgen.
 
keine Sorge, die werden das schon hinbekommen, im schlimmsten fall kommt der chip halt erst q2 nächstes jahr, nvidia hat derzeit noch 2/3 marktanteil, die können ruhig bisl was abgeben
 
http://xbitlabs.com/news/video/disp...ill_Not_Catalyze_Sales_of_Graphics_Cards.html


sieht meiner meinung imemr mehr danach aus als ob der GT300 floppt

wie soll man sonst das da deuten:

I think we are the same crossroad with the graphics world: framerate and resolution are nice, but today they are very high and going from 120fps to 125fps is not going to fundamentally change end-user experience. But I think the things that we are doing with Stereo 3D Vision, PhysX, about making the games more immersive, more playable is beyond framerates and resolutions.

dazu ist ATI bei GPGPU auch noch mit extrem grossem Abstand erster.
 
@KlausW
ATI mag zwar wegen ihrem 5D-Shader-Ansatz mehr theoretische GFlop-Leistung haben und dies auch recht gut im GPGPU-Bereich in tatsächliche Leistung umsetzen, nur wo bleibt die Software, die diese Fähigkeiten der ATI-Karten auch nutzt?
Hier hat Nvidia meiner Meinung nach bisher deutlich mehr getan und somit
wurde Cuda von den Software-Entwicklern deutlich besser als Steam angenommen.
Ok, vielleicht trommelt Nvidia auch nur lauter.
Vielleich hast Du ein paar Software-Beispiele parat?

Primär zählt für mich bei einer GPU aber immer noch die Spieleleistung.
Rein mit dem Bildaufbau lässt sich eine Graka aber schon jetzt teilweise nicht auslasten. Da kommt für mich dann die GPU-Beschleunigung für Physikberechnungen ins Spiel, auf welche ich nicht mehr verzichten möchte. Und diese Möglichkeit kann man bei Nvidia schon seit etwas über einem Jahr nutzen.

ciao Tom
 
Zuletzt bearbeitet:
ja nur DX11 wird sich dem Problem doch recht gut annehmen bin da also sehr optimistisch vor allem da der Vorsprung von ATI wirklich gigantisch ist zwischen RV770 und GT200b.
 
Zuletzt bearbeitet:
Primär zählt für mich bei einer GPU aber immer noch die Spieleleistung.
Rein mit dem Bildaufbau lässt sich eine Graka aber schon jetzt teilweise nicht auslasten. Da kommt für mich dann die GPU-Beschleunigung für Physikberechnungen ins Spiel, auf welche ich nicht mehr verzichten möchte. Und diese Möglichkeit kann man bei Nvidia schon seit etwas über einem Jahr nutzen.

ciao Tom

Man kann es aber auch nur nutzen, weil nVidia gehörig Geld an die Spieleentwickler verteilt. Ansonsten stimmt es, was du sagst. ATi muss endlich entsprechende Software bringen, einen Video Decoder gibts ja - allerdings mit noch zu wenigen Einstellungen, als dass ich ihn nutzen würde/könnte. Eine richtige Bitrate & Codeceinstellung und ich wäre zufrieden.
 
...da der Vorsprung von ATI wirklich gigantisch ist zwischen RV770 und GT200b.
und was hat das nun mit Spekulationen zum GT300 zu tun?
Wenn ich wüsste, das damit dann Schluss ist, würde ich nicht darauf eingehen. Aber es hilft ja wahrscheinlich eh nicht.
Gigantisch ist der Unterschied vielleicht bei Nutzung von 8xAA. In den meisten Fällen ist der Unterschied aber ein Stück niedriger:
http://www.hardware-infos.com/bild.php?bild_datei=img/startseite/hd5870_gtx285_czechgamer.jpeg&bild_name=Vergleich+zwischen+HD+5870+und+GTX+285
In Crysis sinds dort gerade mal 40 %. Sollte die Auflösung hier aber eher gering gewesen sein, so wäre das ein Grund für den geringen Leistungsunterschied.
Wobei hier der Vorsprung auch eher bei 25 % liegt:http://www.hardwareluxx.de/community/showpost.php?p=12880956&postcount=1412
Bei 1920x1200 bringt mir persönlich 8xAA nichts. Da nutze ich lieber 2x2SSAA, sofern die Graka genügend Leistung hat. Bei ATI hat man afaik bisher aber leider nicht mal die Möglichkeit diesen AA-Modus auszuwählen.
Ok, das ist auch nur ein Bench-Ergebnis von vielen. So richtig werden wirs erst wissen, wenn das NDA fällt und Computerbase, PCGH und Co ihre Ergebnisse veröffentlichen können (das war auch bereits meine Aussage im HD5xxx-Spekuthread).
 
es ging um GPGPU ... da sich NV ja darauf beruft das die wichtiger wäre als mehr FPS oder Dx11
und da ist es blanke PR wenn sich NV auf GPGPU beruft
Einfache Genauigkeit für AMD mit 1360 vs 102,4 GFlops
Doppelte Genauigkeit für AMD mit 272 vs 51,2 GFlops

es fehlt nur an programmen für ATI die das Ausnutzen was eben durch Dx11 sicher besser wird.
Und genau da Nv jetzt ihre GPGPU anpreisen will und FPS in games + Dx11 Kleinredet es wohl sehr schlecht für NV aussieht.

und ich sagte RV770 nit RV870 ...

statt sofort überall Anti NV Posts zu lesen lieber mal geanuer lesen ^^
 
Zuletzt bearbeitet:

irgendwie auch nur abgeschrieben bzw. zusammengetragen..leider nichts neues.trotzdem ist die nachricht an sich immer noch beunruhigend..son mist!
allerdungs sind zum einen die gtxén immer noch recht konkurenzfähig und zum anderen steht in form des rv870 auch schon ein potenter dx11 chip für uns in den startlöchern. die wollten sicher einfach zu viel:shake:

---------- Beitrag hinzugefügt um 11:10 ---------- Vorheriger Beitrag war um 11:07 ----------

http://xbitlabs.com/news/video/disp...ill_Not_Catalyze_Sales_of_Graphics_Cards.html


sieht meiner meinung imemr mehr danach aus als ob der GT300 floppt

wie soll man sonst das da deuten:



dazu ist ATI bei GPGPU auch noch mit extrem grossem Abstand erster.

verstehe ich jetzt nicht ganz..das was da steht sind doch oder sollen alleinstellungmerkmal der nv hardware sein..wie willst du davon ableiten das etwas flopt!? damit will man sich unter anderem abseitz der reinen grafik anwendung platzieren.

ok habs gelesen, jetzt weiß ich was du meinst..klingt schon etwas nach ausrede..
hoffentlich verzögern die nicht wieder bei ihren spielepartnern die dx11 umsetzungen.
ich denke der oem kunde und auch die meisten high end freaks werden eher auf die grafikleistung und auf DX11 funktionalität als auf cuda oder sonstiges setzen. aber bei anderen zielgruppen könnte nv damit wohl punkten.
 
Zuletzt bearbeitet:
Wenn von NV nur ein "DirectX 11 - Not Important" kommt werden die Karten der Konkurenz lange teuer bleiben. :(
 
naja problem ist da ATI DX11 hat wird CUDA auch nit lange punkten können mit GPGPu da die Rohlesitung von ATi einfach x fach höher ist und "nur" die Programme fehlen.
 
Ihr reimt euch ja was zusammen. Der G80 wurde doch bis jetzt immer nur weiterentwickelt und verbessert. Ich denke da kommt mal wieder etwas richtig großes. Außerdem hat ja Nvidia durch den frühen Start von AMD ehr noch etwas Zeit um darauf zu reagieren.
 
Hier hat Nvidia meiner Meinung nach bisher deutlich mehr getan und somit
wurde Cuda von den Software-Entwicklern deutlich besser als Steam angenommen.
Ok, vielleicht trommelt Nvidia auch nur lauter.
Das letzte trifft es eher. Es gibt etliche Anwendungen, die von ATI Stream profitieren. Einige davon findest du zB hier.
Aber man sollte dem noch etwas Zeit geben. Ein erstes vollständiges OpenCL SDK wurde vor nicht allzu langer Zeit von AMD veröffentlicht. Und auch erstmal nur mit CPU Unterstützung. Der Launch von Windows 7 und dem damit verbundenen DirectCompute steht auch erst noch bevor. GPGPU Unterstützung wird kommen, ganz sicher. Aber wie so vieles braucht es seine Zeit. Je mehr diese plattformunabhängigen Schnittstellen genutzt werden, umso mehr werden Stream und CUDA in den Hintergrund rücken.
 
Ihr reimt euch ja was zusammen. Der G80 wurde doch bis jetzt immer nur weiterentwickelt und verbessert. Ich denke da kommt mal wieder etwas richtig großes. Außerdem hat ja Nvidia durch den frühen Start von AMD ehr noch etwas Zeit um darauf zu reagieren.

nein 1 jahr vor dem Tape out kann man quasi nix mehr ändern vermutlich kann Nv nichtmal wirklich auf den RV770 reagieren
 
Sorry die Quelle hab'ich nicht mehr, ich zitiere einfach mal:
"ab hier wird jeder zusätzliche Quadratmillimeter die ein sehr teurer"
NV direkt nach dem Launch des G200, und nein, das sind keine Anfänger.
 
Irgendwie erinnert mich das an 3DFX...
 
@ denni
Hinter Nvidia steckt bzgl. Umsatz und Gewinn ein ganz anderes Unternehmen. Selbst wenn die Jahre lang kein Geld verdienen gehen die trotzdem nicht Pleite.
Jetzt heißt es erstmal abwarten, Nvidia wird die Probleme schon lösen (müssen).
 
@ denni
Hinter Nvidia steckt bzgl. Umsatz und Gewinn ein ganz anderes Unternehmen. Selbst wenn die Jahre lang kein Geld verdienen gehen die trotzdem nicht Pleite.
Jetzt heißt es erstmal abwarten, Nvidia wird die Probleme schon lösen (müssen).

kannst du das evtl auch für uns nicht eingeweihte mal erklären ?
 
@ denni
Hinter Nvidia steckt bzgl. Umsatz und Gewinn ein ganz anderes Unternehmen. Selbst wenn die Jahre lang kein Geld verdienen gehen die trotzdem nicht Pleite.
Jetzt heißt es erstmal abwarten, Nvidia wird die Probleme schon lösen (müssen).
Aber die Marktposition ist die selbe:p
 
Die News finde ich viel interessanter;), auch wenn Gamestar nicht gerade die Adresse für gute Hardwareinfos ist:

"Immerhin soll der GT300 laut Personen, die Leistungsdaten des neuen Chips gesehen haben, die Radeon HD 5870 des Konkurrenten ATI sicher schlagen. Dies würde sich dann natürlich auch auf eine Dual-Karte mit zwei Grafikchips beziehen, die die geplante Radeon HD 5870 X2 übertreffen könnte."

http://www.gamestar.de/hardware/news/grafikkarten/1959028/nvidia.html
 
es gibt aber auch gerüchte nach denen der rv870 eigentlich gegen den g212 etc. antreten sollte und der rv970 gegen den g300 gedacht ist...
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh