nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Also ich persönlich bin da immer skeptisch: solche Bilder kann man doch nachbearbeiten, und das passiert auch oft genug ! DX11 ist mir eigentlich relativ latte, es sei denn es wird flott ! In Crysis und Bioshock seh ich persönlich keinen merklichen Unterschied zwischen DX9 und DX10 !! Und meistens läuft es deutlich langsamer !! :(

Die sollen erst mal DX10 gescheit ausreizen und dann weiter sehen ! Finde das immer etwas den Kunden "verarscht" weil ständig neue Sachen raus müssen weil neue Sachen gekauft werden. Passt eben zur Konsumgesellschaft....

EDIT: Sorry für OT !
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich persönlich bin da immer skeptisch: solche Bilder kann man doch nachbearbeiten, und das passiert auch oft genug ! DX11 ist mir eigentlich relativ latte, es sei denn es wird flott ! In Crysis und Bioshock seh ich persönlich keinen merklichen Unterschied zwischen DX9 und DX10 !! Und meistens läuft es deutlich langsamer !! :(

Die sollen erst mal DX10 gescheit ausreizen und dann weiter sehen ! Finde das immer etwas den Kunden "verarscht" weil ständig neue Sachen raus müssen weil neue Sachen gekauft werden. Passt eben zur Konsumgesellschaft....

EDIT: Sorry für OT !

Ich stimme dir zu, dass DX10 bei weitem noch nicht ausgereizt ist und die Entwickler mit einer sauber programmierten Engine wesentlich mehr erreichen könnten. Aber zwischen DX9 und DX10 ist ein Unterscheid. Ich habe letztens beim testen von einer HD4870X2 in Crysis bemerkt, dass wenn man DX9 eingestellt hat und das Spiel an der gleichen Stelle wieder mit DX10 startet, schon ein Unterschied festzustellen ist. Schon alleine die Beleuchtung wirkt realistischer. Ich würde fast sagen, dass man das Gefühl hat, unter DX9 sieht alles etwas "leblos" aus...

Das Foto bzw. die Techdemo ist schon eine feine Sache; es ist eben kein Spiel sondern soll zeigen was man alles mit DX11 erreichen kann; es ist eben kein DX10 mehr!
Trotzdem wird es noch eine Weile dauern, bis so eine Grafik in ein Spiel kommt. Wenn man mal bedenkt wie "realistisch" die Grafik vom 3D Mark 06 zu Beginn aussah und man sich gedacht hat: wenn ein Spiel so aussehen würde...
Als Crysis auf den Markt kam, hatte man @ Very High mindestens so ein Level erreicht.
 
Zuletzt bearbeitet:
Meiner Meinung nach sind die Beiträge im Thread einfach nur schlecht, man sollte aufhören zu spekulieren, wenn man keine offiziellen Datenblätter hat, der HD5000 Thread wird bald auch dicht gemacht!
 
Meiner Meinung nach sind die Beiträge im Thread einfach nur schlecht, man sollte aufhören zu spekulieren, wenn man keine offiziellen Datenblätter hat, der HD5000 Thread wird bald auch dicht gemacht!

warum soll der denn zu?
wird richtig gesäubert und fertig.
 
Es wäre nett, wenn diejenigen die nichts zum Thema beizutragen haben, aufhören schlechte Stimmung zu verbreiten.
Hatte doch bisher immer ganz gut geklappt!?

Auf Seite 1 kann man sich auch die chronologische Linkliste zu Gemüte führen. ;)
 
DX11 wird mindestens genauso ein Flopp wie DX10, erst wenn die Konsolen sich auch auf DX11 einstellen würden, könnte man das gleiche erreichen wie DX9. Erst wenn die nächste Konsolengeneration mit DX12 oder DX13 erscheinen wird werden sich die Entwickler komplett darauf einstellen da sich Konsolenspiele immer öfters verkauft werden als PC Spiele. Außerdem gibt es bis heute nicht einmal sehr viele Spiel die DX10 unterstützen. Nichteinmal neue Spiele wie Arma 2 oder CoD: WaW oder Left 4 Dead unterstützen DX10. Bei Bioshock sieht man garkeinen Unterschied zwischen DX9 und DX10. Ich sage dass DX11 jedenfalls vielleicht für Ausnahmen wie Crysis 2 wieder für große Augen sorgen wird, sonst gibt es bis heute kein einziges Spiel dass DX10 benutzt und dabei grafisch besser als Spiele mit DX9 aussieht.
MfG
Boby
 
in Bioshock gibts definitv nen Unterschied: die Wasser- und Rauchdarstellung
wenn man bei DX9 durchs Wasser geht, gibts nur so komische "weiße Flächen" im Wasser (wahrscheinlich wegen Luftbläschen). bei DX10 schlägt das Wasser richtig kleine Wellen nach außen, so als wenn man halt etwas durchs Wasser zieht (wie zB hinter einem Boot). der Rauch wirkt unter DX10 auch geringfügig volumetrischer.
Die Unterschiede mögen marginal sein, aber es gibt sie ;)
 
Sowas merkt man kaum wenn man spielt.
Jedenfalls haben sich viele vor dem Release mehr gehofft.
MfG
Boby
 
DX11 wird mindestens genauso ein Flopp wie DX10
Nein, DX11 ist ganz anders gelagert und der grösste Schritt seit langem. Hier werden sich noch einige wundern. Vor allem Shader Model 5, also die Compute Shader, ist hier zu nennen. Damit sind Dinge möglich, an die man bisher überhaupt nicht denken konnte. Eventuell haben sogar lediglich DX10 kompatible Karten einen Nutzen davon.
 
Sicherlich ist der Unterschied von DX11 zu DX10 größer als der von DX10 zu DX9,alleine schon vom Shader Modell her.
Aber ob das auch genutzt wird,ist eher fraglich.
Immer mehr Games erscheinen 1:1 für Konsole und PC bzw. haben marginale Verbesserungen was Texturen,AA usw angeht.
Die guten und soliden Games,sei es nun Call of Juaraz Bound in Blood,SplinterCell,CoD MW2 etc. laufen auch noch mit meiner alten 9800GTX mit vollen Einstellungen,da eben verständlicher Weise kaum mehr investiert wird,um das letzte aus heutiger PC Hardware zu holen.Der entgangene Gewinn durch Schwarzmarkt ist eben viel zu groß,den gibts auch bei Konsolen,aber nicht in dem Maße.Hinzu kommt noch die vielen Exklusiv Titel (zeitexklusivität oder was anderes) für Konsolen etc.
Neuere Games bzw. die Hardware Killer wie GTA4,Arma2 usw...sind auch ein Thema für sich...brauchen sie wirklich Monster Hardware oder sind sie nur sehr schlecht programmiert...versuchen wir den Missstand durch neue Grakas zu beheben.
Selbst die Cryengine 3,stellt keine revolutionäre neue Engine dar wie die Cryengine 2.
Crysis läuft auch jetzt schon flüssig,vorausgesetzt man nimmt Abstand von extremen AA und AF Modi.

Sicherlich stellen die neuen Grakas mal wieder einen größeren Sprung dar,als vom G80 zum G92 bzw. G200 besonders bei nV was Layout usw. angeht,aber ob das bzw. die Ressourcen auch genutzt werden von der Spielebranche bleibt eben das große Thema,gerade weil die XBox und Ps3 noch eine lange Laufzeit haben.
Ich fand Call Of Duty 4 richtig Klasse,aber es gab eben im grafischen Bereich doch einige Sachen die nicht mehr Up To Date waren bzw. sind...auch wenn jetzt z.B. Modern W...2 insgesamt Verbesserungen im Engine Aspekt haben wird,wird es trotzdem keine Revolution darstellen wie Crysis...

Uns bleibt nur eins abwarten,was bei nV und ATI wirklich rauskommen wird,ob die Ressourcen wirklich genutzt werden bzw. umgesetzt werden...???
 
Meine Rede: nVidia hat schon lange an dem G300 gearbeitet aber den größten Teil unter Verschluss gehalten (erinnert mich ein bisschen an G80 Zeiten)
 
Aber von 40nm, und der G300 wird in 40nm gefertigt werden. Sprich, es ist ein wichtiger Schritt bis dahin ;)
 
Na ja, nur weil es 40 nm ist, muss das noch lange nichts über den G300 aussagen. Und was diesbezüglich "unter Verschluss gehalten" sein soll, ist mir genauso unklar.
 
Du hast doch die Entwicklung des G80 mitverfolgt? Dann weißt du, dass damals sehr wenig Infos an die Öffentlichkeit gelangt ist und übrplötzlich die GraKa fast auf dem Markt war. Damit hatte keiner gerechnet. Das meinte ich.
 
Und was sagt dir das über den G300? Grundsätzlich erstmal nichts. Und das meinte ich. ;)
 
Es sollte aber klar sein, dass nVidia versuchen wird mit dem neuen High-End Ableger so wenig wie möglich hinter ATi hinterher zu hinken; alles andere wäre auf Dauer ein Verlust ;)
 
Ja aber mit dem G80 kam auch eine total andere architektur der gpu auf dem markt.
Und was will nvidia schon wieder die architektur komplett umkrempeln?
Das glaube ich eher weniger!
Vielmehr geht es jetzt um leistung und das anvisierte ziel im jahre 201x 20 teraflops
und mehr zu erreichen.

Und die 40nm sollen ja angeblich hier schon ihren launch haben
http://www.pcgameshardware.de/aid,6...fizielle-Details-und-Bilder/Grafikkarte/News/
 
Zuletzt bearbeitet:
Du hast doch die Entwicklung des G80 mitverfolgt? Dann weißt du, dass damals sehr wenig Infos an die Öffentlichkeit gelangt ist und übrplötzlich die GraKa fast auf dem Markt war. Damit hatte keiner gerechnet. Das meinte ich.

In dem Artikel ist ausdrücklich von einigen wenigen Mobile & Desktop Chips die Rede, nicht jedoch von einem DX11 Chip wie der GT300, oder wie auch immer dieser heißen wird. Desweiteren geht man laut dem Artikel bei fudzilla davon aus, dass der ATI DX11 Chip eher erscheinen wird als der nVidia Gegenpart. Alles in allem also nichts neues.
 
Meiner Ansicht nach könnte es wieder so ähnlich werden wie zu Beginn der G200 und der R4000er Serie.

Nvidia wird wieder die schnelleren Karten haben aber Ati wird über den Preis kommen.
 
Das ist wahrscheinlich, dass es wieder so wie bei der aktuellen Generation abläuft.

Das sieht man ja auch schon an der (wohl warscheinlichen) DIE Size:
Der DIE des G300 soll ja so um die 470mm² groß sein und der des RV870 nur so um die 190mm².

Der RV870 hätte somit nur ~ 40% der DIE Fläche des G300.
 
Zuletzt bearbeitet:
Hmja, Preis/Leistung schön und gut aber mal apropos "Gesamtpaket" : kann DX11, DX10.1 und ausserdem kommt mir ja bald bei jedem neuen Spiel dieses PhysX entgegen. Jüngste Beispiele wären the Void und Overlord II. Ist das eigentlich Marketing oder kriegt man auch was dafür ?
 
Hmja, Preis/Leistung schön und gut aber mal apropos "Gesamtpaket" : kann DX11, DX10.1 und ausserdem kommt mir ja bald bei jedem neuen Spiel dieses PhysX entgegen. Jüngste Beispiele wären the Void und Overlord II. Ist das eigentlich Marketing oder kriegt man auch was dafür ?

PhysX überhaupt ist momentan eher Marketing. Schau dir z.B. mal Mirror's Edge an: alles was sich durch PhysX verändert ist die Tatsache, dass Glas nun realistischer zerspringt, Tücher und andere Materialien sich realistischer im Wind bewegen usw. Aber einen wirklichen Nutzen daraus ziehen kann man nicht; sprich, das Gameplay wurde dadurch nicht wesentlich verändert. Meiner Meinung nach ist PhysX momentan noch ein Gimmick...

Das ist wahrscheinlich, dass es wieder so wie bei der aktuellen Generation abläuft.

Das sieht man ja auch schon an der (wohl warscheinlichen) DIE Size:
Der DIE des G300 soll ja so um die 470mm² groß sein und der des RV870 nur so um die 190mm².

Der RV870 hätte somit nur ~ 40% der DIE Fläche des G300.

Höchstwahrscheinlich geht ATi/AMD weiterhin den Weg wie bisher gehabt: 2 von den RV870 GPUs werden auf einem Die vereint und schon entsteht wieder das Problem der MR; es sei denn ein RV870 Chip hat schon die Leistung der Single-GPU Variante von nVidia :rolleyes:
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh