nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
PhysX überhaupt ist momentan eher Marketing. Schau dir z.B. mal Mirror's Edge an: alles was sich durch PhysX verändert ist die Tatsache, dass Glas nun realistischer zerspringt, Tücher und andere Materialien sich realistischer im Wind bewegen usw. Aber einen wirklichen Nutzen daraus ziehen kann man nicht; sprich, das Gameplay wurde dadurch nicht wesentlich verändert. Meiner Meinung nach ist PhysX momentan noch ein Gimmick...

Und warum sollte das anders sein? Gerenderte Grafik in Spielen dient allgemein nur der Tatsache, möglichst immersive Umgebungen erzeugen zu können, die auf die eine oder andere Art glaubwürdig eine fiktive Welt vermitteln sollen. Und für den Menschen zählt nunmal eine näherungsweise realistische Physik genauso wie eine entsprechend hochwertige Grafik, um eine solche glaubwürdige Umgebung zu schaffen. Ich sehe da keinerlei Grund, PhysX irgendwie Gameplay-technisch gesondert einzubinden oder PhysX nur als sinnvolles Feature anzusehen, wenn dadurch das Gameplay verändert wird.
Physik trägt zur Glaubwürdigkeit der entstandenen Welt bei und genau das kann PhysX schon heute - unter anderem in Mirrors Edge - wirklich enorm gut.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und warum sollte das anders sein? Gerenderte Grafik in Spielen dient allgemein nur der Tatsache, möglichst immersive Umgebungen erzeugen zu können, die auf die eine oder andere Art glaubwürdig eine fiktive Welt vermitteln sollen. Und für den Menschen zählt nunmal eine näherungsweise realistische Physik genauso wie eine entsprechend hochwertige Grafik, um eine solche glaubwürdige Umgebung zu schaffen. Ich sehe da keinerlei Grund, PhysX irgendwie Gameplay-technisch gesondert einzubinden oder PhysX nur als sinnvolles Feature anzusehen, wenn dadurch das Gameplay verändert wird.
Physik trägt zur Glaubwürdigkeit der entstandenen Welt bei und genau das kann PhysX schon heute - unter anderem in Mirrors Edge - wirklich enorm gut.

Mag schon sein, dass Mirror's Edge es dir echt angetan hat mit den PhysX-Effekten ;)
Wenn man es mal von der wirtschaftlichen bzw. Kosten/Nutzen-relation betrachtet, ist die Anschaffung einer High-End Grafikkarte oder einer zweiten Grafikkarte mMn dadurch nicht gerechtfertigt. Es werden ein paar Effekte dargestellt damit die Welt realistischer wirkt; im Gegenzug dafür braucht man gleich eine sehr teure nVidia Karte oder sogar eine zweite Grafikkarte. :rolleyes:

Dadurch hat sich aber im Grunde genommen nicht viel verbessert. Was bringt mir PhysX wenn die Grafik toll aussieht und ich das Gefühl habe in einer realistischeren Welt zu sein, die Story und Handlung aber absoluter Müll ist?
 
Mit dem Argument kannst du aber auch die Weiterentwicklung der Grafikdarstellung allgemein angreifen. Was bringt mir tolle Optik, wenn das Spiel dahinter scheiße ist? Das ist kein Problem, was erst mit PhysX entstanden ist. Beides, Grafik wie Physik, dienen der Beschreibung der Welt und sind meiner Ansicht nach dabei völlig gleichberechtigt.

Man braucht auch gleich eine sehr viel teurere Grafikkarte, um eine einigermaßen hübsche Welt wie die von Crysis sehen zu können, dabei würde doch eigentlich zum Spielen auch die HL1-Engine von vor 10 Jahren reichen - was die Entwickler gemeint haben, haben wir ja auch damals schon "erkennen können". Und trotzdem bauen sich die Leute dicke Grafikkarten ein. Also warum soll das mit Physik nicht so sein? Wer meint, für ihn gehöre realistische Physik nicht zu einer glaubwürdigen Welt, der kann es ja lassen, aber solche Leute gibts für die grafische Perspektive eben auch.
 
Dooch, genau die Frage würde ich mir im Zusammenhang mit einer möglichen Graka-Neuanschaffung aber stellen, das Auge spielt mit .(sonst hätte ich meine 6800GT auch behalten können).
Dann sehe man sich doch mal an was aktuelle Refresh-Karten für den Preis so hergeben, die werden noch lange im Umlauf bleiben > kann man an fünf Fingern abzählen wie gross damit die Notwendigkeit ist etwelche DX11-Features in Spiele einzubauen .
 
Man sehe sich DX11-Wasser an und überlege dann nochmal. Sicher, das wird die erste Generation noch längst nicht auf interaktive Frameraten beschleunigen können, aber irgendwann erreichen wir das. Und mir kann keiner erzählen, dass er bei einer Welt wie der von Crysis, CoJ2, GTA4 oder sowas schon jetzt das Gefühl hat, dass das "echt" ist. Davon sind wir noch weit weg. Ob Spiele echt aussehen müssen, ist eine ganz andere Frage, aber man kann solche Rechenkraft ja nicht nur für realismussteigernde Effekte nutzen. Und Spiele sind ja auch nicht die einzigen Anwendungen von Realtime Rendering.
 
Mit dem Argument kannst du aber auch die Weiterentwicklung der Grafikdarstellung allgemein angreifen. Was bringt mir tolle Optik, wenn das Spiel dahinter scheiße ist? Das ist kein Problem, was erst mit PhysX entstanden ist. Beides, Grafik wie Physik, dienen der Beschreibung der Welt und sind meiner Ansicht nach dabei völlig gleichberechtigt.

Man braucht auch gleich eine sehr viel teurere Grafikkarte, um eine einigermaßen hübsche Welt wie die von Crysis sehen zu können, dabei würde doch eigentlich zum Spielen auch die HL1-Engine von vor 10 Jahren reichen - was die Entwickler gemeint haben, haben wir ja auch damals schon "erkennen können". Und trotzdem bauen sich die Leute dicke Grafikkarten ein. Also warum soll das mit Physik nicht so sein? Wer meint, für ihn gehöre realistische Physik nicht zu einer glaubwürdigen Welt, der kann es ja lassen, aber solche Leute gibts für die grafische Perspektive eben auch.

Würdest du viel mehr Geld für PhysX Effekte ausgeben wollen wenn sich danach "nur" der Stoff besser im Wind bewegt und Glas realistischer zerspringt? Für das gebotene ist die Anschaffung und vor allem der Preis dafür nicht gerechtfertigt. Anders sieht es mit der Grafik aus.
Da nenne ich als Beispiel nur Crysis. So ziemlich jeder stand am Anfang des Spiels am Strand und hat gestaunt wie die Sonne aufgeht, wie realistisch alles erscheint. Nach und nach verschwand dieser "ohhh, ist das schön" Effekt. Man hat sich ziemlich schnell daran gewöhnt. Mit den PhysX-Effekten sehe ich das etwas anders: wenn ich nun sehe, wie da Glas realistisch in 1000 Stücke zerbricht, fällt mir nicht gleich die Kinnlade runter und ich staune wie realistisch es nun ist. Es trägt eben dazu bei, das es ETWAS realistischer wird, nicht mehr und nicht weniger. Wenn dieser Effekt nun fehlt, merke ich nicht sofort, dass es total unrealistisch geworden ist. Wenn ich im Gegenzug dazu mit Crysis mit HL 1 Grafik vorstelle, ist das für mich ein minimierter Realismus.
 
sry, also die Welt von GTA4 mit der Cryengine gleich zu stellen hinkt aber gewaltig. Wie kann man Konsolengrafik mit Crysis vergleichen und dann noch auf eine Stufe stellen ? Würde GTA4 nicht so beschissen aussehen, dann hätte ich es mir wahrscheinlich gekauft, aber im heutigen Zeitalter kann man schon weitaus mehr verlangen.
Wenn ich mir das fotorealistische Bild der DX11 Demo anschaue sind wir auf dem richtigen wege. Natürlich lebt ein Spiel nicht nur von der Grafik, aber es wird sicherlich auch Gründe geben warum man sich einen PC zum zocken kauft anstatt einer Konsole.
 
Ich hab GTA4 eigentlich nur genannt, um mal ein grafisch ansprechenderes aktuelles Spiel zu nennen, was nicht Crysis heißt (weil das Beispiel irgendwie ausgetreten ist). Dass GTA4 auf dem PC die blanke AA-Ruine ist, hab ich selber auch erleben dürfen, da flimmert es einem glatt die Augen raus.

@PCZeus: Das ist schätzungsweise immer noch zu kurz gedacht. Die Tatsache, dass dir das Fehlen der Scherben nicht so auffallen würde wie eine drastisch reduzierte Grafik, liegt glaube ich darin begründet, dass wir fehlende Physik gewohnt sind. Aber stell dir vor, nicht die Grafik hätte sich zuerst rasant entwickelt, sondern die Physik und wir hätten heute physikalisch korrekte Spiele - dann würde dir das Fehlen von Physik durchaus sehr störend auffallen, nehme ich an. Dass Spieler heute nicht so sehr die Bereitschaft zeigen, in korrekte Physikrechnung zu investieren, ist also mMn eher Folge der "Bis jetzt ging es ja auch ohne"-Mentalität. Das ist aber meiner Ansicht nach nicht die richtige Herangehensweise.
 
Zuletzt bearbeitet:
Ich hab GTA4 eigentlich nur genannt, um mal ein grafisch ansprechenderes aktuelles Spiel zu nennen, was nicht Crysis heißt (weil das Beispiel irgendwie ausgetreten ist). Dass GTA4 auf dem PC die blanke AA-Ruine ist, hab ich selber auch erleben dürfen, da flimmert es einem glatt die Augen raus.

@PCZeus: Das ist schätzungsweise immer noch zu kurz gedacht. Die Tatsache, dass dir das Fehlen der Scherben nicht so auffallen würde wie eine drastisch reduzierte Grafik, liegt glaube ich darin begründet, dass wir fehlende Physik gewohnt sind. Aber stell dir vor, nicht die Grafik hätte sich zuerst rasant entwickelt, sondern die Physik und wir hätten heute physikalisch korrekte Spiele - dann würde dir das Fehlen von Physik durchaus sehr störend auffallen, nehme ich an. Dass Spieler heute nicht so sehr die Bereitschaft zeigen, in korrekte Physikrechnung zu investieren, ist also mMn eher Folge der "Bis jetzt ging es ja auch ohne"-Mentalität. Das ist aber meiner Ansicht nach nicht die richtige Herangehensweise.


Normalerweise, wenn ein Mensch ein Objekt zum ersten Mal betrachtet, fällt ihm als aller erstes auf, wenn es nicht realistisch bzw. künstlich aussieht. Wie das Objekt mit seiner Welt interagiert (physikalisch korrekt) betrachtet man erst als zweites Kriterium (möglicherweise sieht es bei einem Physiker anders aus :d)
 
Normalerweise, wenn ein Mensch ein Objekt zum ersten Mal betrachtet, fällt ihm als aller erstes auf, wenn es nicht realistisch bzw. künstlich aussieht. Wie das Objekt mit seiner Welt interagiert (physikalisch korrekt) betrachtet man erst als zweites Kriterium (möglicherweise sieht es bei einem Physiker anders aus :d)

Stimmt, das Auge spielt mit. Aber erst eine realitätsnahe Physik erschafft ein vollkommendes Spielerlebniss und dazu muss man kein Physiker sein.



Was bringt mir tolle Optik, wenn das Spiel dahinter scheiße ist?

Ich finde das ist heute wirklich ein großes Problem. Spiele werden möglichst auf Episoden verteilt um die Kosten zu decken oder den Gewinn zu maximieren. Was bleibt sind Spielehäppchen die ich auch an einem Nachmittag durchspielen kann. Aber da es ja immer mehr reine Multiplayerspiele gibt oder Spiele die ein Solospiel nur als Bonus beinnhalten braucht man ja auch keine Leute die sich ne gute Story oder dergleichen ausdenken müssen...
 
Ich finde das ist heute wirklich ein großes Problem. Spiele werden möglichst auf Episoden verteilt um die Kosten zu decken oder den Gewinn zu maximieren. Was bleibt sind Spielehäppchen die ich auch an einem Nachmittag durchspielen kann. Aber da es ja immer mehr reine Multiplayerspiele gibt oder Spiele die ein Solospiel nur als Bonus beinnhalten braucht man ja auch keine Leute die sich ne gute Story oder dergleichen ausdenken müssen...

da liegt auch meiner meinung der knackpunkt.
alle fordern nur noch realistischere grafik, alles soll toll und echt aussehen und das eigentliche spiel wird immer unwichtiger.
wenn ich schon ständig kommentare höre wie "oh man das spiel ist doch mist, schaut einfach nur scheiße aus" dann weiß ich nicht, ob die prioritäten heute richtig gesetzt werden.
spieleentwickler haben es heute doch leicht, macht ne tolle grafik und das spiel wird ein erfolg, ob es sonst noch irgendwas bietet, ist doch fast belanglos geworden.... meiner meinung nach der falsche weg.
 
da liegt auch meiner meinung der knackpunkt.
alle fordern nur noch realistischere grafik, alles soll toll und echt aussehen und das eigentliche spiel wird immer unwichtiger.
wenn ich schon ständig kommentare höre wie "oh man das spiel ist doch mist, schaut einfach nur scheiße aus" dann weiß ich nicht, ob die prioritäten heute richtig gesetzt werden.
spieleentwickler haben es heute doch leicht, macht ne tolle grafik und das spiel wird ein erfolg, ob es sonst noch irgendwas bietet, ist doch fast belanglos geworden.... meiner meinung nach der falsche weg.

:bigok: Früher ging es auch ohne total fotorealistische Grafik und die Spiele haben mich mehr gefesselt als heutige Titel. Story, Handlung, Grafik usw. sollten eben gleichermaßen wachsen und sich weiterentwickeln um dem Spieler eine realitätsnahe Welt vorzutäuschen. Dies wäre mMn auch mit den Episoden möglich, nur sind diese wie schon erwähnt eher auf eine Gewinnmaximierung optimiert; dadurch bleibt der Spielespaß außen vor und das Spiel ist nach 5 oder 6 Stunden beendet.

Wenn ich mich an Crysis und Bioshock erinnere: Crysis hat definitiv die realitätsnahe Optik, ein Sonnenaufgang sieht richtig beindruckend aus. Aber die Story und der Hintergrund spielen nicht wirklich mit. Bioshock dagegen kann in puncto Realismus (Grafik) nicht ganz mithalten, fesselt den Spieler. Die Story, alles um einen herum wird dazu benutzt um den Spieler in diese Welt mit einzubinden. Das sind gute Spiele, und nicht die jenigen die eine gute Optik bieten.
 
Naja, was den expliziten Vergleich angeht, gehe ich zum Beispiel nicht mit. In Bioshock ist die Geschichte packender, dafür ist in Crysis die Spielmechanik deutlich besser gelungen. Die Geschichte find ich im übrigen auch nicht so übel, weil sie zwar ausgekaut und wenig innovativ ist, aber großartig inszeniert (und da rede ich nicht von grafischen Qualitäten). Es ist ja nicht so, dass das Spiel grundlos gute Wertungen einkassiert hat.
Ich denke, der Eindruck täuscht da ein bisschen. Die Grafik wird besser - logisch, dass da auch die Gurken unter den Spielen (und die gab es früher ebenso wie heute!) grafisch opulenter ausfallen. Das interpretiert man dann heute eben als "viele Spiele können nur Grafik, aber sonst nix". Daran, dass es nach wie vor liebevoll gemachte (und optisch trotzdem gute) Titel gibt, ändert das aber nichts.
Man muss sich, was das angeht, eben auch vor Augen halten, dass die Industrie heute nicht mehr dieselbe ist wie vor 10 Jahren. Mit den Kumpels in der Garage Pixel für Pixel ein Programm zusammentüfteln und was das Zeitbudget angeht relativ frei dran rumschrauben geht eben heute nicht mehr.

Ich wäre euch übrigens dankbar, wenn wir trotz des spannenden Themas wenigstens wieder den Bezug zum GT300 herstellen könnten. ;)
 
Ich wäre euch übrigens dankbar, wenn wir trotz des spannenden Themas wenigstens wieder den Bezug zum GT300 herstellen könnten. ;)
Im Grunde genommen ist dieser doch schon gegeben. Bei steigendem Realismus (sei es nun Grafik oder Physik per GPU) müssen die Grafikkarten mithalten können. Irgendwann wird eins von beiden eben der limitierende Faktor in der Entwicklung...

Aber damit das ganze nun doch nicht zu OT wird:
der G300 wird aller Voraussicht nach in 40nm gefertigt werden. Gestern hatte ich irgendwo gelesen, dass (ok, es war ein Prozessor, aber immerhin) eine 32nm CPU (Westmere) mit einer äußerst geringen Spannung von 0,8V mit 4GHz betrieben wurde. Anscheinend wirken sich die "realen" Vorteile (wesentlich niedrigere Spannungen usw.) durch einen kleineren Fertigungsprozess bei Grafikkarten nicht so stark aus, oder täusche ich mich da? :rolleyes:

Das soll nicht heißen, dass der Wechsel von 65 auf 40nm bei nVidia gar nichts bringt, aber solche riesigen Sprünge waren bei ATi auch nicht zu verzeichnen (z.B. 3D VGPU von unter 1 Volt o.ä.)
 
Wenn man daran denkt, dass ATi/AMD schon eine lauffähige RV870 Version gezeigt hat (wenn auch hinter verschlossenen Türen), muss nVidia sich schon ein bisschen Mühe geben um präsent zu sein...
 
Sollten die Gerüchte stimmen, die hier irgendwo rumgeistern, dass der GT300 ca. 3 TFlops Leistung hat und die größte Ati-Single-Karte "nur" 2.1x TFlops, dann kann die Karte gerne auch 2-3 Monate nach den Atikarten kommen.

Ati wird dann sicherlich wieder mit einer Dualkarte kontern, jedoch geht das denke ich auch nicht 2-3 Monate nach dem Release der Singlekarten, sondern eher irgendwann 2010 dann.
 
Hehe, hab die Gerüchteküche diesbezüglich gestern im ATI HD 58xx Speku Thread angeheizt. :)

Also, die 2,1x TFlops (je 2,2x wohl bei der etwas höher getakteten X2) hab ich von Hardware-Infos:

http://www.hardware-infos.com/news.php?news=2908

Es wird halt gemunkelt, dass der G300 maximal 3 TFlops haben soll - was bei den Gerüchte - Speks schon wahrscheinlich erscheint.

Angeblich will ATi beim Launch gleich die gesamte Produktpalette (mit X2 ?) bringen - wir werden es Septenber sehen.


E: Wobei eine X2 zum Start eigentlich unwahrscheinlich ist und diese wie schon beschrieben wahrscheinlich als Antwort auf die "GTX 380" kommt.
Dann hätte ATI wieder bis zum Release einer "GTX 395" (kommt sicher erst nach einem Refresh mit kleinerer Fertigungsgroße - ich schätz mal Mitte 2010)
die Leistungskrone inne.

Aber wenn ich so daran denke (GTX 395) - sabber, bis zu 6 TFlops ! :d
Könnte mir vorstellen, dass das meine nächste Karte wird ! :fresse:

Nun ja, zumindest haben die Spekulationen um ATi (zumindest was die Single GPU Karten betriff) wohl bald ein Ende - endlich !
 
Zuletzt bearbeitet:
Aber damit das ganze nun doch nicht zu OT wird:
der G300 wird aller Voraussicht nach in 40nm gefertigt werden. Gestern hatte ich irgendwo gelesen, dass (ok, es war ein Prozessor, aber immerhin) eine 32nm CPU (Westmere) mit einer äußerst geringen Spannung von 0,8V mit 4GHz betrieben wurde. Anscheinend wirken sich die "realen" Vorteile (wesentlich niedrigere Spannungen usw.) durch einen kleineren Fertigungsprozess bei Grafikkarten nicht so stark aus, oder täusche ich mich da? :rolleyes:

Das soll nicht heißen, dass der Wechsel von 65 auf 40nm bei nVidia gar nichts bringt, aber solche riesigen Sprünge waren bei ATi auch nicht zu verzeichnen (z.B. 3D VGPU von unter 1 Volt o.ä.)

Ich denke Folgendes:

Bei den CPUs ist ja meist der Nachfolger nur feiner gefertigt und nicht mit 50 oder 100% mehr Transistoren ausgestattet. Die GPUs werden ja mit jeder Generation komplexer und größer aus dem Grund muss man feiner fertigen damit man das Teil überhaupt gekühlt/bezahlt bekommt usw.

Ich bin auf die neuen Generationen sehr gespannt.

Gruss
Simon
 
naja wobei das so auch nit ganz stimmt früher wurde auch nur ein refresh im neuem verfahren geamcht deshalb hatte ATI jetzt ja auch die 4770 und NV ihre Mobilen chips

Einfach deshalbw eill man sonst nit weiss worin der Fehler liegt in der AStruktur des Chips oder im Fertigungsverfahren

und 4770 ist ja auch ein riesen Schritt gewesen in leistung pro W



was man auch noch sagen muss V sagt mal gar nix aus er kann ebenso bei 4Ghz und 0,8V 300W versaufen
 
Wenn Sie 3TFlops haben soll, wieviel ShadersALUS wären das denn?
 
512 SPs werden es wohl werden - @ 512 Bit SI @ GDDR5 (1.0 oder 1.1 GHz Realtakt !) :)

Wären dann über 256 GB/s Speicherbandbreite ! :d
 
Zuletzt bearbeitet:
Hallo,

für 3 TFlops müssen die Einheit für die bisher überall zu lesende Anzahl (512) entweder deutlich effizienter sein oder der Takt ein großes Stück höher als bisher.
Bsp.-rechnung:
Shader-Alus:
240-->512= Faktor 2,13
Shadertakt
1476 (Standardtakt GTX 285)--> 1600 (davon hatte ich in diversen News gelesen) = Faktor 1,08
aus 1000 Gflops (theoretisch und gerundet) errechnen sich mit diesen Daten
2312 Gflops
Da fehlt noch einiges auf 3000 Gflop.
Selbst mit einer um 20 Prozent besseren Effizienz (Gflop/Shader-Alu) sinds "nur" 2775 Gflops
Mit einem Shadertakt von 1700 MHz wären wir mit 2948 Gflops aber bereits am Ziel.
Mit den aktuellen Informationen erscheinen mir unter Berücksichtigung der letzten Graka-Generationen die 2,3 Tflop aber als realistischer.
Sollte das dann auch im Vergleich zur GTX 280 sauber in Spielen, die die Leistung brauchen, skalieren, dann bin ich sowieso mehr als zufrieden.

ciao Tom
 
Zuletzt bearbeitet:
Es hieß ja, dass NVidia die SPs deutlich effizienter machen wird - die Devise heißt weiterhin abwarten.

Spätestens kurz vor Release sollte es dann genauere Informationen geben.
 
Es hieß ja, dass NVidia die SPs deutlich effizienter machen wird...
da sind wir aber schon wieder bei einem Thema, mit dem wir uns bereits beim G200 beschäftigt haben (da war ja auch die Rede von einer gesteigerten Effizienz):
Um welche Effizienz geht es?
fps proShader-Einheit
Gflops pro Shader-Einheit (ok, fast das selbe wie bei den fps)
Shader-Einheit pro Chipfläche <--- erscheint mir als recht wahrscheinlich,
da es ja keine reinen SIMD-Einheiten mehr sein sollen, deren Platverbrauch wohl recht groß ist
fps (Gflops) pro Leistungsaufnahme.

Mit Effizienz kann vieles gemeint sein.

ciao Tom
 
Hallo,

für 3 TFlops müssen die Einheit für die bisher überall zu lesende Anzahl (512) entweder deutlich effizienter sein oder der Takt ein großes Stück höher als bisher.
Bsp.-rechnung:
Shader-Alus:
240-->512= Faktor 2,13
Shadertakt
1476 (Standardtakt GTX 285)--> 1600 (davon hatte ich in diversen News gelesen) = Faktor 1,08
aus 1000 Gflops (theoretisch und gerundet) errechnen sich mit diesen Daten
2312 Gflops
Da fehlt noch einiges auf 3000 Gflop.
Selbst mit einer um 20 Prozent besseren Effizienz (Gflop/Shader-Alu) sinds "nur" 2775 Gflops
Mit einem Shadertakt von 1700 MHz wären wir mit 2948 Gflops aber bereits am Ziel.
Mit den aktuellen Informationen erscheinen mir unter Berücksichtigung der letzten Graka-Generationen die 2,3 Tflop aber als realistischer.
Sollte das dann auch im Vergleich zur GTX 280 sauber in Spielen, die die Leistung brauchen, skalieren, dann bin ich sowieso mehr als zufrieden.

ciao Tom

also bei 512 SPs und einem takt von 1600mhz auf der shaderdomain, komm ich auf ~2,45 TFlops. vorrausgesetzt es sind SIMD units
 
@noize
mit ein paar mehr Angaben wäre Dein Ergebnis leichter nachvollziehbar gewesen. Ich bin aber trotzdem drauf gekommen.
ich hab die 1062 Gflops einer GTX 285 mit Standardtakt großzügig auf 1000 Gflops abgerundet (steht aber auch im Post, das ich mit 1000 Gflops gerechnet hab).
Du scheinst ganz einfach mit den 1062 gerechnet zu haben, was uns doch noch ein gutes Stück näher an die 3 Tflops bringt.

ciao Tom
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh