kleiner Bench NVidia 512MB vs. 1GB. (9800GTX+)

Status
Für weitere Antworten geschlossen.
wirklich jeder, auch wer nur wenig Geld hat, und deshalb eine Sparsamen Gamer PC bauen will, oder dürfen diese leute nicht Spielen ?

Die Vorteile die ne 9800er mit 1GB Vram bietet verblasen eh bei den meisten neuen Spielen in ner von dir so oft angepriesenen 1650er Auflösung weil sie dafür einfach zu lahm ist. Und nen sparsamen Gamer PC gibt es nicht wirklich, zumindest nicht wenn er 2 Jahre halten soll!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was ich überprüfen werde, du kannst ja nur vermutungen rausplappern !

aber so viel schneller wie eine 9800GT ist deine 8800er ja nun auch nicht !

Wenns die mit 640MB ist, ist sie eh langsammer als ne 9800GT.

Und es gibt wirklich viele, die sich immer ne neue Karte kaufen.

Ich mache das so:

Gute CPU kaufen = hält 3 Jahre.
High-End Karte kaufen, hält 2 Jahre.

Wenn ich dann welche sehe, die sich jede 6 Monate ne neue Karte kaufen, dann wäre es für diese sinnvoller sofort ne High-End Karte zu kaufen, da sie im Endeffekt dann sogar Geld sparen würden, und sogar schneller unterwegs wären.
 
was ich überprüfen werde, du kannst ja nur vermutungen rausplappern !

aber so viel schneller wie eine 9800GT ist deine 8800er ja nun auch nicht !

Ich weiß ja schonmal das die 9800GT langsamer als die 9800GTX+ ist....ergo wird auch die 1GB Variante dieser Karte ne Ecke langsamer sein als die der GTX+. Von daher sind die vermutungen die ich da anstellen kann nicht an dern Haaren herbei gezogen.

Wenns die mit 640MB ist, ist sie eh langsammer als ne 9800GT.

Ja es ist die 8800GTS 640. Die Karte hat mir treue Dienste erwiesen, wird aber dieses Jahr noch ersetzt, genau wie der Rest meines Rechners. Ob ich aber noch bis zum GT300 warten kann weiß ich noch nicht....sieht aber schlecht aus.
 
also eine karte +250€ kaufen und 2 jahre nutzen, dann für 70€ Verkaufen = 180€ verlust

alle 6 Monate eine Karte kaufen die Reicht, macht 100€ alle 6 Monate = 400€, diese dann jeweils nach 6 Manaten für 80€ Verkaufen, macht dann 80€ verlust in 2 Jahren, und die karte ist immer Aktuell, wer ist der Schlauere?

und schon nach 1 jahr sind die 100€ Karten der ehemaligen 250€ karte überlegen !
 
Zuletzt bearbeitet:
also eine karte +250€ kaufen und 2 jahre nutzen, dann für 70€ Verkaufen = 180€ verlust

alle 6 Monate eine Karte kaufen die Reicht, macht 100€ alle 6 Moante = 400€, diese dann nach 6 Manaten für 80€ Verkaufen, macht dann 80€ verlust in 2 Jahren, und die karte ist immer Aktuell, wer ist der Schlauere?

und schon nach 1 jaht sind die 100€ Karten der ehemaligen 250€ karte überlegen !

Das ist an den Haaren herbei gezogen. Du gehst nur von der Situation aus die wir im Moment auf dem Grakamarkt haben. Vor ein paar Jahren sah das aber noch anders aus...und es wird auch in ein paar Jahren wieder anders aussehen!
 
Zuletzt bearbeitet:
Wenn ich dann welche sehe, die sich jede 6 Monate ne neue Karte kaufen, dann wäre es für diese sinnvoller sofort ne High-End Karte zu kaufen, da sie im Endeffekt dann sogar Geld sparen würden, und sogar schneller unterwegs wären.

Neja, das kommt immer auf den Markt an...
Derzeit ist es vllt so, wer vor 2 Jahren ne 8800GTX oder Ultra gekauft hat, der kann damit sicher noch gut spielen.

Aber bei allem vor G80 geht die Rechnung nicht auf.
Es kommt ca. einmal pro Jahr eine neue Generation, welche in Summe ca. die doppelte Leistung der alten HighEnd Karten bringt.
Wer beispielsweise ne 6800Ultra damals gekauft hat, konnte damit zwar lange gut spielen, aber diese war zum Zeitpunkt der 7xxxer Karten eben nur noch auf 7600GT Niveau. (nach ca. einem Jahr)
So machte es damals auch Sinn, eher eine 6800GT oder ne 6800LE oder was auch immer zu nehmen, und diese dann nach einem Jahr gegen eine Karte ala 7800GT oder sowas zu tauschen.
Das kostete bei gutem Kaufzeitpunkt nicht mehr, aber man hatte nach den 2 Jahren eine schnellere Karte im Rechner, das Preis/Leistungsverhältniss über die 2 Jahre gerechnet war dementsprechend teils deutlich besser.

Und ich gehe sehr stark davon aus, das NV in einer der nächsten Generationen auch einen ähnlichen Weg wie AMD geht, sprich nicht mehr auf biegen und brechen ultimative Leistung zu wollen (egal wie) sondern sich P/L orientiert.
Was wiederum bedeutet, aus Mangel an HighEnd GPUs die nächst kleinere Klasse zur HighEnd Reihe gemacht wird.
Und somit wären wir wieder in der Situation vor dem G80. ;) und das die beste Karte keine 2 Jahre halten wird ;)
 
Und ich gehe sehr stark davon aus, das NV in einer der nächsten Generationen auch einen ähnlichen Weg wie AMD geht, sprich nicht mehr auf biegen und brechen ultimative Leistung zu wollen (egal wie) sondern sich P/L orientiert.
Was wiederum bedeutet, aus Mangel an HighEnd GPUs die nächst kleinere Klasse zur HighEnd Reihe gemacht wird.
Und somit wären wir wieder in der Situation vor dem G80. und das die beste Karte keine 2 Jahre halten wird

Ist zwar auch nur ne Vermutung meinerseits, aber das glaube ich garnicht mal. Ati scheint ja den Weg der Multigpu zu gehen, da man mehrere GPU Cores auf ein Trägermaterial bringen möchte...ähnlich dem CPU-Markt. Nvidia wird das wohl etwas anders machen. Zuerst haben sie ja nun ihre Marktstrategie geändert und verteilen nun auch einzelne Chips an die Hersteller, was den Preis der Grakas senken wird und NV sich nicht alleine Ideen aus den Fingern saugen muss um die Grakas günstiger anzubieten. Und der andere Faktor wird in Zukunft die Physik spielen. Ich denke mal das NV mit Cuda und DX11 in diese Richtung Zielen wird, daher denke ich das der GT300 nen richtiger Highend wird der aber wieder länger am Markt bleiben wird, ähnlich dem G80, dadurch spart man Entwicklungskosten und kann die Grakas wieder etwas günstiger anbieten.

Und nochmal zu der Preisgeschichte, wenn DX10 nicht so nen Rohrkrepierer gewesen wäre und wirklich viele Neuerungen gebracht hätte die sich erst nach und nach realisieren lassen, wie bei DX9, weil die Grakas zu langsam sind. DX10.1 von ATI bring noch viel weniger und ist wohl nur reines Marketing.
Wenn DX11 nicht wieder sowas wie DX10 wird sondern nen richtiges neues DX, dann kann man seine Preisberechnungen für den Wiederverkaufswert seiner DX10 Graka gleich wieder knicken.
 
Ist zwar auch nur ne Vermutung meinerseits, aber das glaube ich garnicht mal. Ati scheint ja den Weg der Multigpu zu gehen, da man mehrere GPU Cores auf ein Trägermaterial bringen möchte...ähnlich dem CPU-Markt. Nvidia wird das wohl etwas anders machen. Zuerst haben sie ja nun ihre Marktstrategie geändert und verteilen nun auch einzelne Chips an die Hersteller, was den Preis der Grakas senken wird und NV sich nicht alleine Ideen aus den Fingern saugen muss um die Grakas günstiger anzubieten. Und der andere Faktor wird in Zukunft die Physik spielen. Ich denke mal das NV mit Cuda und DX11 in diese Richtung Zielen wird, daher denke ich das der GT300 nen richtiger Highend wird der aber wieder länger am Markt bleiben wird, ähnlich dem G80, dadurch spart man Entwicklungskosten und kann die Grakas wieder etwas günstiger anbieten.

Neja die Frage ist doch, wie lange geht das noch gut bei NV...
HighEnd um jeden Preis klappt nur dann, wenn die Herstellungskosten sich mit dem Verkaufspreis decken lassen und dann auch noch was bei rausspringt.
Und hier ist der Knackpunkt des G200. In welchen Preisregionen NV die G200 Karten eigentlich sehen wollte, war beim Release dieser zu erkennen. Doch ein RV770 mit deutlich weniger Herstellungskosten und ebenso guter Leistung hat den Preis extrem gedrückt.
Der Nachteil ist halt auch, die 260er GTX ist zwar schön und gut, aber es sind nach wie vor Chips mit allen Shadereinheiten die deaktiviert/oder teils defekt sind. Das kostet Platz auf dem Wafer und treibt die Produktionskosten hoch.
Ich erinnere mich auch noch an Meldungen wo von einigen Stellen davon ausgegangen wurde, die RV770 GPUs können wohl nur mit den größen G92 GPUs konkurieren. Was ja dann doch anders kam.
Wenn das geschehen wäre, dann hätte NV wohl den Preis für die G200 Karten so beibehalten.

Und das NV stark zu knabbern hat, an der RV770 sieht man ja an jüngsten Meldungen mit Kostensenkungsplänen.
Wenn AMD den Weg weiter beibehalten kann, wird NV früher oder später gezwungen sein, die Strategie zu ändern.
Ein weiterer Gedanke wäre, bleibt NV mit der nächsten Gen. wieder bei 1D Shadern? Wenn ja, dann sehe ich da kein gutes Ohmen für diese Produkte. Die letzten Karten zeigen ja, das die Transistorzahl zur Mehrleistung überdurchschnittlich stark steigt. Und stur den Shadertakt hoch rammeln klappt leider ja auch nicht ins Bodenlose.

Zum Multi GPU Zeugs, neja ich sehe das nur als Randprodukt. Und egal ob nun 2 GPUs auf einem Träger oder 2 vollwertige GPUs so wie jetzt auf einer Karte sind spielt dabei erstmal keine Rolle. Multi GPU Systeme sind im Grunde eigentlich sogar Sinnfrei, weil man eine paralelle Architektur doppelt auslegt. Mit mehreren GPUs erhöht man zwar die Leistung, aber erkauft sich das auch mit erheblichen Nachteilen.
Selbst vollwertige Dualcore GPUs wären das gleiche in Bund, wobei das noch unsinnigere wäre. Aus genannten Grund.
Fakt ist aber wohl eins, AMD geht einen anderen Weg als NV derzeit. Ob dabei nun Karten rausspringen die ganz oben mitmischen können oder ob man sich da an Multi GPU Karten behelfen muss, ist erstmal egal. Solange das P/L Verhältniss stimmt, ist der Weg erstmal der richtige...

Und nochmal zu der Preisgeschichte, wenn DX10 nicht so nen Rohrkrepierer gewesen wäre und wirklich viele Neuerungen gebracht hätte die sich erst nach und nach realisieren lassen, wie bei DX9, weil die Grakas zu langsam sind. DX10.1 von ATI bring noch viel weniger und ist wohl nur reines Marketing.
Wenn DX11 nicht wieder sowas wie DX10 wird sondern nen richtiges neues DX, dann kann man seine Preisberechnungen für den Wiederverkaufswert seiner DX10 Graka gleich wieder knicken.

DX10 ist mit Sicherheit kein Rohrkrepierer ;)
Der entscheidende Schwachpunkt an DX10 ist Vista...
Wenn selbst jetzt über 2 Jahre nach dem Release von Vista noch der überwiegende Teil bei XP verharren, kann sich DX10 auch nicht richtig durchsetzen. Egal wie gut oder schlecht es ist.
DX10 bringt schon massive Vorteile mit sich, wäre da nicht Vista als Vorraussetzung, die Gamepgrogrammierer sind somit gezwungen immer den DX9 Pfad zu nutzen und nur einige wenige Teile in DX10 umzusetzen, auf die man eben als XP User verzichten müsste.

Zum Thema Physik, da bleibt eindeutig DX11 abzuwarten, damit kommt ein einheitlicher Standard für GPGPU Anwendungen, auf den dann PhysikEngines und deren Berechnung aufbauen können.
Eine Hersteller abhängige Geschichte wird sich nicht durchsetzen können, da beide Hersteller in etwa am Markt gleich stark vertreten sind, was für die Spielehersteller einen extrem großen Verlust einbringen würde, weil sie eben die Häfte der potentiellen Käufer schon mal ausschließen würden.
Oder eben sich massiv mehr Arbeit aufhalsen und sich ne Alternative einfallen lassen müssen.

Übrigens, wir schweifen dann doch schon stark vom Thema ab, ich hoff mal die Mods nehmen das nicht übel ;)
 
ist es nicht so, das NV daran arbeitet, den Physik Part der dann in DX11 kommen soll, auch auf Cuda auszulagern, was wiederum durch die multi GPU möglichkeit wieder NV einen vorteil bringen würde.
Somit sollen dann egal ob Physx oder DX11 Berechnungen über Cuda berechnet werden können.
Und dann auch auf eine zweite NV GPU ausgelagert werden könne, dann hat ATI aber ein Problem!
 
da hast du aber was falsch verstanden...
Denn in DX11 wird es keinen Physik Part geben.

Es wird eine Schnittstelle kommen, die auf allen DX11 Karten laufen wird, und mittels dieser Schnittstelle kann eben eine Anwendung (im Beispiel, eine Physikengine) auf Karten beider Hersteller ausgeführt werden.
DX11 bringt aber selbst diese Engine nicht mit. Das bleibt die Aufgabe anderer.

Intel mit Havok und NV mit PhysX planen hingegen laut offiziellen Aussagen noch nicht mit einer Umsetzung dafür.
Ob NV sich dazu überreden lässt ist die eine Sache, aber Intel wird früher oder später da was bringen. Da bin ich sicher...
 
Zum Multi GPU Zeugs, neja ich sehe das nur als Randprodukt. Und egal ob nun 2 GPUs auf einem Träger oder 2 vollwertige GPUs so wie jetzt auf einer Karte sind spielt dabei erstmal keine Rolle. Multi GPU Systeme sind im Grunde eigentlich sogar Sinnfrei, weil man eine paralelle Architektur doppelt auslegt. Mit mehreren GPUs erhöht man zwar die Leistung, aber erkauft sich das auch mit erheblichen Nachteilen.

Das stimmt natürlich. Allerdings wäre es aufgrund von Skalierung der Chips deutlich einfacher verschiedene Segmente mit Karten auszustatten. Was anderes macht ATI mit den X2 Versionen ihrer Karten schon jetzt nicht. Und auch 3Dfx hat diesen Weg eingeschlagen und wäre laut Entwicklungen bei ihm geblieben.

Das mit dem Randprodukt ist fraglich, immerhin ist das nen logischer Weg weil die Chipherstellung irgendwann an ihre Grenzen stoßen wird und man irgendwann versuchen muss das ganze noch mehr zu parallelisieren. Das ist auch der Hauptgrund für die Multicores im CPU Bereich. Außerdem wäre es mal interessant zu erfahren wie die Entwickler bei ATI und NV wirklich zu Raytracing stehen. Klar, Intel ist nur ein Konkurent, aber beide wissen das Intel gut darin ist Dinge mit Gewalt durchzupreschen und der Larrabee zwar ziemlich ominös ist, aber vielleicht ne Gefahr darstellt. Im grafikkartenmarkt gab es viele Hersteller und Entwickler die pleite gingen weil sie Trends verschlafen haben, auch wenn sie noch so groß waren.

DX10 ist mit Sicherheit kein Rohrkrepierer
Der entscheidende Schwachpunkt an DX10 ist Vista...
Wenn selbst jetzt über 2 Jahre nach dem Release von Vista noch der überwiegende Teil bei XP verharren, kann sich DX10 auch nicht richtig durchsetzen. Egal wie gut oder schlecht es ist.
DX10 bringt schon massive Vorteile mit sich, wäre da nicht Vista als Vorraussetzung, die Gamepgrogrammierer sind somit gezwungen immer den DX9 Pfad zu nutzen und nur einige wenige Teile in DX10 umzusetzen, auf die man eben als XP User verzichten müsste.

DX10 hat wirklich unter Vista gelitten. Aber auch bei DX10 only Titeln waren die grafischen Ergebnisse nicht wirklich berauschent. Ich schätze mal das Windows 7 das glattbügeln wird, bisher siehts ja gut aus und es wird als wahrer Nachfolger von XP propagiert.

Zum Thema Physik, da bleibt eindeutig DX11 abzuwarten, damit kommt ein einheitlicher Standard für GPGPU Anwendungen, auf den dann PhysikEngines und deren Berechnung aufbauen können.
Eine Hersteller abhängige Geschichte wird sich nicht durchsetzen können, da beide Hersteller in etwa am Markt gleich stark vertreten sind, was für die Spielehersteller einen extrem großen Verlust einbringen würde, weil sie eben die Häfte der potentiellen Käufer schon mal ausschließen würden.
Oder eben sich massiv mehr Arbeit aufhalsen und sich ne Alternative einfallen lassen müssen.

OpenCL! Cuda war ne tolle Idee, keine Frage, aber ohne OpenCL wird es wohl keinen Durchbruch geben, der nicht nur richtung Physikspielerei geht. Die Physik wird in Zukunft, wenn sie richtig in Spiele implementiert wird wohl, ähnlich viel Power fressen wie die Grafik.


so habe gerade mail bekommen, das meine 1Gb Karte am Freitag schon raus ist, und sie dann wohl morgen kommt, werde dann gleich losbenchen !

Da bin ich ja mal gespannt. Du solltest dir schonmal Texturemods für Spiele besorgen ;-)
 
Für Oblivion gabs da einige Mods die Texturen aufpoliert haben, müsstest du allerdings selber suchen. Ebenso der Texture Mod für Fallout 3. Für Crysis sollte auch mal nen Mod erscheinen, allerdings ist das Game als Test an sich schon Unsinnig. Für Stalker gab es meine ich auch welche. Du musst mal nen bisschen suchen, ich weiß ja auch nicht welche Games du hast.
 
Das stimmt natürlich. Allerdings wäre es aufgrund von Skalierung der Chips deutlich einfacher verschiedene Segmente mit Karten auszustatten. Was anderes macht ATI mit den X2 Versionen ihrer Karten schon jetzt nicht. Und auch 3Dfx hat diesen Weg eingeschlagen und wäre laut Entwicklungen bei ihm geblieben.

Das mit dem Randprodukt ist fraglich, immerhin ist das nen logischer Weg weil die Chipherstellung irgendwann an ihre Grenzen stoßen wird und man irgendwann versuchen muss das ganze noch mehr zu parallelisieren. Das ist auch der Hauptgrund für die Multicores im CPU Bereich. Außerdem wäre es mal interessant zu erfahren wie die Entwickler bei ATI und NV wirklich zu Raytracing stehen. Klar, Intel ist nur ein Konkurent, aber beide wissen das Intel gut darin ist Dinge mit Gewalt durchzupreschen und der Larrabee zwar ziemlich ominös ist, aber vielleicht ne Gefahr darstellt. Im grafikkartenmarkt gab es viele Hersteller und Entwickler die pleite gingen weil sie Trends verschlafen haben, auch wenn sie noch so groß waren.

Neja also der Vergleich zu den CPUs ist genau der Fehler den viele machen.
Wenn man so will wäre eine CPU mit einem Kern einer GPU mit einem Shader gleichzusetzen.
Oder andersrum, die 280/285GTX wäre mit einer CPU mit 240 Cores gleichzusetzen.
Die GPU ist von Grund auf für das paralelle Abarbeiten von Berechnungen ausgelegt, da brauch es quasi nicht zwei dieser Gesamtrecheneinheiten, sondern man brauch nur einfacherweise die Recheneinheiten erhöhen.
Klar das lässt den Chip aufblähen, aber das ist nix, was sich lösen lassen sollte. Und ein Ende ist derzeit auch nicht wirklich in Sicht, wenn man bedenkt, wie viel Leistung quasi mit jeder neuen Generation hinzu kommt, sieht man in jedemfall keinen Abwärztrend. So wie es bei den CPUs derzeit der Fall zu sein scheint.

Zum Thema Raytracing, das wird offensichtlich heißer gekocht, als es gegessen wird.
Von Raytracing brauch man sich so viel wohl nicht erwarten, klar, es kann in einigen Bereichen manches deutlich besser, als die herkömmliche Methode, aber es gibt nicht zu verachtende Teile, wo Raytracing quasi voll im Nachteil ist.
Ob man nun das ganze mit der einen oder der anderen Methode bewergstelligt ist wohl recht egal, für das Gesamtbild sind beide Sachen nicht 100% optimal und es müssen hier und da immer kompromisse aus Optik und Leistung eingegangen werden.



DX10 hat wirklich unter Vista gelitten. Aber auch bei DX10 only Titeln waren die grafischen Ergebnisse nicht wirklich berauschent. Ich schätze mal das Windows 7 das glattbügeln wird, bisher siehts ja gut aus und es wird als wahrer Nachfolger von XP propagiert.

Da es keine DX10 only Games gibt, zumindest keine richtigen lässt sich sowas schwer behaupten.
Fakt ist jedoch, mittels DX10 können die gleichen Effekte wie in DX9 mit deutlich weniger Aufwand realisiert werden.
Nur nutzt dieser Vorteil eben keinem so richtig was, wenn sich Vista und somit DX10 nicht richtig durchsetzen will.
Ob Windows 7 das schafft, bleibt abzuwarten. In jedemfall werden aber frühestens ein Jahr nach Windows 7 Release die ersten DX11 only Games kommen. Und das ist noch laaange hin ;)

Übrigens, wenn man so will kann man via Software alles bewerkstelligen, sprich auch eine GPU von vor 10 Jahren könnte theoretisch die gleiche Optik auf den Schirm zaubern wie es heutige GPUs schaffen. Zwar mit unspielbarer Geschwindigkeit, aber es wäre alles möglich.
Und wenn man das so bisschen im Hinterkopf weis, kommt einem auch ins Bewustsein, das die aktuelle Lage mit DX9 und dessen ständig verbessernder Optik eigentlich ganz logisch ist.
Man muss sich nur was einfallen lassen, wie man den Effekt so baut, um diesen in brauchbarer Geschwindigkeit auf den Schirm zaubern zu lassen.
Es bleibt aber weiterhin so, das mit DX10 oder DX10.1 die gleiche Optik wesentlich effizienter zu erzeugen wäre, wenn denn alle Vista und DX10 GPUs hätten.


OpenCL! Cuda war ne tolle Idee, keine Frage, aber ohne OpenCL wird es wohl keinen Durchbruch geben, der nicht nur richtung Physikspielerei geht. Die Physik wird in Zukunft, wenn sie richtig in Spiele implementiert wird wohl, ähnlich viel Power fressen wie die Grafik.
Jupp so schauts aus...
Wobei das sicher ein langjähriger Prozess wird, denn man bedenke, der Überwiegende Anteil an GPUs muss DX11 können, bevor die Hersteller sind entscheiden in ihre Games derartige Sachen einzu bauen.
Und es bleibt weiterhin der Punkt, Abwärzkompatibilität zu schächeren Karten... Es wird wohl so weiter gehen, das Games mit max. Details immer gut und toll aussehen, aber sobald man Grafikkartenbedingt gezwungen wird, die Details runter zu drehen, wird der Qualitätsverlust wohl größer den je sein.


@Piefke
also ich wäre sehr interessiert an einem Anno1701 Test.
Also einfach mal ein Spielchen starten und eine gute Siedlung aufbauen.
Dann mal eine Messung starten und von der eigenen Siedlung über die Karte scrollen zur Siedlung des Gegners (wenn möglich in einer anderen Vegetationszone)
Das mögen nämlich AMD Karten gar nicht, da kann noch so viel Speicher vorhanden sein.

Am besten das ganze mit Frameverlaufsdiagramm und VRam Auslastungsmessung ;)

Ansonsten bleibt zu sagen, das die meisten Benchfunktionen für so einen Test unbrauchbar sind.
Spiel dich in neueren Games ein wenig ein und fang dann im irgendwann mitten im Spiel die Messung an.
Auch hier wieder mit Frameverlaufsdiagramm (kann ja Fraps erstellen zumindest die Zahlen) und VRam Auslastungsmitschnitt.

So zeigen sich die eventuellen Schwächen der 512er Karte im Gegensatz zur 1GB Karte.

Games wären Crysis, FarCry2, HL2 mit Cinematic Mod 9,5+HD Addon, Fallout 3 mit HD Texturen, CoH (auch immer sehr interessant) und andere Titel, was es eben gerade sonst so gibt ;)
 
Juppa, der RT zeigt dir den VRam ja auch mit an un die FPS...

Kann der RT eigentlich auch Aufzeichnungen vornehmen? Sprich kann man das in ne Datei auf die Platte schreiben lassen?
Wenn nicht, dann wärs ungünstig, weil man ja nur den aktuellen Wert im Onlinefenster sieht, oder man hat nen zweiten Monitor, und zieht den Graphen darauf, das sollte auch gehen.
 
Klar das lässt den Chip aufblähen, aber das ist nix, was sich lösen lassen sollte. Und ein Ende ist derzeit auch nicht wirklich in Sicht, wenn man bedenkt, wie viel Leistung quasi mit jeder neuen Generation hinzu kommt, sieht man in jedemfall keinen Abwärztrend. So wie es bei den CPUs derzeit der Fall zu sein scheint.

Ich weiß was du meinst. Allerdings ist der Abwärtstrend ja nicht unbedingt an der Stagnation der Entwicklung fest zu machen, sondern irgendwo bei den Anforderungen. Der CPU wird im Moment immer mehr Arbeit abgenommen, sei es nun durch die Grafikkarten die nicht mehr nur Texturen pflastern oder das bischen Physik was bisher von der CPU berechnet wurde.....vielleicht kommen irgendwann ja auch mal KI-Beschleuniger auf den Markt, den meisten Spielen würde es gut tun! Jedenfalls hat die CPU dadurch nicht mehr den Ruf der limitierende Faktor bei Spielen zu sein. Vorher kommen die Grafikkarte oder bald wohl auch der "was auch immer gerade für Physikberechnungen zuständig ist"-Beschleuniger an ihre Grenzen. Früher konnte ich nach einem Jahr die meisten Spiele nicht mehr auf meinem Rechner laufen lassen weil die CPU zu langsam war, heute bin ich auch nach 3 Jahren CPU-technisch nicht auf dem Abstellgleis.

Übrigens, wenn man so will kann man via Software alles bewerkstelligen, sprich auch eine GPU von vor 10 Jahren könnte theoretisch die gleiche Optik auf den Schirm zaubern wie es heutige GPUs schaffen. Zwar mit unspielbarer Geschwindigkeit, aber es wäre alles möglich.
Und wenn man das so bisschen im Hinterkopf weis, kommt einem auch ins Bewustsein, das die aktuelle Lage mit DX9 und dessen ständig verbessernder Optik eigentlich ganz logisch ist.
Man muss sich nur was einfallen lassen, wie man den Effekt so baut, um diesen in brauchbarer Geschwindigkeit auf den Schirm zaubern zu lassen.
Es bleibt aber weiterhin so, das mit DX10 oder DX10.1 die gleiche Optik wesentlich effizienter zu erzeugen wäre, wenn denn alle Vista und DX10 GPUs hätten.

Rendering halt...siehe OTOY.
http://www.youtube.com/watch?v=N8W0bpvGGO8
http://www.youtube.com/watch?v=k4aE6HK7JEo
http://www.youtube.com/watch?v=nydW9XUA5VQ

Ich bin jedenfalls auf DX11 gespannt. Achja, DX10 only, ist Cryostasis nicht nen DX10 only Titel?

Jupp so schauts aus...
Wobei das sicher ein langjähriger Prozess wird, denn man bedenke, der Überwiegende Anteil an GPUs muss DX11 können, bevor die Hersteller sind entscheiden in ihre Games derartige Sachen einzu bauen.
Und es bleibt weiterhin der Punkt, Abwärzkompatibilität zu schächeren Karten... Es wird wohl so weiter gehen, das Games mit max. Details immer gut und toll aussehen, aber sobald man Grafikkartenbedingt gezwungen wird, die Details runter zu drehen, wird der Qualitätsverlust wohl größer den je sein.

OpenCL braucht kein DX11. Aber die DX11 Schnittstelle wird sich wegen Direct3D anbieten. OpenGL ist ja scheinbar nurnoch Carmacks liebling, obwohls eigentlich nicht schlechter als Direct3D ist....die brauchen nur immer etwas länger.

wollte die Games im Spiel mit Riva Tuner messen.

Man müsste es irgendwie schaffen immer die gleiche Abfolge in die Messszenen zu bringen...
 
nochmal ne frage, habe im Rivatuner zwar alles eingestellt, aber V Ram wird nicht angezeigt, oder welche ist das ?
weil da immer von 4096 ausgeangen wird, und das ist mein Sys Ram!

"- Die Überwachung der Videospeichernutzung ist unter Vista aufgrund der Virtualisierung des Videospeichers nicht nutzbar."


und nun ????
 

Anhänge

  • Benchtest1.jpg
    Benchtest1.jpg
    123 KB · Aufrufe: 22
Zuletzt bearbeitet:
Das ist an den Haaren herbei gezogen. Du gehst nur von der Situation aus die wir im Moment auf dem Grakamarkt haben. Vor ein paar Jahren sah das aber noch anders aus...und es wird auch in ein paar Jahren wieder anders aussehen!
HWK hat recht, so ist es mir mit der 8800GT gegangen, 7800GT, 6800 GT, nur habe ich die grakas jeweils keine 2 jahre genutzt.
 
HWK hat recht, so ist es mir mit der 8800GT gegangen, 7800GT, 6800 GT, nur habe ich die grakas jeweils keine 2 jahre genutzt.

Es ging mir darum das es nicht Möglich ist nen Preis fest zu machen. Mal bleibt der Preis stabil, mal rutscht er ab. Mal ist es also ne gute Möglichkeit sich ne günstige und dann bald ne neue Graka zu kaufen und mal setzt man lieber auf HighEnd.



Ich bin jedenfalls auf DX11 gespannt. Achja, DX10 only, ist Cryostasis nicht nen DX10 only Titel?
Nee... in den Optionen kann man glaub sogar bis Pixel Shader 2.0 (DX9) runtergehen - das waren noch Zeiten

Hmm, hatte mich auch etwas gewundert....
 
Ich weiß was du meinst. Allerdings ist der Abwärtstrend ja nicht unbedingt an der Stagnation der Entwicklung fest zu machen, sondern irgendwo bei den Anforderungen. Der CPU wird im Moment immer mehr Arbeit abgenommen, sei es nun durch die Grafikkarten die nicht mehr nur Texturen pflastern oder das bischen Physik was bisher von der CPU berechnet wurde.....vielleicht kommen irgendwann ja auch mal KI-Beschleuniger auf den Markt, den meisten Spielen würde es gut tun! Jedenfalls hat die CPU dadurch nicht mehr den Ruf der limitierende Faktor bei Spielen zu sein. Vorher kommen die Grafikkarte oder bald wohl auch der "was auch immer gerade für Physikberechnungen zuständig ist"-Beschleuniger an ihre Grenzen. Früher konnte ich nach einem Jahr die meisten Spiele nicht mehr auf meinem Rechner laufen lassen weil die CPU zu langsam war, heute bin ich auch nach 3 Jahren CPU-technisch nicht auf dem Abstellgleis.
was da noch alles so wunderhübsches kommt, bleibt wohl erstmal abzuwarten. Ich denke mal es wäre auch Fatal, der Grafikkarte zu viel Berechnungsarbeit zu geben. Denn so wird diese ja quasi wieder zu einer Art CPU, sprich ein Allzweck Rechenwerk, was wiederum bedeutet, das es früher oder später wieder kompromisse geben wird, aus Leistungssicht...

Es wäre die eigentlich deutlich bessere Methode, jedem Part einen eigenen nur für die Sache zugeschnittenen Hardwarebeschleuniger zu geben. Ob für KI was kommt, weis ich net, ist aber derzeit nix im Umlauf ;)


OpenCL braucht kein DX11. Aber die DX11 Schnittstelle wird sich wegen Direct3D anbieten. OpenGL ist ja scheinbar nurnoch Carmacks liebling, obwohls eigentlich nicht schlechter als Direct3D ist....die brauchen nur immer etwas länger..

Neja OpenCL hat ja nix mit DX ansich zu tun.
OpenCL ist ein Standard, genau so wie es eben einen Standard in DX11 geben wird.
Was sich dann am Ende durchsetzen wird oder ob OpenCL vllt wieder ein Randprodukt wie OpenGL derzeit bleiben wird, bleibt abzuwarten.
 
oder mehreren, eine Zuteilung fest auf eine Coreanzahl wäre kontraproduktiv.
KI Berechnung lässt sich wohl recht gut paralell abarbeiten. Speich man könnte da fast linear bei steigender vorhandener Performance mehr Berechnungen ausführen. Was wiederum bedeutet, schnellere CPUs würden intelligentere Gegner erzeugen...
 
Neja OpenCL hat ja nix mit DX ansich zu tun.
OpenCL ist ein Standard, genau so wie es eben einen Standard in DX11 geben wird.
Was sich dann am Ende durchsetzen wird oder ob OpenCL vllt wieder ein Randprodukt wie OpenGL derzeit bleiben wird, bleibt abzuwarten.

Mit OpenCL C hat OpenCL ne eigene Programmiersprache, ob das nun gut oder schlecht ist sei mal dahingestellt, aber damit ist sie nicht einfach nur eine Schnittstellensammlung wie DX.

Ich denke mal es wäre auch Fatal, der Grafikkarte zu viel Berechnungsarbeit zu geben.

Dank GPGPU ist das nicht Fatal. Dann wird halt in Zukunft eine Graka für Grafik und eine für Physik eingesetzt und eine für was weiß ich was. Klar bleiben es Grafikkarten, aber es geht ja nicht um ihre Bezeichnung sondern nur was sie berechnen können, man könnte ihnen dann ja auch verschiedenen Namen geben....es sollte halt nur nicht alles über einen Chip laufen, damit würde ich mir ja wieder ins Bein schießen.
 
Du hast sicher schon recht mit letzterem, nur wenn man bedenkt, in den CPUs wurden für alle Möglichen Sachen auch haufenweise Optimierungen eingelassen, es macht die CPU quasi zum allrounder, mit der kann man eigentlich alles machen lassen, was man sich irgendwie erdenken kann.
Leider macht dieser "eierlegende-Wollmichsau" Status die CPU langsam, im Vergleich zu Dingen, dir direkt auf eine Bestimmte Recheneinheit zugeschnitten sind.
Klar eine GPU wird nach wie vor schnell in ihrem Spezialgebiet 3D Anwendungen sein.
Aber ich habe die Beführchtung, das wenn ihr zu viele Aufgaben übertragen werden, die eigentliche Sache nach und nach zu kurz kommt.

Und mehrere Karten würde vllt für die Freaks funktionieren hier, aber die breite Masse wäre sowas sicher nicht durchsetzbar.

Vllt könnte es nützlich sein, so eine Art GPGPU Karte zu bauen, sprich alles das weglassen, was für die 3D Anwendungen gebraucht wird und nur das verwenden, was zwingend für GPGPU notwendig ist.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh