GM200 und R9 300er

OK, das wusste ich noch nicht, dass das mit der R9 290 auch noch möglich war. Hab da eher an frühere Zeiten gedacht...

Wenn das so war, dann hoffe ich aber nicht, dass AMD dies nun besser hinbekommt! ;)

Wo warst du die letzten 2 Jahre? :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das diverse AMD GPUs mehr ALUs verbaut haben sollten als angegeben wurde, wird ja fast für Jede Generation schon spekuliert. Bewahrheitet hat sich davon aber bis dato noch kein einziges Gerücht ;)

Stimmt schon, nur wirklich bewiesen, dass es eben doch nicht so ist, hat es bisher auch noch niemand. Ganz unsinnig ist die Vorstellung aber nicht. Ein leicht teildefekter Chip mit 2816 SP von 3072 SP dürfte deutlich wirtschaftlicher sein, als ein perfekter 3072er Chip, wo wirklich alles passen muss. Gerade bei der Produktion von komplexeren GPUs ist es ja meistens so, dass sehr viele Chips oft nur minimale Fehler aufweisen. Absolut perfekte Chips sind damit im Verhältnis zu solchen mit nur minimalen defekten wesentlich unwirtschaftlicher. Ganz am Ende der Kette stünde dann eine höhere Gewinnmarge für AMD.

Wenn man Hawaii 1:1 weiter nutzt und nur minimal überarbeitet, wirds bei der ALU Anzahl bleiben... Wenn man auf 3072 geht, müsste man auf 48 CUs gehen. Sprich man hätte dann wieder 12 CUs pro SE. Hawaii ist von den Daten her eigentlich 1:1 ein doppelter PitCairn mit 11 anstatt 10 CUs pro SE. Tahiti kommt auf 16 CUs pro SE. Gerüchten zur Folge ein Grund, warum das FrontEnd der Tahiti GPUs etwas überfordert ist/war, war eben die Anzahl der CUs pro SE. Das Konstrukt ist entgegen dem NV Design nämlich nicht dynamisch skalierbar. Mit jedem CU mehr wird die Skalierung etwas nachlassen... Weswegen Tahiti auch mehrfach in der Kritik stand.

Ja, der Sprung von 2816 SP auf 3072 SP sollte dann nur etwa 5% mehr Leistung bedeuten. Ob man diesen Weg wirklich gehen würde, wenn der Chip tatsächlich 3072 SP besitzt, halte ich aber auch aus oben genannten Gründen für unwahrscheinlich. Es sei denn, die Ausbeute an perfekten Chips wäre auf einen stabil hohen Niveau. Zusammen mit weiteren kleineren Optimierungen, halte ich diese Möglichkeit nicht für komplett ausgeschlossen.
 
Nein, wieso sollte es? Nach deiner Theorie müsste der VRAM Verbrauch in allen Spielen schlicht und ergreifend IMMER bei der vollen VRAM Größe andeckeln. Was aber nicht der Fall ist.

Das habe ich nicht so geschrieben.
Wenn nicht mehr Daten von Nöten sind, wird die Engine auch nicht mehr in den Speicher schreiben wollen. Das ist klar soweit.
Aber sobald sie mehr Daten schreiben möchte, wird sie bei der GTX970 von NVIDIAs Treiber daran gehindert, da dieser einen Deckel drauf macht, sobald die 3,x Grenze erreicht wird. Die Engine geht aber weiterhin davon aus, das volle 4GB zur Verfügung stehen und möchte diese natürlich auch nutzen.
Dadurch entsteht ein Konflikt zwischen Engine und Treiber den einzig und alleine NVIDIA zu verantworten hat, da sie ihre Karte nicht so spezifiziert haben, wie sie eigentlich ist. D.h. die Engine wird getäuscht und der Treiber versucht es zu glätten.
Das geht natürlich nicht immer gut aus und wird in Zukunft noch weit weniger gut aus gehen, da der Support von NVIDIA für ihre "spezielle" GTX970 immer mehr zurück gehen wird.

Zusammengefasst:
Leute, die sich jetzt eine GTX 970 kaufen, werden in Zukunft immer mehr Probleme mit ihr bekommen.
 
Das habe ich nicht so geschrieben.
Wenn nicht mehr Daten von Nöten sind, wird die Engine auch nicht mehr in den Speicher schreiben wollen. Das ist klar soweit.
Aber sobald sie mehr Daten schreiben möchte, wird sie bei der GTX970 von NVIDIAs Treiber daran gehindert, da dieser einen Deckel drauf macht, sobald die 3,x Grenze erreicht wird. Die Engine geht aber weiterhin davon aus, das volle 4GB zur Verfügung stehen und möchte diese natürlich auch nutzen.

Das Problem dabei ist aber nicht, dass die Karte 4GB hat und nur 3,5GB vom Treiber "freigegeben" werden... Sondern das Problem dabei ist, dass das Spiel mehr wie 3,5GB anfordert und belegen will.
Dieser Umstand hat aber einfach überhaupt nichts mit der Karte ansich zu tun... Sondern einfach mit der Tatsache, dass 3,5GB zu wenig sind. Wie es bspw. bei 3GB ebenso zu wenig ist/wäre. Oder bei 2GB...
Bspw. im Test von PCGH zu Total War: Attila, wo die 970er massiv schlechter abschneidet, wird ebenso erwähnt, dass sowohl die 780TI als auch die 280X mit dem gleichen Problem zu kämpfen haben. Was schlicht und ergreifend daran liegt, dass die 3GB ebenso zu wenig sind. Man hat bei PCGH sogar mit jedem Durchlauf das Spiel neugestartet um das Leeren des VRAMs zu erzwingen... Also genau das, was der Spieler eigentlich nicht macht ;) Denn der will einfach nur spielen und das sollte möglichst so lange flüssig und problemfrei laufen, wie er das Spiel laufen hat...

Die große Preisfrage ist also nicht, ob 3,5GB zu wenig sind (denn das trifft auf viele neuere Titel mit entsprechenden Einstellungen offensichtlich zu), sondern viel eher, wie lange werden 4GB noch ausreichend sein nach der derzeitigen Entwicklung?? -> das kann leider heute keiner beantworten. Die Vermutung liegt allerdings nahe, wenn die neue HighEnd Generation mit mehr wie 4GB erscheint, dass 4GB genau so schnell deckeln können, wie heute 2GB oder heute 3GB deckeln können.

Zusammengefasst:
Leute, die sich jetzt eine GTX 970 kaufen, werden in Zukunft immer mehr Probleme mit ihr bekommen.

Das ist durchaus so... Daran gibts auch nichts rumzureden.
Dennoch sollte man dazu erwähnen, dass dieses Problem eben kein GTX 970 Problem als solches ist... Denn JEDE Karte, die zu wenig Speicher hat, wird in dieses Problem laufen. Siehe die Aussagen von PCGH zum neuen Total War Titel über die 780TI oder 280X mit 3GB.

Aus meiner Sicht ist das Fazit am Ende eher folgendes:
3,5GB reichen für heutige AAA-Titeln oftmals schon nicht mehr aus :wink:
 
Zuletzt bearbeitet:
Hier ein paar Gedanken zu Pickebuhs Beitrag, der mich doch dazu inspiriert hat ein paar Zeilen zu verfassen...

Nehmen wir mal ein x-beliebiges Spiel, bei dem man die Texturqualität in drei Stufen (Niedrig = 2GB VRAM, Mittel = 3GB VRAM und Hoch = 4GB VRAM), abhängig vom VRAM einstellen kann. Auf der Einstellung "Hoch" ist das Spiel für 4GB VRAM optimiert worden, d.h. die Spieleentwickler haben alles soweit angepasst, dass man mit einer ausreichend leistungsstarken GPU auch optimalerweise 4GB VRAM benötigt, damit man auf dieser Stufe flüssig spielen kann. Da wir nun aber die Besonderheiten der GTX970 beim VRAM kennen, müsste man aber für ein flüssiges Spielerlebnis die Texturqualität auf "Mittel" reduzieren, welche eigl. für eine Grafikkarte mit nur 3GB VRAM angedacht wurde, das obwohl die GTX970 physisch eine 4GB Karte ist! Würde man die Texturqualität weiterhn auf "Hoch" belassen, würde es höchstwahrscheinlich zu Auslagerungsvorgängen kommen, die das Spielerlebnis (Ruckler) mindern können. Hier wird der Treiber sicherlich alle machbaren Tricks versuchen um dies zu verhindern, gelingen kann dies aber nie wirklich zu 100% transparent wie bei einer "echten" 4GB VRAM Grafikkarte, weshalb es hier eine unsaubere Kompromisslösung wäre. Hier kann ich dann auch jeden Käufer einer GTX970 verstehen, der im guten Gewissen eine 4GB VRAM Karte (für entsprechend optimierte Spiele) gekauft hat, aber nicht das bekommt was eigl. hätte drin sein sollen.

Spieleentwickler müssten die 3,5GB VRAM der GTX970 explizit bei ihrer Programmierarbeit berücksichtigen um eine optimale Anpassung zu erzielen. Da 3,5GB VRAM aber so ungewöhnlich auf dem gesamten Grafikkartenmarkt sind, glaube ich nicht, dass man sich diesen Aufwand antun würde und man müsste weiterhin mit oben genannter unschöner Kompromisslösung zurecht kommen.
 
Das einzige was derzeit von den Programierern berücksichtigt wird ist die Leistung der Konsolen daraus ergibt sich zum über wiegenden Teil der Speicherbedarf für den PC wo dann noch mal im Nachgang zusätzliche Bildverbesserer nachgereicht werden.
Und im jetzigem Stadium ist der Speicher der Konsolen noch nicht ausgereizt wieviel Speicher die Konsolen haben wissen wir ja alle.

Von Ubisoft gab es glaub ich auch mal ein Statmant das lautete die PC Spieler können alles durch Hardware kompensieren darunter fällt auch neue Hardware kaufen.;)
Das die Spiele für 4GB angepasst werden ist Blödsinn hoch 10.

Wieviele Exclusive PC Titel gab es den 2014.
 
Zuletzt bearbeitet:
Spieleentwickler müssten die 3,5GB VRAM der GTX970 explizit bei ihrer Programmierarbeit berücksichtigen um eine optimale Anpassung zu erzielen. Da 3,5GB VRAM aber so ungewöhnlich auf dem gesamten Grafikkartenmarkt sind, glaube ich nicht, dass man sich diesen Aufwand antun würde und man müsste weiterhin mit oben genannter unschöner Kompromisslösung zurecht kommen.

Auf der einen Seite ergibt das durchaus Sinn, aber auf der anderen Seite vergisst du ein paar Sachen in der Betrachtung...
Bspw. DWM ;) -> mein default VRAM Verbrauch, rein Windows 7 inkl. Aero liegt bei mir bei fast 500MB. Warum? Weil ich drei Screens nutze. (3x FHD, stand heute)
Ein Anderer kommt vielleicht mit nur einem einzigen FHD Screen um die Ecke und kommt da mit ~150MB aus, der nächste schleppt 3x UHD an und frisst nochmal deutlich mehr wie 500MB.
Wir sprechen hier gerade mal von ~15% Unterschied (3,5GB vs. 4GB), der in der Praxis einfach nicht der Indikator zwischen Spielbar und nicht Spielbar ausmachen kann... Schon allein durch die unterschiedliche Hintergrundbelastung von DWM kann/muss ein jeder Spieleentwickler mit Reserven kalkulieren, sofern er überhaupt sowas tätigt.

-> denn das ist der zweite Punkt, das wird Keiner so explizit auf absolute Menge kalkulieren ;) Du kannst nicht mal eben so, bis auf fast das MB genau dein Spiel hin texturieren... Schon allein deswegen nicht, weil es eben A) nicht nur Low/Middle/High als Einstellung gibt, sondern andere Faktoren da ebenso mit rein spielen. Die Auflösung als solches hat zwar heute nur wenig Einfluss, aber spielt dennoch mit rein bspw. auch mögliche AA Settings, ebenso wie mögliche GPGPU Tasks (TressFX, PhysX per GPU oder andere Geschichten)
Zumal auch nicht der Entwickler = Programmierer des Spiels dafür zuständig ist, die Texturen zu erstellen oder zu verändern ;) Die Grafiken kommen idR aus der Abteilung "Gruppe bunte Bilder" -> und das irgendwie auf Anforderung. Wärend dazu noch eine dritte Gruppierung für das Leveldesign selbst zuständig ist. Klar kann man immernoch feststellen, OK, wie brauchen zu viel Speicher, wir müssen runter. Aber die Texturen selbst sind ja oftmal mehrfach in Verwendung. Mal ebenso ein paar davon niedriger auflösen ist da nicht so einfach...

Der dritte Punkt, das Speichermanagement von AMD und NV sind unterschiedlich... Wenn auf der NV Karte xxx MB belegt sind, heist das nicht automatisch, dass bei der AMD Karte dies ebenso viel sein muss. Schon allein durch unterschiedliche Komprimierungsverfahren kann das anders sein, ebenso durch andere Routinen, die der Treiber fährt um alten Mist rauszukehren.
ATI/AMD Karten galten/gelten allgemein eher als sparsam in der VRAM Belegung ;) Obwohl das im Grunde eher ein Irrglaube ist, denn ungenutzter Speicher ist einfach unsinnig...
Musst mal in HisN seinem 512MB VRAM Thread hier suchen, da hab ich vor xx Jahren mal Messungen mit Anno 1701 gemacht. Anno 1701 ist ein Paradebeispiel dafür, wie man VRAM Managment nicht betreiben sollte :fresse: Damals war das bei mir glaube ich eine HD4870 512MB -> du scrollst auf eine Insel, der VRAM wird gefüllt mit notwendigen Daten -> du scrollst von der Insel aufs Wasser -> der VRAM wird geleert -> dann scrollst du auf die nächste Insel, der VRAM wird wieder gefüllt.
Das gleiche Spiel, gleiche Settings auf ner NV Karte -> du scrollst auf eine Insel, VRAM wird gefüllt, du scrollst auf das Wasser -> VRAM bleibt gefüllt, du scrollst auf die nächste Insel -> VRAM füllt sich weiter (je nachdem, ob gleiche Klimazone = gleiche Texturen oder andere Klimazone = andere Texturen)
Ein Entwickler müsste also das Speichermanagement jeglicher Hardware kennen und explizit darauf sein Spiel ausrichten -> unsinn, viel zu viel Arbeit für nix.

Der vierte Punkt ist, die Art von Spielen ist extrem unterschiedlich. Du hast, wenn es von den alten Konsolen portiert wurde, häufig ein Schlauchlevel Prinzip. Das ist ein ziemlich günstiges Unterfangen für den Entwickler, Daten in den Speicher vorzuladen. Denn der Spieler kennt idR nur einen Weg -> nämlich dem Schlauch entlang. Mit diesem Prinzip kannst du bequem während der Fahrt später notwendige Daten nachziehen und ältere Daten rauskegeln. Sogar vom Spiel selbst initiert ohne auf den Treiber zurückgreifen zu müssen.
Völlig anderes Prinzip -> Open World Titel. Da kannst du gar nix vorhersagen... Der Spieler kann nach Norden, Süden, Westen oder Osten gehen. Je nachdem in Häuser oder in den Untergrund usw. usf. Um so deteilreicher das Spiel, desto unterschiedlicher die Texturen. Und um so unterschiedlicher die Texturen, desto mehr absolute Menge wird es sein. Gut funktionierendes Speichermanagement ist absolute Pflicht...


Unterm Strich?
Der Entwickler wird idR sein Spiel nicht auf absolute VRAM Menge hin optimieren können. Nicht wegen dem unterschliedlichen Management, nicht wegen verschiedenen Prinzipien der Spiele usw. Ein Spiel wird das an Daten benötigen, was es während der Laufzeit benötigt. Entweder es passt, oder es passt nicht... In letzterem Fall bist du im VRAM Limit. Ob die Menge potentiell nutzbarem VRAMs nun bei 3,5GB liegt oder bei "geraden" Zahlen, ist dabei nebensächlich. Wichtig ist, während der Laufzeit darf bzw. sollte nicht mehr Speicher belegt werden, als frei verfügbar ist. Und wenn doch, dann sollte es explizit getrennte Level/Abschnitte/Zwischenszenen oder ähnliches geben. Oder das Spiel MUSS so derart intelligent Daten nachziehen können, dass es unbemerkt vom Spieler geschieht.
Dazu kommt der unwesentliche Unterschied von 3,5GB zu 4GB -> da kräht in ein paar Monaten kein Hahn mehr danach, genau so wenig wie zum Release der GTX 680/HD7970 kein Hahn mehr danach gekräht hat, ob die 1,25GB der GTX 570 genug waren oder ob es lieber die 1,5GB der GTX 480 sein sollen -> beide Fälle waren zu dieser Zeit am Limit bzw. oft auch drüber. Und ob nun 10 Nachladeruckler oder 15? Völlig ega, schon der erste trübt den Spielspaß ungemein...
 
Zuletzt bearbeitet:
Unterm Strich?
Der Entwickler wird idR sein Spiel nicht auf absolute VRAM Menge hin optimieren können. Nicht wegen dem unterschliedlichen Management, nicht wegen verschiedenen Prinzipien der Spiele usw. Ein Spiel wird das an Daten benötigen, was es während der Laufzeit benötigt. Entweder es passt, oder es passt nicht... In letzterem Fall bist du im VRAM Limit. Ob die Menge potentiell nutzbarem VRAMs nun bei 3,5GB liegt oder bei "geraden" Zahlen, ist dabei nebensächlich. Wichtig ist, während der Laufzeit darf bzw. sollte nicht mehr Speicher belegt werden, als frei verfügbar ist. Und wenn doch, dann sollte es explizit getrennte Level/Abschnitte/Zwischenszenen oder ähnliches geben. Oder das Spiel MUSS so derart intelligent Daten nachziehen können, dass es unbemerkt vom Spieler geschieht.
Dazu kommt der unwesentliche Unterschied von 3,5GB zu 4GB -> da kräht in ein paar Monaten kein Hahn mehr danach, genau so wenig wie zum Release der GTX 680/HD7970 kein Hahn mehr danach gekräht hat, ob die 1,25GB der GTX 570 genug waren oder ob es lieber die 1,5GB der GTX 480 sein sollen -> beide Fälle waren zu dieser Zeit am Limit bzw. oft auch drüber. Und ob nun 10 Nachladeruckler oder 15? Völlig ega, schon der erste trübt den Spielspaß ungemein...

Das trifft alles so zu, wenn es sich um eine reguläre Grafikkarte handelt, wo auch das drin ist, was spezifiziert worden ist.
Um es kurz und verständlich zu fassen.
Die Engine glaubt, das sie es mit einer gängigen 4GB-Karte zu tun hat. Nur kann sie eben nicht wissen, das die letzten 500 MB eigentlich nicht zu gebrauchen sind, sie aber trotzdem bei Bedarf verwenden möchte.
Das hat absolut nichts mit anderen Grafikkarten zu tun, die mehr oder weniger VRAM haben !
Natürlich haben andere Karten unterschiedliche VRAM-Mengen. Aber die werden von der Engine eben berücksichtigt weil sie so spezifiziert sind.
Das Fatale eben bei der GTX 970 ist, dass die Engine auch die letzten 500MB nutzen möchte, wenn es nötig wird und die gerade sind absoluter Crab.

Das Ganze wäre kein so ein Problem geworden, hätte NVIDIA die GTX 970 als 3,0 oder 3,5 GB-Karte produziert.
Warum wohl sind die User auf dieses Problem gestoßen, wenn es sich nicht anders verhält als bei den anderen Karten mit weniger VRAM wo die Engine an dem allgemein bekannten VRAM-Limit stößt ? Sie merkten, das da etwas nicht stimmt und schlussendlich hatten sie damit dann Recht, was ja einen reproduzierbaren Mangel darstellt und sich eben nicht wie von dir versucht zu erklären um den typischen VRAM-Mangel handelt.

Die GTX 970 hat keinen VRAM-Mangel, schließlich sind 4GB verbaut, nur der VRAM selber hat einen Mangel und den kann man sehr wohl feststellen, wenn man ihn mal an seine Grenzen treibt.

NVIDIA hat ganz bewusst die GTX 970 als 4GB-Karte vermarktet um eine starke Konkurrenz gegen die 4GB-Karten von AMD zu erschaffen und sich somit das Quartal mit hohen Gewinnen zu sichern und AMD den Verkauf der 290er-Serie zu erschweren, was ihnen ja auch gelungen ist.
Das Ganze auf Kosten der Kunden natürlich, die sich nun mit einer Krüppel-4GB-Karte zufrieden geben sollen. NVIDIA verkauft dies nun als neues Feature und verhöhnt somit nun alle Käufer zusätzlich, die ja sicherlich auch weiterhin schön und brav NVIDIA kaufen werden.

Das eigentliche Problem ist nicht die GTX 970. Es ist vielmehr die ausbleibende Reaktion der geprellten Kundschaft, die es mal wieder still schweigend schlucken von NVIDIA über den Tisch gezogen worden zu sein. Würden alle ihre GTX 970 zurückschicken, dann würde es keine Karten dieser GTX 970-Klasse mehr geben und NVIDIA würde sich bei allen Beteiligten in aller Form entschuldigen und eventuell sogar eine Wiedergutmachung leisten. Stattdessen bekommen die Leute eben das, was sie sich verdienen. Hohn und Spott von NVIDIA...
 
Thunderburne schrieb:
Das einzige was derzeit von den Programierern berücksichtigt wird ist die Leistung der Konsolen daraus ergibt sich zum über wiegenden Teil der Speicherbedarf für den PC wo dann noch mal im Nachgang zusätzliche Bildverbesserer nachgereicht werden.
Und im jetzigem Stadium ist der Speicher der Konsolen noch nicht ausgereizt wieviel Speicher die Konsolen haben wissen wir ja alle.

Ja, das stimmt, aktuell ist es noch so, das die neuen Konsolen (XBOX One & PS4) mit ihren 8GB Shared Memory den Speicherbedarf vorgeben und der PC z.Z. etwas hinterherhinkt. Aber ich glaube, das wird sich bald wieder ändern. Grundsätzlich müssen aber immer entsprechende Anpassungen vorgenommen werden, wenn man von Konsole auf PC portiert. Immerhin müssen auch leistungsschwächere PCs mit wenig(er) VRAM das jeweilige Spiel flüssig zum laufen bringen können. Man würde sich sonst potenzielle Käufer mit leistungsschwächeren Systemen vergraulen. PC-Versionen müssen daher ein relativ breites Spektrum abdecken, während die Konsole eher eine statische Konstante ist. Gerade dieser Aspekt ist bei den Programmierern und Publishern ein wichtiger Punkt, da er sehr konstenintensiv werden kann.

Thunderburne schrieb:
Das die Spiele für 4GB angepasst werden ist Blödsinn hoch 10.

Beim PC wird nicht nur auf 4GB optimiert bzw. wird auch nicht aufs MB genau angepasst! Es muss, wie gesagt ein breites Spektrum abgedeckt werden, das nicht nur was den Speicherbedarf betrifft. Aus diesen Grund gibt es beim PC entsprechende Menü-Optionen, wo man die Anforderungen des Spiels an seine Hardware anpassen kann. Wenn die optimalen Systemanforderungen 4GB VRAM nennen, kann man davon ausgehen, dass das Spiel auch dahingehend angepasst wurde und man mit dieser Speichermenge auch ein optimales Spielerlebnis genießen kann.

fdsonne schrieb:
Auf der einen Seite ergibt das durchaus Sinn, aber auf der anderen Seite vergisst du ein paar Sachen in der Betrachtung...
Bspw. DWM -> mein default VRAM Verbrauch, rein Windows 7 inkl. Aero liegt bei mir bei fast 500MB. Warum? Weil ich drei Screens nutze. (3x FHD, stand heute)
Ein Anderer kommt vielleicht mit nur einem einzigen FHD Screen um die Ecke und kommt da mit ~150MB aus, der nächste schleppt 3x UHD an und frisst nochmal deutlich mehr wie 500MB.
Wir sprechen hier gerade mal von ~15% Unterschied (3,5GB vs. 4GB), der in der Praxis einfach nicht der Indikator zwischen Spielbar und nicht Spielbar ausmachen kann... Schon allein durch die unterschiedliche Hintergrundbelastung von DWM kann/muss ein jeder Spieleentwickler mit Reserven kalkulieren, sofern er überhaupt sowas tätigt.

So kompliziert wollte ich da gar nicht denken. Natürlich haben die von dir genannten Faktoren alle einen Einfluss auf die Speicherbelegung. Nur werden auch für jedes Programm (Spiel) allgemeine Systemvorausetzungen seitens des Herstellers genannt, bei denen auch sämtliche (Hintergrund-)Anwendungen geschlossen sein sollten. Sollte doch selbstverständlich sein, dass ich kein Spiel starte, wenn 50 weitere Anwendungen bei mir im Hintergrund noch mitlaufen. Videomaterial encode ich schließlich auch nicht unbedingt zur gleichen Zeit wenn ich zocken will. Bleiben wir deshalb der einfachheitshalber bei einer typischen 1 Monitor Full-HD Konfiguration.

fdsonne schrieb:
-> denn das ist der zweite Punkt, das wird Keiner so explizit auf absolute Menge kalkulieren Du kannst nicht mal eben so, bis auf fast das MB genau dein Spiel hin texturieren... Schon allein deswegen nicht, weil es eben A) nicht nur Low/Middle/High als Einstellung gibt, sondern andere Faktoren da ebenso mit rein spielen. Die Auflösung als solches hat zwar heute nur wenig Einfluss, aber spielt dennoch mit rein bspw. auch mögliche AA Settings, ebenso wie mögliche GPGPU Tasks (TressFX, PhysX per GPU oder andere Geschichten)
Zumal auch nicht der Entwickler = Programmierer des Spiels dafür zuständig ist, die Texturen zu erstellen oder zu verändern Die Grafiken kommen idR aus der Abteilung "Gruppe bunte Bilder" -> und das irgendwie auf Anforderung. Wärend dazu noch eine dritte Gruppierung für das Leveldesign selbst zuständig ist. Klar kann man immernoch feststellen, OK, wie brauchen zu viel Speicher, wir müssen runter. Aber die Texturen selbst sind ja oftmal mehrfach in Verwendung. Mal ebenso ein paar davon niedriger auflösen ist da nicht so einfach...

Auch hier alles korrekt, nur etwas zu sehr verkompliziert. Bleiben wir mal nur bei den Texturen, da diese überwiegend für die Auslastung des Videospeichers verantwortlich sind. Natürlich wird man nicht auf das Megabyte genau optimieren wollen/können. Man wird wohl für jede Einstellung (Niedrig/Mittel/Hoch) in einen bestimmten Bereich bei der VRAM-Belastung bleiben wollen. Meinetwegen, wenn die Einstellung für "Hoch" 4GB lautet wird man wohl versuchen diese im gesamten Spielverlauf nie zu überschreiten. Sagen wir mal die VRAM-Auslastung beträgt dann je nach Levelgegebenheiten zwischen 3,2GB und 3,8GB. Auf jeden Fall, sollte eine Optimierung darauf den VRAM nicht zum überlaufen bringen. Wenn man nun auch die 3,5GB VRAM der GTX970 nimmt, erkennt man auch das es hier Probleme geben könnte. Man müsste also eine Stufe runter und auf "Mittel" reduzieren.

fdsonne schrieb:
Der dritte Punkt, das Speichermanagement von AMD und NV sind unterschiedlich... Wenn auf der NV Karte xxx MB belegt sind, heist das nicht automatisch, dass bei der AMD Karte dies ebenso viel sein muss. Schon allein durch unterschiedliche Komprimierungsverfahren kann das anders sein, ebenso durch andere Routinen, die der Treiber fährt um alten Mist rauszukehren.
ATI/AMD Karten galten/gelten allgemein eher als sparsam in der VRAM Belegung Obwohl das im Grunde eher ein Irrglaube ist, denn ungenutzter Speicher ist einfach unsinnig...
Musst mal in HisN seinem 512MB VRAM Thread hier suchen, da hab ich vor xx Jahren mal Messungen mit Anno 1701 gemacht. Anno 1701 ist ein Paradebeispiel dafür, wie man VRAM Managment nicht betreiben sollte Damals war das bei mir glaube ich eine HD4870 512MB -> du scrollst auf eine Insel, der VRAM wird gefüllt mit notwendigen Daten -> du scrollst von der Insel aufs Wasser -> der VRAM wird geleert -> dann scrollst du auf die nächste Insel, der VRAM wird wieder gefüllt.
Das gleiche Spiel, gleiche Settings auf ner NV Karte -> du scrollst auf eine Insel, VRAM wird gefüllt, du scrollst auf das Wasser -> VRAM bleibt gefüllt, du scrollst auf die nächste Insel -> VRAM füllt sich weiter (je nachdem, ob gleiche Klimazone = gleiche Texturen oder andere Klimazone = andere Texturen)
Ein Entwickler müsste also das Speichermanagement jeglicher Hardware kennen und explizit darauf sein Spiel ausrichten -> unsinn, viel zu viel Arbeit für nix.

Also wenn nVidia hier noch zusätzlich komprimieren möchte, dann würde ich mal behaupten ist das deren Sache und dementsprechend auch Treibersache. Muss ich da als Spieleprogrammierer unbedingt drauf Rücksicht nehmen? Solange meine Texturen in der jeweiligen VRAM-Vorgabe bleiben, muss daran eigl. nicht mehr viel dran gearbeitet werden. Was der Treiber dann damit macht, sollte dann keine große Rolle mehr spielen, denke ich.

fdsonne schrieb:
Der vierte Punkt ist, die Art von Spielen ist extrem unterschiedlich. Du hast, wenn es von den alten Konsolen portiert wurde, häufig ein Schlauchlevel Prinzip. Das ist ein ziemlich günstiges Unterfangen für den Entwickler, Daten in den Speicher vorzuladen. Denn der Spieler kennt idR nur einen Weg -> nämlich dem Schlauch entlang. Mit diesem Prinzip kannst du bequem während der Fahrt später notwendige Daten nachziehen und ältere Daten rauskegeln. Sogar vom Spiel selbst initiert ohne auf den Treiber zurückgreifen zu müssen.
Völlig anderes Prinzip -> Open World Titel. Da kannst du gar nix vorhersagen... Der Spieler kann nach Norden, Süden, Westen oder Osten gehen. Je nachdem in Häuser oder in den Untergrund usw. usf. Um so deteilreicher das Spiel, desto unterschiedlicher die Texturen. Und um so unterschiedlicher die Texturen, desto mehr absolute Menge wird es sein. Gut funktionierendes Speichermanagement ist absolute Pflicht...

Ja, absolut. Open-World Titel sind ja i.d.R auch immer sehr Speicherhungrig. Um die Titel dann in der VRAM-Auslastung zu zähmen, wird dann u.a. auch immer gerne an der Sichtweite geschraubt.

fdsonne schrieb:
Unterm Strich?
Der Entwickler wird idR sein Spiel nicht auf absolute VRAM Menge hin optimieren können. Nicht wegen dem unterschliedlichen Management, nicht wegen verschiedenen Prinzipien der Spiele usw. Ein Spiel wird das an Daten benötigen, was es während der Laufzeit benötigt. Entweder es passt, oder es passt nicht... In letzterem Fall bist du im VRAM Limit. Ob die Menge potentiell nutzbarem VRAMs nun bei 3,5GB liegt oder bei "geraden" Zahlen, ist dabei nebensächlich. Wichtig ist, während der Laufzeit darf bzw. sollte nicht mehr Speicher belegt werden, als frei verfügbar ist. Und wenn doch, dann sollte es explizit getrennte Level/Abschnitte/Zwischenszenen oder ähnliches geben. Oder das Spiel MUSS so derart intelligent Daten nachziehen können, dass es unbemerkt vom Spieler geschieht.
Dazu kommt der unwesentliche Unterschied von 3,5GB zu 4GB -> da kräht in ein paar Monaten kein Hahn mehr danach, genau so wenig wie zum Release der GTX 680/HD7970 kein Hahn mehr danach gekräht hat, ob die 1,25GB der GTX 570 genug waren oder ob es lieber die 1,5GB der GTX 480 sein sollen -> beide Fälle waren zu dieser Zeit am Limit bzw. oft auch drüber. Und ob nun 10 Nachladeruckler oder 15? Völlig ega, schon der erste trübt den Spielspaß ungemein...

Naja, bei der GTX970 sehe ich den Unterschied schon als wesentlich an. Wie gesagt, wenn ein Spiel mit der Empfehlung von 4GB daherkommt, dann sehe ich da schon die Möglichkeit von Nachladeruckler bei nur 3,5GB. Im Prinzip auch nur logisch. Unspielbar muss es deshalb ja nicht gleich werden, nur eben ein nicht wirklich optimales Spielerlebnis.
 
Zuletzt bearbeitet:
Wann kommen die denn endlich. Diese Funkstille ist ja nicht auszuhalten.
 
Morgen. Stimmt, is in letzter Zeit sehr ruhig geworden mit Infos zur neuen 300er. Ich wollte mal wieder das Lager wechseln, wenns Preis-Leistungsverhältnis stimmt.

Gesendet von meinem LG-E975 mit der Hardwareluxx App
 
Infos über die GM200 Pläne könnten auch kommen auf der GDC.
Auch wen nur offizielle Infos über Titan geben würde wäre ich schon zu Frieden.
 
Moin,

ich habe mal die 5 Seiten überflogen, da ich auch zu den Ex 970 Kunden gehöre.

Insgesamt ist die Stimmung hier so das alle denken das die neue ATI Karte min. 500,- oder mehr kosten soll.

Wie war das denn bei der vorigen Generation?

Hatte mich die letzten Jahren zurück gezogen, weil die gloreichen Zeiten wo es noch jedes Jahr nahezu 100% Mehrleistung gab vorbei sind.

Bin jetzt von einer 660Ti auf die 970 umgestiegen, da es sich da endlich mal wieder gelohnt hat.
Nun habe ich nach der Ram-Gate Sache wieder eine 7600GS im PC :d

Da läuft nichtmal nen HD Film so 100% flüssig, also muss wieder ein Ersatz in Rechner!

Ich habe seit Jahren ne WaKü am laufen was die Auswahl zusätzlich noch erschwert.

Die Frage die sich für mich nun stellt ist ob sich das warten auf die 3XX Chips überhaupt lohnt.
500€ wollte ich eigendlich nicht ausgeben. Dazu kommen ja auch immer noch 100€ fürn Wa-Kühler
 
Die Frage stellte sich mir auch.
Von einer leider kaputten GTX 670 zu einer übergangs 270x , dann zur GTX 970 weil es in meinen Augen die Perfekte Karte war.
Und jetzt dank der ganzen Problematiken und eines guten Deals zur 290x mit 8 GB :fresse:

Hatte auch erst angedacht auf die 3xx Chips zu warten, mir dann aber vor Augen gehalten das die 290x sicherlich noch lange hinreichen wird, und darüber hinaus die darauf lohnenden Chips sicherlich nicht unter 500 zu haben sein werden.

War es in der Vergangenheit meist so das aktuelle Highend Chips in der next Gen dann höhere Mittelklasse sind die um die 3-350 verkauft werden.
So werden dann die dann aktuellen Karten bei ~ 500 liegen bei meist nur 15-20 FPS mehr leistung gegenüber der alten Highend Karte...

Natürlich nur Erfahrungswerte.
 
@Back2Soul

naja also 15-20 fps können schon ein großer Unterschied sein. Läuft das eine Spiel mit 60 fps auf der alten Karte und auf der neuen dann mit ~80 fps sind das 33% Mehrleistung...das ist schon nicht zu verachten und durchaus ein Unterschied.
 
Sind eher 15-20%.
Ich schätze durch den Einsatz von HBM vielleicht 10% und rund 10% durch etwas mehr Takt (10%) bei hoffentlich weniger Verbrauch (Feintuning von AMD/ wie Nvidia damals bei Fermi)
Dann hätte man rund 20% mehr Leistung als eine 290X. Aber das ist nicht viel! Das deaktivieren von AA bringt meist mehr.
 
Ja genau das wars ja, die 970 war die perfekte Karte.
299,-€ dazu passte der WaKü der 670/760 Grakas was ein nochmal 100€ spart.
Wenig Stromverbrauch und endlich ein Upgrade mit 80-180% mehr Leistung je nachdem welches Spiel man berücksichtigt gegen über meine 660Ti

Da die Karte eine Investition in die Zukunft war kann ich dieses Ram Desaster gar nicht gebrauchen.

Man muss es ja so sehen die Konsolen haben 8gb Ram da seit Jahren die Konsolen die Leadplattform sind und nur für PC nachgebessert wird, wird es sehr schnell so sein das die PC Games auch die 8gb fordern.
Ich finde ja das Evolve schon sehr schön zeigt wo der Weg hin geht.
Ob das nun schlecht programmiert ist sei mal dahin gestellt, aber es ist ja so das kaum ein Spiel richtig optimiert wird.

Jedenfalls bin ich in moment richtig angesch....n durch die 970 Sache.
Die R9 290X sind dadurch eher noch im Preis gestiegen.
 
Hatte auch erst angedacht auf die 3xx Chips zu warten, mir dann aber vor Augen gehalten das die 290x sicherlich noch lange hinreichen wird, und darüber hinaus die darauf lohnenden Chips sicherlich nicht unter 500 zu haben sein werden.

Zumal es nicht viel neues geben wird ( nahe zu nix) von der 290x zur 380er.
 
Na wenn die neuen nicht übermäßig besser werden, dann such ich mir auch nen gute 290X.

Gesendet von meinem LG-E975 mit der Hardwareluxx App
 
Bei mir ist jetzt noch mal was anderes da ich ne 8GB Karte habe, soll heißen, selbst wenn die neue Gen kommt, und das nichts "weltbewegendes" ist, hab ich noch in aller ruhe die Möglichkeit günstig eine 2te zu zu stecken und bin auch auch Speicher Technisch wohl nie am Limit... in diesem Sinne.

@Boogeyman015

Selbstverständlich sind 15-20 FPS (spekulieren wir daraufhin mal weiter) in diversen Fällen sehr wichtig. Wenn ich in einem Game nur 40 erreiche freue ich mich wie bolle wenn ich dann 60 habe, völlig klar.

Aber mal im ernst... wenn ich jetzt eine "normale" 4GB 280x um die 320 € kaufe, und hätte dieses beschriebene Szenario, will mir dann jemand sagen das diese 15-20 FPS einen mehrpreis um 180€ rechtfertigen , wenn bei der Annahme der 500€ bleiben.

Wobei die Rechnung dann ja noch eine andere ist, denn den Neupreis wirst ja nie beim widerverkauf kriegen, also wird die "reale" Preis Differenz für die Leute die wechseln wollen noch höher sein.

Lass sie ihre Karten gebraucht für um die 280 abgestoßen kriegen , so wären das schon 240 Aufpreis für 15-20 FPS.

Das würde mich dazu bewegen die Gen zu überspringen und nötigen Falls günstig eine 2te Karte ins Sys zu stecken.

Natürlich darf man nicht vergessen das dass jetzt reinste Spekulation ist.
Für mich als 8GB Käufer ist der Fall dann noch mal unrentabler.

Aber wenn es so ist, wie es bisher immer wahr, wird die Spekulation nicht soweit entfernt von der Realität sein.

Und wenn dann auch auf Technischer Ebene nichts wirklich lohnenswertes kommt... tja, rückt die 2te Karte immer näher ;)

Wobei ja auch die 290x voll DX12 fähig sein soll ?! Was diesen Punkt angeht bin ich mir da immer noch nicht ganz sicher.
Aber selbst wenn nicht. Bis flächendeckend DX12 Titel am start sind wird auch wieder entsprechend dauern, da dürfte man dann eh in der 4xx Zeit angekommen sein.
 
Zuletzt bearbeitet:
Bilder sagen mehr als Worte.

DSCF4213.jpg


Sapphire R9 290X Vapor X 8GB Crossfire Review | KitGuru - Part 2
 
OK, mir sagt das Bild nun gar nix.
ATI Karten haben mich seit min. 13 Jahren nicht mehr interessiert:d
 
Man sieht doch das die VRam´s um die GPU herum angesiedelt sind. Die sehen bei NV genauso aus :fresse:

;)

Aber..... *seitenhieb geb* man merkt das du dich mit ATi Karten so lange nicht mehr beschäftigt hast.
Macht auch wenig Sinn, daher gut das du dich für eine AMD interessierst :shot: :wink:
 
Naja du verstehst mich falsch, das Foto verrät mir nicht ob auf der Rückseite der Karte noch Rams verbaut sind.
Ich sehe da nur die 16 Module die auch das normal 4gb Ref. Modell hat.

Auf der Testseite ist die Backplate auch nicht abmontiert worden. Von daher bringt mir das Bild da nicht wirklich was :(

Und ja ich weiß auch das ATI nun AMD ist :P
 
sorry da habe ich dich wirklich falsch verstanden.

Genau werde ich dir das morgen sagen können, da sollte meine 8GB Tri-X eintrudeln.
 
sorry da habe ich dich wirklich falsch verstanden.

Genau werde ich dir das morgen sagen können, da sollte meine 8GB Tri-X eintrudeln.

Sauber, ich erwarte dann deine Antwort :)
Habe eben schon nach MSI 8gb PCB's gesucht
MSI Announces Radeon R9 290X Gaming 8GB Graphics Card | techPowerUp

Könnte vielleicht WaKü tauglich sein.
Bei 380€ kosten vielleicht ne nette Alternative zur R9 380/390 die ja laut Gerüchten auf den selben Chip basieren wie die R9 290

Obwohl ich lieber Nvidia haben wollen würde bezweifel ich das schnell genug die 1070GTX auf den Markt kommen wird.
 
Immerhin findet man von der MSI Bilder "von hinten" :fresse:

Die einzigen Pics die ich bisher von der Tri-X "von hinten" finde sind die der 4GB Version.

Da sie aber kein Backplate haben soll wird sich das morgen dann definitiv geklärt haben :)

Ich hab ne popelige ( ;) ) H105 auf der CPU sitzen daher hat mich das Thema Graka Wakü nicht sonderlich interessiert zwecks der VRam Anordnung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh