GM200 und R9 300er

Folgt man den bisherigen Spekulationen, könnte AMD sich das neue Flagschiff schon königlich bezahlen lassen. Warum? Einfach weil man es sich in der gegenwärtigen Lage leisten könnte. Um die 700,- Euro für den Vollausbau, halte ich nicht für ausgeschlossen. Kommt ganz darauf an wie aggressiv AMD hier den Preis ansetzt.

Für um die 500,- Euro könnte es die teildefekte R9 390 (non-X) geben, die dann gegen die GTX980 antritt.

Mein persönlicher Knackpunkt wäre eher der Speicher. Was will man mit einer noch schnelleren Karte wenn nur wieder 4GB drin sind. Für 1080p oder 1440p dürfte eine Single 970/980 wohl gut genug sein und da die normale R9 390 als Konkurrenz platzieren dürfte in Ordnung gehen. Aber für eine R9 390X mit nur 4GB finde ich einfach kein Gegenwert von 700€ was nicht auch nen billigeres Sli7Crossfire Gespann liefern kann.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Grund wieso das damals ging, war ja nur dass AMD die Nachfrage an 290ern nicht anders decken konnte.
Hoffentlich klappt das diesmal besser!

OK, das wusste ich noch nicht, dass das mit der R9 290 auch noch möglich war. Hab da eher an frühere Zeiten gedacht...

Wenn das so war, dann hoffe ich aber nicht, dass AMD dies nun besser hinbekommt! ;)
 
390 und 390x werden höchstwahrscheinlich beide mit identischem speicher erscheinen

Das schon - denke aber dass der Chip diesmal deutlich stärker beschnitten wird als das bei der 290 vs 290X der Fall war (wo die Leistungsdifferenz oft bei wenig über 5% lag). Amd muss auch im etwas annehmbaren Preisbereich etwas gutes bringen.
 
R9 290 war anfangs auch mit 40% Lüfter offiziell weitaus langsamer als R9 290X
Mit OC sollte dies wohl eine Granate werden, und da NV den Preis der GTX 770 senkte würde der Takt von 662 Mhz auf 947 Mhz angehoben (40 zu 47% Lüfter)
 
Hauptsache AMD bietet die neuen Karten auch schnell mit 8GB an, weil die 4GB werden auch nicht mehr Lange halten, kann man befürchten.
Und Nvidia dürfte auch langsam auf 8GB wechseln.
Da die 3,5GB der 970 schon hier und da eng werden, in FullHD ohne AA. Es gibt schon ein paar wenige Spiele, die die 4GB der 290X und der 980 fast komplett voll machen in FullHD.
Das Ziel sollte doch so langsam mal Richtung 4K gehen.
 
Die 3,5 GB der 970 werden aber auch nur eng, weil sie 4GB hat und die Spiele das versuchen auszunutzen. Ob man wirklich mehr braucht kann man mit einer 290x 4 vs 8GB testen. Kommt es zu starken Frameeinbrüchen und Rucklern, ja dann sind wohl die 4GB zu wenig.

Aber nur weil sich spiele am kompletten RAM bedienen, braucht man ihn nicht zwingend. ;)
 
Und Nvidia könnte den letzten Bereich komplett sperren. So wie es in ein paar Spielen schon ist!
 
Das Problem an der Sache ist ja nicht der Speicher der zu wenig ist. Das Problem ist einfach, dass die meisten Spiele wirklich mies optimiert werden.
Wuerde jedes Spiel richtig gut optimiert werden, dann bin ich mir sicher, dass 4GB noch lange halten wuerden.
Nur weiss leider keiner, wie die zukuenftigen Spiele angepasst werden...das ist auch der Grund, wieso ich mir momentan keine GTX 980 holen moechte.
 
@derneuemann
Dieser Gedanke kam mir auch.


@Boogeyman015
Wenn wir Glück haben, schafft es jemand
die Texturen andersartig zu komprimieren um
somit den vorhandenen Speicher effektiver zu nutzen.
 
Naja, es gibt schon Spiele mit guten Texturen die nicht so viel Speicher brauchen. Aber leider werden immer mehr Daten in den VRAM geladen.
Das sich das nochmal ändert glaube ich nicht, es wird eher schlimmer. Beim nächsten Wechsel nach oben, kommt nichts unter 6-8GB in meinen Rechner. Hersteller ist mir dabei egal, aber lieber wäre mir AMD. Aber nicht wegen den aktuellen Unruhen, sondern einfach weil nur Konkurenz den Markt belebt.
Bitte, ein neuer Fertigungsprozess und 8GB bei rund 200W.
 
Sieht ja nach Aktuellen Daten nicht nach 8GB aus bei AMD .
Da wird einem wohl nur der GM200 mit 6GB bleiben .
Hoffe nur das es den dann gleich im Vollausbau gibt und mit Maximal 700 Euro.
 
Der GM200 interessiert mich nicht so sehr. Bestimmt wieder Richtung 250W und steigend. Ich werde wohl länger warten, müssen. Aber das kann ich immer so schlecht ;).
 
Die 3,5 GB der 970 werden aber auch nur eng, weil sie 4GB hat und die Spiele das versuchen auszunutzen. Ob man wirklich mehr braucht kann man mit einer 290x 4 vs 8GB testen. Kommt es zu starken Frameeinbrüchen und Rucklern, ja dann sind wohl die 4GB zu wenig.

Nicht wirklich. Das Problem bei der 970er besteht nach wie vor darin, dass man trotz gewissen Settings und in gewissen Titeln versucht, die 3,5GB zu halten, obwohl diese Einstellungen/Spiele entsprechend gern mehr VRAM wollen würden. Das Verhalten hat dabei aber nichts mit den physischen 4GB zu tun.
VRAM Management ist Treibersache. Schon seit ewig und drei Tagen ist das so und nicht erst seit der 970er ;)

Am ehesten kannst du das mit der Auslagerungsdatei von Windows vergleichen. Windows entscheidet, was für Daten im RAM behalten werden, wenn es mal "eng" wird... Was Windows aber nicht wissen kann, weil es unmöglich vorherzusehen ist, was du als Nutzer als nächstes machst.
Da reicht es bspw. schon, wenn Windows der Meinung ist, deinen offenen Firefox mit sagen wir 1GB RAM Verbrauch, weil dieser nun schon ein paar Minuten minimiert in der Taskleiste schlummert, in die Auslagerungsdatei zu schieben -> 3min holst du Firefox wieder hoch und es ruckelt.
Ein analoges Verhalten spielt sich beim VRAM der GPU ab. Der Treiber entscheidet idR, welche Daten wann rausfliegen oder wie lange drin behalten werden. Und das Hauptproblem hängt einfach davon ab, wie viele Daten werden im Endeffekt innerhalb gewisser Zeitspannen benötigt. Da obendrauf kommt noch die Änderungsrate. Szene A) mit 3GB VRAM Bedarf und Szene B) mit ebenso 3GB völlig anderen Texturen wird ein Ruckler erzeugen, wenn eine Messung über beide Szenen hinweg getätigt wird. Eine Karte mit sagen wir 8GB VRAM wird spätestens im zweiten Durchlauf aber die Daten noch im VRAM haben -> und ohne Ruckler auskommen. Eine Karte, die das nicht abdecken kann, weil zu wenig VRAM, wird IMMER Ruckler erzeugen, wenn auf einen Schlag derart viele anderen Daten benötigt werden.

Bei Spielen ist es idR so, dass die Masse der Datenmenge von den Texturen kommt. Und hier ist es einfach eine Frage dessen, was wird innerhalb der Laufzeit des Spiels an absolute Menge benötigt. Das Spiel fordert vereinfach gesagt die Daten an -> sie landen in den VRAM und das geht bis zu dem Punkt, wo der Treiber sagt, ne, mehr Platz ist nicht vorhanden, wir müssen vorher alte Daten loswerden. -> kommst du an dem Punkt, bist du an der aller ersten (idR noch verschmerzbaren) Phase der VRAM Limitation. IdR ist dies aber noch eher unkritisch, weil die Menge der Datenänderung häufig nicht so riesig ist, dass man dies während der Laufzeit nicht nachladen/austauschen könnte.
Merkbar/Spürbar für den User wird es an dem Punkt (Stufe 2 der VRAM Limitation), wenn die Menge so groß wird, dass die Karte ihre Frames nicht schnell genug raushauen kann, weil sie auf die Texturdaten warten muss, die noch nicht im VRAM vorhanden sind. -> Nachladeruckler. Wo die Daten allerdings her kommen, ist völlig uninteressant. Der PCIe Slot ist mit ~16GB/sec noch langsamer als der langsame Speicherteil der 970er.
Die letzte und höchste Stufe der VRAM Limitation (3) ist, wenn die Karte für die darzustellende Szene mehr Daten benötigt, als physisch in den VRAM passen. Dann fällt die FPS Rate dauerhaft auf unspielbarkeits Niveau.

Das die 970er nun eher einknickt als eine 980er/Hawaii GPU, liegt also einfach daran, das absolute 3,5GB weniger sind als absolute 4GB. -> die letzten paar MB bringen am Ende der 970er effektiv nix, weil sie zu langsam angebunden sind. Das Problem, was nach wie vor allerdings besteht, absolute 4GB sind einfach nur ~15% mehr -> und das ist im Grunde unwesentlich mehr.
Die Videos bei CB bspw. belegen, dass die 4GB der 980er ebenso am Limit sind -> und schon in VRAM Limit Stufe 1 angekommen sind. Zumindest in den Settings, wo die 970er massiv aus dem Tritt kommt.
Heist unterm Strich, die 3,5GB der 970er werden nicht eng, weil man 4GB verbaut hat. Sondern viel eher, weil die Settings und Spiele die Karte dazu zwingen, mehr Daten zu nutzen, als in 3,5GB rein passen. :wink: -> das kann dir nur bei absoluten 4GB ebenso passieren. Bzw. wird dir das bei absoluten 4GB ebenso passieren. Nämlich bei noch einem Tick höheren Settings... Oder höher aufgelösten Texturen usw. usf.

Das Problem an der Sache ist ja nicht der Speicher der zu wenig ist. Das Problem ist einfach, dass die meisten Spiele wirklich mies optimiert werden.
Wuerde jedes Spiel richtig gut optimiert werden, dann bin ich mir sicher, dass 4GB noch lange halten wuerden.

VRAM Verbrauch kommt in erster Linie von hochauflösenden Texturdaten... Da lässt sich wenig bis nix optimieren. Klar, man könnte versuchen durch bessere Kompression möglichst Verlustfrei gleiche Texturqualität in weniger absolutem Speicherplatz unterzubringen. Aber das wird idR nicht viel bringen. Die Hersteller wenden schon Kompressionsverfahren an. Ist also nicht so, dass man das nicht schon optimiert ;) Und Kompression hat auf der anderen Seite auch noch den Nachteil, dass man ggf. GPU Power dafür aufbringen muss, die komprimierten Daten wieder "auszupacken" um sie nutzen zu können. Und andersrum, wird irgendwo Rechenpower notwendig um die Daten überhaupt erstmal zu komprimieren. -> und das ist Echtzeit, wenn diese angefordert werden.
Rein von der Spielseite her kannst du da wenig machen... Es sei denn, du verzichtest auf HighRes Texturen. Aber da will faktisch keiner. ;) Zumindest nicht auf dem PC, denn dann kannst gleich zu Konsolen greifen.
Das was von der Spielseite her geht, sehen wir auch heute (leider) schon auf den PC Spielen, die portiert wurden... Da baut man die Welten anch Schlauchlevel Prinzip mit dem Vorteil der fehlenden Weitsicht -> weniger Texturdaten notwendig. Dann gibts noch die Tiefenunschärfe, was ebenso Texturen spart, weil man A) deutlich niedriger auflösen kann und B) ganze Bereiche nicht unbedingt voll texurieren muss.
Das Problem dabei ist weniger, dass unter diesen Gesichtspunkten dem PC die Optimierung dafür fehlt... Denn der PC kann aus dem Schlauchlevel nicht auf einmal eine OpenWorld machen...
 
Top geschrieben, ich hab soweit alles verstanden:).
 
Der GM200 interessiert mich nicht so sehr. Bestimmt wieder Richtung 250W und steigend. Ich werde wohl länger warten, müssen. Aber das kann ich immer so schlecht ;).
Dan wird es wohl ne 4GB Karte werden wenn du nicht warten kannst.
So wie ich bisher verstanden habe ist mit HBM erst Ende 2015 Anfang 2016 zu rechnen da mit auf 8GB aufgestockt werden kann.
Der Fade Beigeschmack ist das in 2016 dann wahrscheinlich wieder next Gen ansteht.
 
Ich sag ja, eine GTX 980 Ti mit 6GB Ram und vielleicht noch 10-20% Mehrleistung fuer 600-700€ waere sehr geil...obwohl das natuerlich ne Hausnummer von Preis ist...aber fuer mich waere dann auch erstmal fuer mindestens 2 Jahre ruhe.
Ich will einfach hoffen, dass AMD schnell seine Karten raushaut...ich hab echt keine Lust auf noch ein paar Monate warten.
 
Bis auf die 390(X) sind es ja eh keine neuen Chips wenn ich das richtig verstanden habe. Da frage ich mich was da noch gehn soll, übertakten die die Dinger einfach nochmal so wie viele User es ja schon machen dann wird es auch keine besseren Verbrauchswerte geben.
 
Zuletzt bearbeitet:
Ich sag ja, eine GTX 980 Ti mit 6GB Ram und vielleicht noch 10-20% Mehrleistung fuer 600-700€ waere sehr geil...obwohl das natuerlich ne Hausnummer von Preis ist...aber fuer mich waere dann auch erstmal fuer mindestens 2 Jahre ruhe.
Ich will einfach hoffen, dass AMD schnell seine Karten raushaut...ich hab echt keine Lust auf noch ein paar Monate warten.

Ich glaube nicht das es eine 980Ti gibt vom Namen her weil es vom GM 200 auch einen Chip geben wird im nicht Vollausbau.
Da wird bestimmt eine neue Bezeichnung herhalten.
 
Zuletzt bearbeitet:
Bis jetzt ließt man ja nix über die Zahlen bei NV, oder?

GTX 1080 klingt irgendwie komisch.
GTX X80 ebenso...
 
Bis jetzt ließt man ja nix über die Zahlen bei NV, oder?

GTX 1080 klingt irgendwie komisch.
GTX X80 ebenso...

Ne über die Bezeichnung gibt es noch nichts.
Aber rein Theoretisch ausgehend von 3072 Shadern wären ja 3 Ableger möglich oder denkbar .
Auch 5GB Karten wären möglich bzw .müsste man sehen wies sich dan effektiv bei 320 bit verhalten würde als Beispiel mal die GTX 970 genannt.
 
Zuletzt bearbeitet:
Wird bestimmt wieder ein fancy name um die Kauflust anzuregen.

" GTX Platinum-Ultra-black-2000-Ti Kingpimp-biatch edition "
 
Ich finde die momentane Namensgebung eher abstoßend; bei allen Hardwarefirmen. Kryptisch und unsexy.
 
Nicht wirklich. Das Problem bei der 970er besteht nach wie vor darin, dass man trotz gewissen Settings und in gewissen Titeln versucht, die 3,5GB zu halten, obwohl diese Einstellungen/Spiele entsprechend gern mehr VRAM wollen würden. Das Verhalten hat dabei aber nichts mit den physischen 4GB zu tun.
VRAM Management ist Treibersache. Schon seit ewig und drei Tagen ist das so und nicht erst seit der 970er ;)

Ist das nicht etwas widersprüchlich was du da schreibst ?
Wenn die physischen 4GB nichts mit dem Verhalten der Spiele zu tun hat, warum versuchen es die Engine der Spiele überhaupt ?
Ist es nicht eher so, weil die Karte mit 4GB spezifiziert ist, will die Engine auch diese 4GB voll nutzen. Bei Karten mit weniger VRAM stellt sich die Engine auch darauf ein und macht das Spiel trotz weniger VRAM gut spielbar.

Nur bei der GTX 970 muss nun der Treiber der Grafikkarte eine künstliche Sperre einrichten und somit die Engine der Anwendung(Spiele) beim Versuch die 4GB zu nutzen, jetzt aus bremsen. Erst wenn der Treiber es nicht mehr schafft, weil es einfach schlicht nicht immer möglich ist wirklich alles abzuhalten, was die Engine will, läuft der Speicher über die 3,5 GB-Grenze hinaus.
Das kann schon zu bedeutenden Problemen im Spielfluss führen und ist sicherlich nicht als harmlos anzusehen.

Heist unterm Strich, die 3,5GB der 970er werden nicht eng, weil man 4GB verbaut hat. Sondern viel eher, weil die Settings und Spiele die Karte dazu zwingen, mehr Daten zu nutzen, als in 3,5GB rein passen. :wink: -> das kann dir nur bei absoluten 4GB ebenso passieren. Bzw. wird dir das bei absoluten 4GB ebenso passieren. Nämlich bei noch einem Tick höheren Settings... Oder höher aufgelösten Texturen usw. usf.

Ähm... Entschuldige nochmals. Nach deiner Logik, sind die 3,5 GB der GTX 970 also kein Problem nur weil sie mit 4GB spezifiziert ist und es sind jetzt also die Programme schuld daran, die die 4GB gerne ausnutzen wollen, die ja eigentlich nicht wissen können, das die GTX 970 ein VRAM-Krüppel ist ? Ergo: würden also die Spiele und Anwendungen bei echten 4GB-Anbindung nicht so problematisch funktionieren.
Natürlich kann man auch die 4GB sprengen. Aber da hilft nun, im Gegensatz zur GTX 970, jetzt auch die Engine des Spiels mit, das es nicht all zu problematisch wird und sträubt sich eben nicht gegen den Treiber.
Habe ich das jetzt richtig zusammengefasst ? Korrigiere mich gerne wenn du willst. :wink:

Ich weiß ja, das man die Logik anderer nicht immer verstehen muss, aber manchmal braucht man echt Hilfe dazu. HELP !
 
Zuletzt bearbeitet:
Das die Spieleentwickler mit so einer "krummen" Speicherzahl von 3,5GB nicht gerechnet haben ist denen ja wohl kaum anzukreiden.

Natürlich versucht man die aktuellen GPU-Gernerationen auszureizen und nimmt dabei sicherlich auch in Kauf, den Speicher bis auf das Maximum vollzuschreiben.


Hier kann dann nur Nvidia abhilfe schaffen, indem sie den Treiber "optimieren", was momentan eher "hüstel" suboptimal verläuft.

Frametimes_1080p_GTX_980_970.png
 
Das schon - denke aber dass der Chip diesmal deutlich stärker beschnitten wird als das bei der 290 vs 290X der Fall war (wo die Leistungsdifferenz oft bei wenig über 5% lag). Amd muss auch im etwas annehmbaren Preisbereich etwas gutes bringen.

Nun, der "annehmbare Preisbereich" ist aktuell mit der Hawaii GPU schon ganz gut gedeckt. Grenada wird dann wohl im gleichen Preisbereich wildern, dabei aber evtl. 5-10% schneller arbeiten. Größere Unterschiede darf man hier wohl nicht erwarten, da Grenada bekanntlich nur ein Rebranding der Hawaii GPU werden soll. Wenn Grenada gleichzeitig auch effizienter werden soll als Hawaii, dann frage ich mich wirklich woher diese Effizienz dann kommen soll. Hawaii ist bereits eine der am dichtesten bepackten GPUs überhaupt. Ob hier noch eine deutliche Steigerung bei der Packdichte möglich ist, die auch wirklich merklich etwas an der Leistungsaufnahme ändert, bleibt doch sehr fraglich. Ohne an noch weiteren Stellschrauben zu drehen, sehe ich das nicht kommen.

Vielleicht werden es bei Fiji XT auch keine 4096 SP, genau wie bei der Hawaii GPU, welche angeblich im Vollausbau 3072 SP beherbergen soll. Vorstellbar wäre dann auch, dass Grenada XT nun mit den vollen 3072 SP der Hawaii GPU daherkommt. Halte ich zwar nicht für sehr wahrscheinlich, aber auch nicht für ausgeschlossen.

Ebenso für nicht ausgeschlossen, halte ich eine Karte mit teildefekten HBM-Speicherbaustein(en). Vorstellbar wäre eine 3GB Karte und teildefekter Fiji GPU, die sich zwischen R9 380X und R9 390 (non-X) einordnet.

Es bleibt also spannend... :d
 
Bis auf die 390(X) sind es ja eh keine neuen Chips wenn ich das richtig verstanden habe. Da frage ich mich was da noch gehn soll, übertakten die die Dinger einfach nochmal so wie viele User es ja schon machen dann wird es auch keine besseren Verbrauchswerte geben.
Wenn sie den Refresh der R9 290 in den neuen Fabs herstellen lassen, dürfte es durchaus etwas Verbesserung geben. AMD hat einige neue Techniken hinzu erlangt seit die R9 290(x) vor knapp anderthalb Jahren zum ersten mal vom Band lief!
Ich gehe davon aus dass die 380(x) bei ~250W Verbrauch (wie der Vorgänger) so getaktet ist, dass sie die GTX 980 erreicht, oder dass sie weiterhin auf etwa 970er Niveau bleibt, aber dafür etwas sparsamer wird ~200W.
 
Wenn sie den Refresh der R9 290 in den neuen Fabs herstellen lassen, dürfte es durchaus etwas Verbesserung geben. AMD hat einige neue Techniken hinzu erlangt seit die R9 290(x) vor knapp anderthalb Jahren zum ersten mal vom Band lief!
Ich gehe davon aus dass die 380(x) bei ~250W Verbrauch (wie der Vorgänger) so getaktet ist, dass sie die GTX 980 erreicht, oder dass sie weiterhin auf etwa 970er Niveau bleibt, aber dafür etwas sparsamer wird ~200W.

Glaube eher an der 980 als an der 970. Die 970 ist auch mit nur 3,5gb ne ziemlich gute Karte welche sich schon wie geschnitten Brot verkauft hat. Die Karte kommt für mein Geschmack einfach zu spät, wer diese Leistungsklasse haben will hat schon eine 970.

Meine These bzw. Wünsche hehe wären.

- Leistungsklasse der 970 mit 4GB aber zum Preis zwischen der 960 und 970 um die recht junge 960 zu kontern.
- Leistungsklasse der 970 zum gleichen Preis aber mit 6GB Speicher

Sollte man die 980 erreichen wird man es vielleicht über den Preis alleien regeln. P/L war die 980 gefühlt einfach Mist. Vielleicht locken dort höhere Margen als sich auf ein Kampf mit der 970 einzulassen.
 
Ist das nicht etwas widersprüchlich was du da schreibst ?
Wenn die physischen 4GB nichts mit dem Verhalten der Spiele zu tun hat, warum versuchen es die Engine der Spiele überhaupt ?

Nein, wieso sollte es? Nach deiner Theorie müsste der VRAM Verbrauch in allen Spielen schlicht und ergreifend IMMER bei der vollen VRAM Größe andeckeln. Was aber nicht der Fall ist.
Nochmal, das Spiel fordert Daten an. Wie viele das sind, hängt vom Spiel und von den Settings ab. Ebenso von den Szenen, die du durchläufst wärend der Laufzeit des Spiels.
Das geht bis zu dem Punkt, wo der Treiber sagt, jetzt ist kein VRAM mehr frei. -> dann fängt der Treiber an, VRAM frei zu machen.

Nur bei der GTX 970 muss nun der Treiber der Grafikkarte eine künstliche Sperre einrichten und somit die Engine der Anwendung(Spiele) beim Versuch die 4GB zu nutzen, jetzt aus bremsen. Erst wenn der Treiber es nicht mehr schafft, weil es einfach schlicht nicht immer möglich ist wirklich alles abzuhalten, was die Engine will, läuft der Speicher über die 3,5 GB-Grenze hinaus.
Nein... Limit ist Limit. Völlig egal, warum das der Fall ist. 3,5GB sind weniger als 4GB. Und wenn die Datenmenge in 4GB passt, aber in 3,5GB nicht, hast du schlicht Nachteile. Das beste Treibermanagement nutzt nämlich gar nix, wenn das Spiel einfach mehr Daten will, als physisch im VRAM ablegbar sind. Und das ist bei der 970er analog zu jeder anderen Karten mit dediziertem VRAM völlig gleich.

Du solltest dich mal mit Programmierung beschäftigen. Als kleiner Hinweis, dann wird dir das Konstrukt auch klar.
Bspw. ist das so, wenn du ein Array bestimmter Größe und bestimmten Typs (Stellvertretend für Texturdaten) definiert, wird dieses Array exakt eine gewisse Datenmenge belegen. Das kannst du jetzt so lange wiederholen, bis dein Speicher voll ist. -> Tritt dieses Ereignis allerdings ein, ist es völlig nebensächlich, ob da xx Menge schnell und yy Menge langsam angebunden verfügbar ist, oder ob im Vergleich nur zz Menge schnell und aa Menge über den PCIe Slot als Flaschenhals ansprechbar ist. -> Das Endergebnis ist einfach in beiden Fällen identisch schlecht! Auch ist es völlig nebensächlich, ob du da nun 3,5GB oder 4GB Speicher verbaut hast. Letzteres wird einig und allein etwas später zu diesem Verhalten neigen. -> wie auch eine echte 4GB VRAM Karte es macht.
Das Speichermanagment fängt in dem Fall nämlich dann an, die Daten auszulagern um Platz freizuräumen.

Ähm... Entschuldige nochmals. Nach deiner Logik, sind die 3,5 GB der GTX 970 also kein Problem nur weil sie mit 4GB spezifiziert ist und es sind jetzt also die Programme schuld daran, die die 4GB gerne ausnutzen wollen, die ja eigentlich nicht wissen können, das die GTX 970 ein VRAM-Krüppel ist ? Ergo: würden also die Spiele und Anwendungen bei echten 4GB-Anbindung nicht so problematisch funktionieren.
Natürlich kann man auch die 4GB sprengen. Aber da hilft nun, im Gegensatz zur GTX 970, jetzt auch die Engine des Spiels mit, das es nicht all zu problematisch wird und sträubt sich eben nicht gegen den Treiber.
Habe ich das jetzt richtig zusammengefasst ? Korrigiere mich gerne wenn du willst. :wink:

Nein, hast du leider nicht... Die Anwendung in Verbindung mit den Settings ist im Grunde IMMER Schuld. Wie oft soll ich das noch wiederholen? Denn einzig die Anwendung definiert, wie viel Speichermenge benötigt wird. In Spielen, wie schon gesagt ist das Problem einfach so, dass du eine gewisse Zeit in den Messungen überbrücken musst. Um so länger die Zeit, desto mehr (vorrangig Texturdaten) werden in den VRAM wandern und auch dort benötigt. Ist der Speicher voll, muss der Treiber auslagern um Platz zu schaffen.

Mit der Engine, mit dem physisch verbauten Speicher usw. hat das einfach nichts zu tun... Die Engine selbst benötigt auch keinen Speicher. Genau so wie die physisch vorhandenen Speichermenge keinen Einfluss darauf hat, wie viele Daten eine Software für ihren Betrieb benötigt.

Vielleicht werden es bei Fiji XT auch keine 4096 SP, genau wie bei der Hawaii GPU, welche angeblich im Vollausbau 3072 SP beherbergen soll. Vorstellbar wäre dann auch, dass Grenada XT nun mit den vollen 3072 SP der Hawaii GPU daherkommt. Halte ich zwar nicht für sehr wahrscheinlich, aber auch nicht für ausgeschlossen.

Das diverse AMD GPUs mehr ALUs verbaut haben sollten als angegeben wurde, wird ja fast für Jede Generation schon spekuliert. Bewahrheitet hat sich davon aber bis dato noch kein einziges Gerücht ;)
Wenn man Hawaii 1:1 weiter nutzt und nur minimal überarbeitet, wirds bei der ALU Anzahl bleiben... Wenn man auf 3072 geht, müsste man auf 48 CUs gehen. Sprich man hätte dann wieder 12 CUs pro SE. Hawaii ist von den Daten her eigentlich 1:1 ein doppelter PitCairn mit 11 anstatt 10 CUs pro SE. Tahiti kommt auf 16 CUs pro SE. Gerüchten zur Folge ein Grund, warum das FrontEnd der Tahiti GPUs etwas überfordert ist/war, war eben die Anzahl der CUs pro SE. Das Konstrukt ist entgegen dem NV Design nämlich nicht dynamisch skalierbar. Mit jedem CU mehr wird die Skalierung etwas nachlassen... Weswegen Tahiti auch mehrfach in der Kritik stand.
 
Zuletzt bearbeitet:
Wird bestimmt wieder ein fancy name um die Kauflust anzuregen.

" GTX Platinum-Ultra-black-2000-Ti Kingpimp-biatch edition "

kann von mir auch auch Galaxy Sabrina Edition oder Maxwell Roxxor Königsnagel FTW heißen oder Gänseblümchen without HBM olol Edition, solang die Power stimmt ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh