AMD zeigt die Radeon R9 Fury X und Nano

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
In diesen Benchmarks recihen sie, in der aktuellen OCGH sind mehr als genug benches wos anders ist, jetzt du ?

Ähm HBM ist schon draußen? dann muss ich mir die neue PCGH holen.. Achja Thrawn, was man erklären wollte wenn du 1000 Autos hast und 1000 Spuren, kannst du eben mehr Daten Zwischenspeichern als wenn 1000 Autos durch 100 Spüren müssen. Nun Verstanden? Und jeder der glaubt die Texturen sind statisch, dem ist eh nicht mehr zu helfen.. Achja Noch eines Mordor IST scheiße Programmiert und verhaut deswegen Ram wie Hulle
 
Die Sache mit dem VRAM ist halt aber, reichen 4GB HBM in 2 Jahren noch für WQHD Spiele mit gigantischen Texturen? Es muss ja nicht 4K sein um den Speicher voll zu knallen.

Die Tahiti Karten waren damals bei Release mit übertrieben Viel Speicher ausgestattet (nix hat mehr als 2GB gebraucht), als dann HighRes Skyrim Mods und neuere Spiele in den 2 Folgenden Jahrene auftauchten, zeigte sich, die Überdimensionierung hat dafür gesorgt, das die Karten deutlich längerer keine Probleme mit Irgendwas haben.
3 Jahre nach Release können die Tahiti Karten auf FullHD (der gleichen Auflösung wie zu Release wo unter 2GB reichten) immer noch Top Spiele auf hohen Einstellungen gut und flüssig darstellen (GTA V geht auf High, bei ca. 2,5GB Speicherverbrauch)


Ich gehöre zu den Leuten die effektiven >6GB GDDR5 Schreien, nicht wegen der Auflösung, sondern wegen der Zukunftssicherheit bei der gleicher Auflösung, aber neuen Spielen!
Texturen ziehen keine gewaltige Leistung, aber ändern sehr wohl was am Aussehen. Der Chip wird in 2 Jahren für WQHD in neuen Spielen reichen, aber der VRAM wird vlt. voll sein.
Und 700 Eruo für eine Grafikkarte die dann keine 2 Jahre hält?

Anderseits kann man nicht wissen wie sich der Speicherverbrauch in 2 Jahren verändert und keiner von uns weiß wie gut HBM nun wirklich ist!
Es kann ja auch sein das HBM so genial ist das man einfach viel Weniger braucht, aber dann hätte AMD wohl die Werbetrommel um HBM noch viel stärker angeworfen!
 
Die Tendenz geht eher in Richtung von verbesserter Komprimierung.
Wenn man sich mal anschaut was mit diversen Videocodecs möglich ist (95% Effizienzsteigerung), dann kann man nur hoffen das dies ansatzweise auch bei den Grafiktreibern umgesetzt wird.
Letztlich hängt das aber auch von der CPU-Leistung ab. Texturen lassen sich aber beispielsweise relativ einfach komprimieren, es sind keine dynamischen Daten.
Sicher, Dinge wie Ambient Occlusion sind dynamisch... aber das sind Layer die sich über den eigentlichen Texturen befinden.

...deswegen sehe ich auch die Lösung bei Shadows of Mordor eher kritisch. Warum sollte man die Ultra-Einstellung nutzen wenn man auf Hoch eine leicht komprimierte Version nutzen kann welche 2GB weniger VRAM verbraucht?
Das ist natürlich nur ein Beispiel, aber man sollte derartige Entwickler nicht in ihrem Denken unterstützen indem man sich GPU's mit 6GB oder 12GB Videospeicher kauft.
Im Gegenteil, man sollte vorerst weiterhin auf 4GB setzen damit solche Entwickler an ihrer Effizienz arbeiten. Witcher 3 kann ich beispielsweise selbst mit den 2GB meiner Geforce 670 auf hohen Details@2K/30 FPS spielen.
 
Zuletzt bearbeitet:
ich habe ja absolut keine ahnung von der technik, wie wahrscheinlich die meisten hier, aber ich könnte mir schon vorstellen, dass durch schnelleres nachladen und geringere latenzen die sache weniger schlimm ist, als wenns 4gb gddr5 wären.

Entscheindend ist nur die Speicherbandbreite und die Speichermenge. Das eine kann das andere nicht ausgleichen, weil es zwei komplett verschiedene Dinge sind. Fiji XT besitzt ein 512GB/s schnelles Speichersubsystem, 60% schneller als das einer R9 290X, welche auf 320GB/s kommt. Beide verfügen aber über die gleiche Speichermenge von 4GB. Der einzige Unterschied besteht also nur in der schnelleren Kommunikation zwischen GPU und Speicher. Ist die Speichermenge aber nicht mehr ausreichend, läuft das Fass sprichwörtlich über, da kann die Anbindung noch so schnell sein, da dass was quasi aus dem Fass überläuft, wieder in das Fass selbst auch zurück muss, damit die GPU damit arbeiten kann. Dazu muss aber erst einmal Platz im Fass selber geschaffen werden, dabei kann die Anbindung noch so schnell, denn das Problem ist hier nicht die Geschwindigkeit, sondern das Volumen. Das dieser Vorgang überhaupt erst gemacht werden muss ist also das eigendliche Problem, denn die Folge davon sind die typischen "Nachladeruckler", die sich dann nur durch ein ausreichend großes Fass beseitigen lassen.
 
Die Sache mit dem VRAM ist halt aber, reichen 4GB HBM in 2 Jahren noch für WQHD Spiele mit gigantischen Texturen? Es muss ja nicht 4K sein um den Speicher voll zu knallen.

Die Tahiti Karten waren damals bei Release mit übertrieben Viel Speicher ausgestattet (nix hat mehr als 2GB gebraucht), als dann HighRes Skyrim Mods und neuere Spiele in den 2 Folgenden Jahrene auftauchten, zeigte sich, die Überdimensionierung hat dafür gesorgt, das die Karten deutlich längerer keine Probleme mit Irgendwas haben.
3 Jahre nach Release können die Tahiti Karten auf FullHD (der gleichen Auflösung wie zu Release wo unter 2GB reichten) immer noch Top Spiele auf hohen Einstellungen gut und flüssig darstellen (GTA V geht auf High, bei ca. 2,5GB Speicherverbrauch)


Ich gehöre zu den Leuten die effektiven >6GB GDDR5 Schreien, nicht wegen der Auflösung, sondern wegen der Zukunftssicherheit bei der gleicher Auflösung, aber neuen Spielen!
Texturen ziehen keine gewaltige Leistung, aber ändern sehr wohl was am Aussehen. Der Chip wird in 2 Jahren für WQHD in neuen Spielen reichen, aber der VRAM wird vlt. voll sein.
Und 700 Eruo für eine Grafikkarte die dann keine 2 Jahre hält?

Anderseits kann man nicht wissen wie sich der Speicherverbrauch in 2 Jahren verändert und keiner von uns weiß wie gut HBM nun wirklich ist!
Es kann ja auch sein das HBM so genial ist das man einfach viel Weniger braucht, aber dann hätte AMD wohl die Werbetrommel um HBM noch viel stärker angeworfen!


Genau so sehe ich das auch, schade das die AMD Fans hier nochnoch rosarot sehen statt es ein wenig realistisch zu betrachten.
 
Entscheindend ist nur die Speicherbandbreite und die Speichermenge. Das eine kann das andere nicht ausgleichen, weil es zwei komplett verschiedene Dinge sind. Fiji XT besitzt ein 512GB/s schnelles Speichersubsystem, 60% schneller als das einer R9 290X, welche auf 320GB/s kommt. Beide verfügen aber über die gleiche Speichermenge von 4GB. Der einzige Unterschied besteht also nur in der schnelleren Kommunikation zwischen GPU und Speicher. Ist die Speichermenge aber nicht mehr ausreichend, läuft das Fass sprichwörtlich über, da kann die Anbindung noch so schnell sein, da dass was quasi aus dem Fass überläuft, wieder in das Fass selbst auch zurück muss, damit die GPU damit arbeiten kann. Dazu muss aber erst einmal Platz im Fass selber geschaffen werden, dabei kann die Anbindung noch so schnell, denn das Problem ist hier nicht die Geschwindigkeit, sondern das Volumen. Das dieser Vorgang überhaupt erst gemacht werden muss ist also das eigendliche Problem, denn die Folge davon sind die typischen "Nachladeruckler", die sich dann nur durch ein ausreichend großes Fass beseitigen lassen.

Das Fass-Beispiel ist schon mal grundlegend verkehrt, Grafikspeicher lässt sich eher mit einem Fluss vergleichen.
Die Strömung der Fury XT ist 60% stärker als die der 980TI. Dann könnte man noch so weit gehen und sagen:
Was ist besser, der "980TI-Fluss" oder ein 60% schneller fließender Fluss bei 66% der Größe (Fury-XT).
 
Zuletzt bearbeitet:
Das Fass-Beispiel ist schon mal grundlegend verkehrt, Grafikspeicher lässt sich eher mit einem Fluss vergleichen.
Die Strömung der Fury XT ist 60% stärker als die der 290X.

Der Fluss ist die Speicherbandbreite. Das Fass ist die Speichermenge. Zwei Unterschiedliche Dinge.
 
Das Fass-Beispiel ist schon mal grundlegend verkehrt, Grafikspeicher lässt sich eher mit einem Fluss vergleichen.
Die Strömung der Fury XT ist 60% stärker als die der 980TI. Dann könnte man noch so weit gehen und sagen:
Was ist besser, der "980TI-Fluss" oder ein 60% schneller fließender Fluss bei 66% der Größe (Fury-XT).

Ich würde es ja nicht mit der 980TI vergleichen, sondern eher mit Hawaii...
Du kommst auf ca. 45% mehr Rohrleitung + Takt -> was bei gleichen Kompressionsverfahren und ein und den selben Anwendungen eine Bandbreitensteigerung von ca. der gleichen Höhe erfordert.
Bedenke nämlich einfach, dass bei steigender Leistung in ein und dem selben Spiel bei den selben Einstellungen genau was passiert? -> es steigen die FPS. Es werden also runtergebrochen pro Bild einfach mehr Speicherzugriffe in der gleichen Zeit notwendig. -> nämlich ca. im gleichen Verhältnis.

Das heist unterm Strich, der Bandbreitenvorteil durch HBM wird dahingehend schon nahezu ausgeschöpft werden. Was man allerdings dazu sagen muss, Hawaii klebt lange nicht am Bandbreitenlimit. Da ist noch ne Menge Luft. Das gleiche gilt (bzw. wird gelten, aber warte gern die Benches dazu ab) für Fiji.

Allerdings hat das einfach mal überhaupt nichts mit der Speichermenge zu tun. Du kannst einfach Speichermenge nicht mit Speicherbandbreite kompensieren. Das klappt nicht und ist im Grunde fast schon ein Naturgesetz. -> der Grund liegt allerdings daran, dass der Flaschenhals nicht die Bandbreite zwischen GPU und VRAM ist, sondern die Bandbreite des PCIe Slots. Wäre letzteres so "breit" wie die Bandbreite der GPU zum VRAM, dann würde man einen deutlich kleineren Speicher brauchen, da die Texturen auch bequem aus dem RAM oder von wo auch immer kommen könnten. Auch brauchen Texturen nur bedingt Bandbreite.
Wo die Karte definitiv keine Probleme haben wird -> das sind die Fälle, wo die absolut benötigte Menge unterhalb von 4GB bleiben wird -> da wird sie ihre Stärken auspielen und auch entsprechend schnell sein.

PS: stellt dir einfach vor, wie du 500 der 600GB Daten in einer 400GB SSD unter bekommen sollst. Das Prinzip ist 1:1 identisch zur GPU und deren VRAM. Da nutzt dir auch keine Kompression etwas. Zumal auch das nichts neues ist ;)
VRAM ist einfach in der Größe maßgeblich entscheidend, wie gut die Karte Performern wird. Einfach weil eine gewisse Spielzeit eine gewisse Menge an Daten erfordert. Und diese Menge ist quasi fix (hängt an den Settings des Spiels). Um so höher die Menge und gleichzeitig je geringer die Spielzeit, desto mehr VRAM brauchst du effektiv um das Spiel flüssig darzustellen. -> weil der VRAM eben diese Daten puffert.


EDIT: auch sind Spiele nicht Mist oder scheiße Programmiert, wenn sie hohen VRAM Bedarf haben. VRAM ist ein Speicher und Speicher ist dafür da, genutzt zu werden. -> brachliegender Speicher kostet Geld und bringt genau NULL. Um so löblicher ist es, dass es nunmehr auch Titel gibt, die das auszureitzen wissen. ;)

Das ganze Thema erübricht sich im übrigen eigentlich auch -> es gibt genügend Frametimemessungen, welche bescheinigen, dass nicht erst seit Heute, 17.06.2015! 4GB Speicher unruhige Frametimes erzeugen und die gleiche Hardware mit doppeltem VRAM Ausbau dort ruhiger agiert... Das ist eine Messbare Größe. Wie so oft muss man nur die richtigen Messmethoden anwenden um das Problem zu erkennen. -> und VRAM Messungen mit sinnvollen Ergebnissen ist seit Jahrzehnten schon nicht die große Paradedisziplin der ganzen Redaktionen -> außer beim 970er Problem, da hat man sich mal angestrengt. Mal gucken, ob man auch GM200 und Fiji mal durch die Tests schickt ;)
 
Zuletzt bearbeitet:
PS: stellt dir einfach vor, wie du 500 der 600GB Daten in einer 400GB SSD unter bekommen sollst. Das Prinzip ist 1:1 identisch zur GPU und deren VRAM. Da nutzt dir auch keine Kompression etwas. Zumal auch das nichts neues ist ;)
Hä?
Wenn es sich dabei um Bildateien in einem unkomprimierten Format wie Bitmap handelt, kriege ich ziemlich sicher auch die 1Tb in die 400Gb SSD rein...
Und echte Kompression im Ram wäre durchaus was neues, würde ich sagen. Bei der 285 und auch den Maxwells, wird Kompression ja nur zum weiteren Verbessern der efektiven Bandbreite genutzt, nicht zum Speichersparen.

auch sind Spiele nicht Mist oder scheiße Programmiert, wenn sie hohen VRAM Bedarf haben. VRAM ist ein Speicher und Speicher ist dafür da, genutzt zu werden. -> brachliegender Speicher kostet Geld und bringt genau NULL. Um so löblicher ist es, dass es nunmehr auch Titel gibt, die das auszureitzen wissen. ;)
Naja, ich würde trotzdem sagen dass das besser programmierte Spiel dasjenige ist, das bei gleich guter Grafik, den niedrigeren _Bedarf_ hat. Ob dann Texturen unnötigerweise wie ein Cache im Speicher bleiben, ist ja recht egal. Es geht nur darum was notwendig ist, um Ruckler zu vermeiden und da gibt es offenbar schon recht deutliche Unterschiede zwischen den Games.
 
Zuletzt bearbeitet:
Hä?
Wenn es sich dabei um Bildateien in einem unkomprimierten Format wie Bitmap handelt, kriege ich ziemlich sicher auch die 1Tb HDD in die 400Gb SSD rein...
Und echte Kompression im Ram wäre durchaus was neues, würde ich sagen. Bei der 285 und auch den Maxwells, wird Kompression ja nur zum weiteren Verbessern der efektiven Bandbreite genutzt, nicht zum Speichersparen.
Die Kompression wird doch schon seit Ewig angewendet ;)
Rechne gern doch einfach selbst mal nach. Eine einzige Textur in 4096x4096 kommt auf 16MB als BMP File. -> unkomprimiert und in 96PPI.
Somit passen 256 Texturen in 4GB. Bisschen wenig für eine Szene, die aus hunderten Objekten, mit teils hunderten verschiedenen Texturen besteht. Und das ist EIN! Bild. Was ist, wenn du die Maus drehst? Du bringst spielend in 1-2 Sekunden eine 180° Drehung hin -> heist im Ernstfall, die Szene ändert sich derart drastisch, das du binnen einer Sekunde auf einmal ohne FPS Einbußen, die gleiche Menge nochmal benötigst im VRAM -> weil die Szene eben drastisch anders ist.

Naja, ich würde trotzdem sagen dass das besser programmeirte Spiel dasjenige ist, das bei gleich guter Grafik, den niedrigeren _Bedarf_ hat. Ob dann Texturen unnötigerweise wie ein Cache im Speicher bleiben, ist ja recht egal. Es geht nur darum was notwendig ist, um Ruckler zu vermeiden und da gibt es offenbar schonr echt deutliche Unterschiede zwischen den Games.

An was machst du das aber fest? Lernt man sowas im Studium? (sorry für die blöde Frage)
Aber aus meiner (programmier-) Sicht muss der Mengenbedarf an den Speicher einfach bedarfsgerecht mit den Anforderungen der Daten einher gehen. -> mehr Daten, mit dehnen gearbeitet wird, mehr (V)RAM Bedarf zulässig. Denn welchen Sinn hat es, Speicher zu sparen? Das ist einfach Irrsinn...
Wir sprechen hier doch nicht davor, dass mehr VRAM mehr Daten cacht -> ja, das ist zweifelsfrei so. Sondern wir (also alle, die das bis dato erkannt haben) sprechen doch viel eher davon, dass messbar und nachweisbar 4GB derart am Limit laufen, dass die Karte alle Nase lang bei Spielwaren FPS und ohne Mods oder ähnlichen Anstrengungen für unruhige Frametimes sorgt während die Karte mit doppeltem Speicher dies nicht tut (oder entsprechend deutlich weniger auffällig/ausschlagend)

Das ist einfach ein Indikator von VRAM Limit.

PS: schon allein die Tatsache, dass man in diesen Diskussionen permanent mit der Monitorauflösung um die Ecke kommt, die einen extrem geringen (heutzutage) Einfluss auf den Mengenbedarf hat, zeigt doch eindeutig, dass die Leute hier gar nicht wissen, was sie quatschen...
Mehr Auflösung = mehr VRAM hält sich als eins der Mythen seit den Anfängen von Grafikkarten, als dies noch eine deutliche Abhängigkeit hatte. Heute passen lange nicht darstellbare/ausgebbare Auflösungen in den VRAM und das spielend -> dafür machen geschätzt 75-90% des VRAMs einfach Texturen aus. Und die sind einfach mal fix nach der Anzahl der darzustellenden Objekte und liegen idR immer in der gleichen Größe im VRAM.
Mehr Auflösung heist genau dann mehr VRAM Bedarf (und das auch ziemlich drastisch) -> wenn der Sichtbereich entsprechend ansteigt. Eyefinity bspw. oder in Titeln, die das Sichtfeld einfach deutlich vergrößern, wenn die Auflösung steigt.
Ansonsten, selbst aus dem Thread von HisN erkennst du, dass die meisten heutigen Titel einfach unbeeindruckt der Monitorauflösung ihren VRAM beanspruchen. 4x so viele Bildpunkt und sagen wir mal pauschal 20% mehr VRAM Verbrauch ist einfach ein Verhältnis, was zu vernachlässigen gilt -> es sei denn, die Karte rennt am VRAM Limit ;)
 
Zuletzt bearbeitet:
Leute,

die aktuellen Fury-Modelle bilden doch nur das Performancesegment.

Die High-End-Modelle mit 8GB (und mehr) HBM-Speicher gibt's halt erst in ein paar Monaten. ;)
 
Aber wenn die aktuellen Fury bisher das Ende sind ist es nunmal Highend^^
In paar Monaten bringt nix
 
Man muss es halt nur durch die nVidia-Brille betrachten...die machen vor, wie schnell aus High-End Performance wird.
 
Zuletzt bearbeitet:
Wo haben die das denn gesagt? Von 4K weiss ich, aber 5K?
 
Na wenn AMD das sagt ,DANN muss es ja stimmen !

Ich mein VW ist ja auch DAS AUTO, und das nur weil sies sagen..
 
5K hin oder her:

Wenn man sich die 3DMark13 FireStrike Ultra 5K Benches ansieht, hat keine aktuelle Karte dafür ausreichende Leistung, auch keine mit 12 GB.
 
wurscht, irgendwo müssen die Gegner ja einhaken
 
Also ich sehe das so

Es kommt einem so vor als hätte AMD Auf Teufel komm raus HBM nutzen wollen um einen habenwollen effekt zu generieren, auch wenn in dieser Generation noch GDDR5 sinvoller gewesen wäre..

Es geht hier nicht um einen Habenwollen Effekt, sondern um neue Technologie, die AMD deutlich vor Nvidia einführt.
Immerhin kann AMD dadurch wahrscheinlich eine mindestens genauso effiziente Karte wie Maxwell liefern, ohne wäre das wohl nicht ganz möglich gewesen.

Meiner Meinung nach will ein Käufer der 700+ tacken hinlegt auch das Gefühl haben erstmal Vramm massig und ausreichend zu haben und nicht hm reicht grad so.. EGAL obs nun reicht oder nicht.

Die 4K Gamer kannst du an einer Hand abzählen, die meisten spielen auf Full HD oder WHQL und dafür braucht man auch die Leistung.
Ich kann the Witcher nicht durchgängig auf max in Full HD mit 60 FPs zocken, nicht mal mit einer Titan X.
Also man kann mehr Performance für diese Bereiche gut und gerne gebrauchen und da sehe ich kein Problem mit 4GB.

Wer hat denn vor ein paar Monaten noch 600Euro + für ne 4GB GTX 980 hingelegt?:rolleyes: Performancemäßig ist hier vielleiht 30 bis 40% Unterschied, das sind jetzt auch keine Welten.



Auch weiss ich nicht was alle so doll an der Minikarte mit Wakü finden,

Ist nicht so besonders toll, aber auch nicht besonders schlecht, ist halt ne Grafikkarte die kürzer ausfällt, wie die von Nvidia.
Ich habe nie irgendetwas besonders positives zur Wakü gesagt, noch etwas negatives.
Aber bei dir ist jeder schon ein AMD Fanboy, wenn er die Karte nicht runtermacht.

die Wakü ist nicht Leistungsfähiger alsn guter Lukü Kühler in der Grösse

Bist schon wieder dabei Unwahrheiten ins Netz zu streuen, schäm dich was für diesen Mist den du verbreitest.
Wie soll ein Lukükühler jemals an eine Wakü rankommen? Vergiss den Bullshit, aber klar, die Trippleslot Titan Z war durh den Kühler gar nicht limitiert.
Hätte man die auf 1100mhz pro GPU getaktet, dann hätte die GPU gekocht, während die 295x2 deutlich leiser ist, leiser als eine TitanX mit 500+ Watt Wärmeabfuhr und unter 75 Grad....

Die paar itx leute werdens da net raushauen..

Du kannst kleine Karten auch und große Gehäuse bauen, stell dir vor.:fresse: Ich weiß ja nicht wieso du davon ausgehst, dass nur ITX Leute die Karte kaufen, du könntest allerdings mal versuchen das zu begründen, viel Spaß damit.
Es ist erstaunlich wie weit man sich selbst anlügt, nur weil AMD mal ne gute Karte vorstellt, das muss bei Trawn. ja ganz komische Gefühle auslösen.

Von dir kommen weder Argumente, weder Beispiele, noch Begründungen und du willst hier einen auf dicke Hose machen und AMD runterputzen und mich persönlich angreifen, weil ich nix negatives zur AMD Karte aber auch nix negatives zur 980 Ti sage?

Wo habe ich denn die 980 Ti gebashed? Beispiele? Gerne auch per P/N.
 
Zuletzt bearbeitet:
AMD hat doch gesagt das die 4GB HBM sogar für 5K langen, wartet doch erstmal ab. Die Wahrheit werden wir bald erfahren.

Damit liegen sie ja auch nicht falsch... Weil einfach die Auflösung nicht in dem Maß den VRAM Bedarf beeinflusst, dass es zum Problem kommt.
Das sagt allerdings nichts darüber aus, ob die 4GB nicht allgemein schon zu wenig sind ;)

Wie gesagt, schaut euch doch einfach nur die Frametimemessungen an. Bei der 970er waren die noch das Mittel zum Beweist. Jetzt kommt man wieder mit FPS und will VRAM Notwendigkeit (oder auch eben die Aussage, es reicht aus) mit eben jenen FPS kaschieren...

Interessant in den letzten Jahren ist dabei auch, dass immer die Partei mit dem Argument, reicht, kommt, die in den Werten die niedrigere Menge aufweisen kann.
Mit der HD58x0 zur 470/480er waren 1GB ausreichend und die anderen sagten, es sei zu wenig
Mit der HD69x0 wurden 2GB zum Maßstab und dein anderen sagten, 1,25-1,5GB wären notwendig
Dann kam Tahiti und auf einmal waren 3GB das Maß und die NVler wollten 2GB als ausreichend hinstellen
Dann die GK110er vs. Hawaii wo die 3GB ausreichend sein sollten wären die anderen auf 4GB pochten
-> und nun ist halt einfach wieder NV am Drücker mit 6GB und AMD folgt dann mit dem HBMv2 und 8GB Ansatz...

Gibt's doch auch nix dran auszusetzen, solange mach sich eben selbst nicht anfängt die Spaß schönzureden. Zumal es einfach nachmessbar und nachweisbar ist, was VRAM Knappheit für die Bildausgabe bedeutet ;)
 
Zuletzt bearbeitet:
Dann zeig mir doch bitte ein Beispiel und verlinke dies.
Ganz besonders wo ich gegen eine Titan X getrollt habe.:wall:, die ich aktuell selbst noch besitze.

Ich hab dich schon mehrfach dazu aufgefordert, aber es kommt nichts.:shake:

- - - Updated - - -



Ich bitte dich zum letzten mal, deine gezielten Persönlichen Anfeindungen zu unterlassen und wenn dann diese zu belegen und diese Thematik aus dem Thread herauszuhalten.
Ich habe kein einziges mal gegen irgendeine Nvidia GPU getrollt. Du hingehen trollst gezielt gegen eine Wasserkühlung und behauptest Lüftkühler seien genausogut, ohne das mit einer Begründung oder mit einem Beispiel zu untermauern.
Lass es einfach, es ist mittlerweile nicht mehr zu erdulden und ich hoffe die Moderation sieht das genauso.

Du solltest einfach mal richtig lesen, dann hast du dein Beispiel das ich schon gepostet habe..

Diese Singleradi AIO Waküs gibts auch für CPUs und die sind weder lesitungsfähiger noch leider als Towerkühler, das werden erste erst ab Dualradi..

Ausserdem weiss jeder das du allgemein immer gerne gegen NV und Pro AMD schreibst, ich habe nie behauptet das du gegen die Titan X gebasht hast, nur eben das es einem so vorkommt das du diese nur als Alibi gekauft hast damit dir keiner ne Rote Brille beim AMD loben und NVIDIA dissen attestieren kann..

Also ich hab keine 600 takken fürne 980 hingelegt, keine Ahnung wen du meinst..
 
Zuletzt bearbeitet:
Wie gesagt, schaut euch doch einfach nur die Frametimemessungen an. Bei der 970er waren die noch das Mittel zum Beweist. Jetzt kommt man wieder mit FPS und will VRAM Notwendigkeit (oder auch eben die Aussage, es reicht aus) mit eben jenen FPS kaschieren...

Von welchen Frametimemessungen sprichst du denn und wieso gerade von denen der GTX 970? Bei einer Karte, die ohne dass der V-ram diese Gefilde erreichen kann, ruckeln kann, wenn das Spiel den V-ram in den kritischen Bereich ablegt, also ich denke nicht dass es mit "schaut euch doch einfach mal die Frametimemessungen an" irgendein valides Argument ist, bisher jedenfalls kenne ich nur absolute Ausnahmen, wo Frametimes mit 8GB Karten besser sind als mit 4GB Karten.

Interessant in den letzten Jahren ist dabei auch, dass immer die Partei mit dem Argument, reicht, kommt, die in den Werten die niedrigere Menge aufweisen kann.

Sagt ja auch keiner, dass 6GB nicht besser sind wie 4GB, vor allem in 4K sehe ich das sehr wohl kritisch, aber darunter imho weniger, dafür bekommt man bei der Karte eben andere Vorzüge, ich würde gern die erste Karte mit HBM besitzen.

waro245 schrieb:
Ich habe die Devise "Wer hat der hat" - von mir aus können die Leute kaufen oder nicht kaufen was sie wollen, ich finde nicht, dass mich das was angeht.

Habe nie was anderes behauptet. Aber wenn du da Infos nachholen willst, musst du einfach nur in die TitanX Threads schauen.
Das ist eine eingeschworene Gemeinde, wenn da mal einer vorher AMD hatte oder was positives zu AMD gesagt hat und dann selbst ne Titan X besitzt, kommt lediglich arrogantes Gelaber, aber gut, vielleicht merkst du das auch nicht.
 
Zuletzt bearbeitet:
Habe nie was anderes behauptet. Aber wenn du da Infos nachholen willst, musst du einfach nur in die TitanX Threads schauen.
Das ist eine eingeschworene Gemeinde, wenn da mal einer vorher AMD hatte oder was positives zu AMD gesagt hat und dann selbst ne Titan X besitzt, kommt lediglich arrogantes Gelaber, aber gut, vielleicht merkst du das auch nicht.

Ich lese dort nicht regelmäßig. Die scheinen dir ja ganz schön auf die Füße getreten zu sein, du erwähnst das nun schon das zweite Mal mir gegenüber.

Naja, zur VRAM-Debatte: Ich schätze mal, dass der VRAM in den Tests meistens reichen wird. Das Problem wird die Zukunft. Er bleibt für mich trotzdem ein fetter Minuspunkt, weil ich glaube, dass Spiele wie Shadows of Mordor, Assassins Creed Unity, Watch Dogs, und so weiter in Zukunft eher mehr als weniger werden. Klar zeigt Witcher 3, dass man sehr effizient mit dem VRAM umgehen kann, aber dieses Wissen nützt dem Endkunden nichts wenn er mit immer mehr Fällen wie den oben genannten zu kämpfen hat. Schon bei der GTX 980 finde ich 4 GB etwas mager, nun 9 Monate später und eine Leistungsklasse darüber hätte ich mir doch eher ein klassisches GDDR5-Design gewünscht, wobei ich durchaus einsehe, dass sich AMD in einer Zwickmühle befand. Ein Chip-Design ändert man nicht einfach so (vielleicht hatte man die Hoffnung auf frühes HBM2?) und wahrscheinlich war man auf die Verbrauchssenkung durch HBM zwingend angewiesen um im Rahmen zu bleiben.

Warum hat man auf den Interposer eigentlich nicht zwei weitere Stacks gepackt? Ich meine, ohne es auf den Fotos genau ausgemessen zu haben, dass knapp genug Platz wäre. HBM1 bedeutet ja meines Wissens nur eine Einschränkung in der Größe der Stacks, nicht deren Anzahl.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh