AMD zeigt die Radeon R9 Fury X und Nano

Von welchen Frametimemessungen sprichst du denn und wieso gerade von denen der GTX 970?
Hat mal wieder keiner gesagt... Sorry Schaffe. Aber ich sagte, bei der 970er waren Frametimemessungen das Maß der Dinge. Nun nun kommt man wieder mit FPS um die Unzulänglichkeiten bei zu wenig VRAM zu kaschieren (weil das eben, wie die Berichterstattung der 970er von Anfang bis Ende! zeigt), dort unter geht ;)

Bei einer Karte, die ohne dass der V-ram diese Gefilde erreichen kann, ruckeln kann, wenn das Spiel den V-ram in den kritischen Bereich ablegt, also ich denke nicht dass es mit "schaut euch doch einfach mal die Frametimemessungen an" irgendein valides Argument ist, bisher jedenfalls kenne ich nur absolute Ausnahmen, wo Frametimes mit 8GB Karten besser sind als mit 4GB Karten.
Frametimemessungen findest du doch einige... Und natürlich kommen da nicht viele Games für in Frage -> idR zeigen genau die Titel Auffälligkeiten dahingehend, wo auch die 970er versagt ;) Da die Redaktionen jetzt wissen wie das geht (wenn man es nicht wieder vergessen hat), dann kann man das 1:1 adaptieren.
Leider sind das mittlerweile halt die ganzen neueren Titel, die eben diese Auffälligkeiten zeigen.
LotF, CoD:MWII, FC4, AC:U, Mittelerde Mörder (oder wie das heist), ja auch GTA V gehört dazu -> wobei das gerade noch geht.
-> Einzige positive Ausnahme der AAA Titel in den letzten Tagen -> TW3 mit sehr humanen Bedarf (dafür auch in der Presse kritisierter Texturqualität) :wink:

PS: und schaut euch mal die Frametimemessungen an ist auch nur die halbe Wahrheit. Besser, schaut euch mal die Frametimemessungen von 4GB Karten in aktuellen Titeln an :wink:
Und Fury wird dahingehend deutlich mehr Leistungspotential haben, da sind wir uns wohl ziemlich alle einig...
Richtig rund wird das Ding aus meiner Sicht mit 8GB HBMv2 -> dauert noch etwas, wird aber sicher kommen ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Genau das verstehen die meisten einfach nicht.

Was ist eigentlich mit deinen Belegen dazu, dass man mit einer solchen Karte @ Full HD durchgängig im CPU Limit hängt?
Ich habe dich dazu zitiert, aber es kam nichts mehr.

Also ich kann dir sagen dass man in Full HD in 95% der Spiele bei max Settings gar nicht im CPU Limit hängt.


- - - Updated - - -

Diese Singleradi AIO Waküs gibts auch für CPUs und die sind weder lesitungsfähiger noch leider als Towerkühler, das werden erste erst ab Dualradi...

Wir reden aber nicht von CPU´s, sondern von Gpu´s und da hätte ich gerne mal einen adequaten Beleg dafür gehabt dass ein "guter Luftkühler" hier mithalten kann.
Natürlich auch was Lautstärke, Temp usw. angeht. Kann man aus meiner Sicht vergessen hier überhaupt anzufangen.
 
Zuletzt bearbeitet:
Ich lese dort nicht regelmäßig. Die scheinen dir ja ganz schön auf die Füße getreten zu sein, du erwähnst das nun schon das zweite Mal mir gegenüber.

Naja, zur VRAM-Debatte: Ich schätze mal, dass der VRAM in den Tests meistens reichen wird. Das Problem wird die Zukunft. Er bleibt für mich trotzdem ein fetter Minuspunkt, weil ich glaube, dass Spiele wie Shadows of Mordor, Assassins Creed Unity, Watch Dogs, und so weiter in Zukunft eher mehr als weniger werden. Klar zeigt Witcher 3, dass man sehr effizient mit dem VRAM umgehen kann, aber dieses Wissen nützt dem Endkunden nichts wenn er mit immer mehr Fällen wie den oben genannten zu kämpfen hat. Schon bei der GTX 980 finde ich 4 GB etwas mager, nun 9 Monate später und eine Leistungsklasse darüber hätte ich mir doch eher ein klassisches GDDR5-Design gewünscht, wobei ich durchaus einsehe, dass sich AMD in einer Zwickmühle befand. Ein Chip-Design ändert man nicht einfach so (vielleicht hatte man die Hoffnung auf frühes HBM2?) und wahrscheinlich war man auf die Verbrauchssenkung durch HBM zwingend angewiesen um im Rahmen zu bleiben.

Warum hat man auf den Interposer eigentlich nicht zwei weitere Stacks gepackt? Ich meine, ohne es auf den Fotos genau ausgemessen zu haben, dass knapp genug Platz wäre. HBM1 bedeutet ja meines Wissens nur eine Einschränkung in der Größe der Stacks, nicht deren Anzahl.

PC Hardware ist nie zukunftssicher, speziell bei GPUs reicht entweder der VRAM nicht oder die GPU Leistung.
 
Zuletzt bearbeitet:
Warum hat man auf den Interposer eigentlich nicht zwei weitere Stacks gepackt? Ich meine, ohne es auf den Fotos genau ausgemessen zu haben, dass knapp genug Platz wäre. HBM1 bedeutet ja meines Wissens nur eine Einschränkung in der Größe der Stacks, nicht deren Anzahl.

Kann man machen. Nur gehen damit quasi alle Vorteil ggü. GDDR5s Nachteilen über Board ;)
Du hast damit mehr Flächenbedarf für das SI, du hast mehr Verbrauch (wohl annähernd dann der vom GDDR5 Interface mit 512Bit), du hast zusätzlich ne Wahnwitzige Anbindung von 6-8KBit und entsprechend auch extreme Datenraten, die kein Mensch braucht...

HBM war einfach zu spät verfügbar, als dass man das hätte gleich bis HBMv2 aussetzen können. Oder man konnte Hynix dahingehend nicht umpolen, dass diese gleich eine größentechnisch flexible Lösung schaffen, wie sie mit HBMv2 und bis zu 32GB kommen soll.
NV hat es dahingehend durchaus Klever gemacht. Der Bandbreitenbedarf von Maxwell ist weit unter dem, was man mit GDDR5 brauchbar und effizient erreicht. Und mit Pascal wird wohl auch HBMv2 definitiv in ausreichender Menge und auch Größe bereit sein... Mit bis 32GB auch nicht weniger als die größten GDDR5 Chips stand heute ;)
 
Hat mal wieder keiner gesagt... Sorry Schaffe. Aber ich sagte, bei der 970er waren Frametimemessungen das Maß der Dinge. Nun nun kommt man wieder mit FPS um die Unzulänglichkeiten bei zu wenig VRAM zu kaschieren (weil das eben, wie die Berichterstattung der 970er von Anfang bis Ende! zeigt), dort unter geht ;)

Ja und ich sagte, dass dies das besondere Interface auch begünstigte und insofern auch keine Verwunderung dabei besteht, wenn man bei einer 4Gb Karte dies weniger verfolgt, oder?
Frametimemessungen findest du doch einige... Und natürlich kommen da nicht viele Games für in Frage -> idR zeigen genau die Titel Auffälligkeiten dahingehend, wo auch die 970er versagt ;)

Eigentlich nicht, da wie gesagt die Problematik am besonderen Interface hängt, ich kenne keine Frametimemessungen wo eine 8GB Karte profitiert, die müsstest du dann schon verlinken.
Eventuell hat CB da mal ein Beispiel gehabt.

LotF, CoD:MWII, FC4, AC:U, Mittelerde Mörder (oder wie das heist), ja auch GTA V gehört dazu -> wobei das gerade noch geht.

Bei mir machen diese Spiele auf einer 4GB Karte keine Probleme in Full HD, noch in 4K ( ich besitze alle), Ausnahme hier GTA5 mit MSAA und da beginnt die Fury eben zu limitieren, evtl zumindest.
Das traurige ist, dass viele Spiele einfach sinnlos V-ram belegen und man nicht weiß woher die schlechten Frametimes kommen.


"-> Einzige positive Ausnahme der AAA Titel in den letzten Tagen -> TW3 mit sehr humanen Bedarf (dafür auch in der Presse kritisierter Texturqualität) :wink:"

Ich hab das Spiel gestern erst wieder gespielt und war von den Texturen sehr angetan. Hier könnte man aber eher The Vanishing of Ethan Carter als Beispiel nehmen, die Texturen hauen alles weg, was ich bisher gesehen hab, bei 2GB Belegung.
 
PC Hardware ist nie zukunftssicher, entweder reicht der VRAM nicht oder die GPU Leistung.

Neja, wenn du aber heute weist, dass die Menge des VRAMs hart am Limit ist, warum sollte man das da denn in Erwägung ziehen? Vor allem, wo doch die Karte definitiv ein paar Monate halten können muss...

Es gab in der Vergangenheit schon ein paar Karten, die ein VRAM Knüppel Schicksal überkommene sind. -> HD4870 512MB, 9800/8800 GTX/GTS 512MB, 8800 GTS 320MB, 9800GX2 2x512MB, GTX 295 2x896MB, GTX 470/570 1,25GB. Ja sogar theoretisch die GTX 480/580 mit 1,5GB.
Interessant dabei ist, das idR NV Karte und/oder Dual GPU Karten da Probleme hatten ;) AMD eher selten...

Ja und ich sagte, dass dies das besondere Interface auch begünstigte und insofern auch keine Verwunderung dabei besteht, wenn man bei einer 4Gb Karte dies weniger verfolgt, oder?
Du verstehst nach wie vor nicht... Nicht die Messungen ZUR 970. Was soll das Interface da begünstigt haben? Sondern Messungen von Frametimes wie man sie mit der 970 gezeigt hat. Das heist nicht, dass diese Karte dabei enthalten sein muss. Sondern einfach nur, dass man Frametimemessungen tätigt
Das macht CB mittlerweile, das macht PCGH mittlerweile. Das machen auch einige Andere -> PCP bspw.

Und natürlich merkst du da unter FHD oder auch höheren Auflösungen nicht viel davon. Wenn die Karte es Wegstrecken kann. Aber auch darum geht es nicht. Es geht darum, dass es HEUTE, 17.06.2015 bei 4GB andeckelt und die Karten mit 4GB einfach Auffälligkeiten in den Frametimes zeigen in neueren Titeln, diese sind mit mehr Speicher weg oder wenigstens besser... Eine kommende Karte mit ebenso 4GB wird exakt die gleichen Probleme haben -> aber eben ist diese auch noch keine Monate oder Jahre auf dem Markt ;)
Ebenso heist das nicht, dass die Karte mit 4GB unbrauchbar ist. Sie wird aller Voraussicht nach einfach schneller durch ihre 4GB Probleme bekommen.
 
Zuletzt bearbeitet:
Was ist eigentlich mit deinen Belegen dazu, dass man mit einer solchen Karte @ Full HD durchgängig im CPU Limit hängt?
Ich habe dich dazu zitiert, aber es kam nichts mehr.

Also ich kann dir sagen dass man in Full HD in 95% der Spiele bei max Settings gar nicht im CPU Limit hängt.


- - - Updated - - -



Wir reden aber nicht von CPU´s, sondern von Gpu´s und da hätte ich gerne mal einen adequaten Beleg dafür gehabt dass ein "guter Luftkühler" hier mithalten kann.
Natürlich auch was Lautstärke, Temp usw. angeht. Kann man aus meiner Sicht vergessen hier überhaupt anzufangen.

Wenn eine AIO Wakü mit singleradi also schon nicht kühler ist bei ner sagen wir 140 watt OC CPU, dann ists sies aber bei ner 275 Watt fury ?

Sich sind das nur Anhaltspunkt, ab er sie machen mich zumindest sehr skeptisch

- - - Updated - - -

PC Hardware ist nie zukunftssicher, speziell bei GPUs reicht entweder der VRAM nicht oder die GPU Leistung.

Sry aber das Totschalgargument ist doch schon Arm..

und nochmal, überliesst ja gerne was..
Dei Vergangenheit hat gezeigt das GPUs die bei erscheinen schon relative knappen Vram hatten in der Doppelvram Version sehrviel länger spiele schnell genug darstellen konnten..

Ich versteh nicht wie man den geringen Vram so schönreden kann, soviel Geld gebe ich doch aus um auch zukünftige Games gut zocken zu können.
so nett AMDS HBM Pioniertat ja ist ,aber ich denke hier ist erst ne Fury mit 8 GB HBM sinnvoll kaufbar
 
Zuletzt bearbeitet:
Was ist eigentlich mit deinen Belegen dazu, dass man mit einer solchen Karte @ Full HD durchgängig im CPU Limit hängt?
Ich habe dich dazu zitiert, aber es kam nichts mehr.

Also ich kann dir sagen dass man in Full HD in 95% der Spiele bei max Settings gar nicht im CPU Limit hängt.

Habe ich nicht gelesen da ich aktuell meine wakü optimiere und hier bicht weiter nachgesehen habe.
Naja bei einer Fury wird man @1080p sicherlich je nach CPU und Ram so seine auslastungsprobleme bekommen.
 
Hat mal wieder keiner gesagt... Sorry Schaffe. Aber ich sagte, bei der 970er waren Frametimemessungen das Maß der Dinge. Nun nun kommt man wieder mit FPS um die Unzulänglichkeiten bei zu wenig VRAM zu kaschieren (weil das eben, wie die Berichterstattung der 970er von Anfang bis Ende! zeigt), dort unter geht ;)

die Frametimemessungen waren das Maß der Dinge weil der 500MB langsame Speicher Probleme macht und nicht weil es "nur" 3,5GB sind.
 
Wir reden aber nicht von CPU´s, sondern von Gpu´s und da hätte ich gerne mal einen adequaten Beleg dafür gehabt dass ein "guter Luftkühler" hier mithalten kann.
Natürlich auch was Lautstärke, Temp usw. angeht. Kann man aus meiner Sicht vergessen hier überhaupt anzufangen.


ich hatte zwar noch nie eine AIO aber ich kann mir vorstellen mit einer Singleradi AIO Wasserkühlung für eine GPU kann ein guter Lukü ala Morpheus mit guten Lüftern sicher sowohl was die Lautstärke als auch die Temps betrifft noch sehr gut mithalten - wenn er nicht sogar etwas besser ist.

bei einer richtigen Wakü mit ordentlichen Radiatoren kann die Lukü natürlich nie mithalten - kostet aber halt auch nur einen Bruchteil davon und ist halt für einen 0815 User auch wesentlich einfacher zu handhaben...
 
ich hatte zwar noch nie eine AIO aber ich kann mir vorstellen mit einer Singleradi AIO Wasserkühlung für eine GPU kann ein guter Lukü ala Morpheus mit guten Lüftern sicher sowohl was die Lautstärke als auch die Temps betrifft noch sehr gut mithalten - wenn er nicht sogar etwas besser ist.

bei einer richtigen Wakü mit ordentlichen Radiatoren kann die Lukü natürlich nie mithalten - kostet aber halt auch nur einen Bruchteil davon und ist halt für einen 0815 User auch wesentlich einfacher zu handhaben...

Das ist aber ein (afaik) 4,5 Slot Monster. Das kann man als Partner schon nicht bringen und als Reverenzmodell erst recht nicht.

Wenn ich mir die Reverenz Modelle bei High-End GPUs der letzten Jahre so angucke (und zwar beider Hersteller) ist eine Kompakt Wakü die um Welten bessere Lösung.
 
An was machst du das aber fest? Lernt man sowas im Studium? (sorry für die blöde Frage)
Aber aus meiner (programmier-) Sicht muss der Mengenbedarf an den Speicher einfach bedarfsgerecht mit den Anforderungen der Daten einher gehen. -> mehr Daten, mit dehnen gearbeitet wird, mehr (V)RAM Bedarf zulässig. Denn welchen Sinn hat es, Speicher zu sparen? Das ist einfach Irrsinn...
Wir sprechen hier doch nicht davor, dass mehr VRAM mehr Daten cacht -> ja, das ist zweifelsfrei so. Sondern wir (also alle, die das bis dato erkannt haben) sprechen doch viel eher davon, dass messbar und nachweisbar 4GB derart am Limit laufen, dass die Karte alle Nase lang bei Spielwaren FPS und ohne Mods oder ähnlichen Anstrengungen für unruhige Frametimes sorgt während die Karte mit doppeltem Speicher dies nicht tut (oder entsprechend deutlich weniger auffällig/ausschlagend)
Also uns wird definitiv "resourcenschonendes Programmieren" nahe gelegt (obwohl wir Medieninformatiker sind, also keine sehr hardwarenahen Progger). Für mich klingt das auch sehr einleuchtend, denn
Denn welchen Sinn hat es, Speicher zu sparen?
Ganz einfach: Die Software Läuft dann ohne große Ruckler z.B. auch auf einer Fury X mit 4Gb und braucht dafür nicht zwingend eine 980Ti mit 6Gb (wähle diese Karten, weil sie in Rechenpower ähnlich sind. Aber man könnte auch z.B. ne 960 in der 2Gb und in der 4Gb Variante nehmen).
Wie kannst du da also behaupten dass das irrsinn wäre?
Ich muss daher einfach sagen, dass inefektiv programmiert wurde, wenn die Karte mehr benötigt als wirklich für den Grad an Details notwendig wäre.
Dass sich die Studios um die Hardware meistens einen Dreck scheren, ist ja spätestens seit der Crysis Serie bekannt...
 
Zuletzt bearbeitet:
ich hatte zwar noch nie eine AIO aber ich kann mir vorstellen mit einer Singleradi AIO Wasserkühlung für eine GPU kann ein guter Lukü ala Morpheus mit guten Lüftern sicher sowohl was die Lautstärke als auch die Temps betrifft noch sehr gut mithalten - wenn er nicht sogar etwas besser ist.

bei einer richtigen Wakü mit ordentlichen Radiatoren kann die Lukü natürlich nie mithalten - kostet aber halt auch nur einen Bruchteil davon und ist halt für einen 0815 User auch wesentlich einfacher zu handhaben...

Thrawn. sagte bei vergleichbarer Größe, kann er doch vergessen.

fdsonne schrieb:
Denn welchen Sinn hat es, Speicher zu sparen? Das ist einfach Irrsinn...

Dann brauchst du auch keinen Garbage Collector und wunderst dich dass dein Programm nach einiger Zeit immer mehr ansammelt, ohne nicht benötigtes wieder zu entsorgen.

Sondern wir (also alle, die das bis dato erkannt haben) sprechen doch viel eher davon, dass messbar und nachweisbar 4GB derart am Limit laufen, dass die Karte alle Nase lang bei spielbaren FPS und ohne Mods oder ähnlichen Anstrengungen für unruhige Frametimes sorgt während die Karte mit doppeltem Speicher dies nicht tut (oder entsprechend deutlich weniger auffällig/ausschlagend)

Zeige doch mal ein Beispiel wo die 4GB bei spielbaren FPS für unruhige Frametimes sorgen?
Ihr sprecht darüber, ohne überhaupt mal zumindest bei ner GDDR5 Karte dies aufzuzezeigen.
 
Zuletzt bearbeitet:


 
Zuletzt bearbeitet:
Die 4GB der Fury X ist ein Fail wie schon die HD 4870 512mb zu ihrer Zeit. Da gibt es eigentlich nichts weiter zu diskutieren. Einzig auf der Nano kann man das evtl. noch rechtfertigen aber nicht auf einer 4096 stream cores Karte die sich mit Titan X messen will.
 
Klar, in ein 4l Holzfässchen passen natürlich 6l rein, weil es aus Holz ist, während in einer 4l PET-Flasche wirklich nur 4l reinpassen, weiß doch jedes Kind. :fresse:

Aber dennoch haben AMD und Nvidia unterschiedliche Speichermanagements, in der Regel war es jedoch so das AMD auf ihren Karten den Speicher ein bisschen voller schaufelt als Nvidia^^
 
Zuletzt bearbeitet:
hier wäre ein bilderquote...

hmmm, also die speicherverbrauchsbalken kann man doch getrost vergessen.
korrigiert mich wenn ich falsch liege, aber die games füllen meist nicht nur soviel vram wie sie eigentlich bräuchten, sondern auch gerne noch etwas mehr, wenns vorhanden ist.
bei weniger speicher wird halt eher mal etwas unnötiges gelöscht/überschrieben...



und bezüglich frametimes, finde 4-5 peaks auf 20minuten spielzeit nicht soooo dramatisch, dass ich jetzt gleich mehr vram bräuchte. aber klar, wenn das jetzt schon der fall ist, wirds in zukunft bei anspruchsvolleren games wohl kaum viel besser. allerdings hat man ja schon zwischen 980 und 290x gesehen, dass beide trotz gleicher speichermenge je nach game völlig unterschiedliche frametimes aufweisen können. ausserdem stellt sich ja auch die frage, ab wieviel ms die peaks wirklich störend werden. verglichen mit älteren tests mit bis zu 150ms sind diese max 30ms ja lächerlich.
bleibt also nichts anderes übrig und auf tests und messungen der fx zu warten...



ps. bringt doch nicht immer das schlimmste aller beispiele... dass mordorsschatten ein vram-berserker ist, wissen wir inzwischen alle.
ein schelm wer böses denkt... aber in dem von dir geposteten frametimes test @ 1440p sind 4 games getestet worden (AC, FC4, Mordor und Ryse).

in 2(!) von diesen 4 games sind die titan und die ti mit ihren 6-12gb sogar mit höheren frametime-peaks vertreten als die "schwächere" 980 nonti. das nennt man dann wohl selektive wahrnehmung... ;)
und ich glaube wir sind uns einig, dass die peaks das eigentliche problem sind, und nicht die avg messungen.


ich frage mich allerdings gerade, woran es liegt, dass diese peaks überhaupt entstehen... aufgrund dieses cb-tests kann man ja nachladeprobleme wegen überfülltem speicher ausschliessen oder?

wie seht ihr das`?
 
Zuletzt bearbeitet:
Leute wir haben mehr als ein halbes Jahr mit extremen Enthusiasmus auf die Fury gewartet, wollen wir nicht einfach noch ein Jahr warten bis beide Kartenhersteller ausreichend HBM haben? :fresse:

Bin ich der einzige der sich über die 4GB aufregt, nicht weil er AMD schlehtreden sondern eine geile langhaltende High End Karte will?
 
Zuletzt bearbeitet:
Bin ich der einzige der sich über die 4GB aufregt, nicht weil er AMD schlehtreden sondern eine geile langhaltende High End Karte will?

Der einzige bist du nicht, gibt noch'n paar andere, die sich über ungelegte Eier aufregen.

edit:

Erstaunlich, dass eine GTX 970 in Mordors Schatten auf eine Speicherbelegung von nur ~ 3,6 GB kommt.

Wie sieht es bei der Karte denn Frametime-mäßig aus?

Man sollte den Diagrammen nach doch annehmen können, dass selbst 6 GB zu wenig sind.
 
Zuletzt bearbeitet:
Leute wir haben mehr als ein halbes Jahr mit extremen Enthusiasmus auf die Fury gewartet, wollen wir nicht einfach noch ein Jahr warten bis beide Kartenhersteller ausreichend HBM haben? :fresse:

Bin ich der einzige der sich über die 4GB aufregt, nicht weil er AMD schlehtreden sondern eine geile langhaltende High End Karte will?

Soll ich deine Probleme lösen und dir nen schicken 19" mit 1280 x 1024 schicken? :fresse:
 
....
Bin ich der einzige der sich über die 4GB aufregt, nicht weil er AMD schlehtreden sondern eine geile langhaltende High End Karte will?

Was bringen Dir jetzt 8GB wenn die GPU in 1 - 2 Jahren wieder am Anschlag rennt? Warte doch mal die Benchmarks ab. Wenn 8GB wirklich was bringen soll, sollte bei entsprechenden Benchmarks die 390X relativ mit der Fury X mithalten können.
 
die Frametimemessungen waren das Maß der Dinge weil der 500MB langsame Speicher Probleme macht und nicht weil es "nur" 3,5GB sind.

Stimmt nicht. Es gibt kaum ein Szenario wo die letzten 500MB genutzt werden, die sind praktisch per Treiber deaktiviert und so wird schon bei 3.5GB auf den nächsten Cache zugegriffen.
Frametime Messungen sind das einzig wahre um zu zeigen ob 4GB HBM zu wenig sind, oder nicht
 
wenn diese frametime-messungen so unglaublich aussagekräfig und wichtig sind, wieso kann dann eine tx mit 12gb höhere peaks aufweisen, als eine 4gb nonti? und das bei 1440p...

macht doch in dem zusammenhang irgendwie keinen sinn, den speicher nur nach ft-peaks zu beurteilen, wenn nachweislich mehr vram nicht unbedingt besser ist. :hmm:


@ster187
sollte doch mit einem dp2hdmi-adapter kein problem sein oder?
kenn mich da nicht so aus.
 
Zuletzt bearbeitet:
Was bringen Dir jetzt 8GB wenn die GPU in 1 - 2 Jahren wieder am Anschlag rennt? Warte doch mal die Benchmarks ab. Wenn 8GB wirklich was bringen soll, sollte bei entsprechenden Benchmarks die 390X relativ mit der Fury X mithalten können.

Es passiert aber genauso das die gpu noch stark genug ist aber der vram zu wenig, haben wir bei der 1,5gb gtx580 und 2gb gtx 680 gesehen.
GPU noch schnell genug aber zu wenig vram bei aktuellen titeln..

Ich persoenlich wuerde doch draus lernen und mir keine gpu mehr holen die bei release nur knapp ausreichend vram hat statt noch reserven..

Das dann die gpu eh zu schwach waere ist nichts als ne fragwuerdige rechtfertigung..
 
Zuletzt bearbeitet:
Die 580 war schon ausreichend bedient mit ihren 1,5 Gb. die 680 hätte aber in der Tat mehr vertragen können, da hast du Recht ;).
 
Eigentlich nicht, da wie gesagt die Problematik am besonderen Interface hängt, ich kenne keine Frametimemessungen wo eine 8GB Karte profitiert, die müsstest du dann schon verlinken.
Eventuell hat CB da mal ein Beispiel gehabt.

Spontan fallen mir die Beispiele ein:

 
Ihr wisst doch noch immer gar nicht, wie sich der HBM Speicher tatsächlich verhält...
 
Die Frametimes der 980 Ti und der Titan X sind sich in dem Fall viel zu ähnlich, als das man da irgendeinen spürbaren Unterschied merken kann und werden wahrscheinlich auch nicht durch den Speicher bedingt, sondern durch die sehr ähnliche GPU-Leistung.

Bei der ohnehin leistungsschwächeren 980 ist das FPS-Niveau generell niedriger, dafür aber sind mehr Spikes extremer. Und die können u.U. als Ruckler wahrgenommen werden.

Wäre der Speicher nicht ausschlaggebend, sollten sich eigentlich keine derart hohen Spitzen zeigen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh