7970 aufrüsten-> 390X, Fury oder Nano oder sonst was?

fdsonne, du vergisst (wie so viele auch?) dass 4Gb HBM > 4Gb GDDR5.
Deshalb halte ich diese ganzen VRAM Diskussionen für absolut unsinnig.
Auch wenn sie so gut begründet sind, wie in deinen Posts.

Solange mir nicht handfest bewiesen wird, dass die Furys Probleme mit ihren 4Gb HBM haben, glaube ich da nicht dran.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
fdsonne, du vergisst (wie so viele auch?) dass 4Gb HBM > 4Gb GDDR5.
Deshalb halte ich diese ganzen VRAM Diskussionen für absolut unsinnig.
Auch wenn sie so gut begründet sind, wie in deinen Posts.

Solange mir nicht handfest bewiesen wird, dass die Furys Probleme mit ihren 4Gb HBM haben, glaube ich da nicht dran.

Naja ... der HBM hilft auch nur bedingt. Eine GTX980 ist in etwa gleich schnell, günstiger und verbraucht weniger. Da bringt es der Fury aktuell auch nicht viel, dass sie HBM besitzt und die GTX980 nur GDD5.

Edit:
Achso ... sehe gerade, das "Günstiger" stimmt ja nicht mehr seit der Aktion mit der Fury für 449€. Na dann kann man wohl auch eher die Fury nehmen. Die ~150W mehr an Leistungsaufnahme unter Last bleiben aber dennoch ... Auch wenn aus P/L Sicht eh die GTX980 auf Nvidia Seite nicht dolle finde. Da finde ich die GTX970 oder GTX980-Ti besser ...
 
Zuletzt bearbeitet:
Dann schau halt den angesprochenen CB Test an... Da ist die Fury dabei und es wird klar erwähnt, dass es dort schon anfängt problematisch zu werden. Das heist keineswegs, dass es immer und in jeder Situation zu wenig ist, ganz und gar nicht.
Und nein, ich vergesse da nicht ;) ich halte diese Aussage für Unsinn. Es ist pures Marketing und mehr auch nicht. 4GB sind 4GB. Versuche ich 5GB Rohdaten in den Speicher einer Fiji based GPU zu pumpen, wird das nicht reingehen. In die 8GB einer Hawaii 390er bspw. aber schon, wie auch in die 6GB der GM200 980TI oder TitanX usw.

Mir scheint viel eher, dass AMD sich einfach mal hingesetzt hat und dort (ähnlich, wie es bspw. NV mit der 970er zwangsweise tut), gewisse Eingriffe durch Optimierung am VRAM Management durchführt.
Auffallend ist nämlich bspw. der Unterschied (ebenso aus dem CB Test, genauer aus dem Test mit den 960er/Tonga Karten zu entnehmen), dass die AMD Modelle scheinbar (Außnahme Fiji based Karten) dazu neigen, mehr Speicher zu benötigen als die NV Modelle. Das lässt den Schluss zu, dass das VRAM Management bei VRAM Knappheit bei NV etwas besser als bei AMD funktioniert... Heist aber keineswegs, dass AMD ggf. gerade für die Fiji based Karten nicht vielleicht doch was dran geschraubt hat. Würde theoretisch sogar Sinn ergeben. Denn gerade die doppelte VRAM Menge der 300er Karten im Vergleich zu den 200er ist doch eins der Pro Argumente, die man zieht ;) Nur bei Fiji kann/konnte man das einfach nicht liefern, wenn es keine 8GB HBM Version zur Zeit gibt/gab.

Unterm Strich ist das aber alles nicht das Entscheidende. Das Entscheidende ist, wir sprechen HEUTE!!! über die Tatsache, dass die Speicher voll geschrieben werden können. Und das ohne nennenswerten Aufwand. Sprich du brauchst nicht die superdupertollen Mod Texturpacks mit 8k/16k whatever Texturen, nen handgesuchten Open World Titel und den Drang, den VRAM überbuchen zu wollen. Sondern das schaffen Spiele Out of the Box, die HEUTE im Regal stehen und zum Teil sogar schon ein paar Tage auf dem Buckel haben.

Was bleibt also über? Aus meiner Sicht klar die Frage, was morgen passiert... Kann dir heute natürlich keiner sagen. Logisch. Aber Eins und Eins zusammen zu zählen dürfte nicht sooo schwer sein. Die Warscheinlichkeit, dass der Fiji GPU im ersten Anlauf die 4GB zu wenig sein werden für künftige Titel, ist relativ hoch. Und Jeder, der sich heute so ein Teil in die Kiste steckt, sollte sich dessen Risiken bewusst sein.
Dazu kommt leider der Umstand, Texturqualität ist ein Schalter in den Spielen, der kostet idR keine GPU Power, bringt optisch durchaus aber was... Man läuft mit höherer Texturqualität in zukünftigen Titeln nicht in Gefahr, dass die GPU zu langsam wird.
Nimmt man dann noch den Part mit dem P/L dazu. Das Angebot mit der Fury oben ist durchaus fair, keine Frage. Aber für nen Besitzer einer Tahiti based GPU mit leichtem OC, ne Karte für 450€ schmackhaft zu machen, wo es mindestens mal zweifelhaft ist, wie das mit dem VRAM Bedarf in Zukunft ausschaut und wo die Leistungssteigerung im Bereich ~45-50%, der reine Aufpreis einer ähnlich schnellen Basis aber bei Faktor 2+ liegt, halte ich für den falschen weg... Das ist Geldverbrennung. Kann man machen, muss mann aber aber nicht ;)
 
Zuletzt bearbeitet:
@Terr0rSandmann
Es geht nur um die VRAM Diskussion, nicht um die Geschwindigkeit.

Was konkret die Geschwindigkeit angeht - laut diesem Test hier ist die Fury X fast durchweg merklich schneller als die 980 von NVIDIA.
Auch sollte man nicht vergessen, dass die AMD Teile mit der Zeit deutlich aufholen. Ich denke, das wird vorrangig an der beständigen Treiberoptimierung liegen.
Meine 2 GTX Titan vor einiger Zeit konnte man getrost in die Tonne treten, während ein Freund mit ähnlichem Setup bestehend aus 2x 290 wunderbar zocken konnte (speziell - Witcher 3).

Aber ich werde mich keinen Diskussionen über das Thema Geschwindigkeit anschließen, ich fahre mit obiger Meinung ganz gut und bis jetzt hat sich auch nie jemand über eine grobe Fehleinschätzung meinerseits beschwert.

@fdsonne
Anfängt problematisch zu werden, weil der Speicher voll ist?
Natürlich läuft der Speicher voll, soll er doch auch, dazu ist er da.
Ich nutze aktuell eine Nano und es gibt kein Spiel welches aktuell nicht wunderbar läuft (sofern die Leistung ausreicht).

Ich halte dieses Zukunftsdenken für ökonomisch sinnvoll, jedoch für wenig praxisgerecht.
AMD wird kaum ihre Karten durch fehlende Treiberanpassung durch den VRAM verhungern lassen.
Aber ich muss zugeben - wenn es eine Fury/Fury X/R9 Nano mit 8Gb für einen hunderter mehr geben würde, wäre das auch meine erste Wahl.

Was diese Treiberanpassungen angeht - ich behaupte einfach mal, dass die 980Ti mit ihren 6Gb eher Probleme bekommen wird, als eine der Furys mit nur 4Gb.
Ich habe einfach zu viel schlechtes über das grüne Unternehmen gelesen. Sollte dem in Zukunft nicht so sein, direkt mal eine PN an mich geschickt.
 
Zuletzt bearbeitet:
Ja, wohl weil der Speicher voll läuft... Zumindest wenn Gegentests mit 290(X) 4GB und 390(X) 8GB getätigt werden und die 8GB sauber laufen, Fiji based 4GB mit HBM und Hawaii mit 4GB dann aber in den Frametimes Ausreißen.
Man muss es ja nicht gleich derart drastisch merken, dass die FPS in den Keller geht. Wenn das eintritt, ist es so oder so schon eine massivste VRAM Überbuchung. Soweit wird man es idR gar nicht kommen lassen... Sprich man wird Details reduzieren.

Mal ne kleine Anekdote. Neueste TombRaider, tuckert hier auf Kepler GK110 SLI mit 3GB 1A, volle Details in FHD, einzig für SSAA in 4x reicht es nicht, da fehlt GPU Power. Es gibt im Spiel aber ganz paar Stellen, da kippt der kritische Punkt der VRAM Auslastung soweit über das Maß, was das VRAM Management kompensieren kann, dass die FPS in den Keller brechen... Was hilft? Texturen eine Stufe runter und dann ists wieder flüssig. Flüssig meint, 60-100 FPS, teils noch mehr.
Das ist ärgerlich... Und ich für meinen Teil kann da keine Empfehlung für aussprechen so ein potentielles Risiko für getrübte Spielfreude künftiger Titel einzukaufen... Ich bin an der Stelle aber auch bisschen gebrandmarktes Kind. Eine RV770 mit 512MB -> die hat AMD damals verhungern lassen. Eine HD5870 mit 1GB, die später ebenso klar am VRAM Mangel eingebüßt hat, GTX 470 SLI mit 1,25GB, was einfach obenraus (bei mir bis zu Kepler GK104 Release) keine Freude mehr war, GK104 SLI mit 2GB -> ebenso keine wirkliche Freude in hohen Settings. Bei den 780TIs ists dann geblieben bis heute und der Spaß fängt halt schon wieder an. Ich könnte mir in den Hintern beißen, damals nicht 6GB Titans gekauft zu haben. Das hätte mich HEUTE weiter bebracht. Aber ich war zu geizig ;)
Unter dieser Erfahrung über die letzten Jahre und Generationen, meine Behauptung, Fiji ereilt das selbe Schicksal. Und ich behaupte sogar, eher schneller als später. ;) Denn der Spaß mit UHD fängt jetzt erst an, der Spaß mit den HighRes Texturen kommt ebenso so langsam in fahrt und alles unterm Strich wird VRAM kosten. Ob AMD ewig auf alte GCN der "ersten" Generation optimieren wird, ist für mich fraglich. Cayman hat man ebenso recht schnell nach Tahiti Release fallen gelassen. Zumal da auch in 0,5-1 Jahr kein Hahn mehr kräht. Dann testet die Presse das neue Flaggschiff im neuen Prozess, 8GB+ HBM von NV und AMD -> für Fury interessiert sich da Keiner direkt mehr. Kauft der TE hingegen das Ding für teuer, muss er damit leben ;)
 
Zuletzt bearbeitet:
Es kommt aber auch immer auf den Anwendungsbereich einer Grafikkarte an. Für mich z.B. wird FHD in den nächsten 1-2 Jahren noch beständig bleiben und da sollten 4GB Vram noch reichen. Die wenigsten spielen in 2K oder 4K, will man natürlich immer oben "mitspielen" bedarf es gewisser Hardware, diesen Personen wird es dann aber auch egal sein jedes Jahr eine neue Karte zu kaufen.

Die Karten, welche aktuell 8Gb Vram besitzen, werden in Zukunft sowieso zu schwach sein, um zukünftige Spiele so einzustellen, um über 4Gb zu kommen. Ich hatte eine 390X getestet und die lief um einiges schlechter besonders in 2K, trotz ihrer 8Gb, als meine Fury, bei der die 4Gb oft erreicht werden. Grafikkarten sind die einzige Hardware, bei der man nicht zukunfssicher kaufe kann!
 
Zuletzt bearbeitet von einem Moderator:
Die Karten, welche aktuell 8Gb Vram besitzen, werden in Zukunft sowieso zu schwach sein, um zukünftige Spiele so einzustellen, um über 4Gb zu kommen. Ich hatte eine 390X getestet und die lief um einiges schlechter besonders in 2K, trotz ihrer 8Gb, als meine Fury, bei der die 4Gb oft erreicht werden. Grafikkarten sind die einzige Hardware, bei der man nicht zukunfssicher kaufe kann!

Wir sind jetzt schon am Punkt angelangt, an dem sich der vergrößterte Speicher einer R9 390 gegenüber einer R9 290 in manchen Situationen schon positiv bemerkbar macht. Ich vermute mal mit DX12 wird sich da auch nochmal einiges verändern. Denn in AotS und Hitman kann man unter DX12 bei den AMD-Karten teilweise ordentliche Zugewinne bei der Leistung beobachten und liegen teilweise bei bis zu 20%. Das führt dazu, dass die R9 390 beispielweise bei DX12 in die Leistungsklasse einer R9 Fury X bei DX 11 rutscht. Das sind momentan gerade mal die Anfänge von DX12. Wer weiß wie hoch die Zugewinne vom Wechsel von DX11 auf DX12 noch ausfallen mögen. Daher glaube ich, dass die jetzigen AMD-Karten hinsichtlich der ROhleistung noch deutlich länger überdauern können, als manch einer angenommen haben mag. Ob dann die 4GB VRAM einer Fury (X) oder Nano noch ausreichen mögen, steht wieder auf einem ganz anderem Blatt. Aber die Wahrscheinlichkeit, dass der Speicher vor der Rohleistung zum begrenzenden Faktor werden könnte, erhöht sich dadurch deutlich. Daher finde ich es sehr ratsam diesen Risikofaktor nun von Anfang an auszuschließen. Lange wurde die R9 390 hinsichtlich ihres Speichers immer belächelt: "Ist doch nur für Marketingzwecke ein Argument!" Ich hingegen glaube inzwischen immer mehr, dass der großzügig dimensionierte Speicher dafür sorgen könnte, dass die Karte noch sehr lange überdauen kann, ähnlich wie bei der HD 7950/7970.
 
@Klemens
Passend dazu bspw. die Meldung auf PCGH zu Quantum Break

"DX 12: CPU schlägt GPU

Auch Remedy setzt nach wie vor auf DirectX 11 und entwickelte zwei Versionen der Northlight-Engine. Das Endergebnis ähnelt dem der Kollegen von IO Interactive für Hitman: "Wenn man es richtig macht, sind DX-12- und DX-11-Engine gleich schnell, was die GPU-Leistung angeht", sagt Ville Timonen. "Wenn man eine Grafikkarte mit nur wenig RAM hat, wird das etwas schwieriger." CPU-seitig sieht es etwas besser aus: "Hier ist es leicht, die DX-11-Version zu übertreffen", so Timonen. Und das um fünf bis zehn Prozent. DirectX 12 hat bekanntlich einen geringeren Overhead, was die Datenverwaltung angeht, doch, so fragt sich Timonen: "Welche CPU wird vom API-Overhead eingeschränkt?" Insgesamt hat sich für Remedy die Mehrarbeit für die Entwicklung einer DirectX-12-fähigen Grafik-Engine zwar gelohnt, doch das war nicht so einfach, wie es Microsoft noch auf der letzten GDC vermeldet hatte. Damit Quantum Break sowohl auf Xbox One und PC mit DX-11- und DX-12-Grakfikkarten butterweich läuft, kam das Remedy-Team um "eine Menge Arbeit" nicht herum, so Timonen.
"
Quantum Break mit DX12: PC-Version zwei Stunden lang gespielt [Special der Woche]

Speziell der Part mit dem Speicher. Heist soviel wie, wenn der Entwickler schlampt, ist unter DX12 sogar schneller mit nem VRAM Limit zu rechnen wie mit DX11.
Komisch, erinnert mich irgendwie an BF4 mit Mantle zu Anfang. Da war doch was mit VRAM Überlauf bei Mantle und in DX11 nicht. Na huch... :wink:
Wohl den Leuten, die die tolle DX12 Performance bei AMD loben. Auf die 390er trifft das klar auch zu, auf Fiji... Abwarten.
 
@Klemens
Passend dazu bspw. die Meldung auf PCGH zu Quantum Break

"DX 12: CPU schlägt GPU

Auch Remedy setzt nach wie vor auf DirectX 11 und entwickelte zwei Versionen der Northlight-Engine. Das Endergebnis ähnelt dem der Kollegen von IO Interactive für Hitman: "Wenn man es richtig macht, sind DX-12- und DX-11-Engine gleich schnell, was die GPU-Leistung angeht", sagt Ville Timonen. "Wenn man eine Grafikkarte mit nur wenig RAM hat, wird das etwas schwieriger." CPU-seitig sieht es etwas besser aus: "Hier ist es leicht, die DX-11-Version zu übertreffen", so Timonen. Und das um fünf bis zehn Prozent. DirectX 12 hat bekanntlich einen geringeren Overhead, was die Datenverwaltung angeht, doch, so fragt sich Timonen: "Welche CPU wird vom API-Overhead eingeschränkt?" Insgesamt hat sich für Remedy die Mehrarbeit für die Entwicklung einer DirectX-12-fähigen Grafik-Engine zwar gelohnt, doch das war nicht so einfach, wie es Microsoft noch auf der letzten GDC vermeldet hatte. Damit Quantum Break sowohl auf Xbox One und PC mit DX-11- und DX-12-Grakfikkarten butterweich läuft, kam das Remedy-Team um "eine Menge Arbeit" nicht herum, so Timonen.
"
Quantum Break mit DX12: PC-Version zwei Stunden lang gespielt [Special der Woche]

Speziell der Part mit dem Speicher. Heist soviel wie, wenn der Entwickler schlampt, ist unter DX12 sogar schneller mit nem VRAM Limit zu rechnen wie mit DX11.
Komisch, erinnert mich irgendwie an BF4 mit Mantle zu Anfang. Da war doch was mit VRAM Überlauf bei Mantle und in DX11 nicht. Na huch... :wink:
Wohl den Leuten, die die tolle DX12 Performance bei AMD loben. Auf die 390er trifft das klar auch zu, auf Fiji... Abwarten.

Interessanter Artikel, danke dir :wink:

Ich war anfang sehr skeptisch als ich folgenden Artikel gelesen hatte:
CEO Lisa Su im Interview: In einem Jahr soll es heißen: „AMD ist zurück!“ - ComputerBase
"In einem Jahr soll es heißen: AMD ist zurück!"

Aber inzwischen habe ich immer mehr das Gefühl, dass AMD da gar nicht so unrecht haben könnte. Wie es scheint wurde sehr viel Kapital und Zeit in zukünftige "Technologien" investiert, die teilweise einfach der Zeit vorraus waren/sind. Dementsprechend könnten die Ausgaben für die aktuelle Generation (Fiji) und DX11-Angelegenheiten stark gekürzt worden sein. Aufgrund fehlender Unterstützung erwies sich das in den letzten zwei Jahren logischerweise nicht wirklich als Vorteil sondern eher als Nachteil, da beispielsweise das DX11-Overhead ins Hintertreffen geriet (meine Vermutung) und auch keine Neuerungen bei der Hardware mehr vorgenommen wurden (R9 Fury/Nano mal ausgenommen). Wenn man sich nun aber mal anschaut, wie sehr die "Rebrands" a la R9 390 und R9 390X, welche von vielen Leuten auch gerne als Steinzeittechnik bezeichnet werden, von DX12 profitieren und immernoch konkurenzfähig sind, dann könnte man fast schon meinen, dass AMD sich bewusst damals für diesen Weg entschieden hatte und schon damals sehr gut verstanden hat, welches Potential in DX12 liegt. Das eine R9 390 beispielsweise in Hitman oder auch AotS einer GTX 980 Ti sehr nahe auf die Pelle rückt, ist schon sehr beeindruckend. Klar kann man das nun nicht verallgemeinern und erwarten, dass es auch bei allen anderen DX12 Spielen so aussehen wird. Aber dennoch ist es schon erstaunlich, was AMD aus den "alten" Karten an Leistung noch herausholt. Umso mehr gespannt bin ich auf die kommende Grafikkarten-Generation. Bei so viel Hingabe hinsichtlich DX12 könnte da noch die ein oder andere unerwartete aber positive Überraschung lauern. Genauso gespannt blicke ich auf die Vorstellung der Zen-Generation im CPU-Bereich. Mich würde es sehr für AMD freuen, wenn sie Ende dieses Jahres wieder gleichauf mit Nvidia und Intel wären, aber ich werde meine Erwartungen nicht zu hoch stecken.
 
Zuletzt bearbeitet:
Vielen Dank für eure Unterstützung.
Hab mir eben eine neue 390x für 340€ gekauft und hoffe damit bis ende 17 ggf. Mit leichten abstrichen alles recht gut spielen zu können.

Und hitman gibt's gratis☺
 
Vielen Dank für eure Unterstützung.
Hab mir eben eine neue 390x für 340€ gekauft und hoffe damit bis ende 17 ggf. Mit leichten abstrichen alles recht gut spielen zu können.

Und hitman gibt's gratis☺

Wo gibts die denn für 340€? Und welche 390X ist es genau?
 
Ja, genau das hab ich gemeint.
Bin mal gespannt ob mein netzteil die parte packt.
Einerseits sollte ein bequiet mit 650 reichen andererseits ist das gute stück schon zwei Jahre alt .

Jedenfalls hab ich jetzt eine treue 7970 ghz mit 1100mhz ab werk abzugeben :)

Muss mich jetzt erst mal einlesen was untervolting angeht.
 
Zuletzt bearbeitet:
die ist direkt im Shop aber auch für das Geld gelistet. 8192MB Sapphire Radeon R9 390X Nitro inkl Backplate

@fdsonne
Deine Kaufberatung beschränkt sich in der Regel darauf, dass du prinzipiell die 980Ti empfiehlst bzw. Nvidia lastig. Es enttäuscht etwas, da ich mir persönlich von einem Mod eine gewisse Objektivität wünschen würde. Zum Kommentar von dem Entwickler. Das mag auf deren Engine zutreffen, aber es war schon immer so, dass es Spiele gibt die besser auf Nvidia laufen oder eben ATI/AMD. Das wird auch immer so bleiben, sowohl aufgrund der Architektur, als auch des Sponsorings der Entwickler. Von dem her ist es nicht wirklich fundiert sich auf diese Aussage zu stützen. Zu Mal man natürlich auch bedenken sollte, dass Quantum Break ursprünglich exklusiv für die XBone entwickelt wurde und ihrer sehr speziellen Grafikkarten-Architektur mit sehr wenig Speicher.

@TE
Hol dir die Sapphire für 349€ oder ein alternatives Angebot. Alle Karten außer dieser oder eben der 980Ti fallen in die 4GB Region, wobei ich das bei Fury weniger kritisch sehe.
Mit der 390er kommt man allerweil ohne zu starke Verluste bis in den September bei welchem man annehmen könnte, dass es alternative Produkte geben könnte.
 
Zuletzt bearbeitet:
Bin mal gespannt ob mein netzteil die parte packt.
Einerseits sollte ein bequiet mit 650 reichen andererseits ist das gute stück schon zwei Jahre alt.

Was genau ist es denn für ein Modell?
Die Watt alleine reichen als Angabe nicht aus.
 
Aber inzwischen habe ich immer mehr das Gefühl, dass AMD da gar nicht so unrecht haben könnte. Wie es scheint wurde sehr viel Kapital und Zeit in zukünftige "Technologien" investiert, die teilweise einfach der Zeit vorraus waren/sind. Dementsprechend könnten die Ausgaben für die aktuelle Generation (Fiji) und DX11-Angelegenheiten stark gekürzt worden sein. Aufgrund fehlender Unterstützung erwies sich das in den letzten zwei Jahren logischerweise nicht wirklich als Vorteil sondern eher als Nachteil, da beispielsweise das DX11-Overhead ins Hintertreffen geriet (meine Vermutung) und auch keine Neuerungen bei der Hardware mehr vorgenommen wurden (R9 Fury/Nano mal ausgenommen). Wenn man sich nun aber mal anschaut, wie sehr die "Rebrands" a la R9 390 und R9 390X, welche von vielen Leuten auch gerne als Steinzeittechnik bezeichnet werden, von DX12 profitieren und immernoch konkurenzfähig sind, dann könnte man fast schon meinen, dass AMD sich bewusst damals für diesen Weg entschieden hatte und schon damals sehr gut verstanden hat, welches Potential in DX12 liegt. Das eine R9 390 beispielsweise in Hitman oder auch AotS einer GTX 980 Ti sehr nahe auf die Pelle rückt, ist schon sehr beeindruckend. Klar kann man das nun nicht verallgemeinern und erwarten, dass es auch bei allen anderen DX12 Spielen so aussehen wird. Aber dennoch ist es schon erstaunlich, was AMD aus den "alten" Karten an Leistung noch herausholt. Umso mehr gespannt bin ich auf die kommende Grafikkarten-Generation. Bei so viel Hingabe hinsichtlich DX12 könnte da noch die ein oder andere unerwartete aber positive Überraschung lauern. Genauso gespannt blicke ich auf die Vorstellung der Zen-Generation im CPU-Bereich. Mich würde es sehr für AMD freuen, wenn sie Ende dieses Jahres wieder gleichauf mit Nvidia und Intel wären, aber ich werde meine Erwartungen nicht zu hoch stecken.

Natürlich... Das ist halt immer so eine Sache des Standpunktes... Wenn man sich die Daten der GPUs mal ansieht. So eine Hawaii GPU ist eigentlich recht fett im Vergleich. Dass es da in Teilen der DX11 Games nur für um die GTX970 Performance langt, die im Vergleich dazu winzig wirkt, ist von der anderen Seite her durchaus eher "komisch". Die Frage ist, hat AMD es wie du vermutet, vorher gewusst und mehr oder weniger bewusst so gesteuert, oder hat man vielleicht kein anderes Mittel in DX11 und älter gefunden, außer das Problem zu versuchen mit Hardware zu erschlagen? Das ist hier ja eigentlich die Frage.
Rein von den Zuwachszahlen ist der absolute Zuwachs zwar beeindruckend, aus meiner Sicht aber nicht entscheidend. Am Ende muss verglichen werden, was hinten bei rum kommt. Das war seinerzeit mit Mantle nicht anders, viel Zuwachs bei AMD DX11 zu Mantle Vergleichen, am Ende aber auch nicht wirklich schneller als NV mit DX11. Mich interessiert xx% DX12 Zuwachs nicht, wenn es unter DX11 hätte auch so aussehen können. Und das hätte es, wie NV zeigt. ;) Was die Zukunft mit DX12 bringt, wird sich zeigen. Es mehren sich, wie verlinkt halt die Statements, dass mehr Freiheit auch mehr Hausaufgaben für die Entwickler bedeutet. So 100% überzeugt mich das aber nicht... Vor allem wenn man sich den Trend mit der Qualität, vor allem im Gesichtspunkt Leistungsoptimierung der jüngeren Vergangenheit ansieht... Da sehe ich noch schwere Zeiten auf die Spielerschaft zukommen.

Hab mir eben eine neue 390x für 340€ gekauft und hoffe damit bis ende 17 ggf. Mit leichten abstrichen alles recht gut spielen zu können.

Ich denke schon, dass du soweit durchaus hinkommen kannst... Es wird sich halt rausstellen, was da in Zukunft noch kommt. Vor allem, was die neue Generation bringt. Kurz vor Tahiti/Kepler Release damals noch in alte HD6000er oder GTX500er Karten investiert war zumindest nicht die Beste Entscheidung ;)
Das KÖNNTE! hier ähnlich ausfallen... Dann hast du doch ne Menge Kohle in den Sand gesetzt. Wobei der Preis mit 340€ definitiv gut ist! Da gibts keinen Zweifel.

Also viel Spaß damit, wird schon... ;)
 
Naja Tahiti war ne komplett neue Architektur, das ist jetzt ja nicht wirklich der Fall. Und ne GTX 580 schlägt sich in Full HD immer noch wacker für ihr Alter.
 
Ich meine nicht das wackere schlagen allein auf die Leistung bezogen... Wenn NV da eine GPU im nächsten Fertigungsprozess bringt, die "nur" in die Leistungsklasse der Hawaii/GM204 GPUs kommt, was soll da bspw. mit dem Verbrauch passieren? Die kleinen 970er bringen gerade mal poplige 150W auf die Uhr. Selbst die 980er ist da mit ~200W noch gut in der Norm.
Bezogen auf die alte Fermi/Cayman Technik. Eine 680er mit anfangs ~20-30% mehr Power bei ~180-190W Verbrauch vs. ~250W (Cayman) und teils über 300W (Fermi) spricht schon Bände... Ggü. Cayman war die Leistung sogar noch größer.

Es wird halt entscheidend sein, wo man sich plaziert. Da bis dato nichts handfestes bekannt ist, ist das alles reine Spekulation. In gewisser Weise ist das aber auch eine Art Zugzwang für beide Parteien... Ganz sicher wird NV, sofern man es technisch vermag und wieder als zweite released, das AMD Teil versuchen zu übertreffen. Bei AMD sollte es, wenn sie die zweiten sind, ebenso ausschauen. Aktuell scheint AMD primär auf Effizienz zu setzen. Das heist aber aus meiner Sicht nicht zwangsweise, dass man das zulasten der absoluten Leistung tätigen wird. Zumal gerade die großen Fury und 980TIs nun nicht unbedingt im direkten Vergleich die effizientesten sind. Also da ist potentiell angriffsfläche vorhanden.
 
Ich denke schon, dass du soweit durchaus hinkommen kannst... Es wird sich halt rausstellen, was da in Zukunft noch kommt. Vor allem, was die neue Generation bringt. Kurz vor Tahiti/Kepler Release damals noch in alte HD6000er oder GTX500er Karten investiert war zumindest nicht die Beste Entscheidung ;)
Das KÖNNTE! hier ähnlich ausfallen... Dann hast du doch ne Menge Kohle in den Sand gesetzt. Wobei der Preis mit 340€ definitiv gut ist! Da gibts keinen Zweifel.

Also viel Spaß damit, wird schon... ;)

Also entweder alles richtig gemacht oder amd was gutes getan und damit was für die konkurrenz gemacht.
Kann ich gut mit leben.:)
 
Es kommt aber auch immer auf den Anwendungsbereich einer Grafikkarte an. Für mich z.B. wird FHD in den nächsten 1-2 Jahren noch beständig bleiben und da sollten 4GB Vram noch reichen.

Woher kommt diese Annahme? Viele Kepler-Karten verhungert heute auch oft am VRAM in FullHD. Zu Release hieß es genauso von den Fanboys man spiele ja nur in FullHD. Wenn es so wäre, dann würden 512MB VRAM seit Jahren reichen und der Bedarf nicht weiter steigen.
Mit den Konsolen sind 8GB VRAM das Ziel, das ist seit erscheinen der Hardware-Daten bekannt. Wer das ignoriert schaut eben am Ende in die Röhre.



Ich könnte mir in den Hintern beißen, damals nicht 6GB Titans gekauft zu haben. Das hätte mich HEUTE weiter bebracht. Aber ich war zu geizig ;)

Ob AMD ewig auf alte GCN der "ersten" Generation optimieren wird, ist für mich fraglich. Cayman hat man ebenso recht schnell nach Tahiti Release fallen gelassen.
Hättest du mal Tahiti CF mit 6GB VRAM gekauft, dann wäre die Leistung heute ebenfalls auf Titan-Niveau nur eben zu einem ganz anderen Preispunkt. AMD muss garnicht auf GCN optimieren, dass machen die Spielentwickler ganz von alleine. Die Schwierigkeit bei AMD lieg einzig darin die Architketur so zuverändern, dass man neue Funktionen implementiert und gleichzeitig die Architektur so ähnlich bleibt, dass man automatisch von der Konsolenentwicklung profitiert. Die 7970 ist nun mal auf Titan1-Niveau (1,5 Jahre später, 3 facher Preis).

Das die GTX580, GTX680, Titan etc preislich extrem Federn gelassen haben liegt nicht zuletzt an den Mondpreisen bei Nvidia. Zudem lässt Nvidia treiberseitig regelmäßig alte Karten performancemäßig untergehen.
GCN ist nun ebenfalls eine sehr flexible 1D-Architektur wie nun mal auch bei Nvidia seit G80. Das wird sich nicht so schnell wieder ändern. Cayman war eine VLIW-Architektur und der Bruch entsprechend groß. Das man diese Fallen lässt war sehr vorhersehbar. Was zudem für die Langlebigkeit bei GCN spricht ist eine ganz andere Produkt- und Releasestrategie. Anstatt bei jeder Grafikkartengeneration das komplette Linup mit einer neuen Architektur zu versorgen lässt man 2-3 Generationen parallel laufen. Das senkt Entwicklungkosten und spart Entwicklungsressourcen. Das funktioniert aber nicht zuletzt dank gratis Optimierung der Spieleentwickler durch die PC-nähe der Konsolen. Böse böse Rebrands. ;)

Die 4GB VRAM bei Fiji sind ärgerlich und AMD untypisch aber technisch nicht anders machbar. Fiji ist ohnehin kein Produkt für die Masse sondern der erste Testballon für HBM. Vega wird Nvidia zimlich gegen die Wand spielen. Bei Nvidia gab es erst Spielebundle, nun Cashback für Aufrüster. AMD ist hier aktuell in der deutlich besseren Position und daher wird Nvidia das Dickschiff vor AMD releasen müssen. AMD wird dann entsprechend kontern mit allem was man so zu bieten hat. GCN, DX12, HBM2.
Wie AMDs Radeon R400 Serie wahrscheinlich aussieht | 3DCenter.org
 
Zuletzt bearbeitet:
Ob AMD ewig auf alte GCN der "ersten" Generation optimieren wird, ist für mich fraglich. Cayman hat man ebenso recht schnell nach Tahiti Release fallen gelassen. Zumal da auch in 0,5-1 Jahr kein Hahn mehr kräht.

Warum es für GCN noch etwas länger Optimierungen geben wird:
Couple of things:

1. if you look in gfx_v8_0.c you'll see a lot of chip-specific logic within the GFX 8.0 IP block handler framework, although it mostly affects things like golden register setup

2. AFAICS for this cycle we focused on optimizing HW performance without changing the software-visible behavior more than necessary. If we hadn't just finished restructuring all of our drivers around block revision handlers I guess we might have called this GFX 9, but starting a new set of IP block handlers would have meant a lot of wasted work and running GFX 9 using GFX 8 block handlers would have been a bit wierd too.

It's probably fair to say that the new driver architecture ends up pushing back a bit on how new HW generations are named... IOW we only bump the GFX version number if the programming model is significantly different rather than making the decision based only on internal implementation.
Quelle: Stoney ridge? - Page 12 - SemiAccurate Forums
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh