Weitere Eckdaten zur AMD Radeon R9 390X

Naja, bis in annähernd zwei Jahren, wird es schätzungsweise 2-3 Karten auf dem MArkt geben, die mehr als 4Gb Vram verbrauchen. Da der Vram aber vorallem durch noch höherauflösende Texturen verbrauch wird, würde ich zumindest mal vermuten dass die Studios wegend en wenigen die solche Ultra-High End Karten haben, nicht oft den Zusatzaufwand betreiben werden, solch e Texturen zu produzieren.
Ganz davon abgesehen: Wer sagt dennd ass in 1-2 Jahren, die GPUleistung für die Games immernoch reicht?
Beides steigt ähnlich schnell an.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ganz im Gegenteil glaube ich das es immer mehr High-Res Texturen geben wird, da man einfach gleich High-Res Texturen entwickeln wird und diese dann nach Bedarf verkleinert, was wesentlich weniger Aufwand darstellt als umgekehrt und aus diesem Grund wird auch der Vram Bedarf auch weit schneller ansteigen als das bisher der Fall war - die Entwicklung sieht man ja schon vom letzten auf dieses Jahr.
Warum kommt die 980TI wohl mit 6GB Ram, wenn man mit 4GB immer auf der sicheren Seite wäre, nur aus Freundlichkeit am Kunden, sicher nicht bei Nvidia - oder warum gibt es die 290 mit 8GB.

High End kauft man sich ja auch um für die Grenzfälle (wenn die auch derzeit noch die Ausnahme darstellen) gerüstet zu sein - sonst kann man gleich in der Midrange bleiben, dort reichen dann auch 4GB.

Ich seh es eben so - wenn Amd von mir gutes Geld für ihre High End Karten will - dann will ich im Gegenzug auch eine HighEnd Bestückung - ansonsten dürfen sie die Karte behalten. Eine 390 mit 8GB und entsprechender Leistung darf gerne an die 600-700 und eine 390X mit 8GB gerne auch 700-800 kosten und ich werde sie kaufen. Dieselben Karten mit 4GB werde ich um das Geld aber sicher nicht kaufen.

Sollte es wirklich so kommen, werde ich weil mir aktuell sicher keine Nvidia ins Haus kommt auch nicht mit 6GB und mehr Speicher eben diesmal nur die Midrange von Amd kaufen - da kann ich mit 4GB und den Preisen leben und ein bisschen schneller als meine 7970 wird eine 380/X ja hoffentlich werden :)
 
Zuletzt bearbeitet:
....

Sollte es wirklich so kommen, werde ich weil mir aktuell sicher keine Nvidia ins Haus kommt auch nicht mit 6GB und mehr Speicher eben diesmal nur die Midrange von Amd kaufen - da kann ich mit 4GB und den Preisen leben und ein bisschen schneller als meine 7970 wird eine 380/X ja hoffentlich werden :)

So siehts aus. Und wenn die auch irgendwie doof ist, bleibt meine 7970 auch noch drin. Reicht immer noch aus für die meisten Spiele.
 
das ja oft und gerne behauptet wird das 4GB reichen - wo steht den in Stein gemeisselt das für die Spiele die heuer und nächstes Jahr noch so kommen auch die 4GB ausreichen werden?

ich weiß es ja nicht vielleicht bin ich die berühmte Ausnahme, aber wenn ich für High End Hardware mein gutes Geld ausgebe, dann erwarte ich auch das ich solange die Rechenleistung der Karte an sich ausreicht, ich sämtliche Spiele auf maximalen Einstellungen spielen kann - sonst kann ich mir gleich Midrange Hardware kaufen und dann halt die Details in beim Spielen entsprechend zurückdrehen.

Ne du bist keine Ausnahme keine Sorge ich gehöre auch da zu .
Watch dogs mit 2*TXAA @Ultra in FHD hat schon meine 780TI den RAM volles Brett zum über laufen gebracht.Auch wen Morders Schatten nicht das schönste Spiel ist so richtig lief es erst mit mit einer Titan 6GB laut PCGH.
Batman Arkahm bekommt optional ein Texturepack.
Evolve soll auch mehr wie 4GB wollen in FHD maxout .
Auch bei the Witcher 3 würde es mich nicht wundern wenn @Ultra in FHD die 4GB geknackt werden.
Cod advance hat sogar einer mit der 290X gezeigt in FHD 7,1GB.

Ich habe auf Experimente keine Lust .
Dadurch das die Konsolen soviel RAM haben möchte ich es mit 4GB gar nicht erstmal mehr ausprobieren.
Wenn ich schon 700-800 Euro in die Hand nehme soll es schon stimmig sein.

Soll jeder machen wie er denkt ich lasse mich aber nicht mit 4GB abspeisen.

Wenn man sieht wie schnell eine TitanX mit 1,5GHZ ist =970SLI+ hat man doch ne Menge Dampf für 6GB und wenn mal was über ist an RAM und Rohleistung kan man es auch noch in DSR oder VSR versenken .
 
Zuletzt bearbeitet:
CoD werte ich da gar nicht mehr, ich frage mich wie das auf solche VRAM-Mengen kommt. Andere Spiele sehen besser aus und bleiben unter 4 GB. Derzeit halte ich trotzdem 6 GB für das Minimum, wenn es um Ultra-Details geht und 8 wären da schon deutlich besser. Trotzdem wird eine 980 auch in zwei Jahren noch nutzbar sein, wenn man bedenkt dass selbst eine Grafikkarte von 2010 noch Spiele wie GTA V schafft.

Ich lasse mich mal überraschen was demnächst kommt, solange ist es mit einer 980 "aushaltbar", zumal ich fast nur Mass Effect 3 damit spiele.
 
Klar kann man immer ein Paar Regler zurück drehen .
Will ich das aber schon von Beginn an einkalulieren wenn ich 700-800 Euro für eine Karte ausgebe ?
Ich zumindest nicht.
 
ganz ehrlich ... wenn die wirklich nich viel schneller werden dann warte ich bis die draußen sind und die aktuellen im preis fallen ... dann leg ich mir einfach 1-2 290x mit 8gb zu und werde damit wahrscheinlich immernoch auf dem highend niveau der neuen liegen
 
Die Sorge habe ich auch Tougemike...
 
aber auch traurig :( kommst nach n paar jahren wieder zum pc-zirkus zurück und wenn du jetzt was dickes haben willst an gpu 500€+ und das ist echt n fettes PLUS :d ich steig wieder aus wenns soweiter geht :d :d :d
 
Eigentlich erschreckend, wie sich die Ansicht der Leute seit den letzten 5 Grafikkarten-Generationen so geändert haben.

GTX400 <-> HD5000: Effizienz ist egal, Leistung zählt
GTX500 <-> HD6000: Leistung über alles und die schlechten Treiber
GTX600 <-> HD7000: So viel VRAM braucht man ja niemals
GTX700 <-> R200: Hier kamen kurz die Frametimes auf, bis AMD nachgelegt hat
GTX900 <-> R200: Die 200er ist Veraltet, obwohl die Features überzeugen und natürlich ist jetzt die Effizienz wichtig. 3.5GB reichen doch eh locker und in diesen settings spielt man eh nicht.
GTX900 <-> R300: Und jetzt sind "Effizienz" und VRAM das Wichtigste...

Wann war noch einmal tessellation so wichtig? bzw wann war NVIDIA besser? :fresse:

Und natürlich durchgehend, Treiber sind schlecht, CUDA* und Physix und zwischendrin 3D vision, das zur Abwechslung mit G-sync ersetzt wurde.

Letzten endes hat AMD doch bei manchen hier eh schon von Anfang an verloren, selbst wenn AMD mit der R390 Strom produzieren würde, 50% schneller als die Titan wäre und 16GB hätte, würde manche sie immer noch nicht kaufen, weil damals die Treiber ihrer Radeon 9700 schlecht waren. MMn. sind alle die aktuell die R300 schlecht reden müssen, ohne irgendwelche handfeste Fakten zu haben, einfach nur die leute, die sich ihren 600€+ 980Ti oder Titan kauf schön reden müssen.

Fakt ist doch, wir wissen weder was mit der R390 kommt, noch wie gut sie mit ihren 4 oder evtl doch 8GB RAM umgehen kann. Und es sind immer noch zweierlei dinge, wie viel VRAM gefüllt wird und wie viel davon letzten Endes verwendet wird. Die GPU-Treiber sind wie Messies, sie schmeißen erst dinge weg, wenn die Wohnung (VRAM) überquillt.
 
Als die single 390X mit 8GB vermutet wurde, waren 4GB ganz klar zu wenig weil die limitiert vorne und hinten. Jetzt wo es die single 390X mit 4GB geben wird sind 4GB auf einmal genug für Alles.
Wenn ich mehr als 600 Euro auf den Ladentisch lege, dann wird das mit Sicherheit keine 4GB GPU werden.

Du pickst dir also irgendwelche Beiträge heraus von unterschiedlichen Leuten, die unterschiedliche Auffassungen haben und tust dann so, als hätte es eine Kollektivmeinung zu diesem Thema gegeben?
DAs ist doch sowas von hanebüchen.

Letztendlich enthält dein Beitrag genau null Information. Erstmal sollte man sich die Szenarien ansehen, wo die 4GB wirklich nicht mehr reihen und das sind bis auf Aufnahmen eben keine.
 
Zuletzt bearbeitet:
Naja, selbst wenn Sie super gut mit den 4GB umgehen würde, würde ich mir dennoch WÜNSCHEN dass Sie mit 8GB kommt, da ich einfach ein mulmiges Bauchgefühl habe, mir eine Karte <8GB zu kaufen.
 
selbst bei bester Speicherverwaltung und Komprimierung 4GB bleiben 4GB und der Weg der Daten aus dem Ram bis in den Vram bleibt auch derselbe egal ob HBM oder DDR. Ich kauf mir doch jetzt nicht noch neu ne 4GB High End Karte, damit ich mich dann nächstes Jahr ärgere und womöglich gleich wieder ne neue Karte kaufen muß - falls es nur 4GB gibt dann diesmal nur Midrange von Amd und dafür dann Umstieg auf die 14NM Karten sobald verfügbar - wobei das vielleicht ohnehin die klügere Lösung wäre - da dann wohl mit Arctic und Pascal ein richtig ordentlicher Leistungssprung drinn sein sollte.
 
Naja, mit Maxwell, hast gegenüber Kepler ja auch einen Mega Sprung... ca 50% ggü GK110...

Wenn die FijiXT auch 50+ auf die Hawaii drauf legt, dann ist das ok total ok!
Ich denke die FijiXT wird sogar mehr wie nur 50% auf die Hawaii drauf legen.
 
Zuletzt bearbeitet:
schon klar - allerdings erwarte ich mir von den shrinks auf 14 oder 16 Nm dann schon nochmal einen wesentlich größeren Sprung.

Da sollte die Performance einer Single Karte dann schon für flüssigen 4K Genuss auch mit hohen Details (vielleicht noch nicht maxxed out) reichen ...
 
schon klar - allerdings erwarte ich mir von den shrinks auf 14 oder 16 Nm dann schon nochmal einen wesentlich größeren Sprung.

Da sollte die Performance einer Single Karte dann schon für flüssigen 4K Genuss auch mit hohen Details (vielleicht noch nicht maxxed out) reichen ...

Nadann brauchst du ja nur bis NV Pascal und AMD Greenland warten^^
Laut letzter Gerüchte wollen beide Hersteller auf Effizienz gehen, mal sehen.
 
ja hab ich doch in ein paar Posts davor geschrieben: "ob es nicht vielleicht klüger wäre diesmal nur die Midrange Karte von Amd (380/X) zu kaufen und lieber auf Pascal und Arctic Islands zu warten."

Wenn dann allerdings beim Shrink die Effizienz im Vordergrund steht und nicht die Leistung wird es wohl weiter nichts mit 4K Full flüssig mit ner Single Karte :(
 
Naja ich denke nicht, dass ein Shrink noch weit machbar sein wird. Wie es derzeit aussieht, werden wir 2020 das Ökonomkisch machbare erreichen. Greenland schön und gut, aber ich finde 50% auf GCN 1.0 schon eine Hausnummer. Und wenn die TDP gleich bleibt, dann haben wir eine Effizienzsteigerung, etwas anderes tut Maxwell auch nicht. Man merkt aber , dass hier mehr Spieler als Technisch Affine Menschen anwesend sind. Maxwell verbraucht, wenn man die Zügel loslässt, nicht weniger als eine GCN 1.2 Karte wie Hawaii .. Tonga zeigt in Apples Macs wohin AMDs GCN steuert. Und 4K mit einer Sinlgekarten werden mit einer 980TI und einer R9 390X durchaus machbar sein. Niemand braucht bei 4K noch AA oder AF. Ich vermute aber weiterhin AMD bringt Tonga als R9 370x und R3 390 auf der Computex. Die R9 390X eben später da es HBM noch nicht als 8GB Version gibt. Sollte aber die 390X mit HBM knapp unter der Titan sein und nur 650€ kosten, dann kann Nvidia sich noch so schön seine Titan reden, man würde sie rein Ökonomisch gehen über Nacht Kannibalisieren und Wertlos machen. Aber ich denke eh, NV würde die TITAN lieber als Quadro verkaufen, da die Margen besser sind. Deswegen will ja AMD da auch wieder mitmischen. Ich vertraue der Frau Su, die weiß was sie tut
 
Naja bei gleicher bildschirm diagonale schon...
 
4k macht AA nicht überflüssig.....

Teilweise, ja. Ich merke aber gerade bei Spielen die kein richtiges AA oder nur FXAA besitzen dass sie deutlich glatter aussehen. Auf 4K sollte man auf das AA zuerst verzichten, bevor man andere Optionen reduziert, wenn man sich es noch leisten kann investiert man dann in AA.
 
Teilweise, ja. Ich merke aber gerade bei Spielen die kein richtiges AA oder nur FXAA besitzen dass sie deutlich glatter aussehen. Auf 4K sollte man auf das AA zuerst verzichten, bevor man andere Optionen reduziert, wenn man sich es noch leisten kann investiert man dann in AA.

Korrekt, auf meinem 32er WQHD Monitor siehts ohne AA auch besser aus, das wird bei einem 80cm Phillips UHD Monitor nicht anders sein. AA würde ich jenseits von FHD nur nutzen wenn noch genug Luft ist
 
GTA5 läuft auf der Titan X mit 1300mhz und 2x MSAA gerade so flüssig auf 2160x3840.
Man markt den Unterschied zwischen kein MSAA und 2x onen riesen Unterschied, wobei mit 4xMSAA sogut wie alles geglättet wird.
 
Eigentlich erschreckend, wie sich die Ansicht der Leute seit den letzten 5 Grafikkarten-Generationen so geändert haben.

GTX400 <-> HD5000: Effizienz ist egal, Leistung zählt
GTX500 <-> HD6000: Leistung über alles und die schlechten Treiber
GTX600 <-> HD7000: So viel VRAM braucht man ja niemals
GTX700 <-> R200: Hier kamen kurz die Frametimes auf, bis AMD nachgelegt hat
GTX900 <-> R200: Die 200er ist Veraltet, obwohl die Features überzeugen und natürlich ist jetzt die Effizienz wichtig. 3.5GB reichen doch eh locker und in diesen settings spielt man eh nicht.
GTX900 <-> R300: Und jetzt sind "Effizienz" und VRAM das Wichtigste...

Wann war noch einmal tessellation so wichtig? bzw wann war NVIDIA besser? :fresse:

Und natürlich durchgehend, Treiber sind schlecht, CUDA* und Physix und zwischendrin 3D vision, das zur Abwechslung mit G-sync ersetzt wurde.

Letzten endes hat AMD doch bei manchen hier eh schon von Anfang an verloren, selbst wenn AMD mit der R390 Strom produzieren würde, 50% schneller als die Titan wäre und 16GB hätte, würde manche sie immer noch nicht kaufen, weil damals die Treiber ihrer Radeon 9700 schlecht waren. MMn. sind alle die aktuell die R300 schlecht reden müssen, ohne irgendwelche handfeste Fakten zu haben, einfach nur die leute, die sich ihren 600€+ 980Ti oder Titan kauf schön reden müssen.

Fakt ist doch, wir wissen weder was mit der R390 kommt, noch wie gut sie mit ihren 4 oder evtl doch 8GB RAM umgehen kann. Und es sind immer noch zweierlei dinge, wie viel VRAM gefüllt wird und wie viel davon letzten Endes verwendet wird. Die GPU-Treiber sind wie Messies, sie schmeißen erst dinge weg, wenn die Wohnung (VRAM) überquillt.

Das stimmt, manche NV Boys würden niemals AMD Kaufen auch wenn AMD 5 Jahre vor NV wäre.
 
ich rede amd nichts schlechtes nach, kaufe aber trotzdem lieber eine nv.

bin ich deshalb auch einer von den bösen?
 
Wenn man mal zurückschaut, die 5000er-Serie ist selbst heute noch sehr gut, während die Nvidia-Karten von damals heute an DX11 scheitern. Das ist eindeutig ein technologischer Fortschritt, genauso wie die Implementation von GDDR5 (Wobei ich mir nicht sicher bin ob es da schon AMD war). Jetzt mit HBM gibt es eine ähnliche Situation, in einigen Jahren wird vermutlich jede Karte auf dem Markt HBM besitzen, so wie heutzutage kein GDDR3 mehr zu finden ist.
 
und wenn AMD die ersten mit HBM sind und NV erst eine Generation später nachzieht -> werden dann in 1-1,5 Jahren die AMD laut den NV-Käufern wieder veraltet sein :bigok: crazy-shit
 
Zuletzt bearbeitet:
@ tougemike

ich errinere mich moch daran als damals gut ein halbes jahr nach der AMD 7970 die GTX 480 erschienen ist. 5% mehr leistung das non plus ultra war auch wenn man einen feuerlöscher ganz nah am pc stehen haben musste. So was ähnliches kommt auch beim 390 er launch wetten.:cool:
 
Zuletzt bearbeitet:
Wohl kaum, sowohl AMD als auch Nvidia dürften daraus gelernt haben. Die 5000er und 400er sind die ersten richtig modernen GPUs, die beide DX11 schaffen, und sie waren beide nicht gerade kühl. Was manche vergessen, die aktuellen AMD-Karten sind nach wie vor gegen Kepler ausgerichtet, das in Sachen Energieeffizienz und Hitzeentwicklung ähnlich ist. Ich bin mir auch nicht sicher wie viel weiter entwickelt die Architektur von Fiji ist, sie bietet mehr Shader, aber vor allem den schnellen Speicher, und der bremst die meisten der Top-GPUs heute aus.

meanttobegrilled2nst6.jpg
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh