AMD wird 'Fiji'-GPU alias Radeon Fury X am 16. Juni offiziell vorstellen (Update)

Jup also ich hatte bei The Witcher@ 5120x2880 5200MB Vram verbrauch und bei FarCry@ 4K mit 4xMSAA 7000Mb Verbrauch.
COD Ghosts zieht in 4K knapp 11GB Vram :fresse:

und die FPS waren unspielbar oder? (mit SLI siehts anders aus, aber das nutzen so extrem wenige, da kann man auch auf ne 8GB Version warten bzw. auf DX12)

derzeit ist das ein Vorteil von NV, das gebe ich zu.

aber alleine, dass AMD als erster Hersteller HBM verbaut der auch zu funktionieren scheint sollte man respektieren.

- - - Updated - - -

GTA5 zum Beispiel. Ehrlich gesagt fallen mir nicht so viel ein da ich auf Full HD mit 3GB eigentlich keine Probleme habe.
Watch Dogs wäre auch nen Kandidat, sieht aber Kacke aus.

mmhh also GTA5 läuft mit 4GB Vram selbst alles auf Max sehr gut (bis auf die Microruckler der 970GTX) wobei ich sagen muss, die Optionen die den meisten Vram fressen, haben fast keine Auswirkung auf die Optik (da muss man wirklich mit der Lupe suchen)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Glaub ich dir, aber du musst immer davon ausgehen dass es Leute gibt, die einfach alles hochschrauben, egal ob mans sieht oder nicht. Warum auch nicht wenn die Leistung der GPU da ist.
 
4GB+ sind erst interessant bei 1440p+ gaming bei 4K sprengen schon einige Games 4GB Vram
4GB ist viel zu wenig bei einer so starken karte
 
und dennoch weiß noch keiner wie sich der HBM Speicher in solchen Situationen macht und ob AMD nicht auch auf Komprimierung setzt wie Nvidia

es kann doch durchaus sein, dass es garkeine Ruckler beim Nachladen gibt wenn der Vram voll ist durch die hohe Durchsatzrate.
 
und dennoch weiß noch keiner wie sich der HBM Speicher in solchen Situationen macht und ob AMD nicht auch auf Komprimierung setzt wie Nvidia

es kann doch durchaus sein, dass es garkeine Ruckler beim Nachladen gibt wenn der Vram voll ist durch die hohe Durchsatzrate.

uaargh >_>
okey, der durchsatz von HBM ist überirdisch. aber denkt doch alle mal ganz kurz nach! WO kommen denn die daten her, die in den HBM rein kommen?
andere dimension? äther? vom batman?
nein, die kommen bestenfalls vom RAM. hat der auch eine durchsatzrate? ja, aber nicht so hoch die die vom HBM. was heißt das also? genauuu der RAM limitiert.
und das bei HBM genauso wie beim GDDR5. >_>
 
wäre mir neu wenn die Daten für den Vram erst vom Ram kommen :wall:

würde ja den deutlich schnelleren Vram (und vor allem HBM auf den bald auch NV setzt) überflüssig machen oder?
 
es kann doch durchaus sein, dass es garkeine Ruckler beim Nachladen gibt wenn der Vram voll ist durch die hohe Durchsatzrate.
Da nachzuladende Daten von anderne Medien kommen die SEHR viel langsamer sind wage ich das zu bezweifeln.
 
Denke trotzdem das man das nicht so einfach sehen kann. Bin der Meinung von MT_RAZORLIGHT. VRAM Grösse sagt Alleine noch nicht alles aus in Bezug auf Nachladeruckler etc. - da spielen definitiv "Cache" Mechanismen/ Kompressionstechnologien etc. auch eine Rolle. Sollten einmal abwarten wie sich die Karten in Realität schlagen werden. Offiziell gibt es noch keine Infos.
 
Zuletzt bearbeitet:
wäre mir neu wenn die Daten für den Vram erst vom Ram kommen :wall:

würde ja den deutlich schnelleren Vram (und vor allem HBM auf den bald auch NV setzt) überflüssig machen oder?

und wo kommen die daten denn dann her? schlimmstenfalls von der harddisk, deswegen sagte ich auch "bestenfalls vom RAM".

edit: ich glaube du hast das konzept dahinter noch nicht ganz verstanden. der VRAM ist dafür da, dass texturen/zeug das dauernd gebraucht wird SCHNELL verfügbar ist für die graka. d.h. irgendwann mal werden die ein erstes mal von der harddisk/vom RAM da rein geschubst.
wenn jetzt daten für ein bild gebraucht werden, die NICHT im VRAM liegen, weil der VOLL ist und sie deswegen keinen platz haben passiert folgendes:
nicht benötigte daten werden aus dem VRAM ausgelagert, damit platz wird, dann werden die benötigten und nicht verfügbaren daten von irgendwoher (RAM oder HDD) in den VRAM geschrieben. ab diesem zeitpunkt kann die graka dann die daten verwenden. und genau dieses in den VRAM packen kostet zeit weil hier die daten von einem LANGSAMEN medium ausgelesen werden müssen.
roger?
 
Zuletzt bearbeitet:
und wo kommen die daten denn dann her? schlimmstenfalls von der harddisk, deswegen sagte ich auch "bestenfalls vom RAM".

edit: ich glaube du hast das konzept dahinter noch nicht ganz verstanden. der VRAM ist dafür da, dass texturen/zeug das dauernd gebraucht wird SCHNELL verfügbar ist für die graka. d.h. irgendwann mal werden die ein erstes mal von der harddisk/vom RAM da rein geschubst.
wenn jetzt daten für ein bild gebraucht werden, die NICHT im VRAM liegen, weil der VOLL ist und sie deswegen keinen platz haben passiert folgendes:
nicht benötigte daten werden aus dem VRAM ausgelagert, damit platz wird, dann werden die benötigten und nicht verfügbaren daten von irgendwoher (RAM oder HDD) in den VRAM geschrieben. ab diesem zeitpunkt kann die graka dann die daten verwenden. und genau dieses in den VRAM packen kostet zeit weil hier die daten von einem LANGSAMEN medium ausgelesen werden müssen.
roger?

also ist sogesehen HBM fürn Arsch.. gut zu wissen :rolleyes:

edit: Roger Roger, dennoch will ich erst handfeste Beweise dazu sehen wie sich die 4GB HBM schlagen.

- - - Updated - - -

Computerbase hat den Speicherverbrauch gemessen und auch mit einem langsameren Prozessor die AMD und NV Karten getestet.
Man sieht weder bei AMD einen höheren Speicherverbrauch, noch einen höheren Overhead, das sind einzelfälle die von einigen schlicht hochstilisiert werden.
4GB sind in 99% der Fälle, auch in 4K erstmal ausreichend, zumal die Karte prinzipiell eh nur für Full HD oder 2560x1440 ausreichend ist.

Meine Titan X liefert selbst mit OC in Witcher nur 33 FPS in 4K, das kann man knicken, da braucht man SLI und CF Lösungen.

seh ich genauso, 4K wird erst mit DX12 und 14nm wirklich spielbar.

und ich spiel derzeit eh nur auf einem FHD mit Downsampling da mir die 4K Monis einfach das Geld nicht wert sind, 4K ist einfach noch eine Nischenerscheinung
 
Zuletzt bearbeitet:
@MT_RAZORLIGHT
siehe oben mein edit. der ist natürlich nicht für den arsch. er ist nur dann für den arsch wenn er voll ist.
 
und dennoch weiß noch keiner wie sich der HBM Speicher in solchen Situationen macht und ob AMD nicht auch auf Komprimierung setzt wie Nvidia

es kann doch durchaus sein, dass es garkeine Ruckler beim Nachladen gibt wenn der Vram voll ist durch die hohe Durchsatzrate.

Unwahrscheinlich. Fiji wird sehr wahrscheinlich auf das gleiche Texturkompressionsverfahren wie Tonga setzen. Insgesamt nehmen sich dann AMD und nVidia kaum etwas. Was bleibt ist die höhere Bandbreite von 336GByte/s (Titan X) zu 512GByte/s.

Außerdem lässt sich die Speichermenge nur sehr bedingt durch Geschwindigkeit kompensieren. Wenn voll dann voll. Da hilft dann nur noch mehr Speicher...
 
also ist sogesehen HBM fürn Arsch.. gut zu wissen :rolleyes:
Ja, exakt, denn HBM soll nicht das Problem von mangelndem Vram lösen >_>
Es soll aber den Durchsatz von VRam <-> GPU beschleunigen. Zur Zeit könnte man das zwar noch mit Gddr5 bewerkstelligen - wie die Titan X zeigt, aber bei der nächsten Generation ist diese Technik definitiv am Ende.
Zudem ist HBM etwas sparsamer, langfristig günstiger herzustellen (die GPU selbst wird auch günstiger) und kleiner. Sicher die Hauptgründe für AMD die Technik mitentwickelt zu haben und sie einzusetzen.
 
Zuletzt bearbeitet:
Unwahrscheinlich. Fiji wird sehr wahrscheinlich auf das gleiche Texturkompressionsverfahren wie Tonga setzen. Insgesamt nehmen sich dann AMD und nVidia kaum etwas. Was bleibt ist die höhere Bandbreite von 336GByte/s (Titan X) zu 512GByte/s.

Außerdem lässt sich die Speichermenge nur sehr bedingt durch Geschwindigkeit kompensieren. Wenn voll dann voll. Da hilft dann nur noch mehr Speicher...

dann bleibt die Frage warum AMD dennoch HBM mit "nur" 4GB verwendet.

so damit alle zufrieden sind...

ja ich hatte Unrecht mit dem vollen Vram usw. :)
 
Allerdings sprachst du vorher ja vom Potential der 300er Reihe. -> was eben so explizit wohl nicht vorhanden sein dürfte, da es eben zu großen Teilen 1:1 Refresh/Rebrands der 200er und HD7xx0er GPUs sind. Dafür wird halt schon 3+ Jahre Treiberoptimiert. ...

Warum wird das immer noch als Fakt hingestellt, dass es abseits von Fiji nur 1:1 Rebrands werden?

Es spricht so vieles dagegen:
- Man gibt den Chips idr. keinen neuen Codenamen, wenn man nichts geändert hat.
- AMD will Freesync vorantreiben (hoffe ich doch), da wird man keine Karte rebranden, die das nicht kann
- Einzig Tonga ist GCN1.2 und bietet ein paar neue Features

Und es gibt noch ein paar andere nicht ganz so schwerwiegende Baustellen:
- Downsampling ist noch recht unflexibel und könne nicht alle Karten
- aktuell fehlt HDMI 2.0, auch wenn es nicht das super wichtige Feature ist
- usw.

Das einzige was für rebrands spricht sind doch nur irgendwelche IDs, die aus einem Treiber ausgelesen wurden?
Das könne aber auch die OEM Versionen gewesen sein, die rebrands werden.

4GB+ sind erst interessant bei 1440p+ gaming bei 4K sprengen schon einige Games 4GB Vram
4GB ist viel zu wenig bei einer so starken karte

Es gibt aber auch einen Unterscheid zwischen brauchen und nutzen ;)
 
sie hätten dennoch GDDR5 verwenden können

denke nicht, dass AMD HBM gewählt hätte, wenn es ein limitierender Faktor wäre nur um den Verbrauch/Kosten zu drücken.

Tja, die Frage wäre dann ob die Karte damit auch konkurrenzfähig(er) wäre, sowohl leistungstechnisch als auch wirtschaftlich, denn mit einen GDDR5-Speicherinterface wäre das ganze GPU-Design wesentlich komplexer. Wenn mit HBM für Fiji XT schon 300W TDP auf der Waage stehen, würde es mit GDDR5 noch schlechter aussehen. Die GPU-Fläche wäre wesentlich größer, der Chip damit stromhungriger und teurer in der Fertigung, evtl. auch gar nicht produzierbar durch das Fertigungslimit bei TSMC. Geht man nämlich von der Hawaii-GPU mit 2816 Streamprozessoren und einer Chipfläche von 438mm² aus, rechnet diese dann auf 4096 SP hoch, wären wir bei Fiji XT bei ca. 635mm², was ein enorm fetter Chip wäre, sogar noch fetter als der GM200 (601mm²)!

Ich persönlich sehe HBM damit hier eher als eine (sinnvolle) Notwendigkeit an. Insgesamt gesehen dürfte AMD, trotz momentaner 4GB Limitierung durch HBM mehr Vorteile als Nachteile haben.
 
denke nicht, dass AMD HBM gewählt hätte, wenn es ein limitierender Faktor wäre nur um den Verbrauch/Kosten zu drücken.

vermutlich haben sie das aus 2 gründen gemacht:

1) billiger ;) das ist immer ein wichtiger faktor.
2) das design der fury muss jetzt wieder eine zeit lang halten, da ist es zu teuer zuerst eine version zu entwickeln die GDDR5 hat nur damit man 8 Gig draufhauen kann und dann nacher noch eine zweiter version zu entwickeln wo HBM rauf kommt. das wäre einfach zu teuer und auch sinnlos.

nvidia tut sich bei der Ti ja auch nix an, das design für die titan und die kleine 980er ist beides auf GDDR5 -> zahlt sich nicht aus eine HBM version zu entwickeln -> kommt erst mit pascal

edit: es ist einfach zu teuer ein bestehendes design grossartig zu ändern. und genau deswegen wird die 3xx serie auch nicht viel besser als die 2xx sein -> die werden da nix umreissen und auf einmal einen "uber"-chip draus machen. wär doch bescheuert vollgas R&D in einen veralteten chip zu pulvern. und bitte kommt mir jetzt nicht mit "aber die is ja noch soo gut, schau wie toll die noch is in den benches" etc., ich kann euch garantieren, dass AMD da keine kohle mehr reinsteckt!
 
Zuletzt bearbeitet:
genau anders rum, mit HBM müssen sie einen ganz anderen Weg gehen also komplett neu designen während GDDR5 schon auf etlichen Chips zum Einsatz kommt.
Chipgröße hat nix mit GDDR zu tun, eher mit HBM da der Speicher über einen Interposer auf dem Chip liegt.

:confused:

Nimmst du doppelte Tonga XT GPU + HBM Interface, fertig ist dein Fiji XT. ;)
 
:confused:

Nimmst du doppelte Tonga XT GPU + HBM Interface, fertig ist dein Fiji XT. ;)

:rofl:

wenn das nur so einfach wäre, geil made my day
meinst du AMD hätte so lange gebraucht wenn es so easy wäre

manchmal glaube ich der Kopf mancher Menschen ist da damit es nicht in den Hals regnet (nicht übel nehmen aber dein Kommentar... :rofl:)
 
Zuletzt bearbeitet:
-> Meine Prognose, Fiji Pro und XT trennen ca. 10-15% Leistung. Die XT erreicht knapp TitanX Leistung.

Würde rein rechnerisch sogar hinkommen. 3584 SP (Fiji Pro) zu 4096 SP (Fiji XT) sind ca. 15% Unterschied, dazu noch 50MHz weniger. Da richtet sich Fiji Pro leistungstechnisch dann eher gegen Custom-Modelle der GTX980.
 
also hatte ich doch recht :d

390X gegen 970
Fiji Pro gegen 980
Fiji XT/nano gegen Ti/Titan (Ti und Titan ist von der Leistung her sowieso so gut wie die selbe Karte, bis auf den Vram)
 
1. HBM ist sicherlich teurer als GDDR5
2. hat nix mit meiner Frage zu tun, sie hätten HBM auch komplett außen vor lassen können bis HBM V2 was sie aber nicht gemacht haben und das wird sicher seine Gründe haben.

ad 1: falsch, genau darum ist der ja so klasse. er geht in die höhe -> weniger fläche auf den chips -> mehr speicher pro fläche -> mehr speicher pro wafer -> billiger. ;)
ad 2: nein hätten sie nicht können. die leute sind ja _jetzt_ schon außer sich, dass so lange keine karte von amd gekommen ist. dich eingeschlossen. was glaubst du was die gemacht hätten wenn AMD gesagt hätte: "fury kommt zeitgleich mitm pascal". die _mussten_ jetzt was bringen und die konnten auch nicht mehr auf das alte GDDR5 bauen weil sie das design jetzt noch länger "am hals haben".

Nvidia verwendet noch kein HBM weil sie so viel Profit wie möglich schlagen wollen und mit großen tollen Zahlen punkten möchten (tja bei der 970 hat es dann wohl nicht ganz geklappt aber super Beispiel für mein Argument)
außerdem hat AMD (mal wieder) HBM mitentwickelt
genau meine worte, nichts anderes sagte ich, oder? warum ein redesign machen, wenn das alte noch gut genug rennt und die nächste generation sowieso schon die neue tech verwendet.

mein edit war mehr an die allgemeinheit gerichtet, tut mir leid, dass es so rüber gekommen ist als würde ich das nur an dich richten. mir ist klar, dass du hier nichts dergleichen gesagt hast, ich wollte nur nicht eine extra post deswegen machen.
 
Ich warte DX12 ab. Wenn sich bewahrheitet, dass Spiele tatsächlich den Gesamten Speicher von zwei GPU's benutzen können und somit bei zwei Fiji's 8 GB (bzw - sagen wir mal 6 GB, denn 1:1 Verdoppelung ist schon recht unrealistisch). Tatsache ist, dass ich mit Eyefinity schon jetzt sehr viel Grafikspeicher benötige. Wenn unter Dx12 zwei Furys effektiv nur 4 GB haben sind die Karten für mich uninteressant.
 
Ich warte DX12 ab. Wenn sich bewahrheitet, dass Spiele tatsächlich den Gesamten Speicher von zwei GPU's benutzen können und somit bei zwei Fiji's 8 GB (bzw - sagen wir mal 6 GB, denn 1:1 Verdoppelung ist schon recht unrealistisch). Tatsache ist, dass ich mit Eyefinity schon jetzt sehr viel Grafikspeicher benötige. Wenn unter Dx12 zwei Furys effektiv nur 4 GB haben sind die Karten für mich uninteressant.

das relativ freie verwenden von beiden vrams einer cf-karte muss in erster linie nicht vom treiber sondern vom game unterstützt werden...
 
ad 1: falsch, genau darum ist der ja so klasse. er geht in die höhe -> weniger fläche auf den chips -> mehr speicher pro fläche -> mehr speicher pro wafer -> billiger. ;)
ad 2: nein hätten sie nicht können. die leute sind ja _jetzt_ schon außer sich, dass so lange keine karte von amd gekommen ist. dich eingeschlossen. was glaubst du was die gemacht hätten wenn AMD gesagt hätte: "fury kommt zeitgleich mitm pascal". die _mussten_ jetzt was bringen und die konnten auch nicht mehr auf das alte GDDR5 bauen weil sie das design jetzt noch länger "am hals haben"
Jup und das könnte dann ein Problem sein weil Maxwell scheint jetzt schon effizienter zu sein obwohl da der Stromhungrige GDDR5 speichercontroller drauf ist und das teil 600mm² groß ist.
AMD kann nur froh sein das NV nicht an die 300Watt Spezifikation gegangen ist weil dann wäre man uneinholbar vorne es sei den AMD würde da deutlich drüber gehen
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh