AMD arbeitet auch an einem GDDR6-Speicherinterface

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.886
amd_logo.jpg
Moderne GPUs sind auf eine schnelle Anbindung des dazugehörigen Speichers angewiesen. Die Entwicklung von High Bandwidth Memory ist vor allem aus diesem Umstand gestartet worden. Allerdings gab und gibt es bei der Fertigung von HBM noch immer Probleme – die Fertiger hängen bei den Auftragskapazitäten hinterher und auch die Geschwindigkeiten des Speichers sind noch lange nicht auf dem geplanten Niveau. Diese Auswirkungen hat wohl auch AMD mit dem eher mäßigen Start der Vega-Generation zu spüren bekommen.Auf der anderen Seite hat sich NVIDIA klar positioniert: HBM bzw. HBM2 nur für die professionellen Beschleuniger, GDDR5 bzw. GDDR5X für die Consumer-Karten. An dieser...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Verwundert doch überhaupt nicht... Auch AMD geht mit der Zeit.
Alles unter HighEnd wird sich bei der bisherigen Situation schwer tun mit HBM. Weil teuer und (noch) nicht wirklich ein Vorteil in Summe...
HBM hätte ganz unten wieder Sinn, ne APU mit HBM bringt viel viel Bandbreite und damit fast kein Limit mehr... Aber dazwischen? Die ganze Mainstream Linie wird doch bei AMD vorerst auch bei GDDR irgendwas bleiben. In Zukunft dann halt GDDR6... 256Bit GDDR6 mit 8GB oder gar 16GB auf 500GB Bandbreite -> und ne Mittelklasse mit Vega Performance wäre von der Seite her gut bedient.
 
Wenn AMD wirklich aus den FuryX und Vega Debakel gelernt hat, werden sie wieder brav ohne zu murren zu GDDR zurückkehren, ein weiteres Endverbraucher-Desaster können sie sich nicht erlauben, aber AMD ist in den letzten Jahren bei Grafikkarten ziemlich stur unterwegs gewesen, mal sehen ob dieser ominöse Ausweichplan diesmal gezogen wird.
 
Wenn AMD wirklich aus den FuryX und Vega Debakel gelernt hat, werden sie wieder brav ohne zu murren zu GDDR zurückkehren, ein weiteres Endverbraucher-Desaster können sie sich nicht erlauben, aber AMD ist in den letzten Jahren bei Grafikkarten ziemlich stur unterwegs gewesen, mal sehen ob dieser ominöse Ausweichplan diesmal gezogen wird.

Endverbraucher-Desaster?

Was stört dich am HBM?

Ohne HBM würden die Teile noch mehr Strom verbrauchen :eek:
 
Da scheint man bei AMD zur Vernunft gekommen zu sein. HBM2 ist aktuell einfach ein Sackgasse, man kann damit in absehbarer Zeit nicht jede Karte bestücken. GDDR5 ist wiederum auch am Limit angekommen. Also ist GDDR6 der einzig logische Weg unterhalb von Highend.

Endverbraucher-Desaster?
HBM war für den Endverbraucher bisher ein totaler Flop. Die Furys hatten zu wenig Speicher, die Vegas sind immer noch nicht verfügbar. GDDR5(X) ist daher aktuell weiterhin das Maß aller Dinge.
 
Selbst wenn High-End Navi mit HBM kommt. Die Polaris-Nachfolger werden allein schon aus Kostengründen konventionellen Speicher nutzen.
 
Endverbraucher-Desaster?

Was stört dich am HBM?

Ohne HBM würden die Teile noch mehr Strom verbrauchen :eek:



Weißt du es etwa nicht? Alles was von AMD kommt ist ein Desaster. Lieferprobleme und Probleme mit Speicheranbindungen generell sind Unternehmen wie Intel und Nvidia völlig fremd.
Aus der Information wird doch wieder mehr gemacht, als tatsächlich dran ist. Ist das jetzt so verwunderlich, dass AMD die Entwicklung bei GDDR im Auge behält? Ich glaube auch nicht das NVidia abseits der Profisparte die Entwicklung bei HBM völlig egal ist.
 
Zuletzt bearbeitet:
ich sehe das keinesfalls so das 'alles was von AMD kommt ist ein desaster'.
deren CPU's zb haben für reichlich schwung in der CPU-brange gesorgt und da wird wohl noch einiges kommen.
was GPU's angeht, ist es zum einen das problem mit der HBM2-produktion, die nicht in die puschen kommt und zum anderen die überdrehten ansprüche der leute, die meinen nur weil nvidia, kurz vor start der vage noch schnell die 1080ti gebracht hat, muss vega dies jetzt auchnosch schlagen können, so aus dem nichts heraus....
nvidia hat das sehr gut getimt mit der TI.
nimmt man nur die normale 1080 1070 usw als gegendspieler und kalkuliert man mit ein wie das üblicherweise bei AMD mit den treibern ist, die lange weitere verbesserungen bringen, ist man nicht nur nah dran an nvidia, sondern evtl bald auch vorbei, siehe 970 980 usw.
einziger echter kritikpunkt ist der verbrauch der karten, da man diese bis aufs letzte ausreizt, wobei man eigentlich auch sparsamer laufen lassen könnte, wenn mn nicht immer die spannung so hoch setzt um sicher zu gehen das es funktioniert -sieht man ja an denen die undervolten, das da noch platz ist.
 
Ist es ihnen auch nicht. Nur hat man bei Nvidia offenbar eine realistische und vernünftige Einschätzung. Oder man will im Gegensatz zu AMD auch etwas verkaufen. ;)

Oder man baut einfach vernünftige GPUs damit die Karte auch ohne HBM auskommt?

Als wenn AMD grundlos auf HBM gesetzt hätte.... manche Leute denken hier auch nur von 12 bis Mittag.
 
.... manche Leute denken hier auch nur von 12 bis Mittag.
Merkt man leider. Ist schon toll so eine HBM-Karte die es gar nicht zu kaufen gibt oder zu wenig Speicher hat. AMD hat alles richtig gemacht und bis zum Abend gedacht. :fresse:

nimmt man nur die normale 1080 1070 usw als gegendspieler und kalkuliert man mit ein wie das üblicherweise bei AMD mit den treibern ist, die lange weitere verbesserungen bringen, ist man nicht nur nah dran an nvidia, sondern evtl bald auch vorbei, siehe 970 980 usw.
Davon merkt man laut CB allerdings noch nichts davon (390 gegen 970, die AMD-Karte war schon zu Release vorne und kam auch erst ein 3/4 Jahr später):
Grafikkarten-Rangliste: GPU-Vergleich - ComputerBase

Und mal ehrlich, wenn man schon mehr als ein Jahr später kommt, eigentlich sogar 1,5 Jahre im Falle von Vega, dann sollte man auch mehr als nur gleichziehen. In der Zeit haben andere bereits etwas von der Karte gehabt.
 
Zuletzt bearbeitet:
nimmt man nur die normale 1080 1070 usw als gegendspieler und kalkuliert man mit ein wie das üblicherweise bei AMD mit den treibern ist, die lange weitere verbesserungen bringen, ist man nicht nur nah dran an nvidia, sondern evtl bald auch vorbei, siehe 970 980 usw.

Durchaus kreative Umschreibung für "nach einiger Zeit haben es die Grafikkarten von AMD endlich mal geschafft ihre durchaus höhere Rohleistung auf die Straße zu bringen". Das hat nicht wirklich immer was mit Verbesserungen am Treiber zu tun, sondern dass aktuellere Software mehr Leistung benötigt und es so schafft die Karten endlich mal richtig auszulasten. Aber ja man kann auch dem Marketing-Gelabber glauben, dass es an irgendwelchen Treiberverbesserungen gelegen hat. :hust:
 
was hier wieder für ein geschwätz zu lesen ist.

die aktuellen high-end karten von AMD sind nicht wegen des speichers enttäuschend.
die wären mit GDDR genau so langsam.

aber klar, amd war einfach zu stur um von HBM weg zu gehen. nur daran liegts.
hätte man doch einfach nur die chipexperten "Hardwareaner" und "III" aus'm hardwareluxx-forum gefragt. die wissen wie man gute grafikkarten entwickelt.
 
Zuletzt bearbeitet:
Wenn AMD wirklich aus den FuryX und Vega Debakel gelernt hat, werden sie wieder brav ohne zu murren zu GDDR zurückkehren
Erstens gibt es nirgendwo ein Debakel. Maximal begrenzte Verfügbarkeit von HBM. Und zweitens, warum sollte AMD zu einer veralteten Technologie zurückkehren? Ergibt doch keinen Sinn. Die sind doch nicht blöd. Zumindest nicht so blöd wie manch User hier. "Zurückkehren" ist sowieso falsch formuliert. AMD hat sich nie von GDDR verabschiedet.

Ein GDDR6 Interface macht insofern Sinn, dass man es dann in anspruchsloser Massenware oder Semi-Custom Projekten einsetzen kann. GDDR6 ist eh nur eine geringfügige Verbesserung gegenüber GDDR5X. Natürlich wird AMD auch weiterhin auf HBM für anspruchsvollere Produkte setzen.


Nur hat man bei Nvidia offenbar eine realistische und vernünftige Einschätzung.
Oder vielleicht können sie es auch einfach nicht. Oder sie sind zu wenig weitsichtig. ;) Schliesslich hat AMD Jahre dafür gebraucht, eine Client Infrastruktur für HBM zu schaffen. Und auch das nur in Kooperation mit SK Hynix.
 
die aktuellen high-end karten von AMD sind nicht wegen des speichers enttäuschend.
die wären mit GDDR genau so langsam.
Schneller wohl nicht, aber das ist alles Spekulation. Es wäre aber davon auszugehen, dass sie auch mal lieferbar wären. Wir haben jetzt Dezember und noch keine Karte ist im Handel.

Ein GDDR6 Interface macht insofern Sinn, dass man es dann in anspruchsloser Massenware oder Semi-Custom Projekten einsetzen kann. GDDR6 ist eh nur eine geringfügige Verbesserung gegenüber GDDR5X. Natürlich wird AMD auch weiterhin auf HBM für anspruchsvollere Produkte setzen.
Bei Highend macht das auch Sinn sofern lieferbar. Nur haben viele schon auf eine baldige Mittelklasse mit HBM2 spekuliert (z.B. eine RX680). Daraus wird wohl erst einmal nichts, was eigentlich nur zum Wohle der Kundschaft sein kann.
AMD ist auf diesen HBM-Zug einfach Jahre zu früh aufgesprungen.

Oder vielleicht können sie es auch einfach nicht. Oder sie sind zu wenig weitsichtig. ;) Schliesslich hat AMD Jahre dafür gebraucht, eine Client Infrastruktur für HBM zu schaffen. Und auch das nur in Kooperation mit SK Hynix.
Nvidia verbaut HBM2 bereits seit letztem Jahr auf professionellen Karten (Tesla) und seit diesem Jahr auf Quadros, die afaik nicht soooo schlecht sind. Daher ist dein erster Satz bereits wiederlegt. Der zweite auch, da Nvidia nicht von Paperlaunches lebt, sondern von Produktverkäufen-
 
AMD ist auf diesen HBM-Zug einfach Jahre zu früh aufgesprungen.

Dass Firmen nicht immer alles richtig machen ist klar, aber trotzdem arbeiten dort Leute, die mehr drauf haben als wir alle zusammen hier.

Wäre AMD nicht auf den Zug aufgesprungen, würde sich das in ein paar Jahren vielleicht negativ auswirken. Ich denke es liegt eben auch daran, dass AMD nicht die Kapazitäten an Leuten hat, um verschiedene Entwicklungen so umfangreich fahren zu können wie Nvidia. Die müssen gewisse Risiken eingehen. Wenn die nur die funktionierenden "Standard-Technologien" fahren würden, gäbe es irgendwann ein böses erwachen.
 
Zuletzt bearbeitet:
Wäre AMD nicht auf den Zug aufgesprungen, würde sich das in ein paar Jahren vielleicht negativ auswirken.

Ich weiß gar nicht wieso ich auf diesen Post antworte... :rolleyes:

Das würde sich nicht vielleicht in ein paar Jahren negativ auswirken sondern es hätte sich hier uns jetzt negativ ausgewirkt.

Ihr tut immer so als wäre AMD auf HBM gegangen weil ihnen langweilig war, sie hatten schlicht keine andere Wahl bei dieser GPU!

Ohne HBM wäre aus dem aktuellen Flop ein Flop^2 geworden.
 
welche 'aktuelle flopp' ?
wenn man mal beiseite legt, das die erwartungen viel viel viel zu hoch gekurbelt wurden und man nur mit halben auge und ohr sieht/hört was AMD tatsächlich genannt/gesagt hat, kann man das natürlich ans 'flopp' sehen...

das ist ähnlich wie die leute die ernsthaft glauben die erde sei eine scheibe und dabei alles was das wiederlegt ignorieren oder verdrehen.

vega entsprach nicht den (weit überdrehten) erwartungen der leute die sich haben hypen lassen, deswegen ist bei denen vega jetzt 'der flopp' wo garkeiner ist. vega kam und kommt an 1070/1080 ran und zwar genau im angedachten rahmen.
einzig die TI die nvidia in weiser voraussicht noch schnell brachte hat da ordentlich reingestört und die leute glauben 'die hätte man unbedingt schlagen müssen' klar, wenn die konkurrenz noch was schnelleres als das wohin man gleichziehen will bringt, kann die neuentwicklung mal eben 'hopplahopp' die auchnosch schlagen, im gegenteil es wird nicht nur erwartet sondern kurzum angenommen und wenn das nicht hinhaut ist das dann 'der flopp' .......
merkwürdige logig sag ich da nur zu und eine weitere diskusion kann man dann auch gleich sein lassen weil man gegen weltremdheit mit realität eh nichts ausrichten kann........
 
Dass Firmen nicht immer alles richtig machen ist klar, aber trotzdem arbeiten dort Leute, die mehr drauf haben als wir alle zusammen hier.

Wäre AMD nicht auf den Zug aufgesprungen, würde sich das in ein paar Jahren vielleicht negativ auswirken. Ich denke es liegt eben auch daran, dass AMD nicht die Kapazitäten an Leuten hat, um verschiedene Entwicklungen so umfangreich fahren zu können wie Nvidia. Die müssen gewisse Risiken eingehen. Wenn die nur die funktionierenden "Standard-Technologien" fahren würden, gäbe es irgendwann ein böses erwachen.
Dass 4GB für eine Fury zu wenig sind war von Anfang an absehbar. Und es war auch klar, dass mit HBM1 nicht mehr als 4GB möglich wären. Ich denke das war ein erster eklatanter Fehler. Selbstverständlich hat man auch bei AMD Ahnung und zwar mehr wir zusammen. Allerdings fehlt wohl auch irgendwo eine realistische Einschätzung. Die Fury war zwar technisch hochinteressant, praktisch aber kaum zu gebrauchen und wirkte eher wie das Ergebnis von "wenn ein Wissenschaftler sich mal nach Lust und Laune richtig austoben kann".
Bei HBM2 gibt es eben das Problem der extremen Abhängigkeit von der Verfügbarkeit. Das ist bei neuen Technologien immer Risiko, welches man sorgfältig abwägen muss. Und AMD hat oberhalb der Mittelklasse nichts ohne HBM2 zu bieten. Das ist natürlich ein riesiges Problem.
Dass HBM2 irgendwann hätte kommen müssen ist klar, nur der Zeitpunkt ist auch wichtig. Da hat Nvidia alles richtig gemacht.

- - - Updated - - -

Ihr tut immer so als wäre AMD auf HBM gegangen weil ihnen langweilig war, sie hatten schlicht keine andere Wahl bei dieser GPU!

Ohne HBM wäre aus dem aktuellen Flop ein Flop^2 geworden.
Wie kommst du darauf, dass eine lieferbare GPU ein noch größerer Flop gewesen wäre als eine seit letztendlich 1,5 Jahren nicht lieferbare?
Klar Verbrauch wäre mit GDDR5(X) nicht ohne gewesen. Vielleicht hätte man auch mal hier Arbeit reinstecken sollen? Irgendwann muss AMD die derzeit katastrophale Effizienz mal verbessern. Mit HBM2 und 14nm konnten sie sich in die nächste Generation retten. Mehr oder weniger. Und was jetzt? Auch Nvidia kann Shrinks und mehr Leistung draufpacken.

- - - Updated - - -

wenn man mal beiseite legt, das die erwartungen viel viel viel zu hoch gekurbelt wurden und man nur mit halben auge und ohr sieht/hört was AMD tatsächlich genannt/gesagt hat, kann man das natürlich ans 'flopp' sehen...
.
Ich bitte dich, AMD kann eine Konkurrenz zur 1070 und 1080 selbst 1,5 Jahre nach deren Release immer noch nicht liefern, die 1080Ti ist seit fast einem 3/4 draußen und empfindest die Leistung von AMD als angemessen?
AMD hat dieses Jahr einen Volta Killer versprochen. Wenn sie damit eine GT2030 meinten, dann sollen sie das auch klar sagen.
Nvidia hat die Ti nicht "schnell gebracht". Die kam über ein halbes Jahr nach der Titan und ein 3/4 Jahr nach der 1080. Das ist kein ungewöhnlicher Zeitraum, das kennen wir bereits von Maxwell. Wann hätte sie denn deiner Meinung nach kommen sollen? Sommer 2018? Oder noch besser: hätten sie bei AMD um Erlaubnis fragen sollen?
Der einzige der hier vollkommen weltfremd ist, bist du.
 
Wie er darauf kommt? Hm, moment *Kopf einschalt & 2sec nachdenk* ... Stromverbrauch + Wärmeentwicklung ...

2 HBM Stacks = 8Gb ... wieviel ORDENTLICHE Chips bräuchtest du mit GDDR5X um auf die Bandbreite & Geschwindigkeit zu kommen? ... wieviel mehr würde der Spaß dann verbrauchen? ... wie viel Leistung würde die Karte dann verschlingen? Wäre das überhaupt noch mit nem DHE Kühler kühlbar? :wink:


Edit... Wait... WHAT? Katastrophale Effizienz? :eek: Sage mal bitte, wie kommst du bitte darauf? Wegen den paar Watt mehr?!? :confused:
Ne Karte mit der Rohpower einer GTX 1080Ti braucht nunmal Saft, anders gehts nicht. Das die Leistung nicht auf die Straße kommt ist ne andere Baustelle.
Guck dir die Chips doch mal an? Dann weißt du warum was wieso...

Ist ja nicht umsonst eine der feinen Karten fürs Mining, bestimmt nicht weil sie so ineffizient ist. :shake:


Und das die Vega 56 & 64 keine Konkurrenz zur 1070/1080 sind ist mal der absolute Daymaker² ... du hast keine einzige der Karten gehabt schätze ich, und wenn, dann nicht verglichen.

Ich verrate dir mal was... ich habe die letzten Wochen nix anderes gemacht als 1070, 1080 & 1080Ti Referenzkarten mit meiner Vega 64 zu vergleichen, die Vega ist geblieben, die anderen wurden verkauft... und nein, ich habe keinen an der Waffel - die 1070 & die 1080 haben einfach mal 0 Stich gegen die 64, die 1080 Ti hat mir mein Schwager abgequatscht - die wäre als einziges ne Alternative zur Vega 64 gewsen.

Wichtigstes Argument dürfte hier die Auflösung sein, 2k Auflösung wird hier gefahren... für 1080p reicht teilweise auch ne GTX 1060 oder RX580 um ins CPU Limit zu rennen...


Gezockte Games:

Sniper Elite 4
Wolfenstein: New Order
Doom
GTA V
CoD: WWII
World of Tanks
World of Warships
World of Warplanes
No Mans Sky

Frames stabiler, insbesondere die Frametimes. Dazu lieferte der letzte nVidia Treiber schöne fehlende Texturen in Wolfenstein, und lies - trotz deaktiviertem asynchronous Shaders - SE4 dauernd abkacken war richtig klasse. :wall:


Edit:

Mal auf die Schnelle 1080 Vs. Vega 64 rausgekramt.
Beides wie gesagt Referenzkarten, beide OCed (UV+MEMoc+50% Powerlimit bei Vega, UV+MEMoc (1400Mhz, leider Micron...)+112% Powerlimit bei 1080 , die nVidia lief Stückweit 2000+Mhz)... bei beiden Max Drehzahl des Lüfters jeweils auf Standard, sprich 2400rpm ...

Systemverbrauch mit 1080: 290W Average
Systemverbrauch mit Vega64: 350W Average... volle Katastrophe... :wall:

Firestrike 1.1
NVIDIA GeForce GTX 1080 video card benchmark result - AMD Ryzen 5 1600,ASRock AB350 Gaming-ITX/ac nVidia 1080 FE
AMD Radeon RX Vega 64 video card benchmark result - AMD Ryzen 5 1600,ASRock AB350 Gaming-ITX/ac AMD Vega 64 AIR Ref

Timespy
NVIDIA GeForce GTX 1080 video card benchmark result - AMD Ryzen 5 1600,ASRock AB350 Gaming-ITX/ac nVidia 1080 FE
AMD Radeon RX Vega 64 video card benchmark result - AMD Ryzen 5 1600,ASRock AB350 Gaming-ITX/ac AMD Vega 64 AIR Ref
 
Zuletzt bearbeitet:
welche 'aktuelle flopp' ?
wenn man mal beiseite legt, das die erwartungen viel viel viel zu hoch gekurbelt wurden und man nur mit halben auge und ohr sieht/hört was AMD tatsächlich genannt/gesagt hat, kann man das natürlich ans 'flopp' sehen...

vega entsprach nicht den (weit überdrehten) erwartungen der leute die sich haben hypen lassen, deswegen ist bei denen vega jetzt 'der flopp' wo garkeiner ist.

Obwohl ich es besser wissen müsste, gehe ich schon wieder auf einen solchen Post ein, tya selbst Schuld... nennt man auch Selbstgeißelung.

Wieder einmal wird der Hype als alleiniger Grund genannt warum das Produkt nicht beim Kunden ankommt. Aha. Kann also gar nicht daran liegen dass das Produkt nicht konkurrenzfähig ist?
Natürlich, als wenn der Hersteller einen Fehler machen könnte, es liegt immer nur an den Kunden die zu doof sind und sich Hypen lassen. :stupid:


merkwürdige logig sag ich da nur zu und eine weitere diskusion kann man dann auch gleich sein lassen weil man gegen weltremdheit mit realität eh nichts ausrichten kann........

Wertvollste Aussage für heute, zwar von einem fragwürdigen Standpunkt aus, aber was solls, wir sind hier im Internet. Und damit versuche ich mich aus dieser Diskussion zu verabschieden, bringt ja eh nichts.


Pro Tipp:
Beim nächsten Mal keine News lesen, keine Tests lesen, einfach blind Hardware kaufen und fest daran glauben dass sie gut ist. Wo kein Hype ist, da kann auch kein schlechtes Produkt sein :hail:
 
Zuletzt bearbeitet:
mastergamer, sehr niedlich deine einleitende Rethorik.

Der Schritt zu GDDR6 ist begrüßenswert.
Die Lieferbarkeit in allen Bereichen ist verbesserungswürdig. Auch Mainstream Karten sind mittlerweile auf hohe Bandbreiten angewiesen. Gerade hier wäre HBM sicher eine Sackgasse.
Aber auch die Bandbreite von HBM2 ist ausbaufähig, sieht man sich die möglichen Zuwächse durch Speicher OC an.
Als Randnotiz: In den Games die ich spiele liegt die Vega immer deutlich vor der 1080 teilweise auf Niveau der 1080ti. Gleichwohl gibt es genügend andere Titel in denen sich das Blatt zugunsten von NV wendet.
 
2 HBM Stacks = 8Gb ... wieviel ORDENTLICHE Chips bräuchtest du mit GDDR5X um auf die Bandbreite & Geschwindigkeit zu kommen? ... wieviel mehr würde der Spaß dann verbrauchen? ... wie viel Leistung würde die Karte dann verschlingen? Wäre das überhaupt noch mit nem DHE Kühler kühlbar? :wink:
Was meinst du warum ich schrieb, AMD sollte sich mal lieber um die Effizienz kümmern? Das ist ein Problem, welches seit Generationen mitgeschleppt wird.

Edit... Wait... WHAT? Katastrophale Effizienz? :eek: Sage mal bitte, wie kommst du bitte darauf? Wegen den paar Watt mehr?!? :confused:
Ne Karte mit der Rohpower einer GTX 1080Ti braucht nunmal Saft, anders gehts nicht. Das die Leistung nicht auf die Straße kommt ist ne andere Baustelle.
Guck dir die Chips doch mal an? Dann weißt du warum was wieso...
Diese paar Watt mehr sind knapp doppelt so viel wie bei der 1080 FE (300" vs. 157W; OC nicht eingerechnet) oder 40% ggü. der 1080Ti (212W vs. 300W).
Am Ende zählt auch das Gesamtpaket und nicht Dinge wie die theoretische Rechenleistung. Die Vega könnte 5x so viel Rohleistung wie die 1080Ti haben, bei gleicher "Straßenleistung" bleibt sie trotzdem ineffizient. Du widersprichst dir ja selbst, denn die Vega64 zieht immer noch mehr Strom als die 1080Ti. Und jetzt stelle dir Letztere mit HBM2 vor. Dann sieht es richtig düster für Vega aus. Dem wirst du gar nicht widersprechen können, denn sonst hättest du deine Aussage ganz oben widerlegt. ;)
Radeon RX Vega 64 56 im Test: Der helle Stern wirft lange Schatten (Seite 6) - ComputerBase

Ist ja nicht umsonst eine der feinen Karten fürs Mining, bestimmt nicht weil sie so ineffizient ist. :shake:
Die Hauptaufgabe der Karte für den Durchschnittsnutzer. :wall:
Dass GDDR5X für Mining eher ungeeignet ist, ist dir bekannt?

Ich verrate dir mal was... ich habe die letzten Wochen nix anderes gemacht als 1070, 1080 & 1080Ti Referenzkarten mit meiner Vega 64 zu vergleichen, die Vega ist geblieben, die anderen wurden verkauft... und nein, ich habe keinen an der Waffel - die 1070 & die 1080 haben einfach mal 0 Stich gegen die 64, die 1080 Ti hat mir mein Schwager abgequatscht - die wäre als einziges ne Alternative zur Vega 64 gewsen.
Hier wird es echt lächerlich. :stupid:
 
Was meinst du warum ich schrieb, AMD sollte sich mal lieber um die Effizienz kümmern? Das ist ein Problem, welches seit Generationen mitgeschleppt wird.

Sprich, AMD muss sich einfach nur dafür entscheiden und schon klappt es? Mann-oh-mann sind die blöd bei AMD....

Vielleicht solltest mal ne Bewerbung an die schicken...
 
Ich weiß zwar nicht wie ihr darauf kommt das GDDR5X langsamer ist als HBM Speicher in Mining?
Ich kann sagen das die Vega garnicht so gut für Mining geeignet ist. Sie Verbrauch A. mehr Strom und B. bringt sie viel weniger hash.
Zum beispiel in Zcash Mining ist die 1080 TI rund 40% schneller als die Vega64. Und selbst bei ETH mining ist die 1080 TI rund 20%-30% schneller. Früher selber getestet. Die einzigen Karten die sich für Mining lohnen von AMD sind die RX470/480/570/580. Selbst untervoltet war ne 1080TI um welten schneller in Mining als ne Vega.

Ich finde es sehr gut das AMD an GDDR6 Karten arbeitet.
Aja Vega64 ist von der Leistung immer niveau der 1080, mal ist die eine minimal vorne mal die andere. Mit HBCC kann die Vega nochmal gut aufholen zur 1080Ti, kommt aber bei weiten nicht ran. In Linux ist klar die Vega besser.
 
Zuletzt bearbeitet:
Ich weiß zwar nicht wie ihr darauf kommt das GDDR5X langsamer ist als HBM Speicher in Mining?
Ich kann sagen das die Vega garnicht so gut für Mining geeignet ist. Sie Verbrauch A. mehr Strom und B. bringt sie viel weniger hash.
Zum beispiel in Zcash Mining ist die 1080 TI rund 40% schneller als die Vega64. Und selbst bei ETH mining ist die 1080 TI rund 20%-30% schneller. Früher selber getestet. Die einzigen Karten die sich für Mining lohnen von AMD sind die RX470/480/570/580. Selbst untervoltet war ne 1080TI um welten schneller in Mining als ne Vega.

Ich finde es sehr gut das AMD an GDDR6 Karten arbeitet.
Aja Vega64 ist von der Leistung immer niveau der 1080, mal ist die eine minimal vorne mal die andere. Mit HBCC kann die Vega nochmal gut aufholen zur 1080Ti, kommt aber bei weiten nicht ran. In Linux ist klar die Vega besser.
Hm, soweit mir bekannt liegt das nicht am Speicher selbst sondern an der Architektur.
Wie schon mal geschrieben, Vega lief im Kompatibilitäts Modus das war kein Scherz und sieht man hier auch ganz deutlich nochmal: AMDs Vega der neue Star am Krypto-Mining-Himmel | Planet 3DNow!
Mit ein wenig Optimierung (GPU-Takt herunter, Speichertakt und Powertarget rauf) liefert Vega bei Monero oder anderen auf dem Cryptonight-Algorithmus basierenden Währungen (IntenseCoin, Sumokoin, Electroneum, B2B Coin, etc.) unglaubliche 2000 H/s. Zum Vergleich: eine NVIDIA GeForce GTX 1080 dümpelt hier bei ca. 500 H/s,

Das soll jetzt nicht bedeuten das nvidia Schrott ist, aber sie sind nun mal schon Optimiert, da die Programmiere viel mehr Zeit hatten.
Jetzt nehmen sich die Programmiere die Zeit für Vega, wo das wohl enden wird. ;)
 
Zuletzt bearbeitet:
Sprich, AMD muss sich einfach nur dafür entscheiden und schon klappt es? Mann-oh-mann sind die blöd bei AMD....
Mit der bisherigen Taktik fallen sie jedenfalls regelmäßig auf die Nase. Es ist ja nicht so, dass das Problem nicht lösbar wäre. Ich glaube halt, dass die Prioritäten bei AMD woanders liegen. Oder sie sind halt unfähig. Dann sollte man sich aber nach besserem Personal umsehen. Ich denke mal, dass diese HBM-Geschichte AMD vieeeel Zeit gekostet hat. Zeit, die vielleicht woanders fehlt. Von Vegas Wundertreiber ist auch noch keine Spur zu sehen.
Und bevor jetzt kommt "das kleine AMD hat aber gar nicht genug Personal und Geld", dem sei gesagt, dass sich AMD auch selbst in diese Situation manöviert hat. Bulldozer war eine vorhersehbare Fehlentscheidung und dürfte AMD Milliarden gekostet haben. In der GPU Sparte hat man sich auch nicht immer mit Ruhm bekleckert. Die letzte richtig überzeugende Karte war die 7970. Und das ist schon lange her. Die 480/580 ist dank Shrink die beste seitdem.

- - - Updated - - -

Ich weiß zwar nicht wie ihr darauf kommt das GDDR5X langsamer ist als HBM Speicher in Mining?
Die 1070 soll deutlich schneller als die 1080 sein, obwohl sie eigentlich in allen Belangen unterlegen ist. Hauptunterschied ist GDDR5, der bei der 1070 zum Einsatz kommt.
Vielleicht hängt es auch von der Währung oder dem Tool ab wo welche Karte besser performt. Mir ist nur mal diese Diskrepanz zwischen 1070 und 1080 aufgefallen.
 
@ GDDR6
Da Raja (der Chefentwickler von Vega) inzwischen zu Intel gegangen ist, könnten auch das HBM Patent weg sein.
Daher wird man nun schauen müssen, was als Ersatz in Frage kommt.
 
Sprich, AMD muss sich einfach nur dafür entscheiden und schon klappt es? Mann-oh-mann sind die blöd bei AMD....

Vielleicht solltest mal ne Bewerbung an die schicken...
Dito.
Was Vega leisten kann sieht man an Games wie Doom oder Wolfenstein, die auf aktuelle Schnittstellen setzen. Auch wurde die Performance mit den Treibern immer besser. Kleiner Funfact: Hatte bei den Test mal Experience installiert und es zu Anfang mal "optimieren" lassen... OpenGL 4.5 wurde bei Doom eingestellt, obwohl es auf den Karten mit Vulcan viel runder lief... Da ist Experience direkt wieder deaktiviert worden. :fresse:

Das man :stupid: ist wenn man selber testet und auf die Karte setzt die das größere Potenzial in den eigenen Anforderungen hat sagt alles... :rolleyes:


Edit @Phantomias88: Wie kommst du darauf dass das Patent für HBM bei Raja liegt? nVidia verwendet ihn auch bei ihren Volta Karten. :wink:

Gesendet von meinem STF-L09 mit Tapatalk
 
Zuletzt bearbeitet:
Was Vega leisten kann sieht man an Games wie Doom oder Wolfenstein, die auf aktuelle Schnittstellen setzen.

Das ist aber mehr dem Fakt geschuldet, dass Bethesda und AMD Partner sind und gerade diese beiden Titel sehr stark für Grafikkarten von AMD optimiert wurden, als das es allein an Vulcan liegt. Klar hat AMD Vorteile bei Vulcan gegenüber Nvidia, aber die fallen normalerweise nicht so stark aus. :wink:

So starke Optimierungen für einen Hersteller werden wird definitiv nicht bei vielen Titeln sehen.

Für Vega & Ryzen: AMD und Bethesda sind jetzt Partner
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh