HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 113.961
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Wenn AMD wirklich aus den FuryX und Vega Debakel gelernt hat, werden sie wieder brav ohne zu murren zu GDDR zurückkehren, ein weiteres Endverbraucher-Desaster können sie sich nicht erlauben, aber AMD ist in den letzten Jahren bei Grafikkarten ziemlich stur unterwegs gewesen, mal sehen ob dieser ominöse Ausweichplan diesmal gezogen wird.
HBM war für den Endverbraucher bisher ein totaler Flop. Die Furys hatten zu wenig Speicher, die Vegas sind immer noch nicht verfügbar. GDDR5(X) ist daher aktuell weiterhin das Maß aller Dinge.Endverbraucher-Desaster?
Endverbraucher-Desaster?
Was stört dich am HBM?
Ohne HBM würden die Teile noch mehr Strom verbrauchen
Ist es ihnen auch nicht. Nur hat man bei Nvidia offenbar eine realistische und vernünftige Einschätzung. Oder man will im Gegensatz zu AMD auch etwas verkaufen.Ich glaube auch nicht das NVidia abseits der Profisparte die Entwicklung bei HBM völlig egal ist.
Ist es ihnen auch nicht. Nur hat man bei Nvidia offenbar eine realistische und vernünftige Einschätzung. Oder man will im Gegensatz zu AMD auch etwas verkaufen.
Merkt man leider. Ist schon toll so eine HBM-Karte die es gar nicht zu kaufen gibt oder zu wenig Speicher hat. AMD hat alles richtig gemacht und bis zum Abend gedacht..... manche Leute denken hier auch nur von 12 bis Mittag.
Davon merkt man laut CB allerdings noch nichts davon (390 gegen 970, die AMD-Karte war schon zu Release vorne und kam auch erst ein 3/4 Jahr später):nimmt man nur die normale 1080 1070 usw als gegendspieler und kalkuliert man mit ein wie das üblicherweise bei AMD mit den treibern ist, die lange weitere verbesserungen bringen, ist man nicht nur nah dran an nvidia, sondern evtl bald auch vorbei, siehe 970 980 usw.
nimmt man nur die normale 1080 1070 usw als gegendspieler und kalkuliert man mit ein wie das üblicherweise bei AMD mit den treibern ist, die lange weitere verbesserungen bringen, ist man nicht nur nah dran an nvidia, sondern evtl bald auch vorbei, siehe 970 980 usw.
Erstens gibt es nirgendwo ein Debakel. Maximal begrenzte Verfügbarkeit von HBM. Und zweitens, warum sollte AMD zu einer veralteten Technologie zurückkehren? Ergibt doch keinen Sinn. Die sind doch nicht blöd. Zumindest nicht so blöd wie manch User hier. "Zurückkehren" ist sowieso falsch formuliert. AMD hat sich nie von GDDR verabschiedet.Wenn AMD wirklich aus den FuryX und Vega Debakel gelernt hat, werden sie wieder brav ohne zu murren zu GDDR zurückkehren
Oder vielleicht können sie es auch einfach nicht. Oder sie sind zu wenig weitsichtig. Schliesslich hat AMD Jahre dafür gebraucht, eine Client Infrastruktur für HBM zu schaffen. Und auch das nur in Kooperation mit SK Hynix.Nur hat man bei Nvidia offenbar eine realistische und vernünftige Einschätzung.
Schneller wohl nicht, aber das ist alles Spekulation. Es wäre aber davon auszugehen, dass sie auch mal lieferbar wären. Wir haben jetzt Dezember und noch keine Karte ist im Handel.die aktuellen high-end karten von AMD sind nicht wegen des speichers enttäuschend.
die wären mit GDDR genau so langsam.
Bei Highend macht das auch Sinn sofern lieferbar. Nur haben viele schon auf eine baldige Mittelklasse mit HBM2 spekuliert (z.B. eine RX680). Daraus wird wohl erst einmal nichts, was eigentlich nur zum Wohle der Kundschaft sein kann.Ein GDDR6 Interface macht insofern Sinn, dass man es dann in anspruchsloser Massenware oder Semi-Custom Projekten einsetzen kann. GDDR6 ist eh nur eine geringfügige Verbesserung gegenüber GDDR5X. Natürlich wird AMD auch weiterhin auf HBM für anspruchsvollere Produkte setzen.
Nvidia verbaut HBM2 bereits seit letztem Jahr auf professionellen Karten (Tesla) und seit diesem Jahr auf Quadros, die afaik nicht soooo schlecht sind. Daher ist dein erster Satz bereits wiederlegt. Der zweite auch, da Nvidia nicht von Paperlaunches lebt, sondern von Produktverkäufen-Oder vielleicht können sie es auch einfach nicht. Oder sie sind zu wenig weitsichtig. Schliesslich hat AMD Jahre dafür gebraucht, eine Client Infrastruktur für HBM zu schaffen. Und auch das nur in Kooperation mit SK Hynix.
AMD ist auf diesen HBM-Zug einfach Jahre zu früh aufgesprungen.
Wäre AMD nicht auf den Zug aufgesprungen, würde sich das in ein paar Jahren vielleicht negativ auswirken.
Dass 4GB für eine Fury zu wenig sind war von Anfang an absehbar. Und es war auch klar, dass mit HBM1 nicht mehr als 4GB möglich wären. Ich denke das war ein erster eklatanter Fehler. Selbstverständlich hat man auch bei AMD Ahnung und zwar mehr wir zusammen. Allerdings fehlt wohl auch irgendwo eine realistische Einschätzung. Die Fury war zwar technisch hochinteressant, praktisch aber kaum zu gebrauchen und wirkte eher wie das Ergebnis von "wenn ein Wissenschaftler sich mal nach Lust und Laune richtig austoben kann".Dass Firmen nicht immer alles richtig machen ist klar, aber trotzdem arbeiten dort Leute, die mehr drauf haben als wir alle zusammen hier.
Wäre AMD nicht auf den Zug aufgesprungen, würde sich das in ein paar Jahren vielleicht negativ auswirken. Ich denke es liegt eben auch daran, dass AMD nicht die Kapazitäten an Leuten hat, um verschiedene Entwicklungen so umfangreich fahren zu können wie Nvidia. Die müssen gewisse Risiken eingehen. Wenn die nur die funktionierenden "Standard-Technologien" fahren würden, gäbe es irgendwann ein böses erwachen.
Wie kommst du darauf, dass eine lieferbare GPU ein noch größerer Flop gewesen wäre als eine seit letztendlich 1,5 Jahren nicht lieferbare?Ihr tut immer so als wäre AMD auf HBM gegangen weil ihnen langweilig war, sie hatten schlicht keine andere Wahl bei dieser GPU!
Ohne HBM wäre aus dem aktuellen Flop ein Flop^2 geworden.
Ich bitte dich, AMD kann eine Konkurrenz zur 1070 und 1080 selbst 1,5 Jahre nach deren Release immer noch nicht liefern, die 1080Ti ist seit fast einem 3/4 draußen und empfindest die Leistung von AMD als angemessen?wenn man mal beiseite legt, das die erwartungen viel viel viel zu hoch gekurbelt wurden und man nur mit halben auge und ohr sieht/hört was AMD tatsächlich genannt/gesagt hat, kann man das natürlich ans 'flopp' sehen...
.
welche 'aktuelle flopp' ?
wenn man mal beiseite legt, das die erwartungen viel viel viel zu hoch gekurbelt wurden und man nur mit halben auge und ohr sieht/hört was AMD tatsächlich genannt/gesagt hat, kann man das natürlich ans 'flopp' sehen...
vega entsprach nicht den (weit überdrehten) erwartungen der leute die sich haben hypen lassen, deswegen ist bei denen vega jetzt 'der flopp' wo garkeiner ist.
merkwürdige logig sag ich da nur zu und eine weitere diskusion kann man dann auch gleich sein lassen weil man gegen weltremdheit mit realität eh nichts ausrichten kann........
Was meinst du warum ich schrieb, AMD sollte sich mal lieber um die Effizienz kümmern? Das ist ein Problem, welches seit Generationen mitgeschleppt wird.2 HBM Stacks = 8Gb ... wieviel ORDENTLICHE Chips bräuchtest du mit GDDR5X um auf die Bandbreite & Geschwindigkeit zu kommen? ... wieviel mehr würde der Spaß dann verbrauchen? ... wie viel Leistung würde die Karte dann verschlingen? Wäre das überhaupt noch mit nem DHE Kühler kühlbar?
Diese paar Watt mehr sind knapp doppelt so viel wie bei der 1080 FE (300" vs. 157W; OC nicht eingerechnet) oder 40% ggü. der 1080Ti (212W vs. 300W).Edit... Wait... WHAT? Katastrophale Effizienz? Sage mal bitte, wie kommst du bitte darauf? Wegen den paar Watt mehr?!?
Ne Karte mit der Rohpower einer GTX 1080Ti braucht nunmal Saft, anders gehts nicht. Das die Leistung nicht auf die Straße kommt ist ne andere Baustelle.
Guck dir die Chips doch mal an? Dann weißt du warum was wieso...
Die Hauptaufgabe der Karte für den Durchschnittsnutzer.Ist ja nicht umsonst eine der feinen Karten fürs Mining, bestimmt nicht weil sie so ineffizient ist.
Hier wird es echt lächerlich.Ich verrate dir mal was... ich habe die letzten Wochen nix anderes gemacht als 1070, 1080 & 1080Ti Referenzkarten mit meiner Vega 64 zu vergleichen, die Vega ist geblieben, die anderen wurden verkauft... und nein, ich habe keinen an der Waffel - die 1070 & die 1080 haben einfach mal 0 Stich gegen die 64, die 1080 Ti hat mir mein Schwager abgequatscht - die wäre als einziges ne Alternative zur Vega 64 gewsen.
Was meinst du warum ich schrieb, AMD sollte sich mal lieber um die Effizienz kümmern? Das ist ein Problem, welches seit Generationen mitgeschleppt wird.
Hm, soweit mir bekannt liegt das nicht am Speicher selbst sondern an der Architektur.Ich weiß zwar nicht wie ihr darauf kommt das GDDR5X langsamer ist als HBM Speicher in Mining?
Ich kann sagen das die Vega garnicht so gut für Mining geeignet ist. Sie Verbrauch A. mehr Strom und B. bringt sie viel weniger hash.
Zum beispiel in Zcash Mining ist die 1080 TI rund 40% schneller als die Vega64. Und selbst bei ETH mining ist die 1080 TI rund 20%-30% schneller. Früher selber getestet. Die einzigen Karten die sich für Mining lohnen von AMD sind die RX470/480/570/580. Selbst untervoltet war ne 1080TI um welten schneller in Mining als ne Vega.
Ich finde es sehr gut das AMD an GDDR6 Karten arbeitet.
Aja Vega64 ist von der Leistung immer niveau der 1080, mal ist die eine minimal vorne mal die andere. Mit HBCC kann die Vega nochmal gut aufholen zur 1080Ti, kommt aber bei weiten nicht ran. In Linux ist klar die Vega besser.
Mit ein wenig Optimierung (GPU-Takt herunter, Speichertakt und Powertarget rauf) liefert Vega bei Monero oder anderen auf dem Cryptonight-Algorithmus basierenden Währungen (IntenseCoin, Sumokoin, Electroneum, B2B Coin, etc.) unglaubliche 2000 H/s. Zum Vergleich: eine NVIDIA GeForce GTX 1080 dümpelt hier bei ca. 500 H/s,
Mit der bisherigen Taktik fallen sie jedenfalls regelmäßig auf die Nase. Es ist ja nicht so, dass das Problem nicht lösbar wäre. Ich glaube halt, dass die Prioritäten bei AMD woanders liegen. Oder sie sind halt unfähig. Dann sollte man sich aber nach besserem Personal umsehen. Ich denke mal, dass diese HBM-Geschichte AMD vieeeel Zeit gekostet hat. Zeit, die vielleicht woanders fehlt. Von Vegas Wundertreiber ist auch noch keine Spur zu sehen.Sprich, AMD muss sich einfach nur dafür entscheiden und schon klappt es? Mann-oh-mann sind die blöd bei AMD....
Die 1070 soll deutlich schneller als die 1080 sein, obwohl sie eigentlich in allen Belangen unterlegen ist. Hauptunterschied ist GDDR5, der bei der 1070 zum Einsatz kommt.Ich weiß zwar nicht wie ihr darauf kommt das GDDR5X langsamer ist als HBM Speicher in Mining?
Dito.Sprich, AMD muss sich einfach nur dafür entscheiden und schon klappt es? Mann-oh-mann sind die blöd bei AMD....
Vielleicht solltest mal ne Bewerbung an die schicken...
Was Vega leisten kann sieht man an Games wie Doom oder Wolfenstein, die auf aktuelle Schnittstellen setzen.