AMD Radeon Vega: Frontier Edition teilweise für 1.199 bzw. 1.799 US-Dollar bestellbar

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.867
amd-vega-logo.jpg
Auf dem 2017 Financial Analyst Day hatte AMD Mitte Mai seinen ersten Grafikbeschleuniger mit Vega-GPU angekündigt und versprochen,dass die Radeon Vega Frontier Edition noch Ende Juni in die Läden kommen sollte.Die Radeon Vega Frontier Edition ist allerdings keine Gamer-Grafikkarte,sondern richtet sich an das professionelle Umfeld mit Fokus aufDeep-Learning-Anwendungen. Während man vor etwa einem Monat noch nicht über Preise sprach, sind die ersten Ableger samt Preisangaben nun bei denersten Händlern in den...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1.882 MHz Das lässt ja hoffen das die gamerkarten mit ordentlicher kühlung richtung 2 Ghz gehen könnten. Bin gespannt was dann dabei rauskommen wird.
 
Zuletzt bearbeitet:
interessant wie sich videocardz als wuelle für amd allgemein und grakas etablieren konnte. ich lese eig nur noch dort und sehe dann wie tage später hier das selbe gepostet wird.
ich habe das Gefühl früher gab es andere seiten die die Gerüchteküche bedient haben und selten eine seite die quasi alles abdeckt wie hier.
fast jeder leak anno 2017 stammt von dort
 
1.882 MHz Das lässt ja hoffen das die gamerkarten mit ordentlicher kühlung richtung 2 Ghz gehen könnten. Bin gespannt was dann dabei rauskommen wird.

Die 1882 sind doch schon unter Wasser...
Kann mir nicht vorstellen, dass da noch 2 Ghz im 24/7 Betrieb drinnen sind.

btw.. 600 Euro Aufpreis für eine Wasserkühlung? Liefern die gleiche einen kompletten Satz Schläuche, Pumpe etc. mit :d
 
Mit 1,8 Ghz wäre der Takt ehrlich gesagt schon höher als erwartet.
 
Die 1882 sind doch schon unter Wasser...
Kann mir nicht vorstellen, dass da noch 2 Ghz im 24/7 Betrieb drinnen sind.

btw.. 600 Euro Aufpreis für eine Wasserkühlung? Liefern die gleiche einen kompletten Satz Schläuche, Pumpe etc. mit :d

So eine aio kühlung ist wohl nicht der bringer. Da gibts dann auch bessere wakühler soviel ist sicher.

Highendkarten ohne wakü sind für mich ein no go.
 
Zuletzt bearbeitet:
Ich bin allgemein gespannt was Vega bieten wird gerade im Verhältnis zur Ti.
 
1600mhz core, 1882mhz ram.
 
1600mhz core, 1882mhz ram.
Nix RAM-Takt, HBM2 hat nie einen solchen Takt

Quelle spricht von 1.882 Gbps Memory Speed, nicht Takt ;)

Die 375W TDP für das teurere Modell mit WaKü macht klar wohin die Richtung geht, das Teil produziert gut Abwärme und um Boost-Taktraten auch halten zu können wird eine gute Kühlung nötig werden.
300W schon bei der luftgekühlten Variante.

Der HW-Artikel sollte mal überarbeitet werden, einige Angaben zB TDP entsprechen nicht der Quelle.
 
Geil 1882 mhz hören sich nicht schlecht an, das ist deutlich mehr als erwartet wurde, damit könnte AMD die Spitze übernehmen.
Aber für die High End Leistung könnte der Preis dann höher sein oder AMD geht wie bei Ryzen einen grandiosen P/L Weg.
 
Aber find ich erstaunlich dass glorious HBM2 kaum schneller ist als GDDR5X auf der 1080ti bzw langsamer als auf der Titan Xp
 
Doppelautsch schon vor den Benchmarks! Neben dem Preis schockt mich vor allem der irre hohe Stromverbrauch trotz 14nm.
Mit diesen 400 Watt kann man sich, wenn der Haarföhn mal ausfällt, prima die Haare föhnen und im Winter kann man die Heizung auslassen..
 
na schau also verschleudert AMD die Semi-Pro Karten auch nicht gerade, kann man nichtmehr nur gegen die Titans bashen ...
 
Aber find ich erstaunlich dass glorious HBM2 kaum schneller ist als GDDR5X auf der 1080ti bzw langsamer als auf der Titan Xp
Erstaunlich ist daran gar nichts, wenn man sich mal ein bisschen mit der Materie auseinandersetzt. Es geht bei HBM doch nicht nur um Bandbreite. HBM ist flexibel. Man setzt es so ein, wie es am sinnvollsten ist. Wenn nicht mehr Bandbreite als mit GDDR5(X) notwendig ist, dann belässt man es eben bei wenigen Stacks und spart deutlich an Energie. Wird mehr Bandbreite benötigt, dann implementiert man eben mehr Stacks. Mit 4 HBM2 Stacks ist im Moment deutlich mehr Bandbreite möglich als mit GDDR5X. Hinzu kommt die Flächenersparnis mit HBM, was PCBs vereinfacht und kompaktere Karten ermöglicht.

- - - Updated - - -

Doppelautsch schon vor den Benchmarks! Neben dem Preis schockt mich vor allem der irre hohe Stromverbrauch trotz 14nm.
Mit diesen 400 Watt kann man sich, wenn der Haarföhn mal ausfällt, prima die Haare föhnen und im Winter kann man die Heizung auslassen..
Wo steht bitteschön was von 400W? Die Frontier Edition mit Luftkühlung hat eine TDP von 300W. Das hat der P100 übrigens auch. ;)


Warum können einige dieses dumme Gebashe im Vorfeld nicht einfach mal bleiben lassen? Ist deren Penisneid wirklich so ausgeprägt? Bemitleidenswert.
 
die wakü karte hat 375W, das sind im volksmund schon mal 400W.
dein exkurs zu hbm ist richtig, aber in der Produktion ist das ganze gar nicht so flexibel wie es scheint. siehe die Probleme mit hbm die wohl auch die Verzögerung von vega verschulden. und nunja mit einem breiterem si kann ich mit gddr5x auch deutlich mehr bandbreite rausholen. nimmt man z.b. das 512er si der 290er gepaart mit dem neusten gddr5x kommen da deitlich mehr gbps rum als mit dem aktuellen hbm und da muss ich nicht erst was fertigen.

der stromsparvorteil von hbm sowie das kompakte pcb sind, positive, begleiterscheinungen aber sicher nichts was weltbewegend wäre. fiji ist wegen hbm sicher kein stromsparwunder und wäre mit 512er si und gddr5 8gb sicher besser gefahren und nicht die totgeburt geworden die es jetzt ist.

anfangs fand ich toll dass amd auf hbm setzte aber wie es dann gelaufen ist war es leider eine Fehlentscheidung. warum man auf hbm gesetzt hat weiß nur amd, ich habe mich das oft gefragt im Nachhinein. vlt hat es etwas mit entwicklungskosten zu tun, amd hat es da ja nicht gerade dicke, wer weiß.
ich hoffe vega wird nicht wie fiji...obwohl es prinzipiell schon düster aussieht um vega. es sei denn man hat darauf aufbauende, verbesserte peodukte schon in der pipeline.
volta sieht ja nicht ferade nach einem großen wurf für gamer aus, vlt läuft es da wie bei den prozessoren, dass amd aufgrund fehlender innovation der konlurrenz wieder aufholen kann
 
Doppelautsch schon vor den Benchmarks! Neben dem Preis schockt mich vor allem der irre hohe Stromverbrauch trotz 14nm.
Mit diesen 400 Watt kann man sich, wenn der Haarföhn mal ausfällt, prima die Haare föhnen und im Winter kann man die Heizung auslassen..

Thermal Design Power – Wikipedia
ist nicht gleichzusetzen mit Verbrauch...

Was hier wieder für Mist verbreitet wird ist nichtmehr feierlich, aber daran merkt man hier im Forum, dass bald ein neues AMD Produkt ansteht und die Trolle aus den Höhlen kriechen -.-
 
Das hat der P100 übrigens auch. ;)
Stimmt, aber der P100 ist eine andere Liga als Vega FE

Warum können einige dieses dumme Gebashe im Vorfeld nicht einfach mal bleiben lassen?
Naja, wenn man keine offiziellen Infos bekommt, muss man eben aus den vorhanden Infos etwas spekulieren.
Wenn die luftgekühlte Variante 300W TDP hat und WaKü-Version 375W, dann kann man sich schon vorstellen warum AMD die TDP so hoch ansetzt bei gleichem Core-Clock.

...aber daran merkt man hier im Forum, dass bald ein neues AMD Produkt ansteht und die Trolle aus den Höhlen kriechen -.-
Stimmt, du bist ja da.

Dass TDP ungleich Verbrauch ist, sollte jedem klar sein.
Ändert aber nichts daran dass die WaKü-Variante mit 375W TDP wirklich hoch angesetzt ist, AMD ist nicht dumm, die wissen dass solche Zahlen interpretiert werden und würde sie nicht extra hoch ansetzen wenn es nötig bzw sinnvoll wäre.
Wieviele GPUs kennst du welche die TDP nicht auch mit realen Verbrauch ausnutzen, meine 980Ti liegt sogar im realen Verbrauch noch leicht drüber.

Und noch ein kleiner Quote aus deinem Link:
Die TDP ist meist geringer als die reale maximale Verlustleistung
 
Jaja der fideliovienna, kann auch nicht sachlich bleiben, hast dich wohl von mir angesprochen gefühlt :)

Wenn du was quoten willst, dann bitte doch alles Releveante:
TDP wird in der Elektronikindustrie ein maximaler Wert (bei manchen Herstellern auch der durchschnittliche Wert) für die thermische Verlustleistung elektrischer Bauteile oder eines Prozessors bezeichnet, auf deren Grundlage die Kühlung (falls erforderlich) sowie die Stromzufuhr ausgelegt werden.

Tesla P100 hat auch 300W TDP mit Lukü

Die 375W werden sich auf die AIO beziehen, Ende des Monats werden wir sehen.
 
Zuletzt bearbeitet:
Die luftgekühlte Version wird einen 8+6-poligen Stromanschluß haben, die wassergekühlte einen 8+8-poligen. Es stehen also 300W bzw. 375W zur Verfügung. Irgend jemand hat dann daraus die TDP gezaubert.
Naja, hier wurde der Speichertakt ja auch mal eben verdoppelt...

Das hübsche Bild Marke Photoshop zeigt fälschlich für die luftgekühlte Version einen 8+8-poligen Stromanschluß; live vorgeführt wurde aber der 8+6-polige Anschluß.
Ich denke aber, wir werden dann in ein paar Wochen luftgekühlte Consumer-Karten mit 8+8-poligem Anschluß zu sehen bekommen...
 
ich weiß ja nicht was ihr für grafikkarten habt, aber die tdp meiner 1080 wird durchweg überschritten. dazu noch, schonmal was von powertarget gehört? ich spiele in 4k meine karte läuft immer auf 100% auslastung und jetzt rate mal was die vega dann bei mir verbrauchen wird
 
Wo steht bitteschön was von 400W? Die Frontier Edition mit Luftkühlung hat eine TDP von 300W. Das hat der P100 übrigens auch. ;)

P100 gibt es seit über 1 Jahr und P100 hat neben CUDA Support FP64 mit am Start. Das fehlt m.E. Vega FE. Ich würde daher beide nicht vergleichen. Das sind ganz andere Ligen.
 
Die luftgekühlte Version wird einen 8+6-poligen Stromanschluß haben, die wassergekühlte einen 8+8-poligen. Es stehen also 300W bzw. 375W zur Verfügung. Irgend jemand hat dann daraus die TDP gezaubert.

Das habe ich an anderer Stelle auch schon angeführt, scheint aber keinen zu interessieren...
 
Thermal Design Power – Wikipedia
Was hier wieder für Mist verbreitet wird ist nichtmehr feierlich, aber daran merkt man hier im Forum, dass bald ein neues AMD Produkt ansteht und die Trolle aus den Höhlen kriechen -.-

Warum denn, Fiji hatte 275 Watt TDP und kam auf über 300 Watt. Wieso soll eine Karte mit 375 Watt nicht 400 Watt ziehen können. Muss nicht aber kann.
Und ob 375 Watt oder 400 Watt spielt auch keine Rolle mehr, so einen Stromschlucker werde ich mir garantiert nicht in meinen Rechner setzen und so denken sicher viele.

Eine Karte mit 375 Watt TDP ob Wkü hin oder her, ist einfach aberwitzig da müsste ich mir ja ein neues Netzteil für eine Single GPU kaufen, wenn ich zudem noch bisschen überakten will und ich hab schon ein 600 Watt Corsair.

Jaja der fideliovienna, kann auch nicht sachlich bleiben, hast dich wohl von mir angesprochen gefühlt :)

Der einzige der nicht sachlich ist und andere als Fanboys angreift bist du, dabei bist du doch selbst der größte Fanboy.:haha:

Beide Versionen, einmal luftgekühlt und einmal Wassergekühlt haben bei de 2x 8Pin, das zeigt dass das Ding schon 300 Watt mindestens ziehen wird.
Und Tesla P100 hat keine Radiale Luftkühlung...
 
Zuletzt bearbeitet:
Jaja der fideliovienna, kann auch nicht sachlich bleiben, hast dich wohl von mir angesprochen gefühlt :)
Du bist echt scharf drauf, bist immer der Erste der alle als Trolle bezeichnet und dann jammert du herum wenn dir jemand passend antwortet.
Wer Wind sät, wird Sturm ernten, kennst Du, oder?
Irgendwie erinnerst du mich an die ganzen Populisten in der Politik, die sind auch immer fest am austeilen, aber wenn ihnen jemand Kontra gibt sofort die armen Opfer

Leider antwortest du ja auch nicht meine Frage nach dem welche GPU unter Last weniger Strom verbraucht als ihre TDP-Angabe, sondern du versteckst dich hinter dem Wikipedia-Artikel.
Dass die TDP für die Auslegung der Kühlung relevant ist wissen wir alle, darum steckt auch das T in der Abkürzung.
Dass Grafikkarten aber meist sogar noch mehr Strom brauchen als die TDP-Angabe, das lässt du mal locker flockig unter den Tisch fallen und kommst jedem mit "kennst du den Unterschied zwischen TDP und Stromverbrauch nicht"

Irgendwann wird Vega erscheinen, dann wissen wir endlich ob AMD hier Fury 2.0 bringt, schön mit der heißen Nadel gestrickt um an die Ti ranzukommen, oder eben wirklich der Knaller wie von vielen erhofft. Auch ich würde mich über einen Mega-Vega freuen, mich erinnert aber immer mehr an Fury bei dem Teil und mit jeder Nachricht werde ich skeptischer.
Würde mich freuen wenn nach der HD7970 wieder eine AMD-Karte in meinem Rechner stecken würde, aber ich bin da eben offen für alle Hersteller weil es mir nur um das Produkt selbst geht.
 
Dass die TDP für die Auslegung der Kühlung relevant ist wissen wir alle, darum steckt auch das T in der Abkürzung.
Dass Grafikkarten aber meist sogar noch mehr Strom brauchen als die TDP-Angabe, das lässt du mal locker flockig unter den Tisch fallen und kommst jedem mit "kennst du den Unterschied zwischen TDP und Stromverbrauch nicht
Du solltest langsam mal lernen, meine Posts im Zusammenhang mit den Quotes zu lesen/verstehen.
Dann wüsstest du, warum ich "Trolle" verwendet habe.
Verstehe eh nicht, was dich daran aufregt oder fühlst du dich angesprochen?
Nö ich lass nix untern Tisch fallen wir wissen garnicht wie AMD die TDP spezifiziert (maximal mögliche was die Karte ziehen kann/darf... nur die Kühlung etc.) oder weißt du mehr als der Rest?

Würde mich freuen wenn nach der HD7970 wieder eine AMD-Karte in meinem Rechner stecken würde, aber ich bin da eben offen für alle Hersteller weil es mir nur um das Produkt selbst geht.
Meinst du mir geht es anders?
Nvidia hat bei mir wegen einiger Gründe erstmal verkackt nach 970 und 980ti
Intel hat bei mir "verkackt" weil sie für den Mainstream nur Quad Cores haben (HEDT Plattform = nicht Mainstream!)
Und da es nur 2 CPU/GPU Hersteller gibt bleibt also erstmal nur AMD...
 
Zuletzt bearbeitet:
normalerweise wird die TDP von dem eigentlichen Chip angegeben. Da wir jedoch mittlerweile auch bei der Spannungsversorgung schon einen hohen Wärmeverlust haben, so ist das nicht verwunderlich dass mal 10-20W mehr verbraucht werden.
Auch wird gerne die Typical Board Power, also der durchschnittliche Verbrauch der Karte, als TDP mitübersetzt. Nur das Wort Durchschnitt zeigt ja, dass hier nicht die Spitzenwerte angenommen werden. Ich denke wenn man nicht gerade eine Mining Farm hat oder 24/7 durchsimuliert, dann kommt keiner auf bei einer Fiji auf 300W durchschnittlich. (Duo mal außen vor)
 
Hmm... hab schlimmeres als Preis erwartet. Lässt auf die "normal sterbliche" Variante hoffen. Mal sehen ob und wie AMD die 16 GB Version für die gaming-Karten bereitstellt.
 
die wakü karte hat 375W, das sind im volksmund schon mal 400W.
Die Karte mit Wakü wird eben nochmal mehr Performance bieten. Wo ist das Problem? Das ändert doch nichts an der Standardvariante mit Lukü und 300W TDP. Wobei man hier erstmal abwarten muss. Wie smalM schon richtig anmerkte, AMD hat mW noch nichts über offizielle TDPs gesagt. Von mir aus kann die Karte auch eine TDP von 1000W besitzen. Solange die Performance stimmt ist alles iO. Nach unten skalieren kann man immer.

dein exkurs zu hbm ist richtig, aber in der Produktion ...
Irrelevant. Das war gar nicht Thema meiner Antwort an Mawa62. Ich bezog mich nur auf seine Aussage zur Bandbreite.

und nunja mit einem breiterem si kann ich mit gddr5x auch deutlich mehr bandbreite rausholen. nimmt man z.b. das 512er si der 290er gepaart mit dem neusten gddr5x kommen da deitlich mehr gbps rum als mit dem aktuellen hbm
Nein, kommt nicht. Ausserdem bläht ein solches SI den Chip nur noch weiter auf. Viel Spass mit den Yields.

der stromsparvorteil von hbm sowie das kompakte pcb sind, positive, begleiterscheinungen aber sicher nichts was weltbewegend wäre.
Doch. Das sind wesentliche Vorteile von HBM.

fiji ist wegen hbm sicher kein stromsparwunder und wäre mit 512er si und gddr5 8gb sicher besser gefahren
Nein, wäre er nicht. Die Effizienz wäre definitiv schlechter gewesen. Der 980 Ti hätte man so nicht Paroli bieten können. Und eine Nano wäre auch nicht möglich gewesen.

anfangs fand ich toll dass amd auf hbm setzte aber wie es dann gelaufen ist war es leider eine Fehlentscheidung.
Nein, ist es nicht. Es war eine riskante, letztendlich aber richtige Entscheidung. Jetzt fehlt eigentlich nur noch low cost HBM für die kleineren Ableger.

ich hoffe vega wird nicht wie fiji...obwohl es prinzipiell schon düster aussieht um vega.
Düster? Auf welchen Fakten basiert denn diese Einschätzung? Vega schaut bisher ziemlich vielversprechend aus. Architekturverbesserungen, HBM2, verbesserte 14nm Fertigung im Vergleich zu Polaris inklusive höherem Takt usw. Es müssen sich jetzt eigentlich nur noch die Vorabeindrücke auch in er Praxis bestätigen. Dann hat AMD mindestens einen zweitens Ryzen, nur diesmal bei den GPUs. ;)

volta sieht ja nicht ferade nach einem großen wurf für gamer aus, vlt läuft es da wie bei den prozessoren, dass amd aufgrund fehlender innovation der konlurrenz wieder aufholen kann
AMD muss gar nicht aufholen. Architekturseitig liegen sie schon seit der ersten GCN Generation in Front. Vega eliminiert lediglich ein zwei Nachteile, die sie bisher gegenüber Nvidia hatten, siehe DSBR. AMD muss nach Fiji nur endlich mal wieder ein grosses Design auf den Markt bringen, für professionelle Bereiche und Gaming-Enthusiasten. Genau das macht man nun mit Vega.


Stimmt, aber der P100 ist eine andere Liga als Vega FE
Also wenn's um Deep Learning geht, stimmt. Da scheint der P100 eine Liga darunter angesiedelt zu sein. :fresse:

Naja, wenn man keine offiziellen Infos bekommt, muss man eben aus den vorhanden Infos etwas spekulieren.
Dummes Gebashe, gepaart mit absichtlich falschen Behauptungen, bleibt dummes Gebashe. Das hat mit Spekulieren nix zu tun.


P100 gibt es seit über 1 Jahr und P100 hat neben CUDA Support FP64 mit am Start. Das fehlt m.E. Vega FE. Ich würde daher beide nicht vergleichen. Das sind ganz andere Ligen.
Nein, der P100 ist erst seit einigen Monaten erhältlich. Daran ändert auch nix, dass er vor einem Jahr vorgestellt wurde. Wie oft willst du dieses Märchen eigentlich noch erzählen? Ob die FE FP64 Support hat, ist bisher nicht klar. Das kannst du also gar nicht wissen. Ist aber auch nicht wesentlich. Die FE richtet sich vor allem an Deep Learning Kunden und Workstations. Da zählt vor allem FP32 und FP16. Da hat die FE auf jeden Fall deutlich mehr zu bieten als der P100 oder die Titan Xp. Vega selbst unterstützt natürlich FP64. Für die Bereiche, wo es gebraucht wird, werden natürlich auch entsprechende Ableger kommen. Mach dir da mal keine falschen Hoffnungen. CUDA? LOL. Warum soll sich AMD mit proprietärem Altschrott belasten? Es gibt keinen Grund, für neue Projekte CUDA zu benutzen. Es gibt genügend gleichwertige oder teils sogar bessere Alternativen. OpenCL ist lediglich eine davon. Ausserdem, schon mal was von CUDA Konvertierern gehört, wie zB HIP? Es stimmt zumindest, dass FE und P100 andere Ligen sind. Das bezieht sich aber lediglich auf den Preis. Das was die FE zu bieten hat, da schaut der P100 jetzt schon irgendwie alt aus. Da wird es der Titan Xp wohl nicht viel besser ergehen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh