Radeon RX Vega erscheint in drei Varianten: Unterschiede in Kühlung und Shadereinheiten

Vega ist ja auch noch nicht das Ende der Entwicklungsevolution bei AMD, es kommt ja noch Navi, da wird es erst so richtig interessant ....

btw. wo ist eigentlich der Navi thread, oder gibts noch keinen :confused:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja, das mit der Boardpower etc bedeutet doch aber auch nur, dass die Karte so viel verkraftet und nicht, dass sie so viel benötigt, oder sehe ich das jetzt falsch?
Die Messungen der FE haben schon klar gezeigt dass sie sich schon mal gerne 280W gönnt und sobald es in Richtung Takt von 1,6GHz halten geht es mit dem Verbrauch auch nochmal ordentlich nach oben.
Muss man aber dazusagen dass das bei einer 1080Ti o.ä. Karten ja auch nicht anders ist, sobald man über dem SweetSpot ist geht es einfach rapide nach oben mit Stromverbrauch.

Aber die Argumentation "ist ja nur TB(D)P" wird schön langsam öde
 
Zuletzt bearbeitet:
Vega ist ja auch noch nicht das Ende der Entwicklungsevolution bei AMD, es kommt ja noch Navi, da wird es erst so richtig interessant ....

btw. wo ist eigentlich der Navi thread, oder gibts noch keinen :confused:

hm, jetzt ist noch nicht mal vega da und es wird Navi ins Feld geworfen
- wann navi kommt könnt ihr euch ja an der letzten Roadmap selber ausrechnen ... :xmas:

article_img.jpg
 
Ah danke für die Info, 2018 also erst, wahrscheinlich aber schon voll in der Entwicklung, das erklärt einiges. ;)
 
Eher 2019. Sicher 2021.
 
Aber dann mit Next-Gen Memory :d
 
Na ja, "Next Gen Memory" ist dann wahrscheinlich eher das, was AMD von Anfang an von SK Hynix verlangt hat und mit nem 3/4 Jahre Verspätung dann auch eintrifft. Selbst wenn Hynix auch das nicht liefern könnte, Samsung kanns. Speichermäßig mache ich mir da weniger Sorgen.

Ansonsten: Füße still halten. Vega scheint ne gute Arch für Vulkan/DX12 zu sein und wer dort Spiele-Prioritäten setzt, der wird von Vega wohl kaum enttäuscht werden. Was DX11 angeht, ist das halt etwas, wo AMD ne Wette drauf gesetzt hat, dass es weniger relevant wird bzw. vom Markt verschwindet. Mal gucken ob sich das Risiko auszahlt.

Und auch wenn unser Foren-AMD-Fanboy rumtrollt, als gäbe es keinen Morgen mehr - mit einer Sache hat er Recht: Vega ist noch völlig unoptimiert. Wenn die AiBs jetzt noch ne schone luftgekühlte 16 GB Version rausbringen (gerne auch mit zusätzlichem Binning) - dann sollte es für den anspruchsvolleren Spieler mehr als okay sein.
 
Bsi jetzt gabs nicht einen Leak das die RX 16 GB haben wird und trotzdem hält sich das wie in Stein gemeißelt. Oo Und wen Vega 3 Wochen vor Release völlig unoptimiert ist, dann ist was gewaltig schiefgegangen. XD Vorallem wenn man bedenkt, das Vega bereits auf dem markt ist in einer VAriante, die mit Gamefeature beworben wurde.... Sorry, aber wenn DAS die "Ausrede" ist, warum Vega bisher in Games nicht überzeugt, ist das eher schlecht für den RX Release. Aber ich kenn den "Konter": FE wird künstlich massiv beschnitten, macht ja auch soviel Sinn wenn man sie auch als Gamerkarte bewirbt und gegen die Titan positioniert (Stichwort Prosumerkarte). ^^
 
Zuletzt bearbeitet:
Ich hätte sogar schon ein Argument auf Basis der geleakten Daten gegen 16GB HBM2 gebracht, nur komischerweise kombiniert hier niemand Zahlen, sondern man reitet weiter auf dem Hype-Train.
Woher HWLX jetzt plötzlich wieder die 16GB HBM2 ausgräbt bleibt mir echt ein Rätsel. Nur wegen Vega FE?

Next Gen Memory fand ich nur so erheiternd in der Roadmap weil bei Vega HBM2 definitiv angeführt wurde.
Also kanns nichts mit der Verfügbarkeitsproblematik bei Hynix zu tun haben, die Roadmap ist ja schon viel älter. In den neueren Roadmaps von AMD ist der Punkt wieder verschwunden.
 
Vielleicht hats ja was mit der Firma NexGen zu tun die AMD 1995 übernommen hat. Vielleicht arbeitet die an einer neuen Speichertechnologie.

Oder es war einfach nur ein Tippfehler und sie meinten auf der Roadmap Next Gen Memory da sie noch nicht wissen was sie nach HBM2 verbauen werden.
 
Die Bezeichnungen klingen schon mal nicht schlecht. Ein "pro @ xt" wäre natürlich noch schöner wie damals mit der x800.
Also dann eine XTX, irgendwo den Radiator notdürftig anschrauben und warten bis Watercool in die Gänge kommt :coolblue:
 
Vielleicht hats ja was mit der Firma NexGen zu tun die AMD 1995 übernommen hat. Vielleicht arbeitet die an einer neuen Speichertechnologie.
Oder es war einfach nur ein Tippfehler und sie meinten auf der Roadmap Next Gen Memory da sie noch nicht wissen was sie nach HBM2 verbauen werden.
Wäre natürlich total sinnvoll gleich wieder die Speichertechnologie zu wechseln
 
Die FE lässt sich allerdings ordentlich undervolten. Laut PCGH werden die 1600 Mhz rockstable in Spielen mit 1,075 Volt gehalten. Anstelle von serienmässigen 1,2 Volt nicht schlecht. Zum Thema Verbrauch:

Ein paar Undervolting-Ergebnisse unter Compute-Volllast:

ComputeMark 2.1, 300 Sekunden MandelS (burn test demo) in 1200p:

1.200 mV (default PT): PC zieht ~380 Watt
1.200 mV, +50 % PT: PC zieht ~540 Watt nach 30 Sekunden, dann habe ich abgebrochen :ugly:
1.100 mV, +20 % PT: PC zieht ~460 Watt
1.075 mV, +20 % PT: PC zieht ~430 Watt
1.075 mV, +50 % PT: PC zieht ~430 Watt
1.050 mV, +50 % PT: PC zieht ~415 Watt

Das mal als erste Idee, was UV bringt. :-)

MfG,
Raff
 
ist doch gut, dann gibt es noch Spielraum nach unten was den Verbrauch der RXVega angeht. :)
 
Undervolting ist wie OC aber ein Glücksspiel und kann teilweise deutlich abweichen. Warum wird das schon wieder als Fakt deklariert, weil 1 (!) Sample gut zu undervolten ging? Außerdem ist letztlich egal was zu Hause gemacht wird. Die KArten müssen sich als Verkaufsversion messen. Nichts anderes ist entscheidend.
 
OK dann eben als Annahme das UV gut gehen könnte ;)
 
Finde es echt eine frechheit, dass ein user sich erlaubt, positive news über die vega zu posten.... Einfach unerhört.
Und der arme mustis muss das dann auch noch lesen...

Jetzt mal im ernst, ich glaube es ist in diesem forum wohl den meisten leutem klar, welche aussagekraft ergebnisse von einer einzigen karte haben. Da muss man nicht gleich wieder rumzettern, als obs was schlimmes wäre.
Und nein, gerade im luxx ists absolut nicht egal, was die karte zu haise noch so schafft. ;)
 
Liebe hardcore fanboys, in dem post steht nicht einmal amd, vega oder dergleichen. Der post ist 1zu1 auf nividia anzuwenden und allgemein gültig. Warum zum geier müsst ihr amd soldaten eigentlich jede neutral anwendbare aussage auf eure kuschelvorlage beziehen und so tun, als hätte diese aussage irgendwie ausschließlich bezug zu amd? Ich weiß auch, das die deutsche sprache schwer ist und nicht jeder einen konjuktiv erkennt oder um seine bedeutung weiß. Aber kleiner hinweis: der gemeinte post enthält ihn nicht und damit steht die behauptung als absolut dort.

@razor
Echte argumente hast du nie, was du aber immer kannst ist ein argumentum ad hominem anbringen, da biste king drin. Na ja, ist wenigstens ein klares anzeichen auf die von dir zu erwartenden geistigen fertigkeiten.
 
Zuletzt bearbeitet:
Außerdem ist bekannt, dass Polaris sehr gut zu undervolten ist, warum dann nicht auch bei Vega.

Hab das Offtopic mal gelöscht, nicht dass ich noch schuld bin wenn hier einige heute Nacht nicht schlafen können ;)
 
Zuletzt bearbeitet:
Dieses Forum verkommt immer mehr zu einem Kindergarten, könnt ihr eure Privatkriege nicht mal bei Seite legen oder es per PN austragen?
 
@Merkor ja recht hast. Hab mich provozieren lassen. Mea Culpa. Wenn man immer wieder von den selben Sabbelköppen dumm von der Seite angemacht wird sollte man leiber die Ignore bemühen statt drauf eingehen.
 
Zuletzt bearbeitet:
Wenn man die trolle auf die Ignore packt dann ist das alles viel entspannter. Man darf sich die Posts dann nur nicht auch noch einblenden lassen. Wobei ich das auch zu oft mache...
 
@Merkor ja recht hast. Hab mich provozieren lassen. Mea Culpa. Wenn man immer wieder von den selben Sabbelköppen dumm von der Seite angemacht wird sollte man leiber die Ignore bemühen statt drauf eingehen.

Am besten einfach nicht beachten :)
 
Undervolting ist wie OC aber ein Glücksspiel und kann teilweise deutlich abweichen. Warum wird das schon wieder als Fakt deklariert, weil 1 (!) Sample gut zu undervolten ging?
Wer hat was als Fakt deklariert?

Liebe hardcore fanboys, in dem post steht nicht einmal amd, vega oder dergleichen. Der post ist 1zu1 auf nividia anzuwenden und allgemein gültig.
Da es hier in diesem Thread aber um AMD und Vega geht, wird das sicherlich der geneigte Leser auch darauf beziehen. ;) Und dass du jetzt so gereizt reagierst und Leute als "Hardcore Fanboys" und "AMD Soldaten" beschimpfst, macht deinen Standpunkt auch nicht glaubwürdiger. Nur so als Info.

Ich wäre auch dafür, dass du mal einen Gang runterschaltest. Man kann's auch übertreiben. Wenn man in AMD Threads nur Negatives von dir liest, egal wie allgemeingültig es gemeint war, aber nie was Positives, dann musst du dich über Kritik nicht wundern. Da brauchst du andere jetzt auch nicht anzustänkern.

Übrigens, es ist kein Geheimnis, dass AMD recht grosszügig mit Spannungen kalkuliert. Haben sie in der Vergangenheit schon und scheint auch bei Ryzen / Vega der Fall zu sein. Aufgrund der PCGH Zahlen ist es also keineswegs falsch zu sagen, dass auch die RX Vega Spielraum nach unten bei der Leistungsaufnahme hat. "Spielraum" ist kein Absolut und hat daher gar keinen Anspruch auf irgendwelche allgemeingültige Fakten.
 
Zuletzt bearbeitet:
Ach mustis, nun geh doch nicht gleich wieder die wände hoch.
Schlussendlich hat er doch nur erwähnt, dass die FE von pcgh gut zu undervolten ist. Das ist ein fakt der halt gerade aktuell ist. Nocht mehr und nicht weniger. Dass aber nicht jede karte gleich geht, ist doch klar. Ich denke mal, er hat es einfach veralgemeinert weil eben das erste mal solche infos kommen und pcgh wohl aich ne durchschnittliche gpu aus dem handel haben.
 
Aber mit den 1,075V und 20% PT, bei dem die 1600 MHz gehalten werden braucht die Karte nochmal 50W mehr als @Stock mit 1,2V
Und zwischen 20 und 50% PT tut sich anscheinend gar nichts mehr, d.h die Karte läuft in ein anderes Limit (Temperatur?)

Vega ist kein Kostverächter und es wird schon deutlich dass sie mit 300W Verbrauch nicht 1600MHz halten wird.
 
Ich hab mal eine blöde Frage. Das sind keine Dual GPUs, oder?

Gesendet von meinem SM-G920F mit Tapatalk
 
Nein allesamt singlechip. auf basis vega wäre mir nichtmal eine angekündigte dual gpu variante bisher bekannt.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh