AMD Radeon RX Vega mit 4.096 Shadereinheiten und 1.200 GPU-Takt aufgetaucht

bei den videos, egal wen es trifft, hau ich mich echt immer wieder weg
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
naja wirklich gut ist auch das Szenario nicht wenn man dringend mehr Leistung braucht - schön wären morgen endlich zumindest mal ein paar Handfeste Infos bezüglich Leistung aber da wird wol wieder nix genaues kommen ...


Die Aussagen von morgen kann man ja ziemlich gut mit der Zeit vor Ryzen vergleichen. Als AMD dann endlich mal Selbst wusste was an Takt und somit Leistung raus kommt, gabs Cinebench Scores und Handbrake Vergleiche weil man sich dann selbstbewusst zeigen konnte. Etwas was AMD in der Art zum ersten mal seit Langem gemacht hatte, weil man das erste mal seit Langem ein Produkt hatte wo man die Konkurrenz auch übertreffen konnte. Das letzte mal davor war 2013 mit R9 290X...

Wenn die morgen so drumrum reden: "in Doom schlägt sie ne 1080 Ti", oder der Standardspruch "sehen uns sehr gut aufgestellt", oder "sehen uns Konkurrenzfähig" oder "Dual Vega wird die stärkste Grafikkarte 2017(was ja leider Mikroruckler Probleme hat)" dann kann man die 1080 Ti wohl gleich bestellen.

Wirklich was handfestes erwarte ich morgen nicht, aber vlt. kommt ein DOOM Benchmark von dem man dann von RX580 ausgehend hoch rechnen kann um somit ungefähr die DX11 und sonstige Leistung von Vega erfährt.


Wenn man jetzt mal nur die TFLOPS betrachtet: Wenn das Verhältnis von Frontend und Backend bei Vega und RX580 gleich wäre, dann wäre ja die doppelte Leistung von RX580(6,1) drin, was für 1080 Ti Leistung in DX11 reichen würde. Wenn man aber von ner Fury X (8,6) ausgeht die ja teilweise nur genauso schnell ist wie ne RX580 wäre man mit 12,5 bei 1080 und noch weit entfernt von ner 1080 Ti geschweige denn dieser mit OC.



Ich vermute aber aufgrund der TDP von 275W, dass AMD mit Vega das gleiche macht wie damals mit der Fury X: mit ach und krach und den letzten Taktreserven die stock 1080Ti erreichen, gegen OC 1080Ti keine chance.
Hoffentlich kommt auf die große single Vega keine AiO drauf, die Lektion haben sie hoffentlich bei der Fury X gelernt...
 
Zuletzt bearbeitet:
Ne, für mich kommt eigentlich nur die Nova in Betracht, wegen der 16 GiB VRAM.

Wo zum Teufel steht da mit nur einem wort, dass die nova 16 gb haben wird. Die tabelle nicht angeschaut? Da wird auch von ner duo gesprochen. Und nun überleg mal scharf, welche karte die 16 gb haben wird....

Die angabe von 8-16 gb respektive 16-32 gb ist doch wieder pure spekulation der seite und ziemlich irrwitzig. 16 gb für 700€? Wers glaub... vor allem was soll dann erst die duo mit 32 gb kosten...

Die fury hatte 4 gb hbm für 700€ und nun soll die nova das 4fache an speicher zum selben preis haben und dann noch mit dem neueren speicher? sischer dat!
 
Zuletzt bearbeitet:
Wo zum Teufel steht da mit nur einem wort, dass die nova 16 gb haben wird. Die tabelle nicht angeschaut?
Es gibt einen Eintrag in CompuBench mit einer AMD-Karte, deren ID auch im AMDGPU-Treiber im Linux-Kernel ist. Wenn sie nur 2 HBM2-Stacks hat, und dann 16GiB VRAM rauskommen, beweist es doch schon, dass es so eine Karte geben muss. Man könnte jetzt noch argumentieren, dass sie vielleicht der Profi-Ableger ist. Allerdings hat AMD soweit ich mich erinnern kann, bereits bekannt gegeben, dass alles, was technisch möglich ist, von Partnern auch released werden kann. Außerdem wären 1600 MHz die Einschätzung für die Consumer-Karte gewesen, für die versprochenen 12 TFLOPS würden nämlich auch 1500MHz locker ausreichen, und die Karte verbraucht dann ja weniger Strom.

16 gb für 700€? Wers glaub...
Und wenn es 750 oder 800 wären - ist doch nicht so wichtig, jedenfalls denke ich nicht, dass die 16GiB exorbitant teurer werden. Man sollte bedenken, dass diese ganzen Chips ja auch nur Bruchteile von dem kosten, was da anfangs abgerufen wird.

Die fury hatte 4 gb hbm für 700€ und nun soll die nova das 4fache an speicher zum selben preis haben und dann noch mit dem neueren speicher?
Die Fury wollte auch (fast) keiner, zumindest nicht zum Anfangspreis, und sie hatte nur deshalb 4GiB statt 8GiB, weil es mit HBM1 technisch unmöglich war, mehr Speicher zu bringen.
 
Dann schau mal genauer die Tabelle an...

Angaben bei duo 16/32 und bei Nova 8/16

Auf gut deutsch wissen die es selber nicht aber es steht dran, bevor man andere Leute beschuldigt nicht genau hinzusehen, sollte man vielleicht selber erstmal genauer hinschauen
 
ja round about ti Leistung für um die 700 Euro wäre durchaus noch im vertretbaren Bereich, wobei meiner Meinung nach die Grakapreise grundsätzlich 100 bis 200 euro zu hoch sind - aber das wird sich wohl kaum mehr ändern ....

sehe ich auch so, dafür hat Nvidia + der heutige Konsument gesorgt.
 
SK Hynix braucht AMD nicht.
Für die Entwicklung von HBM aber anscheinend doch. Ausserdem irrelevant wenn wir von den Lieferkapazitäten sprechen.


Wichtig für AMD ist nun das Vega eine Architektur ist auf die man aufbauen aka ausbaufähig ist. Die alte Architektur GCN war es jedenfalls nicht wirklich.
Dir ist schon klar, dass Vega keine komplett neue Architektur ist, sondern nach wie vor auf GCN aufbaut?

Es geht um den Kontext das GCN in 12-14nm für AMD kein echtes Potential bietet wie es Maxell Refresh Pascal geboten hat.
Was bietet denn Pascal ausser Takterhöhungen, die hauptsächlich den Änderungen an der Pipeline geschuldet sind? Ich sehe da nicht viel. Vega bietet Takterhöhungen und deutliche Architekturverbesserungen. Wer ein bisschen rechnen kann, sieht da bei Vega mindestens gleich viel oder gar mehr Potenzial. Pascal ist einfach nur eine hochgezüchtete DX11 Architektur. Vega ist die erste richtige DX12.1 Architektur.


Sorry, aber versuch hier bitte nicht andere Leute zu belehren, wenn du offensichtlich keine Ahnung hast. Im tech Sektor wird das R&D immer vorfinanziert. Also nicht die Pascal Verkäufe spielen das Pascal R&D ein, sondern die Kepler Verkäufe haben das Pascal R&D schon eingespielt. Genau so ist das bei VEGA.
So ist es. Aber lohnt eh nicht mit dem Typen zu diskutieren. Er schaut immer nur ab und zu mal in AMD Threads rein, um irgendwelche sinnfreien Nvidia Glorifizierungen loszuwerden und AMD runterzumachen. Objektivität, Substanz und Themenrelevanz gleich null.


damit die Vorstellung von Vega als Volta Konkurrent aufgeht muß aber Vega vom Start weg zum jeweiligen Nvidia Pascal Pendant min 20-30% Mehrleistung draufpacken - bei 1070 und 1080 kann ich mir das noch halbwegs vorstellen bei 1080TI und Titan XP P auf keinen Fall (bei Speziallfällen in Vulkan vielleicht)
Architektur != Produkt. Vega ist der Konkurrent von Volta. Das stimmt schon, vor allem aus Architektursicht. Das bedeutet aber nicht, dass die Vega Launchmodelle auch später gegen die Volta Launchmodelle antreten werden. Man kann notfalls immer noch was schnelleres nachschieben. Wie seinerzeit die HD 4890. Oder die HD 7970 GHz Edition. Oder halt Polaris 20/21, was lediglich eine neue Chiprevision benötigte.


SK Hynix: HBM2 offiziell nur mit 1.600 MHz und 4 GiByte, GDDR6 zum Jahresende

Entweder die 16GB Karte ist eine Radeon Pro / MI Karte mit Doublestack Interposer (das Ding was damals durch die Gerüchteküche ging für 8GB Fury X) oder das ist einfach die Dual-Vega Karte.
Das ist nur das, was in den offiziellen Produktkatalog aufgenommen wurde. AMD hat da sicherlich noch ein paar andere Optionen. ;)
 
@Mr dude
Fang bitte nicht wie Razorlight an alles aus dem Kontext zu reißen!

Die alte GCN Architektur von AMD hat den Sprung von 28nm zu 12-14nm einfach nicht so gut mitgemacht wie Maxwell es mit Pascal getan hat.
Ich Werte nicht über die Architektur als solches sondern schlicht in Bezug auf den Wechsel im Fertigungsprozess welcher für nivida weit Vorteilhafter verlaufen ist.
Den selbst du must zugeben das die 480 oder 580 als höchstes der Gefühle bestimmt nicht AMDs selbstgesteckte Grenze ist sondern das deren alte GCN Architektur dicht gemacht hat.
 
Ich Werte nicht über die Architektur als solches sondern schlicht in Bezug auf den Wechsel im Fertigungsprozess welcher für nivida weit Vorteilhafter verlaufen ist.
Wie ich schon sagte, ausser Takterhöhungen sehe ich nichts, was an Pascal vorteilhaft gegenüber Maxwell ist. Und diese Takterhöhungen sind hauptsächlich den Änderungen an der Pipeline geschuldet und nicht dem Fertigungsprozess.

Den selbst du must zugeben das die 480 oder 580 als höchstes der Gefühle bestimmt nicht AMDs selbstgesteckte Grenze ist sondern das deren alte GCN Architektur dicht gemacht hat.
Polaris war nie als 14nm Design geplant. Polaris war ursprünglich ein 20nm Design. Und dass da irgendwas "dicht gemacht hätte", sehe ich auch nicht. Die Designziele waren vermutlich einfach nicht auf 14nm FinFET ausgerichtet. Selbst Vega startete zu einer Zeit, als die aktuelle 14nm Fertigung von Glofo noch nicht fest stand. Glofo hatte ursprünglich was anderes geplant (14nm-XM). Aber zumindest hatte man etwa ein Jahr mehr Zeit, sich darauf einzustellen. Das hat auch nichts damit zu tun, irgendwas aus dem Kontext zu reissen. Die Behauptung, dass GCN in 14nm weniger Potenzial bietet, ist schlichtweg unbegründet. Du kannst zumindest keine plausiblen Gründe nennen.
 
Ich muss mich übrigens korrigieren. Sollte Vega 10 wirklich schon bei $399 beginnen, dann wäre Vega 11 logischerweise unterhalb davon angesiedelt. Zumindest Polaris 10/20 könnte daher doch noch in diesem Jahr (Q3/Q4?) von Vega abgelöst werden und nicht erst 2018.
 
die 16GB Vega wird doch eine Profi Karte sein..
fürs gaming werden erstmal 8GB kommen, so wie es mit der Verfügbarkeit aussieht... kommt AMD in naher Zukunft eigentlich auch an GDDR 6 ran oder ist das Nvidia exclusiv?
Bei den HBM Preisen und der scheiß Verfügbarkeit hätte AMD auch mal zweigleisig fahren sollen.
 
AMD Radeon RX Vega Nova, Eclipse $399 Respectively


Launching June 5th – Priced At $599, $499 & $399 Respectively

Endlich wird auch Zeit. Ich Hoffe wirklich das AMD NVidia damit ans Bein Pinkelt.
Dann wird NVidia keine Mondpreise mehr verlangen.

Dieses Jahr hat NVidia mit den Treibern wirklich den Vogel abgeschlossen, Qualität leidet sehr. Teilweise werden Aktuelle Treiber vermieden weil bei jeden aktuellen Treibern kommen andere Probleme dazu.
 
Zuletzt bearbeitet:
8GB langt Dicke. Auch mit SLI habe ich nie meine 8GB gesprengt. Diese RAM Politik mit 11GB oder 12GB ist einfach übertrieben. Eventuell 5% der Gamer Sprengen ihre GPU RAM weil Sie extra irgendwelche SSAA einschalten mit zusätzlichen Tools oder mit übertriebene HD Texturen.

Warum Berichtet HWL nichts über High-End-GPU: AMD Vega 10 mit 16 GB und 1.600 MHz gesichtet.

Wo sind die Vega hater hin?
 
Zuletzt bearbeitet:
Aus dem Rage3D Forum kopiert:

Friend that works at Amazon germany claims MSI is lowering their price of the flagship MSI 1080Ti Gaming X just to lower their overall stock of 1080Ti ahead of VEGA release just because they know the performance of VEGA and that it will disrupt the high end market.
(Price at Amazon.de is 780 Eur incuding shipping)
 
Wenn das stimmt, dann müssten die Ti-Preise ja in der oder spätestens nächster Woche deutlich fallen, denn bei der Computex wird AMD ja VEGA vorstellen.
D.h zumindest die Richtigkeit dieser Meldung wird sich in Kürze herausstellen.

Ich halte die 16GB HBM immer noch für nicht realistisch für die Nova, die kommt mit 8 GB.

Und die Tabelle von WCCF passt ja von vorne bis hinten nicht, einmal mal Eclipse und Core von den Daten her ansehen.
Eclipse mit 3584 Shader und gleichem Takt wie die günstigere Core, nur hat die Core dann wieder 4096 Shader.
Aber trotzdem hat Core nur ~10,5 TFlops, Eclipse aber ~12 TFlops. :fresse2:
 
Dieses Jahr hat NVidia mit den Treibern wirklich den Vogel abgeschlossen, Qualität leidet sehr. Teilweise werden Aktuelle Treiber vermieden weil bei jeden aktuellen Treibern kommen andere Probleme dazu.

Mmn geht dies seit mindestens 2 1/2 Jahren so, seit sie keinen Druck von AMD haben.
 
Jo leider kommt Vega aber über ein halbes Jahr zu spät..
Die dicken Margen hat Nvidia jetzt ein Jahr lang eingefahren
 
Manche hier verstehen nicht den Unterschied zwischen einer Architektur und den daraus resultierenden SKUs. Bitte, mach euch nicht lächerlich. VEGA ist AMDs Gegner zu Nvidias Volta. Punkt, aus.

Polaris was AMDs Gegner zu Nvidias Pascal. Nur weil man nicht gegen jede SKU antritt heißt das nicht, dass man nicht konkurriert. Ist ja auch klar. AMD kann sich nicht so viele Design-Teams wie Nvidia leisten, muss seine Entwicklung also konzentrieren. Deshalb gab es mit Polaris nur mid-range SKUs und erst mit VEGA, also der nächsten Architektur, kommt das high-end.

So, das ist jetzt das letzte Mal, dass ich das hier erkläre. Wer es jetzt noch nicht rafft hat Pech.

PS: Niemand sagt, dass Nvidia aktuell im high-end nicht unangefochten ist. Aber das ist eine ganz andere Diskussion.
 
Und die Tabelle von WCCF passt ja von vorne bis hinten nicht, einmal mal Eclipse und Core von den Daten her ansehen.
Eclipse mit 3584 Shader und gleichem Takt wie die günstigere Core, nur hat die Core dann wieder 4096 Shader.
Aber trotzdem hat Core nur ~10,5 TFlops, Eclipse aber ~12 TFlops. :fresse2:
Das passt schon. Die haben nur die Anzahl der Shader vertauscht. Eclipse sollte 4096 haben, Core 3584.
 
Polaris was AMDs Gegner zu Nvidias Pascal.
Also ich bin ja auch kein Fanboy, aber das ist als würde man sagen: "Mayweather war der eigentliche Gegner zu Klitschko".

Nur weil man nicht gegen jede SKU antritt heißt das nicht, dass man nicht konkurriert.
Ach ne... Mann, aber SKU klingt professionell...

AMD kann sich nicht so viele Design-Teams wie Nvidia leisten [...]
Ja eben, deshalb wäre es mal wieder von Vorteil wenn AMD den ersten Zug macht...

So, das ist jetzt das letzte Mal, dass ich das hier erkläre. Wer es jetzt noch nicht rafft hat Pech.
Von Anfang an so herablassend schreiben und einen Nonsense verbreiten wie: "Sorry, aber versuch hier bitte nicht andere Leute zu belehren, wenn du offensichtlich keine Ahnung hast. Im tech Sektor wird das R&D immer vorfinanziert. Also nicht die Pascal Verkäufe spielen das Pascal R&D ein, sondern die Kepler Verkäufe haben das Pascal R&D schon eingespielt. Genau so ist das bei VEGA."

Auf meine Antwort darauf ahst du nicht reagiert, aber immer schön arrogant bleiben und nicht darauf eingehen, man könnte entzaubert werden...
 
das sieht für mich nur aus als wenn wccf die Gerüchte von vor paar Tagen verspätet bringen, dazu noch garniert mit mehr Fragezeichen und das Ganze bauscht sich wunderbar auf.

599$ 16GB Vega? gekauft.

@rade3D Bullshit:
msi senkt laut einem amazonmitarbeiter aus deutschland die preise wegen vega....das ist typisch:

da rollt jemand durchs Amazon-Gelände und sammelt Artikel zusammen (die nichtmal einen Preis haben in den Regalen)
und wenn ein Preisabfall auffällt (wie auch immer) rennt der zu seinem "Aufseher" der ihm dann MSIs & AMDs Betriebsgeheimnisse erläutert.
unwahr weil :MSI die Preise einfach nicht vorgibt - die Karte verkauft sich einfach nicht da alle Reviews von anderen Modellen dominiert werden = Preissenkung # Ironie: das passiert auch mit der FuryX demnächst (nostradamus-meme)

selbst wenn MSI preisevorgaben machen würde, müssten Sie das Amazon nicht begründen und Amazon würde eine solche Information bestimmt auch jedem Amazon Komissionierer per mail senden....
 
Das passt schon. Die haben nur die Anzahl der Shader vertauscht. Eclipse sollte 4096 haben, Core 3584.
Also passt die Tabelle nicht ;)

Aber es würde halbwegs wenn man die Shaderanzahl umdreht zw Eclipse und Core, nur wieso dann Eclipse nur gegen die GTX1080 positioniert wird und Nova gegen die GTX1080Ti wenn sie sich eigentlich nicht unterscheiden. (vielleicht etwas niedriger Takt)
Zwischen der 1080 + Ti liegen 30% Leistung
Hmm, wird interessant werden wie sich Nova und Eclipse dann wirklich unterscheiden, bei Fiji war da eben gleich der Cut zw Fury X und Fury.

Wird Nova wieder eine AiO-Lösung um einen höheren Takt halten zu können und Eclipse die luftgekühlte Version?
Es bleibt spannend, wird Zeit für weitere Infos :)
 
Zuletzt bearbeitet:
also ich bleibe sketpisch - diese 3 Varianten inklusive Preise klingen zwar nicht ganz unrealistisch - aber bei der Fury hab ich mich auch von der Euphorie anstecken lassen und war Feuer und Flamme - mittlerweile ärgere ich mich das ich keine 980ti statt der Fury gekauft hab -das passiert mir nicht nochmal.


nö diesmal warte ich (was mir wirklisch schon sehr schwer fällt , das ich noch warte verdankt Amd rein Nvidias proprietären Gsync) ab bis alles umfangreich getestet wurde und dann wird vielleicht gekauft
 
Von Anfang an so herablassend schreiben und einen Nonsense verbreiten wie: "Sorry, aber versuch hier bitte nicht andere Leute zu belehren, wenn du offensichtlich keine Ahnung hast. Im tech Sektor wird das R&D immer vorfinanziert. Also nicht die Pascal Verkäufe spielen das Pascal R&D ein, sondern die Kepler Verkäufe haben das Pascal R&D schon eingespielt. Genau so ist das bei VEGA."

Auf meine Antwort darauf ahst du nicht reagiert, aber immer schön arrogant bleiben und nicht darauf eingehen, man könnte entzaubert werden...

Er hat BS geschrieben und ich habe ihn korrigiert, wenn das für dich arrogant rüber kommt geht das für mich klar. Das ist kein nonsense, sondern einfach nur ein Fakt.

Und auf deine geheimnisvollen Äußerungen ohne Inhalt muss niemand eingehen.
 
Aus dem Rage3D Forum kopiert:

Friend that works at Amazon germany claims MSI is lowering their price of the flagship MSI 1080Ti Gaming X just to lower their overall stock of 1080Ti ahead of VEGA release just because they know the performance of VEGA and that it will disrupt the high end market.
(Price at Amazon.de is 780 Eur incuding shipping)

Genau den selben Quatsch gabs doch bei Fury X zu lesen 20% über OC 980 Ti. Oder Insiderinformationen wo Fury X die 980 Ti crushed.
Am Ende waren alle durch irgendwelche solche Fehlinformationen und Gerrüchte gehyped ohne ende und dann mega enttäuscht.


Bei Ryzen kamen von AMD nach ner Zeit handfeste Benchmarks (wenn auch wenige) in Handbrake und Cinebench. Zur Vega Leistung gibts aktuell absolut keine Infos.

Kann natürlich auch sein, dass AMD Marketing gelernt hat und die Karte wie Nvidia die 1080Ti released: Einfach mal den Redaktionen ohne großes PR Tamtam vor die Füße werfen und dann Mikrofon droppen. Bäm alles platt
Aber das wäre zu schön um wahr zu sein ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh