Radeon RX Vega: AMD stellt Direktvergleich zur GeForce GTX 1080 her

Wenn sich mein Produkt derart verzögert (was in diesem Fall jetzt keine so große Überraschung ist), dann habe ich mich total verkalkuliert und muss das Produkt eben an den aktuellen Stand anpassen. Selbst wenn die Karte in Q4/16 rausgekommen wäre, dann wäre sie bereits in Q2/17 wieder abgehängt, wenn sie tatsächlich eher gegen die 1080 antritt als gegen die Ti.

Theoretisch hört sich das richtig an, aber wie hätte das praktisch geschehen sollen? Auf HBM2 in letzter Minute zu verzichten und einen Chip mit GDDR5(X) zu designen hätte Ressourcen benötigt, die bei AMD momentan Mangelware sind. Und in der kurzen Zeit dürfte das sowieso nur schwer möglich sein. Vielleicht wird Vega unter den High-End Gamingaspekt nicht ganz da landen wo man es gehofft hat, aber ich denke schon das man das Beste aus den Möglichkeiten gemacht hat. Ohnehin ist Vega nicht als reinrassiger Gaming-Chip designt worden. Vega als Architektur wird auch in den Ryzen APUs implementiert werden und evtl. bei den Konsolen noch eine Rolle spielen. Im Profi und Serverbereich wird Vega auch noch eine Chance bekommen. Nicht alles dreht sich nur ums Gaming. Ich bin mir jedenfalls ziemlich sicher, dass Vega für AMD kein finanzieller Flop werden wird.

Wenn dem so wäre, dann wäre das ziemlich dämlich, da es immer Jahre braucht, bis sich derartiges durchsetzt. Wenn es sich denn durchsetzt. Wie du schon sagst ist das Risiko verdammt hoch und nach aktuellem Stand kann AMD dabei eigentlich nur verlieren. Natürlich hat sich AMD die Martdurchdringung der LL-APIs besser vorgestellt. Aber das es nicht so kommt war schon mit Mantle absehbar. DX12 ist dank MS auch derart eingeschränkt, dass es für Entwickler keinen Sinn macht. Und Vulkan kommt einfach nicht aus den Startlöchern. Die einzige Hoffnung von AMD kann eigentlich nur Vulkan sein.

Im Moment ist der Markt bei LL-APIs noch sehr gespalten. Aber es ist noch alles offen. Es geht hier um eine Kosten/Nutzen Rechnung. Für den Entwickler bedeutet es mehr Aufwand/Kosten (gegenüber DX11) und dieser Aufwand muss in Relation zum Nutzen stehen. DX11 ist einfacher zu programmieren damit auch günstiger. Für kleinere Studios ist das ein Problem. Man muss die Fähigkeiten der Hardware auch sehr gut kennen um sie profitabel nutzen zu können. Selbst wenn Studios die Vorteile einer LL-API nutzen möchten steht ebenso auch der Kostenaspekt immer zur Debatte. DX12 bietet nicht die tief hängenden Früchte, die vorherige DX-Versionen boten. Um gegenüber DX11 einen optischen/leistungstechnischen Vorteil zu erreichen bedarf es einen nicht zu unterschätzenden Mehraufwand, womit wir wieder bei den Kosten wären. Vulkan bietet den Vorteil einer plattformübergreifenden API. Aus Kostensicht ist das für die Studios natürlich wesentlich interessanter da potenziell rentabler. Da Vega den Weg auch in die Ryzen APUs finden wird, könnte auch Vulkan davon profitieren. Und wenn Vulkan profitiert...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei Star Citizen erwägt man, DirectX-Support komplett zu streichen und nur noch auf die Vulcan API zu setzen. Die wird zumimdest im Moment von AMD besser unterstützt.
Wenn sich AMD also nicht beim VEGA Launch noch kurzfristig auf den Schniedel tritt und das Ding in den Sand setzt, dann wird in meinem nächsten PC wohl so eine VEGA verbaut werden. Vulcan und Freesync sind die beiden Punkte, die für mich dafür sprechen.
 
Sind wohl einige zu jung, aber sollte Vega wirklich nur 1080 Leistung bringen, mit einem größeren Chip + mehr Verbrauch, was ich immernoch stark anzweifle wäre das nix neues.
Das hat auch schon glorious Nvidia durchgemacht ;)

Dennoch viel Spass beim Nvidia feiern :popcorn:

Nvidia kann sich als Platzhirsch und mit dem riesen Bankkonto auch den ein oder anderen Faux Pas erlauben. AMD nicht. Die sind eh schon ordentlich unter Druck im GPU Bereich und das seit Jahren.
 
vielleicht haben die sich nur kein Ti leisten können... :haha: Die Marketing Abteilung wird immer lächerlicher... die sollen am besten Garnichts mehr vorführen und entweder kräftig auf die Schnauze fallen oder NV besiegen und triumphieren... aktuell sieht alles nach mega fail aus... 1080 Leistung ist ok... aber dann bitte deutlich effizienter als die Vega FE und natürlich auch billiger...
 
Das glaube ich auch - die preise richten sich an der Leistung der Konkurrenz, und dann spielt die Speichermenge und auch der Stromverbrauch bzw. die Abwärme eine Rolle.
Das man da G-Sync vs. Freesync Komponenten Preisvergleiche mit rein nimmt bzw. argumentiert, kann ich mir persönlich auch nicht vorstellen da nicht jeder diese Technik nutzt bzw. einen Mehrwert anerkennt.

Der wichtigere Aspekt ist doch dass die Nutzungsdauer von Monitoren doch erheblich über denen von Grafikkarten liegt. Das relativiert Preisunterschiede.
 
Der wichtigere Aspekt ist doch dass die Nutzungsdauer von Monitoren doch erheblich über denen von Grafikkarten liegt. Das relativiert Preisunterschiede.


Das Stelle ich in Frage. Bis vor wenigen Jahren war 1680x1050 DIE Auflösung im Monitor Bereich. Welcher Gamer hat jetzt noch einen Monitor mit der Auflösung? Kurz danach kam dann FullHD. War dann der neue Standard und fast Pflicht. Dazu noch Unterschiede wie VA Panel, IPS, TN, welche Art von Hintergrundbeleuchtung usw. HZ Zahl war Anfangs noch vollkommen egal, 60 HZ reichte jedem! Inzwischen sind wir dabei das es 1440P Auflösung gibt, 4k,8k.. Dazu das sich die neuen Techniken wie Gsync und Freesync komplett am Markt etabliert haben. Ich habe mir vor 3 Jahren einen FullHD Monitor ohne besonderen SchnickSchnack gekauft der ist stand Heute für mich als FPS Gamer hoffnungslos veraltet weil 144HZ in Spielen wie CS GO z.b. einen enormen Unterschied ausmachen. Meine R9 290x die ich ungefähr Zeitgleich gekauft habe ist jedoch im Vergleich noch Lange nicht so veraltet wie mein Monitor..
 
Ich habe mir vor 3 Jahren einen FullHD Monitor ohne besonderen SchnickSchnack gekauft der ist stand Heute für mich als FPS Gamer hoffnungslos veraltet ...
Ein 1080p 60Hz Monitor war aber auch vor 3 Jahren schon einfach nur Standard, aber kein Equipment für jemanden der besondere Gaming-Ambitionen hatte, denn damals waren die 1080p/144Hz TN-Panels genau dort wo man jetzt 1440p/144Hz findet (meist IPS)
Deine GPU ist nur deshalb weniger veraltet wie dein Monitor weil du bei der damals zum Top-Modell von AMD gegriffen hast und bei Monitor bei weitem nicht ;)

Ein aktueller 1440p/144Hz-Monitor wird dir einige Jahre gute Dienste leisten, denn 4K ist derzeit erst am groß werden (mit 60Hz) und 4K/144Hz wird noch lange, schon alleine aufgrund der vorhandenen Single-GPU Grafikkarten, in weiter Ferne bleiben.
Bei mir hält eine Grafikkarte im Schnitt 2 Jahre, Monitor eher 4-5 Jahre.
200€ Aufpreis auf sagen wir mal 4 Jahre, das kann man bei einer Entscheidung schon berücksichtigen, aber nagelt mich sicher nicht auf einen GPU-Hersteller fest.
 
Ein 1080p 60Hz Monitor war aber auch vor 3 Jahren schon einfach nur Standard, aber kein Equipment für jemanden der besondere Gaming-Ambitionen hatte, denn damals waren die 1080p/144Hz TN-Panels genau dort wo man jetzt 1440p/144Hz findet (meist IPS)
Deine GPU ist nur deshalb weniger veraltet wie dein Monitor weil du bei der damals zum Top-Modell von AMD gegriffen hast und bei Monitor bei weitem nicht ;)

Halb richtig. 144Hz waren vor 3 Jahren noch relativ neu und nur bedingt empfehlenswert. Tearing war teilweise schlimmer als bei 60Hz Monitoren. Der Preis fing bei 250 Euro an und zusätzlich war Gsync und Freesync schon angekündigt jedoch noch nicht verfügbar. Also ein undenkbar ungünstiger Zeitpunkt. Ja ein 144Hz Monitor wäre jetzt nicht so veraltet wie ein 60Hz Monitor, hätte jedoch aber auch mehr als das doppelte gekostet und man hätte trotzdem mit Tearing leben müssen obwohl ich soviel mehr Geld rausgehauen hätte. Die 290x hatte ich 2-3 Monate nach dem Monitor gekauft für 320 Euro. (Kurz danach teurer verkauft und nen Jahr später ne gebrauchte 290x gekauft...^^). D.h. ich hätte für den Monitor soviel Zahlen müssen wie für die Grafikkarte und der Punkt wäre der gleiche. Der Monitor wäre heute veralteter als die Grafikkarte. Ob es nun das Topmodel war oder nicht spielt da wenig Rolle, denn mich interessiert der Preis. Denn ja, wenn ich jetzt Monitore angucke, da kann man schonmal über 1000 Euro ausgeben je nachdem welche Größe und welche "Leistung" man haben möchte. Mir persönlich viel zuviel.
 
1. Wenn wir davon ausgehen, dass HBM2 zu Verzögerungen von 8-9 Monaten geführt hat, macht die Platzierung gegen die 1080 schon Sinn.

2. Vielleicht bewerten wir die Architekturveränderungen und deren Auswirkung auf die Spieleleistung auch in einen falschen Kontext. AMD hat nie behauptet, dass es durch die Optimierungen an der Hardware auch Leistung frei Haus geben wird.
...

3. Trotz allen bleibt vieles noch ungeklärt. Ich hoffe, dass beim Release von RX Vega alles geklärt wird und nicht auf einen Wundertreiber und auf dessen potenziellen Leistugszuwachs verwiesen wird...

1. das halte ich ehrlich gesagt für ein Gerücht... 4-Hi Stacks laufen doch schon in Serie vom Band. Nach der jüngsten Meldung von Samsung dort bspw. seit Q1/2016. Nicht erst seit heute ;) GP100 gibts seit fast einem Jahr, andere Abnehmer (abseits vom GPU Markt, Intel bspw.) nutzen ebenso diese Stacks. Eine Verzögerung von 8-9 Monaten impliziert, dass das Produkt hätte vor 8-9 Monaten fertig sein können. Was ich nach den aktuellen Infos schlicht und ergreifend beweifeln möchte. AMD würde, wenn sie hätten ein Produkt, was sauber funktioniert, nicht bis zur aller letzten Sekunde warten mit Infos. Denn dann würde alles nur an der Auslieferung der Speicherstacks hängen. Nur genau das sieht im Moment nicht so aus. Es sieht so aus, dass es sogar (abseits der ursprünglichen Gerüchte) selbst 8-Hi Stacks mittlerweile lieferbar gibt, die GPU aber weiterhin nicht für Gamer am Markt ist... Mit Lieferbarkeit von Speichern lässt sich das aus meiner Sicht nicht erklären. Eher, da ist entweder ein kapitaler Bug im Design (möglicherweise in Verbindung mit den Speichern, siehe Bandbreitentests der FE) oder aber, die sind einfach noch nicht fertig. In beiden Fällen aber wäre die HBM-Verfügbarkeit nicht das Problem.

2. Naja, wie soll man es denn sonst bewerten!? Es stehen ~1450MHz Boost (FE) * 4096 ALUs auf der Uhr. Macht ~11,9TFlop/sec. Eine 1080 erreicht bei runden 1800MHz gerade mal 9,2TFlop/sec. Selbst OC und dauerhaft 2GHz sind das gerade mal 10,2TFlop/sec. Es sind also fast 30% Unterschied bei der ALU Leistung. Zum Vergleich, bei der 1060er mit 1,8GHz und der 580er mit 1,4GHz sind es ~40% Unterschied und beide sind, im Schnitt mehr oder wengier gleich schnell.
Die Erwartungshaltung ist/war, dass man durch die neuen GCN Features den Abstand verringert und die GPUs ihre Rohleistung besser auf die Straße bringen. Denn egal wie man es dreht, AMD braucht bis dato deutlich mehr GPU-Rohpower um in Games die FPS zu erreichen. DX12/Vulcan machen das klar besser, aber dort sind wir in der Masse bei ein paar Händen voll Titel im Moment. Und, was eben dazu kommt, es stehen dann nicht 40% pro Polaris auf der Uhr. Sondern es sind dann keine Ahnung, 10% oder 20% oder sowas...

3. Davon kannst du dich aus meiner Sicht verabschieden... Die Fanbase wird den Wundertreiber propagieren. Und das geht durch die komplette Community wenn Vega nicht das liefert, was erwartet wird. Und genau danach sieht es im Moment aus. Kein Hersteller der Welt hält mit Infos derart hinterm Berg, wenn man den Dampfhammer bringen kann/wird. Das ist der aller letzte Strohhalm nach all den Gerüchten, an den man sich klammert. Nach Release bleiben dann nur noch Treiber und die Erwartung des baldigen flächendeckenden Einzugs von LowerLevel APIs. Die GPU wird weniger stark altern, die Konsolenports werden die GPU weiter vorran bringen usw. usf. All das, was man heute Tahiti/Hawaii schon nachsagt.
Die traurige Realität ist aber, es wird keine Wundertreiber geben. R600 bspw., 10+ Jahre alt, wartet heute noch drauf. Jeder Release, der derart geheimgehalten wurde, hat bis jetzt die Erwartungen nicht erfüllt. Sowohl bei AMD als auch bei NV wie auch Intel.
Es sieht für mich immernoch alles danach aus, dass AMD von Pascal überrumpelt wurde. Denn ein paar Monate vor Release von Pascal ging man von einem zeilichen Vorsprung pro AMD von min. einem halben Jahr aus.

Theoretisch hört sich das richtig an, aber wie hätte das praktisch geschehen sollen? Auf HBM2 in letzter Minute zu verzichten und einen Chip mit GDDR5(X) zu designen hätte Ressourcen benötigt, die bei AMD momentan Mangelware sind. Und in der kurzen Zeit dürfte das sowieso nur schwer möglich sein. Vielleicht wird Vega unter den High-End Gamingaspekt nicht ganz da landen wo man es gehofft hat, aber ich denke schon das man das Beste aus den Möglichkeiten gemacht hat. Ohnehin ist Vega nicht als reinrassiger Gaming-Chip designt worden. Vega als Architektur wird auch in den Ryzen APUs implementiert werden und evtl. bei den Konsolen noch eine Rolle spielen. Im Profi und Serverbereich wird Vega auch noch eine Chance bekommen. Nicht alles dreht sich nur ums Gaming. Ich bin mir jedenfalls ziemlich sicher, dass Vega für AMD kein finanzieller Flop werden wird.

Mit dem ersten Teil widersprichst du deinem Punkt 1. von oben. Entweder die sind fertig mit dem Teil und es hängt quasi nur am Speicher oder nicht... Dann liegts aber idR eben auch nicht am Speicher ;) Da man nicht released und noch dazu alles tut, um Infos zu verhindern, es aber länger schon Speicher gibt, liegts aus meiner Sicht nicht am Speicher, siehe oben.

Der Rest, würde ich so unterschreiben, bei Vega geht es für AMD erstmal um die Architektur. Um das zu bewerten müssen wir das Endprodukt in den Händen halten. Die FE macht in so manchem Szenario einen guten Eindruck, in so manch anderem aber einfach nicht. -> bei letzterem ist die Frage, was ist das Problem. Es gibt offenbar im Moment bei der FE Defizite bei der Bandbreite und beim Draw Stream Binning Rasterizer. Ob das gewollt oder ein Bug ist, lässt sich nicht genau beziffern. Beides ist warscheinlich und Bugs wären auch nicht das erste mal in Release-GPUs enthalten (R600 bspw., Fermi bei NV) Interessanterweise sind das idR auch die GPUs, welche mit Verzögerung auf den Markt kommen :wink:

Um den Kreis zu oben zu schließen, klar sind Gamer nicht ausschließlich Fokus, aber auch AMD möchte mit dem Ding Gamer ansprechen. Sie müssen sich also auch mit entsprechenden GPUs am Markt messen. Das Zwitter-Design, was es bei NV mit dem GK110 noch gab, gibts dort heute nicht mehr. Man könnte möglicherweise aus Vega vs. GP102/GP100 sogar noch rausinterpretieren, ob auf längere Sicht dedizierte GPUs oder Zwitter die bessere Lösung sind. (Endkundensicht)
 
Theoretisch hört sich das richtig an, aber wie hätte das praktisch geschehen sollen? Auf HBM2 in letzter Minute zu verzichten und einen Chip mit GDDR5(X) zu designen hätte Ressourcen benötigt, die bei AMD momentan Mangelware sind. Und in der kurzen Zeit dürfte das sowieso nur schwer möglich sein. Vielleicht wird Vega unter den High-End Gamingaspekt nicht ganz da landen wo man es gehofft hat, aber ich denke schon das man das Beste aus den Möglichkeiten gemacht hat. Ohnehin ist Vega nicht als reinrassiger Gaming-Chip designt worden. Vega als Architektur wird auch in den Ryzen APUs implementiert werden und evtl. bei den Konsolen noch eine Rolle spielen. Im Profi und Serverbereich wird Vega auch noch eine Chance bekommen. Nicht alles dreht sich nur ums Gaming. Ich bin mir jedenfalls ziemlich sicher, dass Vega für AMD kein finanzieller Flop werden wird.
Auf HBM hätte AMD nicht mehr verzichten können. Alles ist darauf ausgelegt und der Chip entsprechend designt. Die Karte wäre dann frühestens 2018 rausgekommen. Die Alternative wäre ein fetter Polaris mit 300W gewesen. Aber auch der wird nicht einfach so realisierbar sein.
Es wäre vielleicht nicht schlecht gewesen, wenn AMD Vega für 2018 geplant hätte (analog zu Volta) und eben stattdessen auch zwei fette Polaris in Q4/16 oder Q1/17 rausgebracht hätte bzw. zur 1080Ti. Einmal mit 3072 Shadern und einmal mit 4096 Shadern. Der Takt müsste natürlich teils reduziert werden ggü. der 480, die Bandbreite nochmals ordentlich erhöht. Wenn das vernünftig skalieren würde, hätte AMD eine schöne (wenn auch stromhungrige) Konkurrenz gehabt und könnte Vega ganz gemütlich angehen.
Dass Vega nicht so sehr auf Gaming ausgerichtet ist, dürfte daher auch dessen größtes Problem sein. AMD hat ja sonst nichts fürs Gaming. Und wenn Vega abgesehen von LL nichts reißt, dann sieht es verdammt düster aus.
Ich gehe auch nicht davon aus, dass wird HBM2 vor 2019 im Massenmarkt sehen werden. Denn auch wenn die Produktion von Samsung und Co erhöht wird, so steigt eben auch der Bedarf an, wenn Nvidia die Dinger verbaut. Und das tun sie ja bereits bei den professionellen Chips. Ich kenne da die Verkaufszahlen nicht, aber wenn die Karten einschlagen (gilt genauso für die AMDs Profikarten), dann wird für den Consumer erst mal wenig übrig bleiben.

Im Moment ist der Markt bei LL-APIs noch sehr gespalten. Aber es ist noch alles offen. Es geht hier um eine Kosten/Nutzen Rechnung. Für den Entwickler bedeutet es mehr Aufwand/Kosten (gegenüber DX11) und dieser Aufwand muss in Relation zum Nutzen stehen. DX11 ist einfacher zu programmieren damit auch günstiger. Für kleinere Studios ist das ein Problem. Man muss die Fähigkeiten der Hardware auch sehr gut kennen um sie profitabel nutzen zu können. Selbst wenn Studios die Vorteile einer LL-API nutzen möchten steht ebenso auch der Kostenaspekt immer zur Debatte. DX12 bietet nicht die tief hängenden Früchte, die vorherige DX-Versionen boten. Um gegenüber DX11 einen optischen/leistungstechnischen Vorteil zu erreichen bedarf es einen nicht zu unterschätzenden Mehraufwand, womit wir wieder bei den Kosten wären. Vulkan bietet den Vorteil einer plattformübergreifenden API. Aus Kostensicht ist das für die Studios natürlich wesentlich interessanter da potenziell rentabler. Da Vega den Weg auch in die Ryzen APUs finden wird, könnte auch Vulkan davon profitieren. Und wenn Vulkan profitiert...
Genau dieser Aufwand und auch die Verantwortung sind der entscheidende Punkt. Es lohnt sich aktuell bei 95% der Spiele einfach nicht DX12 zu implementieren, da man DX11 ohnehin auch implementieren muss, wenn man nicht 50% der potentiellen Kundschaft auf einen Schlag verlieren möchte. Und was bei DX12 schnell mal rauskommt wenn man nicht daran feilt, haben wir ja mehrfach gesehen. Die Plattformoffenheit von Vulkan sehe ich auch als unschlagbaren Vorteil für diese API, die damit DX12 obsolet macht. Aber bei Vulkan gibt es dieselben Probleme bei der Implementierung wie bei DX12. Das ist ein Teufelskreis, aus dem man so schnell nicht rauskommt.
Selbst wenn die großen Enginehersteller (Epic, Crytek, Unity, ...) Vulkan implementieren, wird das wohl nicht automatisch heißen, dass jedes Spiel davon profitiert. Auch nicht, dass jeder Entwickler es automatisch in neuen Spielen implementiert, da er OGL/DX11 ebenfalls implementieren muss, wenn er Intel-GPUs bis zu Broadwell unterstützen möchte. Betrifft natürlich mehr Indiehersteller.
Vulkan kann man eigentlich prima mit Mantle vergleichen, da die Abstammung dieselbe ist. Und beide kranken an demselben Problem: vieeeel zu wenig Verbreitung.

Bei Star Citizen erwägt man, DirectX-Support komplett zu streichen und nur noch auf die Vulcan API zu setzen. Die wird zumimdest im Moment von AMD besser unterstützt.
Wenn sich AMD also nicht beim VEGA Launch noch kurzfristig auf den Schniedel tritt und das Ding in den Sand setzt, dann wird in meinem nächsten PC wohl so eine VEGA verbaut werden. Vulcan und Freesync sind die beiden Punkte, die für mich dafür sprechen.
Sofern das v.a. DX12 betrifft, macht dieser Schritt extrem viel Sinn für SC. Trotzdem wäre es (stand heute) erst das zweite Spiel mit Vulkan. Vega wäre also allenfalls dann im Vorteil, wenn man nur dieses eine Spiel spielt.

- - - Updated - - -

Das Stelle ich in Frage. Bis vor wenigen Jahren war 1680x1050 DIE Auflösung im Monitor Bereich. Welcher Gamer hat jetzt noch einen Monitor mit der Auflösung? Kurz danach kam dann FullHD. War dann der neue Standard und fast Pflicht. Dazu noch Unterschiede wie VA Panel, IPS, TN, welche Art von Hintergrundbeleuchtung usw. HZ Zahl war Anfangs noch vollkommen egal, 60 HZ reichte jedem! Inzwischen sind wir dabei das es 1440P Auflösung gibt, 4k,8k.. Dazu das sich die neuen Techniken wie Gsync und Freesync komplett am Markt etabliert haben. Ich habe mir vor 3 Jahren einen FullHD Monitor ohne besonderen SchnickSchnack gekauft der ist stand Heute für mich als FPS Gamer hoffnungslos veraltet weil 144HZ in Spielen wie CS GO z.b. einen enormen Unterschied ausmachen. Meine R9 290x die ich ungefähr Zeitgleich gekauft habe ist jedoch im Vergleich noch Lange nicht so veraltet wie mein Monitor..
1680x1050 war vor 10 Jahren aktuell, heute ist es 1920x1080. Wenn man natürlich jeden Scheiß mitmacht (am besten noch die Reduzierung der Reaktionszeit um 1ms), dann muss man sich min. 1x im Jahr einen neuen Monitor kaufen. Das sind dann aber auch nur die Leute, die erst seit 3 Jahren zocken, denn davor war das für die unmöglich, wenn sie mit einem 3 Jahre alten Monitor nicht mehr zurecht kommen...
 
1680x1050 war vor 10 Jahren aktuell, heute ist es 1920x1080. Wenn man natürlich jeden Scheiß mitmacht (am besten noch die Reduzierung der Reaktionszeit um 1ms), dann muss man sich min. 1x im Jahr einen neuen Monitor kaufen. Das sind dann aber auch nur die Leute, die erst seit 3 Jahren zocken, denn davor war das für die unmöglich, wenn sie mit einem 3 Jahre alten Monitor nicht mehr zurecht kommen...

Man muss nicht übertreiben. Aber sowas wie Hz Zahl, Freesync/Gsync und Auflösung wie auch Panel sind eben wichtige Entscheidungsmerkmale. Und diese hängen eben auch gekoppelt an den Grafikkarten. Wer vor x-Jahren eine gute Grafikkarte gekauft hat kann diese locker behalten an einem FullHD 60Hz Monitor. Denn wie gesagt - selbst eine inzwischen fast 4 Jahre alte r9 290x ist gut genug für FullHD. Erst recht wenn dieser FullHD Monitor nur 60 Hz hat. Und die große Mehrheit an Gamern hat eben nur FullHD und eben nur 60Hz. Und vor 4 Jahren war FullHD und 60Hz erst recht noch Standard. Selbst wenn ich jetzt auf einen FullHD Monitor mit FreeSync und 144Hz umsteigen würde, könnte ich meine Grafikkarte behalten. Dementsprechend hätte meine Grafikkarte meinen Monitor überdauert. Diese Schwachsinns-Verallgemeinerung "Monitore überleben Grafikkarten" stimmt eben nur unter bedingen Voraussetzungen. Wenn ich jetzt (oder sobald einer wirklich damit rauskommt) 4k Monitor mit FreeSync/Gsync kaufe und 144Hz wäre eine neue Grafikkarte erforderlich. Und da könnte es sein das ich dann alle 1-2 Jahre eine neue Grafikkarte kaufen müsste um die neuen Spiele auf der Auflösung anständig spielen zukönnen. Aber für die breite Masse ist das eben schlicht und ergreifend nicht der Fall. Da sind Monitor und Grafikkarte oft eine Sache die eine ähnliche "Haltbarkeit" haben. Speziell in meinem Fall ist es z.B. so rum das bei mir Grafikkarten sogar teilweise länger halten.
 
@fdsonne

Das HBM2 bei Samsung schon seit Q1/2016 vom Band läuft ist auch korrekt. Dennoch bedeutet das nicht zwangläufig auch, das man bei AMD mit den dort angebotenen Konditionen der Fertigung zufrieden sein muss. Sowohl Kosten als auch Verfügbarkeit von HBM2 könnten nicht in AMDs Planung gepasst haben. Intel setzt HBM2 in einer ganz anderen Sparte ein, die weit weniger fordernd bei der absoluten Produktionsmenge als auch bei den Produktkosten deutlich höher angesiedelt ist. Man kann es also nicht 1:1 mit AMDs Anforderungen an HBM2 vergleichen. Auch denke ich, dass man bevorzugt von SK-Hynix HBM2 beziehen wollte, da man zusammen die Entwicklung vorangetrieben hat. Was da aber nun im Detail genau vorgegangen ist wird uns wohl nur AMD erklären können. Das sich damit nun alles erklären lässt glaube ich auch nicht, aber definitiv war/ist HBM2 ein Problemfaktor.

@Hardwareaner

2018 soll es einen Vega-Refresh in 14nm+ geben. Das Ganze ist auch ein Ressourcenproblem. Einen fetten Polaris-Chip parallel zu Vega zu basteln ist wohl nicht drin. Ein solcher Chip würde auch nur den Gamer nützen und wäre mittelfristig eine Sackgasse, der Aufwand zum Ertrag auch eher (zu) hoch. Da halte ich es für wesentlich klüger einen solchen Chip gar nicht erst anzugehen und direkt die begrenzten Mittel in ein zukunftssichereress und breitflächigeres Produkt wie Vega zu investieren. Wie bereits geschrieben, wird Vega als Architektur in vielen unterschiedlichen Märkten eingesetzt werden. Aus AMDs Sicht ist es eine deutlich vielversprechendere Einnahmequelle und das über längere Zeit hinweg.
 
Zuletzt bearbeitet:
Jo. Enttäuscht auf ganzer Linie, die noch nicht releasde Karte.
 
Man muss nicht übertreiben. Aber sowas wie Hz Zahl, Freesync/Gsync und Auflösung wie auch Panel sind eben wichtige Entscheidungsmerkmale.
Es sind genauso Enscheidungsmerkmale wie früher auch. Es gab schon immer solche Dinge. vor 20 Jahren war das z.B. bei CRTs 60(?)Hz vs 100(?)Hz, später CRT oder TFT, bei TFTs dann ob auch nur ein analoger Anschluss reicht. Später hat dann vielleicht HDCP eine Rolle gespielt. Vieles spielt heute keine Rolle mehr, dafür eben neue Dinge. Aber auch damals hat man eben auch nicht jedes Jahr einen neuen Monitor gekauft, nur weil die Reaktionszeit besser war oder es irgendwas neues gab.

Selbst wenn ich jetzt auf einen FullHD Monitor mit FreeSync und 144Hz umsteigen würde, könnte ich meine Grafikkarte behalten. Dementsprechend hätte meine Grafikkarte meinen Monitor überdauert. Diese Schwachsinns-Verallgemeinerung "Monitore überleben Grafikkarten" stimmt eben nur unter bedingen Voraussetzungen. Wenn ich jetzt (oder sobald einer wirklich damit rauskommt) 4k Monitor mit FreeSync/Gsync kaufe und 144Hz wäre eine neue Grafikkarte erforderlich.
Dann würdest du aber jeden schwachsinnigen Hype sofort mitmachen anstatt dich zu gedulden, anstatt . Denn deinen 4k Free/GSync 144Hz Monitor wirst du nicht zum günstigen Preis bekommen, der dir lt. deinen vorherigen Beiträgen wichtig ist. Demnach kaufst du wegen jedem Feature gleich einen neuen Monitor. Und wenn du dann deinen superdupertollen 4k Sync 144HZ Monitor hast, wirst du in nach einem Jahr wieder entsorgen, weil dann wieder HDR fehlt. Dann ist nach einem Jahr wiederum 4k nur noch Pixelbrei und das Hamsterrad dreht sich ewig weiter.
Du kannst das gerne so machen, mir ist das egal, nur solltest du damit nicht auch nur Ansatzweise auf die Allgemeinheit schließen, sondern dich als absolut krassen Einzelfall betrachten. Die Verallgemeinerung "Monitore überleben Grafikkarten" trifft daher voll zu. Wenn es um vereinzelte Ausreißer geht, dürfe man sonst niemals eine Verallgemeinerung machen, denn es wird sie immer geben. Allgemein kann man sagen, dass ein Monitor im Normalfall min. 5 Jahre hält, sofern man nicbilligsten Schrott gekauft hat.

Am Ende ist das alles ein totales Luxusproblem, denn früherTM konnte man auch mit 60Hz, <= Full HD und ohne Free/GSync zocken. Genauso wie man früher auch mit einem Auto mit 50PS und ohne motorisiertem Kofferraumdeckel problemlos fahren konnte. Das geht übrigens auch heute noch, auch wenn das für mach einen unmöglich erscheinen mag.

- - - Updated - - -

2018 soll es einen Vega-Refresh in 14nm+ geben. Das Ganze ist auch ein Ressourcenproblem. Einen fetten Polaris-Chip parallel zu Vega zu basteln ist wohl nicht drin. Ein solcher Chip würde auch nur den Gamer nützen und wäre mittelfristig eine Sackgasse, der Aufwand zum Ertrag auch eher (zu) hoch. Da halte ich es für wesentlich klüger einen solchen Chip gar nicht erst anzugehen und direkt die begrenzten Mittel in ein zukunftssichereress und breitflächigeres Produkt wie Vega zu investieren. Wie bereits geschrieben, wird Vega als Architektur in vielen unterschiedlichen Märkten eingesetzt werden. Aus AMDs Sicht ist es eine deutlich vielversprechendere Einnahmequelle und das über längere Zeit hinweg.
So gesehen ist Polaris generell eine Sackgasse. Die Grundarchitektur ist ja eh vorhanden, es ginge ja "nur" um eine höhere Ausbaustufe. AMD bedient seit einem Jahr nur bis zur Mittelklasse, davor war man in der Oberklasse auch ein Jahr lang klar unterlegen. Positiv wirkt sich das auf AMDs Ruf nicht aus, weshalb ich es als sinnvoll erachte hier zu reagieren.
Wie zukunftssicher Vega ist wird sich zeigen. Momentan deutet vieles darauf hin, dass AMD in Zukunft vieles verbessern muss um halbwegs konkurrenzfähig zu bleiben. Ein solider Grundstein alleine ist eben noch nicht das gesamte Produkt.
 
@Cippoli
klar keine Frage, HBM wird seinen Anteil gehabt haben, aber ich sehe da keine 8-9 Monate Verzug durch HBM...
Ehrlich gesagt stehe ich dem "Suchen" des Fehlers irgendwie nicht so richtig positiv gegenüber. Es lässt sich so oder so nur wild spekulieren. Es gibt keinerlei Anhaltspunkte über die echten Hintergründe... Offensichtlich ist aber eins, AMD KANN bis dato nicht liefern. Und sie könnten ziemlich sicher auch nicht liefern, wenn es HBM deutlich früber in Stückzahlen hätte gegeben.

Man stelle sich nur mal die Frage, warum bewirbt AMD explizit die FE mit einem Game Mode, der quasi fast gar nix bringt/macht!? Was soll das Hinweisen auf diesen? Wenn man dann im nächsten Atemzug ein quasi Verbot ausspricht, mit der FE Game-Benches zu propagieren!? Ist doch völliger Unsinn... Die sind einfach nicht fertig. Möglicherweise ist der Treiber einfach schlecht oder es gibt Bugs oder weis der Teufel was. Aber HBM wird es nicht (mehr) sein, sonst hätten wir mit der FE einfach die Gamebenches gesehen und AMD hätte uns Wartenden einfach die Sahnestücke präsentiert. So wie man es mit Ryzen wie auch Threadripper gemacht hat (Cinebench, Blender) und selbst bei Epic ist/war dies der Fall mit ihren Vorab-Benches, die gewissermaßen einfach Bock auf das Produkt machen. Der Bock auf Vega dürfte für viele potentielle HighEnd Käufer einfach langsam verfliegen und AMD ist nicht gewillt diesen Umstand irgendwie zu ändern. KEINE! der Releases mit Verzögerungen und Geheimhaltetaktiken dieser Art, wo man einen Konter ggü. der verfügbaren Konkurenz erwartete, ging bis dato auf. AMD wäre der erste, der sowas schafft... Den Dampfhammer in der Tasche und sich von der Community quasi "Tod"sagen lassen im GPU-Bereich und dann, das Blatt komplett umdrehen. -> aus meiner Sicht völlig unrealistische Anahme ;)

Vega muss bei ~1450MHz einer Lukü Version im Vollausbau ca. 1080TI Gameperformance +-x erreichen. Der Rest ist enttäuschend. 20-40% mehr Rohleistung der ALUs ggü. der Konkurenz um ähnliche Spieleperformance auszuspucken konnten Fiji, Hawaii und Polaris schon, und die hätte man einfach nur nach oben ausfahren müssen.
 
Aber welchen Sinn hat dann die ganze Geheimniskrämerei? Welchen Sinn macht es RX Vega bei dieser Demo in Budapest gegen eine 1080 antreten zu lassen, wenn die tatsächliche Leistung höher liegt? Erhofft man sich wirklich so viel von einen (positiven) Überraschungseffekt? Würde es nicht viel mehr Aufsehen erregen RX Vega gegen eine 1080 Ti antreten zu lassen?
Welcher Sinn dahinter steckt, kann ich dir nicht sagen. Aber Geheimniskrämerei ist doch bei AMD nix neues. Denkbar wäre natürlich auch, dass der Treiber einfach noch nicht fertig ist für Vega und man zeigt das, was aktuell geht. Für einen fertigen Treiber zum Launch wird's dann aber auch ziemlich eng. Fakt ist jedenfalls, und das hat Koduri ja auch mehrfach erwähnt in den letzten Monaten, dass momentan rund um die Uhr an der Treiberimplementierung gearbeitet wird.


Nvidia kann sich als Platzhirsch und mit dem riesen Bankkonto auch den ein oder anderen Faux Pas erlauben.
Platzhirsch? LOL. Nvidia ist auch nur ein kleiner Fisch unter grossen in der Tech Branche. Aber mach dir ruhig weiter was vor von deiner heissgeliebten Lieblingsfirma. :rolleyes:
 
Welcher Sinn dahinter steckt, kann ich dir nicht sagen. Aber Geheimniskrämerei ist doch bei AMD nix neues. Denkbar wäre natürlich auch, dass der Treiber einfach noch nicht fertig ist für Vega und man zeigt das, was aktuell geht. Für einen fertigen Treiber zum Launch wird's dann aber auch ziemlich eng. Fakt ist jedenfalls, und das hat Koduri ja auch mehrfach erwähnt in den letzten Monaten, dass momentan rund um die Uhr an der Treiberimplementierung gearbeitet wird.



Platzhirsch? LOL. Nvidia ist auch nur ein kleiner Fisch unter grossen in der Tech Branche. Aber mach dir ruhig weiter was vor von deiner heissgeliebten Lieblingsfirma. :rolleyes:

Im dedizidierten GPU Markt um den es hier geht ist Nvidia Platzhirsch ob es Dir gefällt oder nicht. Das gilt fürs Gaming wie auch für den professional Bereich. Sie sind die Firma auf die Gamer schauen und die eine starke Brand haben. Insofern kann sich Nvidia eben auch mal den ein oder anderen Faux Pas leisten. AMD eben nicht. Sie hecheln überhall hinterher und liefern insbesondere im dedizidierten GPU Markt seit geraumer Zeit "mee too" Produkte. Von den gnadenlos unterlegenen Finanzzahlen mal absehen und auch die tragen zum Image bei.
 
Zuletzt bearbeitet:
Dann würdest du aber jeden schwachsinnigen Hype sofort mitmachen anstatt dich zu gedulden, anstatt . Denn deinen 4k Free/GSync 144Hz Monitor wirst du nicht zum günstigen Preis bekommen, der dir lt. deinen vorherigen Beiträgen wichtig ist. Demnach kaufst du wegen jedem Feature gleich einen neuen Monitor. Und wenn du dann deinen superdupertollen 4k Sync 144HZ Monitor hast, wirst du in nach einem Jahr wieder entsorgen, weil dann wieder HDR fehlt. Dann ist nach einem Jahr wiederum 4k nur noch Pixelbrei und das Hamsterrad dreht sich ewig weiter.
Du kannst das gerne so machen, mir ist das egal, nur solltest du damit nicht auch nur Ansatzweise auf die Allgemeinheit schließen, sondern dich als absolut krassen Einzelfall betrachten. Die Verallgemeinerung "Monitore überleben Grafikkarten" trifft daher voll zu. Wenn es um vereinzelte Ausreißer geht, dürfe man sonst niemals eine Verallgemeinerung machen, denn es wird sie immer geben. Allgemein kann man sagen, dass ein Monitor im Normalfall min. 5 Jahre hält, sofern man nicbilligsten Schrott gekauft hat.

Am Ende ist das alles ein totales Luxusproblem, denn früherTM konnte man auch mit 60Hz, <= Full HD und ohne Free/GSync zocken. Genauso wie man früher auch mit einem Auto mit 50PS und ohne motorisiertem Kofferraumdeckel problemlos fahren konnte. Das geht übrigens auch heute noch, auch wenn das für mach einen unmöglich erscheinen mag.


Alles ist am Ende des Tages ein Luxusproblem am PC. Hast du das noch nicht verstanden?

KANN man mit 60Hz zocken? Klar. Ich kann auch ohne SSD leben - aber wieso sollte man das? Deine ganzes Luxusproblem Aussage ist doch ein Haufen mist wenn du dann mit dem Argument kommst man braucht früher eine neue Grafikkarte. Denn das BRAUCHT man nicht. Du kannst die Details ganz runterschrauben, auf niedrigste Auflösung stellen und selbst dann mit 5 FPS zocken. Es ist vollkommen möglich mit einer integrierten Grafikkarte. Du KANNST es spielen, alles andere wäre Luxus..... Also bitte bevor du sowas von dir lässt, denk doch bitte einmal ganz kurz nach....

Und ja das mit dem 4k Monitor war ein Extrembeispiel von mir was ich auch in den nächsten 5 Jahren nicht vorhabe. Aber der Sprung von 60Hz zu 144Hz mit Freesync und Gsync ist eben ein großer für Spiele wie CS:GO, ganz einfach. KANN ich drauf verzichten? Klar. Ich kann auch ganz aufs PC spielen verzichten, aber das ist nicht Sinn der Diskussion... Aber ich merk schon, du widersprichst dir selbst so stark ohne es zubemerken das eine Diskussion sinnlos ist.
 
Alles ist am Ende des Tages ein Luxusproblem am PC. Hast du das noch nicht verstanden?
Man kann sich aber auch ein Luxusproblem innerhalb eines Luxusproblems schaffen... ;)

KANN man mit 60Hz zocken? Klar. Ich kann auch ohne SSD leben - aber wieso sollte man das?
Kaufst du dir etwa jedes Jahr eine neue SSD weil die dann wieder etwas schneller ist, mehr IOPS hat, günstiger ist und mehr Kapazität hat? Wenn ja, dann stellst du auch hier wieder eine extreme Minderheit dar, denn die Meisten holen sich eine SSD und behalten sie über Jahre hinweg oder tauschen sie aus, weil sie für die alte einen anderen Verwendungszweck haben.

Deine ganzes Luxusproblem Aussage ist doch ein Haufen mist wenn du dann mit dem Argument kommst man braucht früher eine neue Grafikkarte. Denn das BRAUCHT man nicht.
Verstehe, mit deinen (4k) @144Hz zockst du also noch ewig mit deiner 290X...
Ich glaube du hast nicht verstanden wie deine technischen Anforderungen an Monitore mit der GPU-Leistung zusammenhängen...

Also bitte bevor du sowas von dir lässt, denk doch bitte einmal ganz kurz nach....
Ja, das würde ich dir auch ans Herz legen.

Und ja das mit dem 4k Monitor war ein Extrembeispiel von mir was ich auch in den nächsten 5 Jahren nicht vorhabe. Aber der Sprung von 60Hz zu 144Hz mit Freesync und Gsync ist eben ein großer für Spiele wie CS:GO, ganz einfach. KANN ich drauf verzichten? Klar. Ich kann auch ganz aufs PC spielen verzichten, aber das ist nicht Sinn der Diskussion... Aber ich merk schon, du widersprichst dir selbst so stark ohne es zubemerken das eine Diskussion sinnlos ist.
Du hast prima aufgezeigt, dass du andauernd etwas Neues brauchst. Ob das nun aktuell 144Hz oder 4k sind ist egal. Es ist immer nur ein Feature welches dich zum Neukauf bewegt anstatt abzuwarten bis es sich mal richtig lohnt (z.B 27"+ 1440p @144Hz mit IPS, ausgehend von 24" FullHD älterer Bauart).
 
Im dedizidierten GPU Markt ...
Gähn ... Nvidia hat ja nicht mal 'ne richtige CPU, um ihre dGPUs vernünftig betreiben zu können. Ach Jungchen, richtige Platzhirsche sind von niemandem so abhängig wie das Nvidia schon immer war. Und richtige Platzhirsche können auch mal mit innovativen oder zumindest führenden Technologien punkten, siehe Intel mit Core 2 oder Apple mit Cyclone. Was liefert denn Nvidia im Moment? DX11 Altmetall mit Nvidia typischem Blendwerk. Da ist AMD mit Vega mindestens ein bis zwei Generationen weiter. Aber rede dir ruhig mehr ein. LOL ...
 
Alles ist am Ende des Tages ein Luxusproblem am PC. Hast du das noch nicht verstanden?

KANN man mit 60Hz zocken? Klar. Ich kann auch ohne SSD leben - aber wieso sollte man das? Deine ganzes Luxusproblem Aussage ist doch ein Haufen mist wenn du dann mit dem Argument kommst man braucht früher eine neue Grafikkarte. Denn das BRAUCHT man nicht. Du kannst die Details ganz runterschrauben, auf niedrigste Auflösung stellen und selbst dann mit 5 FPS zocken. Es ist vollkommen möglich mit einer integrierten Grafikkarte. Du KANNST es spielen, alles andere wäre Luxus..... Also bitte bevor du sowas von dir lässt, denk doch bitte einmal ganz kurz nach....

Und ja das mit dem 4k Monitor war ein Extrembeispiel von mir was ich auch in den nächsten 5 Jahren nicht vorhabe. Aber der Sprung von 60Hz zu 144Hz mit Freesync und Gsync ist eben ein großer für Spiele wie CS:GO, ganz einfach. KANN ich drauf verzichten? Klar. Ich kann auch ganz aufs PC spielen verzichten, aber das ist nicht Sinn der Diskussion... Aber ich merk schon, du widersprichst dir selbst so stark ohne es zubemerken das eine Diskussion sinnlos ist.

Wahr.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh