AMD präsentiert die Radeon RX 480 mit 500-US-Dollar-Leistung zum 199-US-Dollar-Preis

Status
Für weitere Antworten geschlossen.
Und? Lebensmittel sind allgemein teurer geworden, damals waren viele der Preisschilde identisch zur DM, nur dass das € Zeichen dahinter stand und auf einmal rutschte man von Mittelstand in den Abgrund. Wie gesagt, von Marktwirtschaft verstehe ich nichts, nicht mein Fachgebiet, aber die Auswirkungen dazu (Inflationsrate, dass es sogar günstiger statt teurer geworden sein soll und es niedriger ausfällt als zur DM-Zeiten) kann ich nirgendwo sehen.

Einzig die Preise der technischen Geräte haben sich kaum verändert und blieben günstig, zumindest in den Bereichen, welche mich interessierten, GPUs mal ausgenommen. Aber wir werden zu sehr OT

PS: Kippe 10€/Schachtel? Zum Glück bin ich weder Raucher noch Trinker.... (nicht abwertend gemeint)

@Razor,

ich weiß leider nicht, was dein Beitrag mit meinem zu tun haben sollte.

@Topic,

werde das Ganze entspannt beobachten, alle Grafikkarten sind verkauft, im Sommer wird sich mehr bewegt als in der Stube zu hocken und im Winter kann ich wieder reinschauen, was es Neues gibt und wie bis dahin die Erkenntnisse mit DX12 ausfallen und dnan sind auch erst mal die Konsolenspiele dran, 2017 wandert dann wieder eine GPU ins System wenn vermutlich 1080Ti und Vega draußen sind.

Und wenn man betrachtet, dass die AMD 480 8GB 250€ kosten könnte, welche deutlich langsamer als die GTX 1070 8GB ist (379$), steht die AMD nicht mehr in gutem Licht, wo schon die GTX 1070 in den Augen Vieler zu teuer ist. Außerdem ist eine TDP von 150W alles andere als grandios, wenn sie langsamer als die GTX 1070 ist, das mal nebenbei gesagt, und das obwohl sie eine kleinere Strukturbreite als Nvidia haben (14nm <-> 16nm). Folglich scheint AMD erneut im Bereich Effizienz das Nachspiel zu haben.

sorry hab mich verlesen, dachte weil AMD nix neues bringt, du meintest aber nur die Software ^^

mein Fehler!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

ah jo.. async compute sorgt für tolle doom performance :fresse:

den grünen können doch angeblich kein async compute,
performen in dem titel aber trotzdem mindestens genau so gut wie die roten.

d9i2a7exirahxttku.jpg
d9i2c9kmeaj3zorge.jpg

Doom те�т GPU (обновлён) | Action / FPS / TPS | Те�т GPU
http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Benchmark-Test-1195242/

nen gameworks titel ists auch nicht..na das soll mal jemand erklären :confused:
 
Zuletzt bearbeitet:
Konsole -> async an

PC -> async aus

Das nur mal so als Tip!
 
na das ergibt auch voll viel sinn dieses wundermittel dann am pc einfach weg zu lassen :fresse:
 
mit der Kugel denken und schon wüsstest du die Antwort

da Nvidia es nicht kann wirds abgeschaltet, da NV derzeit mehr Marktanteile hat, sollte sich das ändern....
 
ah genau, das ist halt immer so die ultimative problemlösung.

also wenn ich software entwickler dafür bezahlen würde features nicht zu nutzen welche die eigene hardware schlechter aussehen ließen,
dann würde ich auch gleich noch nen paar scheine mehr bezahlen und die dinger der konkurenz nur die hälfte an fps produzieren lassen.

passiert hier aber nicht, echt seltsam.
 
Bei Dota 2 gibt es auch ein feature, was vulkan_async_descriptors heißt und das ist standardmäßig auf 0. (Was nicht bedeutet, dass ich wüsste, was es tut ;)) Auch bei AotS wollte Nvidia, dass es zum Benchen mindestens deaktiviert wird.
 
joa vulkan gibts seit ein paar tagen in dota.

sorgt aber reichlich seltsame resultate.

vulkan hat prinzipiell die aufgabe die fps im cpu limit zu erhöhen,
genau das klappt nun aber (zumindestens in diesem spiel) nicht unbedingt so gut.

d9i46vdxtsvyifqwu.gif


d9i46oajrakk5j0u6.gif

Vulkan-Benchmarks von Dota 2 - ComputerBase
 
Zuletzt bearbeitet:
Naja, wenn ich alles auf Low stelle, bekomme ich immerhin über 330fps mit Vulkan. Bei 144Hz ist der meistbelastetste Kern maximal 50% voll. Also wenn man tatsächlich die Grafik richtig heftig runterstellt bringt es auch was.
Das es anscheinend nicht einfach für die Spieleentwickler ist, auf die Grafikkarten- Api direkt zuzugreifen und sie deshalb viele Möglichkeiten noch ungenutzt lassen, ist wohl auch kein wirkliches Geheimnis... Sonst müsste Vulkan eigentlich vor OpenGL sein.
 
Vulkan ist aber vom Stand her eher so pre-Alpha oder nicht ?!
 
ah genau, das ist halt immer so die ultimative problemlösung.

also wenn ich software entwickler dafür bezahlen würde features nicht zu nutzen welche die eigene hardware schlechter aussehen ließen,
dann würde ich auch gleich noch nen paar scheine mehr bezahlen und die dinger der konkurenz nur die hälfte an fps produzieren lassen.

passiert hier aber nicht, echt seltsam.

Der Vergleich ist Bullshit. Razorlight hatte es doch schon erklärt. Nvidia hat 70-80% Marktanteil.
Die Schlussfolgerung daraus: es lohnt sich nicht für den geringen Anteil an AMD Karten sich nicht extra eine Technologie zu nutzen welche ja mit einem gewissen Aufwand im Spiel umgesetzt werden muss.
Ergo Nvidia bekommt (bei Maxwell) keine Zusatzperformance weil es gar nicht geht und AMD nicht weil es fast keiner umsetzt.

Würde Nvidia Async unterstützen, und das scheint ab Pascal wohl in gewisser maßen der Fall zu sein ist der Zielmarkt der Entwickler bei den Spielen mit Async 100% bei neuen Grafikkarten und nicht nur die 20-30% von AMD. Ergo es lohnt sich für die Spieleentwickler udn es ist ne Win-Win Situtation. Entwickler können mehr Performance raus holen über die sich die Spieler dann freuen können.

Und für Nvidia und AMD lohnt sich das weil sie so eher die älteren Generationen los werden und durch neue Verkäufe von DirectX 12 Karten beim Kunden ersetzen können
 
Zuletzt bearbeitet:
Naja, wenn ich alles auf Low stelle, bekomme ich immerhin über 330fps mit Vulkan. Bei 144Hz ist der meistbelastetste Kern maximal 50% voll. Also wenn man tatsächlich die Grafik richtig heftig runterstellt bringt es auch was.
Das es anscheinend nicht einfach für die Spieleentwickler ist, auf die Grafikkarten- Api direkt zuzugreifen und sie deshalb viele Möglichkeiten noch ungenutzt lassen, ist wohl auch kein wirkliches Geheimnis... Sonst müsste Vulkan eigentlich vor OpenGL sein.
Ein Hauptgrund ist auch dass dies weiterhin nur nachträgliche Anpassungen sind.. Das Game wurde nicht von Anfang an auf diese API ausgelegt.
Hinzu kommt wohl noch die Erfahrung der Entwickler. Es heisst über die jahre hat man auch bei DX11 viele Optimierungen und best-Practices die man fast als "hacks" bezeichnen könnte, gefunden. Bei den neuen APIs muss man erstmal mit dem auskommen was die hersteller ihnen verraten.
 
Die Schlussfolgerung daraus: es lohnt sich nicht für den geringen Anteil an AMD Karten sich nicht extra eine Technologie zu nutzen welche ja mit einem gewissen Aufwand im Spiel umgesetzt werden muss.

async compute wird doch aber in der konsolen version genutzt
und die dinger verwenden nichts anderes als amd x86 hardware, den aufwand hat man also schon betrieben und auch umgesetzt.

kann man eigentlich irgendwo nachlesen das die pc version async compute nicht verwendet?

wenn ich das hier richtig intepretieren ist open gl prinzipiell jedenfalls dazu in der lage von async compute zu profitieren
https://www.opengl.org/registry/specs/ARB/compute_shader.txt
 
Zuletzt bearbeitet:
Direkt-kühlung der vrms..das ist ein guter Punkt.
 
Der Vergleich ist Bullshit. Razorlight hatte es doch schon erklärt. Nvidia hat 70-80% Marktanteil.
Die Schlussfolgerung daraus: es lohnt sich nicht für den geringen Anteil an AMD Karten sich nicht extra eine Technologie zu nutzen welche ja mit einem gewissen Aufwand im Spiel umgesetzt werden muss.
Ergo Nvidia bekommt (bei Maxwell) keine Zusatzperformance weil es gar nicht geht und AMD nicht weil es fast keiner umsetzt.

Hier mal 2 wichtige Punkte:

Ohne Async Shaders/Computing könnten Konsolen viele aktuelle Titel nichtmal mit 30fps/lowres darstellen. Es gab dazu mal einige Zitate von DICE/BF4 Entwicklern.
AMDs plan ist es, es Entwicklern leichter zu machen. Wenn man einen Titel entwickelt (und das geschieht IMMER auf dem PC), soll man diesen nicht zuerst für Konsolen optimieren, ausliefern und dann für PCs was zusammenmurksen, sondern es soll beides in einem Wisch möglich sein. Aktuell gibt es noch komplett verschiedene Renderpfade (PS4 [openGL Vulkan-like], PC [DirectX]), wodurch hin und her optimiert werden muss. Mit Vulkan auf PCs ist es möglich, ein fertiges Spiel mit minimalesten Anpassungen (Environment-based, PSN Store; Windows Store; etc.) auszuliefern. So kommen wir in den Genuss von z.B. 4K Texturen und deutlich besserer Leistung und Konsolenspieler bekommen weiterhin ein "spielbares" Package.

Und Punkt 2: AMD gehört der Markt ;)
Schwer zu glauben, ja? Wie in Punkt 1 ersichtlich, wird mit Sicherheit auf mehreren Platformen zeitgleich released. D.h. für 50 Millionen Konsolen und dann für 10 Millionen PCs mit spieletauglichen dGPUs.

83.6% spielen auf Konsolen
16.4% spielen auf PCs mit "tauglichen GPUs".

Steam Hardware & Software Survey

von diesen 16.4% tauglichen Gaming PCs hat Nvidia (lt. Steam) einen Anteil von 56.6%. D.h. im Umkehrschluss, dass selbst 43.4% aller Gaming PCs entweder mit einer Intel iGPU o. AMD dGPU befeuert werden.

Reduziert man den Gaming Markt jetzt auf GCN-fähige GPU Lösungen, kommt man auf folgendes:
Total = 50 Millionen Konsolen + (25.5% von 10 Millionen Gaming PCs mit AMD dGPU =) 2.55 Millionen =
52.55 Millionen von 60 Millionen "Gaming Lösungen" basieren auf AMDs GCN Architektur.

Die GCN Architektur ist state-of-the-art, kein Nieschenprodukt. Und sie wird mit Vulkan durchbrechen, egal wie viele schlampigen Wrapper man die nächsten Wochen noch zu sehen bekommt. Sobald Entwickler (siehe Vorposts!) erkennen wie viel Leistung man gewinnt bzw. wie viel Zeit man sparen kann, wird es in die in Punkt 1 beschrieben Richtung gehn. Zwangsweise.

AdoredTV hat das auf YT als "AMDs Masterplan" in 2 Video Teilen schön zusammengefasst. Einfach suchen wenn man sich für sowas interessiert :)

mfg,
Markus
 
Zuletzt bearbeitet:

Das Teil hat was von Steampunk! :drool:

EDIT: Da dies schon die zweite Polaris mit Wakü ist, die gezeigt wird, lässt mich das aber glauben dass der Chip noch irgend ein Geheimnis birgt (ordentlich OC Potential, eventuell soagr schon als Custom ab werk?). ich meine wieso sollte man das grade mit diesem offiziellen Mittelklasse Chip bringen, und hat es nicht mit einer Radeon Nano gemacht?
 
Zuletzt bearbeitet:
Angenommen:
Polaris 10, 6Pin, 150W TDP, wieviel Watt können max drüber gezogen werden ohne das es zu einem Schaden kommt?
 
Da dies schon die zweite Polaris mit Wakü ist, die gezeigt wird, lässt mich das aber glauben dass der Chip noch irgend ein Geheimnis birgt (ordentlich OC Potential, eventuell soagr schon als Custom ab werk?). ich meine wieso sollte man das grade mit diesem offiziellen Mittelklasse Chip bringen, und hat es nicht mit einer Radeon Nano gemacht?

Geisterte nicht irgendwann mal das Grücht auf (oder war es nur eine Spekulation, blickt doch keiner mehr durch), dass AMD eine Ref karte am Sweetspot für die gute Presse (Lautstärke, Verbrauch) bringt und die Custom nach oben hin Offen argieren dürfen, was den Takt angeht.

Könnte wie gesagt nur Speku gewesen sein, würde aber zu der Meldung irgendwie passen.
 
ich meine wieso sollte man das grade mit diesem offiziellen Mittelklasse Chip bringen, und hat es nicht mit einer Radeon Nano gemacht?

nano mit wakü gibt es in form der furyx.

das man karten mit solch geringer leistungsaufnahme nur selten mit wakü ausstattet liegt sicherlich unter anderem daran das man der abwärme auch problemlos mit lukü herr wird und man sich ebenso darüber im klaren ist das der großteil der user gesunden respekt vor wasser im pc hat^^

eine amd karte die sich so grandios übertakten lässt wie meine alte 7950 wäre aber tatsächlich mal wieder geil.
 
Zuletzt bearbeitet:
Angenommen:
Polaris 10, 6Pin, 150W TDP, wieviel Watt können max drüber gezogen werden ohne das es zu einem Schaden kommt?

Da lassen sich ohne Probleme auch 20-30 Watt mehr drüber jagen.
Die Customs werden sowieso eine eigene stärkere Spannungsversorgung installieren. Sieht man sich mal z.B. den Kühler an, so erkennt man eine andere breitere Position des PCIe-Stromanschlusses als es bei der Referenz der Fall ist. Vermutlich ein 8Pin, was ja dann die Leistungsaufnahme bis 225 Watt gewährleistet.
Der massive Kupferblock deutet schon an, das die Karte für MaxOC ausgelegt wird.

Ich kann mir gut vorstellen das AMD den Partnern da völlig freie Hand lässt, damit sie sich richtig austoben können inkl. Spannungserhöhungen und großzügiges Power-Target.
Bei den niedrigen Grundpreis ist noch viel Luft um da einen gewissen spielerischen Aufwand zu betreiben. Das lässt sich dann alles noch gut an den Mann bringen ohne gleich in Wucher aus zu arten, besonders, wenn durch die Takterhöhung eine Rechtfertigung intus ist.

- - - Updated - - -

und hat es nicht mit einer Radeon Nano gemacht?

Weil es sonnst keine Nano mehr ist. ;)
Die Nano sollte hauptsächlich klein und leistungsstark sein. Da wäre ein klotziger Wasserkühler mit Anhang nicht gerade zur Unterstreichung der Kompaktheit förderlich.
Zudem wäre eine Daseinsberechtigung der Fury X völlig obsolet geworden.
 
Zuletzt bearbeitet:
von diesen 16.4% tauglichen Gaming PCs hat Nvidia (lt. Steam) einen Anteil von 56.6%. D.h. im Umkehrschluss, dass selbst 43.4% aller Gaming PCs entweder mit einer Intel iGPU o. AMD dGPU befeuert werden.
Sorry, aber das ist so nicht ganz korrekt. Im Steam- Survey sind nicht nur Gaming- PCs sondern Steam ist auch ein soziales Netzwerk. Und wenn nicht um Spiele zu zocken, haben doch sehr viele Leute auf ihren Laptops auch Steam installiert um mit anderen zu kommunizieren oder Spiele auszumachen. Und das dürften geschätzt 30% der erfassten PCs sein, von denen viele eine Lösung wie den 5200U etc. haben. Jedenfalls haben ca. 36% der Intel- CPUs einen Takt unter 2,7GHz - können also keine Gaming- CPUs aus den letzten 5 Jahren sein ;) Hinzu kommt, dass zum Beispiel die Radeon R9 300 Series und die Fury nichtmal aufgeführt sind - ist mir schon vor 2 Monaten aufgefallen. Und dass wirklich der Marktanteil unter 0,15% läge, sodass die unter "Sonstige" fallen, ist unvorstellbar. Hier sollte man also das Survey mal genau unter die Lupe nehmen, bevor man es als Basis für Rückschlüsse nimmt, weil da verdammt viel im Argen ist.
Es erweckt nicht nur den Eindruck, dass die meisten "Gaming-" PCs völlig underpowered zum Zocken wären, sondern scheint auch gewaltige Mängel in der Erfassung der Komponenten zu haben.

Wobei diese Umstände ja den Marktanteil von AMD- Grafikkarten noch erhöhen und somit Deine Argumentation noch unterstützen. Ich wollte das nur mal anmerken, weil es mich immer stört, was beim Survey so alles reininterpretiert wird.
 
Wobei diese Umstände ja den Marktanteil von AMD- Grafikkarten noch erhöhen und somit Deine Argumentation noch unterstützen. Ich wollte das nur mal anmerken, weil es mich immer stört, was beim Survey so alles reininterpretiert wird.

Ich hab pauschal alle dafür hergenommen um den Vergleich möglichst auszuweiten, aber natürlich hast du recht - man müsste sicher nochmal 5% wegrechnen. Es war ja nur ein Survey. Kann ja gut sein dass ein normaler PC User mit FX Prozzi sich nicht im Klaren darüber ist, dass er keine dedizierte GPU im Rechner hat.

Btw, hier noch was interessantes:

rvvrtuph.png


Und hier noch mit weiteren Entwickleraussagen:
http://wccftech.com/async-compute-p...tting-performance-target-in-doom-on-consoles/

mfg,
Markus
 
Zuletzt bearbeitet:
Kann ja gut sein dass ein normaler PC User mit FX Prozzi sich nicht im Klaren darüber ist, dass er keine dedizierte GPU im Rechner hat.
Also ich werde da nur gefragt, ob meine Internetleitung >10Mbit/s hat und ob ich ein Mikro habe. Den Rest protokolliert das Teil selbst.
 
. Und das dürften geschätzt 30% der erfassten PCs sein,

ach, dürften das? wau. einfach mal so mit der Hand eine Zahl aus dem Hut gezaubert. 30% .. uh uh

da würd ich mich lieber erstmal auf die survey verlassen anstatt mir zahlen auszudenken.
 
Zuletzt bearbeitet:
Angenommen:
Polaris 10, 6Pin, 150W TDP, wieviel Watt können max drüber gezogen werden ohne das es zu einem Schaden kommt?
Du kannst auch 125W über nen 6-Pin ziehen - ohne Probleme. Habe auf meiner 980Ti ein Mod-BIOS. Insgesamt ist TDP auf 350W angehoben, über PCIe 0W, über 6-pin 125W und über den 8-pin 225W. Und dann habe ich das Powertarget noch aufs Maximum erhöht. Ich meine meiner Karte ist es erlaubt max. 400W zu ziehen. Das lüppt ohne Probleme. Meine 295x2 hatte auch nur 2*8-pin + PCIe und hat sich 500-600W genehmigt.

Mittlerweile macht mich das alles echt Banane. AMD hat nirgends offiziell was anderes als >5 TFlops stehen, richtig? Heißt ja, dass es auch 6 oder 6,5TFlops sein können. Marketing in welchem man nVidia im Regen stehen lässt bezüglich Daten, kennen wir ja von AMD.. WaKü mit so teuren Kühlern für ne 199$ Karte - da muss irgendwas hinter stecken. Außer AMD hat zur Vorgabe gemacht die unter Last leisesten Karten zu bauen [emoji14]
 
Zuletzt bearbeitet:
Spätestens nach AMDs "overclockers dream" und NVIDIAs "GTX970 3,5GB" glaub ich eher kein Wort mehr.

Abwarten bis alles raus ist und sich die Preise normalisieren. Da ich auch gleich neuen Moni hole, gibts kein Stress :d
Ausserdem kommt mir keine Graka ohne Mod-Bios mehr ins System :fresse2:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh