AMD präsentiert die Radeon RX 480 mit 500-US-Dollar-Leistung zum 199-US-Dollar-Preis

Status
Für weitere Antworten geschlossen.
Weiß nicht selbst bei 1080p würde ich mich bei 8GB VRAM wohler fühlen als bei 4GB VRAM, aber halt meine persönliche Meinung.....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Achja, ich würde für eine RX 480 eigentlich 8GB Vram empfehlen:

- Man hat zugriff aufs AMDs Downsampling Feature (alte Spiele in 4K spielen --> verbraucht viel Vram)

- Viele Texturen möglich, diese verbrauchen wenig Leistung aber viel Vram und sorgen für eine viel bessere Grafik

- Höherer Wiederverkaufswert

- 4GB werden in den nächsten Jahren eher knapp

- Mit OC hat die Karte genug Leistung um über 4GB Vram verbrauchen zu können

Falscher Thread? Ich glaub von den Hier anwesenden würden alle zur 8GB oder überhaupt nicht zur RX 480 greifen!^^
 
Wäre ja schonmal toll, wenn hier nicht dauernd über Nvidia diskutiert würde...

hehe, das ist das absurdeste. nv-fanboys und grüne brille und so, alle böse, spammen in den roten threads rum etc. etc.

der herr "von und zu" hat aber nichts anderes im sinn, als in den roten threads auf die grünen los zu gehen :bigok:
 
Weiß nicht selbst bei 1080p würde ich mich bei 8GB VRAM wohler fühlen als bei 4GB VRAM, aber halt meine persönliche Meinung.....

wenn man zumindest die verwendung von mods ned ausschließt, wäre es besser. aber bei 1080p und max details wird man mit 4 auskommen normalerweise.
 
Ich bin gespannt, wie die Karte mit 8GB und ein paar mehr Shader, etwas mehr Bandbreite im Vergleich zur GTX 980 bei einem gemoddeten Skyrim abschneidet. O_O
 
Ich bin gespannt, wie die Karte mit 8GB und ein paar mehr Shader, etwas mehr Bandbreite im Vergleich zur GTX 980 bei einem gemoddeten Skyrim abschneidet. O_O

Kannst du das testen?

Edit:
Ist das eine RX480? Sieht fast danach aus...
dhk4Zb0.jpg
 
Dieser extra Kühler für die VRM ist ja mal cool :d Da hätte ich schon Bock drauf, wenn damit richtig OC drin wäre!
 
Naja wenn ich sone Karte am Mittwoche bekomme, JA.

Ich bin halt in der Heimat und kann nicht sagen ob der Laden meines Vertrauens mir schon am Dienstag ne Karte gibt, überhaupt welche hat usw.!

Aaaaaaaalso ... ich hab eben mal telefoniert:

In dem Shop wo ich gern einkaufe ( seit 15 Jahren ) ist bisher keine Lieferung angekommen in Sachen RX 480, keine genaues Verfügbarkeitsdatum und die können selbst über Retailer aktuell keine Karte vorbestellen oder ordern.

Ich kann also defintiv sagen, dass ich am Mittwoch und Donnerstag ohne RX 480 dastehen werde. :(
 
Naja wenn ich sone Karte am Mittwoche bekomme, JA.

Ich bin halt in der Heimat und kann nicht sagen ob der Laden meines Vertrauens mir schon am Dienstag ne Karte gibt, überhaupt welche hat usw.!

Aaaaaaaalso ... ich hab eben mal telefoniert:

In dem Shop wo ich gern einkaufe ( seit 15 Jahren ) ist bisher keine Lieferung angekommen in Sachen RX 480, keine genaues Verfügbarkeitsdatum und die können selbst über Retailer aktuell keine Karte vorbestellen oder ordern.

Ich kann also defintiv sagen, dass ich am Mittwoch und Donnerstag ohne RX 480 dastehen werde. :(

mmcomputer? :fresse2:

Kann irgendwer sagen was für ein GPU Wasserkühler das auf der RX480 ist?? Die meisten dieser Art haben die Schläuche ja immer nach oben abgehend.. aber der kann ja auch direkt von der GPU weg.
Minutorus schick mal bitte Link wo das her ist! Damit könnte man ja direkt am Mittwoch wissen was für OC so mit dem Referenz-PCB geht!! :)
 
Zuletzt bearbeitet:
mmcomputer? :fresse2:

Kann irgendwer sagen was für ein GPU Wasserkühler das auf der RX480 ist?? Die meisten dieser Art haben die Schläuche ja immer nach oben abgehend.. aber der kann ja auch direkt von der GPU weg.
Minutorus schick mal bitte Link wo das her ist! Damit könnte man ja direkt am Mittwoch wissen was für OC so mit dem Referenz-PCB geht!! :)

Hmm habe ich über Google gesucht, hier der Link dazu aber dürfte eher eine Bastelaktion sein nehme ich mal an..
480 water blocks? - Imgur
 
irgendwie habe ich das gefühl, dass die grafikkarte wieder von miner genutzt wird, hff kommt es nicht zu lieferengpässen deswegen.
 
Ich muss jetzt nochmal drastisch werden, Fimbim. HALT ENDLICH MAL DEN MUND. ES KOMMT ZU 99% GEQUIRLTE SCHEIßE AUS DIR RAUS. Wie kann man so auf seiner Meinung beharren, obwohl diese Meinung purer Müll ist?

Wir wissen, dass nVidia alles super macht und AMD alles schlecht. Die Fury X hatte nen zu hohen Verbrauch bei zu wenig Leistung? Die Leistung war @stock etwa gleichwertig mit einer 980Ti @stock. Ebenso die Stromaufnahme. 4GB HBM machen nicht früher dicht als 6GB GDDR bei einer Ti, ist dir Kompression ein Begriff? Da hat AMD sehr gute Arbeit geleistet.

Die 500$-Aussage ist immer noch auf die Buildquality bezogen. D.h. AMD hat nicht nur 3 Phasen verbaut und billige Komponenten, sondern alles gleichwertig zu den High End Karten. Raff es doch mal!!!!

Es ist einfach widerlich, was bei dir alles an Anti aus dem Maul kommt. Dieser Thread hier wäre ohne dich einfach absolut in Ordnung - auch mit Kritik, aber ruhig. Ich raffe nicht wie man dich offensichtlichen Fanboy ersten Grades einfach hier weiter machen lässt... ist mir unbegreiflich!

:hail:

- - - Updated - - -

Du bist nicht gierig wenn du dein Geld überlegt ausgibst.

Gesendet von meinem H1 mit der Hardwareluxx App

THIS!
anscheinend sitzt das Geld bei vielen einfach zu locker...

- - - Updated - - -

zum Thema DX12/12.1 und Async

da die Konsolen von Async am meisten profitieren wird sich dieses Feature auch auf dem PC DEUTLICH durchsetzen.
 
Mit einem Kurzen Verlängerungsstück wird man schon über das PCB kommen, aber ein full cover Kühler währe mir denn noch lieber.
 
Der Kühler ( vor allem der Ref-Kühler ) gehört nicht zur Build Quality einer Karte, hier gehts im PCB, VMEM, GPU, Phasen etc.! Der Ref-Kühler tut seinen Zweck und da nehmen sich AMD und nVidia seit Jahren nichts..
´

Doch, die Referenzkühler ala Radialblower der AMD Generationen HD 7970/R9 290x waren wesentlich lauter, wenn nicht gar so laut wie eine Turbine, ähnlich der GTX 480.
Von Wirtschaft hast du genauso wenig Ahnung wie von manchen Dingen scheinbar auch nicht.

nVidia : kleine Stückzahl & große Margen
AMD : große Stückzahl & kleine Margen

Ich hab schon Ahnung von Wirtschaft, wenn ich mit einem 314mm² großen Chip Karten für 699 Dollar absetzen kann und AMD mit einem 232mm² großen Chip nur 229 Dollar verlangen kann, dann hat AMD nicht nur wesentlich geringere Margen, sondern auch wesentlich höhere Kosten pro mm², das macht den ganzen Chip ineffizient.

Weniger als 15% kaufen teure GPUs für mehr als 300 oder 400€ - und deutlich weniger als 10% der Gamer zahlen mehr als 600€.

Kann ich nicht glauben, bei der großen Anzahl an Verkäufen der GTX 970 und der r9 390 die waren wesentlich höher als die Verkäufe einer GTX 960 oder r9 380.
Das ist auch der Grund, warum der Marktanteil von Nvidia Herbst 2014 so angezogen hat, weil High End GPU´s ala GX 970/GTX 980 GTX970m/GTX 980m eingeschlagen sind.

Und als Hausaufgabe darfst dich informieren, wie und warum man early adopter so behandelt, wie man sie behandelt!

Weil sich Nvidia leisten kann den Leuten mehr Geld abzunehmen, weil sie der Marktführer sind, weil AMD den schlechteren Ruf hat usw.. da gibt's viele Gründe.
Wenn eine Firma mehr Geld verlangen kann, dann verlangen sie mehr Geld, ist doch völlig normal, sehe daran nichts verwerfliches, die Kunden zahlen es ja, von daher sind es die Grafikkarten auch wert.

Nochmal zu deinen Rekordverkäufen:

Es gibt keine offiziellen Zahlen dazu und ich erkläre es dir auch hier eine ausführlich.

Es gibt sehr aufschlussreiche Mindfactory Absatzzahlen, du du mal völlig ohne Grund als irrelevant hinstellst.

Und ganz final nochmal für dich:

1. Sei still - einfach nur still. Vor allem wenn man keine Fakten in der Hand hat und dennoch "Wahrheiten" zu verbreiten versucht!
2. Wenn dir die RX 480 eh nicht zusagt und du mehr negative Punkte findest und sie nicht in Frage kommt. WAS willst du eigentlich hier? -> siehe 1.
3. Du widersprichst dir permanent und Tagesweise selbst in deinen Posts. -> also wieder ab zu 1.

1: Du hast hier gar nichts zu bestimmen, ich schriebe das was ich möchte und jeder kann schreiben was er möchte.
2: Die Karte sagt mir nicht zu, aber sie interessiert mich.
3: Wenn ich mir widerspreche, warum zeigst du es dann nicht?
 
Ich muss jetzt nochmal drastisch werden, Fimbim. HALT ENDLICH MAL DEN MUND. ES KOMMT ZU 99% GEQUIRLTE SCHEIßE AUS DIR RAUS. Wie kann man so auf seiner Meinung beharren, obwohl diese Meinung purer Müll ist?

Solange ich meine Meinung begründe, sehe ich keinen Grund warum ich mich raushalten soll, ich werde ja jedenfalls nicht grundlos ausfallend so wie du, also bitte ich dich damit aufzuhören.
Wir wissen, dass nVidia alles super macht und AMD alles schlecht.

Neja, auch Nvidia hat sich sehr viel geleistet.
Nehmen wir mal die Directx11.1 Geschichte, die schwachen GTX 480 Karten mit furchtbarem Kühler, 3,5 GB Gate uvm.
Kritisiere ich genauso, nur das hier ist ein AMD Thread mit einer AMD Karte, hier geht es also um AMD nicht näher um Nvidia.

Die Fury X hatte nen zu hohen Verbrauch bei zu wenig Leistung? Die Leistung war @stock etwa gleichwertig mit einer 980Ti @stock. Ebenso die Stromaufnahme.

Die Stromaufnahme ist 50 Watt höher, die Leistung ist außer in 4K bei jedem Test den ich kenne, geringer, Übertaktungspotenzial nicht vorhanden, der Speicher ist deutlich zu klein.
Mein Vater hat sich daher für die 980 Ti entschieden, auf der ich ab und zu auch zocke.

4GB HBM machen nicht früher dicht als 6GB GDDR bei einer Ti, ist dir Kompression ein Begriff?

Color Compression ist mir ein Begriff, ansonsten hat AMD bei der reinen Speichermenge keine Kompressionsverfahren eingeführt mit den Fury Karten.
Kompressionsverfahren beziehen sich auf Einsparungen in der Bandbreite, nicht bei der nutzbaren Speichermenge, daher geht der Karte auch in RoTR, Black Ops 3, und vielen anderen Games ab WHQD der Speicher aus.
Daher ist die Karte nicht empfehlenswert mit solch einem Pferdefuß.

Die 500$-Aussage ist immer noch auf die Buildquality bezogen. D.h. AMD hat nicht nur 3 Phasen verbaut und billige Komponenten, sondern alles gleichwertig zu den High End Karten. Raff es doch mal!!!!

Ja, da investiert AMD ein paar Cent für, ist doch einfach nur Verarsche, macht Nvidia genauso thats Business. Eine Phase mehr oder weniger gibt nicht den Ausschlag, vielmehr gibt es der Kühler, die Temperatur der Spannungswandler und die Qualität des GDDR5 Speichers, der bei AMD gerne mal in der nahen Vergangenheit zu Blackscreens geführt hat.

Es ist einfach widerlich, was bei dir alles an Anti aus dem Maul kommt. Dieser Thread hier wäre ohne dich einfach absolut in Ordnung - auch mit Kritik, aber ruhig.

Ich habe nie etwas geschrieben was ich nicht begründet habe und da du nicht auf meine Aussagen eingehst, gehe ich recht in der Annahme das ich absolut mit dem recht habe, was ich sage.
 
dieser ganze OT mist hier ist so nervig, besonders da einige leute inkl. mir ja wirklich interesse an einer rx 480 haben und es spannend finden infos zu diskutieren.

man muss sich heir durch soviel mist blättern um zu gucken ob jemand geantwortet hat oder wenn man jemandem antworten will, echt schrecklich.

@HW, danke für den link mit dem adapter, davon hab ich mir gleich mal 2 gekauft.
 
Zuletzt bearbeitet:
Jetzt sehe ich gerade erst dass der Wasserblock ja doch nicht die Anschlüsse wie ein CPU Kühler hat. Damit kann man die Kühlung der VRAM Chips oben vergessen...
 
Simuliert A-Shader über die CPU. Das hat mit der Grafikkarte wenig gemein und wie schon mehr als einmal geschrieben wird, bekommt man als Tester einen speziellen Pressetreiber zugeschickt, der die Hälfte der Funktionen abschaltet, damit es überhaupt irgendwie lauffähig wird.

Wenn sie es über die CPU simulieren würden, dann könnte man das mit einer höheren CPU Last nachweisen, bisher gibt es dazu keine Erkenntnisse.
Pascal beherrscht verbesserte Preemption, das macht async Compute zumindest nicht langsamer, profitieren wird Nvidia davon nicht groß, auch AMD nicht.
Die ganze Sache ist ein Sturm im Wasserglas.
 
Sag mal hast du kein Leben außerhalb von HWL?
Du hinterlässt auf fast jeder Seite nur Müll. Hauptsache das du was geschrieben hast.
Leider zerstört deine sogenannte "Diskussion" den gesamten Thread da andere Fragen extrem auseinander gezogen werden und es unübersichtlich wird.
Dies lässt mir leider keine andere Möglichkeit zu als dich auf die Ignorierliste zu setzten.
 
Wenn hier einfach mal jeder Fimbim auf Ignore setzen würde wäre halt auch mal Schicht im Schacht, schade das einige dies nicht verstehen.
 
ne Diskussion ohne 2 unterschiedliche Standpunkte ist keine Diskussion. das wär dann Hypen.
 
Ja, wers glaubt, wird selig. Diese Leistung gibt es schon seit 3 Jahren+ zu kaufen ( erste Titan ), wirklich neu ist nur die der GTX 1070 und GTX 1080.
Die Käufer werden alleine schon daher dezimiert, weil die Käuferschaft bereits mit solch einer Leistung versorgt ist.
Das heißt der geringe Preis wird die Marktateile von AMD kaum verbessern, wenn schon >5000 Stück von GP104 in einem einzigen Shop nicht mal in einem einzigen Monat verkauft sind.
Die Leistung einer 1070 gibts in Form der 980Ti auch schon seit bald 2 Jahren. Nur die 1080 bringt wirklich eine neues single GPU Niveau (sofern wir 980Ti OC nicht zählen lassen).

Na wenigstens jemand der nachdenkt, ich meine das PCB ist ja auch viel kürzer als das von 500 Euro Lösungen, AMD wollte wie Nvidia einfach die Kundschaft für blöd verkaufen.
Das wird nicht erkannt, weil die AMD Jungs genau wie die Nvidia Jungs völlig verblendet sind und das verteidigen.

Leute: Low Preis --> Low Qualität/Kosten/Aufwand ist doch klar.
Ach, kurzes PCB = schlechte Qualität? Na dann. Heißt also, nen GTX260 ist ne hochwertigere Karte als eine 980Ti? Denk doch vor dem Posten mal nach.

NV kanns CPU emuliert und laut benchmarks machts Null Unterschied.
du hast doch noch nicht mal nen Plan welche Features DX12 mit sich bringt. und welche man davon beherrschen muss, um DX12 auf die Verpackung zu drucken oder ob es da überhaupt irgendwelche Vorgaben gibt, die von irgendwem kontrolliert werden. du legst das doch nur aufgrund von Schlagzeilen, die dir passen, nach deinem Gutdünken aus.
Laut Benchmarks machts bei NV Null Unterschied, weil CPU emulierte ASyncs eben nutzlos und dumm sind. CPU emuliertes ASync geht genau am eigentlichen Sinn und Zweck von ASync vorbei. Man verliert durch die Emulation halt alles an Leistung, das echtes HW-ASync rausholen würde.

ED: Na wies aussieht, haben NV und AMD aktuell gleich wenig gains mit ASync. Ich erinnere mich an Benchmarks aus 2015, wo das noch anders war. Nun gut. Der Rest dieses Posts bleibt.

NV weiß ganz genau, dass sie ihr Design in dem Aspekt vergeigt haben, deswegen versuchen sie auch jedem händeringend zu erzählen, ASync bräuchte ja niemand und das hätte ja keinen Zweck, wenn auf AMD Karten selbst bis hin zu GCN1.0 noch Performancezuwachs durch ASync vorhanden ist, da GCN eben von Anfang an mit diesen HW-Units konzipiert wurde. (Und diese Zuwächse sind im absoluten GPU Limit, also nix von wegen Driver Overhead) Dazu kommen dann noch die zahlreichen Entwickler, die ebenfalls bestätigen, dass ASync gute Performancezuwächse bringt.

Aber heyyyyy, das NV PR-Material ist das A und O, nicht wahr?

- - - Updated - - -

ne Diskussion ohne 2 unterschiedliche Standpunkte ist keine Diskussion. das wär dann Hypen.

Fimbim hat keinen ernstzunehmenden Standpunkt.
Es gibt hier durchaus kritische Posts, die vollkommen legitim sind.
Fimbim's Quark ist aber bisher 99% blindes Bashing und/oder Trolling. Und das bringt absolut keinen Diskussion sinnvoll weiter.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh