AMD zeigt die Radeon R9 Fury X und Nano

Wie viel FPS bei welcher nativen Auflösung bleiben da übrig?

Gruß Thomas
Das will ich prüfen aber habe das nur für alte games erstellt!
The witcher 3 läuft mit allem max@5120x2880 mit 40Fps@ Sli und braucht dann 5300Mb Vram.
4GB sollte eigentlich für eine karte reichen zumindest bei den aktuellen games aber ist dann schon am Limit ohne große luft für texturmods :(
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sich auf's Kerngeschäft konzentrieren und Gewinne erwirtschaften. Also das, was ein Unternehmen machen soll. Aber das hat hier im Thread eigentlich nichts zu suchen.

Sich aufs Kerngeschäft konzentrieren ist momentan die einzige Lösung. Aber extreme Spezialisierung funktioniert nur dann gut, wenn sich drumherum nichts ändert. Sie Natur. ;)
 
Pcikelbuh dir ist aber bewusst für was Nvidia außerhalb der Consumer Sparte genutzt wird und was die leisten müssen?!

Bis da mal eine iGPU ran kommt, sehen wir noch viele sehr viele neue Serien.
 
Also Nvidia CEO sagte ja das HBM noch zu teuer sei und erst bei Pascal genutzt wird.

Wenn dem so ist , dann wird AMD nicht all zu viel Gewinn mit ihren neuen Karten machen , weil
sie eben versuchen günstiger als die 980 Ti zu sein....
 
du hast nichts verpasst, das ist einfach nur AMD-Fanboymist:\

es erklärt ja kiener von denen, warum man bei 4GB HBM mehr daten speichern können soll als bei 4GB GDDR5.
ernsthaft?
Der Begriff "Komprimierung" sagt dir wohl nichts, oder?
Wenn man Daten nicht komprieren könnte....
 
Man sollte beim VRAM allerdings nicht vergessen das man eine Grafikkarte meist für 2 Jahre kauft, und dann werden Texturen deutlich größer sein!


2012 Haben viele AMD belächelt für die "übertriebenen 3GB die niemals gebraucht werden" das Ergebnis war dann aber, dass man mit einer HD79X0 heute noch gut Spielen kann, was mit einer GTX680 mangels Speicher oft nicht mehr so toll geht!


Und 2017 werden WQHD Games, wo die Leistung der Fury perfekt ist, mehr als 4GB brauchen!

Wenn HBM dafür sorgt das aus 4GB effektive >=6GB GDDR5 werden, dann ist alles in Butter, aber das wissen wir erst am 24.06. !




Achso und zu Star Citizens: da glaube ich wird man AMD Arctic Island oder Nvidia Pascal jeweils mit 8GB HBM brauchen!

Auch die Custom 980 ti liegen über der TX@stock, wie die Tests der EVGA ACX und der iChill gezeigt haben ;)

Und die EVGA 980 ti ACX gibt es hier schon für knapp 670€

Und die UVP der XT ist doch genau so wie bei der 980ti, oder irre ich mich da?

Hastn link zur evga 980ti acx fuer 670 ?
 
Deshalb weicht NVIDIA in das Hochpreissegment aus und ob sich das ewig hält ist auch fraglich. Je teurer etwas wird, desto weniger wird davon gekauft.
Aber der Gewinn sollte pro Stückzahl steigen.

Die Zukunft steckt eher in immer kompaktere Modelle wo Speicher und CPU sowie GPU integriert sind. Nicht umsonst hat AMD bei den Konsolen den Zuschlag bekommen. Sie bieten die richtige Technologie an.
Richtig, die Zukunft. Deswegen wird NV in Zukunft mit Pascal auch darauf setzten. Ob jetzt schon der richtige Zeitpunkt dafür ist, wird sich ja bald zeigen.

Zen-APU mit HSA wird ein super und leistungsstarkes System werden.
Gleiches hat man zum Bulldozer auch gesagt. Ob es dann so kommt, wird sich erst zeigen müssen ;)
 
Zen kommt in 1.5 Jahren....5 Jahre nach Bulldozer, wirklich übel.
Dann will man endlich die IPC von haswell erreichen..bisdahin ist skylake wieder alt^^
 
Leonidas fasst das Thema in der heutigen 3DC-News sehr gut zusammen und ich bin 100% seiner Meinung. Hardcore AMD oder Nvidia Fans könnten das aufgrund begrenztem Horizonts natürlich anders sehen :fresse:

Hardware- und Nachrichten-Links des 16. Juni 2015 | 3DCenter.org


Die offizielle Vorstellung der Radeon R300 und Radeon Fury Grafikkarten-Serien in der Nacht von Dienstag auf Mittwoch war nun leider etwas mager in Bezug auf detaillierte Informationen – jene tröpfeln derzeit nach und nach inoffiziell herein, was dann Thema späterer News-Beiträge sein wird. Allerdings hat AMD eine ganz vernünftige Show abgeliefert – und vor allem den Punkt erreicht, das man drüber spricht. Dies dürfte insgesamt nur positive Auswirkungen auf AMDs Standing bei den Gamern haben, wo ehrlicher- (aber fälschlicher-)weise vielerorts Grafikkarten einfach nur mit "GeForce" gleichgesetzt werden. Wie schon oft an dieser Stelle betont (und in jedem Betriebswirtschafts-Buch nachzuschlagen), wird ein starkes AMD jedoch als Gegenpol zu nVidia (und Intel im Prozessoren-Markt) benötigt, denn Monopole werden keinem wirklich gefallen, wenn sie einmal etabliert sind.

Trotzdem muß Kritik an der Entscheidung pro nur 4 GB HBM1-Speicher bei der Radeon R9 Fury /X erlaubt sein: AMD ist in den letzten Jahren beim Grafikkartenspeicher-Ausbau immer vorneweg gegangen, brachte Ende 2011 die Radeon HD 7970 mit 3 GB und Ende 2013 die Radeon R9 290X mit 4 GB. Beide diese früheren AMD-Grafikkarten kamen im übrigen zu einem Preispunkt von 549 Dollar daher, ergo preislich und auch von der Einordnung im Performance-Spektrum her niedriger angesetzt als nun die Radeon R9 Fury X zu einem Listenpreis von 649 Dollar und dem Ziel, sich bezüglich der Performance mit GeForce GTX 980 Ti & Titan X anzulegen. Gerade angesichts dessen, was die neue Konsolen-Generation an neuen Hardware-Anforderungen mit sich gebracht hat und dem Sturm des PC-Gamings in Richtung 4K/5K-Auflösungen sind 4 GB Grafikkartenspeicher für eine Enthusiasten-Grafikkarte des Sommers 2015 einfach zu kurz gesprungen – 8 GB müssen nicht zwingend sein, aber 6 GB wäre eigentlich das Minimum für eine solche Karte.

Jetzt ist daran natürlich nichts mehr zu ändern, aber AMD hätte diese Problematik bereits in der Design-Phase realisieren und dann umgehend beachten sollen. Man wird sehen müssen, wo dann die Speicher-Limits der Fury-Grafikkarten liegen, sprich wo deren 4 GB Speicher irgendwann ausgeschöpft wird. Als CrossFire-Lösung beispielsweise sind die Fury-Grafikkarten somit wenig geeignet, weil sich dort viel einfacher Situationen finden lassen, wo mehr als 4 GB Speicher (zugunsten einer wirklichen Ausnutzung der Rechenkraft mehrerer Grafikchips) benötigt werden. Dassselbe Schicksal dürfte dann auch die für den Herbst angesetzte DualChip-Grafikkarte auf Fiji-Basis ereilen, welch WCCF Tech im Platinen-Foto zeigen: Zwar eigentlich sehr interessant wegen des auch hier Fury-typisch kompakten Designs, aber rein praktisch als CrossFire-Lösung zu stark an der Speicherlimitierung der Fury-Serie hängend. AMDs Idee, mittels "Explicit Multiadapter Rendering" unter DirectX 12 den Speicher einer MultiChip-Lösung glatt addieren zu können, ist viel zu sehr Zukunftsmusik, um die Situation zu Lebzeiten des Fiji-Chips noch retten zu können.

...

Nach diesen Kritikpunkten gab es aber auch viel Lob für AMD für die Vorstellung der Radeon R9 Nano, der effizienz-optimierten Kompakt-Lösung auf Fiji-Basis. Hierbei wird AMD den Fiji-Chip auf diesen Taktraten laufen lassen, bei welchen das Performance/Stromverbrauchs-Verhältnis am besten ist – derzeit schätzt man dies auf vielleicht 150 Watt ein. Die Performance wird vielleicht nur wenig höher als bei der Radeon R9 290X oder 390X liegen, aber der Verbrauch der Karte bleibt im absoluten Rahmen selbst für Netzteile der 400-Watt-Klasse. Die Fury R9 Nano ist in jedem Fall der heimliche Star der ganzen AMD-Ankündigungsshow gewesen und es wird interessant sein, wie sich dieses Produkt dann am Markt schlägt. nVidia könnte durchaus versucht sein, ähnliches auf die Beine zu stellen – gerade der GM204-Chip ist schon ein ziemliches Effizienzwunder, welches man mit etwas Feinjustizierung in die gleiche Richtung wie die Radeon R9 Nano tweaken könnte.
 
Also Nvidia CEO sagte ja das HBM noch zu teuer sei und erst bei Pascal genutzt wird.
eher weil sie noch keinen HBM nutzen dürfen und ernst kann man den vogel eh nciht mehr nehmen.

was war denn als die den deal mit den konsolen nicht bekomemn haben?
da hat man doch zuerst behauptet man wollte ihn eh nicht, wiel man zu wenig verdient und dann hat man wochenlang gegen konsolen geflamt, weil konsolen mist sind.
die Shield ist aber ganz toll, obwohl alle konsolen mist sind^^
 
wäre ja das perfekte Produkt wenn es keine Kritik gäbe und ich finde Kritik auch sehr gut und wichtig.

dennoch gibts derzeit einfach keine Möglichkeit HBM mit mehr als 4GB anzubieten.
 
Zuletzt bearbeitet:
Sehe das genauso!
4GB sind sehr grenzwertig und für crossfire viel zu wenig.
DX12 ist noch zu weit entfernt um da echte Vorteile zu nutzen.
Bin wirklich mal auf die AMD Treiber gespannt ob es AMD endlich schafft die cpu overheads zu reduzieren.
 
Leonidas fasst das Thema in der heutigen 3DC-News sehr gut zusammen und ich bin 100% seiner Meinung. Hardcore AMD oder Nvidia Fans könnten das aufgrund begrenztem Horizonts natürlich anders sehen :fresse:

Typisches Leonidas-Geschreibe.

Es gibt im Moment schlicht keine technischen Möglichkeiten, die Karten mit 8GB HBM-Speicher herzustellen.

Was also hätte AMD machen sollen?

Auf GDDR5 setzen?

Leonidas ist auch nicht als jemand bekannt, der den ganzen Tag Hardwareweisheiten absondert. Manchmal fehlt ihm dazu einfach der Hintergrund.
 
Zuletzt bearbeitet:
Und wenn es so ist das der Komprimierte texturen nutzt dann muss das ja wohl von der cpu gemacht werden und das bedeutet wieder mehr cpu Limit. Es sei denn das spiel selber hat komprimierte texturen im Angebot aber das sieht dann meistens nicht so gut aus
 
Habe die Show jetzt noch nicht gesehen, aber hat AMD eigentlich mehr gezeigt als die Karte an sich? Ich würde gerne wissen wie die performt oder gibt es da immer noch keine Ergebnisse?
 
Richtig.

Komprimierte Texturen haben entweder den Nachteil, Rechenzeit zu beanspruchen, oder sie sehen nicht so optimal aus, wie sie könnten.
 
Und wenn es so ist das der Komprimierte texturen nutzt dann muss das ja wohl von der cpu gemacht werden und das bedeutet wieder mehr cpu Limit. Es sei denn das spiel selber hat komprimierte texturen im Angebot aber das sieht dann meistens nicht so gut aus

...dafür sind die Textur-Regler da.
In der Regel sieht das dann so aus (beispiel, shadows of mordor):

Ultra = losless
High = leicht komprimiert.
Low = stark komprimiert

Zwischen High und Ultra lässt sich bei Shadows of Mordor kein Unterschied feststellen.
Trotzdem verbraucht die höchste Stufe ca. 2 GB zusätzlichen VRAM.
 
Zuletzt bearbeitet:
Richtig.

Komprimierte Texturen haben entweder den Nachteil, Rechenzeit zu beanspruchen, oder sie sehen nicht so optimal aus, wie sie könnten.

Lustig finde ich das die Leute alle glauben das die kompremierung von texturen nur den HBM speicher gehen.
Das geht per Treiber-> was dann die CPU machen muss und da ist dann mit Verzögerung zu rechnen und die nachladeruckler wären sehr viel heftiger beim volllaufen.
Oder aber es geht von der Engine durch ein anderes streaming oder einfach andere texturen.
Hoffe es wird nicht so krass sein wie BMP vs Jpg weil da wäre die Qualität sehr viel schlechter.

@Sahee
Ja klar mordors schatten macht das ingame. Aber bei Spielen die das nicht können muss das der treiber machen.
Mordors schatten sieht mit ultra texturen schon etwas besser aus auch wenn der sprung nicht sehr groß ist kann ich es dennoch sehen aber da braucht man sicherlich auch hohe Auflösungen da bei 1080p kaum zu erkennen sein wird
 
Zuletzt bearbeitet:
Also ich sehe einen Unterschied an meinem Monitor
 
dann beschreib doch mal die Unterschiede ^^

ist halt die Frage ob der hohe Vram Verbrauch die Qualitätsteigerung rechtfertigen.
 
Ja, manche wollen auch den Unterschied zwischen 100 und 110 FPS bemerken können, anderen fällt er zwischen 30 und 60 FPS nicht auf.

So verschieden sind halt die Wahrnehmungen.
 
Ganz klare Antwort-> nein es lohnt nicht.
SweetFx mit angepasstem schärfefilter bringt um welten mehr
 
ist halt die Frage ob der hohe Vram Verbrauch die Qualitätsteigerung rechtfertigen.

Hm im Prinzip ist das richtig. Das Verhältnis von Ultra zu Perfomance ist bei vielen Spielen einfach nicht gerechtfertig.
ABER find ich es ebenfalls nicht gut wenn immer Argumentiert wird, wenn ne GPU was nicht schafft: "Ultra brauch eh niemand"

Das finde ich blöd, es soll ja vorwärts gehen!
 
Hmm aber wozu kauft mann dann eine highend Grafikkarte wie die Fury??
Spielt man damit auf low oder was.
Die karte ist für Ultra Details mit 4K oder eben wegen den hohen FPS@1440p
 
ich seh zwischen Ultra und High keinen Unterschied, vor allem nicht als ich es durchgespielt hab mit der 280X!
Spot the difference: Shadow of Mordor ultra HD textures barely change a thing - PC Gamer
Mittelerde: Mordors Schatten PC - Hands-on-Test mit Ultra-Texturpaket [Artikel des Monats Oktober 2014]

Bitte.
Aber so what wieso soll man Einstellungen bei einer 750Euro Karte reduzieren obwohl zum Beispiel die Leistung da für vorhanden wäre.
Nur weil man sich selbst Entschuldigung verarscht und sagt ich sehe da keine Unterschied.

Finde auch die Aussagen lächerlich wo gesagt wird das haben die aber schlecht programmiert das wird immer wieder passieren dank der Konsolen sogar recht wahrscheinlich mit ihren 8GB.

Na ja was soll es .
So ging mir das zum Beispiel bei Watchdogs @Ultra 2*TXAA genug Power in FHD aber RAM immer wieder über flutet bei der 780Ti was derbe nachladeruckler gab.

Da ist man dan gebrannt Markt .
Da müssen dan auch die Leute hier verstehen das man nicht über AMD herzieht sondern einfach seine bergründeten bedenken äussert.

Ich hätte mir nicht Sähnlicher gewünscht als das AMD die X mit 30% mehr Power angespitzt in den Boden ramt.
Was natürlich Wunschdenken wäre.
Ich warte die Tests ab bin aber sehr skeptisch eingestellt was die 4GB angeht .
 
Zuletzt bearbeitet:
Hmm aber wozu kauft mann dann eine highend Grafikkarte wie die Fury??
Spielt man damit auf low oder was.
Die karte ist für Ultra Details mit 4K oder eben wegen den hohen FPS@1440p

Also ich brauche die für 1080p @ 144Hz.
4K ist mir sowas von Wumpe. Ich denke das 4K in seiner Verbreitung völlig überschätzt wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh