Alles zu Navi: Radeon RX 5700 XT ist RDNA mit GDDR6

Dann halt ein Focus. Aber was ich damit sagen wollte, nur weil die eine Karte 20% und die andere 11% hat sind die 20% nicht mehr wert. Wenn die 20% garantiert erreichbar sind, die Karte halb soviel kostet und der Verbrauch auf dem selben Niveau bleibt, genau dann kann man meiner Meinung nach von einem guten Vorteil sprechen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sind sie auch. Alles ab 2070 sollte mindestens 10 GB haben, somit auch Konkurrenzprodukte.
Zufrieden?

Du warst ja einer der größten Speicherkritiker. Also empfindest du die 8GB VRAM bei Navi auch als zu wenig, wie schon bei Turing, oder reagierst du einfach nur pissig, weil es jetzt um AMD geht?


Die navi Produkte sind so gut, das man bei nvidia befürchtet diese nehmen Marktanteile im Preisbereich x weg - man ist gezwungen mit neuen "super"-Grafikkarten zu kontern und sogar die Markteinführung der neuen 7 nm Grafikkarten wird vorgezogen.

Die neuen, gemunkelten Super-Grafikkarten sind jetzt aber keine wirklich krasse Reaktion, sondern eher ein müder Refresh ohne großen Aufwand, den Nvidia sich mal eben so aus dem Ärmel schütelt. Anhand dieser relativ kleinen Reaktion konnte man schon erahnen, dass Navi auch kein sonderlich großer Wurf wird.

Wo nimmst du eigentlich her, dass Nvidia die Markteinführung der 7nm Karten vorziehen würde?
Nvidia hat in der Vergangenheit im Abstand von ~2 Jahren neue Grafikkarten-Serien veröffentlicht, sodass der Turing Nachfolger so 2020 rum erscheinen müsste, da Turing 2018 veröffentlicht wurde.
 
Wo siehst du denn die Vorteile die gleiche oder etwas mehr Abwärme von einer so kleinen Fläche effektiv abtransportiert zu bekommen?

Nach diesem Argument sollten wir auf 90nm zurück.

Die Energiedichte erhöht sich - jupp. Sie hat sich in den letzten Jahren bei *allen* Herstellen erhöht. Bis irgendwann eine Grenze erreicht wird, wo die Wärmeleitfähigkeit nicht mehr ausreicht damit die Wärme abtransportiert werden kann. Der 8auer hat das mit dem übertakteten 28-Kerner von Intel gezeigt, wo die Energiedichte so hoch war, dass selbst Wasser nicht mehr fähig war das ordentlich abzutransportieren. Da hilft dann nur noch eine Entfernung aller Limiter im System - aka Direct Die. Und wenn das auch nicht mehr reicht, brauchen wir neue Kühlsysteme.

Bisher - und auch bis runter auf 3nm wird das aber noch kein Thema sein.
 
Zuletzt bearbeitet:
Ich bin silent Liebhaber und sehe das deshalb etwas kritischer.
 
Ich habe keine Probleme mit 8Gb!! Hätte mir aber auch eine VII mit 16Gb gekauft. Aber auf einen Brüllfrosch im PC hatte ich keine Lust. :bigok:
 
Wo siehst du denn die Vorteile die gleiche oder etwas mehr Abwärme von einer so kleinen Fläche effektiv abtransportiert zu bekommen?

Das ist ein verdammt guter Punkt, den ich gar nicht bedacht hatte. Danke dafür.
Ob das ein Problem wird, wird man testen müssen. Wenn die GPU Kühler nur diese Fläche brauchen um die TDP abzuführen, ist alles ok. Nur wenn sie diese Fläche + 30% bräuchten, dann wird es natürlich eklig.

Der kleinere DIE ist für AMD ein Vorteil, weil es einfacher wird ohne defekte zu produzieren. So lassen sich evtl. mehr GPUs an den Kunden bringen, mit mehr Gewinn.

Davon abgesehen scheint 7nm für den Kunden aber hier nur Nachteile zu haben.
Mehr Stromverbrauch, mehr Preis, kaum bessere Leistung (Gesamt, nicht pro mm²) und selbstverständlich umständlichere Kühlung.
Da kann man nur hoffen, dass diese ersten Eindrücke einfach komplett falsch sind und das Produkt doch besser performt. Fairerweise muss man das ja zugestehen: AMD ist nicht so toll darin ihre Stärken zu kommunizieren und reitet lieber auf den Schwächen rum.
Es könnte also durchaus sein, dass der kollektive Ersteindruck etwas trügt.
 
Wir können auch die Energiedichte reduzieren, in dem wir alle Sweet-Spot fahren. EPYC macht das beispielsweise. Reduktion vom Energieverbrauch bei gleicher Leistung ist ohne weiteres möglich. Aber wir wollen ja mehr Leistung. Silent-Fans haben hier aber Glück: Die können so lange undervolten, bis der Sweet-Spot getroffen wurde. Zum Glück ist die Spanne nach unten offen und bei sowas wie 4 GHz statt 4.5 GHz erwarte ich schon einen mittelschweren Absturz des benötigten Vcores.
 
Stimme ich zu.
AMD pusht im Allgemeinen die Leistung an die Kotzgrenze, sodass UV für reduzierten Lärmpegel mehr Sinn ergibt als OC für mehr Leistung.
Wird spannend, wenn die Reviewer die Dinger in der Hand haben und wir handfeste Daten bekommen.

Bei Navi sehe ich da leider etwas weniger Euphorie bei mir, aber die Zen 2 Chips sehen schon sexy aus. Zumindest der 16 Core Chip, der angeblich ja höher taktet als die 8 Core Varianten.
Da ist absehbar, dass Intel einen vor den Latz bekommt. Das bei den GPUs immer so kleine Schritte sind, die NVidia mit nem Neuaufguss direkt kontert, ist echt verdammt schade. Aber wie gesagt, evtl. trügt der erste Eindruck auch.
 
Da Navi so ein halber Hybrid ist, ziehst du natürlich auch die Nachteile von GCN erstmal noch mit. Ergo jupp - bis Navi 20 oder generell RDNA V2 wird das erstmal nur midrange bleiben. Die neuen Features der Karte hingegen gefallen mir. Mal gucken, was die RX5800/5900 so bringt.
 
@naennon Ich bezweifle, dass du die Karte kürzlich für 999 Euro gekauft hast. Du warst doch einer der frühen Vögel (und wenn ich dich jetzt nicht verwechsele dann hab ich dich auch im Marktplatz wildern sehen - aber da leg ich jetzt spontan nicht die Hand für ins Feuer). Und die frühen Vögel zahlten 1500 - 1800 Euro für eine Grafikkarte von NVidia. Bei der Radeon VII waren es 800 Euro. Darum meine Aussage bezüglich des doppelten Preises. Straßenpreise jetzt oder in drei Jahren ziehe ich für Vergleiche nur heran wenn sie gerade sehr stichhaltig in meine Argumentation passen ;)

Ich fand auch nur dieses übertrieben abfällige "sieh mich an ich hab mir das teuerst-mögliche Equip gekauft und es ist schneller als deins" so unnötig. Zumal ich so einen Kinderkram von dir, glaube ich, bisher noch nicht gesehen habe.

instant edit:
Dass amd mit den ursprünglichen "Gaming" Ankündigungen hinsichtlich Vega voll daneben gegriffen hat ist doch lange klar gewesen und wurde gebührend belächelt. Seit dem ist doch aber klar, dass amd nicht das obere Ende angreift. Können sie nicht. Fertig, gibt es nichts weiter zu diskutieren.
ABER: Sie gehen jetzt einen smarten Weg. Wenn der nur näherungsweise so verläuft wie ihre Aufholjagd im cpu Sektor dann stehen uns goldene Zeiten bevor. Vielleicht kann man dann mal einen zeitgemäßen Rechner zusammenbauen ohne für irgendeine Komponente Phantasiepreise zahlen zu müssen.
Ich sehe schon die Netzteile knapp werden!
 
Zuletzt bearbeitet:
Instant Reply:

Wenn ich mir anschaue, dass die Preise fuer X570er Platinen (die mit dem Luefter) da beginnen, wo die Vorgaenger aufgehoert haben, kann ich diesen Optimismus nicht teilen.
 
Ich bin ja mal gespannt ob die 5700XT in den spielen dann genauso durchwachsen da stehen wird wie die anderen AMD Grafikkarten z.B. Radeon 7 wo man dann in einem spiel gleichziehen kann aber in sehr viel anderen Spielen einfach ne klatsche bekommt.
Auch der Verbrauch ist interessant weil wenn Navi da mit 7nm mehr verbraucht als Turing ist das für mich ein fail.

Man muss ja bedenken das NV auch bald mit 7nm kommt und dann AMD wieder total abhängen würde wenn jetzt nur gleichzieht
 
Du warst ja einer der größten Speicherkritiker. Also empfindest du die 8GB VRAM bei Navi auch als zu wenig, wie schon bei Turing, oder reagierst du einfach nur pissig, weil es jetzt um AMD geht?

Ich sage es weil ich es meine!
Für ne Karte die ne 2060 angreifen soll sind 8 GB wohl noch ok.
Alles darüber sollte 10 GB haben... mindestens. Ne 2080 Ebenso, eher sogar etwas mehr. Und im Grunde sollte ne 2080 Ti 14 oder mehr GB haben.
Aber Nvidia rafft es einfach nicht, und AMD macht den Dreck jetzt auch noch teilweise mit. Selbst ihre "Super" Karten werden nicht mehr Speicher haben. Dabei wissen sie ja was sie falsch gemacht haben, da sie die 1080 Ti sofort vom Markt genommen haben, weil die ihre tolle neue 2080 verdrängt hätte.
Ich kann da nur noch den Kopf schütteln.
 
Glaube AMD und Nvidia werden schon mehr Ahnung von VRAM Bedarf haben, als wir Forencowboys hier.
Sie produzieren ja auch für die Masse der Leute, nicht für einzelne, die irgendwelche Obskuren Sondersituationen provozieren, nur um "ha! Sag ich doch!" - sagen zu können.
Und die breite Masse will für die paar Einzelpersonen sicher nicht kollektiv den Aufpreis für unbenutzten Speicher zahlen.
 
Geil wie sich hier viele schon das Maul zerreissen wie geil oder bescheiden Navi wird... Dabei ist noch keine einzige Karte im Handel :d

Abwarten, ich bin sehr gespannt ob Navi ein Reinfall wie Vega wird oder ob AMD was Preis, Performance und insbesondere die Effizienz die Kurve kriegt.
 
Hat NV es jemals anders gemacht mit dem VRAM? Die haben den Vram doch immer an der Kotzgrenze gebracht und einzig die Titan hatte dann ordentlich VRAM. Dafür hat NV aber eben Leistung und Effizienz aber AMD hat da regelmäßig abgekotzt.
die letzte AMD karte die gut war war doch eigentlich nur die 7970 mit super OC potenzial und guter Leistung.
Ich würde mir wünschen das AMD da eine Karte bringen würde die so gut ist wie damals die 9800pro/XT weil das ist eine karte die einfach fantastisch war
 
die letzte AMD karte die gut war war doch eigentlich nur die 7970 mit super OC potenzial und guter Leistung.
Dankeschön!

Die 7970 hat bei mir 6 Jahre lang gehalten und wäre selbst heute noch für 1080p auf 60 FPS zockbar (mit leichtem tuning, aber hey - es ginge). Es war eine der besten Karten für die Zeit und im Vergleich mit der damaligen Konkurrenz war sie die bessere Karte - sowohl von der Leistung, als auch vom Preis.

Gekauft wurde aber gün, grün, grün. Das war der Punkt, wo AMD trotz konkurrenzfähiger Produkte keine Knete mehr hatte um genug Geld in R&D zu stecken, um noch mit Nvidia mithalten zu können und die Geschichte nahm ihren Lauf. Von daher hab ich kein Mitleid für die Leute, die sich über Nvidias (und jetzt auch AMDs) Preise aufregen. Wir haben diesen BS erzeugt, jetzt zahlen wir dafür.

PS: Betriebswirtschaftlich müsste AMD die Desktop-Sparte komplett einstellen und sich nur noch auf die alternativen Platformen konzentrieren. Aber irgendwie haben die noch Mitleid mit uns PC-Deppen. Muss wohl irgendwas romantisches sein, jede andere Aktiengesellschaft hätte diese Sparte abgestoßen.
 
Zuletzt bearbeitet:
Glaube AMD und Nvidia werden schon mehr Ahnung von VRAM Bedarf haben, als wir Forencowboys hier.
Sie produzieren ja auch für die Masse der Leute, nicht für einzelne, die irgendwelche Obskuren Sondersituationen provozieren, nur um "ha! Sag ich doch!" - sagen zu können.
Und die breite Masse will für die paar Einzelpersonen sicher nicht kollektiv den Aufpreis für unbenutzten Speicher zahlen.
Ruckler zu bekommen ist ganz sicher keine obskure Sondersituation. Von Nvidia erwarte ich Weitsicht bei sowas, eben weil sie sowas wie GSync vermarkten. Solche Karten sollen ja auch ein paar Jahre halten, wenn sie schon so unverschämt teuer sind. Dass sie damit Unsinn gebaut haben, sieht man ja jetzt. Nur Wenige sehen einen Mehrwert gegenüber der letzten Generation.
Ich denke die wollten einfach nur auf Teufel komm raus was neues (teures) haben (GDDR6), aber dem Kunden bringt es nichts, wenn sie dadurch weniger Speicher haben.
Auch bei den "Super" wird ja scheinbar nur der Speicherdurchsatz erhöht. Wieder vorbei am Kundenwunsch.
 
Ruckler kommen nicht nur von VRAM der sich langweilt. Auch die CPU und die Power Settings können schuld sein.
Hatte sogar in Borderlands 2 Ruckler, mit 11gb VRAM, obwohl davon 9gb frei waren. Ging einwandfrei mit nem 4790k, ging einwandfrei mit Hochleistungsmodus, aber mit 2700X und "Balanced Energy" droppen die Frames wie Fliegen.

Nochmal: Nvidia und AMD werden besser wissen wie viel nötig ist. Du schätzt das sicher zu hoch ein, ich schätze es sicher zu low ein. Glaube kaum, dass überhaupt 6gb benötigt werden, da belegt =! benötigt.
Es gilt einfach, dass mehr halt mehr ist, aber nicht zwingend auch besser.
Wenn mir einer der zwei Vereine die Wahl lassen würde, ob ich 8gb oder 16 nehme, beim selben Preis, würde ich natürlich auch mehr nehmen. Aber wenn die 8GB Variante baugleich wäre und 100 Euro billiger, würde ich die billigere nehmen.
In der Realität kostet der VRAM halt Geld und keine der zwei wird das verschenken, sondern genau hochrechnen was gebraucht wird, passend zur Leistung.

Das, oder alle professionellen GPU Hersteller sind einfach dumm und sollten sich hier im Forum beraten lassen!
 
Das, oder alle professionellen GPU Hersteller sind einfach dumm und sollten sich hier im Forum beraten lassen!

Genau das! Ich hab da so einen neuen Chip entwickelt. Sieht zwar aus, wie ne Drahtvogelscheuche mit viel Heißkleber und irgendwo hängt da auch noch ein USB-Stick dran, aber ich hab 256GB VRAM!

btw - Die neue Anti-Lag Geschichte soll die pre-gerenderten Frames auf 1 reduzieren. Das funktioniert auch - aber nur so lange, wie die CPU die Draw-Calls locker stemmen kann. Bedeutet: Optimierte Spiele mit offener Kernunterstützung mit Vulkan/DX12 (und nicht nur n blöder Wrapper drum rum) mit mindestens nem 8 Kerner, besser noch 12 - 16 Kerne.

Kommt einem das Lineup irgendwie bekannt vor? ;)
 
PS: Betriebswirtschaftlich müsste AMD die Desktop-Sparte komplett einstellen und sich nur noch auf die alternativen Platformen konzentrieren. Aber irgendwie haben die noch Mitleid mit uns PC-Deppen. Muss wohl irgendwas romantisches sein, jede andere Aktiengesellschaft hätte diese Sparte abgestoßen.
Nö, mit den PC-Deppen kann man potentiell ordentlich Marge machen, mit Sony und Microsoft nicht
 
Hmmm ... als Midrange/Performance Karten geht die Entwicklung wohl in die richtige Richtung
Die Preise hat AMD wohl nach NV ausgerichtet, schade, ... gerade noch eine Spur günstiger als das jeweilige Konkurrenzprodukt

Und die TDP sieht für mich auch wieder so aus als hätte man die MHz nach oben gefahren um gegen die Konkurrenz anzustinken, auf Kosten der Effizienz.

Ich hoffe dieses Jahr kommen noch kleinere Brüder mit der neuen Architektur. Sprich so etwas wie RX 5600 mit weniger Units und unter 150W damit nur 1 x 6 Pin ausreicht.
Weiß da schon jemand etwas ?
 
Nö, mit den PC-Deppen kann man potentiell ordentlich Marge machen, mit Sony und Microsoft nicht

Eben nicht, wie man an Vega gesehen hat. Und die RX480/580 wären ohne Mining Hype auch nicht wirklich ertragreich gewesen. Kann man ja an den veröffentlichten Zahlen von AMD ablesen. Die Konsolen hingegen bieten eine ständige und sichere Einnahmequelle.
 
Dankeschön!

Die 7970 hat bei mir 6 Jahre lang gehalten und wäre selbst heute noch für 1080p auf 60 FPS zockbar (mit leichtem tuning, aber hey - es ginge). Es war eine der besten Karten für die Zeit und im Vergleich mit der damaligen Konkurrenz war sie die bessere Karte - sowohl von der Leistung, als auch vom Preis.

Gekauft wurde aber gün, grün, grün. Das war der Punkt, wo AMD trotz konkurrenzfähiger Produkte keine Knete mehr hatte um genug Geld in R&D zu stecken, um noch mit Nvidia mithalten zu können und die Geschichte nahm ihren Lauf. Von daher hab ich kein Mitleid für die Leute, die sich über Nvidias (und jetzt auch AMDs) Preise aufregen. Wir haben diesen BS erzeugt, jetzt zahlen wir dafür.

PS: Betriebswirtschaftlich müsste AMD die Desktop-Sparte komplett einstellen und sich nur noch auf die alternativen Platformen konzentrieren. Aber irgendwie haben die noch Mitleid mit uns PC-Deppen. Muss wohl irgendwas romantisches sein, jede andere Aktiengesellschaft hätte diese Sparte abgestoßen.

Ja ich wundere mich auch das AMD die desktop Sparte noch weiter führt.
AMD müsste quasi ein chiplet Design bei den GPUs hinbekommen weil dann könnten sie NV genauso unter Druck setzen wie sie es bei den CPUs mit intel machen.

Überlegt mal was wäre wenn man zwei 5700er Navi zusammenschalten könnte. Da hätte man erstmal 4600shader und würde der 2080ti ordentlich einheizen
 
Zuletzt bearbeitet:
Eben nicht, wie man an Vega gesehen hat. Und die RX480/580 wären ohne Mining Hype auch nicht wirklich ertragreich gewesen. Kann man ja an den veröffentlichten Zahlen von AMD ablesen
Ich sagte potentiell. Dafür, dass es AMD in der Praxis seit geraumer Zeit nicht mehr mehr hinkriegt, kann der Mark nichts

Die Konsolen hingegen bieten eine ständige und sichere Einnahmequelle.
Eine sichere Einnahmequelle mit einer zu geringen Marge für ein börsennotiertes Unternehmen im Technologiebereich
 
Zuletzt bearbeitet:
Tech Enthusisast:
Ich rede aber von Rucklern die von zu wenig VRAM kommen. Was soll so eine Ausrede?
8 GB bekam man schon 2016 voll und es ruckelte, wenn man zu wenig hatte. Und plötzlich sind 6 GB wieder genug? Alles klar.

Die Hersteller fragen ja auch nach. Sonst würde ja jetzt kein "Super" kommen, sonst hätten die ihren 3,5 GB Scheiß weiter gemacht, sonst hätten die weiter Unsinn mit Benchmarks betrieben, sonst hätten die Fehler bei GSync nicht berichtigt, und und und. Aber richtig verstanden haben sie es trotzdem noch nicht, oder haben sich so verschätzt, dass sie jetzt nicht anders können, eben weil GDDR6 so teuer ist. Zurück auf GDDR5? Wohl kaum.
Fehler machen die nun echt genug und geben das auch zu, wenn man denn zwischen den Zeilen lesen kann (siehe mein 1080 Ti Beispiel), die von den Nutzern auch fast immer zuerst angesprochen oder herausgefunden werden. Das mit so einem dämlichen Spruch lächerlich machen zu wollen ist schade, um es freundlich auszudrücken.
 
Eine sichere Einnahmequelle mit einer zu geringen Marge für ein börsennotiertes Unternehmen im Technologiebereich

Die Marge ist kleiner, die Anzahl ist höher. Im Dektop Bereich ist die Anzahl geringer, entsprechend müsste die Marge höher sein. Ist aber beides mau. Aber ja, als börsennotierte AG müsste AMD diesen Bereich als unprofitabel rauskanten. Das würde den anderen Herstellern aber nicht gefallen, da es dann keine günstigen GPUs mehr gibt. Rein theoretisch müsste AMD da 3-4 Jahre Pause machen und im Hintergrund wie sie es bei Zen gemacht haben eine völlig neue GPU Schiene entwickeln. In der Übergangszeit dürfen Microsoft/Sony etc dann den 4-fachen Preis für ne Nvidia Lösung bezahlen und danach sind sie bestimmt wieder bereit moderate Preise für AMDs Lösungen zu bezahlen.
 
Und die 5700XT währe demnach wirklich die bessere Wahl mit ihren 225W als die RTX2070 mit ihren 175W weil Nvidia im Preis viel höher liegt.


So viel teurer sind die RTX 2070 nun wirklich nicht. Die 449 USD (Referenzedesigne) sind ohne Steuern, wieviel hier aufgeschlagen (oder überhaupt) wird muß man erst abwarten. Eine Custom RTX 2070 bekommst man ja auch schon für 468€.
Zotac Gaming GeForce RTX 2070 AMP Extreme Core ab Preisvergleich Geizhals Deutschland

Wenn die wirklich so nah zusammen sind (PL), dann wird eh die Vorliebe entscheiden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh