AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Aber für 300€ habe ich noch nie eine High End Karte bekommen. Also welche soll das denn genau gewesen sein? Also High - End, nicht obere Mittelklasse oder so ?!
300 kann ich mich auch nicht recht erinnern aber so knapp drüber war High End schon mal zu bekommen, wenn mich nicht alles täuscht war meine sapphire vapor-x 5870 ende 2009 bei ~330 Euro und meine Powercolor 7970 Anfang 2012 bei ~ 360
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eine 6870 gabs sogar für deutlich unter 300 Schleifen, das war damals Highend von AMD

Beitrag automatisch zusammengeführt:

Im Gegensatz zu dir und anderen kann ich kein Geldscheißen ^^

Ich muss auf die Finanzspritze noch warten xD

Nicht böse aufnehmen aber ist eben so.

Tu ich nicht kann leider auch kein Geld scheißen 😰
 
Zuletzt bearbeitet:
ich mache hier jetzt mal einen vergleich von (noch) gcn skalierung zu navi skalierung.

rx 590: 2304 shader, 144 tmus, 32 rops bei 1469mhz
rx 570: 2048 shader, 128 tmus ,32 rops bei 1168mhz

die rx 590 hat 12,5% mehr shader, wurde in 12nm statt 14nm gefertigt und schafft dadurch ~125% mehr takt
die rx 590 hat 25% mehr leistung als die rx 570. heißt hier mit gcn eine theoretische leistungssteigerung von 100 * 1,125 * 1,25 = ~141% effektiv nur 125%.
skaliert also mit 13% weniger als erwartet.

das skalierungsmanko von gcn zu rdna sollte verschwunden, oder zumindest verringert sein.

nach aktuellen infos wird rdna2 gegenüber rdna mehr takt schaffen und eine ipc steigerung von 10-15% haben.
bei den epyc prozessoren wurde mit dem 7nm+ prozess gegenüber dem 7nm prozess sogar bis zu 20% erreicht.


jetzt erstellen wir einmal zwei fälle, einen pessimistischen und einen optimistischen:

ausgangsbasis:
rx 5700 xt 2560 shader und 1800mhz basistakt
rx 6900 xt 5120 shader und 2100mhz basistakt

pessimistisch:
rdna skaliert genauso schlecht wie gcn und ohne ipc steigerung

100 * 2 * 1,167 / 1.13 = 180% der leistung zur rx 5700 xt -> 20% mehr leistung als eine 2080ti

optimistisch:

rdna skaliert 80% besser mit 15% ipc steigerung

100 * 2 * 1,167 * 1,15 / 1,03 = 260% der leistung zur rx 5700xt -> 74% mehr leistung als eine 2080ti


selbst im pessimistischen fall ist die 6900xt besser als die rtx 3070 die nur etwas oberhalb der 2080ti liegen soll, aber unterhalb der rtx 3080.
im prinzip liegt sie genau zwischen beiden karten, nach bisherigen infos.
im optimistischen fall liegt bn über der rtx 3080 aber hinter der 3090.

daher halte ich es für sehr unwahrscheinlich, daß die rx 6900xt nur rtx 3070 nievau haben soll.
die meisten haben wohl auch die rtx 3080 als die 2080ti ablösung gesehen. die titan rtx ist vielleicht gerade mal 4% schneller als die ti.
nvidia hat in meinen augen die 3090 monströsität erschaffen um weiterhin die leistungsstärkste grafikkarte zu haben und um oben auf dem thron zu bleiben.

die rx 6900 xt wäre gegen die rtx 3080 im optimistischen fall schon ein geforce killer gewesen. hat mehr speicher, ist schneller und verbraucht weniger strom.
zur raytracing performance lässt sich leider noch nichts sagen, und so etwas wie dlss kommt wohl auch noch nicht.

ich denke weiterhin, daß bn der konkurrent zur rtx 3080 ist.
pro bn: mehr ram, mehr leistung, weniger stromverbrauch, geringerer preis
contra bn: kein dlss

ob einem dlss jetzt 200€ wert ist, muss dann jeder selber wissen.
 
Das momentan von AMD so wirklich gar nichts an Informationen kommt kann wohl nur damit zusammenhängen das sie die Tests der neuen Nvidia Grafikkarten abwarten wollen. Da sehe ich aber ein kleines Problem, die Tests sollen ja nur die 3080 und 3090 enthalten und die Tests der 3070 werden ja wohl erst zur Veröffentlichung in Oktober erfolgen. Sollten keine Leaks von AMD nach den Nvidia Tests jetzt im September erflogen werden die Karten wohl erst Oktober / November erscheinen.

Achtung das nachfolgende kann schwarzen Humor und / oder Sarkasmus enthalten. Bitte nicht zu ernst nehmen.

Das man von AMD nichts hört könnte aber auch daran liegen das sie erst mal eine andere Priorität gesetzt haben. Die neuen Fahrräder zu veröffentlichen.

https://www.nach-welt.com/amd-schlagt-nvidia-zuruck-indem-er-fahrrader-freigibt/

Die Räder kann man leider nur in den USA kaufen.

https://amdfanstore.com/amd-custom-cruiser-bike/
 
Die Räder kriegst du an jeder Tanke mit Bonuspunkten. Meiner Meinung nach eine Schande, dass da überhaupt ein AMD-Logo draufklebt.
 
@Mordrac
Fürchte deine Rechnung könnte einen Haken haben:
Das Schaderverhältnis zwischen RX 570 und 590 ist halt eben nicht 200%
Die Leistungskurve flacht leider oft ab mit der Breite des Chips ab bzw. es ist nicht trivial die massive Leistung auch verfügbar zu machen.
 
Die Räder kriegst du an jeder Tanke mit Bonuspunkten. Meiner Meinung nach eine Schande, dass da überhaupt ein AMD-Logo draufklebt.

Spiegelt nur den Qualitätsanspruch von AMD wieder
 
@Mordrac
Fürchte deine Rechnung könnte einen Haken haben:
Das Schaderverhältnis zwischen RX 570 und 590 ist halt eben nicht 200%
Die Leistungskurve flacht leider oft ab mit der Breite des Chips ab bzw. es ist nicht trivial die massive Leistung auch verfügbar zu machen.

ok, die 3070 hat einen die größe von 392mm² und die 3090 von 628mm².
das sind 60% mehr die größe bei der 3090.

die 3070 hat ca. 20 tflops leistung und die 3090 ca. 35 tflops leistung.
das sind dann 75% mehr leistung?

wiederspricht deiner aussage hier auch etwas. demnach müsste es mit der chipgröße ja schlechter skalieren, aber es ist, "oh wunder", mehr.
aber bei amd wäre das natürlich nicht möglich?

@nvidia
ich lasse mich für eine 3090 kaufen und mache dann auch amd schlecht :whistle:
 
Die 3070 hat auch anderen Speicher verbaut und natürlich ist die reine Größe eines Chips nur einer von vielen Faktoren.
Da kann man nicht so einfach rumrechnen und meinen damit ne Vorhersage machen zu können, sorry.

Nahezu nichts funktioniert linear. Das ist die einzige Info, die man als gesichert annehmen kann.
Welchen Verlauf die Kurven bei Größe, Strom, Transistorendichte - Menge, usw. nehmen, ist aber bestenfalls geraten. Und da GPUs bei +30% ja schon als Flopp gelten und ab +40% als "toll" manchmal, sind so kleine Verschätzer dann der Unterschied zwischen "eine GPU für die Tonne" und "ein Flagshipkiller!".

Es macht Spaß rumzurechnen, aber die Ergebnisse sind dann doch kaum besser als ne Glaskugel zu bemühen leider. ;-)
 
Nur stur auf das Maximum zu schauen ist mir zu wenig, bzw. sehe ich nicht als einziges sinnvolles Ziel an.
Aber eine billigere GPU zu kaufen, nur weil ich AUCH Games ohne hohe Anforderungen spiele, ist auch wieder am Ziel vorbei.
Beim Grundgedanken bin ich bei dir, so habe ich das bei alten GPUs auch gemacht, da hat das noch gelohnt. Aber bei modernen GPUs (spätestens seit Pascal) funktioniert das leider nicht mehr so wirklich. Unter Volllast ja, dann geht das wunderbar, bei sehr geringer Last (alte Games) jedoch nicht soweit ich weiß. Du kannst das Bios nicht mehr verändern, damit bleiben dir nur die lächerlichen Möglichkeiten auf Software Ebene. Damit kommst du jedoch nur bis 0,8V runter... (zumindest bei Pascal). Korrigiere mich wenn ich falsch liege, aber wenn du manuell in die Curve (MSI Afterburner) eingreifst, funktionieren unter geringer Last die Stromspar-Funktionen nicht mehr so wie vorgesehen. Wenn ich bei meiner Pascal Karte alles auf stock lasse geht die bei Portal 2 auf 1100 Mhz und 0,68V runter. Sowas kann man nicht mehr (sinnvoll) selbst bewerkstelligen. Daher macht es aus Stromsparperspektive bei geringer Last meist Sinn gar nichts zu machen, die Nvidia GPUs machen das schon wunderbar selbst.

Habe das genau aus diesem Grund nicht mehr wirklich selbst versucht bzw. es ist lange her, daher bin ich mir nicht mehr 100%ig sicher, aber es müsste eig. so sein. Heutige Hardware funktioniert in beide Richtungen out of the Box so gut, dass man da gar nicht mehr wirklich viel optimieren kann :( 🤷‍♂️
 
Zuletzt bearbeitet:
Das momentan von AMD so wirklich gar nichts an Informationen kommt kann wohl nur damit zusammenhängen das sie die Tests der neuen Nvidia Grafikkarten abwarten wollen. Da sehe ich aber ein kleines Problem, die Tests sollen ja nur die 3080 und 3090 enthalten und die Tests der 3070 werden ja wohl erst zur Veröffentlichung in Oktober erfolgen. Sollten keine Leaks von AMD nach den Nvidia Tests jetzt im September erflogen werden die Karten wohl erst Oktober / November erscheinen.

Achtung das nachfolgende kann schwarzen Humor und / oder Sarkasmus enthalten. Bitte nicht zu ernst nehmen.

Das man von AMD nichts hört könnte aber auch daran liegen das sie erst mal eine andere Priorität gesetzt haben. Die neuen Fahrräder zu veröffentlichen.

https://www.nach-welt.com/amd-schlagt-nvidia-zuruck-indem-er-fahrrader-freigibt/

Die Räder kann man leider nur in den USA kaufen.

https://amdfanstore.com/amd-custom-cruiser-bike/

Vllt ist an der Annahme von @Holzmann ja etwas dran. Also das AMD zwar wusste, dass Ampere ein besseres P/L Verhältnis als Turing haben wird, aber vllt haben sie hier Preis und/oder Leistung unterschätzt und versuchen nun, in der Kürze der Zeit mit der Brechstange (durch mehr Powertarget, Takt, usw.), noch etwas Boden gut zu machen. Halte ich für gar nicht so unwahrscheinlich, da hier wohl, in moderatem Bereich, keine Hardwareanpassung notwendig sein sollte.
 
Zuletzt bearbeitet:
Stimmt leider.
Es gibt nicht viele Möglichkeiten da einzugreifen.

Ich habe aber ganz gute Erfahrungen mit Powertarget gemacht.
Gar nicht die Kurve, die lasse ich stock. Einfach nur das Powertarget auf 55%. Dann macht die GPU ihr Ding und bleibt sehr kühl.
Mit dem Temptarget war nicht ganz so erfolgreich, weil sie dann voll boostet bis die Temperatur erreicht ist und dann geht das auf und ab,...

Aber selbst mit 55% boostet die 2080ti noch auf 1820 bei mir. Die Leistung ist also gar nicht so extrem betroffen, aber die Temperatur sinkt relativ dramatisch.
Speicher habe ich trotzdem auf +1000, weil das bei Turing irgendwie stressfrei geht und weder temp noch power zu beeinflussen scheint.
 
Neee, nicht in Lager verschanzen und mit Kacke bewerfen, das lohnt nicht :d
Jeder Hersteller hat schonmal Mist gebaut.

Zum Thema Highend: die 4870 habe ich damals für ~300€ gekauft, wunderbares Geschoss. Crysis oder Farcry (habs vergessen welches) lief so geschmeidig damit :drool:.
 
Die Geduld in diesem Forum entspricht mittlerweile 3jährigen Kindern. Wartet doch einige Wochen was kommt, anstatt in der Glaskugel zu stochern. Mich persönlich hauen die Nvidia-Karten nicht vom Hocker, entweder sind sie zu stromhungrig oder der Speicher beschnitten. Bis alle Karten auf dem Tisch sind, mache ich es mir gemütlich.
 
Gar nicht die Kurve, die lasse ich stock. Einfach nur das Powertarget auf 55%. Dann macht die GPU ihr Ding und bleibt sehr kühl.
Jap, das wäre die aus oldschool/Perfektionisten Sicht die quick & dirty Lösung. Da man keine anderen Optionen mehr hat ist das sicher eine gute Möglichkeit. Mich stört halt dass man damit kein Undervolting mehr hin bekommt... nicht total kritisch da die von dir beschriebene Maßnahme ja auch funktioniert... aber irgendwie fehlt mir da was :d Das hat halt irgendwie nichts mehr von Optimierung...

Andererseits würde auch niemand mehr ab Pascal auf die ~30 Taktstufen freiwillig verzichten wollen, gleichzeitig würde aber auch niemand mehr für 30 Stufen die passende Spannung ermitteln wollen 😵
 
Genau, ich will Hate ich will Fanboys, bitte lasst nichts aus ... :fresse:

Jetzt nicht schmollen, denn eigentlich sollte jeder NV Freund auch ein weinendes Auge haben, weil NV sich immer weiter von AMD distanzieren kann. Das treibt natürlich die Preise. Kann ja keiner wollen.
Deswegen, ich bin zumindest nicht für den Niedergang von AMD im GPU-Segment. Aber vielleicht gliedern sie es einfach mal wieder ein Unternehmen aus, was ATI heißt und holen mal ein paar neue Leute von der Konkurrenz. Angriff ist vielleicht hier auch die beste Verteidigung? Einfach mal etwas Unerwartetes tun?
Klar kann sich auch einer ausrechnen bei AMD, was wollen "die" denn alle? Wir haben doch 1.000.000 Deckungsbeitrag, wo ist das Problem.
 
Jap, das wäre die aus oldschool/Perfektionisten Sicht die quick & dirty Lösung. Da man keine anderen Optionen mehr hat ist das sicher eine gute Möglichkeit. Mich stört halt dass man damit kein Undervolting mehr hin bekommt... nicht total kritisch da die von dir beschriebene Maßnahme ja auch funktioniert... aber irgendwie fehlt mir da was :d Das hat halt irgendwie nichts mehr von Optimierung...

Andererseits würde auch niemand mehr ab Pascal auf die ~30 Taktstufen freiwillig verzichten wollen, gleichzeitig würde aber auch niemand mehr für 30 Stufen die passende Spannung ermitteln wollen 😵

Jup.
Nimmt etwas den Spaß der Optimierung, aber liefert dafür die maximale Leistung für jeden Kunden, out of the box.
 
Intel steht doch bereit. Nach über 20 Jahren mal wieder mit eigener Grafikkarte. i740 oder so war doch der letzte?! Kann AMD 20 Jahre Kreativ Pause machen
 
Bei Intel war aber auch schon das Gerücht, dass sie die GPU Idfee bereits wieder aufgegeben haben und nur die schon verkauften gewerblichen Dinge umsetzen.
Glaube nen Super Computer oder zwei,...

Aber bestätigt ist das auch nicht (soweit mir bekannt).
 
Oh Mann bin ich froh das mein neuer 3 Drucker mich noch so auf Trab hält, sonst hätte ich schon irgend was dummes gemacht.

Die 5700er Karten sind jetzt nicht so pralle, da hört man immer wieder von Problemen. Habe mich entschieden erst mal einen neuen Monitor zu kaufen, 27 Zoll, WQHD und 144 Hz sollten es schon sein.

Bis ich dann wieder gespart habe gehen nochmal ein paar Monate ins Land und dann werden sich die Gemüter beruhigt haben. Dann gibt es auch genügend Erfahrungsberichte und man kann sich in Ruhe entscheiden.

Hoffentlich gibt es nicht wieder einen Mining Boom, dann kann man sich von günstigen Preisen wieder verabschieden.

Na ja ein neues Gerücht oder Leak gibt es ja schon über die 4 Generation von AMDs CPUs, da soll wohl was mit 10 Kernen kommen.

Ach ist das alles momentan so richtig schön spannend!
 
Nun, mehr Leistung ist (für mich) immer gut. Nvidia hat mit seiner Vorstellung (mich) nicht enttäuscht. Somit hat AMD jetzt genau 2-3 Wochen Zeit, mir eine Alternative anzubieten oder mich glaubhaft davon zu überzeugen, noch zu warten.

Ich habe es schon bei vielen neuen Generationen geschrieben: Den letzten beißen die Hunde. Ich schätze die Situation bleibt im Vergleich der letzten 5 Jahre unverändert. AMD bietet ein gutes P/L und die beste Karte im Mittelfeld, wer aber mehr möchte kommt um Nvidia nicht drum herum.

@KurzGedacht :

Dazu hätte ich gerne mal einen Beleg von dir. Ich kann mich noch daran erinnern, was mich eine 7900 oder 8800 zu Release gekostet haben. Selbst an GeForce 3Ti und Radeon 8500 und später 9700/9800 kann ich mich noch eingermaßen erinnern.

Aber für 300€ habe ich noch nie eine High End Karte bekommen. Also welche soll das denn genau gewesen sein? Also High - End, nicht obere Mittelklasse oder so ?!

Naja kommt zugegeben darauf an wie man High End definiert. Für mich ist High End die Stelle kurz bevor man lächerliche 60-100% Aufpreis für die letzten 20-30% Performance einer Architektur bezahlt.
Alles drüber ist halt einfach nur unvernünftig, außer man verdient mit den Dingern Geld und braucht die Leistung tatsächlich.

Also: 3080 ist High End , 3090 oder Titan unvernünftig. Tesla würde es Ludicrous Nennen.
 
Es kamen mit den Jahren auch immer mehr GPU Stufen pro Generation (zumindest bei NVidia).
Also wenn da nach unten und oben die Abstufungen erweitert werden, darf man auch ruhig mal seine Definition updaten.
Was "damals" High-End war, wäre heute mid-range. Nicht nur wegen der Leistung, sondern auch weil es heute einfach weiter nach oben geht (inklusive dem dazugehörigen Preis).
Das Gleiche gilt aber auch "nach unten". Da sind teilweise ja alle 20 Euro ne neue GPU Stufe jetzt.

Gut wäre es allerdings, wenn AMD hier mit BigNavi auch so liefert. Also von 6300, 6400, 6500, 6600, 6700, 6700XT usw.
Da dürfen schon GPUs im 100, 150, 200, 250, 300, 400, 500, 700, 1000 Euro Segmenten sein.
Mehr Auswahl ist immer gut, weil es so viele unterschiedliche Anforderungen gibt.

Einfach nur 2 oder 3 GPUs auf den Markt hauen und sagen "Low-End ist GPU A bei 300 Euro, Mid-Range ist GPU 2 bei 500 Euro und dann kommt GPU 3 mit 700 Euro!" ist sicher nicht genug.
Da wird es ohne Frage genug Leute geben, denen die GPU für 700 zu klein wäre, oder die für 300 zu dick.
 
Jetzt nicht schmollen, denn eigentlich sollte jeder NV Freund auch ein weinendes Auge haben, weil NV sich immer weiter von AMD distanzieren kann. Das treibt natürlich die Preise. Kann ja keiner wollen.
Deswegen, ich bin zumindest nicht für den Niedergang von AMD im GPU-Segment. Aber vielleicht gliedern sie es einfach mal wieder ein Unternehmen aus, was ATI heißt und holen mal ein paar neue Leute von der Konkurrenz. Angriff ist vielleicht hier auch die beste Verteidigung? Einfach mal etwas Unerwartetes tun?
Klar kann sich auch einer ausrechnen bei AMD, was wollen "die" denn alle? Wir haben doch 1.000.000 Deckungsbeitrag, wo ist das Problem.
Make ATI great again ? :fresse:
 
@Mordrac
Andere Architektur zwischen vega und rdna.
Dual CU FrontEnd im Gegensatz zu Vega https://www.hardwaretimes.com/amd-navi-vs-vega-differences-between-rdna-and-gcn-architecture/
Rdna 2 dürfte nochgmal anders sein, alleine schon wegen den Raytracing Einheiten und TextureUnits.

Es hat schon Gründe warum Jensen und co. die rtx 3090 24 GB nicht wieder für $ 2500 anbieten und die 3080 "nur" den gleichen teuren Preispunkt hat wie bereits rtx 2080.

Überlege gerade: Kommt rdna 2 im Oktober mit Hbm-Speicher, wäre es jedenfalls für mich nicht relevant wenn Partnerkarten erst 3 Monate später erscheinen.
Auf die Karte kommt einfach ein neuer Morpheus 2.
 
@Mordrac
Andere Architektur zwischen vega und rdna.
Dual CU FrontEnd im Gegensatz zu Vega https://www.hardwaretimes.com/amd-navi-vs-vega-differences-between-rdna-and-gcn-architecture/
Rdna 2 dürfte nochgmal anders sein, alleine schon wegen den Raytracing Einheiten und TextureUnits.

Es hat schon Gründe warum Jensen und co. die rtx 3090 24 GB nicht wieder für $ 2500 anbieten und die 3080 "nur" den gleichen teuren Preispunkt hat wie bereits rtx 2080.

Überlege gerade: Kommt rdna 2 im Oktober mit Hbm-Speicher, wäre es jedenfalls für mich nicht relevant wenn Partnerkarten erst 3 Monate später erscheinen.
Auf die Karte kommt einfach ein neuer Morpheus 2.

ich weiß, da aber ständig argumentiert wird, daß rdna wohl so schlecht skalieren soll wie gcn und gerade mal 3070 niveau erreichen soll, habe ich das durchgerechnet und komme zu dem schluss, daß selbst im schlechtesten fall bn immer noch 20% über der 3070 liegt. ich sehe bn aber eher optimistisch entgegen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh