AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Ich glaube eine ~ 900€ 3080 mit 20GB Speicher würde sich schwer vermitteln lassen wenn AMD eine 16 GB Karte mit einer ähnlichen Leistung zum Preis der 3080 10GB Variante raushaut!
Und wenn dann der 7nm Refresh mit den "Super" oder "Ti" Versionen kommt, wer hat dann gerne bei der 900€+ Variante zugeschlagen? +3% mehr Performance für +200€? Bei ohnehin kaum vorhandener Lieferung? Mit nahezu null Leistungszuwachs bei einer Karte mit ner Halbwertszeit von ~3-4 Monaten? Egal - kaufen, kaufen, kaufen!

"Die armen Irren die ihr hart gespartes Geld für nen 2-Takter Porsche versemmeln. Bemitleidet doch bitte die Unfähigkeit zur reflektierten Kaufentscheidung!" Oder so... whatever.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und wenn dann der 7nm Refresh mit den "Super" oder "Ti" Versionen kommt, wer hat dann gerne bei der 900€+ Variante zugeschlagen? +3% mehr Performance für +200€? Bei ohnehin kaum vorhandener Lieferung? Mit nahezu null Leistungszuwachs bei einer Karte mit ner Halbwertszeit von ~3-4 Monaten? Egal - kaufen, kaufen, kaufen!
Da werden sich schon dumme finden lassen :d
Erst letztens hat jemand über 2200 Dollar für eine 3090 bezahlt, also Opfer.. äh Kunden, findet man bestimmt dafür.
Die würden vermutlich auch für eine umgelabelte 3090 über 2000 Euro bezahlen wenn da Titan statt 3090 drauf steht :bigok:
 
Jupp - ehrlich gesagt: Lass sie doch. Deren Geld. Ich hab meine eigene Vorstellung (und die ist ehrlich gesagt schon überzogen, denn alles >500€ für ne GPU ist eigentlich schon krank)

Einfach ehrlich sein: Man hat Bock auf ne 3090 und gibt nen Haufen auf den Preis. Wer das mit P/L rechtfertigen will - nun ja, da gibts Beratungsstellen für.
Wer Bock auf BFN hat: Der kauft es halt, weil er Bock auf BFN hat (meine Wenigkeit)

Ansonsten gilt: Man hat nen Monitor mit einer Auflösung x und einer Refresharate y - da gibbet dann Benches für die einem sagen, was da grad so paßt und fertig ist der Fisch. Evtl. ist die persönliche Preisgrenze unter dem, was im Bench steht, dann wird halt etwas DLSS oder Fidelity-FX aktiviert und dann paßt das auch.

Rest ist Egomanie - egal wie sehr der Wurm sich winden möchte um sich in die "Aber ich bin völlig normal! so würde jeder das machen!" Schublade zu stecken, um nicht als "auffällig" zu gelten. Denn mal ehrlich: Jeder der hier mitliest und postet ist "auffällig" - und das ist okay, denn es ist n Hobby. Ich finde auch Leute die 50 shades of grey gelesen oder geguckt haben für "auffällig" - von daher.
 
Na dann... noch 6 Tage?
Hoffen wir mal das die Twitch Übertragung dieses mal nicht Dosentelefonaudio hat.

Und damit wäre der Rant des Tages erledigt :-)
 
Jupp - ehrlich gesagt: Lass sie doch. Deren Geld. Ich hab meine eigene Vorstellung (und die ist ehrlich gesagt schon überzogen, denn alles >500€ für ne GPU ist eigentlich schon krank)

Einfach ehrlich sein: Man hat Bock auf ne 3090 und gibt nen Haufen auf den Preis. Wer das mit P/L rechtfertigen will - nun ja, da gibts Beratungsstellen für.
Wer Bock auf BFN hat: Der kauft es halt, weil er Bock auf BFN hat (meine Wenigkeit)

Ansonsten gilt: Man hat nen Monitor mit einer Auflösung x und einer Refresharate y - da gibbet dann Benches für die einem sagen, was da grad so paßt und fertig ist der Fisch. Evtl. ist die persönliche Preisgrenze unter dem, was im Bench steht, dann wird halt etwas DLSS oder Fidelity-FX aktiviert und dann paßt das auch.

Rest ist Egomanie - egal wie sehr der Wurm sich winden möchte um sich in die "Aber ich bin völlig normal! so würde jeder das machen!" Schublade zu stecken, um nicht als "auffällig" zu gelten. Denn mal ehrlich: Jeder der hier mitliest und postet ist "auffällig" - und das ist okay, denn es ist n Hobby. Ich finde auch Leute die 50 shades of grey gelesen oder geguckt haben für "auffällig" - von daher.
Hallo zusammen,
lese hier mehr mit statt zu schreiben, aber dieses GPU Thema fuchst mich sehr. Ich verstehe diesen Markt-Mechanismus nicht mehr.
Die GPU Hersteller wissen doch schon lange, dass die Nachfrage gestiegen ist. Wir haben nun die Freunde von der Mining-Front, die gerne Gaming GPUs kaufen, wir haben generell steigendes Interesse an Gaming Artikeln (siehe der ganze RGB Boom, eSport Szene usw.), wir haben eine gestiegene Kaufkraft bei Jugendlichen und nicht zuletzt haben wir (leider) nun auch noch Corona. Die Leute nutzen also umso mehr alles an digitalem Entertainment, was man von Zuhause eben nutzen kann. Aus Sicht der GPU Hersteller eigentlich ein Schlaraffenland. Nvidia hätte zum Ampere Launch (gefühlt) eine beliebige Menge an Karten verkaufen können, der Hype war da und auch bekannt und bewusst herbeigeführt. Mittlerweile hat Nvidia ja schon einen ähnlichen Sucht-Zombie Faktor wie Apple. Aber was haben sie gemacht? Sie haben 100 Karten an den Start gebracht. Ich meine, wir fliegen zum Mond. Wie schwer kann es denn sein Grafikkarten zu produzieren?
Warum hat man die Kapazitäten nicht schon lange ausgebaut? Und warum gibt es scheinbar noch keine Konkurrenz zu TSMC? Manchmal hat man den Eindruck, als wäre TSMC der einzige Chiphersteller überhaupt auf der Welt.

Klar, mit der "Knappheit" kann man natürlich dann höhere Preise verlangen, wie wir schmerzlich bei Turing festgestellt haben. Aber jetzt muss doch jedem Hersteller klar sein, dass hier auf Dauer mehr zu holen ist. Wenn ich Elon wäre, würde ich noch eine GPU Firma gründen :d.
Denke die globalen Kapazitäten müssen einfach mal erhöht werden, damit sich alles wieder etwas normalisiert.

Und natürlich darf jeder so viel Geld für eine Graka raushauen, wie er/sie eben will. ABER, die Hersteller bekommen das mit. Und sie wissen dann, dass sie die Preise entspannt erhöhen können. Mit diesen "High-End" Modellen loten die Hersteller doch auch die Preis-Schmerzgrenze aus, ganz klar. Und das ist eben für die Gesamtheit aller GPU Kunden nachteilig.

Bin zu wenig Techniker um zu verstehen, was die Schwierigkeit bei der GPU Herstellung und Entwicklung ist. Aber wenn ich hier im Forum lese bekomme ich immer den Eindruck, als wäre eine GPU Architektur total easy. Also wo klemmts? Warum gibt es nicht mehr Hersteller? Ist so eine Architektur geschützt, oder könnte man sie theoretisch nachbauen?
Ein Open Source Projekt wäre mal genial.
Also wer ist dabei? :bigok:
 
RT ist doch heute nicht mehr als ein Nice to have. So wirklich wichtig wird es erst in paar Jahren wenn die ganzen Entwickler alle ihre Spiele darauf auslegen UND es die passende Hardware dazu gibt.

Vor einiger Zeit haben sich alle von ihren 60 Hz Monitoren verabschiedet nach dem sie ein mal auf 144 Hz gespielt haben. Sie haben gutes Geld gezahlt um von den 60 Hz wegzukommen um sich jetzt wieder mit 60 Hz zufrieden zu geben nur weil RT auf der Packung steht? Ernsthaft jetzt?

Ich habe keinen 4K Monitor, nur 3440x1440 und selbst für den dürften alle heutigen Karten mit RT@144 Hz überfordert sein. In ein oder zwei Generationen, vielleicht. Bis dahin bleibt RT, zumindest für mich etwas das ich hin und wieder einschalte, mehr nicht.

Oder ist RT@~60 besser anzusehen als kein RT@100+?
 
RT ist doch heute nicht mehr als ein Nice to have. So wirklich wichtig wird es erst in paar Jahren wenn die ganzen Entwickler alle ihre Spiele darauf auslegen UND es die passende Hardware dazu gibt.

Vor einiger Zeit haben sich alle von ihren 60 Hz Monitoren verabschiedet nach dem sie ein mal auf 144 Hz gespielt haben. Sie haben gutes Geld gezahlt um von den 60 Hz wegzukommen um sich jetzt wieder mit 60 Hz zufrieden zu geben nur weil RT auf der Packung steht? Ernsthaft jetzt?

Ich habe keinen 4K Monitor, nur 3440x1440 und selbst für den dürften alle heutigen Karten mit RT@144 Hz überfordert sein. In ein oder zwei Generationen, vielleicht. Bis dahin bleibt RT, zumindest für mich etwas das ich hin und wieder einschalte, mehr nicht.

Oder ist RT@~60 besser anzusehen als kein RT@100+?
Guten Morgen,

Ich muss zugeben das ich mit High Hz Gaming nicht viel anfangen kann und mir Optik mittlerweile wichtiger ist.
Aber ich werde auch langsam alt und habe erst letztens auf einem CS Server sowas von den A... versohlt bekommen (
c054.gif
), das ich dann wirklich lieber gemütlich bei 60Hz in Generation Zero durch Schweden marschiere, ein paar Roboter röste und die Optik genieße...
a045.gif

Wenn RT dann erst mal so richtig durchstartet, kann es ja noch richtig gut werden (y)
 
RT ist doch heute nicht mehr als ein Nice to have. So wirklich wichtig wird es erst in paar Jahren wenn die ganzen Entwickler alle ihre Spiele darauf auslegen UND es die passende Hardware dazu gibt.

Vor einiger Zeit haben sich alle von ihren 60 Hz Monitoren verabschiedet nach dem sie ein mal auf 144 Hz gespielt haben. Sie haben gutes Geld gezahlt um von den 60 Hz wegzukommen um sich jetzt wieder mit 60 Hz zufrieden zu geben nur weil RT auf der Packung steht? Ernsthaft jetzt?

Ich habe keinen 4K Monitor, nur 3440x1440 und selbst für den dürften alle heutigen Karten mit RT@144 Hz überfordert sein. In ein oder zwei Generationen, vielleicht. Bis dahin bleibt RT, zumindest für mich etwas das ich hin und wieder einschalte, mehr nicht.

Oder ist RT@~60 besser anzusehen als kein RT@100+?


Das sehe ich nicht so. Ich finde RT schon relative wichtig jetzt und in der Zukunft. Es werden immer mehr Spiele mit RT Optionen. Jetzt sogar World of Warcraft (WoW). Das war noch in der Beta https://mein-mmo.de/wow-shadowlands-beta-raytracing/

Und ist jetzt in der Erweiterung aktiv.
möp.JPG
 
Ja gut, so ähnlich geht es mir auch. Bin mit meinen 44 auch nicht mehr der Jüngste aber die Spiele die ich spiele bei denen ich auch mal die Grafikpracht genieße sind dann doch recht überschaubar. Das grenzt die Auswahl weiter ein, dann kommt noch das eine oder andere dazu und schon bleiben vielleicht nur noch ein, zwei Spiele übrig bei denen es darauf ankommt.

Edit: @butcher1de
Gut, WOW spiele ich nicht. Generell spiele ich MMOs oder RPGs nicht.
Wie gesagt, wenn ich das auf meine Interessen runter breche dann bleibt kaum ein Spiel übrig. Dass demnächst neue kommen ist klar, und dass RT immer wichtiger ist ebenfalls. Aber eben zu welchem Preis? Höhere Auflösungen kommen ja so langsam auch im Mainstream an und da dürften die wenigsten bereit sein 2000 Euro allein für ein Bauteil im Rechner zu bezahlen.
 
Zuletzt bearbeitet:
RT ist doch heute nicht mehr als ein Nice to have. So wirklich wichtig wird es erst in paar Jahren wenn die ganzen Entwickler alle ihre Spiele darauf auslegen UND es die passende Hardware dazu gibt.

Vor einiger Zeit haben sich alle von ihren 60 Hz Monitoren verabschiedet nach dem sie ein mal auf 144 Hz gespielt haben. Sie haben gutes Geld gezahlt um von den 60 Hz wegzukommen um sich jetzt wieder mit 60 Hz zufrieden zu geben nur weil RT auf der Packung steht? Ernsthaft jetzt?

Ich habe keinen 4K Monitor, nur 3440x1440 und selbst für den dürften alle heutigen Karten mit RT@144 Hz überfordert sein. In ein oder zwei Generationen, vielleicht. Bis dahin bleibt RT, zumindest für mich etwas das ich hin und wieder einschalte, mehr nicht.

Oder ist RT@~60 besser anzusehen als kein RT@100+?
Ist halt auch so das schon sehr lange die Spielegrafik sich nur minimal Sichtbar weiter verbessert!
Die Zeiten wo ich Multiplayer gespielt habe sind nahe zu vorbei ich drücke die Leistung lieber in Grafikqualität bei 60 HZ @4K HDR mods als in hohe FPS .
So unterschiedlich kann es halt sein !
Raytracing beherrscht ja nicht nur Spiegelungen!
Was ich mir noch wünschen würde wäre viel mehr Physik in den Games also eine deutlich aufgewertete Zerstörung z.b mehr leben,dynamischere Spielewelten usw.
 
@DerPeppels
Ich glaube nicht das eine GPU Architektur "total easy" ist, sonst würde die Entwicklung einer Architektur kaum mehrere Jahre in Anspruch nehmen.
Wie es mit Patentrechtlichen Fragen aussieht kann ich nicht sagen, aber da wären sicher schon die ersten Hürden, zumal du ja Gewisse Standards einhalten musst, um DX 12, Vulkan usw. zu unterstützen!
Allein die Zeit von den ersten Entwürfen bis zum fertigen Produkt dürfte für viele Investoren schon ein Grund sein den Schritt nicht zu wagen, zumal es ja schon ein paar Player mit sehr viel Erfahrung gibt!
Was die Chiphersteller angeht, gibt es ein paar, aber es gibt auch viel Bedarf an Wafern, es gibt ja nicht nur GPUs und CPUs von Intel, AMD und Nvidia.
Siehe Smartphones usw.

Was Elon Musk angeht, ich glaube der hat genug andere Probleme... :hmm:

Das Problem ist auch nicht ein Unterangebot, schaue dir an wie viele Karten auf Halde bei den Händlern liegen...
Das Problem ist das jeder am liebsten sofort die neueste Generation haben möchte und da kommt es dann eigentlich immer zu Anfang zu Lieferengpässen!
Aber für die Hersteller ist es besser die Kunden etwas warten zu lassen, als zuviel zu produzieren und die Karten lagern zu müssen.
Lagerkapazitäten kosten Geld und Karten die in Regalen liegen nutzen keinem etwas..
 
Vor einiger Zeit haben sich alle von ihren 60 Hz Monitoren verabschiedet
Und wer ist den alle? Bei alle schließt du ja alle mit ein, aber das kann nicht sein dass alle von 60Hz weg sind da ich ja noch damit arbeite und Spiele ^^

Nur hier im Forum sind die meisten schon weg von 60Hz aber die Welt hat noch sehr viel mehr Menschen, und da behaupte ich mal, das die meisten immer noch mit 60Hz Arbeiten/Spielen.
 
Das sehe ich nicht so. Ich finde RT schon relative wichtig jetzt und in der Zukunft. Es werden immer mehr Spiele mit RT Optionen. Jetzt sogar World of Warcraft (WoW). Das war noch in der Beta https://mein-mmo.de/wow-shadowlands-beta-raytracing/
Und ohne Raytracing hättest du dann gar keine Schatten mehr? ;)

Die Belichtungsqualität, Schatten, Reflexionen etc kannst du auch ganz normal mit klassischen Methoden machen. Nur müssen die Devs da selbst Hand anlegen (Texturen backen) bzw ist es weniger effizient (tausend Lichtproben pro Szene - viele Drawcalls)
Raytracing soll in Zukunft die Arbeit der Devs vereinfachen, ohne Abstriche bei der Qualität machen zu müssen. Zu sagen "ohne Raytracing sieht es doof aus" ist aber so nicht richtig. Wenn es doof aussieht, haben die Devs schlichtwegs nicht den klassischen Pfad implementiert - siehe Control, wo es ohne Raytracing keine Reflexionen gibt. Deus Ex 1 hatte schon welche und jetzt mit Control soll es auf einmal "nicht mehr möglich" sein?

Vorsicht vor den Marketingversprechen. Irgendwann, wenn RT performant genug ist und ordentlich durchoptimiert und iteriert wurde, kann man dann die klassichen Methoden wegwerfen. so lange RT aber noch 1/3 der Frames kostet... ist das eher ne Machbarkeitsstudie.
 
Und ohne Raytracing hättest du dann gar keine Schatten mehr? ;)
Das hat niemand behauptet. Ich wollte damit eher ausdrücken das AMD sich nicht von RT (auf ähnlichem Niveau) ausschließen kann wenn sie mit Nvidia/Intel konkurrieren wollen.
 
Das ist schon ne Weile her!
Ich glaub hier würden sich alle freuen wen AMD liefert nur ist halt die Skepsis nicht unbegründet!

Es ist nun mal auch so das wir jetzt auch Raytracing haben und auch da muss AMD überzeugen !
Hoffe AMD zeigt da Metro und Control RTX in gegenüber Stellung mit der 3080 .
Das Produkt muss auf ganzer Linie als Moderne Grafikkarte überzeugen und nicht nur Cherry Pickt!
6GB mehr und hoher Takt allein heißt noch nicht alles!
Warum brauch man Raytracing? Aktuell will doch keiner das Geruckel haben, jeden den ich kenne hat es mal angeschaltet und festgestellt, "Oh, kaum ein Unterschied ausser das es Ruckelt"
Ich will nur FPS auf meinem Bildschirm mit High Einstellungen. In 3-4 Jahren kann dann gern RT dazu kommen aber aktuell ist es nur Hühnerscheisse.
 
Das hat niemand behauptet. Ich wollte damit eher ausdrücken das AMD sich nicht von RT (auf ähnlichem Niveau) ausschließen kann wenn sie mit Nvidia/Intel konkurrieren wollen.
Werden sie ja nicht, zum Glück!
Ich finde die Technik auch interessant da sie ja zukünftig Grafik erwarten lässt die auf herkömmlichen Wege nur schwer zu realisieren ist!
Wenn ich mir die Techdemo der Unreal 5 Engine ansehe, kann ich es kaum erwarten...😍
 

:unsure:

Die 3090 hat etwas über 12K!
 
passt doch etwas gleich schnell wie die 3080. 😇
 
Wer mehr von von Schur lesen möchte, kann mal bei Igor im Forum gucken ...
a100.gif
 
Die mit 72CUs? Oh boi...

Die mit 80CU hat ja oben drauf auch noch mal ~100MHz mehr.

Ich sehe schon wie der Sherkelman die XT vorstellt, sich dann verabschieden will und Lisa dann von der Seite ins Bild springt und die XTX in die Kamera wirft.
"You know, I heard people complaining about green stuff in their PC cases - you don't want that. Keep your case clean with AMDs new XTX card!"
 
Ja und es ist die Navi 21 XT nicht die XTX.... :bigok:
a028.gif

Ja genau die 72CU. Wenn man mal Parallelen zieht zwischen der 5700XT und der 2070Super, wird das tatsächlich so ein Ding, in einem Spiel drüber in dem anderen drunter usw. Die 80CU (XTX ?) wird dann denke ich tatsächlich zwischen der 3080 und der 90er landen. Ist doch prima..... 8-)
 
Die mit 72CUs? Oh boi...

Die mit 80CU hat ja oben drauf auch noch mal ~100MHz mehr.

Ich sehe schon wie der Sherkelman die XT vorstellt, sich dann verabschieden will und Lisa dann von der Seite ins Bild springt und die XTX in die Kamera wirft.
"You know, I heard people complaining about green stuff in their PC cases - you don't want that. Keep your case clean with AMDs new XTX card!"
:ROFLMAO:
Ich sag es ja, der 28.10. wird ähnlich ablaufen wie die Ryzen Veranstaltung....
"oh we have something more...!"
 
Und wer ist den alle? Bei alle schließt du ja alle mit ein, aber das kann nicht sein dass alle von 60Hz weg sind da ich ja noch damit arbeite und Spiele ^^
Nur hier im Forum sind die meisten schon weg von 60Hz aber die Welt hat noch sehr viel mehr Menschen, und da behaupte ich mal, das die meisten immer noch mit 60Hz Arbeiten/Spielen.

Damit meine ich all diejenigen die unter Umständen bereit sind auch mal paar Euro für eine Grafikkarte auf den Tisch zu legen. Bis RT wirklich im Mainstream ankommt dürfte noch einige Zeit vergehen.
Ja, das sind meistens Leute wie es sie hier im Forum gibt. Das sind unter anderem genau diejenigen die vor einiger Zeit noch behauptet haben sich nie wieder so ein 60 Hz Bild antun zu wollen nach dem sie zwei Minuten 144 Hz "genießen" durften.

So schnell ändern sich Ansprüche 😉
 

:unsure:

Die 3090 hat etwas über 12K!

Dabei muss ich jetzt mal erwähnen, dass AMD Karten generell bei Firestrike etwas höhere Scores haben, als dies die tatsächliche Spieleleistung vermuten lassen würde...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh