AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Sollte die AMD Karte im Vergleich zur neuen Nvidia Generation wirklich attraktiv sein bin ich mir sicher, dass die Bestellung zum Release auch dort zum Glückspiel wird! Erinnert sich noch jemand an den Release von Ryzen 3000 ? Ist noch gar nicht lange her :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Leider wahr... Wobei bei manchen Karten wie der 5700 XT Nitro+ und der Devil auch die Preise kurzzeitig stiegen weil mehr Nachfrage als Karten da war. Und Hardcore-Fanboys gibt es auch noch, auch im roten Lager.
 
naja die 3900X waren sehr schwer zu bekommen die ersten paar Wochen, darum ists bei mir "nur" der 3700X geworden, von dem her könnte das auch auf die Grakas zutreffen wenn sie was können...
 
@Tech Enthusiast
Joar, gute Zusammenfassung.
Die letzten 6 Jahre hatte man da wenig zu befürchten, hoffen wir dass die neuen Karten so interessant werden dass tatsächlich Bots drauf angesetzt werden.
Sind die Kaufbots von Amds Spielegrafikkarten nicht die menschlichen Käufer selbst? :d
Wobei dies bei Nvida Spielegrafikkarten Käufer noch weit aus mehr zutrifft :shot:
So wie einige Jensen und der Unternehmensführung für die Dinge der letzten Jahre noch Danke sagen - mit ihrem Kauf - gehe ich davon aus dass einige abseits von "mir egal/ignoriere ich/habe genug Geld/mag nicht warten/gewzungen steht Neukauf an" Begründungen, reine Masochisten sind.:fresse2:
 
Den Hype um die 3080 kann ich persönlich nicht verstehen, wenn ich die ganzen "Minuspunkte" so betrachte... aber da soll ja jeder machen was er möchte.

Ich für meinen Teil würde tatsächlich nach Jahren nun gerne wieder mal zu AMD wechseln. Habe heute meine 2080 TI für gutes Geld verkauft (wie man es nimmt), da ich sie aktuell nicht nutze und warte nun entspannt auf die Veröffentlichung der neuen AMD-Karten. Nach 970 / 980 TI / 1080 TI / 2080 TI wird es vielleicht mal wieder Zeit für einen Markenwechsel. Was NVIDIA im Gesamtpaket aktuell abliefert, möchte ich nicht noch durch einen weiteren Kauf unterstützen.
 
Zuletzt bearbeitet:
wenn der neuste leak stimmt, hat die 3090 gegenüber der 2080ti nur gerade ~40% mehr leistung in games. dann wird amd wohl doch noch relativ nahe kommen können...
 
Die Frage ist halt, was AMD dann preistechnisch veranschlagt. Bei der Radeon VII hat man ja ordentlich zugelangt - Preis/Leistung zu NVIDIA war da eher unterirdisch in meinen Augen.
 
This!
Das könnte noch ein spannender Schlagabtausch werden. :)
 
Wenn AMD nichts ansprechendes anbietet, werde ich mir wieder eine junge 2080 TI für kleines Geld zulegen. Bin dann vorerst zufrieden und schaue, was das nächste Jahr so bringt.
 
Sehe ich inzwischen ähnlich, mit der 2080 Ti wäre ich sogar halbwegs zufrieden und eventuell würde dann noch Budget für einen schönen 3900er übrig bleiben. Die 3080 ist nicht wirklich so toll, das Problem ist nur eben wieder dass AMD tot spielt und das Produkt konkurrenzlos ist. Dazu kommt, dass 20 % Mehrleistung von der 2080 Ti auf die 3080 bei 750 € aufgrund dessen bizarrer Preispositionierung nun extrem günstig klingen. Das merke ich sogar an mir selber...
 
Hm, vieles scheint bei der 3080 nah am Limit zu laufen. Von der Temperatur her "recht heißer Speicher", GPU wohl nicht sehr übertaktungsfreundlich & ziemlicher Energiehunger. Auf mich wirken die Meldungen wie eine 2080 TI, die mit der Ultimate-Brechstange aufgebohrt wurde + (bzw. -) geringerem Speicher. Wie es sich mit der Lebensdauer solch eines Konstrukts verhält, kann ich nicht einschätzen. Allerdings soll sie ja wohl den Nachfolger der 2080 darstellen, wird aber aufgrund der Leistung aktuell mit der 2080 TI verglichen, da das Pendant zu dieser noch fehlt (die 3090 soll es ja wohl nicht sein).

Ja, der Preis ist im Vergleich zum Ursprungspreis der 2080 TI wirklich gut! Aber wie verhält es sich, auch im Bezug auf die Lebensdauer, zu guten Gebrauchtpreisen (mit Rechnung + Garantieabtretung) ala 550-600 Euro für eine anständige 2080 TI (z.B. Gaming X Trio ...), die im echten Leben mit geringem OC knapp 15 % bei 4K hinter der 3080 liegt!? Für mich durchweg interessant, wenn ich mal wieder in das Gaming einsteige.

Oder aber: Please AMD - make my wish come true :-) - ein (limitierter) Bündel Scheine liegt auf dem Schreibtisch bereit! War schon sehr lange keine Erstbesitzer mehr.
 
Zuletzt bearbeitet:
Die Frage ist halt, was AMD dann preistechnisch veranschlagt. Bei der Radeon VII hat man ja ordentlich zugelangt - Preis/Leistung zu NVIDIA war da eher unterirdisch in meinen Augen.
Dies wird dann auch gerne benutzt um zu sagen "Amd kann auch teuer".
Die Radeon 7 ist aber genau genommen echt günstig. Zum damaligen Zeitpunkt in 7 nm, 16 GB hbm2 und die Vega Architektur sehr gut für compute, rendering etc.
Häte die Karte auch noch in Spielen halbwegs gut mit einer rtx 2080 mitgehalten, hätte man auch 800 € verlangen können.
Bei nvidia hätte man vermutlich entschieden solch eine Karte gleich für 1,2k € verkaufen.

ein (limitierter) Bündel Scheine liegt auf dem Schreibtisch bereit!
:haha:
 
Wenn man der 7 ordentlich Powerlimit gegeben hat, lag die gleichauf mit der 2080. So schlecht war die nicht.
Vor allem bei höheren Auflösungen.
Beitrag automatisch zusammengeführt:

max OC vs max OC unter Wasser natürlich
 
Vega war ab Werk einfach nur unfassbar schlecht optimiert, wenn man selbst etwas Hand anlegt und die Spannungen etwas runter dreht bekommt man schon ne sehr ordentliche Karte. Das größte Problem ist der unglaublich schlechte ref. Kühler :fresse:
was die Architektur an sich kann wenn man vernünftig optimiert sieht man sehr gut an Renoir finde ich
 
Vega war ab Werk einfach nur unfassbar schlecht optimiert, wenn man selbst etwas Hand anlegt und die Spannungen etwas runter dreht bekommt man schon ne sehr ordentliche Karte.
Mit "unfassbar schlecht" meinst du sicher das ganz normale Einkalkulieren von Sicherheitsreserven, so wie es immer der Fall war? Bei Nvidia ist das nicht anders, im Gegenteil. Mit UV ziehen die NV Karten effizienztechnisch sogar noch weiter davon (Pascal und Turing), sind also ab Werk "schlechter optimiert" als viele AMD GPUs.
 
Zuletzt bearbeitet:
Wenn man der 7 ordentlich Powerlimit gegeben hat, lag die gleichauf mit der 2080. So schlecht war die nicht.
Vor allem bei höheren Auflösungen.
Beitrag automatisch zusammengeführt:

max OC vs max OC unter Wasser natürlich

Nur bei wie viel Verbrauch? Die 1080 Ti kommt auch problemlos mit der 2080 mit. Zumindest damals, als die Treiber noch optimiert wurden. NVIDIA-typisch sackt die 1080 Ti in neuen Spielen extrem ab.
 
Nur bei wie viel Verbrauch? Die 1080 Ti kommt auch problemlos mit der 2080 mit. Zumindest damals, als die Treiber noch optimiert wurden. NVIDIA-typisch sackt die 1080 Ti in neuen Spielen extrem ab.
Naja Verbrauch war da jedenfalls über 300 Watt. Das Stimmt natürlich.
Wobei bei max OC die 2080 da auch nicht so weit dahinter liegt.
 
Sind wohl Stockwerte, ein Effizienzwunder darf man da aber nicht erwarten. Die Vega ist auch grausam, wenn man die Mehrleistung der 2080 Ti bedenkt. Das Schlimmste ist aber, dass die AMD-Karten bei niedrigerer Spannung deutlich effizienter werden. Die 5700 XT ist fast so schnell wie eine VII und verbraucht sicher nur die Hälfte, meine gab meist um die 200 W in der Ausgabe an - Was sicher um die 220 W für die ganze Karte bedeutet. RDNA ist verglichen mit Vega ein echter Lichtblick.
 

Anhänge

  • sss.JPG
    sss.JPG
    162,7 KB · Aufrufe: 97
Die 5700 XT war/ist auch eine klasse Karte. Wenn AMD da anknüpft und noch eins drauflegt (in Leistung und Modellvielfalt), dann gibt es einen schönen Kampf, wovon wir Endverbraucher am Ende profitieren.
Ich find lediglich, dass sie die Preise für 5700, 5600 XT und 5500 XT zu hoch angesetzt haben. Eine 5600 XT war schon spürbar langsamer, für nur 10% geringeren Preis. Wenn AMD, kam da eigentlich nur die 5700 XT in Frage. Ich hoffe, dass AMD sich hier für BigNavi besser aufstellt.

Aktuell ist Nvidia ab der RTX 2080 aufwärts konkurrenzlos und kann daher mit den Preisen machen, was sie wollen. Und ganz ehrlich, würde ich das genauso machen 🙊
 
Mit "unfassbar schlecht" meinst du sicher das ganz normale Einkalkulieren von Sicherheitsreserven, so wie es immer der Fall war? Bei Nvidia ist das nicht anders, im Gegenteil. Mit UV ziehen die NV Karten effizienztechnisch sogar noch weiter davon (Pascal und Turing), sind also ab Werk "schlechter optimiert" als viele AMD GPUs.

Klar, undervolten kann man natürlich immer, kann da zur Nvidia Seite aus auch nix dazu sagen da keine nv Karte vorhanden. Sicherheitsreserven schön und gut, aber mir scheint bei Vega haben Sie einfach krass übertrieben bzw. ist es für mich nicht nachvollziehbar warum die Spannung derart hoch angesetzt ist.
wenn die default bei ~1,05-1,1v gewesen wäre hätte sie immer noch genug sicherheitsreserve gehabt. Dann wäre die Karte in der Community auch nicht so zerrissen worden (BTW. Größtenteils auch zurecht)

Wollte eigentlich auch nur sagen, Vega ist mit etwas tweaken ne brauchbare Karte, nicht mehr und nicht weniger ;)
 
Wenn die Verfügbarkeit bei nvidia weiter so mau bleibt und AMD einigermaßen praktikabel ist, wird sich auf Monate wahrscheinlich eher das hier für meine Vega 56 lohnen:

Denn bis die Lager dann voll sind und die Bestellungen alle bedient wurden / die Preise wieder normal sind... kann ich auch 500+Watt drauf geben und hoffen das die Leiterbahnen nicht leuchten.
:banana:
 
Make Vega Great Again! :bigok:
 
Die Frage ist halt, was AMD dann preistechnisch veranschlagt. Bei der Radeon VII hat man ja ordentlich zugelangt - Preis/Leistung zu NVIDIA war da eher unterirdisch in meinen Augen.

soweit ich weiß plant amd für die 6900 xt 600€ zu nehmen.

und gut das ich eisern blieb und mir keine 3080 geholt/bestellt habe.
wie vermutet eh schon schlechte verfügbarkeit, der speicher köchelt schon bei 104°C und throttelt bei oc ab 110°C.
oc bringt fast gar nicht, probleme mit displayports und inkompatiblitäten mit älteren mainboards etc.

die wenigen die eine haben setzen lieber ein powerlimit bei 250w.
ich frag mich wann die ersten karten ne kernschmelze habe (defekter vram o.ä.)
gabs bei den ersten 2080tis auch. soviel zu nvidia läuft immer problemlos.
ich hatte zuvor schonmal irgendwo geschrieben, das ich die aktuelle nvidia architektur am ende sehe, was takt und ipc steigerung angeht.
 
Den Hype um die 3080 kann ich persönlich nicht verstehen, wenn ich die ganzen "Minuspunkte" so betrachte... aber da soll ja jeder machen was er möchte.
Von der Temperatur her "recht heißer Speicher"
Ist nur bei der FE der Fall, weil die Karte da beidseitig bestückt ist
GPU wohl nicht sehr übertaktungsfreundlich & ziemlicher Energiehunger.
Dennoch ist die Karte ziemlich effizient, weil sie eben auch einfach viele FPS liefert.
 
Ist nur bei der FE der Fall, weil die Karte da beidseitig bestückt ist

Dennoch ist die Karte ziemlich effizient, weil sie eben auch einfach viele FPS liefert.

nimm doch einfach mal einen test mit einem recht aktuellen fordernden spiel.

1920x1080 in ultrahoch ist die 3080fe "stolze" 6,73% schneller als eine 2080ti fe.
bei steigender auflösung macht sich die mehrleistung (mit mehrverbrauch) dann etwas bemerkbarer.
2560x1440 sinds dann 12,59% mehr leistung und bei 3840x2840 22,55%.

aber 320w sind 28% mehr stromverbrauch als bei einer 2080ti (250w).
betrachtet man watt/fps sinds in ultra hd:
2080ti fe -> ~ 6,8 watt/fps
3080 fe -> ~ 7,09 watt/fps

höherer wert bedeutet hier, das die effizienz schlechter ist.
bei full hd sähe es dann noch schlechter aus.

ich hab jetzt keine lust weitere spiele durchzurechnen, aber du kannst gerne ein spiel suchen bei dem die effizienz der 3080 fe besser ist als bei einer 2080ti fe und das hier posten.
 
Ich kann nur das wiedergeben was ich bei Igors Lab zu der Karte gesehen habe.
Außerdem, wenn du schon die Benches von hier ansprichst, dann solltest du festgestellt haben, dass deine 22,55% nur in Anno 1800 zustande kommen und in allen anderen Benches sehe ich da mindestens 30% mehr FPS in UHD.
In FullHD ist bei der 3080 fast immer ein CPU Limit vorhanden. Sieht man vor allem mal richtig gut beim Flight Simulator.
FullHD und WQHD nahezu gleich was 2080ti und 3080 angeht. In UHD dann 30% mehr FPS bei der 3080.
Du hast also mit deiner Aussage völligen Quatsch erzählt weil du scheinbar nur einen Benchmark angeschaut hast.

Ich bin bei Leibe kein NVidia Fanboy und habe immer wieder mal das Lager gewechselt. Aktuell mit Ryzen CPU und GTX 1080 unterwegs. Davor war eine R9 290X verbaut.
Aber Man kann einfach nicht von der Hand weisen, dass die 3080 eine ziemlich gute und effiziente Karte ist, wenn man Stromverbrauch und FPS anschaut.

Edit: Ich warte selbst sehnsüchtig auf das was AMD vorstellt, wirklich. Nichts ist schlimmer als nur ein Hersteller der High End GPUs auf dem Markt hat und ich würde auch gerne meine 1080 bald tauschen.
Aber man muss eben nicht irgendwelche Falschaussagen hier raus hauen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh