AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Was ich bei GPUs auch weiterhin behaupten werde, bevor mir der Markt nicht durch das Kaufverhalten das Gegenteil beweist.
Du verdrehst da die Reihenfolge, erst muss ein überzeugendes Produkt her und erst DANN wird gekauft. Die meisten Leute kaufen nicht blind nur weil AMD drauf steht, auch wenn man hier manchmal den Eindruck gewinnen kann. Und wie erklärst du dir bitte dass AMD CPUs (deiner Aussage nach) gekauft werden, GPUs jedoch nicht? Ist es wirklich völlig ausgeschlossen, dass es ggf. am Produkt liegen kann und nicht am Firmenname?

Nvidia begründet den Unternehmenserfolg mit Verweis auf AMDs Portfolio und AMD(ler) begründen den Misserfolg mit Verweis auf die ungläubigen Käufer :hust:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der normale Trottel möchte einfach einen "GeForce" Sticker auf seinem Notebook. Ob die dann nennenswert besser ist als die eh vorhandene iGPU ist irrelevant. Sieht man ganz gut daran, dass genau diese Kombination in vielen Laptops verbaut wird.

Der etwas fortgeschrittene Trottel möchte außerdem einen i7. Denn er weiss i7=gut. Merkt man daran, wie viele Leute auf die Frage nach ihrer CPU " N i sibbe" antworten. Welche Generation? Welches Modell? Keine Ahnung, n i7 halt...
 
Der etwas fortgeschrittene Trottel möchte außerdem einen i7. Denn er weiss i7=gut. Merkt man daran, wie viele Leute auf die Frage nach ihrer CPU " N i sibbe" antworten. Welche Generation? Welches Modell? Keine Ahnung, n i7 halt...
Da muss ich leider zustimmen. Wenn so eine Frage mit i3/i5/i7 beantwortet wird, dann muss man auch gar nicht mehr weiter fragen.
 
Und jetzt Versuche mal so jemandem einen ryzen zu verkaufen. Mit einer Radeon. :rofl:
 
Aber der Trend geht doch eindeutig zu ryzen cpus auch bei Usern die eine NVIDIA gpu haben oder wollen. :)
 
Aber der Trend geht doch eindeutig zu ryzen cpus auch bei Usern die eine NVIDIA gpu haben oder wollen. :)

Ja bei (einigen) Leuten die sich auskennen.
Es gibt aber nach wie vor Leute die einem mit aller Gewalt Intel andrehen wollen, besonders in Kaufhäusern.
Lustig war wie ich mit einer Freundin los bin, um Teile zu kaufen!
Ich wollte einen Ryzen 3600 und der Verkäufer meinte das er lieber Intel empfehlen würde, weil AMD viele Probleme macht...
Da denke ich das 9 von 10 Kunden schon aus Unwissen zu Intel greifen würden!
Es ist traurig, aber leider kein Einzelfall... meinem Sohn ist das so ähnlich auch schon passiert.
Es gibt halt auch viele "Spezialisten" die null Ahnung haben oder Fanboys sind :stupid:
 
Zudem werden Effizienz und OC Potential bei Amd besser sein (bessere Fertigungsqualität, Karten nicht ganz so am Limit).
Ich tippe wie folgt:
- Ref. BN wird auf 375Watt gedeckelt, damit man mit 2x 8Pin auskommt, denn der Diskussion/Probleme der Vergangenheit, dass die Anschlüsse über Spec belastet werden, wird man nicht erneut eingehen und "nicht mehr Anschlüsse brauchen" wollen als NV. Die Karte wird dadurch deutlich eingebremst und landet hinter der 3080. (Die 5700xt hat 225W.)
- Customs bekommen 3x8Pin und liegen mit höherem Powertarget / Verbrauch vor der 3080.
 
"Spezialisten" im Verkauf sind keine Spezialisten. (sonst wären sie nicht im Verkauf xD)

Da wird verkauft was Marge bringt, dringend aus'm Lager muss, oder dem Verkäufer selbst gefällt.

Als ob der MMarkt dich während der Arbeitszeit freistellt um dich dahingehend zu informieren. Und in meiner Freizeit würd ich das auch nicht machen. Schon gar nicht als mindestlohn Aushilfskraft.
 
Recht simple Erklärung: Wenn da 2080 steht, rafft man im ersten Moment nicht, ob damit die 2080, die 2080S oder die 2080Ti gemeint ist und hat nur die Nummer im Hinterkopf. Dann gibts ne fette Leistungssteigerung auf Balkendiagrammen und alle so "Oooooh, woah!". Das Marketing von Nvidia ist da spot-on, das muss man denen lassen. Um so größer ist dann die Enttäuschung, wenn die Tomaten von den Augen genommen werden. Ist Nvidia aber recht Wumpe, denn für einen Dammbuch an Vorbestellungen hats gereicht - und damit hatte es seinen Zweck erfüllt.

schön dass das noch andere realisiert haben. nvidia hat mit dem simolen trick der umbenennung der eigentliche 3080ti zu non-ti alle verarscht. genau wie die 2000er serie liefert auch ampere ca. 30% zur lastfen. aber da nun alle mit der 2080 vergleichen sieht es nach sagenhaften 60% aus.
das kombiniert mit den völlig sinnfreien 50w für die letzten 2-3 leistungsprozent werfen ein schiefes licht auf den eigentlichen marktführer... und die angeblich achso tolle ampere-gen.

denke amd wird die ampere dankend als konkurenzprodukt empfangen haben. im gegensatz zu früher, lassen sich die auch nicht wirklich übertakten. das oc-leistungsplus bleibt also auch aus.
 
Ich tippe wie folgt:
- Ref. BN wird auf 375Watt gedeckelt, damit man mit 2x 8Pin auskommt, denn der Diskussion/Probleme der Vergangenheit, dass die Anschlüsse über Spec belastet werden, wird man nicht erneut eingehen und "nicht mehr Anschlüsse brauchen" wollen als NV. Die Karte wird dadurch deutlich eingebremst und landet hinter der 3080. (Die 5700xt hat 225W.)
- Customs bekommen 3x8Pin und liegen mit höherem Powertarget / Verbrauch vor der 3080 Ref.


Klar. Über 400w für irgendwo zwischen der 80er und 90er zu landen. Interessante Vorstellung. :wall:
 
Jo :) Ich gehe halt nicht von einem Effizienzwunder aus, lasse mich später aber gerne eines besseren belehren.
Kaufen würde ich sie trotzdem, wenn sie preislich unter der 3080 liegt.
 
Jo :) Ich gehe halt nicht von einem Effizienzwunder aus, lasse mich später aber gerne eines besseren belehren.
Kaufen würde ich sie trotzdem, wenn sie preislich unter der 3080 liegt.
AMD hat schon im März von 50% besserer Effiziens gegenüber RDNA gesprochen, ich glaube also nicht das die ein 400 Watt Monster brauchen, um mit Ampere mitzuhalten...
Schon RDNA 1 ist zumindest bei den kleineren Modellen (5700 und 5600XT) dicht an Ampere dran was die Performance pro Watt angeht:
Klick
 
AMD erzählt viel, wenn der Tag lang ist - genau wie die Lederjacke auch.
Ich will AMD auch nicht schlecht reden (habe selbst ne 5700xt und warte auf BN), ist einfach nur mein Tipp, was uns erwartet.
 
Wenn es gut läuft und die leaks sprechen ja davon, dann sind es ca. 300 Watt die reichen könnten, um an die 3080 ran zu kommen, 400 Watt halte ich für völlig ausgeschlossen.
 
Ich Spekuliere hier ja nie mit, aber mein Bauchgefühl sagt, 300Watt +-20W und 3080performance eher etwas mehr, weniger RT Leistung, mehr Speicher. Preis wird wohl um die 699€ sein, der dann aufgrund von Verfügbarkeit irgendwo bei 700-850€ liegen wird zu Anfang. AMD Zuzutrauen wäre die erste Charge zu Subventionieren mit irgendwelchen promtion Aktionen, sodass die Karte effektiv für 599€ in den Handel kommt.
 
Spiele Bundles sind leider uninteressant. Was soll denn bitte neben Cyberpunk anstinken? Die Releases von Spielen haben sich auch alle extra nach hinten verschoben, weil kein Publisher im Einschlagskrater von 2077 stehen will. Mich würde evtl. Dyning Light 2 (von denen man seit 2 Jahren nix mehr gehört hat) noch reizen - ansonsten ist nix auf meinem Schirm.

Stromverbrauch ist wie alle Leaks nicht wirklich bekannt - Buschfunk sagt hier aber auch zw. 250W und 275W (wobei ich die 250W bei der XTX nicht glauben könnte) - 275W ist da schon realistischer.

Macht bei dem massiven Die (Danke Coreteks) ne Menge Luft nach oben. Wenn bei 2.35GHz wegen internet Logikverschaltung aber Schluss ist, kann die gar nicht großartig mehr als 300W verbraten. o_O
 
Zuletzt bearbeitet:
Zudem werden Effizienz und OC Potential bei Amd besser sein (bessere Fertigungsqualität, Karten nicht ganz so am Limit).
OC-Potential konnte man ja schon anhand der PS5 erahnen, denn da muss schließlich auch jeder Gammel-Chip diese 2.23GHz schaffen. Die Einträge in Big Sur haben das Bild weiter verfestigt.

Wenn man zudem der Gerüchteküche glauben schenkt und es tatsächlich nur ein 256bit SI wird, dafür aber gepaart mit riesigem Cache, dann wird sich die Effizienz durch den Cache noch einmal enorm steigern. Man sieht doch an Ampere, dass die GPU selbst fast schon lächerlich wenig verbraucht und diese Verbrauchsexplosion nur durch den ganzen Speicherkrempel kommt.

Die 300W wird man nicht reißen, ich tippe real auf ~290W bei 3080-Performance mit 16GiB Speicher und den deutlich besseren OC-Möglichkeiten.
 
Spiele Bundles sind leider uninteressant. Was soll denn bitte neben Cyberpunk anstinken?


Für mich ist sowas immer interessant, es gibt auch noch die Möglichkeit mit Cpu/Board Bundel´s wie bei Vega. Lassen wir uns überraschen, ich wollte damit nur sagen, das AMD oft mit Promotion um die ecke kommt.
 
Für mich ist sowas immer interessant, es gibt auch noch die Möglichkeit mit Cpu/Board Bundel´s wie bei Vega. Lassen wir uns überraschen, ich wollte damit nur sagen, das AMD oft mit Promotion um die ecke kommt.
Ah das. Ja. Da ich eh vorhabe, auch die CPU aufzurüsten (ich hab extra auf Zen3 gewartet um meinen 2700X abzulösen) könnte so ein CPU+GPU Bundle sehr interessant sein. Am Ende macht Mindfactory selbst sogar ein Bundle, ohne Zutun von AMD, aber ich denke da wirds definitiv was geben. ^^
 
Spiele Bundles sind leider uninteressant. Was soll denn bitte neben Cyberpunk anstinken? Die Releases von Spielen haben sich auch alle extra nach hinten verschoben, weil kein Publisher im Einschlagskrater von 2077 stehen will. Mich würde evtl. Dyning Light 2 (von denen man seit 2 Jahren nix mehr gehört hat) noch reizen - ansonsten ist nix auf meinem Schirm.

Stromverbrauch ist wie alle Leaks nicht wirklich bekannt - Buschfunk sagt hier aber auch zw. 250W und 275W (wobei ich die 250W bei der XTX nicht glauben könnte) - 275W ist da schon realistischer.

Macht bei dem massiven Die (Danke Coreteks) ne Menge Luft nach oben. Wenn bei 2.35GHz wegen internet Logikverschaltung aber Schluss ist, kann die gar nicht großartig mehr als 300W verbraten. o_O

Cyberpunk wird mit Sicherheit ein tolles Spiel, aber der Hype ist dann schon etwas übertrieben finde ich. Hab mich jetzt, bis auf paar Videos nicht wirklich mit dem Thema befasst aber für mich sieht es auf den ersten Blick nach nicht mehr aus als eine Mischung von GTA und Saints Row. Beides für sich gute Spiele, eine Mischung davon....bestimmt auch nicht schlecht. Mehr aber auch nicht.
Davon abgesehen könnte ja selbst Cyberpunk als giveaway beigelegt werden.

Verfügbarkeit und Leistung sind die ausschlaggebenden Punkte, da hast du sicher Recht. Aber wenn ein Spiel dabei ist was interessant klingt oder man so oder so auf dem Schirm hatte macht es die Sache bei vielen einfacher. Ich selbst gehöre da nicht dazu, wenn die Leistung unter einer 3080 liegt kommt eine 3080 in den Rechner. Wenn nicht dann nicht.
 
Kann mir einer sagen wie sie mit nur einem 256bit speicher anschluss auf
angemessene lesitung kommen ?
Wird doch sicher dann noch ne version mit dem 384-512bit kommen.

Oder ist breitband anbindung nicht so wichtig. ?

Sie werden dann speicher wählen der höher getaktet ist vermute ich...

 
Angeblich wird ja ein richtig dicker cache verbaut, der das ausgleichen soll.

Ob das funktioniert? Mal sehen, bei CPUs tut's das.
 
... wenn die Leistung unter einer 3080 liegt kommt eine 3080 in den Rechner. Wenn nicht dann nicht.
Da musst du auf die Benches warten. Kann ich nix zu sagen außer Buschfunk-Gerüchte. Lass dich aber nicht foppen und vergleiche Äpfel mit Äpfel. ;-)

Kann mir einer sagen wie sie mit nur einem 256bit speicher anschluss auf
angemessene lesitung kommen ?
Wird doch sicher dann noch ne version mit dem 384-512bit kommen.

Oder ist breitband anbindung nicht so wichtig. ?

Sie werden dann speicher wählen der höher getaktet ist vermute ich...

Die 384/512bit Versionen sind abgelehnte Designs. Die finale Version hat 256-bit mit nem dicken Cache statt 384/512 ohne Cache. AMD wird sich schon was dabei gedacht haben, als sie die schlechten ins Kröpchen und das gute Design ins Töpchen geschmissen haben. ;)

btw - es gab auch ne HBM-Version die abgelehnt wurde. Von daher: Das Design existiert, wurde von AMD "aus Gründen" aber verworfen.
 
Die 384/512bit Versionen sind abgelehnte Designs. Die finale Version hat 256-bit mit nem dicken Cache statt 384/512 ohne Cache. AMD wird sich schon was dabei gedacht haben, als sie die schlechten ins Kröpchen und das gute Design ins Töpchen geschmissen haben. ;)

btw - es gab auch ne HBM-Version die abgelehnt wurde. Von daher: Das Design existiert, wurde von AMD "aus Gründen" aber verworfen.

Wenn ich etwas hier nachlesen sollen mit GDDR6 gute 320GB/S machen . Vermute mit etwas erhöhtem takt 350GB/S

Nividia packt bei der 3080 gute 760gb/s
Bei der 3090 gute 936gb/s

Wie die das hinkriegen wollen bin ich gespannt.


Bei GDDR sprechen wir von einer Speicherbandbreite von 25,6 GB/s an einem 256 Bit breiten Speicherinterface. Mit GDDR6 werden heute bereits 320 GB/s erreicht und zukünftig sind noch schnellere Varianten geplant.

 
Da sind wir alle genauso gespannt drauf wie du.
 
Du verdrehst da die Reihenfolge, erst muss ein überzeugendes Produkt her und erst DANN wird gekauft. Die meisten Leute kaufen nicht blind nur weil AMD drauf steht, auch wenn man hier manchmal den Eindruck gewinnen kann. Und wie erklärst du dir bitte dass AMD CPUs (deiner Aussage nach) gekauft werden, GPUs jedoch nicht? Ist es wirklich völlig ausgeschlossen, dass es ggf. am Produkt liegen kann und nicht am Firmenname?

Nvidia begründet den Unternehmenserfolg mit Verweis auf AMDs Portfolio und AMD(ler) begründen den Misserfolg mit Verweis auf die ungläubigen Käufer :hust:
3 Schritte zurück und noch einmal: Ich rechne nicht damit, dass selbst WENN AMD eine ordentliche GPU rausbringt, dass der Markt auch nur ansatzweise sinnvoll darauf reagieren wird. Er reagierte nicht als AMD die Krone hatte, er reagierte nicht, als AMD bessere P/L bot und er wird auch nicht reagieren, wenn RDNA2 beides hätte (Glaskugel).

Bei den CPUs hats geklappt, weil AMD überzeugende Produkte hatte UND Intel Lieferschwierigkeiten. Den Leuten blieb also nix anderes als AMD übrig und als sie es dann hatten, waren alle so "Hmm... gar nicht so schlecht." Wir können ja in 6 Monaten mal drübergucken und dann kannst du mir ja evtl begründen, warum trotz "Parität und besserem Preis trotzdem weiter 80% Nvidia kaufen" (oder wie auch immer das dann aussehen wird, es gibt ja noch keine Benches - deswegen ist das alles Glaskugel hier)
 
1601832524952.png


Bei den brauchbaren Produkten (X800, HD4000, HD5000 und HD7000) hat es scheinbar geklappt ;)
HD3000 war nicht schlecht, aber die stärkeren 8800 GT Karten waren einfach zu günstig...
Sieht man ja auch schön bei den CPUs... kaum ist man auf der Höhe der Zeit, wird das Zeugs auch gekauft.
 
Zuletzt bearbeitet:
Na ja, lass uns mal mit den Augen über die Grafik gucken und gucken uns die von mir beschriebenen Punkte an:
AMD hatte die Krone mit der RX290 - da passiert auf der Kurve so ziemlich gar nüscht. Auch die HD7000 Serie hat nix gerissen - obowhl sie mehr als mithalten konnte. Es wird ja immer gesagt: Die Enthusiasten sind nur ein kleiner Teil des Marktes, das meiste soll im Mittelfeld oder bei Einstiegs-Karten passieren - also genau das wo Polaris und Navi hätte einschlagen müssen. Nix ist passiert - da gehen die Kurven sogar runter. Seltsamerweise steigt die bei der Vega - das war aber der Mining-Hype.

Nope - ich bleibt dabei. X800 ist imho zu lange her, als dass es noch irgendwie marktrelevant in den Köpfen der Menschen abbilden könnte.
AMD hat mit Rajas Weggang und dem Umbau von ATI zwischendurch einen durchhänger gehabt - wo die 7970 3x rebrandet wurde - bis dann endlich Polaris kam. Der Durchhänger da ist der einzige den ich verstehen kann.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh