Gerüchte um Big Navi mit 24 GB HBM2e

Woher soll denn dieser bessere Treiber kommen? AMD kämpft seit Jahren mit Problemen in diesem Bereich. Die sollen jetzt auf einmal gelöst sein? Ich kann mich an keinen größeren GPU-Launch der letzten Jahre erinnern, in dem nicht zumindest Teilaspekte des Treibers nicht richtig funktionierten und über Wochen/Monate nachgebessert wurde, um auf einen „normalen“ Stand zu kommen. Das gilt auch für den Ryzen Master. Wo da auf einmal die Besserung in der Softwareentwicklung herkommen soll, ist mit schleierhaft.
Genau das ist das Problem das AMD einfach zu dumm ist gescheite Software zu bringen.
Das war schon immer so das sie viel versprochen haben und dann ewig nichts passierte.. Habe ja schon paar AMD karten gehabt und weiß was da gewesen ist.
Siehe z.B. die Schärfefilter die nur unter DX12 und Vulkan funktionieren und NV bringt einfach mal ein ganzes Reshade in den Experience und das funktioniert einfach mal in DX9/10/11/12 OpenGL und Vulkan.


Z.B. auch der CPU Overhead bei DX11
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich weiß ja nicht wann die Karte kommen soll. Aber wenn 1200€ dafür verlangt wird, sehe ich schon wieder das Foren mimimi
 
Falls die Karte tatsächlich mit HBM kommt, wünsche ich mir maximal 4x4gb. Das langt noch mind. 4 Jahre bei er aktuellen Monitorentwicklung...
Mit 4x6gb wird das einfach schweineteuer.
 
Bei der Anzahl an Shader kommen Erinnerungen an Furry und Vega hoch.
Hoffe Sie haben die IPC erhöht und probieren nicht schon wieder über die Shader-Brechstange irgendwie an Leistung zu kommen.
Naja, das Problem der Karten war nicht unbedingt die hohe Shader Zahl sondern der für die Shader Anzahl zu hohe Takt. Die R9 Nano war ja auch entsprechend sparsam und quasi gleich schnell wie eine Fury. Wenn der Takt niedrig bleiben kann, kann man auch mal mehr Shader mit nehmen, ist alles eine Auslegungssache. Und da es hier um eine RDNA basierte GPU gehen soll, könnte die GPU durchaus relativ effizient sein, die 5600XT und 5700 sind ja auch nicht schlecht, was FPS/Watt angeht.
 
24gb hbm lässt die Vermutung aufkommen, dass es sich um eine Grafikkarte für den professionellen Einsatz handelt, im Hinblick auf Preis-/Leistung wäre sowas einfach unattraktiv für Gamer.

Die Bignavi Consumer werden denke ich mit 12-16gb rauskommen zu einem Preis der leicht unter dem der Nvidia Pedanten liegen wird. Die Hoffnung auf P/L Killer wie bei den Ryzens habe ich bei der GPU Sparte aufgegeben.
 
Wichtig ist nur wie die Leistung im Vergleich zu einer 2080ti aussieht, daher sind >4000 Schader und 1,6-1,8GHz wohl nötig - und 12 oder 16GB RAM
 
Wäre ja auch zu schön gewesen...
 
Das ganze Statement von SK Hynix ist etwas harsch ;)

Regarding recent fake news about SK hynix’s memory specifications and info sheet on AMD’s next generation GPU, on which some media have reported since February 24 (PST), SK hynix hereby announces that the company has not created and distributed such specifications as well as the document asserted to be leaked by an internal source.

We ask you not to distribute or make a false report on this from now on. We can assure you that SK hynix will take every necessary measure against such media, including all available legal actions, to ensure that such wrongful/illegal activities will be stopped immediately and to protect and defend our customers, business partners, and ourselves. For the avoidance of doubt, SK hynix reserves all rights.
 
Wichtig ist nur wie die Leistung im Vergleich zu einer 2080ti aussieht, daher sind >4000 Schader und 1,6-1,8GHz wohl nötig - und 12 oder 16GB RAM
Na ja, nicht wirklich (also meiner Meinung nach), denn sie tritt zwar jetzt gegen eine 2080Ti an, aber die ist schon eine Weile da und vor allem kommt da auch bald der Nachfolger. Damit sollte sie gleichziehen, wenn sie was reißen wollen. Sonst bleibt alles wie bisher :(


Zum Speicher: schön und gut, alle brauchen ja scheinbar immer zig GB an Speicher. Komischerweise will die keiner bezahlen ;)
 
Nein nein, bin auch informiert worden, dass es im März losgehen soll, 2 Wochen bleiben InVidia also noch. :d
:lol:
Diese "zwei Wochen" sind ein Gerücht das mal irgendwo in reddit hochgekommen ist. Basierend auf einer Aussage dass AMD "etwas" zu "big Navi" sagen wird.

Ich gehe dabei höchstens davon aus, dass es technische Angaben zur GPU geben wird. Und teile die Meinung dass das 24GB Model keine Consumer Karte wird.

MENCHI at its best
 
Das ganze Statement von SK Hynix ist etwas harsch ;)
Ja - auffällig harsch. Da stell ich mir eher die Frage, ob es da nun mehr darum geht, den Schaden einzudämmen weil das potentiell doch ein Leak war, der nicht nach außen hätte dringen drüfen? Man darf gespannt sein...
 
24GB sind einfach zu unrealistisch und zu teuer.
Navi10 hat doch schon gezeigt das man keine Probleme mit der Bandbreite hat und warum soll man da dann den teuren HBM2 verbauen.
384Bit+ mit GDDR6 sind einfach plausibler.
24GB HBM2 und die karte wird bei 20-30% schneller zur RTX2080Ti erstmal 1300€ kosten

16GB HBM2 ok aber 24GB sind schon sehr unrealistisch für eine Gaming Karte
 
Ja sehe ich auch so.
Was bei den jetzigen Preisen für eine 2080ti eigentlich sehr gut wäre. würde ich direkt nehmen :bigok:
Sehe ich auch so. 1300€ wäre da sogar nen schnapper im vergleich zur RTX2080Ti oder RTX Titan
 
Glaube nicht, dass sie die Karten so deutlich über den Preisen einer 2080ti platzieren können bzw. sollten. Vor allem, da auch NVidia Gerüchte von deutlichem Leistungszuwachs sprechen(50% schneller) und diese quasi auch vor der Türe stehen. Da wären die 1300€ dann schnell deutlich zu viel...
 
Aber aber, wenn man 1.300€ für Nvidia ausgibt, ist das günstig. Das gleiche Geld für AMD auszugeben ist teuer. Wir wollen mal schön das etablierte Weltbild des gefühlten Preises aufrecht erhalten, oder die Konsumenten könnten... verunsichert werden.
 
Glaube nicht, dass sie die Karten so deutlich über den Preisen einer 2080ti platzieren können bzw. sollten. Vor allem, da auch NVidia Gerüchte von deutlichem Leistungszuwachs sprechen(50% schneller) und diese quasi auch vor der Türe stehen. Da wären die 1300€ dann schnell deutlich zu viel...
Ja und was sagst du wenn NV da einfach mitspielt und die RTX3080 dann für 1100€ anbietet und die RTX3080Ti bei 1400-1500€ landet ?
dann bekommste zum preis einer RTX2080Ti eine RTX3080 mit 10-15% mehr Leistung
 
Nein, auch für NVidia ist das zu hoch - und da sprechen die Quellen ja auch von einem potentiellen Abwärtstrend bei den Preisen, was ich insgesamt sehr begrüßen würde, da Grafikkarten allgemein durch die quasi jahrelange Abstinenz von AMD durch NVIDIAs Monopol koniunierlich nach oben geschraubt wurden. Aber es ist halt so, ohne Konkurrenz kann man den Preis diktieren.

Das ist das gleiche Spiel das Intel auch jahrelang praktiziert hat - und endlich sind sie mal ordentlich auf die Fresse gefallen und müssen da wieder runterschrauben....

Aber aber, wenn man 1.300€ für Nvidia ausgibt, ist das günstig. Das gleiche Geld für AMD auszugeben ist teuer. Wir wollen mal schön das etablierte Weltbild des gefühlten Preises aufrecht erhalten, oder die Konsumenten könnten... verunsichert werden.
Dann haben wir alle Pech... und irgendwann kann es sich kaum wer mehr leisten High End Karten zu kaufen.
Würde aber dem, was AMD im CPU Sektor gemacht hat komplett wiedersprechen. Und bedenken - man will mehr Marktanteile erobern. Und das geht primär durch ein gutes Produkt zu einem konkurrenzlosen Preis.
 
DIe hohen Preise kann man ganz leicht auf den Corona Virus schieben

Bzw. die NextGen Konsolen stehen auch an und da wird Speicher dann womöglich knapp werden
 
...durch die quasi jahrelange Abstinenz von AMD durch NVIDIAs Monopol koniunierlich nach oben geschraubt wurden. Aber es ist halt so, ohne Konkurrenz kann man den Preis diktieren.
So ist das halt, wenn AMD für den Kunden nur existiert, damit die Nvidia Karten günstiger werden. Und jetzt wo AMD aufgehört hat, sich vor den Karren spannen zu lassen tun alle auf einmal geschockt und überrascht, warum die Preise so hoch sind.

Würden wir - die Kunden - nach P/L kaufen, würde sich das Bild ganz schnell ändern. Nvidia würde die Preise auf AMD-Niveau senken (und da muss schon ne halbe Apokalypse vor der Tür stehen, bevor der Lederjackenmensch das macht) und die Relationen würden sich alle nach unten berichtigen.

Da ne 2060S aber immer noch beliebter ist als ne 5700XT - obwohl sie weniger Leistung bietet - zeigt die Preisspirale eben nach oben. Wir wollen es so, wir kriegen es so.
 
Ich seh das komplett neutral und entspannt und würde NIE aufgrund der puren Fahnentreue ein (schlechteres) Produkt kaufen. Ich kaufe immer das, was mir als Endverbraucher die beste Leistung bietet zum aktuellen Zeitpunkt des Kaufs.
Waren das vor Jahren halt AMD CPUs und ATI Grafikkarten, so waren es in den letzten Jahren Intel CPUs und NV Karten. Das war einfach die Entwicklung. Heute zum Glück gibt es zumindest was die CPUs betrifft echte Alternativen und wenn die Gerüchte stimmen hoffentlich auch im High End GPU Segment bald wieder echte Optionen.

Aber dass AMD und ATI (nach dem Geschluck werden von AMD) leider einige Generationen lang massiv hinterher hinkten war leider so. Ich würde mich freuen, wenn Intel auch noch vernünftige Grafikkarten baut und sich somit noch ein dritter Player etablieren könnte. UNS Verbrauchern kann es nur zum Vorteil sein.

Und deine Unterstellung im ersten Satz ignoriere ich mal - aber ein wenig leid tust du mir durchaus.
 
Zuletzt bearbeitet:
Warum Scherz ? Die Kundschaft und Konsumenten können nicht mal GUI und tatsächlichen Treiber unterscheiden, wie hier zu lesen. Die Radeon VII war keine gute Karte, auch wenn sich hier die Käufer das einreden, so wird man keine Spieler zurückgewinnen.

In Neu-Taipei wird gemunkelt das die Ampere GeForce 50% weniger Strom zieht und dabei 50% Performance mehr bringt, da sollte man eher Angst haben das Jensen nicht weiter an der Schraube für High-End Produkte dreht, anstatt von preiswertem Big Navi mit Wundertreiber zu halluzinieren :unsure:.
Glaube nicht, dass sie die Karten so deutlich über den Preisen einer 2080ti platzieren können bzw. sollten. Vor allem, da auch NVidia Gerüchte von deutlichem Leistungszuwachs sprechen(50% schneller) und diese quasi auch vor der Türe stehen. Da wären die 1300€ dann schnell deutlich zu viel...


hab ich was verpasst? Dachte die Angabe von 50% Mehrleistung bezieht sich rein auf die Raytracing Leistung (was auch bitter nötig ist).
Die eigentliche Mehrleistung soll doch irgendwo im Bereich von ~15% liegen?
 
Es kann auch sein, dass das PCB so aufgebohrt wird, weil man noch das "günstige" PCB benutzen will, aber trotzdem PCIe 4.0 schaffen möchte. Wenn ein paar Löcher zu bohren billiger ist, als das "teure" PCB zu benutzen, ist das durchaus ne valide Option.
Ich habe aber auch eher gehört, dass die eigentliche Rohleistung nur marginal ansteigen soll und die RT-Kerne aufgebohrt werden sollen. Natürlich kann Nvidia immer noch einen Monster-Chip rausbringen und das durch pure Masse an Transistoren erschlagen. Das kann AMD aber auch.
 
[..]
Dann haben wir alle Pech... und irgendwann kann es sich kaum wer mehr leisten High End Karten zu kaufen.
[..]

Hier möchte ich Einspruch einlegen. Die Gamerkids sind in ihren 30ern oder drüber. Wer das haben will kauft es, die meisten können es sich leisten. Der Rest finanziert.
In Foren wurde argumentiert, der Aufpreis von RTX sei völlig okay, weil "neue" Technologie und wahnsinniger Mehrwert. So wurde dieses neue und heftige Preissegment mal eben innerhalb einer Generation gefestigt. "Die Leute" werden kaufen, selbst wenn Konkurrenz da ist. Weil "AMD Treiber sind doof und da funktioniert nichts". Das ist aus den Köpfen nicht rauszubekommen und ein beinahe so langsamer Prozess wie der in der Industrie - welcher hier belächelt wird ob seiner Starrheit.

Nvidia wird definitiv noch eine Schippe drauf legen und die Fans werden kaufen, der Rest zieht nach. Falls AMD mit big navi wirklich irgendwas abliefern sollte und dies auch halten kann (Folgegeneration), dann könnte sich das Bild in der darauffolgenden GPU Generation vielleicht ändern.

Nicht in Foren, wohlgemerkt. Hier gilt ja auch jetzt und für immer "intel beste cpu höchster takt !112", aber im Heimanwenderbereich.
 
Naja, das sehe ich anders. Ich hab meinen 40er überschritten und bin immer noch nicht bereit, mich endlos melken zu lassen.

Und generell wird sich der Hardwaremarkt generell in den nächsten Jahren verändern. Wenn man sich ansieht, was die Streaming-Gaming Lösungen aktuell schon können, dann werden sich sehr viele Leute (und das sind imho die Masse) sehr wohl überlegen, in Zukunft überhaupt noch teurere Hardware zu kaufen.

Heute kann ich auf einem uralten Laptop um 5€ im Monat Grafikkracher spielen..... Warum soll ich mir dann überhaupt noch eine 500€ Grafikkarte kaufen? Da reicht ein 300€ Aldi Rechner bzw. noch weniger aus.
Und die paar, die kompetetiv Shooter usw. spielen sind eine verschwindende Minderheit.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh