AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Navi22. Freunde des Übertaktens und der Wakü werden in ähnliche Regionen aber auch mit N21 vorstoßen können. Ist ja dieselbe Architektur.

stimmt, hab mich auch verguckt. navi 23 ist bei den mhz gar nicht gelistet :LOL:
ob navi23 dann noch mehr packt? :unsure:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei Navi23 würde ich ja eher fast auf sowas wie einen Mobile-Chip tippen, der exklusiv dort Verwendung findet. Der ist an sich irgendwie ansonsten zu nah an Navi22 mit 40CU. Da kann man auch mit Salvage noch runtergehen und braucht keinen extra Chip.
 
a bis 2050mhz boost und b bis 2200mhz boost.

Sieht auf dem Papier glänzend aus. Wenn die Karten bis 2500 Boosten können, sieht es fast schon wie ein Overclockers-Dream aus. (y)

Das ein günstiger 40 CU Chip mit 12 GB an einer 2080Ti klebt, wäre für die P/L-Käufer ein klare Ansage.
 
mal ne andere frage hat jemand schon mal erlebt das nvidia die karten wirklich so nah an kante und kotzgrenze prügelt wie jetzt bei den ampere ??

mfg
 
Der Oktober könnte ein spannender Monat werden.
 
Wird, wenn das stimmt, GPU Only sein. Das ganze board wird dann sicherlich bei 280-300W liegen.
 
Naja erstmal abwarten
Die sollen erstmal abliefern.
Ampere läuft ja schon echt an der Kotzgrenze vom verbrauch und mal sehen ob AMD da herankommt bei weniger Verbrauch.
Ob AMD es packt bei weniger Verbrauch das gleiche zu leisten bezweifle ich, aber wäre schön wenn sie es packen
 
Zuletzt bearbeitet:
Modell a (XL) 260 Watt
Modell b (XT) 300 bis 320 Watt

Erstere knapp unter RTX 3080
Die XT zwischen 3080 und 3090 zu einem Hammerpreis beide Versionen

Dann hoffen wir mal das es wirklich so kommt, wenn dann alles passt wäre das mal ein Grund bei Team Rot zukaufen.
 
Und ihr haltet es bei dieser Annahme für plausibel, dass AMD bis zum 28.10. nichts sagt?
nach allem was man bei Amd Graka Releases der letzten 10-15 Jahre schon erlebt hat, würde ich sagen ich traue es dem Marketing von Amd auch zu, das man diesmal einfach wirklich nichts sagt und dann released. Wobei ich schon davon ausgehe, das sobald die Partner für die Produktion mehr involviert sind, auch mehr Infos bis zum 28.10 durchsickern werden.

Ausser es gibt am 28.10 wirklich nur die Vorstellung der Architektur und den Release der Grakas erst später, dann wird wohl bis dahin auch kaum weiter was durchsickern, man darf auf jeden Fall gespannt sein

80 Cus mit 5120 Shadern und bis zu 2200 Mhz bei 300-320 Watt sollten schon was stemmen, dazu anscheinend die frei Wahl ob GDDR6 oder HBM2 - nett sag ich mal - natürlich immer unter der Annahme, das die Zahlen auch wirklich so stimmen und man einen Treiber hinbekommt, der diese Rohleistung dann auch in fps in die Games bekommt, schauen wir mal ...
 
Nein Menschen, Navi 22 mit 2,5 GHz sieht irgendwie unrealistisch aus. :unsure:

"socket_power_limit_ac[0] (W)" ist die TDP der Gpu. Wie bei Amd kennend, sind die Gpus ab Werk wieder beinahe voll auf Kante belichtet.
Wie soll nun Navi 22 ganze + 400 MHz mehr gpu-Taktrate bei nur 30 W mehr gpu-power erreichen?
Selbst wenn Navi 21 a den Daten zufolge der kastrierte 21-Chip wird, sind das too much.

Wegen Produktplatzierung und Wirtschaftlichkeit bekommen die leistungsstärksten/teuersten Produkte bei Prozessoren/Gpus immer die besten Spezifikationen.
Geforce 6800 Ultra hatte mehr Takt als 6800 GT, hd 7970 mehr als hd 7950. ryzen 3900 X trotz mehr Kernen dennoch mehr als ryzen 3700X.
Nur ganz am Ende des Extremums dreht es sich ein wenig (z.B. rtx 3080/3090).
Und +400 MHz resultieren auch nicht mehr in 5 - 10 % mehr fps, sondern in Richtung 15 %. So platziert man keine Produkte.

gfxclk mit bis 2050 MHz macht bei Navi 21 a/b noch Sinn (dies würde der game-clock sein).
freq_table_gfx[1] mit 2050 MHz für Navi 21 a und 2200 MHz für Navi 21 b, würde wohl der boost-clock werden.

Warum der uclk (Speichertakt) an einer Stelle bis zu 1000 MHz geht und an zweiter bis 1089 MHz ist auch komisch.
16 Gbps Datenrate sind 1000 * 8 * 2. 1089 MHz hingegen außerhalb der gddr6 Spezifikationen.
Beitrag automatisch zusammengeführt:

Und irgendeine Secret-Sauce hat Lisa Su mit ihrem Infinity Gauntlet aus dem Infinity Fabric, Cache und Stones anscheinend gebastelt^^
Bei 80 CUs, mit 256-Bit Speicherschnitstelle ganze 384 Gbps Datenrate - wohl ausreichend - zu übertragen. Gab es dies mit GDDR X, in solch einem Verhältnis die letzen 10 Jahre?
 
Zuletzt bearbeitet:
amd kann ja nur gewinnen nach dem nvidia disaster :)

Korrektur:
AMD sollte besser gewinnen, nach dem nvidia disaster ;)

Das ist nun (nach 2 schwachen Evolutionsstufen hinsichtlich der Effizienzsteigerung) die erste richtige Chance von AMD, Nvidia hat ihnen viel Luft zum atmen gelassen.
 
Generell ist es offensichtlich, das vor allem bei solch großen Unternehmen, auch wenn sie miteinander konkurrieren, keine Unternehmensführung dass andere Unternehmen freiwillig "in den Boden stampfen" will.
Weil dies bedeutet Konkurs, Verlust von Beschäftigungsplätzen, weniger Innovation, BIP und weiß was ich was. Davon haben höchstens die gemeinen Fanboys was (nicht mit dem üblichen Fan verwechseln; Fan sein ist okay). Vor allem wenn beide Unternehmen ihren Sitz im gleichen Land haben und ähnlich Innovativ etc. sind. Lol :haha:
Bei solchen Ausartungen des Raubtierkapitalismus schauen dann Staatsdiener auch mal gerne genauer hin.

Lederjacke tritt davor lieber wieder auf die Bremse, lässt den Käufer wieder Betatester spielen, und bringt - wieder zum Ärgernis - überteuerte und unfertige Produkte wie mit Turing raus.
Wenn auch dies nicht hinhaut wird die Finanzindustrie angeschmissen und Aktienanteile gekauft. Oder ganz extrem, das ganze Unternehmen akquiriert.

"Wieder" klingt komisch, passiert aber ständig. Bei Intel hat man doch auch mal Millionen an Amd gespendet, als es nicht so rosig aussah.
Sind bei Intel nun keine Engel; vor allem nach all den Dingen der letzen 3 Jahrzehnte :fresse:
Entweder wieder freiwillig Luft zum Atmen gelassen, oder wie nun mit Intel und nvidia unfreiwillig.
Unfreiwillig da Fehler gemacht aus Unterschätzung und Überheblichkeit.
 
Generell ist es offensichtlich, das vor allem bei solch großen Unternehmen, auch wenn sie miteinander konkurrieren, keine Unternehmensführung dass andere Unternehmen freiwillig "in den Boden stampfen" will.

Wovon träumst du denn nachts? Jedes unternehmen strebt die "Alleinherrschaft" an, da man preise diktieren kann. Mehr gewinn kann man nicht machen als Firma wie wenn man ein Monopol hat. nvidia ist es doch völlig egal wenn AMD nicht da wäre, die würden bei einem Bankrott von AMD eine Party feiern, die würde man bis zum Uranus hören.

Weil dies bedeutet Konkurs, Verlust von Beschäftigungsplätzen, weniger Innovation, BIP und weiß was ich was.

Das wäre nVidia auch völlig egal...



"Wieder" klingt komisch, passiert aber ständig. Bei Intel hat man doch auch mal Millionen an Amd gespendet, als es nicht so rosig aussah.

Na da hätte ich mal gerne einen Link und vorallem die bezüge wieso weshalb warum...
8-)
 
Hat nichts mit Träumen zu tun und egal ist da nichts. Lol :haha:
Reale Beziehungen sehen auch in diesem Geschäftsumfeld nicht so aus wie es öffentlich kommuniziert wird. Genau so wie Politik der Staatsdiener, gezeigt in Mainstream-/Staats-Tagesschau um 20 Uhr, auch ganz anders abläuft.
Das ist über die Jahre hinweg gewonnenes Wissen aus Büchern, Artikeln, Magazinen, Politik etc.
Genau deswegen spiele ich jetzt nicht persönliche Suchmaschine für dich ^.^
Das mit Intel stimmt so 100 %. K.A. vor wie viel Jahren ich dies gelesen habe. Dem krummen Gedächtnis nach war es entweder eine 8- oder 9-stellige Summe. Weiß nicht mehr ob in Echtgeld oder Aktienkäufe.

Wenn das menschliche Gehirn wie eine Festplatte funktionieren würde oder ich mich an Wort 165, auf Buchseite 278, in Zeile 19, gelesen vor 12 Jahren erinnern könnte, hätte ich ein paar Links gepostet. :ROFLMAO:
Beitrag automatisch zusammengeführt:

Leaken die jetzt eig. mit Absicht? o_O https://www.newegg.com/insider/how-to-choose-graphics-card/
ddbvd.jpg
 
Generell ist es offensichtlich, das vor allem bei solch großen Unternehmen, auch wenn sie miteinander konkurrieren, keine Unternehmensführung dass andere Unternehmen freiwillig "in den Boden stampfen" will.
Weil dies bedeutet Konkurs, Verlust von Beschäftigungsplätzen, weniger Innovation, BIP und weiß was ich was. Davon haben höchstens die gemeinen Fanboys was

naja bei einem Marktanteil von 20 zu 80% bei den Grakas würde ein einziges in den Boden stampfen (das wird ohnehin nicht passieren, aber 3080 Leistung mit 12-16 GB Vram wäre schon schön) von Nvidia durch Amd sicher nicht gleich den Konkurs von Nvidia bedeuten :d

von dem her düften sie ruhig mal stampfen, wenn sie es den können :bigok:
 
Leaken die jetzt eig. mit Absicht? o_O
Leak? Das sind die Ideen der letzten 2-3 Wochen in einer Tabelle.
512GB/s... Das hatte die 1080TI mit GDDR5X vor vier Jahren schon. Wenn das so stimmt gibt es entweder eine neue Speicherkompression oder die Karte verhungert an ihrem Speicherinterface.
 
Es wird von einem sehr großen Cache ausgegangen um das abzufangen, scheint günstiger zu produzieren sein als ein größeres Speicherinterface.
Wenns klappt solls mir egal sein wie sie es realisiert haben.
 
Kurz angeschaut. Jo, sieht nach Ratespielchen oder einfach nur Platzhalter-Werten aus.
6 GB Vram für den Nachfolger der 5700 xt.
Wäre ein größerer, nicht-zukunftsfähiger Speicherkrüppel als die rtx 3080 :fresse2:

von Nvidia durch Amd sicher nicht gleich den Konkurs von Nvidia bedeuten
:lol:
War andersrum gedacht, aber stimmt natürlich.
Kurzer Rückbick in die Steinzeit: Da hat Jensen und Geschäftsführung schon 2007 - 2010 dick vorgesorgt.
Denn noch zu den fetten Jahren - wo Leistung hoch und Preise für uns Käufer niedrig waren-, wo ATI/AMD noch 40 - 60 % Marktanteil hatten, so 2000 - 2010, mit Grafikkarten Knüllern wie der 9700/9800 Pro, X1800, hd 4870 etc. pp.
hat sich Jensen nicht so viel Lederjacken leiste können, die Margen waren nicht rekordhoch, und die Finanzindustrie deshalb verärgert über nvidias Geschäftsführung.

Aus der Not geboren hat Jensen und co. die Keule geschwungen und ist Anfangs mit CUDA und co. ein großes Risiko eingegangen was sich schlussendlich dick ausgezahlt hat.
Durch die Diversifizierung und dem Wandel vom reinen Unternehmen für Spielergrafikkarten, hin zum professionellem Umfeld (Rendering, CUDA, Quadro etc.), weiter zu Nvidia GRID (dem Vorgänger vom Streamingdienst NOW), hin zu Cloud, Servern etc.
In die Ecke getrieben hat man wenig zu verlieren und wird erfinderisch :)

Erinnert stark an 1995, die Geschichte mit dem Versagen der NV1 Karte und dem darauf folgendem all-in mit Riva 128. Als das Unternehmen kurz vor der Insolvenz und Auflösung stand.
Hat sich jedenfalls zweimal in der Unternehmensgeschichte bei nvidia ausgezahlt.

Dasselbe passiert nun seit einigen Jahren auch mit Amd.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh