AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Sehe ich mittlerweile auch so, denn wenn bn wirklich was entgegen zu setzen hat, wäre jetzt der Zeitpunkt Infos zu streuen.
Gebe die Hoffnung aber noch nicht auf.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gebe die Hoffnung aber noch nicht auf.

Das würdest du nicht mal tun wenn BN und Ampere bereits im Laden erhältlich wären, denn dann könnte man immernoch auf den Treiber hoffen ;)

Aber wozu die Aufregung? Wir wissen weder etwas konkretes über Ampere noch über BN... also abwarten und Tee trinken.
 
Das würdest du nicht mal tun wenn BN und Ampere bereits im Laden erhältlich wären, denn dann könnte man immernoch auf den Treiber hoffen ;)

Aber wozu die Aufregung? Wir wissen weder etwas konkretes über Ampere noch über BN... also abwarten und Tee trinken.
yo, warten; sind nur noch 2 1/2 Wochen, die kriegen wir auch noch rum
 
Sehe ich mittlerweile auch so, denn wenn bn wirklich was entgegen zu setzen hat, wäre jetzt der Zeitpunkt Infos zu streuen.
Gebe die Hoffnung aber noch nicht auf.
Aktuell ist über die Leistung der NV Karten nichts offiziell !
Wenn die Test rauskommen von Ampere dann sollte auf jeden Fall was von AMD an Benchmarks gestreut werden wen man was entgegen setzen kann!
 
Wenn man den Spekus glauben mag, dann hat man bei AMD erst gegen ende September ein finales Boarddesign. Da muss schon vorher irgendwas definitives kommen um den Käuferkreis nicht an nVidia zu verlieren.
 
sollte Nvidia bei Ampere mit dem Speicher, wirklich so klotzen, wie es spekuliert wird, könnte man das natürlich auch als Zeichen sehen, das BN so schlecht nicht werden kann, da Nvidia ansonsten nicht viel Grund hätte mit dem Vram so quasi um sich zu werfen...

womöglich braucht man diesmal mehr Vram als Kaufanreiz bei Nvidia im Vergleich zu Amd weil die Leistung eng beieinander liegt, aber vielleicht rede ich mir das auch nur ein, um mir die Warterei nach dem Ampere Release auf BN schmackhafter zu machen :d
 
Oder RT braucht soviel VRAM :lol:
 
Vielleicht hat amd einen Weg gefunden RT mit wenig Ram zu realisieren. ;)
 
Ich gehe momentan fest davon aus, dass BN mit maximal 12 GB kommt.

Und bisher steht die Menge an VRAM bei nVidia noch gar nicht fest. Am Ende gibts dann wieder nur 11 GB für die 3080 Ti...
 
naja da Turing mit RT nun auch nicht gerade mit Speicher geklotzt hat, sondern im Gegenteil und das auch kein Problem für RT war sollte das eher nicht der Grund für den massigen Vram von Ampere sein..

da sich viele Hellseher mit dem massigen Speicherausbau von Ampere einig zu sein scheinen, glaube ich irgendwie schon das da was drann ist und kann mir nicht vorstellen das man doch wieder bei 11/12 GB Vram bleibt, aber in knapp über 2 Wochen sind wird hoffentlich schlauer zumindest bei Ampere
 
Bzgl. RT glaube ich bei Amd, dass es eh nur bei der Top Karte freigeschaltet ist aber man wird sehen ...
 
sollte Nvidia bei Ampere mit dem Speicher, wirklich so klotzen, wie es spekuliert wird, könnte man das natürlich auch als Zeichen sehen, das BN so schlecht nicht werden kann, da Nvidia ansonsten nicht viel Grund hätte mit dem Vram so quasi um sich zu werfen...
Bevor das gegenteil nicht bewiesen ist sollte man nicht davon ausgehen dass Nvidia überhaupt weiß dass AMD existiert, geschweige denn dass sie aufgrund von AMD mehr Geld in ihre Hardware pumpen. Das letzte Mal dass ich mitbekommen habe dass Nvidia auf AMD reagiert hat war als sie die GK104 GPU die eig. eine GTX 660 werden sollte als GTX 680 vermarktet haben, wieso? Weil es ausgereicht hat...
 
Naja, denke schon, dass NVIDIA nicht entgangen ist, was amd mit Intel gemacht hat aber kann mich natürlich auch irren. :hust:
 
Naja das glaube ich nicht im Bezug auf RT
Ich denke das die BN mit 4352shader 68Cus und auch BN mit 5120shader @80Cus RT aktiv sein wird!
Bei der PS5 und XBox Series X ist RT auch aktiv daher muss man das anbieten weil es nun vermehrt Einsatz finden wird.
Ich würde es ja gut finden wenn die 6900@4352Shader mit ca 200watt TDP kommt, die 6900XT@5120 bei 275Watt liegt und kanpp hinter der RTX 3090 liegt und dann eben noch eine 6900XTX kommt die wie der Ryzen 3900XT selektiert ist und nochmal 10-15% drauf packt so das man die RTX3090 schlägt bei moderatem verbrauch ca. 300Watt.
Weil ich finde es lohnt nicht wenn man mit Gewalt alles aus dem Chip herausholt so das das teil mega laut und heiß wird und nur kritik bekommt.
Eine karte die zwar etwas langsamer ist aber dafür ein ordentliches Paket bietet wäre besser und den Rest sollen die User dann per OC machen.
Man stelle sich vor man wäre 15% hinter der 360Watt verbrauchenden 3090 hätte aber selbst nur 275Watt und wäre sehr leise und recht kühl, hat aber noch 20% OC potenzial :bigok:
 
OC Pontential kannst du für immer vergessen, das wird, seitdem die Hersteller in der Lage sind die Technik in Masse weiter auszureizen, als Standard verkauft. Das ist somit auch eine Abwertung aktueller Produkte gegenüber Früheren, wo man die letzten x% Leistung noch nicht mitbezahlten musste.
Nur dreist von Intel, dass man überhaupt noch K-CPUs anbietet.
 
Naja aber dir ist doch schon klar das man immer nen sweetspot hat.
Warum die karte bei bei sagen wir mal 1,25V@2300Mhz laufen lassen wenn man bei 2,1Ghz nur 1,0V braucht und enorm viel weniger verbraucht.

Was kommt besser wenn man sagt die karte kann von 2,3Ghz auf 2,45Ghz übertaktet werden oder aber man sagt es ist möglich von 2,1Ghz auf 2,45Ghz zu gehen?
 
Besser kommt wenn man Benchmarks sprechen lässt, und die Karte da ab Werk möglichst lange Balken vorweisen kann. Und das wird ja mehr und mehr durch dynamische Turbos usw. ausgereizt.
Klar war's schön, als man vor einigen Jahren noch Shader freischalten konnte, und so aus einer billigen Mittelklassekarte ein "teures" Highend-Modell machen konnte (welches heute nur noch lächerlich billig erschine..). Aber das ist schon lange vorbei. Dann konnte man halt ein paar Jahre noch am Takt herumspielen, für ein paar FPS mehr oder weniger, in der Regel kaum zweistellig. Auch diese "Schummelei" seitens der bösen Kunden werden die Hersteller noch wegoptimieren, wenn sie es nicht schon mit der kommenden Generation perfektioniert haben.
 
Zuletzt bearbeitet:
Eben mit weiterer Erhöhung der Effizienz wird Overclocking weiter in den Fokus rücken.

Ich Takte, umzu gewinnen! ;)
 
Bei den Ryzen CPUs hat AMD ja gut gezeigt das man das mit der Effizienz gut hinbekommen hat.
Ich weiß nicht wie es bei Navi 10@5700XT gewesen war. weil die hat ja sehr viel geschluckt.

Ich würde aber sagen das AMD keine wahl haben wird und alles aus dem chip herausquetschen wird so wie sie es immer gemacht haben damit man nicht zu sehr abgehängt wird.
man hat halt eben auch nur 5120shader@80cus
da müsste AMD eigentlich eine Karte mit 96Cus haben damit sie sich das leisten könnten am Sweetspot zu arbeiten da man eben durch die mehr shader nen vorteil hat.
so ein 700-800mm² chip von AMD wäre geil

Edit: ich hoffe ja das AMD mal eine richtig gute karte presentiert wo es keine schnitzer gibt und man ein sehr gutes OC Potenzial hat was es so bei NV 100% nicht geben wird.
 
Ich würde es ja gut finden ....
Wovon träumst du nachts?
Deine Vorstellungen sind soweit von jeglichen Spekulationen die so im Netz herumgeistern entfernt dass es wirklich auf keine Kuhhaut mehr passt.

Auch das ganze "NV reagiert auf BN"-Gequatsche hier kennt man schon, bin nur viel zu faul um die alten Fiji, Vega-Threads wieder rauszukramen.
AMD verhält sich aktuell extrem ruhig, das kann alles bedeuten, von der absoluten Monster-Karte bis hin zu einem Rohrkrepierer.

Und da es seit Wochen 0 zusätzliche Infos zu BN gibt macht es auch wirklich keinen Sinn dauernd den Hypetrain wieder anzufachen.
 
Das hat ja auch nichts damit zu tun was kommt.

Was kommt wird sich erst zeigen.

Edit: habe ja nicht umsonst eine NV seit der GTX780
 
800 mm² wären aber auch sehr teuer. Langfristig wird es nur mit Chiplets gehen um die Kosten zu senken.

Leider stimmt es, die bisherigen Topmodelle von AMD waren nie besonders gut. Fiji war nahezu lächerlich verglichen mit der 980 Ti und Vega war auch nicht das was man erwartet hatte. Allerdings ist Navi schon in meinem PC und leistet für seine Shaderanzahl gut was, in größer wäre das immer noch konkurrenzfähig - Ganz im Gegensatz zu Vega, die mit 4096 Shadern gerade mal gegen 2560 von NVIDIA antreten kann. Und natürlich der Preis. Vor ein paar Jahren war es für mich gar keine große Frage ob ich die Ti kaufe, sie bot ein gutes P/L-Verhältnis und man hatte dann mindestens zwei Jahre Ruhe. Es ist absolut entspannend wenn nichts jucken kann, weil man bereits das Schnellste im PC hat (mal abgesehen von völlig überteuerten Titans).
 
Bei 80 CUs und +50% besserer Effizienz zu RDNA kann man die Leistung einer 2080 Ti + 20-30% realistisch erwarten. Alles darüber ist momentan eher Wunschdenken. Sollte es bei diesen Specs weniger werden wäre es schon ein Flop und AMD hätte es irgendwo versemmelt.

Nun wird es nach der Ampere Vorstellung interessant sein zu sehen wo man sich mit dieser Leistungsprognose einordnen wird. Den GA102 wird man sehr wahrscheinlich nicht überbieten. Gutes GA104 3080-Niveau plus 10% mehr wäre gut. Damit hätte man dann zwar mit etwas Abstand die 2. schnellste Karte am Markt, aber wäre immer noch gut im High-End positioniert.

Problematisch könnte es dann aber beim Gesamtpaket für AMD werden. Wenn man nichts gegen DLSS und der enormen RT-Power entgegensetzen kann, dann bleibt AMD nur noch der Weg über den Preis.
 
Zuletzt bearbeitet:
Nun wird es nach der Ampere Vorstellung interessant sein zu sehen wo man sich mit dieser Leistungsprognose einordnen wird. Den GA102 wird man sehr wahrscheinlich nicht überbieten. Gutes GA104-Niveau plus 10% mehr wäre gut. Damit hätte man dann zwar mit etwas Abstand die 2. schnellste Karte am Markt, aber wäre immer noch gut im High-End positioniert.
Naja, bisher spekuliert man auf 84 SM für die GA102 und 48 SM für die GA104. Das wäre schon ein ziemlich deutlicher Unterschied. 2080TI + 10-20% (also 10% weniger als die Navi Prognose) wird man mit 48 SM nicht schaffen, es sei denn, man ist in der Lage irgendwo deutlich mehr Leistung ohne mehr Shaderbreite rauszuholen. Es gibt dahingehend Spekulationen. Irgendwelche doppelte FP32 Einheiten oder solches Zeug. GA100 kann wohl 4xFP16 - aber nicht 2xFP32. Lässt sich ggf. umbauen für diesen Punkt. Dann hätte man deutlich mehr FP32 Performance. Man munkelt auch darauf, dass sich das INT/FP Verhältnis von 1:1 in 1:2 oder 1:3 ändert. -> spart Platz, bringt aber am Ende auch nicht mehr Leistung, wenn man nicht mehr Einheiten drauf baut. Was raus kommt, müssen wir dann sehen... Aber ich würde behaupten, dass nicht nur der große Ampere diese Änderungen bekommt, sondern alle Amperes...
Soll heißen - eine AMD, die mit 5120 ALUs (80 CUs) 4352 ALUs der TU102 um 20-30% schlägt, wie du annimmst, sollte im Verhältnis schon deutlich schneller als eine 48 SM breite GA104 GPU sein als "nur" 10% drüber. Denn wenn das der Fall wäre, dann müsste der 84 SM breite GA102 wieder Kreise um diese GPU drehen. Denn von 48 auf 84 sind das schlapp 75% mehr Einheiten. Ich sehe da einen Widerspruch ;)



Entweder der GA104 ist mit 48 SM nicht die ~10% über der alten 2080TI zu finden - oder BigN muss deutlich schneller als eben jene 48 SM breite GA104 GPU sein. Beides zusammen lässt sich irgendwie rein verhältnismäßig nicht unter einen Hut mit den 80 CUs von BigN bringen. Zumindest nicht zeitgleich für beide Ampere GPUs.

Realistisch gesehen - die 3070/3070TI spekuliert mit 46-48 SM auf dem GA104 schafft die 2080TI nicht, sondern liegt irgendwo 15-20% ca. niedriger, beerbt damit die 2080/2080S und bekommt 16GB. Die 3080 kommt mit dem GA102 und legt Richtung 2080TI zu, vllt ne Hand voll Prozent drüber. 10GB und die Option auf 20GB. Die 3080TI/3090 kommt mit 24GB und bekommt 80-84 SMs. Aktuell denke ich, es werden ca. 10-15%, was Ampere aus den Einheiten rausholt (über Takt/IPC). Nebst dem eher geringen Sprung bei der Einheitenanzahl (~20%) ergibt das knappe 40% OnTop auf die 2080TI für den großen Ampere. BigN dann auf halben Weg dazwischen mit mal was mehr, mit mal was weniger dichter dran. Preislich denke ich nach wie vor, 999$ bei NV - könnten aber auch mehr werden. BigN für ca. 100$ drunter, tendentiell eher bisschen mehr. Je nachdem, wie weit oben man ist vllt 800-900$.
 
Mein Fehler, mit GA104 meinte ich eigl. die 3080, welche nun ja den GA102 verbaut haben soll.
 
Wäre denkbar um die Kunden zu motivieren noch zu warten aber wenn das nicht passiert weiß man das AMD kleine Brötchen backen wird vs Ampere
 
Naja Ende September ist schon sehr späht für eine Vorstellung, ob sich Lisa Su auch per Livestream an die Bevölkerung wenden wird? :giggle:
 
@Powerplay

Kleiner, aber dafür schmackhafter! :d
 
Big Navi Vorstellung Mitte bis Ende September
und Lauch in der 2-ten oder 3-ten Oktoberwoche!
Schauen ob es sich bewahrheitet.
hoffentlich diesmal besser geraten als bei dem Container voll von Big Navi Karten, der bereits seit März in Deutschland rumsteht :lol: aber lassen wir das ...

wenn Amd bei der Vorstellung von Ampere Anfang September wenig bis nichts unternimmt, um die Kunden zum warten zu bewegen, wäre das meiner Meinung nach ein ziemlich deutliches Zeiches das BN nicht mit Ampere mitkann :unsure:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh