Viele Gerüchte um Big Navi und nächste GeForce-Generation

Ja durchaus vorstellbar.
nur mal als Beispiel ich habe zwei TitanX gehabt von Palit und konnte plötzlich die karte mit dem neusten Treiber nicht betreiben und habe nen Ausrufezeichen im Gerätemanager gehabt.
habe dann ein EVGA bios drauf geflasht und es lief dann problemlos.
eine 5700xt würde ich auch nur von den Bekannten herstellen wie PowerColor, Saphir, XFX kaufen. Asus hatte ich meinem kumpel damals abgeraten aber er musste die trotzdem kaufen und hatte massive Probleme mit Überhitzung usw.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja, Software ist immer so eine Sache, Nvidia hatte ja auch richtige Schnitzer in ihren Treibern drin, nur derzeit scheinen sich die Beschwerden über die AMD GPUs zu häufen.
 
Ist nicht abzustreiten, aber m.M.n ist es immer noch kein Treiber Problem, sondern in Firmware Problem der Hersteller. Sonnst würden alle Probleme haben, ich z.b. habe 2stk verbaut in Rechnern von freunden, die laufen und laufen und laufen wirklich mit 0,0 Problemen.
 
1.April, das wär es doch, die Aprilscherze werden klasse
 
So wie AMD RXCanis vor 2 Jahren?
Nein wir brauchen jetzt mal was handfestes, was mit nem bisschen Leistung Big Navi kommt und ist sicher kein Scherz 8-)

Ich gehe persönlich davon aus, dass falls die Karte schon auf rdna2 basiert richtig Balett zeigen wird. 8-)
 
Zuletzt bearbeitet:
Ich drücke auch die Daumen, aber ebenso würde ich abwarten bis die 3800ti draußen ist. Dann wird wieder neutral entschieden. Ein Wechsel von Intel auf AMD war ja bei mir auch möglich, warum nicht auch von Nvidia auf AMD. Muss nur besser sein und der Preis muss auch stimmen. Bei der Grafikkarte stellt sich nur die Frage nach Anwendungen nicht, wie bei einer CPU.
 
Ich tippe auf Sommer bis Herbst, wahrscheinlich wieder schlückchenweise. Bis dann ordentliche Custom-Modelle zu ordentlichen Preisen verfügbar sind dauert es immer noch ein paar Wochen. Das war damals bei der 1080 so und selbst bei Navi ähnlich, da zu Beginn nur Blowerkarten teils zu horrenden Preisen gehandelt wurden.
 
Zuletzt bearbeitet:
Ich tippe auf Sommer bis Herbst, wahrscheinlich wieder schlückchenweise. Bis dann ordentliche Custom-Modelle zu ordentlichen Preisen verfügbar sind dauert es immer noch ein paar Wochen. Das war damals bei der 1080 so und selbst bei Navi ähnlich, da zu Beginn nur Blowerkarten teils zu horrenden Preisen gehandelt wurden.

Also Weihnachten :-) oder BlackFriday vielleicht schon
 
Unsinn, aktuelle Gerüchte deuten hart darauf hin, dass ein Launch unmittelbar bevorsteht, ergo März.
 
Sack Reis in China oder so. So einen Stromfresser mach ich mir eh nicht in meinen Rechner. Aber als FHD-Zocker braucht man das auch nicht.
 
Sack Reis in China oder so. So einen Stromfresser mach ich mir eh nicht in meinen Rechner. Aber als FHD-Zocker braucht man das auch nicht.

Hi,
aha! Schön, oder auch nicht..... who cares??


Ich werde mir auf jedenfall eine "BIGNavi" holen, meine Vega64 ist jetzt 2,5 Jahre alt, da muss was neues her! Aber auch hier...WHO CARES!?


Mfg
macom
 
Hi,
aha! Schön, oder auch nicht..... who cares??


Ich werde mir auf jedenfall eine "BIGNavi" holen, meine Vega64 ist jetzt 2,5 Jahre alt, da muss was neues her! Aber auch hier...WHO CARES!?


Mfg
macom

Alles gut. Jeder hat seine eigene Sichtweise auf die Dinge :sneaky:
 
Welchen Stromfresser ?
Das dürfte wohl eine Anspielung auf die letzten drei Anläufe AMDs in Sachen HighEnd GPUs gewesen sein. Die FuryX, die Vega64 und die Radeon VII haben sich in dieser Hinsicht nicht gerade mit Ruhm bekleckert. Selbst der 7nm "Vorteil" der Radeon VII hat dabei nur bedingt gezogen. Die Wahrscheinlichkeit, dass Big Navi in die Region 300W und mehr vordringt, ist recht hoch würde ich meinen.
Zumindest ist sowas in 2020 definitiv kühlbar und gesehen haben wir das auch schon. Dass der Big Navi bei 250-270W nen Cut macht, ist mMn recht unwahrscheinlich, gemessen an der 5700XT mit ihren um die 200W - um die 30% mehr Powerbudget reicht nicht für nen 2080TI Nachfolger. Vielleicht nichtmal für ne 2080TI selbst, es sei denn, die Architektur reißt es völlig raus. Aber wie Wahrscheinlich ist das wirklich?
 
@fdsonne genau das befürchte ich eben auch. Im Hinblick auf die 5700xt könnte so ein 500qmm chip der es mit der RTX2080ti aufnehmen soll schon ordentlich Strom saugen. Zweifel auch das RDNA2 in Sachen Energieeffizienz groß besser als turing wird.
 
Jetzt seid doch mal nicht so realistisch, ich lese so gerne wie sich alle Hoffnungen machen :shot:
 
Hi,
Wer glaubt das bignavi mehr Leistung bei weniger Verbrauch bringt, dem ist nicht zu helfen. Da muss man realistisch bleiben.
Als Nvidia Verweigerer werde ich bignavi aber auf jeden Fall Kaufen !
Fanboy? Ja! :giggle:

Mfg
macom
 
Ist bei AMD tatsächlich immer recht doof wenn die Finalen Produkte was mehr Strom Ziehen und so in den Handel kommen. bei Vega haben Sie es ja total übertrieben, was am ende keiner verstehen konnte, denn selbst mit 0,2v weniger laufen die karten quasie alle mit höherem takt bei deuuutlich weniger verbrauch. Ich habe ja selber noch eine Vega 64 und meine z.b. macht bei 1,05V also rund 0,15V weniger als Stock mit fast 1,7Ghz und der HBM läuft mit 1140Mhz statt 945Mhz, die Karte ist mess und fühlbar schneller als Stock und verbraucht dabei auch noch 40-50w weniger. Zu Anfangs habe ich sogar nur 975mV auf die GPU gegeben, also 0,225V weniger, da hat die GPU nur 150w- 170w gezogen und Boostetet trotztem auf 1550Mhz mit 1050Mhz HBM, Damit hat Sie knapp weniger verbraucht als eine GTX1080 und war exact so schnell bzw teilweise schneller. Ist halt für den User wie mich, der gerne einstellt und bastelt eher schön soviel Potential aus einer Karte zu holen, aber für alle , die einbauen und loslegen wollen, ist das verständlicherweise echt doof und da verstehe ich AMD nicht, dass sie solche Produkte auf den markt bringen, obwohl da soviel Potential brach liegt, denn sind wir mal ehrlich, eine Vega64 z.B zu Relase, mit 150w-170w GPU verbrauch (Statt 260w und mehr), dadurch resultierenden guten Temperaturen und gute Boost taktraten, die sich auf augenhöhe mit einer GTX 1080 befindet, die karte hätte doch viel mehr Kunden gefunden als so wie es gelaufen ist, das ist schade. Wenn Big Navi kommt und es so sein sollte, dass hier 300+Watt verbraucht werden, schreckt das wieder zuviele ab( Mich nicht, ich bin eine bastel Hure :p ). Das wäre wieder durchaus schade für AMD.
 

Anhänge

  • Vega64 OC.jpg
    Vega64 OC.jpg
    153 KB · Aufrufe: 62
Zuletzt bearbeitet:
AMD wird, so wie ich das sehe, bei der Energieeffizienz den Grünen noch ein paar Jährchen hinterher laufen. Nichts desto trotz werde ich mir ne 5700XT in meinen neuen Rechner einbauen, obwohl ich da Leistungsstärkeres bei gleichem Energieverbrauch auf der grünen Seite finde. Ich bin aber ein Verfechter von "Alles aus einer Hand". Die Produkte harmonieren so meiner Meinung nach besser.
 
Ist bei AMD tatsächlich immer recht doof wenn die Finalen Produkte was mehr Strom Ziehen und so in den Handel kommen. bei Vega haben Sie es ja total übertrieben, was am ende keiner verstehen konnte, denn selbst mit 0,2v weniger laufen die karten quasie alle mit höherem takt bei deuuutlich weniger verbrauch.
Ja, sie laufen, in irgend einem Game, in irgend einem Bench, für ein paar Minuten oder wenige Stunden. Aber ihr könnt halt eigentlich effektiv nicht so nen kurzen "gucken ob es abschmiert" Test als eine Herstellermaßgabe ranziehen. Damit redet man sich den Spaß halt dann doch wieder massiv schön. Irgend einen Grund hat es, warum das AMD so fährt - und da das nicht das erste mal ist und in der Vergangenheit schon recht häufig der Fall war liegt die Vermutung einfach mal nahe, dass diese Spannungen zumindest höher als in den händischen UV Tests irgendwo notwendig sind um die eigens gesteckten Vorgaben auch garantieren zu können! Das interessiert den Gamer am Ende nicht die Bohne, weil der eh normalerweise keine xx-Stunden am Stück absolut gleichbleibende Dauervolllast auf so eine GPU knallt - aber andere Anwendungsbereiche interessiert das schon. Und selbst wenn das Game dann mal abnippelt nach 4 oder 6 Stunden - ja dann schimpft man halt auf die Software oder weis der Geier was und weiter gehts. Im Business-Usecase ist das aber schlicht keine Option.
Wenn ICH mir so ne GPU als Renderschmette in den Renderserver drücken würde, bspw. so ne VegaFE - dann erwarte ich, dass das Ding in JEDER Situation auch stabil bleibt. Und hier trennt sich dann halt das Spreu vom Weizen. Mit den UV Settings sinkt die Wahrscheinlichkeit dass es läuft schon deutlich. Vor allem wenn man sieht wie "nah" die Leute die Dinger an der Stabilitätsgrenze betreiben. Also Testen bis Absturz und dann mit der Spannung eine oder zwei Stufen rauf. Oder mit dem Takt paar wenige MHz runter. Das sind Peanuts - die Karte würde im produktiv Betrieb mit dem bisschen nachgeben einfach paar Minuten später abnippeln.

Ich für meinen Teil teste bspw. meine GPUs auf mehr als einen Tag Dauervollast in Cycles Blender. Und was soll man da sagen? Auch die vielfach immer gelobten NV GPUs lassen da schon deutlich federn. Ich habe hier bspw. zwei 1080TIs, EVGA FTW3, die mich richtig enttäuscht haben bei dem Thema, denn die schaffen nichtmal ihre Stock Taktraten! Stock sind das dort bisschen unterhalb 2GHz im Boost, wenn man das Powertarget aufdreht. Das nippelt irgendwann einfach ab. Mit -150 auf der GPU hingegen und "nur" 100% PT lief das seinerzeit auch mal ne Woche unter Volllast durch :d Temperaturen sollten dabei auch das Problem sein, nichtmal 70°C auf der GPU bei 100% Lüfterspeed aller drei Lüfter.

Ich bin aber ein Verfechter von "Alles aus einer Hand". Die Produkte harmonieren so meiner Meinung nach besser.

Würdest du es denn glauben, wenn man dir sagt, dass das schlicht und ergreifend ein Mythos ist? :d
Unterm Strich, es macht wirklich keinen Unterschied ;)
Früher war sowas durchaus mal angebracht, aber System <> GPU war auch früher nicht das Problem - mir fällt aber bspw. spontan sowas wie CPU Hersteller <> Chipsatz ein. Oder eben GPU <> Chipsatz vom Board (seinerzeit NV mit den NV Chipsätzen, SLI und so)

Aber jeder soll kaufen was er für richtig hält ;) Die 5700er sind definitiv mal keine schlechten Karten
Kann BigNavi dort anknüpfen, dann werden die Dinger nicht mal schlecht werden, davon bin ich überzeugt. Das mit dem Verbrauch muss man dann am Ende sehen... Und wie weit NV mit dem nächsten Schritt auszuholen im Stande ist. Der 7nm Schwenk steht halt noch an. Inkl. der damit ziemlich sicher einher gehenden deutlichen Effizienzsteigerung. Den hat AMD schon vollzogen und müssen eben dann die wohl klar kleineren Brötchen mit den zukünftigen 7nm Aufgüssen/Verbesserungen "backen" um das noch weiter zu pushen.
 
Ist bei mir Ähnlich, geschuldet aber auch meinen Freesync Monitoren, da stört es mich echt nicht dass ich vll. 10% weniger Leistung habe, dafür habe ich aber die Maximale Kompatibilität und alles läuft gut. Das war auch der Grund eine Vega64 statt einer GTX1080 zu kaufen. Bereut habe ich es nicht, da ich nur 75Hz am Monitor habe (Sync Range 40Hz-75Hz) und da schafft eine Vega64 soziemlich alle Games in besten Einstellungen bei meiner Auflösung und ich kann Freesync genießen. Es ist immer Individuell was gut und Sinvoll für einen ist.
Beitrag automatisch zusammengeführt:

Ja, sie laufen, in irgend einem Game, in irgend einem Bench, für ein paar Minuten oder wenige Stunden. Aber ihr könnt halt eigentlich effektiv nicht so nen kurzen "gucken ob es abschmiert" Test als eine Herstellermaßgabe ranziehen. Damit redet man sich den Spaß halt dann doch wieder massiv schön.
Die karte läuft seit 2017 in allen Benchmarks und Spielen Fehler und absturz frei. Die Vega56 meiner Freundin übrigens auch, der Sammler ist voll von den Ergebnissen und jede karte läuft da mit weniger Spannung bei besserem Boost und Temperaturen. Ausnahmslos, jede! bei Vega ist es ja so extrem die Abweichungen von den Stock karten zu den Ergebnissen der Community, dass man da nur ein schnellschuss von AMD annehmen kann um die Karte ohne vernünftige und längere Stabilität Tests auf den markt zu bringen um mit der Konkurrenz mit zu halten, da gibt man lieber zuviel als zu wenig, damit alles läuft.
Beitrag automatisch zusammengeführt:

Ich verstehe genau was du meinst, aber solch große abweichungen sind "nicht" normal.
 
Zuletzt bearbeitet:
Würdest du es denn glauben, wenn man dir sagt, dass das schlicht und ergreifend ein Mythos ist? :d
Unterm Strich, es macht wirklich keinen Unterschied ;)
Früher war sowas durchaus mal angebracht, aber System <> GPU war auch früher nicht das Problem - mir fällt aber bspw. spontan sowas wie CPU Hersteller <> Chipsatz ein. Oder eben GPU <> Chipsatz vom Board (seinerzeit NV mit den NV Chipsätzen, SLI und so)

Aber jeder soll kaufen was er für richtig hält ;) Die 5700er sind definitiv mal keine schlechten Karten
Kann BigNavi dort anknüpfen, dann werden die Dinger nicht mal schlecht werden, davon bin ich überzeugt. Das mit dem Verbrauch muss man dann am Ende sehen... Und wie weit NV mit dem nächsten Schritt auszuholen im Stande ist. Der 7nm Schwenk steht halt noch an. Inkl. der damit ziemlich sicher einher gehenden deutlichen Effizienzsteigerung. Den hat AMD schon vollzogen und müssen eben dann die wohl klar kleineren Brötchen mit den zukünftigen 7nm Aufgüssen/Verbesserungen "backen" um das noch weiter zu pushen.

Latürnich ist das ein Mythos8-) Das ist "nur" eine Macke von mir persönlich. Was "Big Navi" betrifft; mir wird mit großer Sicherheit der Stromverbrauch und der Preis mal so gar nicht zusagen. Wie soll es denn auch gehen? Man hat auf 7nm verkleinert und das bedeutet halt nun mal eine größere Transistorenanzahl auf kleinerer Fläche. Da hat man dann halt jede Menge Verlustleistung.
 
Naja, was heißt normal, erinnerst du dich noch an die HD2900XT Eagle?
Die wurde seinerzeit mal mit 1,200V vGPU Spannung ausgeliefert. Die letzten mir bekannten Modelle kamen noch auf 1,050V und waren von der Chip Güte her auch deutlich besser, mehr OC bei weniger Spannung, weniger hohe Temperaturen und natürlich klar weniger Verbrauch.
Am Ende kann das eh nur AMD beantworten - es würde theoretisch ja schon reichen wenn es gewisse GPU Bereiche gibt, die mit weniger Spannung nicht stabil sind, die in Games mehr oder wengier aber irrelevant sind. Dann merkt das kein Gamer, wie auch.

Vergleichbar mit AVX bei Intel CPUs. Du kannst 5GHz+ schon recht einfach aus so nem aktuellen Intel Mainstream rausholen, wenn es keine echte Gurke ist. Aber bei AVX/AVX2 Last schaut das dann schon wieder etwas anders aus. -> wer kein AVX nutzt, hat halt das "Problem" dann auch gar nicht. Wenn sich dann viele non AVX-Tester in einem Thread einfinden und Ergebnisse teilen, dann gilt das halt dennoch nur für diese Art des Lastzustandes. Soo als ganz einfaches Beispiel, was ich damit meinte.
 
Ein optimierter Navi Vollausbau, gerne auch mit HBM wird eine 2080 Ti definitiv mit abstand schlagen, da bräuchte man nur eine 5700XT verdoppelt... jedoch wird NV dann schon einen nachfolger auf den Markt bringen.
 
So ganz geht die Rechnung aber nicht auf. Die RTX 2080 Ti hat auch exakt doppelt soviele Ausführungseinheiten wie die RTX 2060 Super, die Taktraten sind in etwa gleich, die 2060 boostet je nach Spiel vielleicht 20-30MHz höher. Nur das Speicherinterface ist 37,5% breiter, ROPs und Cache gibt es entsprechend mehr.
Trotzdem leistet die 2080 Ti je nach Auflösung nur 50-66% mehr, aber nicht 100% mehr.

Ein Big Navi mit doppelt so vielen Ausführungseinheiten wie Navi 10 wäre also nicht per se doppelt so schnell. Das haben wir ja nun auch bei Fiji und Vega gesehen. Die ganzen Einheiten vollen auch effizient gefüttert werden und das hat AMD in der Vergangenheit schlechter hingekriegt als Nvidia. RDNA hat an diesem Problem gearbeitet, RDNA2 wird es bestimmt noch mehr angehen, trotzdem werden mehr als ca. 70% Mehrleistung gegenüber Navi 10 nicht drin sein.
Ein Faktor sind dabei natürlich Taktraten, die bestenfalls gleichauf mit Navi 10 sind, sonst eher etwas niedriger, ein anderer das Speicherinterface. Ich bin nicht sicher, aber ich meine, dass man für Big Navi nicht mit HBM, sondern einem normalen GDDR6-Speicherinterface mit vielleicht 384Bit rechnet. Da wäre AMD also auch nicht im Vorteil.
Da eine 5700XT natürlich noch so 10% vor einer 2060 Super ist und die 2080 Ti nurnoch 37-54% schneller ist, würde auch ein ähnlicher Performancesprung von Navi 10 zu Big Navi wie zwischen RTX 2060 Super und RTX 2080 Ti reichen, damit Big Navi deutlich vor der 2080 Ti ist, aber das wird definitiv nicht für die 3080 Ti reichen, höchstens noch für die 3080. Und da wären wir dann wieder bei Vega vs. Pascal, wo Vega 56 und 64 durchaus schneller sein konnten als GTX 1070 (Ti) und 1080, aber mit einem unverhältnismäßig hohen Energieverbrauch. Gewinn wird AMD dann auch nicht mehr so damit einfahren können.
Nur wenn RDNA2 wirklich kolossale Verbesserungen brächte, oder Big Navi noch irgendwo deutlich mehr wächst ggü NAvi 10, könnte das anders aussehen.
Trotzdem ist es natürlich wichtig, dass AMD in der Region überhaupt einigermaßen konkurrenzfähig bleibt und nicht weiterhin alles ab 450€ nur von Nvidia beherrscht wird.
 
Ist doch ganze einfach: Big Navi muss 30%+ schneller sein als eine 2080Ti.

So wie ich das in Erinnerung habe sind das immer ~30% von Ti zu Ti gewesen.
 
Viele meinen ja die 3080TI wir zur 2080TI 50-70% drauf legen, aber das ist nicht vorstellbar für mich, das wäre seit 20 Jahren das erste mal, dass über 45% drin sind. Das Top Modell der neuen GEN ist eigentlich immer "nur" 25%-35% schneller gewesen , die 2080TI ist bei CB im Performance Index 32% schneller als die 1080TI. Wir können nur Mutmaßen, ich freue mich auf Spannende Wochen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh