AMD spricht erneut über Big Navi: Desktop-Karten vor den Konsolen am Markt

Naja die Sony GPU hat ja 40Cus und 36sind aktiv.
AMD hätte das halt so machen müssen wie NV also lieber 86Cus und eben 80/82 aktiv lassen und wenn es dann läuft kann man eben später noch eine XTX bringen mit 86Cus

Edit: hoffen wir nun das AMD da eine top karte bringt weil ich finde das die 3080@OC vs die 2080Ti@ OC nicht der mega burner ist.
Grade bei RT bin ich echt eintäuscht wie schlecht das da ist.
Bin gespannt wie nah dran Big Navi sein wird --> Daumen drücken 😅
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja also ich denke auch, dass AMD diesmal eine Chance hat, wir haben das heute gesehen im Test von Ampere, die Karte liegt in der Leistung etwas unter den Erwartungen bei einem sehr hohen Verbrauch.
 
Die 3080 ist schon stark aber man braucht eben eine sehr hohe PT und wakü.
Wenn man so eine 3080@ 2100Mhz betreiben kann wird das schon ordentlich abgehen @500Watt 🙈 :fresse2:
 
Klar leistet der Kühler gute arbeitet ist aber auch schon im bereich der Spannungsversorgung am Limit@ Stock mit über 90C° auf der rückseite und womöglich 100C°+ effektiv
Kann ja jeder machen wie er will aber die 3080 ist für mich keine karte die ich als 2080Ti user kaufen würde.

Wie PCGh schon sagte das ist eher was für leute die ne 2080 hatten da die leistung zur 2080Ti@OC zu gering ist und der VRAM auch weniger ist. Die sagten ja klar das die 10Gb voll am limit sind@ 4k.
das ist eine 1440p Karte
 
  • Danke
Reaktionen: Tzk
Wie PCGh schon sagte das ist eher was für leute die ne 2080 hatten da die leistung zur 2080Ti@OC zu gering ist und der VRAM auch weniger ist. Die sagten ja klar das die 10Gb voll am limit sind@ 4k.
das ist eine 1440p Karte


Ist nur Gelaber. Die sollen mir NACHWEISSEN / BEWEISSEN das man bei 4K mit 10GB VRAM "am Limit" läuft und nicht nur das vorsich hin sabern.
 
Der FE-Kühler ist in Ordnung, er ist sozusagen die "Baseline". Customs sind immer teurer, bieten dafür aber eben auch Komfort und bei den teuren Modellen wahrscheinlich eine bessere und leisere Kühlung - Optional mehr Powerlimit bei den Schlachtschiffen. Auf die Tests der Customs bin ich auch mal gespannt. Offenbar ist nicht viel mit OC zu machen.

Und ja, 10 GB sind wenig. Aber man muss ja nicht kaufen. Es dürfte doch sowieso schon jedem klar sein dass nächstes Jahr ein Super Refresh kommen wird mit mehr Speicher. Wenn man den Vorgänger nimmt (die 2080) sind 2 GB mehr ein Fortschritt, allerdings muss man dabei auch bedenken dass es 8 GB schon mit Pascal gab. Selbst die RX 480 aus 2016 hatte schon 8 GB und die ist bei weitem kein High-End. Das RT ist auch mal wieder lachhaft. Ich kann jedem mit einer 2080 Ti nur raten: Behaltet sie. Die Karten waren teuer genug. Ich hatte meine 1080 Ti auch drei Jahre, weil in der Zwischenzeit nichts kam was einen starken Juckreiz verursachte.
 
Wir haben hier intern ein Tool von @DragonTear mit dem VRAM getestet werden kann.
Bin gespannt was @Don damit anstellen wird in der nächsten Zeit.

Im Endeffekt bekommen wir damit endlich mal messbare FAKTEN, statt Stammtischgelaber zum VRAM.
Aktuell wissen wir nur, dass manche Spiele jeden VRAM voll machen, nicht aber wie viel sie benötigen. Das ist nur geraten, in die eine wie in die andere Richtung.

Sehr gespannt auf die Ergebnisse der Tests!
 
  • Danke
Reaktionen: Tzk
Nochmal: 10GB @ 4k sind zu wenig / ist am Limit. Jeder 2. wiederholt den Mist, keiner hat es bewiesen. Also: no proof, no fame :shot:
 
Ich zocke in 4k und habe 11Gb und sehe das es bei einigen Games dann probleme gibt.
 
8gb sind zu wenig, da sehe ich 10gb dann als minimum an für 4K mit vollen details. Die vram tests würde ich aber auch gerne lesen.
 
Bezüglich der RDNA in den Konsolen: Es kommt wohl eine Xbox Series S mit 20 CUs, darum auch das niedrige Ergebnis. Mit 56 CUs könnte man eventuell schon sehen was RDNA2 leisten wird, dann kann man es sich hochrechnen.
Heiliger Strohsack. Das sind dann 68 % Skalierung :whistle:
Und das obwohl der Chip der Series X mit 1,82 GHz und der Series S mit 1,56 GHz läuft.
Wenn ich die TFLOPS der Series S auf 4,5 setze (angenommen das wären 1,82 GHz), ist die Skalierung über 95 %.

Wenn die Beschäftigen während der gesamten Entwicklung nicht betrunken waren oder durch Nacktfotos von Lisa Su ständig abgelenkt, müsste sich 80 CU BigNavi min. mit der rtx 3080 anlegen. :giggle:

Nur eine Vermutung und optimistische Hoffnung: Die Namensgebung 6900 XT. 6800 und 6700 spielt auf Mitspieler rtx 3070, 3080 und 3090 ab.
 
Nochmal: nicht labbern, sondern beweisen.

Schau dir doch einfach das besagte PCGH 3080 Benchmark Video nochmal an und achte mal drauf wie sehr der Speicher ausgelastet ist in den 2160p Benchmarks. Wie zu sehen ist, nutzt die 2080ti 11gb fast immer mehr Speicher als die 3080 mit 10gb, was für mich logischerweise heißt dass der speicherverbrauch in der Szene höher ist als die 11gb von der 2080ti.
In dem Sinne: Nicht labbern, sondern besser hinschauen :d
 
Hab auch schon öfters gehört, dass man die Speicherauslastung von Riva nicht zu sehr glauben schenken soll. Aber wenn du eine Möglichkeit kennst mit der man dir glaubhaft zeigen kann dass die 10-11gb bei 4k voll ausgelastet sind, dann immer her damit. Es gibt sicher ein paar hier, die das mit ihrer 2080ti für dich testen werden :xmas:
 
Schau dir doch einfach das besagte PCGH 3080 Benchmark Video nochmal an und achte mal drauf wie sehr der Speicher ausgelastet ist in den 2160p Benchmarks. Wie zu sehen ist, nutzt die 2080ti 11gb fast immer mehr Speicher als die 3080 mit 10gb, was für mich logischerweise heißt dass der speicherverbrauch in der Szene höher ist als die 11gb von der 2080ti.

Das ist leider ein Trugschluss.
Moderne Engines belegen gerne einfach alles Vorhandene, oder es wird einfach nicht aufgeräumt, wenn nicht nötig (was ja sinnvoll ist).

Das ist weiterhin kein Beleg dafür, wie viel benutzt wird.
Um das zu erfahren, müssen wir auf Tests warten, die @DragonTear und ermöglicht hat mit seinem Tool.
Muss nur noch jemand mit genug Zeit und evtl. 2-3 GPUs auf Halde auftauchen und das durchziehen.
 
Ich kann dir mit einer 2080ti in wqhd genug videos machen bei denen ich in cod warzone auf 10900mb komme und was dann geschah wird sie verblüffen: es ruckelte nicht und die Auslastung ging wieder ein wenig runter, aber auch da, erschreckend, kein ruckeln ;)
 
Das mit dem Reservieren ist aber auch nur "dummes" Gelaber oder? Und wenn der Vram ausgeht wird es nicht zwangsläufig ruckeln, die Min FPS fallen ab... (natürlich, wenn zutief, ruckelt es) Wenn ich bei meiner Vega64 HBC einschalte und erlaube 4Weitere GB der Graka zuzuschreiben vom Arbeitsspeicher, dann steigen im Flugsim 2020 die Min FPS bei selben Szenario messbar an, statt der vorherigen Max 7900MB sind plötzlich über 11000MB belegt die auch genutzt werden, sonnst würden die Min FPS nicht steigen. Selbe verhalten in Horizon zero Dawn und FFX
 
Da Nvidia nicht das geliefert hat was ich mir gewünscht habe, muss ich nun auf AMD hoffen :hmm:

Gesetzt dem Fall dass AMD entgegen vieler Erwartungen wirklich +50% Effizienz gegenüber RNDA1 liefert, werde ich mich wirklich fragen müssen, ob ich den Treibern bzw. der allgemeinen Usability nach Polaris noch eine 2. Chance geben soll :unsure:

Aber gut, mit ein wenig "Pech" muss ich mir die Frage nicht stellen und werde wohl bis Hopper/2022 abwarten müssen, was eig. nicht weiter schlimm ist da ich mit Pascal gut klar komme.
 
Bin in meinem Thread zu dem erwähnten Tool übrigens auch kurz auf das Argument mit "MSI Afterburner zeigt XXGb VRam Nutzung an", eingegangen.
 
z.T Treiber, ich hatte noch nie Probleme mit denen, ich weis nicht was manche anstellen, aber ich kann es aus meiner Sicht nicht nachvollziehen. Nutze jetzt selber im 3ten jahr ne vega und jeder scheiss Treiber lief... bis auf unterscheide in der Leistung, gab es gar keine Probleme. habe jetzt auch insgesamt 3 5700XT verbaut seit deren Release und längste läuft jetzt schon 9 Monate ohne das mal etwas kam--> Treiber Probleme, alles tutti.
 
Da Nvidia nicht das geliefert hat was ich mir gewünscht habe, muss ich nun auf AMD hoffen :hmm:

Gesetzt dem Fall dass AMD entgegen vieler Erwartungen wirklich +50% Effizienz gegenüber RNDA1 liefert, werde ich mich wirklich fragen müssen, ob ich den Treibern bzw. der allgemeinen Usability nach Polaris noch eine 2. Chance geben soll :unsure:

Wenn der Stromverbrauch von Ampere Dich abschreckt, wird RDNA2 keine Alternative sein.
+50% Effizienz würde nicht an eine 3080 ran kommen, ohne auch über die 300 Watt zu gehen.

Auf der anderen Seite ist Pascal aber auch keine schlechte Basis um abzuwarten, da hast Du recht!
 
AMD wird es sich jetzt wo NV so aus den Vollen schöpft nicht mehr nehmen lassen die 300Watt+ auch aus zu reizen, wäre ja auch blöd, darauf zu verzichten, wenn man so die Möglichkeit hat an den Gegner ran zu kommen.
 
Wie seht ihr das Softwaretechnisch? Selbst wenn AMD die Leistung einer 3080 bringen sollte bei gleichem oder leicht besserem Preis, hängen sie doch softwaretechnisch bei dem mittlerweile doch recht großzügigen und sinnvollem Softwarepacket (DLSS, Raytraycing, Broadcast, RTX Voice, gut funktionierender Nvenc codec, usw.) von Nvidia ganz schön hinterher oder nicht? Schaut ihr da nach der reinen Leistung und Software ist relativ uninteressant?
 
Sehe ich auch so.
Es reicht, wenn sie "irgendwas" haben, dass besser ist als bei NVidia. Das wird wohl der VRAM sein.
Solange alles andere, dass potentiel als Problem angesehen werden könnte, identisch ist, passt das ja.

NVidia hat nen hohen Verbrauch und wenig VRAM.
AMD hat dann "nur" hohen Verbrauch.

Solange sie leistungstechnisch gleich auf sind und die Preise passen, kann AMD so nur gewinnen.
Freiwillig auch noch auf die Mehrleistung durch das Powertarget zu verzichten, ist wohl nix das sich AMD aktuell leisten kann / sollte.
 
Mit einem Hohen Verbrauch, Lautheit und Hitze.
Denke das Gegenteil wird der Fall - und vielleicht 5 bis max. 10% unter der RTX 3080
bei 679 Dollar,- also knapp 600 Euro ----> der Hit von Karte.

OC kann man den Custom zutrauen oder aber dem EndUser der Karten.
Man braucht ein komplett Rundes Produkt - das in den Köpfen der Käufer und Unschlüssigen hängen bleibt!
 
Wie seht ihr das Softwaretechnisch? Selbst wenn AMD die Leistung einer 3080 bringen sollte bei gleichem oder leicht besserem Preis, hängen sie doch softwaretechnisch bei dem mittlerweile doch recht großzügigen und sinnvollem Softwarepacket (DLSS, Raytraycing, Broadcast, RTX Voice, gut funktionierender Nvenc codec, usw.) von Nvidia ganz schön hinterher oder nicht? Schaut ihr da nach der reinen Leistung und Software ist relativ uninteressant?

Leider ein valider Punkt, den ich auch schon angesprochen hatte.
Die breite Masse und die besonders lauten im Forum, werden die Software ignorieren, solange die Benchmarks passen.
Aber für mich ist der Softwarestack sehr relevant. Wobei Raytracing eher Hardware ist. Da hoffe ich (etwas blauäugig evtl.) dass AMD im ersten Schuss an die Leistung von NVidias zweitem Schuss rankommt.
Beitrag automatisch zusammengeführt:

Man braucht ein komplett Rundes Produkt - das in den Köpfen der Käufer und Unschlüssigen hängen bleibt!

Mensch, dass ich Dir mal zustimme.
Aber ja. Das sehe ich genauso.

Ich bin nur nicht so optimistisch, dass sie das hinbekommen. Die von Dir genannten Werte wären sicher brauchbar, aber was brauchbar ist, weiß AMD auch. Und Nvidia.
Das bedeutet aber nicht, dass sie das auch umsetzen können, nur weil es als klarer Sieger in der Theorie logisch wäre.

Die Hoffnung bleibt!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh