Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Eine 3070 Ti unter 300 € finde ich noch halbwegs in Ordnung. Mehr würde ich für eine 8 GB Karte auch nicht ausgeben. Es muss von vornherein klar sein dass die nicht mehr als 2-3 Jahre halten wird und das ist schon großzügig geschätzt, da der knappe VRAM selbst jetzt schon für Probleme sorgen kann. Bei so einem Preis ist das hinnehmbar. Eine RX 6800 habe ich schon um 300 € gesehen, besseres P/L bekommt man momentan nicht. Die 4060 würde ich ganz ignorieren. Die 7700 XT ist auch was teuer, wenn man bedenkt welche P/L die 6800er haben und dazu noch 16 GB. RT ist bei der Leistungsklasse so oder so irrelevant.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich schließe mich mal hier an, da die Fragestellung ähnlich ist.
*****************************************************************
NEUE GRAFIKKARTE FÜR UNSEREN JÜNGSTEN in 1080p-Rechner (i512400F, 32GB DDR4,GIGABYTE B760 DS3H). 250€-299€
Aktuell habe ich im 1080p-Rechner unseres Ältesten eine RTX 3070 8GB -läuft fantastisch. I.d.R. kann man damit in epischen bis ultra Einstellungen spielen.
Die Grafikkarte, die seitens AMD an diese Leistung kommt, ist die RX6800 16GB. Diese hat aber nicht nur das bekannte AMD-Treiber-Problem (Einstellungen verlieren sich nach Neustarts), ist aber oft auch langsamer trotz des höheren VRAMs.
Gibt es noch etwas, was für die RX6800 sprechen könnte, dass ich übersehe? Oder die RTX 4060 TI 8GB? Die hätte noch FG, ist aber so etwas langsamer.
Anhang:
4K Ultra, TAA: RTX 3070 mit 7.8/8GB vs. rechts RX6800 mit 12.8/16GB
32Fps vs. 29Fps
Ich schließe mich mal hier an, da die Fragestellung ähnlich ist.
*****************************************************************
NEUE GRAFIKKARTE FÜR UNSEREN JÜNGSTEN in 1080p-Rechner (i512400F, 32GB DDR4,GIGABYTE B760 DS3H). 250€-299€
Aktuell habe ich im 1080p-Rechner unseres Ältesten eine RTX 3070 8GB -läuft fantastisch. I.d.R. kann man damit in epischen bis ultra Einstellungen spielen.
Die Grafikkarte, die seitens AMD an diese Leistung kommt, ist die RX6800 16GB. Diese hat aber nicht nur das bekannte AMD-Treiber-Problem (Einstellungen verlieren sich nach Neustarts), ist aber oft auch langsamer trotz des höheren VRAMs.
Gibt es noch etwas, was für die RX6800 sprechen könnte, dass ich übersehe? Oder die RTX 4060 TI 8GB? Die hätte noch FG, ist aber so etwas langsamer.
Anhang:
4K Ultra, TAA: RTX 3070 mit 7.8/8GB vs. rechts RX6800 mit 12.8/16GB
32Fps vs. 29Fps
Ja, es hängt von den Spielen davon ab die man spielt.
Bezüglich zukünftiger Games hätte die AMD RX6800 mit etwas mehr VRAM einfach noch Luft nach oben.
Schau einfach mal die Charts bei Toms Hardware an.
Ein Vergleich in 4K ist ein wenig Augenwischerei. Während die Grundsätzliche Architektur der RTX3000er darauf getrimmt wurde für hohe Auflösungen schafft jene in niedrigeren kein großartige Leistung.
Die RX6800 ist eher für WQHD designed. Hier sollte man auch eher die Messlatte legen.
Bezüglich AMD Treiberproblem kann ich nichts sagen, nur das meine Schwägerin und Schwiegervater keine nennenswerte Probleme mit ihren AMD Karten haben.
Während ich mit meiner Nvidia Karte lange Zeit Probleme mit dem Standby/Engery safe modus hatte. Die Grafikkarte ist abgeschmiert und nichts ging mehr.
Ich tippe aber das eher 80% aller Treiberprobleme eher auf Windows zurück zu führen sind.
Microsoft macht sehr viel Scheiße in letzter Zeit und die Entwickler rennen hinterher die Fehler wieder auszubügeln.
Also ich weiß ja nicht was für Probleme du mit der 6800 hattest, aber Treiberresets hatte ich bis jetzt 2 mal in 18 Monaten, die Einstellungen behält aber bei jedem reboot.
Danke, den Chart habe ich mir auch mal ein Lesezeichen hinzu gefügt.
Ich arbeite für mich gerade diesen ganzen VRAM-Hype auf.
1) U.a. auch dieses Video:
Datenschutzhinweis für Youtube
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Youtube Videos ab jetzt direkt anzeigen
Da will der PCGH-Redakteur "ein für alle Male damit aufräumen, dass 8GB für 1080p reichen". Für mich totale Augenwischerei.
Vergleicht er nur zwei AMD Karten. 7600 vs 7600XT. Und dann pickt er sich als krassestes Beispiel Stalker2 heraus, wo VRAM besonders wichtig sei.
Dann schaue ich in PVGH-Chart dazu und was sehe ich?
Die 2080 und 3080 schaffen das Spiel ohne Probleme... Aber genau dieses Spiel scheint auch ne Macke zu haben, wenn es selbst mit ner 7900XT 20GB nicht läuft.
Die sieht für mich alles ziemlich an den Haaren herbei gezogen aus. Habe mich schon immer gewundert über diese VRAM-Debatten, da bei mir die 3070 selbst bei 3440x1440 gut performt hatte.
2)
Hier zeigt die Gamestar, dass die RX6800 16GB die 3070 8GB aufgrund des höhren VRAMs klar in Raytracing bei Hogwarts Legacy schlagen würde.
Sind 8 Gigabyte VRAM für Ray Tracing ausreichend? Ein Youtuber macht den Test und lässt die Geforce RTX 3070 gegen die Radeon RX 6800 antreten.
www.gamestar.de
Wieder ein Vergleich in Rasterleistung... Äpfel mit Birnen. Schaue ich dann wieder in den PCGH-Chart dazu, sehe ich dass die 3070 deutlich besser performt. Sogar als die 7800XT.
Ich habe mir dann sogar die Videos der RX6800 und der RTX3070 bei YT angesehen, die das bestätigt haben.
Mythos VRAM
Und lese ich in jedem zweiten Post bei Grafikkarten-Beratungen 8GB reicht nicht mehr für FullHD. Wenn jemand noch "bessere" Beispiele für die VRAM-Limit-Theorie als die PCGH oder Gamestar hat, dann gerne mal posten. Würde ich mir gerne ansehen.
Also ich weiß ja nicht was für Probleme du mit der 6800 hattest, aber Treiberresets hatte ich bis jetzt 2 mal in 18 Monaten, die Einstellungen behält aber bei jedem reboot.
Bin wohl nicht der einzige. Habe mich hier auch schon erkundigt. Hatte das gleiche Problem bei einer 6600XT , 6650XT und RX7600 auf zwei unterschiedlichen Rechnern.
Also ich habe das Problem das seit dem letzten bzw. vorletzten AMD Treiber Update meine Konfiguration sprich Lüfterkurve, UV usw. sich regelmäßig zurücksetzten. Dann habe ich es mal ganz ohne OC und UV probiert, also nur eine eigene Lüfterkurve erstellt und auch da kommt nach ein, zwei...
www.hardwareluxx.de
Bisher keine Lösung. Falls es eine gibt wäre das ein mega Pluspunkt aus meiner Sicht.
Also 8GB VRAM reichen für 1080P, schließlich kann man bei Bedarf Schattentexturen von Ultra auf High runterstellen oder ähnliches.
Wenn man sich die Standard Presets von den Games anschaut oder auch von der Nvidia APP (Treiber Addon mit Game Profilen ehm. Geforce Experience) werden dort auch gewisse Texturen an den VRAM angepasst und dann mit DLSS oder DLAA ausgebügelt. Muss ich mit der RTX3080 in UWQHD auch so machen, leider.
Sei es weil die Performance damit besser abgeht etc. oder bessere Komptabilität.
Ich würde nur gleich die Karte so dimensionieren das sie WQHD auch könnte.
Sollte der Monitor defekt werden will man nicht 20€ an diesem sparen und sich keinen modernen WQHD Monitor holen.
Da gibt es schon gute/brauchbare für um die 200-250€. Die Wahrscheinlichkeit das man sich stand heute mit dem nächsten Monitor WQHD holt ist 95%.
Wenn nur FHD das Ziel ist geht das mit jeder Nvidia Karte mit mindestens. 8GB VRAM, aber auch mit den AMD Karte angefangen ab RX6600 als günstigsten Einstieg.
Wenn man auf Raytracing teilweise verzichten kann wird es auch eine RTX2080/2070 Super locker noch machen, aber auch hier geht noch DLSS.
Die Durchschnittliche VRAM Auslastung in FHD liegt bei etwa 5,5-6,5/8 GB (ohne Schnickschnack), das ist für Leute die eine 2060 als Beispiel haben super frustrierend weil die mit nur 6GB manchmal nicht mehr genug VRAM haben.
Das Mehr VRAM beansprucht wird kommt von den Konsolen Portierungen
=> Die Verwenden halt Kompression und spezielle streaming Technologien um Nachladen von Texturen zu reduzieren.
Ich denke mit Direct Storage wird auch versucht einen ähnlichen Ansatz am PC zu verfolgen.
Weil das aber die meisten Leute nicht haben haben die Entwickler geschaut so viel VRAM/RAM zu belegen wie geht um ein Nachladen weitgehend zu eliminieren/reduzieren.
Man könnte das ungefähr so interpretieren Nvidia
Nvidia 6GB VRAM = AMD 8GB VRAM
Nvidia 8GB VRAM = AMD 10GB VRAM
Nvidia 10GB VRAM = AMD 12GB VRAM
Nvidia 12GB VRAM = AMD 16GB VRAM
Nvidia 16GB VRAM = AMD 20GB VRAM
...
Aber eben auch jene Nvidia Kompression hat halt grenzen und manchmal funktioniert das nicht so gut (hohe Kompression Raten zu erzielen) das fällt dir dann auf die Füße sich darauf zu verlassen.
Bei Resident Evil hat Nvidia ein Treiberupdate geliefert das dann die Texturen doch erfassen konnte, nach dem es dort auch nicht mehr in FHD gereicht hatte.
@n3cron Erstmal danke ich Dir für Deine ausführliche Rückmeldung.
In den o.g. Beispielen sieht man aber auch in 1440p. dass 8GB Nvidia-Karten sogar besser als 16GB AMD-Karten performen.
Oder z.B. eine RTX3080 10GB im speicherlastigen Raytracing bei Hogwarts besser als eine 7900XTX mit 24GB performt.
Daher sehe ich keine pauschalen Zusammenhänge zwischen den VRAM-Volumina. Ein Verhältnis wie Du es aufgezeigt hast wäre denkbar, ist jedoch hypothetisch. In meinem ersten Post oben sieht man ja, dass 8GB bei der 3070 wie 16GB bei der RX6800 performen. Deiner These nach würde das dann 8GB Nvidia = 16GB AMD bedeuten. Ich glaube jedoch dass es schlicht nicht vergleichbar ist.
Der VRAM wird bei Nvidia scheinbar völlig anders genutzt als bei AMD. Nvidia teilte ja mal vor ein paar Monaten in einem Interview mit (war es PCGH oder hier?), dass für aktuelle Spiele 8-12GB maximal ausreichen würden. Anonsten seien die Spiele schlecht programmiert. Weiß jetzt nicht ob das nur eine PR-konforme Aussage war, aber das scheint sich mit meinen Beobachtungen und Erfahrungen zu decken.
Was man jedoch regelmäßig beobachten kann wenn YT-Video-Vergleiche schaut, dass bei Nvidia Karten mehr Daten über den Arbeitsspeicher geschoben werden und die CPU-Auslastung 5-10% höher ist. Was sich jedoch nicht auf's Ergebnis auswirkt.
P.S.
Aber ist es nicht auffällig, dass zwei Artikel solch komisch fingierte Vergleiche aufstellen, um eine Theorie zu beweisen, die offensichtlich nicht bewiesen, sondern wiederlegt haben.
Daher sehe ich keine pauschalen Zusammenhänge zwischen den VRAM-Volumina. Ein Verhältnis wie Du es aufgezeigt hast wäre denkbar, ist jedoch hypothetisch. In meinem ersten Post oben sieht man ja, dass 8GB bei der 3070 wie 16GB bei der RX6800 performen. Deiner These nach würde das dann 8GB Nvidia = 16GB AMD bedeuten. Ich glaube jedoch dass es schlicht nicht vergleichbar ist.
Der VRAM wird bei Nvidia scheinbar völlig anders genutzt als bei AMD. Nvidia teilte ja mal vor ein paar Monaten in einem Interview mit (war es PCGH oder hier?), dass für aktuelle Spiele 8-12GB maximal ausreichen würden. Anonsten seien die Spiele schlecht programmiert. Weiß jetzt nicht ob das nur eine PR-konforme Aussage war, aber das scheint sich mit meinen Beobachtungen und Erfahrungen zu decken.
Was man jedoch regelmäßig beobachten kann wenn YT-Video-Vergleiche schaut, dass bei Nvidia Karten mehr Daten über den Arbeitsspeicher geschoben werden und die CPU-Auslastung 5-10% höher ist. Was sich jedoch nicht auf's Ergebnis auswirkt.
Das ist ein guter Punkt! Danke! Ist auf jeden Fall ein faktischer Ansatz zur Erklärung warum es bei Nvidia kein VRAM Problem gibt.
FSR scheint dann aber deutlich mehr Schwierigkeit mit der Skalierung zu haben. Denn wenn wir uns den Raytracing-Chart anschauen (Raytracing ist ja VRAM lastig), dann sehen wir AMD deutlich zurückliegend. Hier im Chart jeweils max Settings mit FSR/DLSS und Raytracing.
FSR scheint dann aber deutlich mehr Schwierigkeit mit der Skalierung zu haben. Denn wenn wir uns den Raytracing-Chart anschauen (Raytracing ist ja VRAM lastig), dann sehen wir AMD deutlich zurückliegend. Hier im Chart jeweils max Settings mit FSR/DLSS und Raytracing.
Nein AMD hat einfach weniger roh Raytracing Leistung.
AMD 6000er etwa RTX2000er Niveau (Raytracing maximal auf Medium/Niedrig)
AMD 7000er etwa RTX3000er Niveau (maximal etwa RTX3070) (Raytracing Settings maximal auf High)
Ultra oder sehr Hoch kann man vergessen.
Die Raytracing Prozessoren/Kerne sind einfach recht schwachbrünstig.
Dann hilft dir auch mehr RAM irgendwann nicht mehr, denn auch der RAM muss befüllt und ausgelastet werden.
Das gleiche Problem betrifft übrigens Grafikkarten die wenig Rohleistung haben, aber viel RAM.
Mit neuester DLSS Version gibt es auch Raytracing reconstruction, hier wird nochmal weniger Raytracing Leistung gebraucht und per DLSS nachgebessert.
Überraschend hat AMD AFMF2 und damit treiberseitiges Frame Generation in der 2. Generation vorgestellt. Es gibt bereits einen Beta-Treiber.
www.computerbase.de
Beitrag automatisch zusammengeführt:
Du musst die Leistung der Karten differenzierter betrachten.
Deshalb hat Toms Hardware Raytracing auch rausgenommen.
Raster Performance ist die so zu sagen die Grundeigenschaft/Leistung einer jeden Grafikkarte unabhängig vom Hersteller.
Die hier untereinander zu vergleichen ist besser.
Dann kann man auch Grafikkarten ohne Raytracing oder DLSS im Vergleich hinzuziehen.
Genau das ist ja das Problem:
Raytracing hängt von Hardware, Treiber und implementation in der Software ab, genauso DLSS.
Man müsste die ganzen Tests alle paar Monate mit allen Karten wiederholen weil sich werte verändert haben können.
Sei es ein neuer Patch in der Software, neuer Treiber oder neue Firmware von der Grafikkarte.
Wenn Raytracing Leistung super wichtig ist => keine AMD.
Sind dir viele FPS zu schmalem Taler wichtig sind => AMD.
Man müsste eigentlich ähnlich dem Wahl-O-Mat 10 Fragen stellen die am ende eine Auswertung ergeben welche Grafikkarte besser geeignet wäre.
In der Vergangenheit ist die AMD RX580 mit 8GB VRAM besser gealtert als eine Nvidia GTX 900er die hatten hier zu wenig VRAM teilweise.
Mancher Software ist der Hersteller egal oder die Technologien dahinter und prüft z. B nur die verfügbare Kapazität ab, hier wäre man mit einer Nvidia im Nachteil weil die Software z. B ggf. nicht launched oder Features deaktiviert werden, obwohl diese durchaus funktionieren könnten (weil die Kompression nicht berücksichtigt wird)
Der Shooter "Doom: The Dark Ages" läuft zwangsläufig mit aktiviertem Raytracing. Wer ältere Hardware besitzt, kann den neuen Serienableger also nicht spielen.
www.heise.de
Hier könnte man fast meinen das Doom auf jedem Raytracing fähigen Toaster laufen wird... ID Software typisch.
Schade das ohne Raytracing nichts mehr geht. Aber das ist wieder so ein beweis das Implementation eines Features steht und fällt mit seinem Entwickler.
Hier ist übrigens eine RX6800 empfohlen oder RTX3080 Hier schein RAM wirklich ein limitierender Faktor zu sein.
Du schreibst doch dass dein Sohn alle Games mit den höchsten Einstellungen spielen kann. Wieso willst du die Karte überhaupt dann wechseln? Legt euch lieber ein Sparschwein an und wartet 1 oder 2 Jahre und dann kann er sich eine RTX50XX oder RX 90XX holen wenn er die Einstellungen nicht mehr bis auf Anschlag drehen kann. Wieso dann jetzt Geld in eine alte Karte investieren, das verstehe ich nicht.
Der Shooter "Doom: The Dark Ages" läuft zwangsläufig mit aktiviertem Raytracing. Wer ältere Hardware besitzt, kann den neuen Serienableger also nicht spielen.
www.heise.de
Hier könnte man fast meinen das Doom auf jedem Raytracing fähigen Toaster laufen wird... ID Software typisch.
Schade das ohne Raytracing nichts mehr geht. Aber das ist wieder so ein beweis das Implementation eines Features steht und fällt mit seinem Entwickler.
Hier ist übrigens eine RX6800 empfohlen oder RTX3080 Hier schein RAM wirklich ein limitierender Faktor zu sein.
Du schreibst doch dass dein Sohn alle Games mit den höchsten Einstellungen spielen kann. Wieso willst du die Karte überhaupt dann wechseln? Legt euch lieber ein Sparschwein an und wartet 1 oder 2 Jahre und dann kann er sich eine RTX50XX oder RX 90XX holen wenn er die Einstellungen nicht mehr bis auf Anschlag drehen kann. Wieso dann jetzt Geld in eine alte Karte investieren, das verstehe ich nicht.
Hi, der Vorschlag wäre sehr gut. Allerdings such ich für unseren anderen Sohn ein Karte. Beide Jungs spielen auf FullHD. Das wird auch lange so bleiben, das haben wir extra so abgestimmt. 😇
Ich schwanke aktuell zwischen
Performance 80% RTX 4060 - 300€ (neu mit Garantie), neben DLSS 4.0 und FG
Performance 98% RTX 4060 TI 330€ (gebraucht, schwierig zu bekommen), DLSS 4.0 und FG
Performance 100% RTX 3070 ~ 250€ (mit etwas Glück) DLSS 4.0 Performance 100% RTX 2080TI ~270-300€ (schwer zu bekommen, schon alt)
Perfromance 100% RX 6800 ~360€ (neu mit Garantie) gute Rasterleistung, schwach in RT (AMD:Treiber vergisst Einstellungen) und 16GB sind natürlich gut für den Wiederverkauf!!
Vielleicht finde ich noch Argumente oder speicherlastige Spiele wo die RX6800 trumpfen könnte.
Indiana Jones und der Große Kreis, wenn du Doom mit reinrechnest könnte man sagen in etwa moderne AAA werden Raytracing brauchen und viel VRAM, für Empfohlene Einstellungen.
Ich weiß nicht wie bei Kinder/Jugendlichen ist und mit den Auslagen bezüglich Steuererklärungen .... aber ich tue mich auch leichter eine Nvidia Karte Beruflich abzusetzen, weil dessen Workstation Qualifikationen dieses nun mal erfüllen (CAD, DL, CUDA) Alles geeignet für Professionelle Workloads.
Ich weiß nicht wie es da schulisch bei deinen Kids aussieht (Es ist deine privat Sache)... aber je nach dem in welche Richtung es Beruflich geht zumindest nicht doof ne Karte zu haben mit der man ein bisschen mit sowas rumspielen könnte.
Hauptargument für neue RX6800 ist einfach der Investitionsschutz. Garantie für 2-3 Jahre ist nun mal besser als keine Garantie.
Anhang anzeigen 1068815
Indiana Jones und der Große Kreis, wenn du Doom mit reinrechnest könnte man sagen in etwa moderne AAA werden Raytracing brauchen und viel VRAM, für Empfohlene Einstellungen.
Ich weiß nicht wie bei Kinder/Jugendlichen ist und mit den Auslagen bezüglich Steuererklärungen .... aber ich tue mich auch leichter eine Nvidia Karte Beruflich abzusetzen, weil dessen Workstation Qualifikationen dieses nun mal erfüllen (CAD, DL, CUDA) Alles geeignet für Professionelle Workloads.
Ich weiß nicht wie es da schulisch bei deinen Kids aussieht (Es ist deine privat Sache)... aber je nach dem in welche Richtung es Beruflich geht zumindest nicht doof ne Karte zu haben mit der man ein bisschen mit sowas rumspielen könnte.
Ja das denke ich und auf der anderen Seite kaufen viele potentielle Käufer später gebraucht lieber eine Grafikkarte mit 16GB.
Andererseits wenn ich jetzt über 360€ für ne neue Grafikkarte nachdenke könnte ich das ganze auch noch in den Herbst schieben bis die neuen Grafikkarten da sind. Die 4060 TI war am Anfang auch noch deutlich günstiger zubekommen. Nachher wurde sie teurer und ist mittlerweile im Preisbereich der 7800XT, was die 4060TI ziemlich unattraktiv machte.
Du kannst so blöd das klingt auch eine RX6800 bestellen und testen, erfüllt es nicht den Zweck einfach zurück schicken.
Für 360€ kannst nicht viel falsch machen und was besseres für das Geld wird es erstmal nichts geben.
Gerüchte sprechen davon das AMDs neue Generation bei 600-700€+ liegt also keine Schnäppchen und bis sowas wie eine RTX5060/Ti auf den Markt kommen wird es dauern, aber auch dort schätze ich mal nix unter 500-700€.
Ich würde sie ordern, einbauen, Benchmarken mit dauerschleife. z. B Neon Noir von Crytek oder Wukong Benchmark bei Steam. OCCT Burnin test geht auch noch. https://www.ocbase.com/
und mal schauen was passiert. Du hast ja 2 Wochen Zeit die Karte auf Herz und Nieren zu testen.
Beitrag automatisch zusammengeführt:
Achja bei der AMD Treiber Geschichte: Manche haben Probleme wegen den AMD IGPU Treibern, es wird auch berichtet das einige Leute die Treiber über Windows geladen haben und das die falschen waren.
The last but not least => Grafikkarten Bios, Asus hat da wohl Probleme gehabt die sich nach einem Bios Update erledigt haben.
Bestellen und testen, grundsätzlich ja. Mindfactory kenne ich allerdings schon seit fast 20 Jahren als der Laden noch wie ein kleines eingespieltes Team aufgetreten ist, mit Beratung und Service (ohne dass man Service buchen musste). 😇😅
GPU BIOS Update mache ich immer. Der Jüngste hat ansonsten nen 12400F ohne IGP und ein Gigabyte B760 DS3H DDR4. Treiber lade ich immer bei Computerbase oder Hersteller runter und halte ich aktuell.
Ich könnte auch an eine zwei Jahre junge ASUS RTX 3070 TUF Gaming OC für 250€ kommen. Unser Ältester hat ne RTX 3070 an dem 12600K und das performant "episch" in FullHD. Dank DLSS auch RT spielbar.
Die RX6800 zwar schlechter in RT, aber mit 16GB vom Wiederverkauf besser. Allerdings auch teurer. Und FG in FSR Optik .
Eine 4060TI zu nen vernünftigem Kurs wäre auch interessant. DLSS + RT + Option auf FG (FG mit hübscher Optik).
Zur Vram Diskussion...ich habe bis vor einem halben Jahr u.a. Hogwarts, Jedi Survivor oder Lors of the Fallen mit einer 3060ti 8gb auf 4k, 60fps/hz gezockt. Je nach Spiel die Texturen 1-3 Stufen runter, DLSS Balanced und hier und dort mal 1-2 weitere Grafik Regler auf Mittel und man hat schöne, flüssige Grafik, idR. deutlich über der Qualität der Konsolen.
Mit mittleren Texturen benötigen die meisten Spiele kaum die hälfte an Vram ggü. Ultra, in fullHD reichen für mittlere Texturen sogar noch 6gb und oft sind die qualitativen Unterschiede sehr gering.
Mythos VRAM
Und lese ich in jedem zweiten Post bei Grafikkarten-Beratungen 8GB reicht nicht mehr für FullHD. Wenn jemand noch "bessere" Beispiele für die VRAM-Limit-Theorie als die PCGH oder Gamestar hat, dann gerne mal posten. Würde ich mir gerne ansehen.
Ein anderes aktuelles Beispiel ist aktuell "Indiana Jones", das bei weniger als 8 Gb gerne mal abstürzt, was man in diesem Video ganz gut sieht.
Die 16Gb Variante hingegen hat mit dem Spiel keine Probleme.
Und ich selbst hab mir gestern "Star Wars: Outlaws" gekauft.
Wenn du da alles ohne Qualitätsverlust mitnehmen willst, bist Du auch mit 1080p schnell bei knapp 13 GB. Mit WQHD gehts sogar schon stark Richtung 16gb
Danke, das Video von Hardware unboxed kenne ich natürlich. Er versteht nur nicht, dass der allokierte Speicher nicht dem benötigtem Speicher entspricht. Meiner Meinung nach verunsichert er viele Leute damit.
Exemplarisch habe ich dazu einen Screenshot oben angehängt. Siehe #32.
Indi Jones läuft auch etwas besser auf der RTX3070.
*der Vergleich hinkt etwas, da ich man hier DLSS Quality hätte nehmen müssen, aber das wären auch nur 5-7Fps weniger.
Aber ja ,generell gibt es jetzt schon Top Titel, die gerne mal deutlich mehr VRAM in Anspruch nehmen. Darüber denke ich nach. Die Frage für mich ist, ob bei der Mehrheit der Spiele der höhere VRAM der RX6800 de schwächere GPU ausgleichen kann oder ich lieber die 3070 mit der stärkeren GPU nehme. 5888 FP32-ALUs /RTX3070 sind i.d.R. performanter als die 3840 FP32-ALUs /RX6800. Spannend wäre das neue FSR4 und ob es auch für die RX6800 kommen wird.
@Madschac
Die 3060TI ist nur 5% langsamer als die 3070. Das ist schon nah bei einander. Spiegelt auch unsere Erfahrungen mit der 3070 auf dem Rechner unseres Ältesten wieder.
@Andreas K man darf eigentlich nicht rein von DLSS ausgehen. Das Feature ist halt spätestens bei Multiplayer ein Nachteil.
Mit 8 GB Vram und DLSS sind alle modernen Titel spielbar keine Frage eben weil jene Texturen reduziert werden, was den Speicherbedarf reduziert. Trotzdem kann man MIT DLSS QUALITÄT HIER und da noch Halluzinationen. Also Schatten von Objekten oder wo es aber z. B keine Hitbox mehr gibt.
Die sind selten, aber kann es geben.
Neben den Latenzen.
Man muss sich halt im klaren sein: Kauft man einen Nvidia Karte mit limitierten Speicher ist man im DLSS Ökosystem gefangen und das ist ja von Nvidia so gewollt.
Kannst ja mal nach Googlen wie viele Nvidia Jünger bei Starfield geheult haben als AMD den Spieß umgedreht hatte und zuerst nur AMD Technologien enthalten waren.
Genau das will ja Nvidia bezwecken, die Kunden sollen den Druck aufbauen und nicht sie als Unternehmen. Spart Kosten und so, weil man für nicht zahlen muss.
Hier hast du eine ungefähre technische Übersicht wie viel Texturen größe DLSS verwendet für Rekonstruktion:
Danke, das Video von Hardware unboxed kenne ich natürlich. Er versteht nur nicht, dass der allokierte Speicher nicht dem benötigtem Speicher entspricht
Ich meine, er wäre darauf eingegangen, so ab dem zweiten Drittel.
Deswegen habe ich aber auch den Screenshot aus den Einstellungen von SWO gepostet.
Da siehst Du nämlich genau, wieviel Speicher reserviert wurde, und wieviel tatsächlich in Gebrauch ist.
Im Fall von 1080p waren hier von insgesamt 16gb verfügbaren VRAM 15gb (14,9) für das Spiel reserviert, und davon wiederum 12,7 GB in Gebrauch, wobei ich da auch schon mehr hatte.
Ist auch interessant anzusehen: bleibt man eine Zeitlang in dem Menü, sieht man, wie der genutzte VRAM langsam wieder sinkt.
Hier wird also der tatsächliche Verbrauch angezeigt, kein errechneter.
Und wenn man nebenbei noch auf einem 2. Monitor den Browser mit YT o.ä. offen hat, zieht der natürlich auch noch zusätzlich VRAM, wie man bei GPU-Z erkennen kann.
Und wenn man nebenbei noch auf einem 2. Monitor den Browser mit YT o.ä. offen hat, zieht der natürlich auch noch zusätzlich VRAM, wie man bei GPU-Z erkennen kann.
Das ist weniger das Problem, wer ne IGPU hat kann das auf diese umwälzen. Hab ich aktuell auch so gemacht.
1 Monitor (Hauptanzeige/Gaming) ist an der Nvidia dediziert und der sekundäre ist am Mainboard über IGPU. deshalb funktionieren alle Features trotzdem nahtlos bis G-Sync auf dem zweiten.
Man kann auch im Browser die Hardwarebeschleunigung auch deaktivieren, dann wird die CPU belastet habe ich auf meinem damaligen Ryzen 3900X so gemacht.
In Windows kann man mittlerweile auch den Anwendungen die entsprechende Hardware zuteilen. Also für Browser+Windows iGPU für dediziertes Game Nvidia oder so.
Ich meine, er wäre darauf eingegangen, so ab dem zweiten Drittel.
Deswegen habe ich aber auch den Screenshot aus den Einstellungen von SWO gepostet.
Da siehst Du nämlich genau, wieviel Speicher reserviert wurde, und wieviel tatsächlich in Gebrauch ist.
Im Fall von 1080p waren hier von insgesamt 16gb verfügbaren VRAM 15gb (14,9) für das Spiel reserviert, und davon wiederum 12,7 GB in Gebrauch, wobei ich da auch schon mehr hatte.
Ist auch interessant anzusehen: bleibt man eine Zeitlang in dem Menü, sieht man, wie der genutzte VRAM langsam wieder sinkt.
Hier wird also der tatsächliche Verbrauch angezeigt, kein errechneter.
Und wenn man nebenbei noch auf einem 2. Monitor den Browser mit YT o.ä. offen hat, zieht der natürlich auch noch zusätzlich VRAM, wie man bei GPU-Z erkennen kann.
Hi, Danke Dir! Habe mir die Screenshots angesehen.
Was ich generell beobachte, dass oft (meistens) kein Zusammenhang mit einem Flüssigem Spielen und der VRAM-Ausnutzung besteht.
Siehe hier. 4K Ultra TAA: beide Grafikkarten mit 24GB VRAM
7900XTX mit dedicated 9.1GB allowcated 13.0GB 74 Fps / RTX 4090 mit dedicated 5.8GB allowcated 8.4GB 101Fps
Andererseits mit Blick auf die Zukunft scheint mehr Speicher nicht schlecht zu sein, wenn selbst Spiele-Hersteller darauf verweisen. Die programmieren schließlich die Spiele.
Und ich selbst hab mir gestern "Star Wars: Outlaws" gekauft.
Wenn du da alles ohne Qualitätsverlust mitnehmen willst, bist Du auch mit 1080p schnell bei knapp 13 GB. Mit WQHD gehts sogar schon stark Richtung 16gb
Ich habe mir jetzt wirklich alle VRAM-lastigen Titel angesehen und da schneidet die RTX3070 immer besser an.
Meist auch in den höheren Auflösungen, wobei uns nur 1080p interessiert. Schade nur, dass so wenige Tester direkt DLSS vs. FSR oder DLSS vs. TAA testen. Das Raytracing-GPU-Ranking ist dass erste Ranking dass bei AMD und Nvidia jeweils FSR/DLSS berücksichtig.
Man muss sich halt im klaren sein: Kauft man einen Nvidia Karte mit limitierten Speicher ist man im DLSS Ökosystem gefangen und das ist ja von Nvidia so gewollt.
Kannst ja mal nach Googlen wie viele Nvidia Jünger bei Starfield geheult haben als AMD den Spieß umgedreht hatte und zuerst nur AMD Technologien enthalten waren.
Genau das will ja Nvidia bezwecken, die Kunden sollen den Druck aufbauen und nicht sie als Unternehmen. Spart Kosten und so, weil man für nicht zahlen muss.
DLSS Ökosystem passt schon. Die 1-2 Spiele wo DLSS noch nicht geht, ist es auch nicht so wild. Online Games spielt nur unser Ältester. Und auch nur Fortnite.
Für Online-Shooter oder Online-Rennspiele, wo DLSS nicht angewendet wird, wäre die RX6800 deutlich die bessere Wahl.
Aktuell schneidet die RTX3070 für unsere Bedürfnisse am besten ab. Massiv Leistung in 1080p (dank DLSS immer schneller als RX6800 auch in aktuellsten Titeln) und bewährtes Nvidia Control Center. Auf 16GB gehen wir dann beim nächsten "großen Hardware-Update" in ~3 Jahren.
Danke euch, hat mir auf jeden Fall wieder einige Erkenntnisse auch mit Blick auf das Grafikkarten-Update bei meinem eigenen PC (3440x1440) gebracht. Da wird nichts unter 16GB reinkommen.
Das mit dem vergessen der Settings bei AMD liegt am Schnellstart, habe ich schon öfters gelesen und seitdem ich den deaktiviert habe, kein einziger Start ohne Probleme mehr.
Die 3070 hat leider den riesen Nachteil von nur 8GB deswegen wird die immer mehr massivst ausgebremst, selbst schon mit 1080p wie z.b. bei Stalker2.
Keine Ahnung warum NV so rumgeizt beim VRAM, der kostet ja fast nichts mehr: https://dramexchange.com/
Wahrscheinlich kosten die Karten in der Herstellung nur 10USD wie ein iPhone.
Das mit dem vergessen der Settings bei AMD liegt am Schnellstart, habe ich schon öfters gelesen und seitdem ich den deaktiviert habe, kein einziger Start ohne Probleme mehr.
Die 3070 hat leider den riesen Nachteil von nur 8GB deswegen wird die immer mehr massivst ausgebremst, selbst schon mit 1080p wie z.b. bei Stalker2.
Keine Ahnung warum NV so rumgeizt beim VRAM, der kostet ja fast nichts mehr: https://dramexchange.com/
Wahrscheinlich kosten die Karten in der Herstellung nur 10USD wie ein iPhone.
In der Preisklasse gibt es ja leider nichts vergleichbar Schnelles von AMD.
Erst die RX6800 16GB und kommt in die Richtung der 3070. Kostet aber mehr und reicht dennoch nicht an die Performance der 3070 heran. Siehe die (sogar VRAM-lastigen) Beispiele oben. Wie erwähnt sehe das Thema anders aus wenn Online-Shooter im Vordergrund stünden.
Ich würde sogar trotz der schlechteren Performance für unsere Anwendung die RX6800 in Betracht ziehen (wg gutem Wiederverkaufswert), wenn es die gebraucht ebenfalls zum Preis der RTX3070 gäbe.
Aber alle Kleinanzeigen mit der RX6800 unter Neupreis-Niveau sind Fake-Angebote. Habe ich schon mehrmals nun festgestellt. Immer wenn ich schreibe, dass ich gerne abholen komme, antworten die nicht mehr und kurze Zeit später erhalte ich eine Warnung von kleinanzeigen.de und die Anzeige wurde gelöscht... 🫣
Was die Rohleistung ohne RT angeht ist die RX6800 aber auch ein kleines Stück schneller als die 3070 und sie ist effizient. Leider ist die Karte recht lang
Ja das stimmt. Mehr wie 250-300€ würde ich auch nicht ausgeben. Kommt auch auf das Alter an. Eine 2080TI ist so schnell wie 3070/RX6800, aber wiederum wenigstens 3 Jahre älter.
Andererseits zockt unser jüngster ja gerade noch mit der ASUS ROG 1080. Für 1080p wirklich erstaunlich gut brauchbar. Trotzdem kommt bald was neues. Die beiden Brüder müssen immer einigermaßen den gleichen Statusquo haben, sonst ist immer einer neidisch...