[Kaufberatung] Neuer Rechner ohne Kompromisse Budget 3000-4000€

Mal eine Zusammenstellung der Komponenten:

Board: MSI MPG B550 Gaming Carbon WIFI
RAM: Corsair Vengeance RGB Pro DDR4-3600 32GB
CPU: AMD Ryzen 5 3600 -> Ryzen 4000 wird dann folgen
GPU: 3900 wenn Leistung gegenüber 3800 deutlich höher ist.
Festplatte: ADATA XPG Gammix S11 Pro 2TB
Gehäuse: Lian Li O11Dynamic XL
Netzteil: Erstmal hinten angestellt

Sollte noch etwas geändert werden?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Keine Falschinformationen bezüglich Raster-/Raytracing-Leistung der rtx 3090 gegenüber der rtx 3080 bitte.
Es sind ~ 20 % mehr Recheneinheiten und 23 % mehr Speicherdatenrate.
Das sind real unter 4k uhd dann zwischen 15- 20 % mehr in Raster, und wenn überhaupt 5 -10 % mehr bei raytracing.
Das für 210 % Aufpreis.
Das mehr an Speicherdatenrate wird in 8k Auflösung was bringen.
Sei dir einfach nur bewusst das DirectStorage bis 2022 kaum eine Rolle spielen wird und 10 GB Vram auch bis 2022 eng werden; vor allem bei
grafisch fordernden AA/-AAA-Spielen samt raytracing.
8 GB Vram sind jetzt optimal wie Erörterungen darüber ergeben haben Vram Menge
2 GB mehr für Raytracing und next gen kann ich dir nicht empfehlen.

Strategie der Unternehmensfügung ist hier ziemlich leicht erkennbar: Greift zur rtx 3070/3080 und habt den Vram bald als Flaschenhals.
Die Produkttaktik ist die Unternehmensführung bei nvidia die letzten Jahre gefahren.
Ergo ihr rüstet wieder auf und kauft unsere Produkte.
Wollt ihr in Ruhe schlafen dann kauft unsere überteuerte rtx 3090, mit 24 GB Vram die ihr als Spieler nicht benötigen werdet.
Dazwischen bieten wir euch mit Absicht nichts an oder ihr müsst ein Jahr auf den Super-Refresh warten.
Ätsch :p
 
Strategie der Unternehmensfügung ist hier ziemlich leicht erkennbar: Greift zur rtx 3070/3080 und habt den Vram bald als Flaschenhals.
Die Produkttaktik ist die Unternehmensführung bei nvidia die letzten Jahre gefahren.
Dazwischen bieten wir euch mit Absicht nichts an oder ihr müsst ein Jahr auf den Super-Refresh warten.
Die 3070 16GB, 3080 20GB sind ja schon benannt (Igorslab), nur das Releasedatum nicht.
Spekuliert wird, dass die Releases kommen wenn AMD aus den Löchern ist mit Big Navi.

Deine Aussage ist daher halb richtig, halb Polemik. Aber ich denke das war Absicht :banana:
 
Jop.
So oder so müsste Wuehler1606 warten.
10 GB Vram zu wenig? Warten. Rdna 2 Grafikkarten? Warten.
Zen 3? Wieder warten ....
Du armer du :d

Ist nichts politisches, also keine Polemik; ist aber egal, verstehe was du meinst.
Wenn es schon Tester/Redakteure nicht machen, sollten solche Strategien der Unternehmensführungen öffentlich und deutlich sichtbar gemacht und diskutiert werden.
Da hat der Käufer mehr davon. :d
 
einfach mal
ansehen und eigene Gedanken machen, ob man 4k Eur überhaupt sinnvoll auf 4Jahre anlegen/ausgeben sollte...
mit 4k Budget würd ich nur eine 3090 RTX als fest einplanen, alles andre einfach und unkompliziert tauschbar.
 
das video hat ich "absichtlich nicht angeschaut" weil er leider ein thema aufgreift was es nicht braucht. das schürt einzig und allein wieder nur bedenken bei den leuten und die foren werden wieder überhäuft von sinnlosen "limitiert meine cpu?" threads.

leider macht keiner der techyoutuber mal ein video und erklärt das korrekt. es wird nur kopiert

das video war ein klickgenerator

eigentlich macht er ganz brauchbaren content und man kann ihm auch zuhören aber teilweise springt er auch auf diverse dinge mit auf.

jeder kann mit seinem system vor dem kauf der neuen karte bereits ermitteln ob die cpu bremst oder nicht.
 
Zuletzt bearbeitet:
Die 3070 16GB, 3080 20GB sind ja schon benannt (Igorslab), nur das Releasedatum nicht.
Spekuliert wird, dass die Releases kommen wenn AMD aus den Löchern ist mit Big Navi.
Ich halte einen zeitnahen Release für sehr unwahrscheinlich. Ich denke eher, dass die „Super“ Varianten ganz planmäßig für nächstes Jahr angesetzt sind, egal wie Navi performt.

Das passt auch gut hierzu.
 
bei den Festplatten / M2, möchte ich zu zwei Stück raten. Also eine 512er zusätzlich mit 2 Partitionen, davon 1 für das Betriebssystem.
Die andere große Platte für Dateien und Spiele. Alles auf eine Platte zu legen ist bissle riskant wenn mal was schiefgeht. (Backup-Management)

vlt. gleich eine Gen4 MP600 SSD von Corsair, sind 100 mehr, aber wenn dein Budget eh so groß ausfällt, dann...
 
Zuletzt bearbeitet:
bei den Festplatten / M2, möchte ich zu zwei Stück raten. Also eine 512er zusätzlich mit 2 Partitionen, davon 1 für das Betriebssystem.
Die andere große Platte für Dateien und Spiele. Alles auf eine Platte zu legen ist bissle riskant wenn mal was schiefgeht.

Wichtige Daten lege ich sowieso auf einem Server ab.
Also sind zwei Platten unnötig.
 
Du zählst 4 Games aus einer Auswahl von mehreren Tausenden auf und würdest in mind. 2 davon aus weniger aber dafür schnelleren Kernen immernoch die größere Leistung in FPS ziehen.

Weiter noch: Bei zukünftig 360 FPS, nein eher schon aktuel bei allem über 100 FPS limitiert dich dann die Langsamkeit deiner vielen Kerne und der "Restposten" 6-Kerner für 250,-€ zeigt deinem Xeon so weit die Limits auf, dass du noch nicht einmal mehr dessen Rücklichter siehst...

Ein HEDT-System für Gaming zu kaufen, war mit extrem wenigen Ausnahmen schon immer eine sehr schlechte Idee. Seit es im Mainstream 6 Kerne + HT gibt, wird sie umso schlechter. Mehr Kosten, teurere Komponenten, teils schlechtere Verfügbarkeit und am Ende als Kirsche obendrauf noch die schlechtere Leistung.

Waren ja auch nur n paar games, ka wieviele Games ich nochzählen soll.

+ letzter Rechner den ich für Kollegen schnell gebaut hab war ein Asus Prime B550-Plus mit Ryzen 3700x, 2x 16Gb Corsair 3200 und seiner alten 1080ti -
auf dem hab ich Cinebench, Sisoft, 7zip, 3dmark und Anno 1800 getestet - vs dann meine Kiste (und seine Karte bei mir reingehängt)

weil ich genau das wissen wollte, das du da oben von dir gibst.

und nope!!!

ich brauch kein neuen rechner, kein 10900k, kein Ryzen 3700x oder 3950x
Cinebench halbiert so ziehmlich exakt das ergebnis mein Xeon vs sein Ryzen und Anno 1800 (gleicher Speicherstand/gleicher Monitor, gleiche auflösung) hatte bei ihm 2fps mehr ?! messfehler ?! sein windows war neu installiert ?! whatever...

Klar das man ähnliche, gleiche Leistung auch mit weniger Geld erreichen, der Ryzen hat nur 280 € gekostet - aber umgekehrt gibs dann auch deutlich mehr Power auf meinem Xeon ( Cores, Quadchannel) kann neben Anno sogar noch Starcraft II und Surviving Mars laufen lassen, whärend ich streame, mucke höhr, Browser offen hab - Anno lädt auch einfach schneller auf meiner Kiste, stabiler, zuverlässiger, die Kiste hat keine Leistungsknicks, weiß gar nicht was das ist :)
Sind halt so passive Vorteile, die in keinem benchmark jemals auftauchen, da muss man schon mit Stoppuhr daneben sitzen und gucken wie schnell der Ryzen 8 kern was hinbekommt vs mein Xeon mit 16 und Quadchannel - da gibs für mich kein zurück mehr auf Desktop Systeme.

Und klar, irgendwann wird auch der Xeon alt und langsam, vs nagelneue Hardware, bin aber überrascht, das dies im hier und jetzt nicht der Fall ist.
ist halt auch ein Blick auf die zukunft, als wenn wir morgen alle auf 2 Krne zurückgehen mit jeweils 10Ghz - sieht eher nach 16 Kern+ aus. Kann mana uch gleich haben, bzw gestern :) und sich heute noch dran erfreuen.

Und ja, es ist teurer, aber wie erwähnt lebt länger, wertestabil, weil ; kann ja auch was auch nach 5 Jahren vs, wer redet jetzt noch vom Core i7 4770 ?! das teil kost gar nix, will keiner haben, die Boards sind alle durch.

Schlechte Verfügbarkeit ?! auf was Seiten kaufst du ?! ..da gibs bestimmt auch nix gutes.
ich amch Workstations seit dem ersten Pentium Pro - eine alte "gamingkiste" von mir war ein Dual Pentium 3 Xeon 1000 mit RD-Ram - der hat auch 0 FPS unterschied zum normalen P3 1000 gehabt, aber eine stabilität, reserven..wenn man die einmal erlebt hat..will amn nicht mehr zurück...und alt ist die Kiste auch geworden :) in Der Zeit hat man entweder 3x "Billig Desktop Kram hinter sich" oder einmal was ordentliches gekauft - am Ende kost ne Workstation sogar evt n Tik weniger, mit weniger nervkram, hype, arbeit - Alles resourcen, Lebenszeit - warum alle 2 Jahre neukaufen, hypen, bauen basteln - bei Grafikkarten versteh ich das ja. Kollege hat nochn alten i7 37xx !? - hat ne 2080 draufgesetzt... er hat in einigen Games sogar mehr FPS + RTX als ich mit meiner 1070...geht alles :)

Und was Games angeht...man kann sich auch tot-benchen und zum "Frame-hunter" werden, was dadrin endet das man für seine 10 Lieblingsgames 4 Rechner braucht, weil ja jeder Porzessor mit Ram, SSD und Grafikkarte vor und nachteile hat - in CS-Go ist der aber schneller, ja aber in Tombraider nehm ich dann den Rechner....super..oder einfach ne Allroundlösung, die egal was alles gut, zuverlässig auch noch in 5 Jahren hinbekommt...solange die Grafikkarte stimmt :)

Geht mal so, mal so, die Xeon generation ist halt anscheinend Top of the Line gewesen, welche jetzt ja erst endgültig durch den Threadripper 3000 deklassiert wird..aber halt auch erst jetzt, gab andere Geneation die waren nicht so gut, muss man natürlich immer genau hingucken, bzw soweit in die zukunft kann man manchmal auch nicht gucken, aber die letzten 20 Jahre waren ziehmlich "langweilig" und linear und wiederholen sich eigentlich eh ständig..uh neue Grafikkarte..schonwieder ? ich hab mit 512KB grafikkarten angefangen... irgendwann reizt einen der Hype überhaupt nicht mehr :)

blah whatever..ist sein Geld, ist nur ne Option, möglichkeit - Jedem dem ich bis heute eine Workstation hingestellt hab, ist niewieder zurück auf Desktop und im Schnitt melden sich meien Kunden7Freunde/Bekannten imemr so nach 9 Jahren, wenn ihr Rechner dann doch langsam alt und klapprig wird - einmal gekauft, hams nie bereut, einmal Geld und 9 Jahre nix machen ? (außer man hat Bock ?! - mein xeon war neu 5500 €, hab ihn auch erst gekauft als er 750 € wert war, schwimmen ja alle nicht in Geld)

Bloß nicht an details aufhängen - ist eh alles X86er Kram, wie erwähnt, wiederholt sich seit 20 Jahren, ewig die gleichen schnakks "wozu brauch ich das" und 3 Jahre später "das is doch überholt"

nn
 
Klar das man ähnliche, gleiche Leistung auch mit weniger Geld erreichen, der Ryzen hat nur 280 € gekostet - aber umgekehrt gibs dann auch deutlich mehr Power auf meinem Xeon ( Cores, Quadchannel) kann neben Anno sogar noch Starcraft II und Surviving Mars laufen lassen, whärend ich streame, mucke höhr, Browser offen hab - Anno lädt auch einfach schneller auf meiner Kiste, stabiler, zuverlässiger, die Kiste hat keine Leistungsknicks, weiß gar nicht was das ist

Ich empfehle mal wieder einen Besuch in der Realität. Man kann es mit Fanboytum auch echt übertreiben.
Und wenn Anno schneller lädt dann kann es einige Ursachen haben, die meist wahrscheinlichste ist das die Laufwerke etwas schneller sind, aber die Ladezeiten sind bei den meisten Spielen fast gleich. Wenn sind es wenige Sekunden Unterschied, egal ob Raid0 oder M2 oder SATA-SSD. Und ich denke mal ich gehöre zu den wenigen hier die das nicht nur aus Videos auf YT wissen, sondern weil sie ein Laufwerk drin haben das genügend Leistung für einen gewaltigen Unterschied haben müsste. Ist aber nicht so.

Sind halt so passive Vorteile, die in keinem benchmark jemals auftauchen, da muss man schon mit Stoppuhr daneben sitzen und gucken wie schnell der Ryzen 8 kern was hinbekommt vs mein Xeon mit 16 und Quadchannel - da gibs für mich kein zurück mehr auf Desktop Systeme.

Quadchannel ist gut und schön, aber ohne die dazu passenden Anwendungen ist der Unterschied zwar mess aber nicht wirklich spürbar. Und auch das kann ich aus eigener Erfahrung beisteuern. Es gibt Momente wo man es merkt, aber das ist eher selten. Wenn man dir im Blindversuch einen Threadripper mit Dual oder Quadchannel hinstellen würde, du merkst den Unterschied nicht. Man kann es natürlich provozieren das man ihn merkt, aber das ist kein realer Anwendungsfall. In Anwendungen merkt man es massiv bei Compilern etc., aber im realen Desktop/Minesweeper-Leben merkt es keiner.

CPU: AMD Ryzen 5 3600 -> Ryzen 4000 wird dann folgen

Auch wenn du den Ryzen nur als Übergangslösung nehmen willst, leg noch 10-15€ drauf und nimm den 3600XT. Es ist nicht die Welt was der an Mehrleistung hat, aber die paar Euro tun dir nicht weh und etwas Mehrleistung nimmt man ja normal ganz gern mit. Eventuell steigert es auch den Wiederverkaufswert der CPU beim Wechsel.
 
Auch wenn du den Ryzen nur als Übergangslösung nehmen willst, leg noch 10-15€ drauf und nimm den 3600XT. Es ist nicht die Welt was der an Mehrleistung hat, aber die paar Euro tun dir nicht weh und etwas Mehrleistung nimmt man ja normal ganz gern mit. Eventuell steigert es auch den Wiederverkaufswert der CPU beim Wechsel.

Guter Einwand aber der Unterschied liegt aktuell eher bei 35€ mehr.
Vielleicht läuft mir ein gutes Angebot in den nächsten Tagen übern weg, dann kann es auch ein etwas größerer werden.
 
auf dem hab ich Cinebench, Sisoft, 7zip, 3dmark und Anno 1800 getestet - vs dann meine Kiste (und seine Karte bei mir reingehängt)

weil ich genau das wissen wollte, das du da oben von dir gibst.

Mit Ausnahme von Anno als tatsächliches Spiel sind hier aber schon wieder alle anderen von dir getesteten Anwendungen & Benchmarks mehr oder weniger sinnbefreit im Hinblick auf die spätere Gamingleistung in FPS. Und genau darum geht es doch letztlich, wenn man für den Kauf eines Gamingrechners berät...

und nope!!!

ich brauch kein neuen rechner, kein 10900k, kein Ryzen 3700x oder 3950x
Cinebench halbiert so ziehmlich exakt das ergebnis mein Xeon vs sein Ryzen und Anno 1800 (gleicher Speicherstand/gleicher Monitor, gleiche auflösung) hatte bei ihm 2fps mehr ?! messfehler ?! sein windows war neu installiert ?! whatever...

Cinebench ist irrelevant, weil es nichts anderes tut als auf jedem einzelnen vorhandenen Kern maximalle Last zu erzeugen. Das ist synthetische Last, die in Spielen niemals anliegt und dein Ergebnis skaliert schlicht mit der Anzahl an Kernen bis zum Maximum, was aber in der Gamingpraxis erneut nicht ausschlaggebend ist, weil bei 95% der Spiele schon bei 6 Kernen oder weniger bereits Schluss ist.

Und Anno ist wie bereits erwähnt ein Extrembeispiel, bei dem sich viele versch. Konfigs im Bereich der Messtoleranz bewegen. Dennoch schon "traurig" (und damit ein Argument gegen einen alten Xeon für Gaming), dass du bei 750,-€ Gebraucht(!)-Preis einem günstigen Mainstream-8-Kerner sozusagen unterliegst. Und wenn jemand jetzt aktuell in der Realität schon schneller unterwegs ist als du (und in sehr vielen anderen Games reden wir hier nicht von 2 FPS, sondern von einem prozentualen Unterschied irgendwo im Bereich von 10% bis 50%), muss er doch sein System in Zukunft noch viel weniger schnell wieder verändern. Er braucht also auch keinen neuen Rechner....

Klar das man ähnliche, gleiche Leistung auch mit weniger Geld erreichen, der Ryzen hat nur 280 € gekostet - aber umgekehrt gibs dann auch deutlich mehr Power auf meinem Xeon ( Cores, Quadchannel) kann neben Anno sogar noch Starcraft II und Surviving Mars laufen lassen, whärend ich streame, mucke höhr, Browser offen hab - Anno lädt auch einfach schneller auf meiner Kiste, stabiler, zuverlässiger, die Kiste hat keine Leistungsknicks, weiß gar nicht was das ist :)

Wenn du nun aber alle absolut realitätsfernen Annahmen aus deinem Beispiel weglässt (zB das Spielen von 3 Games parallel) und dich auf das Wesentliche bzw. Übliche konzentrierst, also zB 1 Game + Browser mit xx Tabs + Musik / YT-Stream, dann landest du am Ende wieder beim von uns vorhergesagten Ergebnis, dass es keinen Unterschied gibt. Ein Ryzen 3600 für 160,-€ packt das genauso und ist dann mit der Kombi aus höherer IPC + höherem Takt + weniger (aber ausreichend vielen) Threads bei den ganzen Hintergrundtasks nicht schlechter, zeitgleich aber im Game selbst schneller.

Sind halt so passive Vorteile, die in keinem benchmark jemals auftauchen, da muss man schon mit Stoppuhr daneben sitzen und gucken wie schnell der Ryzen 8 kern was hinbekommt vs mein Xeon mit 16 und Quadchannel - da gibs für mich kein zurück mehr auf Desktop Systeme.

"Passive Vorteile" lassen sich dann aber auch mit "Imaginäre Vorteile" übersetzen^^ Quad Channel bringt tatsächlich in einigen Games noch einen minimalen Vorteil. Der Vorteil von einfach schnellerem RAM oder strafferen Timings ist aber meist höher und dann leider wieder nur selten mit Quad Channel erreichbar (und schon gar nicht auf einer so alten Plattform umsetzbar).

Und klar, irgendwann wird auch der Xeon alt und langsam, vs nagelneue Hardware, bin aber überrascht, das dies im hier und jetzt nicht der Fall ist.
ist halt auch ein Blick auf die zukunft, als wenn wir morgen alle auf 2 Krne zurückgehen mit jeweils 10Ghz - sieht eher nach 16 Kern+ aus. Kann mana uch gleich haben, bzw gestern :) und sich heute noch dran erfreuen.

Sorry, aber das ist ganz einfach komplett unlogisch gedacht und in der Realität falsch. Bleiben wir mal bei deinem speziellen Beispiel:

Du hast jetzt aktuell (!) 16 Kerne, die bzgl. IPC auf dem Stand von 2015 - also ggü. allen aktuellen Mainstream-Plattformen veraltet - sind. Du hast noch dazu einen Boosttakt, der 700 MHz bis 1,5 GHz niedriger liegt als alles, was man aktuell im Mainstream findet. Beides sind Nachteile, die - entgegen deiner Argumentation - auch nicht in xx Jahren geändert werden oder sich plötzlich in Vorteile umwandeln. Selbst in 5 Jahren hätte der Ryzen-Käufer immernoch nur 5 Jahre Rückstand, während es bei dir dann bereits deren 10 sind.

Deinen gedachten Vorteil von mehr Kernen konntest du faktisch bis vor kurzer Zeit nur in absolut exotischen Games nutzen, weil alles andere hier bis max. 4 Kerne skaliert hat, teils noch auf reine Single Core-Leistung ausgelegt war. Selbst jetzt, also bereits in 2020, finden sich in Relation auf den gängigen Listen auf Steam / anderen Gaming-Plattformen nur eine Handvoll Spiele, die über 6 Kerne / 12 Threads hinaus noch Leistungsschübe verbuchen. Und selbst WENN du so ein Game findest, machen dir IPC + Takt den Kernvorteil eventuell schon wieder zunichte.

Denken wir nun ein paar Jahre in deinem Beispiel weiter und landen bei 30% an Games, die mit 16 Kernen noch skalieren (was aber anhand der nicht endlos möglichen Parallelisierbarkeit im Gaming absolut unrealistisch ist), dann bist du irgendwann in 2025 so weit, dass du das volle Potential deiner CPU nutzen könntest (!). ABER bis dahin haben sich die IPC nochmals massiv zu deinem Nachteil verändert und der Takt ebenso. Dein Leistungsrückstand zu den dann aktuellen CPUs ist dann gravierend, sodass schlussendlich an dem Punkt, an dem du endlich dein Maximum bzgl. Kernzahl abrufen kannst, dieses Maximum nur noch 25% dessen entspricht, was dann eben selbst im Mainstream an Leistung "normal" ist.

Und es ist ja in Sachen Gaming auch aktuell schon so, dass deine CPU aufgrund ihrer Schwächen in fürs Gaming relevanten Bereichen ggf. mal zum Flaschenhals wird. Spätestens mit einer 3080 rennen dir selbst die "kleineren" Mainstream-CPUs á la Ryzen 3600 / i5-10600k dann auch in grafisch anspruchsvolleren Spielen & Settings davon, weil sie nicht mehr von einer zu langsamen GPU ausgebremst werden.

Im competitiven Bereich, bei Shootern und für alle, die aktuell schon eine für ihre Auflösung / Settings relativ starke GPU haben, limitiert deine CPU jetzt schon.

Entsprechend verstehe ich nicht ganz, was du als dein eigenes Pro-Argument für die CPU siehst. Es gibt schlichtweg keines...

Und was Games angeht...man kann sich auch tot-benchen und zum "Frame-hunter" werden, was dadrin endet das man für seine 10 Lieblingsgames 4 Rechner braucht, weil ja jeder Porzessor mit Ram, SSD und Grafikkarte vor und nachteile hat - in CS-Go ist der aber schneller, ja aber in Tombraider nehm ich dann den Rechner....super..oder einfach ne Allroundlösung, die egal was alles gut, zuverlässig auch noch in 5 Jahren hinbekommt...solange die Grafikkarte stimmt :)

Nochmal: Das Problem bei deiner Empfehlung ist schlicht, dass dein Xeon trotz des Gebrauchtpreises von 750,-€ in 95% aller gängigen Games von Mainstream-CPUs mit 6 Kernen, wie zB dem Ryzen 3600, für bereits 160,-€ geschlagen wird. Da retten dich keine "passiven Vorteile" und auch kein Quad Channel oder die Aussicht auf irgendeine Zukunft: Niedriger Takt und niedrigere IPC bleiben auch in 2023 mit Grafikkarte A oder B in Game X oder Y noch niedrigerer Takt und schlechtere IPC, egal wie man es dreht und wendet. Was dir passieren kann, ist, dass deine CPU deine hinzugekaufte GPU dann eben noch mehr limitiert als dies bereits aktuell schon der Fall sein kann.

Daher ist das einzige, was (d)eine CPU zum Allrounder macht, dass sie wirklich allround in fast jedem Spiel schlechter ist als jede gängige (und hier empfohlene) Mainstream-CPU und das teilweise im für den Spieler subjektiv bedeutenden (weil zB Spielspaß einschränkenden) Maß.


Geht mal so, mal so, die Xeon generation ist halt anscheinend Top of the Line gewesen, welche jetzt ja erst endgültig durch den Threadripper 3000 deklassiert wird..

Und auch hier: Nein. Wir reden vom Gaming. In deinem Fall war deine Xeon-CPU in Sachen Gaming bereits "deklassiert", als sie auf den Markt kam. Und dazu brauchte es auch damals schon keinen alternativen Anbieter aus dem WS-Bereich, sondern nur den einfachen Mainstream mit etwas mehr Takt und schnellerem RAM.
 
Zuletzt bearbeitet:
vor allem bei
grafisch fordernden AA/-AAA-Spielen samt raytracing.
kleiner Einwand:
Ich glaube es ist ein großer Irrglaube, dass RT und vor allem DLSS mehr Vram braucht. Das Gegenteil ist aber der Fall.
Once again, DLSS 2.0 triumphs on the RTX 2080 Ti. Using it in quality mode lowered VRAM consumption by nearly 2 GB. After enabling it, usage went from 10.3 GB down to 8.4 GB, well within the limits of the card’s 11 GB VRAM.
 
Zuletzt bearbeitet:
Ich halte einen zeitnahen Release für sehr unwahrscheinlich. Ich denke eher, dass die „Super“ Varianten ganz planmäßig für nächstes Jahr angesetzt sind, egal wie Navi performt.

Das passt auch gut hierzu.
Dazu ist theoretisch bis 32 Gbps Speicherdatenrate möglich. Vermute der Super-Refresh bekommt max. 21 Gbps Speicher oder gleich bis 24 Gbps.

Das mit der Speicherreduzierung ist ein guter Einwand. Aber bitte den ganzen Absatz zitieren^^
Something that has come up with other games tested in 8K is VRAM usage.
Sollte in 4k uhd somit wenn überhaupt nicht, oder deutlich geringer auftreten.
Und Dlss 2 ist ja Upsampling, nicht Upscaling. Laut Erklärung sollte es also nur wenig Unterschied machen ob in 1080, 1440p oder 4k uhd ausgegeben wird, denn die Server haben die unzähligen finalen Bilder bereits in 16k Auflösung + Downsampling fertig geredert und bereit zum Vergleichen; die KI macht den Rest.

Somit wäre meine Vermutung dass bei diesem Vergleich zwischen nativ 8k und Dlss 2 in 8k, bei der Dlss 2 Variante 1) niedriger aufgelöste Texturen geladen werden (4k uhd) oder es der 2) 2080 ti an Speicherdatenrate fehlt.
An meiner eigenen Empfehlung für Wuhler ändert sich damit etwas, aber nicht genug um die 3080 10 GB bis 2022 zu empfehlen.
Death Stranding ist halt kein next-gen Spiel und hat auch kein Raytracing an Bord.
Noch zu erwähnen dass mit Ampere nicht nur einfach Raytraced Schatten, oder Raytraced Spiegelungen anvisiert werden (von Nvidia oder den Spieleentwicklern),
sondern gleich Raytracing das ganze Packet: Schatten, Spiegelungen, GI (bei Cyberpunkt sogar diffused illumination) und Umgebungsverdeckung.
Da kommt ganz schön was zusammen, solange DirectStorage nicht Einzug hält.
 
@Hyrasch
Da hast du wahrscheinlich recht, ich lese nur die letzte Woche sehr häufig. „Vram reicht nicht, denk an RT und DLSS“ als Begründung. Das wollte ich etwas relativieren.
 
bei 3440x1440 120hz braucht ich mir über RT eh keine gedanken machen. ich nehm da lieber die fps mit.
 
DLSS ist für mich halt DLSS und kein nativ :) das ist beschiss :d
D.h. du bist Team nativ selbst wenn das Bild auf deinem Monitor am ende durch DLSS besser aussehen sollte bei mehr FPS als das native Bild? Weil es "beschiss" ist? :d
Also mich interessiert nur wie das Bild am Ende aussieht. Ob es nun nativ, DLSS oder ein kleines Zaubermännchen ist das sie mir in einen kleinen Käfig in die graka setzen, ist mir völlig latte :d
 
nein wenn nativ so mies ist und DLSS das aliasing behebt und das nachher nicht wirklich schlechter aussieht kann ich damit leben.

das DLSS in control, was ja dlss 2.0 ist, ist naja...
 
@Scrush
Ich denke DLSS steckt trotz 2.0 immernoch in den Kinderschuhen. Das sind zum Glück reine Software Probleme und kaum ist DLSS2.0 da, wird schon 2.1 angekündigt. Die Entwicklung läuft schnell und die Tendenz geht klar in Richtung KI und wird generell die nächsten Jahre viel verändern.
Die nächsten AAA Titel, welche aktuell entwickelt und für DLSS2 optimiert werden, sollten schon wieder besser flutschen, als ein kurzerhand nachgeschobener Patch, wie es bei Control der Fall ist. Das Spiel ist für mich eher als Versuchsobjekt zu betrachten.
 
Ich muss ganz ehrlich sagen ich habe keine Ahnung ob und wie DLSS sich im verlgiech zu nativ schlagen wird und kann da noch garnicht drüber urteilen.
Ich fänds nur witzig wenn sich Leute dagegen sträuben obwohl es super aussieht und frames bringt nur weil es nicht "das einzig wahre native Bild" ist :d

Ich möchte einfach nur ein schönes Bild sehen ... wie sie das hinbekommen ist mir Pups :)
 
@wuehler1606
Klingt dick. Herzlichen Glückwunsch. Fetter Rechner :d
Wenn du im anderen Thread paar Bilder von der fertigen Wasserkühlung posten würdest ;)

Dann upgradest du also auf Ryzen 4000, Zen 3. Schlau!
Die einzige Möglichkeit weniger Geld auszugeben wäre zur rtx 3080 20 GB zu greifen.
Sei dir im Klarem dass die rtx 3090 in 2 Jahren zur next-gen auf 500 € fallen wird und es max. ~ 20 % mehr Leistung gegenüber rtx 3080 werden.
Wenn in 2 Jahren der rtx 3080 die Puste ausgeht, wird es also auch der rtx 3090. Schlauer wäre es eig. die 600 - 800 € zu sparen und in 2 Jahren wieder die gpu zu wechseln.
Gruß
 
Wenn in 2 Jahren der rtx 3080 die Puste ausgeht, wird es also auch der rtx 3090. Schlauer wäre es eig. die 600 - 800 € zu sparen und in 2 Jahren wieder die gpu zu wechseln.

Ich habe hier einen Leak gesehen der die 3080 auf im Mittel 30% Mehrleistung gegen eine 2080 Ti setzt, selbst unter der Annahme das eine 3090 nochmal 20% draufpackt, kommt man also mit der 3090 nur auf 1,5x 2080 Ti. Für mich persönlich kein Grund zu wechseln, da sitze ich die 30XX-Generation lieber aus und kaufe dann von der 40XX-Gen den Top Dog. Unterm Strich gebe ich weder mehr Geld aus noch habe ich wirklich Leistungseinbußen. Bis denn wirklich mal Games kommen die auch eine 3090 fressen wird man mit 95% der Spiele auf Ultra-Einstellung glücklich werden, und bei den fehlenden 5% geht man dann einfach auf High-Einstellungen und stirbt da auch nicht von. Und die Mehrleistung der 3090 hat man ab Kauf anliegen, bis man sie mal ersetzt, ist also definitiv kein rausgeworfenes Geld. Und wenn wir deine Aussage mal auf die Spitze treiben, dann merkt man erst einmal wie unsinnig die ist: "Du darfst GAR nichts kaufen! Weil alles wird dir sofort veralten und später ersetzt!". Man sollte bei PCs im Moment leben, was benötigt man gerade und welchen preislichen Schritt will man gehen, alles andere ist reiner Spekulatius und Glaskugellesen.
 
@wuehler1606
Klingt dick. Herzlichen Glückwunsch. Fetter Rechner :d
Wenn du im anderen Thread paar Bilder von der fertigen Wasserkühlung posten würdest ;)

Dann upgradest du also auf Ryzen 4000, Zen 3. Schlau!
Die einzige Möglichkeit weniger Geld auszugeben wäre zur rtx 3080 20 GB zu greifen.
Sei dir im Klarem dass die rtx 3090 in 2 Jahren zur next-gen auf 500 € fallen wird und es max. ~ 20 % mehr Leistung gegenüber rtx 3080 werden.
Wenn in 2 Jahren der rtx 3080 die Puste ausgeht, wird es also auch der rtx 3090. Schlauer wäre es eig. die 600 - 800 € zu sparen und in 2 Jahren wieder die gpu zu wechseln.
Gruß

Also der Rechner wird mit der 3090 sogar über 4000€ kosten. Ich vermute mal 4500-4800€.
Ob ich jetzt eine 3080 rein baue und so dann auf 4000€ komme, ist dann ein Tropfen auf den heißen Stein...

Ich warte es sowieso erstmal ab.

Bei 10-15% Mehrleistung wird es die 3080.
Bei 20% wird die Entscheidung schwer
Ab 25% ist die Entscheidung klar.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh