Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
wenn die 3d modelle so funktionieren wie der 5800x3d dann würde ich definitv abwarten denn dann sparst du dir eventuell sogar das geld für schnellen und somit teuren ddr5 und kommst am ende auf 0 raus
Ja der Ansatz ist gut, aber für 32gb 6000mhz ram zahle ich 150€ mit weniger Mhz werde ich selbst im besten Fall nicht unter 100€ kommen, also höchstens 50€ gespaart, bei 300€ mehr Ausgaben, falls der X3d 500€ kosten sollte, was ja schon eher niedriger angesetzt ist
Dann hast Du für Dich festgestellt, dass sie zu lahm ist.
Ist doch gut, dagegen sagt doch niemand was.
Aber eine neue CPU kaufen, und sich dann hinstellen: Aber die Graka ist nur 40% ausgelastet anstatt die Regler zu bedienen? Das ist der Weg?
Ich kann doch vorher schauen in 720p-Benches, ob die CPU schnell genug für mich ist? Genau darauf will ich doch hinaus. Sobald sie schnell genug ist wirste Dich ja nicht über zu wenig FPS beschwehren.
Der Rest sind dann die Regler.
Überleg Dir wie viel FPS die CPU in Deinen Games bringen muss. 165FPS in jedem Game ist illusorisch. Kannste vergessen.
Wie gesagt das Problem ist jetzt eigentlich nur bei Witcher, da gibt es auch keine Regler mehr zu bedienen die genau die Situation verbessern, viele Einstellungen gibt es da auch insgesamt nicht, aber ich weiss natürlich was du meinst.
Ja der Ansatz ist gut, aber für 32gb 6000mhz ram zahle ich 150€ mit weniger Mhz werde ich selbst im besten Fall nicht unter 100€ kommen, also höchstens 50€ gespaart, bei 300€ mehr Ausgaben, falls der X3d 500€ kosten sollte, was ja schon eher niedriger angesetzt ist
Beitrag automatisch zusammengeführt:
Keins von beidem, einfach nicht so Totalausfälle, dass ich plötzlich nur 40-50 Fps habe aufgrund der Umgebung, wo ich sonst etwa 120Fps hätte.
Selbst auf einem 13900k mit einer 4090 und fast 100 FPS läuft der Witcher in der "neuen" Version nicht rund. Fühlt sich völlig hakelig an.
Eventuell kann man da kaufen was man möchte und es wird einen nicht glücklich machen.
Naja das Ziel ist doch natürlich immer das bestes aus seiner Grafikkarte rauszuholen, was auch noch finanziell sinn macht, geht ja beim Undervolten für mich los.
Ja ich verstehe auch nicht wieso ich immer so komplizierte Antworten bekommen habe die an meiner Frage vorbei gingen xD
Kann natürlich an meiner Formulierung liegen, aber ich hätte erwartet etwas zu hören, was ja von manchen auch kam:
Der I7 ist zu schlecht deswegen dieser Einbruch, kauf dir dann den Ryzen XY dann ist das Problem weg🙂
Dann stell ich mal noch eine Frage, macht ein 6 Kerner noch Sinn für 100€ weniger, oder besser gleich den 8 Kerner, Blick Richtung Zukunft. Und bitte kein ,,das hängt von deinen Bedürfnissen ab,, 😂
Ja, dass ist mir klar, möchte eigentlich der Optik wegen auf der neuen Version bleiben, da ich auf Mods eher weniger Lust habe, aber trotzdem danke für deine Tipps. Jetzt weiss ich schonmal das Witcher einfach scheisse läuft in der Version.
Und dafür technologiebedingt ein Input lag einbaut das gefühlt die FPS halbiert.
Da man man sich auch einfach die gewünschte FPS Zahl mit Edding und Normschrift Schablone direkt auf den Bildschirm malen.
Und dafür technologiebedingt ein Input lag einbaut das gefühlt die FPS halbiert.
Da man man sich auch einfach die gewünschte FPS Zahl mit Edding und Normschrift Schablone direkt auf den Bildschirm malen.
Und dafür technologiebedingt ein Input lag einbaut das gefühlt die FPS halbiert.
Da man man sich auch einfach die gewünschte FPS Zahl mit Edding und Normschrift Schablone direkt auf den Bildschirm malen.
Tatsächlich funktioniert es ganz gut. Anfangs hatte ich auch einen inputlag der wirklich extrem war. Vsync war ein scheiss dagegen 😅
Dann ha ich das game neugestartet und es war fast weg. Das dumme an FG ist, der rtss fps cap verursacht Ruckler. Da muss man dann auf den nvidia cp zurückgreifen und für die exe die fps einstellen.
also wenn du zwischen 50 und 120fps keinen unterschied siehst.....
dann frage ich mich 100000x mal mehr wie du einen unterschied zwischen RTSS und dem nvidia CP frame limiter spüren willst wenn selbst 70fps nicht sichtbar sind.
Ich verstehe wie die Bude mit allem drum und dran funktioniert und es ist logisch, technisch sowie mathematischer Dummstuss, die Treiberkonfiguration ist aus mehreren technischen Gründen der bessere Weg und funktioniert schlichtweg besser.
Und ja solch einen Bildschirmschoner sieht man garnichts durch mehr FPS und Spüren schonmal genausowenig weil das ohnehin Quark ist...
Edit:
Das GTA V Video von mir was ich verlinkt habe beweist es im übrigen auchm schnapp dir die Playlist und du wirst zu der Folge davor und ab irgendeiner danach wieder mit 60fps zu dem mit 50fps, absolut garkeinen Unterschied bemerken.
Nicht in der aufbereiteten Videoaufnahme für YouTube und auch nicht Zockend vor der Glotze an deinem eigenem Kasten.
Dieser FPS-Hirnie Kram von gewissen Konsorten ist schlichtweg schon nur Blödsinn, geht lernen oder lasst es mit der verdammichten Werbetrommel
Gruss
Beitrag automatisch zusammengeführt:
@Huberterich@HisN
Wobei das mit der Auflösung so nur gewissermaßen "wahr" ist
Im CPU-Limit Benches sind ja nicht ohne Grund 720p oder sogar noch weniger wenn es geht. (davon ab das da Treiberseitig ohnehin ein API, Problem herrscht bei AMD sowie Nvidia, wo die CPU denn doch Bullshit abkriegt und die Leistung sinkt oder eben unwillkürlich nurnoch schwankt, dann auch noch zwischen Treiberversionen....)
Was man nun natürlich versuchen kann ist ne niedrigere Auflösung im Spiel setzen die von der Graka dann auf die native Auflösung skaliert wird
Die GPU-Skalierung gibt es bei AMD ebenso, man muss es bloss richtig konfigurieren.
Wenn der Bildschirm gut skalieren kann und das nicht schlecht als skalierte Auflösung darauf aussieht, kann man es auch auf "Anzeige" natürlich belassen im NVidea Fall.
Ich meine AMD macht es dann aber ohnehin bei Aktiverung der Skalierung, mit der Grafikkarte, ansonsten lässt es sich dort halt nur abschalten.
Also niedrigere Auflösung kann man schonmal mit passendem Seitenverhältnis zum Bildschirm und seiner nativen Auflösung zumindest auch mal ausprobieren, könnte sein das sich da noch etwas Leistung freimachen.
Ist halt auch noch ein Regler an dem man Drehen kann
Dann ha ich das game neugestartet und es war fast weg. Das dumme an FG ist, der rtss fps cap verursacht Ruckler. Da muss man dann auf den nvidia cp zurückgreifen und für die exe die fps einstellen.
VSync verursacht keinen InputLag, zumindest keinen der spürbar wäre, bzw eine spürbare Verzögerung der Zeit des Signal inkl. verarbeitung wo man einen Unterschied merken würde.
Wenn ein Game stock dann weil entweder und oder die CPU an sich limitiert oder die Frametime für die Tonne ist.
Nvidia cp ist so oder so, der bessere weg für ein FPS-Limit, schon alleine weil es nicht über Hooking (kostet Leistung, blöderweise meistens wenn es Auffällt, CPU-Leistung) der API läuft...., da ist es auch völlig wumpe ob man InGame nen FPS-Limit setzen kann oder nicht oder ob man in ini-Files was basteln könnte.
FPS-Limit = Treiber = funktioniert am besten, ganz einfache Kiste
Und dafür technologiebedingt ein Input lag einbaut das gefühlt die FPS halbiert.
Da man man sich auch einfach die gewünschte FPS Zahl mit Edding und Normschrift Schablone direkt auf den Bildschirm malen.
Und das ist denn genauso völlig sinnfrei wie Pre-rendered Frames auf mehr als 1 zu stellen.
Mehr Last und Leistungsverbauch anstelle auf der CPU dann auf der Grafikkarte... Reaktionszeit schlechter oder besser mal dahingestellt, das man bei "interpolierten" Frames keine Genauigkeit und zumal zeittreu gescheit hinbekommt, mit Frames die eigentlich nicht exisiteren ausser durch "Interpolation" eben, das sich das kacke anfühlt das kann man sich auch an 5 Fingern abzählen.
Logisches denken, Mathematik und dem technischem Know-How wie die Kiste und Software darauf nunmal funktionieren.
Das könnte man mit fertigen Filmen vielleicht versuchen, aus 60 120 zu machen, wird sich aber mit "Motion Blur" sicherlich beissen und richtig kacke aussehen, wobei echtes Motion Blur von Filmen da deutlich weniger problematisch sein wird, das funktionierte ja in der Vergangenheit auch da schon wirklich gut.
Nicht anderes passiert nämlich mit 200Hz-TV's wo das so aufm Karton draufsteht, es gibt keine nämlich keine Streifen mit 120 Frames, vielleicht gibt es mittlerweile mal den einen oder anderem mit 60, wobei das mit ner BluRay, dem üblichen Medium was auch schon nur die wenigsten tatsächlich besitzen dürften schon die Ausnahme/n sein wird/erden
Bin ich mir auch ziemlich sicher das ich hier im Forum wohl einer der wenigen dahin-geschätzten 5% der User bin der n BluRay Laufwerk/Brenner Kombo im Rechner verbaut hat
Dann stell ich mal noch eine Frage, macht ein 6 Kerner noch Sinn für 100€ weniger, oder besser gleich den 8 Kerner, Blick Richtung Zukunft. Und bitte kein ,,das hängt von deinen Bedürfnissen ab,, 😂
was man über die letzten jahre festgestellt hat und sich bis heute immer wieder bewahrheitet hat ist, dass man keine kerne auf halde kaufen sollte.
der 13600k ist wieder fixer als der 12700k.
der 5600x ist schneller als der 3700x
usw...
deshalb > 13600k, restconfig bauen. sind am ende noch ein paar Euros über und die sollen noch in die kiste gesteckt werden, kannste auf den größeren gehen.
nicht den 13700k nehmen, dafür beim rest sparen und in der hoffnung der 13700k rettet dich 2 jahre länger. das wird nicht passieren.
der 14600k wird dann wieder schneller sein in games.
du ratterst hier Romane runter aber merkst keinen inputlag bei vsync? das passt vorne und hinten nicht zusammen.
und damit bin ich auch raus aus der Diskussion
Dem ist absolut zuzustimmen, man kauft sich Hardware für sei Budget, wenn man was braucht, nicht für die Zukunft.
Genau so ist es eben nunmal eben blöderweise entsprechend ohnehin der Fall, besonders bei Games an Software, des läuft immer erst mit späteren Generationen richtig gut und zudem dann deutlich günstiger, weil man eben nicht die dickste CPU sowie GPU braucht.
So einfach ist das halt, das war mit GTA 3 damals so, mit Vice City, San Andreas, Far Cry, Crysis...., das ist "never ending Story"
Zumal bei der Menge an Games in jedem Genre was es so gibt, gibt es soviele Games, da muss nicht immer das neuste auf Max Settings laufen und so wie sich das entwickelt hat, also wie gut die Software an sich läuft, Treiber ebenso an sich auch zu der Hardware, sehen aktuellste Games auf der nicht dicksten Grafikkarte sowie dicksten CPU dennoch richtig gut aus und laufen auch sehr gut, auch ohne Max Settings, wovon vieles ohnehin übertriebener Totalquark ist.
Beispiel Project Cars 2, was durchaus eben auch deutlich weniger nen "Bildschirmschoner" ist, bisschen Bewegungsunschärfe raus, MSAA 4x auf FullHD, mehr brauchts halt einfach nicht, des ist halt Quark.
Was man allerdings vielleicht dennoch einfach möchte, weil man es möchte anstelle dessen das man es braucht, joa denn macht man halt, des is wie nem Amiga 4000 128mb oder sogar 256MB FastRAM zu verpassen obwohl auf dem Ding in der Freizeit retromässig eh nur überwiegend A500 Games mit WHDLoad brauchen, wo schon 10MB FastRAM (2mb chip, für grafik und ton) ohne sündhaft teuerer Zorro III Speichererweiterung alles läuft
Oder ein weiteres Beispiel, an Steller der 3640er CPU-Platine auf Biegen und Brechen mit jeder Menge Geld unbedingt ne CPU-Platine reinknallen mit nem 68060...
So ne Furia mit 68020 ist in nem A600 schonn ganz sinnvoll, muss man eben bereit sein für 100 bis 150€ totes Kapital zu kaufen/besitzen, für 3 mal im Jahr 1 bis 2 Stunden die Klassiker zu Zocken auf zeitgenössischer Hardware mit modernen Methoden, ohne den Disketten.
Ansonsten kommen halt einfach Disketten in nen Standard A500 rein und die Haptik sowie die geräuschkulisse ist direkt auch viel authentischer.
Ich schweife ab, ist aber mal nen ähnlicher Vergleich irgendwo
was man über die letzten jahre festgestellt hat und sich bis heute immer wieder bewahrheitet hat ist, dass man keine kerne auf halde kaufen sollte.
der 13600k ist wieder fixer als der 12700k.
der 5600x ist schneller als der 3700x
usw...
deshalb > 13600k, restconfig bauen. sind am ende noch ein paar Euros über und die sollen noch in die kiste gesteckt werden, kannste auf den größeren gehen.
nicht den 13700k nehmen, dafür beim rest sparen und in der hoffnung der 13700k rettet dich 2 jahre länger. das wird nicht passieren.
der 14600k wird dann wieder schneller sein in games.
du ratterst hier Romane runter aber merkst keinen inputlag bei vsync? das passt vorne und hinten nicht zusammen.
und damit bin ich auch raus aus der Diskussion
Ok danke, habe ich verstanden, aber nochmal falls du es vergessen hast, bei mir kommt nur noch Am5 als Option in Frage, also wäre eine Empfehlung in der Richtung etwas besser für mich, falls du zu denen auch was empfehlen könntest
Dieser Satz ist sinnlos. Er ist nicht Mal falsch, er ist einfach sinnlos. Weil du nicht verstanden hast was CPU und GPU tun und welchen Job beide jeweils machen!
Grundlagen: 1) Wie entsteht ein Bild im PC? Die meisten von Euch werden sicher irgendwann mal den Film "Matrix" von 1999 gesehen haben. Dort wird das Thema sehr schön und plastisch erklärt: Ne CPU schiebt grüne Zahlenkolonnen an die Grafikkarte, die Grafikkarte macht daraus ne hübsche Blondine...
ich bin der meinung > wenn man am5 holt und zwar ab jetzt dann sollte man die 3d modelle abwarten. genau dafür war ja die option mit am5 direkt einzusteigen da.
wenn dir die mögliche performance der 3d modelle eh wurscht ist, dann kannst du auch bei intel und dem 13600k bleiben
Dieser Satz ist sinnlos. Er ist nicht Mal falsch, er ist einfach sinnlos. Weil du nicht verstanden hast was CPU und GPU tun und welchen Job beide jeweils machen!
Grundlagen: 1) Wie entsteht ein Bild im PC? Die meisten von Euch werden sicher irgendwann mal den Film "Matrix" von 1999 gesehen haben. Dort wird das Thema sehr schön und plastisch erklärt: Ne CPU schiebt grüne Zahlenkolonnen an die Grafikkarte, die Grafikkarte macht daraus ne hübsche Blondine...