[Kaufberatung] Neue Plattform, oder doch nicht??

Ich kann dir aber bezüglich AMD Prozessoren folgendes sagen (ich hatte die auch schon hier mit Chipsatz 570).

Ja sie laufen einwandfrei und selbst mit ein paar Mhz mehr kein Problem aber, es ist kein Potential mehr da. Wenn dein 12 Kerner 3900X, eine feine CPU, nicht mehr will dann ist das so.

Bei einem guten 7920X bringst du alle Kerne von 2,9 GHz auf Allcore 4,5 oder 4,7 GHz. Das ist es doch was wir wollen. Ein langweiliges AMD 12-16 Kern System kann jeder bauen (Nicht falsch verstehen, die Leistung von AMD ist über jeden Zweifel erhaben).
Ich hab ja garnicht vor ein AMD System zu bauen.
Ich bin gerade noch etwas am schwanken zwischen einem guten Angebot für einen i9 9900k und einem i5 10600k.
Aber ich denke mit dem 10600k bin ich besser dran durch höheren Takt und besseren Ram OC

X299 kommt für mich eigentlich nicht in Frage
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es wird ja offenbar in FHD gespielt. Aber bei wieviel Hz macht der Monitor dicht? 60? 100? 120? 144/165? 240?

Und was wird hauptsächlich gezockt?
 
60 aber er plant 1440 (evt. 3440x1440) 100-165Hz je nach monitor. Er spielt keine aktuellen Spiele.
 
Ja, dass was Maurise sagt.
Aktuell bleibe ich bei FHD 60hz, langfristig will ich dann auf 3440x1440 umsteigen mit etwa 100-120Hz.

Das aktuellste was ich Spiele ist zb KCD oder Hell let Loose. Far Cry 5 steht noch auf meiner Liste und GTA V gab es ja letztens Gratis.
 
Aktuelle Grafikkarten 2080 / TI können maximal 2560x1440 mit 120/144 HZ darstellen mit eingeschränkten Details bei KCD und FarCray. Was langfristiges für 3440 x 1440 mit 120 Hz gibts nicht. Prozzesoren sind unwichtig ab 2560 x1440. Da reicht selbst ein 3700er von AMD noch für nächste Grakageneration. Hier limitiert immer die Grafikkarte.
 
Zuletzt bearbeitet:
ich hab ne 980 für meine 3440x1440 100Hz XD geht aber mit meinen spielen. Mal schauen was die neunen GPUs schaffen.
 
In GTA ein ähnliches Spiel, ich weiß jetzt nicht ob da wirklich der Prozessor so Stark limitiert oder ob es tatsächlich Problematisch ist das die Karte nicht in dem dafür vorgesehenen Slot mit x16 Anbindung steckt.
Ich kann mir aber nicht vorstellen dass der Prozessor auf einmal alles in den Arsch zieht, es gibt Leute die den mit einer 2080ti nutzen und auch keine Probleme haben. Zumal meiner auch auf 4Ghz läuft und mit einer Starken Karte bekommt man (zumindest laut den Benchmarks) auch mit langsameren Prozessoren mehr als 60 FPS in KCD raus. Zumal ich als Preset "Hoch" genommen hab und da mit der 2070s auf FHD nur 40 FPS geht halt garnicht, hatte mit der 290x selbst in Rattay eigentlich immer über 50 und auf dem Land so gut wie nie unter 60FPS.

Tja, das kann halt alles und nix sein.
X99 profitiert ein Stück weit ganz gut vom Cache OC. Und CPU Limits mit NV GPUs ist "normal", weil NV nen Software Scheduler Aufsatz verwendet, anders als AMD, die das in Hardware abfrühstücken.
Das hat gewisse Vorteile, weil damit bei NV GPUs etwas bessere DrawCall Performance drin ist und gewisse CPU Limits in Games nach oben gerückt werden, aber es hat auch manchmal Nachteile, bspw. wenn die CPU Last hoch ist oder wenn die Threadverteilung vom OS schlecht ist, also der Thread für die "GPU" ganz vereinfacht gesagt sich mit einem Lastthreads vom Spiel die Arbeit auf dem selben physischen CPU Core Teilen darf. Dann dropt das schnell mal relativ weit runter.

Btw. google mal nach Kingdom Comes Delivery High CPU Usage -> da finden sich ganz paar Threads, ich hab das Spiel zwar glaube ich in irgend so nem Epic Free Deal mal mitgenommen, aber nie probiert bis jetzt. In den Threads im Netz wird teils 100% CPU Load auf 12 Threads gesagt. 8700k bspw.
Das ist eben so ziemlich kontraproduktiv mit ner aktuellen NV GPU, die nämlich nur anständig performt, wenn die CPU auch genug Bumms hat. Und schlimmer noch, da geht auch die gefühlte Performance arg in den Keller, weil die Frametimes anfangen zu tanzen und sich das teils viel unrunder anfühlt, als die FPS einem bescheinigen.
CPU Vollast bzw. CPU Last bei SMT aktiven CPUs >50% ist meist eher schlecht, gerade bei NV.



Du könntest halt mal schauen, was da die CPU Last erzeugt. Vllt ist da auch was krum oder stimmt was nicht? Ggf. kann man auch tricksen. Bspw. bietet es sich an, via Taskmanager Thread 0 und 1, also die beiden Threads des ersten CPU Cores dem Spiel zu entziehen. Einerseits gibts vereinfacht gesagt, sowas wie Prioritätentasks, die auf dem ersten Core/Thread laufen und andererseits gibt sowas "Luft" für den Scheduler, damit der eben Hintergrundtasks irgendwo hin verteilen kann -> probier mal ob das was bringt. Ist dirty, aber könnte helfen.



Ansonsten, Plattformwechsel könnte auch was bringen. ABER wenn du bei dir siehst, dass die CPU bei KCD auf 100% geht, bei 6C/12T, dann ist das bei neueren 6C/12T CPUs auch zu erwarten. Sinniger wäre da also, dass du mehr wie 6C erstehst. Und wenn es nur ein gebrauchter 1680v3 Xeon ist, der nicht selten viel billiger gehandelt wird, als ein 5960X i7 und ebenso 8C hat, dazu den freien Multi, ist das gleiche Silizium. Zumindest war das mal so... Ggf. muss man schauen, ob es da spätere Revisionen gab, die gelockt waren. 4,2 bis 4,5GHz vertragen die Teile relativ häufig, bei guter Kühlung. Das macht dann ~200W unter Volllast auf der CPU. Vergiss den Cache nicht, je nach Board (mit dem OC Sockel Dingern) geht auch 4000+. Zusammen mit guten RAM Sticks im Quadchannel, zwar keine Rekorde mit sonst wie viel Takt, aber man kann die Timings relativ anziehen. 3200C14 mit B-DIEs sind schon nicht sooo verkehrt. Vor allem ggü. damals mal üblichem 2600/2800er C17 oder so. Ich hab hier noch einen 5960X in einer Testkiste, da laufen ich glaub das sind 2400er Module mit irgendwelchen Micron DIEs auf 2200C18 oder sowas :fresse: Das ist halt grottig lahm...
Übrigens, die 8X von den PCIe Lanes machen den Kohl definitiv nicht fett...
 
Tja, das kann halt alles und nix sein.
X99 profitiert ein Stück weit ganz gut vom Cache OC. Und CPU Limits mit NV GPUs ist "normal", weil NV nen Software Scheduler Aufsatz verwendet, anders als AMD, die das in Hardware abfrühstücken.
Das hat gewisse Vorteile, weil damit bei NV GPUs etwas bessere DrawCall Performance drin ist und gewisse CPU Limits in Games nach oben gerückt werden, aber es hat auch manchmal Nachteile, bspw. wenn die CPU Last hoch ist oder wenn die Threadverteilung vom OS schlecht ist, also der Thread für die "GPU" ganz vereinfacht gesagt sich mit einem Lastthreads vom Spiel die Arbeit auf dem selben physischen CPU Core Teilen darf. Dann dropt das schnell mal relativ weit runter.

Btw. google mal nach Kingdom Comes Delivery High CPU Usage -> da finden sich ganz paar Threads, ich hab das Spiel zwar glaube ich in irgend so nem Epic Free Deal mal mitgenommen, aber nie probiert bis jetzt. In den Threads im Netz wird teils 100% CPU Load auf 12 Threads gesagt. 8700k bspw.
Das ist eben so ziemlich kontraproduktiv mit ner aktuellen NV GPU, die nämlich nur anständig performt, wenn die CPU auch genug Bumms hat. Und schlimmer noch, da geht auch die gefühlte Performance arg in den Keller, weil die Frametimes anfangen zu tanzen und sich das teils viel unrunder anfühlt, als die FPS einem bescheinigen.
CPU Vollast bzw. CPU Last bei SMT aktiven CPUs >50% ist meist eher schlecht, gerade bei NV.



Du könntest halt mal schauen, was da die CPU Last erzeugt. Vllt ist da auch was krum oder stimmt was nicht? Ggf. kann man auch tricksen. Bspw. bietet es sich an, via Taskmanager Thread 0 und 1, also die beiden Threads des ersten CPU Cores dem Spiel zu entziehen. Einerseits gibts vereinfacht gesagt, sowas wie Prioritätentasks, die auf dem ersten Core/Thread laufen und andererseits gibt sowas "Luft" für den Scheduler, damit der eben Hintergrundtasks irgendwo hin verteilen kann -> probier mal ob das was bringt. Ist dirty, aber könnte helfen.



Ansonsten, Plattformwechsel könnte auch was bringen. ABER wenn du bei dir siehst, dass die CPU bei KCD auf 100% geht, bei 6C/12T, dann ist das bei neueren 6C/12T CPUs auch zu erwarten. Sinniger wäre da also, dass du mehr wie 6C erstehst. Und wenn es nur ein gebrauchter 1680v3 Xeon ist, der nicht selten viel billiger gehandelt wird, als ein 5960X i7 und ebenso 8C hat, dazu den freien Multi, ist das gleiche Silizium. Zumindest war das mal so... Ggf. muss man schauen, ob es da spätere Revisionen gab, die gelockt waren. 4,2 bis 4,5GHz vertragen die Teile relativ häufig, bei guter Kühlung. Das macht dann ~200W unter Volllast auf der CPU. Vergiss den Cache nicht, je nach Board (mit dem OC Sockel Dingern) geht auch 4000+. Zusammen mit guten RAM Sticks im Quadchannel, zwar keine Rekorde mit sonst wie viel Takt, aber man kann die Timings relativ anziehen. 3200C14 mit B-DIEs sind schon nicht sooo verkehrt. Vor allem ggü. damals mal üblichem 2600/2800er C17 oder so. Ich hab hier noch einen 5960X in einer Testkiste, da laufen ich glaub das sind 2400er Module mit irgendwelchen Micron DIEs auf 2200C18 oder sowas :fresse: Das ist halt grottig lahm...
Übrigens, die 8X von den PCIe Lanes machen den Kohl definitiv nicht fett...
Also erstmal vielen Dank für deine Ausführliche Antwort und die Tipps.
Das mit den NV GPUs wusste ich nicht, habe in dem Zusammenhang auch noch nichts ähnliches gehört.

100% CPU auslastung habe ich keine, die Threads die man dazu findet sind auch eigentlich alle von Anfang 2018 als noch einige Patches zur Optimierung gefehlt haben. Aktuelle Threads habe ich da keine finden können.
Ich habe eben mal beim Spielen HW Info laufen lassen und habe keinen Worker auf 100% (den Screenshot habe ich mal angehängt)
Allerdings ist mir was anderes aufgefallen, denn wenn man sich den Maximaltakt der kerne anschaut so hat während des Spielens keine davon den eingestellten Boosttakt von 4.0Ghz erreicht...
Das war auf dem Gigabyte Board anders soweit ich mich erinnere und erklärt vielleicht warum mir das Texturstreaming stärker vorkommt seit ich das Rampage habe. Dummerweise hab ich das Gigabyte direkt verkauft und kann das nun nicht mehr gegenprüfen.

Was die Anzahl der Kerne betrifft so denke ich dass 6c/12t vollkommen ausreichen und die Benchmarks zu KCD bestätigen das ja eigentlich auch. Daher der Gedanke zu dem 10600k weil Schnellere Plattform, mehr Ram Takt usw. Allerdings ist der 10600k im grunde "nur" ein 8700k und dahingehend habe ich einen test gefunden der aussagt das der 8700k auf den 5820k kaum einen nenneswerten Vorteil bietet. (hier der besagte Test: https://www.techspot.com/review/1558-core-i7-5820k-test-in-2018/page4.html )
Am Cache OC hab ich mich eben mal Leihenhaft versucht. Mit 3.8Ghz wollte er nicht mehr booten und hat sich bei Postcode 95 aufgehangen. Habe nun 3.3Ghz auf dem Cache aber das bringt garnichts laut Capframe X. (Naja wenn die Kerne nicht boosten kein Wunder)

Was den Ram angeht der ist wohl ziemlich bescheiden. Sind 4x8Gb Crucial Ballistix 2400Mhz CL16-16-16 mit wahrscheinlich Micron Dies (steht zumindest Micron auf den Sticks). Die lassen sich seltsamer weise auch auf dem Rampage garnicht Takten, auf dem Gigabyte waren immerhin so 2666Mhz drin.
Und B-Dies für den Quadchannel zu kaufen gestaltet sich halt leider wieder recht teuer.

Der 1680 v3 ist keine schlechte Idee, nur kaum zu bekommen und wenn dann oft teurer als der 5960x.

Wenn ich mir das ganze so anschaue dann macht es den Eindruck als sei das Rampage im Arsch... Mein Problem mit der ganzen Sache ist eben dass ich nun zwei mal auf die Schnauze gefallen bin mit dem Gebrauchtkauf und daher sehr zurückhaltend bin jetzt weiter Geld in die X99 Plattform zu Stecken...
So, ich habe hoffentlich nichts Vergessen.

Zum Schluss noch 3 Cap Frame aufnahmen:
(alle mit den Selben Settings, Hoch preset mit HD Texturen in FHD)

Mit der RTX 2070 super: https://capframex.com/api/SessionCollections/52394838-cb47-4b12-b652-bbbda219f875
Mit der R9 290x: https://capframex.com/api/SessionCollections/ca0c23fc-c9cb-4e0a-b08f-06df1ce94b68
Mit dem Cache OC und der R9 290x auf 1100Mhz: https://capframex.com/api/SessionCollections/6960c267-acd3-4e70-bf38-11a9e44b1cd2


Ps. Welche werte sollte ich denn am besten Beobachten wenn ich HW Info im Hintergrund laufen lasse?
 

Anhänge

  • KCD CPU Shot.PNG
    KCD CPU Shot.PNG
    21,7 KB · Aufrufe: 70
Zum Schluss noch 3 Cap Frame aufnahmen:
(alle mit den Selben Settings, Hoch preset mit HD Texturen in FHD)

Mit der RTX 2070 super: https://capframex.com/api/SessionCollections/52394838-cb47-4b12-b652-bbbda219f875
Mit der R9 290x: https://capframex.com/api/SessionCollections/ca0c23fc-c9cb-4e0a-b08f-06df1ce94b68
Mit dem Cache OC und der R9 290x auf 1100Mhz: https://capframex.com/api/SessionCollections/6960c267-acd3-4e70-bf38-11a9e44b1cd2


Ps. Welche werte sollte ich denn am besten Beobachten wenn ich HW Info im Hintergrund laufen lasse?
Ein bischen hat das OC schon was gebracht, vergleiche mal die Minimum Frametimes.

Allerdings sehe ich an deinem HW-info64 Bild schon, dass deine CPU mit angezogerner Handbremse läuft.
Beim Effectiven Core Takt kommt deine CPU maximal auf 3.6GHz, da die Last schön verteilt ist kann er hier nicht viel Boosten.
Aber die Frage ist, stellst du den Boost Multiplikator ein oder den Base-Takt? (ich meine den Base Takt, da er auch Core Clock mit 4GHz anzeigt.)
Evt. sind da Power oder Temperatur Limits die beim neuen MainBoard im UEFI erst eingestellt werden müssen für vollen Takt mit oc.

MfG
 
Ein bischen hat das OC schon was gebracht, vergleiche mal die Minimum Frametimes.

Allerdings sehe ich an deinem HW-info64 Bild schon, dass deine CPU mit angezogerner Handbremse läuft.
Beim Effectiven Core Takt kommt deine CPU maximal auf 3.6GHz, da die Last schön verteilt ist kann er hier nicht viel Boosten.
Aber die Frage ist, stellst du den Boost Multiplikator ein oder den Base-Takt? (ich meine den Base Takt, da er auch Core Clock mit 4GHz anzeigt.)
Evt. sind da Power oder Temperatur Limits die beim neuen MainBoard im UEFI erst eingestellt werden müssen für vollen Takt mit oc.

MfG
Nicht wirklich. Ich hab noch einen missglückten Run gemacht bevor ich die Karte Übertaktet hab, also mit 3300Mhz Cache aber sonst alles wie vorher und der sieht genau so aus wie der ohne Cache OC auch bei den Min FPS.

Ja, nur ich hab keine Ahnung wo ich die Handbremse suchen soll. Denn in Cinebench zb geht die CPU ganz normal auf 4300Mhz Allcore ohne ein einziges mal Herunterzutakten.
Hab mir auch die Videos vom 8auer zur X99 Plattform angeschaut um zu sehen ob ich was vergessen habe, aber der hat auch nicht mehr gemacht.
Ich glaube was ich da einstelle ist der Boost Multiplikator. Also den Multi der auch immer in allen Tutorials angepasst wird und da die CPU im Idle ja runtertaktet würde ich sagen das ist Boost.
 
Aaaalso, kleines Update:

Das mit dem Angezeigten effective Clock ist garnicht so Verkehrt. Das Spiel ist in der Lage alle Kerne zu nutzen und Verteilt die Last entsprechend. Ich habe mal Spaßeshalber HT deaktiviert und mit nur 6 Kernen geht dann auch der Effective Clock in Richtung dem eingestellten Boost Takt, allerdings merkt man auch Spürbar wenn mehrere Kerne die 4Ghz grenze überschreiten. Daher glaube ich es ist garnicht gewünscht dass alle Kerne den Höchstmöglichen Takt halten. (korrigiert mich wenn ich falsch liege)

Und zudem habe ich auch glaube ich das Problem dass ich mehr im GPU Limit Fahre mit meiner 290x. Denn ein CPU Benchmark in KCD bringt mit dem OC gerade mal 2-3 Frames mehr wir Ohne. Und meine Werte entsprechen in etwa dem Bench von PCGH mit der gleichen CPU @stock.
Mir ist dann heute nämlich mal aufgefallen, dass die Karte ab und an auf 100% geht während den CPU Bench settings...

Hier der Benchmark auf den ich mich beziehe: https://extreme.pcgameshardware.de/...-benchmarks-kingdom-come-deliverance-cpu.html


Was die Nvidia Karte betrifft, so habe ich gelesen dass man manchmal im Treiber ein paar einstellungen wie zb "Hyperthreading Enhanchment" aktivieren bzw ändern muss.
Dummerweise habe ich die Karte schon wieder zurückgeschickt und kann so weder den CPU Bench mit einer stärkeren Karte machen, noch kann schauen ob es an den Treiber einstellungen lag.

Ich denke am besten bestelle ich eine Schnellere Karte und schnelleren Ram zum Testen und schaue mal was passiert.



Aber nochmal zu dem Thema Texturstreaming:
Das ist ja was mich eigentlich stört und was ich hoffe mit der neuen Plattform beheben/verbessern zu können. Aber ich hab halt immer noch nicht ganz verstanden was genau an der Hardware besser werden muss um das Streaming zu verbessern. Ist es der Ram Takt? Ist es der Kern Takt? Ist es sowas wie der Cache?
Oder bin ich auf dem Holzweg und kann das Streamen garnicht verbessern weil die Software das nicht auf die Reihe bekommt?

Weil wenn ich jetzt 750€ für neue Hardware ausgebe und sich das Spielerlebnis nicht spürbar verbessert, dann Kotz ich im Strahl...
Mir gehts nicht wirklich um Benchmark Scores, sondern nur darum dass die Texturen aufhören vor meiner Nase aufzuploppen und wenn das auf einem i7 2700 der fall ist, dann ist mir das auch recht (nur um zu verdeutlichen worum es mir bei der Geschichte geht, weil auf die neue Hardware bin ich nicht scharf solange sie nichts bringt)

Ps. was die unterschiede zwischen meinem 5820k und dem 10600k angeht hab ich mal die CB R20 Scores rausgesucht und mit meinen verglichen:
Multi Core: I5 10600k: 3629. I7 5820k: 2998
Single Core: I5 10600k: 501. I7 5820k: 398

Kann man irgendwelche schlüsse aus dem Score ziehen? (klar der I5 ist schneller, das hab ich auch rausgefunden ;) )
Ich hab zb keine Ahnung ob 100 Punkte im SC jetzt viel schneller sind und ob man das InGame später wirklich merkt...
 
Zuletzt bearbeitet:
Hattest du mal hier im Forum nach nem Board gesucht? Ich hab hier gerade ein gefunden für meinen 5820k und war da bei 100€ was voll ok ist.
Ich habe zusammen mit dem 5820k die AMD 5700 gehabt und fand die Leistung in den Spielen die ich spiele Super , hab aber auch nur nen 144Hz Full HD Monitor.
 
Nicht wirklich. Ich hab noch einen missglückten Run gemacht bevor ich die Karte Übertaktet hab, also mit 3300Mhz Cache aber sonst alles wie vorher und der sieht genau so aus wie der ohne Cache OC auch bei den Min FPS.

Ja, nur ich hab keine Ahnung wo ich die Handbremse suchen soll. Denn in Cinebench zb geht die CPU ganz normal auf 4300Mhz Allcore ohne ein einziges mal Herunterzutakten.
Hab mir auch die Videos vom 8auer zur X99 Plattform angeschaut um zu sehen ob ich was vergessen habe, aber der hat auch nicht mehr gemacht.
Ich glaube was ich da einstelle ist der Boost Multiplikator. Also den Multi der auch immer in allen Tutorials angepasst wird und da die CPU im Idle ja runtertaktet würde ich sagen das ist Boost.
Stimmt, die 27FPS Minimum sind vom GPU oc vs. 22FPS ohne GPU oc.

Irgendwas ist komisch, der 5820K hat 3.3GHz Base und 3.6GHz Boost.
Allcore ist in der Regel unter dem maximalen Boost von 3.6GHz.

Wenn du jetzt den Boost auf 4GHz stellst, sollte er auch auf maximal 4GHz gehen, es sei den es wird zuviel Strom oder Temperature erzeugt, dann geht er zurück auf den Base Takt von 3.3GHz.

Demnach läuft er bei dir mit 3.3GHz Base, 4GHz allcore und 3.6GHz max Boost, das wird das Problem sein, resultiert in weniger SingleCore Leistung aber mehr MultiCore Leistung wenn alle Kerne Gleichzeitig genutzt werden.

Aber woher kommen nun die 4.3GHz ?
 
Hattest du mal hier im Forum nach nem Board gesucht? Ich hab hier gerade ein gefunden für meinen 5820k und war da bei 100€ was voll ok ist.
Ich habe zusammen mit dem 5820k die AMD 5700 gehabt und fand die Leistung in den Spielen die ich spiele Super , hab aber auch nur nen 144Hz Full HD Monitor.
Ich weiß noch nicht so ganz ob ich noch mehr Geld in die Plattform stecken möchte. Aber grundsätzlich gute Idee, mal schauen was ich angeboten bekomme.
Beitrag automatisch zusammengeführt:

Stimmt, die 27FPS Minimum sind vom GPU oc vs. 22FPS ohne GPU oc.

Irgendwas ist komisch, der 5820K hat 3.3GHz Base und 3.6GHz Boost.
Allcore ist in der Regel unter dem maximalen Boost von 3.6GHz.

Wenn du jetzt den Boost auf 4GHz stellst, sollte er auch auf maximal 4GHz gehen, es sei den es wird zuviel Strom oder Temperature erzeugt, dann geht er zurück auf den Base Takt von 3.3GHz.

Demnach läuft er bei dir mit 3.3GHz Base, 4GHz allcore und 3.6GHz max Boost, das wird das Problem sein, resultiert in weniger SingleCore Leistung aber mehr MultiCore Leistung wenn alle Kerne Gleichzeitig genutzt werden.

Aber woher kommen nun die 4.3GHz ?
Naja wie gesagt, ich weiß nicht ob der Effective Clock mit der Lastverteilung zusammenhängt und er garnicht auf allen Kernen vollen Takt haben soll in Anwendungen wie einem Game.
Weil ohne HT oder in Benchmarks bzw Belastungstest wie Prime Boostet er ja ohne Probleme auch über einen Längeren Zeitraum auf allen Kernen mit den eingestellten 4.3Ghz.
Ich mach mal einen Screenshot von Cinebench, warte.

Ps. der Allcore Turbo @stock müsste meines Wissens nach bei 3.4Ghz liegen.
Beitrag automatisch zusammengeführt:

Hier, 4.3Ghz Effective auf allen Kernen
 

Anhänge

  • Cinebench.PNG
    Cinebench.PNG
    176,2 KB · Aufrufe: 60
Zuletzt bearbeitet:
Ich habe mir gerade ein paar Benchmarks angeschaut und kaum einen Unterschied zwischen PCIe x16 vs x8 feststellen können.

https://www.gamersnexus.net/guides/2488-pci-e-3-x8-vs-x16-performance-impact-on-gpus

Ich würde einfach die langsame Grafikkarte ersetzen und gut ist.
Genau das hatte ich ja mit der 2070s gemacht und es hat garnicht funktioniert... Aber es könnte natürlich auch mega Pech und eine Defekte Karte gewesen sein oder eben falsche Einstellungen im Nvidia Bios.
Ich werde wohl nochmal eine andere Karte zum Testen bestellen, die 2070s für den Preis bekomme ich leider nicht mehr. :/
 
Das aktuellste was ich Spiele ist zb KCD oder Hell let Loose. Far Cry 5 steht noch auf meiner Liste und GTA V gab es ja letztens Gratis.

Und sowohl KCD als auch GTA V sind stark CPU-lastig. Hast Du bei GTA V mit den einstellungen die du gerne spielen würdest mal einen Ingame-Test gemacht, um mögliche Limitierungen festzustellen?
 
Ein 5820K @4,3GHz und eine 2070 Super@ 8Lanes sollten super ausreichend sein.

Wenn das stockt liegt es doch eher am Windows.
 
Und sowohl KCD als auch GTA V sind stark CPU-lastig. Hast Du bei GTA V mit den einstellungen die du gerne spielen würdest mal einen Ingame-Test gemacht, um mögliche Limitierungen festzustellen?
Läuft mit der 290x absolut Spielbar mit 50-60FPS mit der Karte in dem Spiel bei 50-60FPS einen Bottleneck suche halte ich aber für Zeitverschwendung:rolleyes:
Und bei KCD habe ich ja mehrere InGame tests gemacht. Ich weiß nur nicht auf was ich noch achten könnte ausser:

-Temparaturen und eventuelle Drosselungen
-Vram
-Normaler Ram
-CPU Last
-CPU Takt
-GPU Last
-GPU Takt
-FPS

Mir fällt sonst nix ein.


Ein 5820K @4,3GHz und eine 2070 Super@ 8Lanes sollten super ausreichend sein.

Wenn das stockt liegt es doch eher am Windows.
Ja klar sollte das Reichen, in der Praxis hat es aber nicht funktioniert. Ergo war entweder die Karte defekt oder ich hab was übersehen... Aber dass es an Nvidia Treibereinstellungen gehangen haben soll halte ich auch für unwarscheinlich, da jeder PC unerfahrene Nutzer die Karte nach dem Einbau problemlos nutzen können sollte.
Und an der Treiberinstallation sollte es auch nicht liegen, die mache ich jedes mal gründlich mit DDU im abgesicherten Modus.

Und das Windows das Limit darstellt ist auch Unwahrscheinlich, weil wie soll die 290x denn besser laufen wenn Windows Limitiert? Dann würden die FPS aufnahmen von Beiden Karte ja ziemlich Identisch aussehen.

Bei meinem Glück hatte ich einfach eine Fehlerhafte Karte erwischt und suche nun nach einem Fehler der nie da war...
 
Und das Windows das Limit darstellt ist auch Unwahrscheinlich, weil wie soll die 290x denn besser laufen wenn Windows Limitiert? Dann würden die FPS aufnahmen von Beiden Karte ja ziemlich Identisch aussehen.

Bei meinem Glück hatte ich einfach eine Fehlerhafte Karte erwischt und suche nun nach einem Fehler der nie da war...

Also ich hab mal ganz fix KCD angestartet - das ist mal übel übel CPU lastig.
Ich erreiche auf nem 4,5GHz 5960X direkt ab Start ~50-60FPS, 1% low bzw. 0,1% low liegt bei ~25-30FPS. Es ist ihm Bumms egal ob ich 1920x1080 oder 2880x1620 (also 1,5er Downsamping bzw. Custom Resolution) fahre. Die FPS sind effektiv gleich. Erst in Richtung UHD wirds weniger. Nämlich ~30-40FPS avg. 0,1/1% low droppen auch noch ein wenig weiter.
Ich habe das fix auf in einem System probiert, wo besagter 5960X mit zwei 1080TIs im SLI steckt. SLI für den Test habe ich deaktiviert. Btw. habe ich ne CPU Auslastung auf allen 16 Threads von Dauerhaft über 50% bis rauf zu 70 und mehr Prozent in Peaks. Da kommt klar der Umstand zum Tragen, wie ich oben sagte. Wenn der Software Scheduler bei NV sich die Arbeit teilen muss, mit dem Spiel, dann fangen die Frametimes an zu tanzen. -> so fühlt sich der Spaß halt auch an in dem Spiel.

Btw. GTA Online ist auch so ein CPU-Kandidat. Auf diesem System hatte ich früher GTA Online gespielt. UHD Auflösung und immernoch starkes CPU Limit. Vor allem außerhalb der Stadt, was wohl an der Weitsicht liegt -> Alle Regler bis auf AA ganz rechts.


Wahrscheinlich wirst du mit was neuerem, also irgend ne Skylake-Abklatsch Architektur und Taktraten 5GHz und mehr da 10, 20 vllt 30% schneller unterwegs sein. Soooo viel mehr wirds aber nicht sein. Lässt sich schwer vorhersagen.

Ansonsten, wegen deinem Taktthema -> dreh mal auf Energieprofil Höchstleistung. HWE auf X99 und Sandy/Ivy-E auf X79 mit CPUs >=6C hatten immer schon das Problem, dass die Dinger zu lahm waren um ihren Takt hochzuschrauben bei kurzen Last Peaks. Im Zweifel fängt dann der Task Scheduler vom OS schon an den Thread auf andere Cores zu schubsen bevor der Core auf vollem Takt war. Das resultiert dann in der von dir gesehenen Thematik, dass du augenscheinlich trotz Belastung nicht den vollen Takt anliegen hast -> das kostet zudem dann deutlich Performance.
Windows 10 hat das etwas verbessert ggü. Windows 7 und 8/8.1 -> aber weg ist es nicht. -> Höchstleistung im Energieprofil, zumindest zum zocken und du hast immer Dauerhaft den vollen Boosttakt anliegen. Sofern du auf allen Cores den gleichen Multi aktiv hast. Wie es sich bei gestaffeltem OC verhält, kein Plan. Nie probiert.

Ein Indikator um ein CPU Limit rauszubekommen ist die GPU Load. Schwankt diese in Regionen von deutlich unter 100%, also 90, 80, 70 und noch weniger, dann liegt wahrscheinlich irgend eine Limitation vor. Was auch immer, genaues kann man durch Ausschlussverfahren rausbekommen -> RAM voll, ja -> dann RAM Limit. Permanent Disk Activity -> dann eher Storage Limit.
Bei der NV GPU bekommst du über den NVInspector bspw. noch paar nette Daten raus. Wie Bus usage -> was auf ein Limit der PCIe Bandbreite schließen lassen würde.


Um einen Defekt der GPU auszuschließen könntest du einfach mal einen Test machen, der mehr oder weniger vollständig ins GPU Limit rennt. Bspw. nen 3DMark Firestrike Extreme oder Timespy Extreme. Und dann dort aber nicht die Punkte, weil da zählt die CPU wieder rein, sondern die FPS der jeweiligen Grafiktests.
 
Afterburner und Riva Tuner runterladen, Overlay anschalten, GPU Last < 99%: CPU Limit.

Fdsonne hat dir ja schon demonstriert, dass du da deutlich in selbigem hängen wirst, mindestens bei KCD.
 
Ich weiß noch nicht so ganz ob ich noch mehr Geld in die Plattform stecken möchte. Aber grundsätzlich gute Idee, mal schauen was ich angeboten bekomme.
Beitrag automatisch zusammengeführt:


Naja wie gesagt, ich weiß nicht ob der Effective Clock mit der Lastverteilung zusammenhängt und er garnicht auf allen Kernen vollen Takt haben soll in Anwendungen wie einem Game.
Weil ohne HT oder in Benchmarks bzw Belastungstest wie Prime Boostet er ja ohne Probleme auch über einen Längeren Zeitraum auf allen Kernen mit den eingestellten 4.3Ghz.
Ich mach mal einen Screenshot von Cinebench, warte.

Ps. der Allcore Turbo @stock müsste meines Wissens nach bei 3.4Ghz liegen.
Beitrag automatisch zusammengeführt:

Hier, 4.3Ghz Effective auf allen Kernen
Bei Allcore werden ja alle Kerne übertaktet, daher ist hier der Verbrauch höher.
Wenn nur ein Kern übertaktet wird, ist es weniger Verbrauch/Hitze, daher geht ein einzelner Kern höher als der Allcore Boost.

In deinem Fall, will er bei 4.3GHz Allcore einzelne Kerne Boosten, wenn die Aufgabe in dem Moment nur ein Kern benötigt.
Allerdings geht er dann bei dir auf 3.6GHz herunter, weil du evt. nur den Allcore Turbo geändert hast aber nicht den Maximalen Single Core Boost.
Teste mal noch mit SingleCore bei CineBench, wenn er dann wieder nur 3.6GHz erreicht, ist die Abstufung der Turbo Stufen falsch Konfiguriert.

Also mit Standard Takt:
3.3GHz wenn alle Kerne Gleichzeitig genutzt werden und das Temp/Strom Budget am Limit ist.
3.4GHz Allcore wenn alle Kerne Gleichzeitig genutzt werden es aber noch Budget gibt bei Temp/Strom.
3.6GHz wenn eine Aufgabe nur einen Kern benötigt.

Bei dir sieht es wohl so aus im Moment:
3.3GHz
4.3GHz
3.6GHz

Du muss also beide Turbo/Boost Multiplikatoren ändern im Bios/UEFI, nicht nur den Allcore.
Als letzte Option kannst noch das MultiCore Enhancement deaktiveren, das vertauscht ganz gern die Turbo Stufen, wenn du mit Energie Optionen (herunter Takten, CoreParking, etc) nutzen willst.

Kannst du in Windows deine P-States Auslesen?
Wenn nicht wird das eine "unmögliche" Unterfagen heraus zu finden ob die Turbo Stufen korrekt eingestellt sind.
Was mann im UEFI Einstellt, muss nicht zwangsläufig in Windows genau so übernommen werden, leider. (BIOS Bugs)
 
Also ich hab mal ganz fix KCD angestartet - das ist mal übel übel CPU lastig.
Ich erreiche auf nem 4,5GHz 5960X direkt ab Start ~50-60FPS, 1% low bzw. 0,1% low liegt bei ~25-30FPS. Es ist ihm Bumms egal ob ich 1920x1080 oder 2880x1620 (also 1,5er Downsamping bzw. Custom Resolution) fahre. Die FPS sind effektiv gleich. Erst in Richtung UHD wirds weniger. Nämlich ~30-40FPS avg. 0,1/1% low droppen auch noch ein wenig weiter.
Ich habe das fix auf in einem System probiert, wo besagter 5960X mit zwei 1080TIs im SLI steckt. SLI für den Test habe ich deaktiviert. Btw. habe ich ne CPU Auslastung auf allen 16 Threads von Dauerhaft über 50% bis rauf zu 70 und mehr Prozent in Peaks. Da kommt klar der Umstand zum Tragen, wie ich oben sagte. Wenn der Software Scheduler bei NV sich die Arbeit teilen muss, mit dem Spiel, dann fangen die Frametimes an zu tanzen. -> so fühlt sich der Spaß halt auch an in dem Spiel.
Danke für den Test und die Infos.(y)

Wahrscheinlich wirst du mit was neuerem, also irgend ne Skylake-Abklatsch Architektur und Taktraten 5GHz und mehr da 10, 20 vllt 30% schneller unterwegs sein. Soooo viel mehr wirds aber nicht sein. Lässt sich schwer vorhersagen.
Ja, das Problem sehe ich darin dass mich der Spass dann 750€ kostet für knapp 30% wenn überhaupt... Und das finde ich recht happig, daher Versuche ich ja auch den Fehler bei meiner Plattform zu finden.

Ansonsten, wegen deinem Taktthema -> dreh mal auf Energieprofil Höchstleistung. HWE auf X99 und Sandy/Ivy-E auf X79 mit CPUs >=6C hatten immer schon das Problem, dass die Dinger zu lahm waren um ihren Takt hochzuschrauben bei kurzen Last Peaks. Im Zweifel fängt dann der Task Scheduler vom OS schon an den Thread auf andere Cores zu schubsen bevor der Core auf vollem Takt war. Das resultiert dann in der von dir gesehenen Thematik, dass du augenscheinlich trotz Belastung nicht den vollen Takt anliegen hast -> das kostet zudem dann deutlich Performance.
Windows 10 hat das etwas verbessert ggü. Windows 7 und 8/8.1 -> aber weg ist es nicht. -> Höchstleistung im Energieprofil, zumindest zum zocken und du hast immer Dauerhaft den vollen Boosttakt anliegen. Sofern du auf allen Cores den gleichen Multi aktiv hast. Wie es sich bei gestaffeltem OC verhält, kein Plan. Nie probiert.
Das ist ja genau das Problem, meine PCs laufen seit eh und je immer auf "Höchstleistung", mittlerweile habe ich sogar "Ultimativ" aktiviert (für alle die denken "dass gibt es doch garnicht" habe ich einen Screenshot angehängt)
Ich hab auch schon das "echte" Admin Konto aktiviert, aber auch dort passiert nichts...
Und ich habe es auch so in erinnerung, dass mein Alter FX-6300 den Effective Clock auf allen Kernen hatte und auch der 5820k auf dem Gigabyte Board hatte laut meiner Erinnerung 4.0Ghz Allcore permanent.
Das Board hab ich nur dummerweise schon Verkauft und kann es nicht mehr gegentesten....

Ich habe auch im Bios Testweise folgende Sachen deaktiviert (auch in verschiedenen Kombinationen) um zu schauen was passiert:
-Intel Speed step
-ASUS Multicore Enhancement
-alle C-states
-laut Anleitung vom Bauer das LLC Level eingestellt und noch zwei Werte damit sie "nicht runtertaktet" (siehe hier:
)
Überraschung es passiert nix, er taktet runter:wall:

Ich bin einfach Ratlos, was übersehe ich hier??? Warum hört der nicht auf runterzutakten?? Denn solange er das macht kann ich mir Capframes in KCD und weitere Suchaktionen ja schenken, da er immer künstlich Limitiert ist obwohl er eigentlich die 4.3Ghz macht...

Ich meine mich zu erinnern dass ich mal eine Rezension gelesen habe zu dem Board wo genau das beschrieben war und es irgendwas mit dem Asus Board zu tun hatte. Aber ich finde die natürlich nicht wieder.

Ein Indikator um ein CPU Limit rauszubekommen ist die GPU Load. Schwankt diese in Regionen von deutlich unter 100%, also 90, 80, 70 und noch weniger, dann liegt wahrscheinlich irgend eine Limitation vor. Was auch immer, genaues kann man durch Ausschlussverfahren rausbekommen -> RAM voll, ja -> dann RAM Limit. Permanent Disk Activity -> dann eher Storage Limit.
Bei der NV GPU bekommst du über den NVInspector bspw. noch paar nette Daten raus. Wie Bus usage -> was auf ein Limit der PCIe Bandbreite schließen lassen würde.
Ja die GPU schwankt ab und an, aber was ein Wunder bei Maximal 2,8Ghz an der CPU, das ist ja noch nicht einmal der Basistakt...
RAM ist 32Gb groß und definiv nicht voll.
Storage Limit auch unwarscheinlich, das Spiel liegt fast ganz allein auf einer 500Gb SSD.
Die Nvidia ist wie gesagt schon lange wieder zurückgeschickt, ergo kann ich da nichts mehr Testen. Leider...


Aber wie gesagt, es muss doch eine Lösung geben damit der aufhört runterzutakten. Ich raff es einfach nicht, kann das Wirklich am Board liegen? Übersehe ich irgendwelche Bios Einstellungen??
Das kann doch einfach nicht sein...
Beitrag automatisch zusammengeführt:

Bei Allcore werden ja alle Kerne übertaktet, daher ist hier der Verbrauch höher.
Wenn nur ein Kern übertaktet wird, ist es weniger Verbrauch/Hitze, daher geht ein einzelner Kern höher als der Allcore Boost.

In deinem Fall, will er bei 4.3GHz Allcore einzelne Kerne Boosten, wenn die Aufgabe in dem Moment nur ein Kern benötigt.
Allerdings geht er dann bei dir auf 3.6GHz herunter, weil du evt. nur den Allcore Turbo geändert hast aber nicht den Maximalen Single Core Boost.
Teste mal noch mit SingleCore bei CineBench, wenn er dann wieder nur 3.6GHz erreicht, ist die Abstufung der Turbo Stufen falsch Konfiguriert.

Also mit Standard Takt:
3.3GHz wenn alle Kerne Gleichzeitig genutzt werden und das Temp/Strom Budget am Limit ist.
3.4GHz Allcore wenn alle Kerne Gleichzeitig genutzt werden es aber noch Budget gibt bei Temp/Strom.
3.6GHz wenn eine Aufgabe nur einen Kern benötigt.

Bei dir sieht es wohl so aus im Moment:
3.3GHz
4.3GHz
3.6GHz

Du muss also beide Turbo/Boost Multiplikatoren ändern im Bios/UEFI, nicht nur den Allcore.
Als letzte Option kannst noch das MultiCore Enhancement deaktiveren, das vertauscht ganz gern die Turbo Stufen, wenn du mit Energie Optionen (herunter Takten, CoreParking, etc) nutzen willst.

Kannst du in Windows deine P-States Auslesen?
Wenn nicht wird das eine "unmögliche" Unterfagen heraus zu finden ob die Turbo Stufen korrekt eingestellt sind.
Was mann im UEFI Einstellt, muss nicht zwangsläufig in Windows genau so übernommen werden, leider. (BIOS Bugs)
Hab gerade mal Single Core gemacht. Gleiches Problem wie in den Spielen, er schiebt den Thread hin und her und weil Hashwell E zu langsam Hochtaktet hat er effektiv nur irgendwas unter 2Ghz auf den einzelnen Kernen...
Wenn er wenigstens die 3.3Ghz auf allen Kernen machen würde wäre dass ja schon ein Fortschritt...

Wie der Turbo Boost funktioniert ist mir im Grunde ja auch Klar, aber er dürfte unter dem Energieprofil "Höchstleistung" ja garnicht mehr runtertaktet wie fdsonne ja auch erwähnt hat. :/
Aber im Bios kann ich doch nur den Multi für den Turbo Ändern. Ich sehe keine Option um den Basistakt zu beeinflussen, außer den BCLK.
Aber selbst wenn ich ihn per BCLK auf die 4.3Ghz bekommen, wäre das nutzlos weil er runtertaktet und für das Thread hin und herschieben von Windows zu langsam ist...

Wo kann ich den P-Stages einsehen? Sind das die Power-Limits die HWinfo mir anzeigt?
 

Anhänge

  • Energieoptionen.PNG
    Energieoptionen.PNG
    17,5 KB · Aufrufe: 56
  • Single Core.PNG
    Single Core.PNG
    65,5 KB · Aufrufe: 58
Zuletzt bearbeitet:
Hab gerade mal Single Core gemacht. Gleiches Problem wie in den Spielen, er schiebt den Thread hin und her und weil Hashwell E zu langsam Hochtaktet hat er effektiv nur irgendwas unter 2Ghz auf den einzelnen Kernen...
Wenn er wenigstens die 3.3Ghz auf allen Kernen machen würde wäre dass ja schon ein Fortschritt...

Wie der Turbo Boost funktioniert ist mir im Grunde ja auch Klar, aber er dürfte unter dem Energieprofil "Höchstleistung" ja garnicht mehr runtertaktet wie fdsonne ja auch erwähnt hat. :/
Aber im Bios kann ich doch nur den Multi für den Turbo Ändern. Ich sehe keine Option um den Basistakt zu beeinflussen, außer den BCLK.
Aber selbst wenn ich ihn per BCLK auf die 4.3Ghz bekommen, wäre das nutzlos weil er runtertaktet und für das Thread hin und herschieben von Windows zu langsam ist...

Wo kann ich den P-Stages einsehen? Sind das die Power-Limits die HWinfo mir anzeigt?
Ok, also noch weniger als 3.3GHz.
Das wäre aber Merkwürdig wenn du den Base Takt nicht einstellen kannst. Hast du die neuste Bios Version installiert?

P-States sind die Zustände des Prozessor, sie beinhalten den Multiplikator und die VID Spannung.
Bei AMD gibt es ein MSR Tweaker der diese unter Windows Auslesen kann (DOS Fenster)
Damit du eine Vorstellung hast, was ich genau meine: https://abload.de/img/cpu-nb_aida64_hwinfo6o0qxz.jpg
 
Ok, also noch weniger als 3.3GHz.
Das wäre aber Merkwürdig wenn du den Base Takt nicht einstellen kannst. Hast du die neuste Bios Version installiert?

P-States sind die Zustände des Prozessor, sie beinhalten den Multiplikator und die VID Spannung.
Bei AMD gibt es ein MSR Tweaker der diese unter Windows Auslesen kann (DOS Fenster)
Damit du eine Vorstellung hast, was ich genau meine: https://abload.de/img/cpu-nb_aida64_hwinfo6o0qxz.jpg
Also ich sehe nur den Multi für den Turbo im Bios. Ja die neuste Bios Version ist drauf, vielleicht versuche ich mal das Bios neu zu Installieren.

Ob ich die P-States rausfinde schaue ich mal.
 
Also ich sehe nur den Multi für den Turbo im Bios. Ja die neuste Bios Version ist drauf, vielleicht versuche ich mal das Bios neu zu Installieren.

Ob ich die P-States rausfinde schaue ich mal.
OK, evt. ist es bei dem Board nicht gewollt, OC + Energiespar Optionen.

Bevor du das Bios neu flashen tust, probier vorher noch ein CMOS clear (Mainboard Handbuch) und stell die Einstellungen im Bios nochmals neu ein.

P-States sind bei dir vielleicht mit dem Intel Extreme OC Tuning Uitility einsehbar: https://www.intel.com/content/www/us/en/gaming/resources/overclocking-xtu-guide.html

Bei meiner alten AM3+ Platform muss ich z.B. auch den Allcore Turbo mit dem MSR Tweaker einstellen, da ich im Bios nur Base und Max Boost Takt einstellen kann.
Das war dann die Geburtsstunde des AmdMSRTweaker, die MSR Register können im Laufenden Betrieb unter Windows geändert werden.
Allerdings muss dann der Max Turbo im Bios zuvor eingestellt werden, um die Power Limits zu Trainieren bei Takt X ;)
 
Hallo zusammen und nochmal vielen Dank für die Ausführliche Hilfe!!
Ich hab mir die ganze Zeit vorgenommen hier noch ein Ausführliches abschließendes Fazit zu schreiben, allerdings habe ich das ganze so lange vor mir hergeschoben, dass ich garnicht mehr weiß ob ich es noch alles zusammenbekomme.:rolleyes:

Die Kurzfassung ist folgende:
Ich habe weiterhin versucht der Plattform in irgendeiner weise Geschwindigkeit zu entlocken und sogar meinen alten FX-6300 rausgekramt um zu schauen ob der mit OC in dem Benchmark skaliert. (was er natürlich auch tat)
Ich hatte die schnauze so voll, dass ich eine neue, teure Z490 Plattform gekauft habe. Nur um dann festzustellen dass ich auch hier keine passenden Werte erziele...
In dem Zuge ist wurde ich dann auf meine R9 290x und die Probleme bei AMD mit dem CPU Limit hingewiesen, evtl erklärt das auch warum ich aus dem 5820k keine FPS kitzeln konnte. Also ist die Beschissene AMD Karte die ich eh nicht leiden kann jetzt auch noch die Wurzel allen mich nerv kostenden Übels, na toll...
Aber damit nicht genug, mit der neuen Plattform fingen nun seltsame Abstürze und Freezes an, also nen Haufen Geld investiert nur um immer noch nicht in ruhe Zocken zu können.:wall:

Da der MSI Support genauso ratlos und verwundert über meine Schilderung war wie ich und Mindfactory die RMA mit Vorraussichtlich 2-7 Wochen angibt habe ich selber angefangen Querzutauschen. Aktuell sieht es nach dem NT aus aber so richtig traue ich dem Braten noch nicht...

Da ich ja noch Gewährleistung zumindest auf Ram, CPU und Board habe hoffe ich dass ich das Problem in naher Zukunft glimpflich gelöst bekomme, ansonsten gibt es hier demnächst günstig einen Rechner zu erstehen und ich suche mir ein anderes Hobby... :wut:

In diesem Sinne nochmal Danke und ich wünsche allen dass sie nicht so viel Pech habe wie ich. Und wenn doch, dann wenigstens eine so Verständnisvolle Partnerin wie meine. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh