[Guide] Kaufempfehlungen für Office- und Gamingsysteme (Stand 09/24)

Screenshot_20231029-083308.png

Ist das nicht eigentlich ein Tipfehler?
Sollte es nicht AM4 heißen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wurde korrigiert, danke für den hinweis!
 
So hier nicht. 🧹🧹🧹
 
Ja, sorry! Ich wollte mich hier nicht profilieren (hab kein Channel oder sonst was), oder die Trolle auf den Plan rufen, sondern sehen, ob tatsächlich Interesse da ist. Wie erwähnt finde ich die Vorschläge hier recht annehmbar, aber wäre es nicht auch schön, etwas für die obere Mittelklasse was zu haben? Na, ja muss jeder selbst wissen. Wer nicht will der hat schon!
 
Vorschläge, Ideen, Aktualisierungen usw. Sind immer gern gesehen.

Dafür ist dieser Thread gedacht.
 
@slx3d_ der Adata Speicher aus dem 1300€ System hat keinerlei Verfügbarkeit mehr in der EU, eventuell tauschen
 
Hättet Ihr noch eine Empfehlung für eine WLAN-Lösung für das "800€ AM4 Ryzen 5800X3D Grundgerüst"? Bräuchte eine günstige Karte oder eben ein alternatives Board? Ich rate mal, eine Karte wäre die günstigere Lösung. Danke Euch!
 
frische Daten von heute:
 
Weshalb steht in den Zusammenstellungen beispielsweise "maximal 6700 Xt"? Was wäre an einer stärkeren Karte schlecht?
 
es geht dabei ein wenig um die balance des systems.
 
Okay, danke. Ich habe schon länger so ungefähr das 400€ AMD Grundgerüst verbaut, allerdings noch mit einer alten Radeon R9 390. Die GPU möchte ich jetzt austauschen.

Ich sollte hier also zur 6700XT und nicht deutlich besser greifen, weil sonst die GPU möglicherweise limitiert wird?
 
in die richtung geht es.
du kannst mal schauen was deine cpu an fps in deinen spielen leisten kann, dann kannst du recht gut ableiten welche grafikkarte da gut zu passt.
 
Weshalb steht in den Zusammenstellungen beispielsweise "maximal 6700 Xt"? Was wäre an einer stärkeren Karte schlecht?
es geht dabei ein wenig um die balance des systems.
In erster Linie gehts um die beispielhaft genannten Netzteile.
Ich möchte nicht bei einem 500€ Budget Grundgerüst ein 150€ Netzteil verplanen, welches dann wiederum aber eine 4090 vertragen könnte.
Da gehts einfach ums Gesamtpaket und wieviel Budget für welches Bauteil verplant wird ohne dass irgendwas komplett aus dem Ruder läuft.

Wenn du eine Beratung im Detail möchtest mach bitte eine Thema auf.
Dazu bitte den Fragebogen beantworten, dann können wir deine PC-Suche bis ins letzte Detail durchdiskutieren.
 
Gibts nen Grund warum keine AiO Wasserkühlungen für die CPU angeboten wird sondern "nur" Lüfter?
 
in den kleinen systemen sind die meistens schlicht zu teuer... und natürlich sind aio auch eine glaubensfrage.
 
Gibts nen Grund warum keine AiO Wasserkühlungen für die CPU angeboten wird sondern "nur" Lüfter?
Ist deutlich teurer, ist deutlich anfälliger und bringt nur in Grenzfällen ggf. bei Intel was.
 
Neue Daten von gamersnexus
@Holt
 
Warum sollte ich mir ein Video von jemandem ansehen den ich nicht kenne? Sowas interessiert mich nicht. Auf YT kann jeder Depp jeden Mist posten und wenn genug Leute sich das ansehen auch noch Geld damit verdienen, entsprechend viel Blödsinn findet sich da.
 
Warum sollte ich mir ein Video von jemandem ansehen den ich nicht kenne?
Sowas interessiert mich nicht. Auf YT kann jeder Depp jeden Mist posten und wenn genug Leute sich das ansehen auch noch Geld damit verdienen, entsprechend viel Blödsinn findet sich da.
Evtl erweiterst du deinen Horizont mal ein wenig.

Gamersnexus ist einer der akkuratesten Techkanäle die Youtube zu bieten hat. Dass du Gamersnexus nicht kennst und mit random Youtube Blödsinn gleichsetzt sagt mehr über die Qualität deiner Beiträge als es über die Qualität der Arbeit von Gamersnexus sagt.

Dein Kommentar erinnert mich an:
"Komm mir nicht mit Fakten, ich habe eine Meinung!"
 
Dass du Gamersnexus nicht kennst und mit random Youtube Blödsinn gleichsetzt sagt mehr über die Qualität deiner Beiträge
Nein, es besagt einfach nur, dass ich eben kein Gamer bin. Keine Ahnung was mit dir mal wieder nicht stimmt und wieso du mich in diesen Thread reinziehst, in dem ich ewig nichts geschrieben habe. Kann es sein, weil dir hier die Argumente ausgegangen sind?

PS: Das Video wurde übrigens hier schon vorher von jemand anderem verlinkt, bevor du den Thread dann geschlossen hast, soviel zur Qualität deiner Beiträge.
 
Zuletzt bearbeitet:
Keine Ahnung was mit dir mal wieder nicht stimmt und wieso du mich in diesen Thread reinziehst, in dem ich ewig nichts geschrieben habe.
Ich habe neue Zahlen zur Effizienz gefunden und habe den Link in diesen Thread gepackt damit diejenigen die Beratung machen und hier rein schauen die neuen Daten mitbekommen.
Und da wir beide eine Effizienz Diskussion kürzlich hatten, hatte ich den Eindruck dass dich Zahlen zur Effizienz interessieren würden.
Da hab ich mich offensichtlich geirrt.

Was ich herauslesen kann ist:
Du bist nicht an Effizienzdaten interessiert.
Du bist wohl aber an Streit auf persönlicher Ebene interessiert.
 
Zuletzt bearbeitet:
Es ist doch immer Intel vs AMD vs Nvidia PvP. Ist nur schade das die Rationalität immer wegfällt. So lange es Konsumenten gibt die bereit sind für ein schlecht programmiertes Spiel Unsummen in starke Hardware zu investieren nur um es gut Spielbar zu halten ist halt ein Hobby.

Intel ist nun mal aktuell in der Effizienz hinter AMD, dafür sind sie halt nicht so weit entfernt von Leistung und im Mixed Szenario sind die Intels sogar bei den Mittelklasse-Highend Prozessoren weiter vorne auch dank ausgereifter iGPU für Workstation Loads/Video Coding etc. ein Pluspunkt beim Streaming und man kann auf Nvidia gut verzichten.
Tatsächlich muss man aber sagen in einem Szenario mit begrenzter FPS auf z. B 120FPS saufen die Intels auch nicht mehr so viel, ich meine man beurteilt auch nicht ein Auto nur nach dem wie schnell es bei Maxspeed auf der Autobahn verbraucht.
Wenn man aber einfach nur billig plug&play zocken will ist AMD gerade nicht zu übertreffen und die Preise der Mainboards hat sich auch etwas eingependelt.
Als ich meinen Intel geholt hatte habe ich auch hin und her evaluiert für Vergleichbares AMD Setup waren es damals mindestens 200-250€ unterschied um die gleichen Schnittstellen und Standards wie mit meinem aktuellen zu bekommen.

Das gleiche Szenario trifft auf Grafikkarten zu, lasse ich offen bis zur kotzgrenze laufen werden die ineffizient. Lasse ich die aber im Vergleich bei 120 FPS gegeneinander antreten ist das Delta nicht mehr so groß.

Warum 120FPS? Weil ich gemerkt habe der Monitor bei 144HZ fast 30% mehr saufen muss. Teilweise reduziere ich auch auf 100Hz/FPS je nach Spiel.
 
Und da wir beide eine Effizienz Diskussion kürzlich hatten, hatte ich den Eindruck dass dich Zahlen zur Effizienz interessieren würden.
Wir hatten hier eine Diskussion um die Effizienz bei Multithreadanwendungen bei geringer Leistungsaufnahme im 35W Bereich, denn der TE dort wollte eine 13900K als 13900T in einem sehr kompakten Gehäuse mit damals noch passiv betriebenem Kühler nutzen und deine Antwort auf meinen Beitrag das der 13900K bei 35W die CPU mit der besten MT Performance ist, war dann:
Bei 45W ist der 13900k leicht vorn.
Bei 65W bis 142W läuft der 7950x deutlich effizienter.
Heißt irgendwo in der Liga 55W werden beide gleich effizient laufen.
So ist es. Wenn es nun neue Erkenntnisse zu dem Thema gibt, dann hättest du dort Antworten sollten. Ansonsten wäre es hilfreich nicht nur ein Video zu verlinken, sondern wenigstens einen Satz dazu zu schreiben warum man es sich ansehen sollte.

Was ich herauslesen kann ist:
Du bist nicht an Effizienzdaten interessiert.
Wenn die Effizienzdaten in dem Video zu finden sind, dann dürfte es wohl um die Effizienz beim Gaming gehen. Erstens ist das für mich sekundär und zweitens ist mir auch klar das die AMD X3D CPUs den Intel CPUs da überlegen sind, ich habe nie das Gegenteil behauptet.
Du bist wohl aber an Streit auf persönlicher Ebene interessiert.
Nein, aber du scheinst immer gerne Dinge sehen zu wollen die nicht da sind, was die Frage aufwirft ob dich dies als Moderator nicht disqualifiziert.
 
So ist es. Wenn es nun neue Erkenntnisse zu dem Thema gibt, dann hättest du dort Antworten sollten. Ansonsten wäre es hilfreich nicht nur ein Video zu verlinken, sondern wenigstens einen Satz dazu zu schreiben warum man es sich ansehen sollte.
Es gibt ein ganzes Video mit dem Titel "Intels Problem: Effizienz" wo mit unterschiedlichen Herangehensweisen und Tests in unterschiedlichen Anwendungen das Thema Effizienz behandelt wird. Dieses Video präsentiert Methodik, Daten und Schlussfolgerungen zum Thema.
Es sind belastbare Daten zu einem Thema welches wir kürzlich hatten.
Dieses Video soll sowieso in diesen Thread, für andere zum nachschlagen die hier ohnehin reinschauen.
Ich wollte nett sein und dich darauf hinweisen dass es neue Daten gibt.

Aber ja ich hätte es auch noch Mal im anderen Thread Posten können 🤷🏻‍♂️

Wenn die Effizienzdaten in dem Video zu finden sind, dann dürfte es wohl um die Effizienz beim Gaming gehen. Erstens ist das für mich sekundär und zweitens ist mir auch klar das die AMD X3D CPUs den Intel CPUs da überlegen sind, ich habe nie das Gegenteil behauptet.
Das kann man wissen wenn man das Video geschaut hat.
Es geht teils um Gaming, aber auch um Blender, 7zip, Photoshop. Und es geht um diverse Modelle von AMD und Intel.
 
Zuletzt bearbeitet:
Also nach dem ich mir die Einführung und dann die Titel in der Timeline angesehen habe, scheint es in dem Video doch um Gaming zu gehen, was mich echt nicht interessiert, dafür werde ich keine halbe Stunde verschwenden. Wobei ich sowieso nicht ganz verstehen kann wie man die Leistungsaufnahme der CPU bei Gaming so viel Aufmerksamkeit schenken kann, wenn gleich daneben eine GPU werkelt die ein Vielfaches davon an Leistungsaufnahme hat, aber ich bin eben kein Gamer und muss es daher auch nicht verstehen. Was andere vielleicht mal verstehen sollten ist, dass eben nicht jeder an seinem Rechner nur spielt.

Was Anwendungen angeht, so kann man da für alle Anwendungen mehr oder weniger gut die Ergebnisse von Cinebench übernehmen, auch wenn Cinebench eben sehr FPU lastig ist. Da aber bei AMD ud bei Intel das Verhältnis von Integer und FP Performance inzwischen recht ähnlich ist, kann man die Ergebnisse recht gut übertragen. Bei Bulldozer mussten sich ja die beiden "Kerne" eines Moduls eine FPU teilen und entsprechend mies waren die Cinebench Ergebnisse dort, bei Zen war die FP Performance hingegen die Schokoladenseite und das Verhältnis der FP zur Integer Performance besser als bei Skylake, weshalb es dann der goto Benchmark der AMD Fans geworden ist. Zudem ist Cinebench recht unempfindlich was die RAM Performance angeht, aber es spricht außer dem Aufwand nichts dagegen auch andere Bechmarks heranzuziehen.

Nur muss man dann eben auch sinnvolle Vergleiche machen, denn drei Dinge sollten klar sein:
1.) Die AMD CPUs mit dem Chiplet Design haben bei der Idle Leistungsaufnahme eine gewaltigen Nachteil, sofern die BIOS Einstellungen für Intel CPUs stimmen, kann diese im Idle viel sparsamer bekommen, mein 13900K braucht nur knapp über 2W Package Power. AMD hat für die APUs, die ja vor allem in Notebooks zum Einsatz kommen, ja nicht umsonst immer ein extra Die mit einem monolithischen Design gemacht, da ist dann die Idle Leistungsaufnahme auch deutlich geringer.
2.) Je höher man das Power Limit steht, umso mehr ist AMD dann im Vorteil, vor allem bei den RYEZEN 7000, die ja in einem TSMC N5 (es dürfte wohl der N5P) Prozess gefertigt werde, während Raptor Lake noch in Intel 7 (was mehr mit TSMCs "7nm" Prozessen vergleich ist, weshalb Intel die Prozesse ja umbenannt hat) gefertigt wird, also schon vorm Fertigungsprozess her im Nachteil ist.
3.) Man muss natürlich die Package Power vergleichen! Da kann ich nur nochmal auf diesen Beitrag und die dortigen Links und Zitate verweisen, da bei RYZEN 7000 65W TDP oder Eco Mode dann eben 88W PPT und so 90W Package Power entsprechen, während bei Intel 65 Power Limit dann auch wirklich 65W Package Power sind, also für die ganze CPU mit allem was da drin ist. Die gesamte Leistungsaufnahme des Rechners zu vergleichen ist recht unsinnig, da jeder Lüfter, jedes RGB, jedes Laufwerk, jeder aktive Onboard Controller des Mainboards etc. pp. diese ebenso beeinflusst wie die Effizienz des Netzteils bei der jeweiligen Last. Und wenn man nicht einige Tauscend Euro in teure Messtechnik ausgibt, dürfte die Anzeige von Tools wie HWInfo64 -> Sensors die genauste sein die man bekommen kann.

Dann muss man eben wenn es um die Effizienz schauen, um welchen Betriebspunkt es geht. Wie im Beitrag zu sehen ist, den eben ich verlinkt hatte, sieht man das mein 13900K bei Cinebench23 MT eben bei 35W 447,3Pkt/Watt bringt und 180W sind es zwar absolut mehr als doppelt so viele Punkte, aber mit 192,2Pkt/Watt nicht mal halb so viele Punkte pro Watt. Wenn man es also richtig machen will, dann muss man die Effizienz bei verschiedenen Betriebspunkten aufnehmen, so wie es mal jemand für den 3800X gemacht hat:

Zen2_Watt_Performance.png


Hier sieht man den Effekt der hohen Idle Leistungsaufnahme, denn von 35W auf 40W steigt der Takt um 1GHz, er verdoppelt sich fast und entsprechend steigt die Performance, bei gerade 5W mehr. Nochmal 5W mehr bringen immer noch 700MHz mehr, die nächsten 5W (also nun 50W) immerhin noch 650MHz zusätzlich, aber ab da wird die Kurve dann recht steil und die nächsten 5W bringen dann gerade noch 150MHz mehr Takt und dann bringen 10W nur noch 200MHz. Wer sich diese Kurve anschaut, versteht wieso die meisten EPYC 7002 in diesem Taktbereich angesiedelt waren.

Leider habe ich kein neueres Beispiel, aber eine solche Kurve erlaubt es eben sehr gut den Betriebspunkt für die optimale Effizienz der CPU zu ermitteln und am Besten eben mit der eigenen Anwendung bzw. dem Benchmark der diese am Besten widerspiegelt. Dann kann man verschiedene CPUs an ihrem jeweils optimalen Betriebspunkt vergleichen, wobei dies dann aber wieder umso problematischer wird, je geringer die Package Power ist bei der diese auftritt, weil dann der Anteil der CPU an der gesamten Leistungsaufnahme des Rechner umso geringer ausfällt und damit hat man dann wieder die Probleme der Vergleichbarkeit der Systeme, wenn es unterschiedliche Plattformen sind. Auf der gleichen Plattform dürfte meist die CPU mit den meisten Kernen gewinnen, was solche Vergleiche recht langweilig macht.

Oder man setzt sich eben eine bestimmte Mindestleistung als Untergrenze, was dann aber eben schnell subjektiv wird, denn wenn ich sage ich will mindestens 16000 Punkte bei CB23 gewinnt ein 13900(k) mit entsprechenden BIOS Einstellungen, wenn man aber mindesten 24000 verlangt, ein 7950X. Dies bringt dann die für den eigene Anforderung beste Effizienz, beantwortet aber nicht wirklich die Frage welche CPU effizienter ist, aber wie man sieht ist dies eben ein sehr komplexes Thema und das Ergebnis hängt halt extrem von den Rahmenbedingungen ab die man setzt und dann bekommt man eben die für diese Rahmenbedingungen effizientere CPU.
 
Vorab:
Ich empfinde einen Diskussionsstil mit "ich schaue mir ein Video nicht an, weil es mich nicht interessiert und es Zeitverschwendung ist, bringe dann aber trotzdem die Zeit auf um eine wall of text die einem Stichwort nach passen könnte aber inhaltlich de facto komplett am Video Inhalt vorbei geht" als extrem schwierig.
Das empfinde ich als ein sehr schrägen Fall von derailing und off-topic.

Um dann dennoch eine Schnittmenge aus der Off topic Wall of text und den im Video präsentieren Daten zu formulieren:

1)
Aktuelle Intel Chips sind mit Werkseinstellungen extrem weit weg vom Voltage/Frequency Optimum.

2)
Bei niedrigen Powerlimits haben die Intels designbedingt als Monolithen einen Vorteil Gegenüber AMD Chiplet Design.

3)
Wenn man das Powerlimit unter ca 55W absenkt kommt man in einen Bereich wo die Intel Monolithen effizienter laufen als die AMD Chips, oberhalb 55W laufen die AMDs effizienter.

4)
Je nach Anwendung und Chips im Vergleich kann sich der break even von 55W Power Limit auch Richtung 90W verschieben (Photoshop 14700k vs 7800x3d)

5)
Es macht für Teillast wie Gaming aus einer Effizienzbetrachtung überhaupt keinen Sinn extrem überdimensionierte Chips wie einen 14900k zu kaufen, kleinere Chips laufen bei relativ höherer Auslastung effizienter als größere Chips mit geringerer Auslastung.

Weil was am Ende unter dem Strich rauskommt ist in Kürze:
- Transistoren haben Verluste beim Schalten, je schneller ein Transistor schaltet, desto höher ist der Verlust. Gilt für jeden Transistor und jeden Chip.
- Intel hat die schlechtere Fertigung, was den vorgenannten Effekt verstärkt.
- Intel hat aber evtl mit dem Monolith Design einen Vorteil gegenüber dem Chiplet Design bei niedrigen Powertagets
- je nach dem welcher Effekt überwiegt, sind Mal Intel und Mal AMD Chips effizienter, wobei je höher das Powertaget und dazu höher die Frequenz, desto schlechter ist die Effizienz der Intel Chips. Break even liegt nach uns beiden bekannten Daten irgendwo in der Liga von 55W-90W Powertaget.
- wegen der genannten Eigenschaften sollten möglichst alle Chips im Powerlimit laufen, da so die Frequenz des Chips limitiert werden kann und der Betriebspunkt in der Effizienz in der Voltage/frequency Kurve beeinflusst werden kann.

- Arbeitsthese, TBC¹: oberhalb 90W Powertaget sind die Intel Chips immer ineffizienter als vergleichbare AMD Chips.
- Arbeitsthese, TBC¹: im gut kühlbaren Bereich für die Leistungsaufnahme einer CPU von ca 150W Powerlimits (vgl. 142W Sockellimit AM4) sind in der aktuellen Generation AMD Chips immer die bessere Wahl, da es bei fixem Powerlimit mehr Leistung gibt. Egal ob mehr FPS/w aus Laufzeit oder Leistungsaufnahme*Zeit und damit Energiemenge in Wh für einen definierten Job (cinebench, Blender)

¹
Arbeitsthese: ein Statement dass eindeutig bestätigt oder eindeutig widerlegt werden kann
TBC: to be confirmed
 
1)
Aktuelle Intel Chips sind mit Werkseinstellungen extrem weit weg vom Voltage/Frequency Optimum.
Wobei die Werkseinstellungen eben von den Mainboards kommen, sofern man nicht gerade einen Rechner eines großen OEMs hat, wo diese dann meist mit den Intel Vorgaben übereinstimmen. Die Retail Mainboards, gerade die mit Z Chipsatz, übertakten die CPUs schon per Defaulteinstellung des BIOS, was manche dann eben auch als Werkseinstellung bezeichnen, was aber eben mit Intels Vorgaben nichts zu tun hat. Eine OEM Kiste mit einem 13900T wird sehr vor am Effizienzoptimum laufen. Packt man den 13900T dann aber in ein Z790 Mainboard, so wird er sehr wahrscheinlich mit einem weit höheren Power Limit und damit weniger effizient betrieben werden, sofern man die Power Limits nicht von Hand im BIOS korrigiert. Ist das dann die Schuld des 13900T?

- wegen der genannten Eigenschaften sollten möglichst alle Chips im Powerlimit laufen, da so die Frequenz des Chips limitiert werden kann und der Betriebspunkt in der Effizienz in der Voltage/frequency Kurve beeinflusst werden kann.
Wenn man denn eine gute Effizienz will, aber die meisten, gerade auch hier im Forum, wollen eben die Höchstleistung, was auch ein Grund ist warum die Mainboardhersteller die CPUs eben schon per Defaulteinstellung übertaktet betreiben.
TBC: to be confirmed
Muss echt nicht sein, denn ich finde deinen Diskussionsstil mich hier in einen Thread zu ziehen in dem ich ewig nicht aktiv war, total daneben.
 
Eine OEM Kiste mit einem 13900T wird sehr vor am Effizienzoptimum laufen. Packt man den 13900T dann aber in ein Z790 Mainboard, so wird er sehr wahrscheinlich mit einem weit höheren Power Limit und damit weniger effizient betrieben werden, sofern man die Power Limits nicht von Hand im BIOS korrigiert. Ist das dann die Schuld des 13900T?
Das halte ich für wenig realistisch.
AMD macht es mit dem 7600 und 7600x vor.
Auch wenn ich bei Intel in die Historie schaue wie die nach und nach die CPUen immer weiter kastriert haben, wenn man schaut wie Intel in Featureset von Chipsätzen und Boards per Software limitiert oder freischaltet wie sie es gern hätten (ob sinnvoll oder nicht steht auf einem anderen Blatt) habe ich zumindest Zweifel an der These (vgl. Modbios S1151 vs S1151v2, vgl. RAM OC B460 und B560,vgl. Xeon 1230v3 auf B85, vgl. ASRock Allcore Turbo, wo ein Boardhersteller wirklich Mal was gemacht hat was dann von Intel unterbunden wurde, vgl. Alderlake BLCK OC mit externen Taktgeber, uvm. ). Vor diesem Hintergrund halte ich deine These es würde an den Boardherstellen und nicht an Intel liegen für sehr zweifelhaft.
Ich gehe davon aus dass ein 13900T im Boost mit 106W laufen wird wie angegeben, egal welches Board.
Das kann man aber vermutlich sehr einfach testen, sofern die Hardware vorhanden ist.

Wenn man denn eine gute Effizienz will, aber die meisten, gerade auch hier im Forum, wollen eben die Höchstleistung, was auch ein Grund ist warum die Mainboardhersteller die CPUs eben schon per Defaulteinstellung übertaktet betreiben.
Das ist genau der Punkt.
Deswegen verliert Intel überall Marktanteil.
Wenn die Intel Chips effizient laufen fehlt Leistung, wenn sie Leistung bringen fehlt Effizienz. Und in Situationen wo die Kühlleistung oder Energiekosten der limitierende Faktor ist, ist das eben ein Problem (Betriebszustand unter 55W PL explizit ausgenommen).
Und in einem vertretbaren Bereich des Powerlimits wo Leistung und effizient noch halbwegs passt, in der Größenordnung PL 100W-150W bieten sie nichts an.
Das hat am Ende auch nix mit Mainboards oder BIOS oder Firmware oder was auch immer zu tun. Es liegt an der Fertigung und am Design der Chips selber.
Muss echt nicht sein, denn ich finde deinen Diskussionsstil mich hier in einen Thread zu ziehen in dem ich ewig nicht aktiv war, total daneben.
Wo hättest du unsere kleine Effizienz Diskussion gerne?
Dann verschieb ich die letzten Posts.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh