Macht mehr als 16GB überhaupt Sinn?

hab 32 weil ich mir dachte selbst wenn 16 heute ausreichen heißt das noch lange nicht das die in zukunft reichen ... und 8GB wären mir definitiv zu wenig gewesen

aktueller verbrauch mit einer laufenden virtuellen windows xp maschine ~10GB ... da wären mir 16 für den wohlfühlfaktor schon zuwenig ...

die vm hat 3GB zugewiesen, wenn ich ne 2. laufen lasse also nochmal 3GB ... dann wäre ich schon bei über 13GB ...

außerdem war der ram grad günstig als ich mein system gekauft hab ... ein weiterer grund also direkt 32GB zu verbauen ...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
der sprung von 128bit/takt auf 256bit/takt (dual auf quad channel) hat für enduser keinen praktischen nutzen. dafür haben wir zu langsame, oder zuwenige cpu kerne, wir können die massive bandbreite einfach nicht ausnutzen.

Mir gehts eher um diesen Einwand deinerseits:
http://www.hardwareluxx.de/communit...gb-ueberhaupt-sinn-970325-3.html#post20951911
bzw. den Post davor, auf den HisN geschrieben hatte...

Denn hier sagtest du, das Single auf Dualchannel was bringt, wärend dir "klar" ist, das Tripple und Quadchannel nichts (oder nicht viel) bringen... Ergo definierst du gleichsam das Anforderungsprofil dahingehend...
Denn das kritisiert HisN doch zurecht an der Aussage -> denn die Verdopplung von Single auf Dual bringt was, wärend Dual auf Quad nix bringen soll!?


PS: soweit mir bekannt arbeiten die Intel System alle samt im gesplitteten Speichercontroller. Sprich Dualchannel = 2x64Bit, Tripplechannel = 3x64Bit, Quadchannel = 4x64Bit.
Nachteil, es benötigt auch entsprechend gleichzeitiger Speicherzugriffe, damit der Speed auch sinnvoll umgesetzt werden kann. Vorteil aber, wenn man diese hat, gehts auch entsprechend vorran.
In Zeiten von Multithreading sollte das aber absolut kein Problem sein.
 
Naja mehr als 24GB sind in der Tat für einen "Anwender" etwas übertrieben. Ich habe aktuell 16GB im Rechner und auch nur zwecks Virtualisierung. Habe halt den MCITP gemacht und bereite mich aktuell auf den CCNP vor. Da sind 8gb schon knapp bemessen. Aber solange Du zuhause nicht vor hast riesige Datenbanken auf Deinem Rechner öffentlich zur Verfügung zu stellen würde ich auch sagen, dass mehr als 16 overkill sind :)
 
Es macht nur solange Sinn, solange man einen nutzen davon hat, und es brauchen kann, auch wenn man es ab und zu nicht braucht. Einfach und nett. :)
 
Also diese Channelgeschichte da kommt es nunmal echt drauf an was man macht, b.z.w. hauptsächlich macht.

"Ganged" wäre quasi Dual-Channel im Single Mode, "Unganged" ist dann erst der richtige Dual-Channel-Modus, das fruchtet aber nunmal auch nur dann wirklich besser wenn man intensiv Multitasking macht.
Das kann ich sogar bestätigen, dafür braucht man dann aber auch deutlich mehr als nur 4 Kerne, sonst verbrauchen die Anwendungen soviel Power und Kerne das das kaum greift.

Überwiegend dürfte es nicht viel bringen im privaten Userbereich, ausser vielleicht in dem Moment wo .NET Framework Updates anstehen, denn das frisst richtig böse Performance, Auslastung mehrere CPU-Kerne, und dementsprechend würde da die RAM-Channel geschichte auch greifen, jenachdem was man nebenbei währenddessen macht.

Bei einer reinen Gamerkiste, wo man das am besten garnicht grossartig drauf hat, b.z.w. nur die nötigsten Versionen im optimalfall lediglich die Version die in 7 enthalten ist, braucht man definitiv kein Dual-channel, denn es läuft ja überwiegend nunmal nur ein Game ;)

Bei Renderrei und konvertiererei kann es durchaus was bringen, jenachdem wie die Kerne genutzt werden können, allerdings sollte man da demnächst mehr die Grafikkarten nutzen und die Software dafür umstellen, die können sowas nunmal deutlich schneller.


Gruss Dennis50300
 
Zuletzt bearbeitet:
Warum gibt es dann im Mainstream-Bereich überhaupt DDR3, wenn wir die hohe Bandbreite von ~20GB/s+ garnicht nutzen können?? Es wäre doch sinvoller gewesen, DDR3 für den High-End Bereich zurückzuhalten, wo es dann auch entsprechende CPUs gibt, welche die Bandbreite dann auch nutzen? Ich habe mal ein RAM-Image erstellt und die Read/Write-Werte gemessen, die Spitze lag bei 6GB/s, und ich habe 1600MHz. Da würde DDR1 im Dual-Channel reichen, um die selbe Leistung zu erreichen, welcher nebenbei noch deutlich bessere Timings hätte.

Oder umgekehrt: Wenn die CPU immer die Bandbreite limitieret, warum haben wir dann immer noch 4 Kerne im Mainstream-Bereich? Warum nicht ala GPU? 1000+ Kerne auf vergleichsweise niedriger Frequenz um 1GHz?? Ab einer bestimmten Anzahl an Kernen dürfte die Leistung doch auch die selbe sein.

Oder verstehe ich da irgendetwas Grundlegendes falsch??
 
Ja, du verstehst grundlegende Sachgebiete der Informatik nicht.

1. Womit willst du denn 1000 Cores auslasten @home? Welche Anwendung hat diesen hohen Parallelisierungsgrad und welche Anwendung läßt sich am Homerechner so stark Parallelisieren?
(zur Info, solche Parallisierungsgrade sind in Simulationen von Nöten, schau dir mal die ganzen Supercomputer an)
2. Wenn man eine Technik entwickelt hat, dann macht es wenig Sinn sie nur für einen kleinen Bereich zu nutzen (außer sie ist extrem teuer), sondern lieber in ein breites Anwendungsgebiet bringen.
Selbst Intels Atomkrücken haben DDR3, und die haben es nun wirklich nicht nötig. Für manche Sachen würde auch noch EDO RAM reichen, die Hersteller wollen aber nicht 100 verschiedenen RAMs bauen, sondern nur einen und davon dann unendlich viel. Produktivität nennt sich das. Und dann ist da auch noch das Verkaufargument. "hier schau mal, DDR100, ist super duper megakrass schnell"
 
Nun, wenn man 1000+ Cores im Home-Bereich nutzen wollte, müsste die gesamte Software neu geschrieben werden. Das Prinzip dahinter könnte man aber bei den GraKas abkupfern, die haben ja auch 1000+ Cores. Die Anwendung aufteilen und jeder Core macht seinen Teil. Dann wäre sicherlich nicht mehr die CPU das Nadelöhr, was Bandbreite angeht, sondern andere Teile (Bsp. HDD).
Doch um diese Technik zu nutzen wäre eine völlige Revolution in der Informatik nötig. Das Prinzip müsste auf alle Systeme übertragen werden, da sonst 100 verschiedene CPU-Architekturen nötig wären.
 
Warum gibt es dann im Mainstream-Bereich überhaupt DDR3, wenn wir die hohe Bandbreite von ~20GB/s+ garnicht nutzen können?
Man kann relativ problemlos mit einem Thread einen Großteil der Speicherbandbreite bei einem Desktop System mit DDR3 auslasten. Es ist in erster Linie ein Softwareproblem, wenn dies nicht gelingt. Fernen muß man immer die Software optimieren, so daß auch nur ein Core nicht verhungert, wenn er rechnet, weil der RAM Zugriff viel langsamer ist, als die CPU Daten verarbeiten kann.
 
Nun, wenn man 1000+ Cores im Home-Bereich nutzen wollte, müsste die gesamte Software neu geschrieben werden. Das Prinzip dahinter könnte man aber bei den GraKas abkupfern, die haben ja auch 1000+ Cores. Die Anwendung aufteilen und jeder Core macht seinen Teil. Dann wäre sicherlich nicht mehr die CPU das Nadelöhr, was Bandbreite angeht, sondern andere Teile (Bsp. HDD).
Doch um diese Technik zu nutzen wäre eine völlige Revolution in der Informatik nötig. Das Prinzip müsste auf alle Systeme übertragen werden, da sonst 100 verschiedene CPU-Architekturen nötig wären.

Nein, so einfach ist es dann doch nicht...
Denn man kann nicht alles bis ins unermessliche zerhackstückeln um so überhaupt erstmal eine "Aufteilung" zu schaffen, die dann von mehreren Recheneinheiten gleichzeitig abgearbeitet wird.
Noch dazu kostet das zerhackstückeln unter Umständen Zeit und Ressorcen, ebenso das zusammenführen der Ergebnise zu dem, was der Anwender auf dem Schirm will.

Wenn man so will, ist Multicore/Multi CPU sogar das komplette Gegenteil von dem, was man eigentlich macht. Denn idR laufen gerade die Homeanwendersachen ja darauf hinaus, das Freund Anwender irgend was macht (Eingabe), die Büchse macht irgendwas mit der Eingabe und am Ende kommt es zu ner Ausgabe.
Simples Beispiel, du willst zwei Zahlen addieren. Das ist ein simples ADD, so ziemlich fast das einfachste, was eine CPU kann. Das geht binnen weniger Taktzyklen vollständig abzuarbeiten, von rein, über verarbeiten und raus... (allein die Berechnung) Dazu kommt aber noch ein heiden Aufwand (im Vergleich dazu) das ganze auf unserem heutigen Klicki Bunti OS überhaupt erstmal grafisch darzustellen... Somit kostet die reine Berechnung nur einen Bruchteil der Zeit, wärend das ganze visuelle Aufbereiten viel viel mehr Zeit in Anspruch nimmt. Es bringt also so gar nix, einfach hier anzusetzen und zu sagen, ich zerhackstückel nun den ADD Befehl und teile das auf mehrere Cores auf.

Auch besteht ein himmelweiter Unterschied, was die Kiste überhaupt berechnet. Speziell in Games zum Beispiel baut extrem viel aufeinander auf. Und auch hier macht erst der User die Eingabe (Maus/Tastatur oder womit auch immer) und die Kiste rennt mit diesen Daten los und berechnet. Geht man mal rein vom logischen ran, fällt auf, das es idR oftmals auf ne simple Abfolge von mehr oder weniger fix definierten Einzelschritten ist, die berechnet wird. Mal ganz pauschal ausgedrückt, du bewegst eine Person auf dem Schrim -> es kann erst die Physik berechnet werden, wenn klar ist, in welche Richtung sich bewegt wird (da es idR Einflusse davon gibt), es kann erst der Sound berechnet werden, wenn klar ist, was die Physik noch an Effekte Soundtechnisch darstellen muss. Es kann erst mit dem Aufbereiten der Daten für die Bildberechnung begonnen werden, wenn alle sonstigen Einflüsse des Geschehens vollkommen klar sind (Position, Physik, Einfluss durch die KI usw.) -> und dann geht das Werk an die GPU und die macht noch ihr Bild draus. Das Beispiel hegt natürlich absolut keinen Anspruch auf Vollständigkeit und soll nur eine grobe Übersicht geben ;) Aber man sieht schon sehr gut, es sind verkettete Sachen. Das ganze gleichzeitig zu berechnen, wo die Teilschritte sich doch alle gegenseitig beeinflussen, ist äußerst schwer, teils eben schlicht nicht machbar.

Simpel und einfach kann man es wohl so ausdrücken, überall dort, wo es um statischen Kontent geht, kann man sehr sehr gut auf die Recheneinheiten verteilen. Überall dort, wo es um dynamischen Kontent geht, der wärend der Berechnung extern beeinflusst wird, wird das ganze schwerer bis teils eben unmöglich. In ersterem Fall wäre beispielsweise eine Bildbearbeitung zu nennen. Du hast ein statisches Bild, wendest einen Effekt an und die Kiste kann das Bild in noch so viele kleine Teile zerhacken -> perfekt. Letzteres ist beispielsweise in Games gegeben. Wo vieles aufeinander aufbaut.

Aus den genannten grund Problemen geht man mittlerweile den Mittelweg und nutzt dort, wo es auch funktioniert eben die gebündelte Power von vielen vielen Einheiten. Und dort wo es nicht geht, muss eben der andere (herkömmliche) Weg herhalten...
 
So nochmal um das Thema Auslagerungsdatei anzusprechen, hier der Beweis das Windows XP jedenfalls geswapped hat wie blöde zuletzt mit SP3

Das ist hier zu Retrozwecken ein Athlon XP mit XP SP3, mit 2GB RAM (also seinem möglichen Maximum), spätere/bessere Boards boten 3 Slot's und somit bis zu 3GB, viel mehr geht dann da aber auch nicht und schon garnicht sinnvoll.

swap.jpg

Ich hab beim Installieren, C: also Boot und Swap 4Gb gemacht, da ist die Pagefile drauf (sinngemäß Festplatte, 2GB RAM, 3072MB Minimum sowie Maximum), der ist hochgefahren mit allen Treibern (AC97 onBoard, ATI Sapphire X1950 Pro AGP x8) und Firefox ist auf um hier zu schreiben.
Chipsatztreiber hab ich bei dem Windowszeugs belassen.
Rest teilt sich auf in D: mit 30Gb und E: dann den Rest einer 80GB Festplatte (IDE)

Klar bei SSD's braucht man keine Partition Performancebedingt von wegen am Anfang des Datenträger's ;-) (einfach minimum 16MB und maximum auf 1,5 mal soviel wie physisch vorhandener RAM und gut ist, oder eben abschalten, mir ist auf meiner Windows 10 Kiste noch nichts untergekommen was im privaten Bereich tatsächlich nicht mehr laufen mag ohne Pagefile)

Der HWMonitor zeigt uns an auf Space C:, das dort ordentlich gearbeitet wird und zwar dauerhaft...

Also RAM allein nur schon zu Cache-Zwecken lohnt sich definitiv und das selbst mit einer SSD, was also ersichtlich nicht nur früher schon immer von Vorteil war und kein subjektiv spürbarer Blödsinn sondern sich so nun hoffentlich auch für das Auge beweisend zeigt.
Die Platte rödelt im übrigen deutlich weniger als der HWMonitor das nun so sichtlich zeigen vermag, vermutlich weil auch auf XP SP3 (home Edition) der Cache auch schon vorhanden und auch recht gut war.


Gruss Dennis
 
Zuletzt bearbeitet:
Also ich habe die Auslagerungsdatei bzw. den virtuellen Arbeitsspeicher seit 10 Jahren deaktiviert und fast nie ein Problem damit gehabt !? :rolleyes:

Ja exakt das hab ich auf meiner aktuellen Windows 10 Kiste auch schon ne ganze Weile so laufen :-)

Seit 10 Jahren bedeutet nun nicht zwangsweise auch schon bei XP, aber wenn der wiedermal in Einsatz kommt werd ich es mal versuchen zumindest, ich mein er hat immerhin 2GB RAM, aber vielleicht magst du ja noch genauer damit auf die Betriebsysteme eingehen mit dem Vorgehen.

Mit den letzten Releases, LTS sowie auch den zwischenversionen von Ubuntu kann man das im Grunde genommen mit der Swap-Partition genauso handhaben, sicherheitshalber ist immer eine erstellt, man ist ja in der Lage sie dort zu deaktivieren ;-)

Worauf ich damit halt wiedermal hinauswollte ist, das man mit mehr RAM auch immer mehr Performance hat davon, und das nicht erst seit gestern und eben insbesondere dann wenn er nicht gerade wieder sehr teuer ist, lohnt es sich definitiv immer die Kiste vollzustopfen jenachdem was das Board in Kombination mit der jeweiligen CPU auch verwalten kann.
Nicht Takt, nicht Latenz, sondern schlichtweg die Menge machts halt, es sei denn da rennt eine APU, aber auf Grund des Grafikteils dessen erklärt sich das von selbst, Grafikkarten haben immerhin DDR5 und das schin eine gewisse Zeit, sicherlich ja auch nicht ohne Grund ;-) (das besserer RAM nun auch für die CPU's an den Mann kommen, bringt uns einfach die Zeit, das wird bei den Karten ja auch nicht stehen bleiben sondern potenter werden, denke ich mal in absehbarer Zeit)


Gruss Dennis
 
Zuletzt bearbeitet:
und fast nie ein Problem damit gehabt
Das Problem ist doch, dass es die Leute einfach machen weil es "Tuning" sein soll. Und wenn dann Probleme auftreten wissen sie nicht warum.
Wenn du weißt dass du sie aus hast und ein Programm sich beschwert dann weisst du ja zumindest Bescheid was zu tun ist.
Klar, zu HDD Zeiten wars ein Vorteil wenn das OS nicht in die pagefile schreibt wenn die I/O Leistung anderweitig gebraucht wurde, aber heute mit SSDs ist das völlig Hupe.
 
Stimmt auch wiederum kann man ja bei ner SSD ruhig mit so einer dynamischen Aufwarten, das merkt man Perfomancetechnisch nicht ob nun eine an ist oder nicht und ansonsten ist es die Zwischenlösung, worauf meistens eh nie zugegriffen wird.

Und hey "minimum" 16MB tun absolut niemandem weh :-)


Gruss Dennis

- - - Updated - - -

Was nun allerdings in der Tat sehr interessant zu wissen wäre ist ob es einem was bringt, wie bei HDD auch diese prefetch-Geschichten trot SSD wieder zu aktivieren, also nicht subjektiv sondern das mal tatsächlich richtig zu Hinterfragen.

Afaik hab ich das zuletzt gemacht, das läuft bei mir also mit anstatt deaktiviert, subjektiv lief es kurz darauf alles etwas zackiger, aber eben bislang nur subjektiv, einen tatsächlich Anhaltspunkt der mehr Performance auch aufzeigt, hab ich leider nicht.

Wer da beigehen möchte und auf die Schnelle da den Stellschrauben such:
Deskmodder, Superfetch Prefetch welche Einstellungen, find ich ne tolle Sache wie die Seite aufgemacht ist.

Gruss Dennis
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh