1 PHz sind das Limit für die Schaltgeschwindigkeit von Transistoren

Der relevante Benefit der "Erkenntnis" ist der selbe: Im Moment absolut Null. Und dazu kommt meine These: Die Erkenntnis wird sich - wenn es soweit ist - als ziemlich falsch und naiv darstellen. DAS ist der Vergleich. Tut mir ja leid wenn dir meine These nicht gefällt,
Du gehst also fest davon aus, dass physikalische Grenzen sich einfach ändern? Du meinst echt das wäre die gleiche Erkenntnis? Oh man. Sorry, aber das ist so weit weg von rational, dass mir echt nicht einfällt, wie man darauf sinnvoll und konstruktiv reagieren kann.

"Ich glaube, dass wir nie mehr als 100 Euro im Monat brauchen"
"Die Schwerkraft der Erde ist xxx Einheiten stark"

Ja. Beide Aussagen haben denselben Wert / Aussagekraft. Ganz klar. Und die Schwerkraft ändert sicher ihre Meinung, wenn wir nur hart genug meckern darüber.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für Office, Web und Co braucht es ne anständige Programmierung, aber nicht 4 Kerne. Es braucht Wissen, Fähigkeiten und Können, aber keine 4 Kerne.

Ich fand mal Projekte schön, wo Programmierer das Maximum an Animation und Darstellung aus wenigen kb rausholen mussten. kA, wie das hieß, aber es mussten wenige kb sein, damit das auf Disketten passte und so. Das ware herforragende Wettbewerbe, wo sicherlich viele Tricks und Erkenntnisse gewonnen wurden, wie man effizient Code schreiben kann. Programmierung ist heutzutage teilweise von Grund auf so schlampig und schlecht optimiert, dass vieles mit leistungsstarker Hardware kompensiert wird. Sogar bei Games sieht man ja heute, dass die Software im laufe der Zeit reift und dann plötzelich noch enorme Leistungssprünge bei Grafik und Performance möglich sind.
Man kann, nur möchte man das? Die meisten Leute haben absolut keine Ahnung von PCs. Die haben stattdessen alles voller Toolbars, Autostartprogramme und Datenmüll der sie wundern lässt wieso der PC so langsam ist. Irgendwo ist auch mal Schluss. Geräte ab der Core i-Generation sind aber noch relativ brauchbar, solange man eine SSD reinbaut. Selbst mein Phenom I System aus 2007 wurde durch eine SSD sehr reaktiv, obwohl es nicht mal SATA-II unterstützt. Man merkt es aber deutlich bei Installationen, alles dauert viel länger als gewohnt. Energieeffizient sind diese Kisten auch nicht.
Aber es wird dennoch eine Taktsteigerung kommen da die Transistortechnik effizienter wird.
man braucht deutlich weniger und kann die größe ändern und somit indirekt den takt steigern.
Da die Spannung geringer ausfällt als jetzt.
Folglich ist ab 2028 an bis zu 8ghz bei cpu drin mit Luftkühlung und bei gpu ab 4ghz
Dies aber ist noch ein patent und das dauert bis erste designs davon gibt in der Fertigung
Das wird sich zeigen, was ich schon aufzuzeigen versuchte ist dass es nicht auf die GHz, sondern die Leistung ankommt. GPUs mit 3 GHz werden wir wohl bald sehen, da bereits RDNA2 an der Marke kratzt. CPUs scheinen erstmal bei maximal 6 GHz zu liegen. Macht aber nichts, effektiv sind sie ja so schnell wie eine CPU mit 50 GHz, so würde ich mal vermuten, wenn eine uralte CPU wie ein Athlon aus 2004 "open end" takten könnte... Die Leistungssteigerung ist exponentiell, selbst auf einem Kern. Die Multicoretechnologie wurde erst eingeführt als man feststellte dass es bei nur einem Kern ein Taktlimit gibt.
 
Du gehst also fest davon aus, dass physikalische Grenzen sich einfach ändern? Du meinst echt das wäre die gleiche Erkenntnis? Oh man. Sorry, aber das ist so weit weg von rational, dass mir echt nicht einfällt, wie man darauf sinnvoll und konstruktiv reagieren kann.

"Ich glaube, dass wir nie mehr als 100 Euro im Monat brauchen"
"Die Schwerkraft der Erde ist xxx Einheiten stark"

Ja. Beide Aussagen haben denselben Wert / Aussagekraft. Ganz klar. Und die Schwerkraft ändert sicher ihre Meinung, wenn wir nur hart genug meckern darüber.
Ich glaube nicht das du dich MIT mir unterhalten willst - schließlich bin ich für dich ja offensichtlich komplett irrational. Und wenn du darauf nicht sinnvoll und konstruktiv antworten kannst, dann lass es doch einfach? Oder möchtest du nur deine Überlegenheit zur Schau stellen? Man man man, Leute gibts...
 
@angelsdecay Ui 8 ghz ,bist du dir da echt sicher? Also da gibt es dann ja echt Mal ne Steigerung. Ich hoffe die Wärme die da entsteht kommt damit auch wirklich klar. Denn man sieht ja im Moment wie warm die CPUs schon bei 5 GHz werden. Irgendwann steigt halt die Abwärme sehr stark. Diese kann man nicht austricksen. Ich freue mich jedenfalls auf eine richtig harte Steigerung. Weil ewig kann man ne Architektur nicht grundlegend ummoddeln. Oder gibt es da keine Grenzen. Man kann ne Architektur und den ganzen Aufbau also immer ändern. Das will ich sehen das es so schnell geht und wir dann durch das bahnbrechend neues sehen werden. Ich will Mal wieder bahnbrechenden starke Leistungs Steigerungen bei CPU sehen. Sowas noch nie dagewesenes das alles bisher erschienene in den Schatten stellt. So richtig harte steigerungen. Geht halt nur mit Architektur Optimierungen oder gänzlich neues mit 8 GHz Takt. Am besten 10 GHz das dann wirklich jede Anwendung mindestens 50-100 % mehr Leistung ereichen kann. Bis dahin kann ich ja noch aussitzen. Ich hoffe der Stromverbrauch Erhöhung steigt nicht im das Ausmaß mit weil das wäre wirklich bitter für manche Nutzer.
 
Wirklich relevante Steigerungen erwarte ich irgendwie nicht mehr bei den aktuellen Materialien.
Was theoretisch geht hört man schon seit 10 Jahren. Da wird alle paar Jahre mal 10% rausgeholt, dafür 50% mehr Strom reingebuttert (wie bei GPUs).
Gibt ja paar Whitepaper zu neuen Optionen, die in der Praxis halt mal umgesetzt werden müssten. Aber irgendwas wird das wohl ausbremsen, sonst wäre das ja schon passiert.

Der CPU Markt ist, trotz AMDs Wiederauferstehung, irgendwie langweilig. Da einfach mal 3-4 Generationen zu überspringen, ist wohl kein Thema und man wird es kaum bemerken.
 
Kann es sein, dass Du noch nie Software entwickelt hast?
Vielleicht kommst du einfach auch mal auf die Idee das du "010101" ziemlich lustig auf mehrere Cores verteilen kannst wie du lustig bist ?
Eine Einschränkung in der SPS ist, das Codes die voneinander abhängig sind halt nicht unbedingt parallelisierbar sind, aber dann kommt das Spiel mit der "Zeit" in's Spiel und der Aufwand lohnt sich wie man sieht, sonst wäre der Erfolg der 6 und 8 Kerner nunmal nun die letzten Jahre ausgeblieben.

Für gute Simulationen(Gaming) ist das sogar nötig, die viele Mathematik die in der echten Welt so vorherrscht muss die Engine halt auch erstmal Rechnen.
Deswegen entwickelt man ja auch sowas wie Direct Storage, weil der Overhead der auf der CPU vorherrscht nur um eine Datenschaufel für die Grafikkarte zu Spielen is halt blöd :d

Das ist eben nunmal auch der Grund warum in der Praxis ein i7 2600 und ein FX8120/8300 nunmal +/- dieselbe Performance brachte, allem Geplärre nach hatte ich mit derselben Grafikkarte und Arbeitsspeichermenge ziemlich exakt dieselbe Performance.
Das konnte offenbar das Scheduling eben schon vor zig Jahren mit Windows 7

Das ist in etwa so als würde man einen 2400g vs i7 2600 gegenüberstellen, beide mit ner GTX 1060 und ausreichend RAM, bringen dir im Toaster-Test, bei CS:GO mit denselben Settings roundabout 260FPS im Average raus (ulletical fps benchmark)

Gruss Dennis
Beitrag automatisch zusammengeführt:

@Strikeeagle1977
Joa nur welches OS unter anderem auch Linux Distributionen willst du noch angenehm anwenden auf nem Sockel 775-System ?
Equivalent hätte ich hier noch nen Phenom II X4 stehen mit 8gb RAM und SSD, nuja mit der richtigen Grafikkarte würde Ubuntu durchaus noch angenehm laufen, das frisst aber auch mehr und mehr Hardware, vielleicht ein LUbuntu, macht es etwas schlanker.
Debian selbst hab ich auch mal ausprobiert gehabt, das is auf Dauer aber irgendwie halt auch nix halbes und nix ganzes, pflegeleicht ist das halt nicht gerade, mit nem Ubuntu oder Windows kommt halt jede/r/(s?, diverse=) deutlich besser klar.

Verschrotten kann und sollte man das nicht, aber ReactOS ist halt beispielsweise auch immernoch alles andere als brauchbar, erst wollte es ein Windows98SE sein, jetz will es ein XP sein, Hardware die unterstützt wird ist auch mal so ziemlich gleich 0
Ich hab mehrere Kisten durch, ein altes Gericom (von Plus damals) Notebook mit Athlon XP versucht, narda, Pentium III mit irgendeiner Karte die ich noch so habe aus dem Zeitalter AGP, narda, sonstige Athlon XP Hardware, narda... hm...

Das geniale is allerdings, das dieses von mir genannte Phenom II System mit 8gb RAM und ner 5770, noch so ziemlich einiges im Schatten stehen lässt was mehr als roundabout 200€ kosten soll :d


Gruss Dennis
Beitrag automatisch zusammengeführt:

@angelsdecay ... Ich hoffe die Wärme die da entsteht kommt damit auch wirklich klar.
Die Wärme kommt damit klar, da sei dir sicher, dem Silizium wird es nur nicht gefallen wenn du das nicht gescheit abgeführt bekommst :d ;)

Gruss Dennis
 
Zuletzt bearbeitet:
Für gute Simulationen(Gaming) ist das sogar nötig, die viele Mathematik die in der echten Welt so vorherrscht muss die Engine halt auch erstmal Rechnen.

Stimme fast überall zu, bis auf den Satz.
Lustigerweise sind gerade Simulationen meist single core Leistung.
Warum? Weil man viele Dinge in Simulationen nicht parallelisieren kann. Du kannst eine Reaktion auf X erst dann berechnen, wenn X berechnet wurde. Und wenn X von Y abhängt, dann muss das vorher passiert sein.
Du hast das also auf einem Core, der eine Sache nach der anderen machen muss. Ein paar Spiele versuchen das zu umgehen mit "Schätzwerten",... aber das geht dann auch gerne mal schief und führt zu komischen "Bugs" im Spiel, die man schwer erklären kann als Spieler.

Je besser die Simulation sein soll, desto schwerer wird Multi Core support, weil immer mehr Dinge voneinander abhängen MÜSSEN, sonst wäre die Simulation ja keine Gute.
Bedingt kann man voneinander unabhängige Dinge nebeneinander berechnen. Der aufgewirbelte Staub Links und die Wellen im Wasser rechts,... hängen nicht voneinander ab. Das aber abzugrenzen im Code, wann gesplittet werden kann und wann nicht... ist echt viel Aufwand. Und dann kommt jemand daher und möchte den WIND in der Simulation haben. Schon muss der Staub und das Wasser warten, bis der Wind berechnet wurde.

Es ist als Entwickler leider in vielen Fällen alles andere als trivial, das einfach mal auf mehr cores zu splitten. Da muss man dann meist harte Kompromisse machen, die dann auch wieder zu Geheule führen.
 
Und warum werden dann wissenschaftliche Simulationen auf Großrechnern und Supercomputern mit tausenden von Prozessoren gerechnet, wenn das größtenteils alles Einkernleistung ist?
 
welches game wird denn auf großrechnern gezockt? das ist doch was vollkommen anderes.
 
Und warum werden dann wissenschaftliche Simulationen auf Großrechnern und Supercomputern mit tausenden von Prozessoren gerechnet
Was für Simulationen? Der MD5 Algorithmus ist ein typisches Beispiel eines Algorithmus der sich nicht parallelisieren lässt, da jeder Wert auf dem vorherigen aufbaut. Aber es gibt zahlreiche Anwendungen die MD5 Sums parallel berechnen, nur berechnen die eben nicht eine MD5 für einen großen Datenblock, sondern dienen meiste zum Cracken von Passwörtern und berechnen also parallel die MD5 Sums für ein Wörterbuch potentieller Passwörter und dies vielen voneinander unabhängigen MD5 Summen kann man natürlich perfekt parallelisiert berechnen.

Bei Simulationen ist es genauso, wenn ich eine mache ist diese meist nicht parallelisierbar, aber wenn ich Tausende Varianten simuliere, dann ist es natürlich kein Problem diese alle parallel auszuführen. Eine Simulation wie z.B. ein Game, in denen wird ja auch i.d.R. eine Situation simuliert, ist eben was anderes als wenn zahlreiche Leute unabhängig voneinander das Game spielen und der Rechner für jeden seine individuelle Simulation berechnen muss. Wenn aber die Gamer, z.B. in einem Autorennen oder einem Shooter in der gleiche Szene sind, dann sieht die Sache anderes aus, dann dürften nicht zwei Auto gleichzeitig den gleichen physikalischen Raum einnehmen, ohne dass es eine sichtbare Kollision gibt oder beim Shooter muss derjenige auch entsprechend reagieren, der von einem anderen getroffen wurde. Selbst wenn man da also die Aktionen parallel berechnet, braucht es da eine gewaltige Synchronisierung zwischen den Threads und dies mindert immer die Auslastung der einzelnen Kerne.
 
Und warum werden dann wissenschaftliche Simulationen auf Großrechnern und Supercomputern mit tausenden von Prozessoren gerechnet, wenn das größtenteils alles Einkernleistung ist?
Größere Simulationen sind keine "ich simuliere das einmal" - Sache, sondern "ich simuliere das 1.000.000 mal".
Jeder Kern macht eine Simulation. Das Ergebnis am Ende ist dann die Schnittmenge, bzw. das wahrscheinlichste Resultat, aus all den Simulationen. Mehrzahl also.

Bei Spielen wird nur einmal simuliert und meint streng genommen auch eine andere Art der Simulation.
 
Und warum werden dann wissenschaftliche Simulationen auf Großrechnern und Supercomputern mit tausenden von Prozessoren gerechnet, wenn das größtenteils alles Einkernleistung ist?
Da werden alle Möglichkeiten gleichzeitig durchgerechnet.
Ist bei Aufgabe A ein Ergebnis von 1-10 möglich, berechnen 10 Kerne die Folgeoperation B, der 1. berechnet, was bei einem Eingangswert von 1 herauskommt, der 2., was bei einem Eingangswert von 2 herauskommt etc.
Und ist dann Aufgabe A durchgerechnet und kennt das Ergebnis, dann nimmt man nur eines der 10 Ergebnisse von Operation B. etc. und muß nicht erst jetzt die Berechnung starten.
9 Ergebnisse werden dann verworfen.
Es werden also Aufgaben mit allen möglichen Startwerten parallel berechnet.
Das geht schneller als erst auf das Ergebnis der Aufgabe A zu warten, auch wenn man dabei viele Ergebnisse wegwerfen muß.
Und solche Großrechner haben schon mal 70.000 und mehr Kerne!
 
Hm das ist ja dann sehr ineffizient wenn alle 10 berechnen und nur 1 Ergebnis eines Kernes wirklich von nöten gewesen wären. Aber gut das erklärt ja auch warum nicht immer mehr Kerne benötigt werden bei spielen.

Ich dachte immer es würde so aufgeteilt werden. Kern 1 ist für das Verhalten des Spielers also Eingabe zuständig ,Kern 2 für die Umgebung wie die npc und die Einheiten im Spiel also bei egoshooter die Bürger z.b,Kern 3 für die physikalischen verhalten wie fällt ein Gegenstand um damit es genau richtig umfällt,Kern 4 ist für das Wetter zuständig damit das auch richtig dargestellt wird.
Ich weiß ja nicht ob man das auch wirklich so aufteilen kann. Aber damit entlastet man ja ein Kern sehr gut. Das jeder Kern ne genau Aufgabe bekommt,ist doch die Aufgabe des spiele Entwicklers.

Bei Anwendung ist das aufspilttern ja ganz einfach. Ein Programm wie das umwandeln von Videos hat bei mir z.b 18 Threads was es auf ne gewisse Anzahl an Kernen prima aufsplitten kann. Aber dann ab ner gewissen Anzahl also von immer noch mehr ja nix mehr bringt weil das Programm oder die CPU Probleme hat es sinnvoll aufzuteilen. Dem Programm also zu sagen es soll noch mehr Threads produzieren damit es noch mehr aufsplitten kann brachte leider nix weil dann die Leitung eingebrochen war. Also ließ ich es auf automatisch. Also selbst da bringt unendlich auch nichts mehr. Da hilft es auch nix das ich da bis zu 128 Threads therreotisch einstellen könnte was. Es mag aber in der Therorie sich gut anhören aber halt kein nutzen bzw in der praktischen eben nicht bringen.

Nun ja es kommt wohl immer auf das gesammte drauf an ,das habe auch ich verstanden.
Darum habe ich einfach 2 x das selbe Programm gestartet. Das kann man ja dummerweise bei spielen eben nicht machen. Sonst könnte man ja einfach Spiel 1 auf Bildschirm 1 und Spiel 2 auf Bildschirm 2 darstellen. Das Spiel 1 mit Spieler 1 mit Controller und Spiel 2 mit spieler 2 mit Tastatur auf ein und dem selben PC. Damit könnte man auch mehr Kerne auslasten. Wäre zumindest auch ne Option um das problem des schlechten ausnutzen zu lösen oder etwa nicht ?
 
Ich dachte immer es würde so aufgeteilt werden. Kern 1 ist für das Verhalten des Spielers also Eingabe zuständig ,Kern 2 für die Umgebung wie die npc und die Einheiten im Spiel also bei egoshooter die Bürger z.b,Kern 3 für die physikalischen verhalten wie fällt ein Gegenstand um damit es genau richtig umfällt,Kern 4 ist für das Wetter zuständig damit das auch richtig dargestellt wird.
Ich weiß ja nicht ob man das auch wirklich so aufteilen kann. Aber damit entlastet man ja ein Kern sehr gut. Das jeder Kern ne genau Aufgabe bekommt,ist doch die Aufgabe des spiele Entwicklers.
es fängt schon damit an, dass die aufgaben immer dem nächsten freien kern zugewiesen werden, sonst liegen einige kerne brach und andere bilden eine warteschlange an berechnungen. aber ganz grob geht dein gedanke in die richtige richtung. aufgaben werden getrennt berechnet und die resultate zusammengeführt. im weitesten sinne...
 
Ich dachte immer es würde so aufgeteilt werden. Kern 1 ist für das Verhalten des Spielers also Eingabe zuständig ,Kern 2 für die Umgebung wie die npc und die Einheiten im Spiel also bei egoshooter die Bürger z.b,Kern 3 für die physikalischen verhalten wie fällt ein Gegenstand um damit es genau richtig umfällt,Kern 4 ist für das Wetter zuständig damit das auch richtig dargestellt wird.
Ich weiß ja nicht ob man das auch wirklich so aufteilen kann. Aber damit entlastet man ja ein Kern sehr gut. Das jeder Kern ne genau Aufgabe bekommt,ist doch die Aufgabe des spiele Entwicklers.

Im Prinzip hast Du schon recht damit. Und das geht so auch, bzw. wird auch so gemacht.
Gerade Shooter, die eben NICHT korrekt simuliert sein müssen, machen das auch so. Auch ein Tomb Raider macht das so.

Da ist es dem Spieler aber auch egal, ob die Gegner immer genau richtig reagieren. Bzw. es ist sogar von Vorteil, wenn sie das eben NICHT tun. Wirkt dann etwas unvorhersehbar und wird als "aktiv gut programmierte KI" angesehen, wobei es einfach nur ein Multi Thread Bug ist streng genommen. ;-)

Stell Dir das aber mal bei Civilization vor.
12 KIs machen ihren Zug. Theoretisch könnten das dann ja 12 Kerne machen!.... ABER: Was wenn KI A und B eine Einheit auf dasselbe Feld bewegen wollen? Machen sie das simultan, würde eine Spielregel gebrochen werden, bzw. Krieg entstehen durch einen Kampf. Würde der Kern von B erst auf das Ergebnis von Kern A warten, wäre die Aufteilung schon wieder von NACHTEIL. Warum? Weil es dann nicht schneller als single core wäre ABER man trotzdem Code schreiben müsste, um das zu synchronisieren.

Je nach Genre gibt es Bereiche, die eben nicht voneinander abhängen. Da werden dann mehr Kerne verwendet.
Oder die Genauigkeit ist nicht so wichtig,... oder die Wechselwirkungen sind nicht so groß, dass sie auffallen oder stören. Bei den meisten Genres geht das mehr oder weniger gut. Darum gibt es ja auch viele Spiele, die z.B. 4 Kerne gut nutzen und dann noch 10 weitere "ein bisserl". Das ist nicht Intels langer Zeit von Quad Cores geschuldet, zwingender Weise, sondern eben der Sinnhaftigkeit.

Bei Simulation Spielen liegt der Fokus auf EINER sehr akkuraten Simulation, die in sich stimmig ist.
Bei groß angelegten Simulationen, wie eine Wettervorhersage z.B., muss ja JEDES mögliche Ergebnis berechnet werden und das mit einer Wahrscheinlichkeit versehen werden. Da gibt es schnell viele Mrd. und mehr Möglichkeiten. Daher sind dann auch die 50.000+ Kerne eines Superrechners effektiv ausgelastet für ein paar Tage. ;-)
 
OK verstehe ,bei egoshooter und Simulationen ist sowas gut ,bei Strategie spielen und Vielelicht sogar bei Rennspielen ist das schlecht nutzbar. Ich kann mir das bei Rennspielen wohl auch eher als schlecht vorstellen das da viele Kerne was bringen weil das wäre wohl zu kompliziert. Und sowas wie Junp n Run oder Abenteuer kann ich mir das ebenso schlecht vorstellen das da viele Kerne was bringen. Weil das eine ist davon nicht komplex genug und das andere muss auch alles genau ablaufen. Man kann da auch nicht alles so gut verteilen.
Also sind nur 2 spiele Genres wirklich gut parallelisierbar.
Für die anderen ist dann neben mehr Takt wohl dann breitere CPUs idealer. Darum wachsen CPUs ja immer mehr in die Breite.
Und ja Mal sehen ob das wirklich überall zu wirklich spürbar mehrleistung führt. Selbst beim videoumwandeln merke ich bei noch mehr Kernen als 16 keine richtig spürbarer mehrleistung mehr und das obwohl ich da schon 2 x die selbe Anwendung verwende. Hier ist also Kerne nicht mehr Trumpf. Kann mir vorstellen das breitere Kerne hier durchaus noch was bringen werden für mehr Leistung . Um das wirklich festzustellen müsste die CPU erst noch rauskommen. Auch mehr Takt bringt hier eine Steigerung für mich.
Also ja ich lasse mich da einfach überraschen. Alleine 5 GHz auf alle Keren würde mir mindestens 10 % mehr Leistung bringen. Darum ist ja auch ein 12900k dem 5950x so nah auf den Fersen. Er ereicht zwar noch immer nicht ganz diese Leistung aber ist schon der Wahnsinn wenn der die lestung von einem 5900x erreicht . Weil die kleinen garnicht so viel beisteuern und die großen Kernen ja nur 8 Kerne sind.
Sobald man den aber an die Stromverbrauch von 125 Watt oder Takt massiv so senkt das er sparsam ist Sinkt die Leistung massiv nach unten.

Also kann ich dazu sagen das Takt der anwendung wichtig ist. Ob der vergrößerte l2 Cache auch wirkung zeigen wird ,wird sich zeigen.

Ich sehe also entspannt dem ganzen entgegen. Der Kerne Wahnsinn ist jedenfalls vorerst vorbei weil immer noch mehr Kerne rein zu pumpen eben ich nicht als Heilsbringer sehe. Aber wenn die Hersteller meinen noch mehr Kerne bringe was ,können die gerne immer so weiter machen,halt die ja niemand auf bzw hindert niemand die dran.
 
Richtig. Mehr Performance pro Kern hilft im Allgemeinen mehr, als mehr Kerne, die dafür schwächer sind.
Darum waren die ersten Zen Chips ja auch in MC Benchmarks ganz toll, haben dann in der Realität aber beim Gaming versagt oder sogar richtig derbe schlechte Ergebnisse geliefert.
Seit der 5XXX Generation ist nun endlich auch die pro Kern Leistung fantastisch und das merkt man in Spielen eindeutig. Es wird auch auf absehbare Zeit weiter viele Spiele und Genres geben, bei denen es ein primärer Core bleibt und die anderen können nur irgendwas Unwichtiges übernehmen und sind nahezu idle.
 
Es gibt auch ausgesprochen Singlecore-lastige Anwendungen.
3D CAD zählt z.B. dazu.
Da gibt es extrem viele von einander abhängige Sachen und mit Wahrscheinlichkeiten kann man da auch nicht rechnen.
 
Bezüglich der 8Ghz
Wie komme ich drauf?
Nun es wurde vor ner zeit ein patent angemeldet das den transistor deutlich weniger energie braucht für dieselbe Leistung.
Das ermöglicht es das entweder die gleiche Anzahl an Transistoren höher takten erster Schritt und mehr ipc zweiter schritt machbar sind
Da Taktsteigerungen durch simple mehr Energie reinstecken ermöglichen ist das was zuerst passieren wird.
Danach wird die transistor menge zudem für mehr ipc sorgen.
Den man könnte die chips dann weniger transiitoren haben und weniger dicht dann ist hoher Takt kein problem mehr
oder die menge an transistoren eine höhere ipc ermöglichen
Nun zm problem den sram dieser skaliert Wurnderbar mit Takt
Aber extrem schlecht wen es um Latenzen geht also zeitaufwand zu warten sprich Takt
Was nützt einen eine hohe ipc wen der sram diese ausbremst.
Derzeit brauchen sram zellen in einer cpu (L0 L1) 0,8ns
Nehme ich mal 8ghz an müsste es 0,5ns sein.
Mit weniger takt mehr ipc geht das schlicht nicht.
Und so viel Branch prediction/out of order Schätzungen kann man derzeit nicht planen
Es müssten quasi 20 Berechnungen gemacht werden wovon 19 als falsch gelten.
So funktioniert branch predictioon . Man lagert berechnete daten vor die eventuell gebraucht werden
Nur müssen diese auch zutreffen die derzeitige lösung erreichen etwa 50% hittrare
Und ja das sind spekulative Ausführungen aber so müsste man vorgehen damit mehr ipc wirken
Sonst ist die cpu mit warten beschäftigt
ideal ist da Takt da diese wunderbar skaliert die Latenzen bleiben gleich bei weniger zeit und die Leistung explodiert.
Darum wird diese Entdeckung auch zu mehr Takt führen. Dazu kommt das ein anderes medium für die transistoren kommen soll.
Im Gespräch ist graphit diese können jenseits der 1000ghz laufen
Der Grund warum man auf silizium beharrt ist , es ist leichter zu fertigen und grenzenlos verfügbar.
Daher ist diese Entdeckung entscheidend für die nächsten Jahre.

An den cpu Architekturen lässt sich noch was optimieren
Die nächsten Jahre versprechen etwa 50% (singlecore) und das ist bis 2024 mit zen 5
Intel indes wird verharren bei maxed +30% mit meteo lake und hoffentlich endlich eine neue Lösung bei der cpu Kommunikation.
Amd kann mit dessen cache Lösung und einen anderen Ansatz mehr Leistung herausholen.
Intel indes unklar außer mehr Takt hilft da nix.

amd bustakt in der cpu ist direkt gekoppelt mit dem I/O bus und da ist man noch nicht am limit.
Derzeit 1,8-2,0ghz möglich wären 5ghz
Da liegt noch potenzial für mehr ipc drin.

Intel Gegenstück ist die cpu interne Ringbus der getrennt vom Systembus läuft

Die meiste Zeit einer cpu ist damit beschäftigt zu warten auf Daten.

Da es durchaus Verwirrung gibt latenzen werden in Taktzyklen gesetzt
Sprich cache latency 1 wäre das kürzeste was geht
Braucht dafür der Sram 0,8ns ist das so, also hängt es direkt am cpu/cache Takt.
Braucht der sram aber nur 0,6ns wird es schneller da weniger zeit vergeht bis die cpu die Daten verarbeiten kann.
Und die menge an L2 und L3 cache sorgt dafür das die cpu mrt Arbeit gefüttert werden kann.
Das geht aber nur parallel bis ein I/O prozess beendet ist.
Wie gesagt die cpu ist am längsten damit beschäftigt zu warten.
Die menge an Daten die verarbeitet werden können hängt dann nur noch von der Größe des last level cache ab also derzeit L3
Und genau da bin ich gespannt wie der R7 5800x3d mehr Leistung rausholt.
Den es zeigte sich schon bei intel experiment Core i7-5775R mit dem L4 von 128mb das bei 1ghz weniger Takt die gleiche Leistung brachte wie der schnelleren ci7 4790k
Ähnliches erwarte ich bei dieser cpu.
Nur lässt sich das schlecht auf programme wie cinebench testen da diese prinzipiell weniger auf große daten im cache ausgelegt sind.
Sondern mehr in Takt skalieren
Her wäre ein großer L1 bzw L2 besser als den langsameren L3.
 
@angelsdecay

Eine frage das was du ja so schreibst mag ja ganz nett sein aber da kam ne Frage bei mir auf.

Gibt es auch programme die von l1,l2 und von l3 cache sowie vom Takt gleichzeitig profitieren und dann sogar noch vom ram also Arbeitsspeicher gleichermaßen ?
Bei meiner Anwendung profitierte ich vom l3 Cache siehe zwischen rxzen 7 5700g zu rxzen 7 5800x(7% mehr Leistung) ,dann zwischen ddr4 2133 zu ddr4 3600 MHz(10% mehr Leistung ) und auch die Leistung durch Takt stieg etwas an von meinem 5950x von 3,8 GHz auf 4,2 GHz ganze 3-4% mehr Leistung . Ist halt die Frage ob l1 und l2 Cache in dieser Hinsicht noch was drauf setzen können. Ich kann dazu noch nichts sagen aber ich denke Mal da wird es ebenso noch ne steigerung geben. Wie die aussehen wird werde ich noch sehen.

Aber was sagst du dazu ,dieser Fall ist jedenfalls wohl ne Ausnahme weil es fällt wohl aus dem ramen was du so geschrieben hast. Entweder skaliert diese Anwendung mehr als super oder es war nur ein Zufall so viel Glück gehabt zu haben. Was ist es denn ,weißt du es oder ratest du nur ?
 
welches game wird denn auf großrechnern gezockt? das ist doch was vollkommen anderes.
Was hat beim Proteine Falten mehr Performance, n Ryzen 5 oder eine GTX/RTX Graka ? :-)
Bilder Pro Sekunde, mit Videomaterial geht grundsätzllich bei CPU auch auf Vollast und kann die Grafikkarte ebenso besser, deswegen nehme ich für Schnitt und Effekte ja das NCH Videopad, falls ein Skript wo mitunter auch Schneiden an sich Standalone mit "Jumpcuts" möglich ist, direkt fertig zu encodieren mit Resize durch spline36 für YouTube.
Das NCH Videopad bietet mit dem Verlustfreien Export, schlichtweg, das soviel wie möglich nicht noch nachbearbeitet also konvertiert wird, sondern es wird einfach nicht angefasst, von Container-File A zu B kopiert, nur die Bilder pro Sekunde wo man einblende/ausblendet oder sonstige Effekte draufpackt, die werden dann eben bearbeitet berechnet.
Nicht auszudenken, die eigentlich Arbeit kommt bei mir da dann ja erst mit StaxRip, was das auch für einen Qualitätsverlust mit sich bringen würde...., mit Staxrip läuft es dann über NVEnc, dann sind es nicht 30 bis 60fps die er pro Sekunde durchrechnen kann, bei einer Aufnahme von 60 Bilder mit 1080p, sondern gut und gerne je nach Material dann so roundabout 130 bis 180fps pro sekunde. (Die Magie liegt in der Zeit, die 130 bis 180fps entsprechen natürlich mehr fps als pro sekunde aufgenommen wurde, also dauert das konvertieren dann nicht länger als die Videolänge beträgt was ich da recorded hab, sondern weniger Zeit dazu)

@Tech Enthusiast
Man kennt es ja beispielsweise von CS:GO, da geht was mit dem Scheduling schief, sobald du mehr als nen Quad-Core hast, nimmst Process Lasso, THG, oder sonst noch ne alternative Software wie O & K Printwatch das es dann immer eben nicht auf Core 0 und 1 laufen kann, also nur auf den restlichen Kernen beispielsweise bei meinem Ryzen 5 2600x, gibt im Ulletical FPS Benchmark ausm Workshop bei Steam so 20 bis 30 fps Average mehr. (so ungebändigt ohne VSync/FPS Limit)

Audacity arbeitet auch hauptsächlich 1-Thread wenn die Kiste da von einem richtig was zu tun bekommt, da machst natürlich Sinn, denn das Audiosignal ist nunmal durchgehen in beispielsweise 44100 (Hz) Punkten festgelegt was dann durch die Wandlung zu analog nunmal nur interpoliert wird, das es eben kein digitales rechteck-Signal mehr ist. (Die Wellenkurve von Punkt zu Punkt ergibt sich halt durch die Interpolation, so wie es eine CNC Fräsmaschine umsetzt wenn du nen Radius an ein Werkstück zum Fräsen programmierst, im Prinzip so ganz plump ausgedrückt)

Nun, wenn das eine vom anderen abhängig ist mag ja sein, dann hat man aber mit mehreren Cores an sich so erstmal kein wirklich grosses Problem vor sich, Aufgabe B von A abhängig, wäre also im Prinzip dann auch schonwieder nur eine Schaltung, Birne leuchtet nur, wenn zwei Schalter an sind, das lässt sich ja umsetzen.
Aufgabe C die von A und B anhängig ist, könnte dann auf Kern 3 warten, während B auf 2, auf 1 auf dem 1. Kern wartet.
Da ohnehin viel parallel läuft, Windows, Treiber, was selbst in optimierter Form ja selbst bei 10/11 schon ne ganze Menge ist, inkl. Audio, und Krempel eventuell nebenbei, Steam, Discord.....
Nuja da sind 4 Kerne eben nix mehr, da biste froh wenn du wenigstens 6 hast, genau diesen Trend sieht man gerade auch auf Steam in der Statistik der Hardware, 4 kerner werden weniger, steigen alle auf 6 Kerner um oder eben auch 8er.

Das der Code für den Entwickler/Programmierer sicherlich "mehr Arbeit" bedeutet steht ausser Frage, das wäre für mich persönlich ohnehin ein Ding der Unmöglichkeit, ich hab mal mit nem Kumpel der Proggen kann, mit QB64, Dezimal zu Hexadezimal oder andersherum geschrieben, ganz ganz simpel gehalten.
Ich kann die Sprache nicht, immernoch kein Stück, aber es war einen Versuch wert, denn interessant ist es definitv schon mal, aber um sowas noch relativ einfaches dem Kasten beizubringen, ich mutmaße mal in welche Sprache wohl auch ziemlic egal, da steckt halt schon ne ganze Menge dahinter.
Fakt ist das man in die simpelsten Sachen, mehr Energie reinstecken muss, als nachher sinnvollerweise dabei herauskommt, was das für haufenweise Codezeilen waren, mal eben "was Bauen"... ohje :oops:

Deswegen find ich es ja auch so geil wenn einer sich hinsetzt, was Komplexes baut, was viele sehr gut gebrauchen können und sogar sollten, teils aus genannten Gründen
zum Beispiel "Fan Control"

Dem Spende ich aber mal sowas von nen Kaffee mit Paypal :-)

Zuvor gab es soweit ich weiss nur SpeedFan und eben genau das wenn man sich das jetz versucht einzurichten, unterstützt ja mittlerweile quasi garkein aktuelleres Mainboard mehr, da biste jedenfalls mit nem Ryzen-Brett auf jeden Fall komplett aufgeschmissen.

Schade wiederum ist das es wohl nicht zumindest ähnlich "mal eben" für Linuxdistributionen wie Ubuntu möglich ist das mal eben zu Forken oder zu Portieren, setzt halt viel auf vorhandene Bibliotheken (DLL's) die es nur auf/für Windows gibt.
Ist trotzdem megageil an sich, denn das was er da in eigenem Code drin hat und das ja noch weiter pflegt, wenn man sich solchen Code mal angucken würde, das versuchen alles zu verstehen, da kann dir dann schonmal der Kopf Platzen, voll mit Formeln... 😁

Da will man garnicht wissen wie ein gut gemachtes Game/gut gemachte Simulation wie meinetwegen GRID 2019 oder ETS2 aussieht, dagegen ist Fan Control sicherlich n simpler Kartentrick, aber eben "Fan Control" ist ja schon an sich nicht zu verachten.

@Latiose
Du bei deiner Videokonvertiererei macht es am Endeffekt eigentlich sehr viel mehr die vorhandene Anzahl an Transistorfunktionen, als die Anzahl an Kerne (parallelisierbar ist das unbestritten ohnehin in den meisten Fällen), der Takt macht da auch garnichtmal so allzuviel aus was an und für sich sogar immer so ist.
Es ist an sich auf völlig egal, ob PBO, oder von Hand 4ghz, oder 3,9ghz, oder PBO aus mit Turbo, oder eben Turbo auch aus und nur der Basistakt, Fakt ist sogar besonders in deinem Falle und das misst PES ja sogar direkt mit Cinebench.
Eine sehr gut parallelisierbare Volllast auf der CPU, alle Kerne auf Volldampf, am effizientesten ist er von Haus aus, mit nur Basistakt dabei, also kein Turbo, kein PBO auch nicht von Hand irgendwas sparsameres als PBO, also 4ghz oder 3,9 oder sonstwas. Ne der ganz normale Basistakt, ohne Turbo, OC, sonstiges weiteres Undervolting oder so. 1,1V 3,6gHz wenn ich jetz nicht irre bei meinem Ryzen 5 2600X
Zeit plus/minus = dasselbe, aber Leistungsaufnahme in der Zeit am niedrigsten.

Gruss Dennis
 
Zuletzt bearbeitet:
Ah da bist du ja wieder ,ja der Takt hat am wenigsten ausgemacht das stimmt. Sieht man ja sehr schön im Vergleich. Das einzige was in die Höhe schwoll war der Stromverbrauch. Für die 3-4 % mehr Leistung habe ich gleich bis zu 60 Watt mehr verbrauch gehabt. Da sank sehr stark die effizientz und das obwohl der Takt garnicht Mal sehr hoch wahr. Das erklärt auch warum der core i9 12900k zwar mit einem ryzen 9 5900x mithalten konnte aber mit seinen 250 Watt jenseits von gut und böse ist. Ich denke Mal der KS wird dann bei Richtung 300 Watt mit nur 2-3 % dann landen. Das ist wirklich nicht mehr zum Feiern.

Und mir ist ja also ich habe ja früher viel mehr getestet gehabt. Der Filter für das deinterlacing nutzt 2 Kerne. Es ist also bei mir ne prima Aufteilung. Besser geht echt nicht mehr. Ist ein Video was nicht Interfaced ist dann brauche ich pro Programm nur 5 Kerne also schon Mal nur 10 Kerne insgesammt. Es ist unglaublich wie eine Funktion hier so viele Kerne fressen kann. Aber gut dazu sind die Kerne ja da. Nicht umsonst weil sonst hätte ich mir ja den 16 Kerner ja sparen können zu kaufen.
Ohne das videoumwandeln hätte ich genau das problem was die meisten anderen Zocker auch hatten ,das kaum die Kerne ausgenutzt werden könnten. Ich habe mir also so viele Kerne nur wegen dem videoumwandeln gekauft gehabt.
Wobei nach fast 2 Jahren so viel umwandlen ,nun das Problem habe das ich nur noch 1 Video gleichzeitig umwandle weil es halt so wenig sind. Aber irgendwie geht seid dem das Programm sehr ineffizient mit der CPU um. Es Lastet alle Kerne zu 20 % aus und der Stromverbrauch Liegt bei ebenfalls 142 Watt obwohl alle Kerne niemals zu 100 % ausgelastet sind.
Es ist also nur bei 2 Anwendung gleichzeitig so effizient. Nun das Verhalten des Programms muss man nicht verstehen. Ist halt so programiert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh