Chipsätze der 300er-Serie werden offiziell zu Ryzen 5000 kompatibel

Stellt euch vor Intel hätte in jeder Gen 20-40% Mehrleistung gehabt, wo würde da heut Ryzen stehen? Genau ganz weit weg.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
in jeder Gen 20-40% Mehrleistung gehabt
Doch bei einem 12 Monate Rhythmus einfach nicht mehr machbar. Letztlich sehen wir in diesem Bereich, wie auch in vielen anderen Bereichen auf unserem Planeten, dass wir mit Höchstgeschwindigkeit in die Kipppunkte des Klimawandels rauschen. Konkurrenz belebt nicht das Geschäft, sondern erhöht die Geschwindigkeit in eine unbewohnbare Erde. Die Zentrifuge des Kapitals muss ein Ende finden. Aber die Pläne stehen ja jetzt schon fest. Jedes Jahr neue Ressourcenvernichtung durch eine 10% Steigerung.
Hatten wir 2019 noch einen CO2 Ausstoß von 34,8 Milliarden Tonnen, waren 2021 nun 36,3 Milliarden Tonnen weltweit.
 
AMD macht genau das gleiche, wenn sie in der Position sind. Da ist keiner besser, als der andere. Beide melken die Kuh so lange es geht, bevor sie eine neue liefern.
Richtig. Nur geht es mir darum, dass es hier einige Personen gibt, welche meinen, dass dieser Leistungssprung nichts mit der Konkurrenz zu tun hat, sonderlich nur auf dem "Wohlwollen" der Fa. Intel beruht.

Stellt euch vor Intel hätte in jeder Gen 20-40% Mehrleistung gehabt, wo würde da heut Ryzen stehen? Genau ganz weit weg.
Stell dir mal vor AMD hätte dies bei seinen Ryzen gemacht...
 
Stellt Euch mal vor AMD hätte mit den Mehrkernern im Mainstream Bereich nicht angefangen. Intel würde jetzt noch Quads ausliefern.:wink:
 
Zuletzt bearbeitet:
Stellt Euch mal vor AMD hätte mit den Mehrkernern im Mainstream Bereich nicht angefangen. Intel würde jetzt noch Quads ausliefern.:wink:
Aber auch dies wird von einigen anders gesehen werden.
Bisher war es bei Intel eigentlich so, je mehr Kerne umso mehr niedriger das (Boost-) Takt. Seitdem es AMD aber anders handhabt, macht es Intel auch anders.
 
Doch bei einem 12 Monate Rhythmus einfach nicht mehr machbar. Letztlich sehen wir in diesem Bereich, wie auch in vielen anderen Bereichen auf unserem Planeten, dass wir mit Höchstgeschwindigkeit in die Kipppunkte des Klimawandels rauschen. Konkurrenz belebt nicht das Geschäft, sondern erhöht die Geschwindigkeit in eine unbewohnbare Erde. Die Zentrifuge des Kapitals muss ein Ende finden. Aber die Pläne stehen ja jetzt schon fest. Jedes Jahr neue Ressourcenvernichtung durch eine 10% Steigerung.
Hatten wir 2019 noch einen CO2 Ausstoß von 34,8 Milliarden Tonnen, waren 2021 nun 36,3 Milliarden Tonnen weltweit.
Das liegt ganz klar an den Halbleitern für Computer.... ich glaube das sind eher die ganzen Smartwatches, "IOT" Geräte, wie Smarthome, jedes Jahr ein neues Handy etc.
AMD hat auch in den letzten Jahren immer mal neue Produkte auf den Markt gebracht, nur waren die nicht so Wettbewerbsfähig und Intel musste sich nicht ansträngen.
Intel hat trotzdem seinen Produktzyklus gebraucht und ist seiner Methode treu geblieben spätestens alle 2 Jahre einen neuen Sockel und damit ein neues Mainboard zu verlangen.
Eine CPU zu produzieren ist nicht ganz so umweltschädlich wie ein Handy und natürlich ist das Mainboard die Drecksschleuder.
Wenn man nach bedarf nur einzelne Module tausche könnte, wäre das nachhaltiger, interessanterweise sind PCBs durchaus recht robust und CPUs halten locker 10 Jahre durch.

Man kann sagen was man will, auch wenn es zu spät kommt, aber das man noch auf die alten Boards die neuen CPUs draufschnallen kann-- genauso die alten CPUs bis auf Zen und Zen+
 
Eine CPU zu produzieren ist nicht ganz so umweltschädlich wie ein Handy und natürlich ist das Mainboard die Drecksschleuder.
Wenn man nach bedarf nur einzelne Module tausche könnte, wäre das nachhaltiger
Wobei aber die alten Mainboards dann ebenfalls nicht in den Müll wandern, wenn sie erst so 2 Jahre alt sind und wegen der CPU Aufrüstung getauscht werden müssen, sondern die werden genau wie die CPU dann gebraucht weiterverkauft. Der Käufer der neuen CPU braucht dann ein neues Board, aber der Käufer der gebrauchten CPU wird sich wahrscheinlich für ein gebrauchtes Board entscheiden. Kann der Käufer der neuen CPU diese in seinem alten Board betreiben, dann muss sich der Käufer der gebrauchten CPU ein neues Board kaufen und damit ändert es nichts an der Nachhaltigkeit wie viele CPU Generationen eine Plattform unterstützt. Zu jeder neuen CPU wird ein neues Board verkauft, der Unterschied ist nur, wer dies kauft.
CPUs halten locker 10 Jahre durch.
Wobei aber die Frage ist, wer noch mit einer 10 Jahre alten CPU auskommt, und selbst dann ist spätestens wenn man auf Win 11 updaten muss weil der Support für Win 10 endet, ein Upgrade nötig.
 
Kaum will man ein neues Board für eine Ryzen 5000er CPU, kommt für mein altes Asus Prime B350 Plus ein BIOS aus dem Nichts. Wär gar nicht auf die Idee gekommen, in die BIOS Liste auf der ASUS Seite zu schauen, weil sich da eh ewig nichts mehr getan hat. Danke für diesen Thread(y)
 
Kaum will man ein neues Board für eine Ryzen 5000er CPU, kommt für mein altes Asus Prime B350 Plus ein BIOS aus dem Nichts. Wär gar nicht auf die Idee gekommen, in die BIOS Liste auf der ASUS Seite zu schauen, weil sich da eh ewig nichts mehr getan hat. Danke für diesen Thread(y)
Das wird auch ein geschickter Zug sein jetzt wo Zen 3 bald eh vorbei ist und man Leute mit alten Boards nochmal zum Aufrüsten anregen will. Es könnte aber beim RAM haken. Ich habe seinerzeit auf B550 gewechselt, vorher hatte ich ein B350M-A im anderen PC. Das Board tat was es sollte, aber 3200+ waren einfach nicht drin. Beim B550 konnte ich mit einem R7 1700 sogar die 3600 beim ersten Anlauf booten, natürlich waren sie nicht stabil, 3200-3466 hingegen schon.

Dass AM4 so viele CPUs unterstützt war / ist für mich ein Grund bei AMD zu bleiben. Vorerst. Die neuen Intels verlocken schon ein bisschen, wenn das so bleibt könnte es sein dass ich irgendwann wechsele wenn ich auf DDR5 umsteige. In 2-3 Jahren. Ryzen war toll bis die Preise stiegen, nun steht Intel preislich fast besser da. Einzig die Boards sind günstiger bei AMD. Ich verstehe auch nicht wieso die so teuer sind für Intel.
 
Wobei aber die Frage ist, wer noch mit einer 10 Jahre alten CPU auskommt, und selbst dann ist spätestens wenn man auf Win 11 updaten muss weil der Support für Win 10 endet, ein Upgrade nötig.
Ich behaupte Mal so gut wie jeder. 2012 ist ivy Bridge rausgekommen und ich wage zu behaupten, dass man damit auch 2022 noch sehr weit kommt als privat Anwender ;) natürlich sind neuere CPUs schneller. Alleine weil deutlich mehr Kerne bzw. Threads, aber schneller != "Auskommen"
 
Auskommen hängt immer auch von den Ansprüchen ab, aber spätestens wenn der Support für Win 10 endet, wird es nicht mehr reichen ob einem die Leistung der CPU und die Features (vor allem Schnittstellen) der Plattform reichen. Vergiss nicht, dass man bei Ivy Bridge kaum ein Mainboard findet, welches von einer NVMe SSD booten kann.
 
Ein künstliches Windowsproblem. Auch dafür gibt es einfachere Lösungen.
 
Ich behaupte Mal so gut wie jeder. 2012 ist ivy Bridge rausgekommen und ich wage zu behaupten, dass man damit auch 2022 noch sehr weit kommt als privat Anwender ;) natürlich sind neuere CPUs schneller. Alleine weil deutlich mehr Kerne bzw. Threads, aber schneller != "Auskommen"
Besonders SB-E à la 3930k. 6c/12t, läuft bei mir im Zweitsystem auf 4,8GHz und ist damit fast so schnell wie ein R5 2600 im CB R20.
 
Ich behaupte Mal so gut wie jeder. 2012 ist ivy Bridge rausgekommen und ich wage zu behaupten, dass man damit auch 2022 noch sehr weit kommt als privat Anwender ;) natürlich sind neuere CPUs schneller. Alleine weil deutlich mehr Kerne bzw. Threads, aber schneller != "Auskommen"
Solange man nicht spielt oder anderweitig viel Leistung braucht, wird man mit solchen CPUs vmtl. noch sehr weit kommen.Von der Win11 Thematik mal abgesehen.
 
Just my two cents:
AMD hat bei der Vorstellung des Sockel AM4 gesagt, diesen bis 2020 (kann man auch als bis Ende 2019 lesen) zu unterstützen.
Ob unterstützen nun heißt, dass alle Mainboards alle Prozessoren nutzen können, oder dass bis dahin neue Prozessoren für den Sockel (aber nicht für die alten Chipsätze) erscheinen ist eine Interpratationssache.
2019 war Zen 2 aktuell und die werden auch von allen Mainboards mit 300er Chipsätzen unterstützt.
Da Zen 3 erst Ende 2020 erschienen ist, ist es doch eigentlich ein Goodie, dass die Kompatibilität jetzt doch noch hergestellt wird.
:coffee3:
 
Stellt Euch mal vor AMD hätte mit den Mehrkernern im Mainstream Bereich nicht angefangen. Intel würde jetzt noch Quads ausliefern.:wink:
Was völlig egal wäre. Denn die Softwareentwicklung müsste / wäre gezwungen "effizienter" zu arbeiten :p

Wie langen haben wir 6-8+ Kerner im
consumer bereich? Wie viel Software /
Games gibt es aktuell die 6-8 Kerner
tatsächlich (auf allen Kernen) auslasten /
diese auch "optimal" nutzen können?
 
Nun könnte man aber auch genauso argumentieren, dass es sicher schon mehr Software gäbe, wenn man früher 6+ Kerne im Consumer gehabt hätte.
Intel hat den ersten 6c Q4-2017 gebracht (Skylake v3 aka Coffee Lake / 8000er) und den ersten 8c Q4-2018 (Skylake v4 aka Coffee Lake v2 / 9000er).

Ich jedenfalls bin Froh, dass AMD 2017 aus dem Tiefschlaf erwacht ist und Bewegung in den Markt gebracht hat, auch wenn ich selber Zen und Zen+ noch nicht gekauft habe/hätte.
Und auch wenn nicht jedes Spiele alle Kerne nutzt, ist es doch schön, dass man nicht mehr - wie "früher" - vorm Spielen erstmal alle möglichen Hintergrundanwendungen schließen muss. :d
 
Was völlig egal wäre. Denn die Softwareentwicklung müsste / wäre gezwungen "effizienter" zu arbeiten :p

Wie langen haben wir 6-8+ Kerner im
consumer bereich? Wie viel Software /
Games gibt es aktuell die 6-8 Kerner
tatsächlich (auf allen Kernen) auslasten /
diese auch "optimal" nutzen können?
Ist halt immer das Henne-Ei Problem, gibt es die Hardware nicht, wird nicht darauf optimiert oder wird schon für mehr Kerne optimiert, so das es sich lohnt entsprechende Hardware zu verwenden => Es ist ein Vorteil für den User.
Ist echt schwer, im Prinzip müssen sich die Industrien halt absprechen und habe das Gefühl das eben diese Absprache nur auf seitens Intel und Nvidia gegolten hat. AMD hatte keinerlei Rolle zwischenzeitlich auf dem Markt gespielt.

Ach ja die Diskussion mit den Fanboys muss man weglassen das führt zu nichts, Argumentation wie es gab 8 Kerne im Server und Workstation Bereich und zwischenzeitlich halt i9 (Intel HEDT). Das war halt kein Argument für Softwareentwickler dafür zu entwickeln wo die CPU 1000€ kostet, machen die ja wegen Threadripper mit bis zu 64 Kernen auch nicht -lol-
 
Ist halt immer das Henne-Ei Problem, gibt es die Hardware nicht, wird nicht darauf optimiert oder wird schon für mehr Kerne optimiert, so das es sich lohnt entsprechende Hardware zu verwenden => Es ist ein Vorteil für den User.
Ist echt schwer, im Prinzip müssen sich die Industrien halt absprechen und habe das Gefühl das eben diese Absprache nur auf seitens Intel und Nvidia gegolten hat. AMD hatte keinerlei Rolle zwischenzeitlich auf dem Markt gespielt.

Ach ja die Diskussion mit den Fanboys muss man weglassen das führt zu nichts, Argumentation wie es gab 8 Kerne im Server und Workstation Bereich und zwischenzeitlich halt i9 (Intel HEDT). Das war halt kein Argument für Softwareentwickler dafür zu entwickeln wo die CPU 1000€ kostet, machen die ja wegen Threadripper mit bis zu 64 Kernen auch nicht -lol-
Sprichst du aus Erfahrung, weil du Softwareentwickler bist, oder ist dies einfach nur eine stupide, Dunning-Kruger geprägte Stammtischparole?

Mit dem Phenom II X6 gab es schon seit 2010 6 Kerner im Desktop-Bereich. Warum auch immer Software bzw. dessen Entwickler unterscheiden sollten, ob die CPUs nun als Desptop oder HEDT deklariert werden :stupid:
 
Sprichst du aus Erfahrung, weil du Softwareentwickler bist, oder ist dies einfach nur eine stupide, Dunning-Kruger geprägte Stammtischparole?

Mit dem Phenom II X6 gab es schon seit 2010 6 Kerner im Desktop-Bereich. Warum auch immer Software bzw. dessen Entwickler unterscheiden sollten, ob die CPUs nun als Desptop oder HEDT deklariert werden :stupid:
Weil damals alle auf Intels Hyperthreading fixiert waren und deren Dualcores, Intel hatte sich mit den Core i in Marktvorherrschaft gepusht + die Kartelle mit ausgewählten großen Distributoren.
Der Mainstream hatte nicht mehr, Dual Core mit HT war die Breite Masse (4Threads) und die kastrierten CPUs ohne HT hatte auch nur 4 Threads Das High End waren 4 Kerne +HT (Das waren damals schon die Enthusiasten CPUs), für die Hand voll 6 Kerner zu optimieren hatte sich technisch wie auch wirtschaftlich nicht gelohnt. Ich hatte damals auch einen Core i 920 mit OC, nach dem Athlon x64 x2, die meisten Games liefen mit 1- max. 4 Threads. Der IPC Sprung auf 1 Kern war damals ziemlich stark, auch in Kombination mit dem Tripplechannel Memory Interface.
Man weiß ja das Mehrkernoptimierung aufwändig ist und nicht klickie-buntie ist.

In der heutigen Zeit ist es allerdings leichter geworden auf mehr Threads/Kerne zu skalieren, vor allem wenn man vorgefertigte Engines verwendet die man nicht selbst entwickeln muss die sich schon die Arbeit gemacht haben den Aufwand der Mehrkernauslastung zu entwickeln..
Sprichst du aus Erfahrung, weil du Softwareentwickler bist, oder ist dies einfach nur eine stupide, Dunning-Kruger geprägte Stammtischparole?

Mit dem Phenom II X6 gab es schon seit 2010 6 Kerner im Desktop-Bereich. Warum auch immer Software bzw. dessen Entwickler unterscheiden sollten, ob die CPUs nun als Desptop oder HEDT deklariert werden :stupid:
Der unterschied ist der Marktanteil, HEDT hat einen relativ niedrigen Marktanteil und die Hardware ist sau teuer.
Man muss kein Softwareentwickler sein um sich die Entwicklung der Hardwarehistorie anzuschauen, ich mein ich hab alles mitgemacht.

EDIT:
Nicht zu vergessen, der limitierende Unterbau Namens Windows XP (Home/Starter) damals, bis die Breite Masse Windows7 hatte.
Der Scheduler von XP hatte schon so seine Probleme mit Multithreading und war nicht wirklich gut.
Erst ab Windows 7 lief alles butterweich, dann hatte Direct-X kein Multithreading unterstützt zumindest nicht Problemlos, erst ab DX11 lief das ordentlich.

Deshalb das Henne-Ei Problem, einerseits gab es keine vernünftige Softwareunterstützung und auf der anderen Seite Hardwaretechnisch keine ordentliche Verbreitung.
Achja die ersten Games die Multithreading unter anderem forciert haben, waren Physics gesponserte Games von Nvidia... da AMD keinen Zugang zu AGEIA Physics hatte, wurde das per Software(CPU) verarbeitet.
Man war froh wenn das Game auf Phyics low einigermaßen gelaufen ist, bei den Games das feature nicht deaktiviert werden konnte.
 
Zuletzt bearbeitet:
Das war halt kein Argument für Softwareentwickler dafür zu entwickeln wo die CPU 1000€ kostet, machen die ja wegen Threadripper mit bis zu 64 Kernen auch nicht
Wer selbst keine Software entwickelt, hat natürlich keine Ahnung von dem Thema und dies scheint auf viele hier zuzutreffen, aber man kann nicht alles parallelisieren, nicht jede Problem erlaubt es nämlich dies parallel zu lösen und selbst bei denen die es erlauben, lohnt es sich nicht immer, da es einen deutlichen Overhead bedeutet einen neuen Thread zu starten. Dann muss man die Daten auch noch zwischen Threads austauschen und die Threads synchronisieren. Daher skaliert auch keine Software 100% mit der Anzahl der Kerne und es hängt sehr vom jeweiligen Programm ab, wie gut es über mehr Kerne skalieren kann.

Sowas wie Cinebench lässt sich sehr gut auch massiv parallelisieren, da hier jeder Thread für sich auf einem kleinen Teil der Daten arbeitet und nur am Anfang die Aufgabe zugewiesen bekommt und am Ende die Daten abliefert, was relativ wenig Overhead bedeutet, aber je mehr Kerne es gibt, umso größer wird die Last auf dem Thread der diese Arbeit macht und bei bei ganz vielen, langsamen Kernen würde er es irgendwann nicht mehr schaffen den anderen ihre Arbeit zuzuweisen und diese damit auch auslasten zu können. Dann könnte der Softwareentwickler natürlich diese Aufgabe auch parallelisieren indem er etwa das Bild vorab in 4 Bereiche aufteilt und dann 4 Threads macht die jeweils die kleine Teilbereiche davon an die anderen Threads zur Bearbeitung verteilen.

Aber längst nicht jedes Problem ist so gut parallelisierbar, nimm ein Tennisspiel, da gibt es zwei Spieler und einen Ball und alle drei interagieren die ganze Zeit miteinander, verschiedene Threads für die Bewegung der Spieler und die des Balls, müssten also ständig miteinander kommunizieren und aufeinander synchronisiert werden, was alleine schon verhindert, dass sie jeweils einen Kern voll auslasten könnten. Da bringt es dann auch nichts noch mehr Threads zu starten, etwa um um die Bewegung einzelner Körperteile der Spieler zu berechnen, wenn diese am Ende doch alle miteinander kommunizieren und aufeinander synchronisiert werden müssen, was Overhead bedeutet und damit Zeit kostet.

Es ist eben nicht jedes Problem mit vielen Threads besser lösbar und es ist nicht immer die Faulheit der Softwareentwickler daran schuld, dass nicht jedes Programm auch viele Kerne einer CPU auslasten kann. Wer dies aber trotzdem glaubt, der kann ja selbst seine eigene, extrem parallelisierte Software schreiben und wenn die wirklich gut ist, kann er damit auch Geld verdienen, andernfalls wird er ggf. merken wieso die anderen Entwickler ihre Software eben nicht so parallelisiert haben, wie er sich das als Anwender gewünscht hätte.
 
Der Mainstream hatte nicht mehr, Dual Core mit HT war die Breite Masse (4Threads) und die kastrierten CPUs ohne HT hatte auch nur 4 Threads Das High End waren 4 Kerne +HT (Das waren damals schon die Enthusiasten CPUs), für die Hand voll 6 Kerner zu optimieren hatte sich technisch wie auch wirtschaftlich nicht gelohnt. Ich hatte damals auch einen Core i 920 mit OC, nach dem Athlon x64 x2, die meisten Games liefen mit 1- max. 4 Threads. Der IPC Sprung auf 1 Kern war damals ziemlich stark, auch in Kombination mit dem Tripplechannel Memory Interface.
Und da haben wir die nächste Stammtischparole: Es wUrDe jA nUr AuF 4 KeRnE oPtImIeRt..

Wenn dies ja angeblich bei Software von der Stange gemacht wurde, dann erkläre doch einmal, wie genau das gemacht wurde. Zeig mir entsprechende Code-Schnipsel. Oder ist dies wieder nur irgendetwas, was du dir aufgrund von fehlendem Wissen versuchst an irgendwelchen Faktoren zusammenzureimen?

Als Softwareentwickler interessiert es mich in den meisten Fällen nicht wirklich, ob meine Software letztendlich auf 1, 2, 3, 4, 5 oder wie vielen Kernen auch immer meine Software läuft. Sobald sich ein Workload sinnvoll parallelisieren lässt, schreibe ich meinen Code so, dass dieser auf mehrere Threads aufgeteilt werden kann und achte darauf, dass dieser auch wirklich Thread-Safe ist. Dabei unterscheide ich dann, was wirklich CPU Power benötigt und was eher durch die I/O limitiert ist und lasse dies dann im entsprechenden ThreadPool laufen. Die Anzahl der Threads in dem ThreadPool für CPU-Bound-Work ist i.d.R auf die Kernanzahl des System beschränkt und der für I/O Operationen kann auch mehr beherbergen. Um es einmal ganz abstrakt darzustellen.

Man weiß ja das Mehrkernoptimierung aufwändig ist und nicht klickie-buntie ist.
Man weiß ja, dass Multithreading nicht in jedem Szenario eine Möglichkeit ist, die Performance einer Software zu verbessern, sondern diese auch verschlechtern kann, wenn beispielsweise der Verwaltungsoverhead größerer ist, als der eigentliche Vorteil durch die Parallelisierung. Auch weiß man ja, dass man nicht immer durch die CPU-Leistung limitiert ist, sondern auch durch die I/O limitiert sein kann.

In der heutigen Zeit ist es allerdings leichter geworden auf mehr Threads/Kerne zu skalieren, vor allem wenn man vorgefertigte Engines verwendet die man nicht selbst entwickeln muss die sich schon die Arbeit gemacht haben den Aufwand der Mehrkernauslastung zu entwickeln..
Die Engines gibt es aber nicht erst seit Gestern, sondern gab es diese auch damals schon. Heutzutage sind Games nun einmal viel größerer als früherer mit deren immer größerer werdenden Welten und benötigen dem bedingt mehr Ressourcen.

Der unterschied ist der Marktanteil, HEDT hat einen relativ niedrigen Marktanteil und die Hardware ist sau teuer.
Einen 5820k konnte man oft genug zu ähnlichem Preisen eines 6700k erwerben, teilweise sogar zu einem geringeren Preis.

Man muss kein Softwareentwickler sein um sich die Entwicklung der Hardwarehistorie anzuschauen, ich mein ich hab alles mitgemacht.
Also bist du kein Softwareentwickler und hast auch gar keine Ahnung von Softwareentwicklung. Warum nimmst du dir dann heraus über einen Sachverhalt zu urteilen, in dem du keinerlei Kompetenz besitzt und auch keine Ahnung von hast?

Wie zuvor vermutet, doch nur ein weiteres Beispiel für den Dunning-Kruger-Effekt. 🤷‍♂️

dann hatte Direct-X kein Multithreading unterstützt zumindest nicht Problemlos, erst ab DX11 lief das ordentlich.
Das hinderte Entwickler inwiefern daran, die Game Logik oder andere Sachen drumherum auf mehrere Threads aufzuteilen?
 
Also bist du kein Softwareentwickler und hast auch gar keine Ahnung von Softwareentwicklung. Warum nimmst du dir dann heraus über einen Sachverhalt zu urteilen, in dem du keinerlei Kompetenz besitzt und auch keine Ahnung von hast?

Wie zuvor vermutet, doch nur ein weiteres Beispiel für den Dunning-Kruger-Effekt. 🤷‍♂️
Nicht jeder KFZ-Mechaniker hat Ahnung von Elektroautos nur weil er KFZ-Mechaniker ist.
Ich gehen einfach davon aus, das zur damaligen Zeit die Entwickler einfach auch keine Ahnung hatten wie man das sinnvoll macht und sich damit nicht wirklich beschäftigt hatten.
Ich arbeite auch zufällig mit Softwareentwicklern zusammen und ich kann dir leider sagen, dass nicht jeder Qualifiziert ist nur weil er den Titel trägt.
Das hinderte Entwickler inwiefern daran, die Game Logik oder andere Sachen drumherum auf mehrere Threads aufzuteilen?
Mir wurde beigebracht so viel wie möglich an Workflow zu parallelisieren. Das macht man auch in Projekten auch so, dafür muss man kein Softwareentwickler sein.
Es macht nicht in jedem Szenario sinn, aber es ist immer grundsätzlich sinnvoll Arbeit zu verteilen und zu parallelisieren wenn möglich.
Passiert in einer Kette ein Fehler muss die gesamte Kette wieder neu gemacht werden, hast du das auf mehrere Stränge verteilt muss nur der fehlerhafte Strang neu gemacht werden in der Zeit müssen halt die anderen Warten, wenn der nachfolgende Prozess von dem Ergebnis aller Objekte abhängt, aber es geht unterm strich schneller, da die Teilstränge kürzer sind und weniger aufwändig ist.
Einen 5820k konnte man oft genug zu ähnlichem Preisen eines 6700k erwerben, teilweise sogar zu einem geringeren Preis.
Da ging es ja auch schon los das mehr Threads ausgelastet wurden.
Rate mal um welches Spiel es sich hier handelt:
1649003742512.png

VERÖFFENTLICHUNG: 29. Okt. 2013 -> BF4
AMD CPUs hatten kein SMT/HT, also waren es 6-8 Threads (Hexa-Cores/Octa-Cores), während Intels Quadcores HT hatten und 8 Threads. 2014 kam dann der 5820k auf denn Markt gegen ende des Jahres im Sommer-Herbst.. 2012 war auch der Anteil an Quadcores mit HT häufiger wie auch AMDs Hexa Cores.
Deshalb bleibe ich dabei, beim Henne-Ei Problem auf der einen Seite brauchst du die Worker um das darauf zu realisieren und auf der anderen Seite brauchst du die Arbeit die alle Worker beschäftigen kann.
 
Ich gehen einfach davon aus, das zur damaligen Zeit die Entwickler einfach auch keine Ahnung hatten wie man das sinnvoll macht und sich damit nicht wirklich beschäftigt hatten.
Ich arbeite auch zufällig mit Softwareentwicklern zusammen und ich kann dir leider sagen, dass nicht jeder Qualifiziert ist nur weil er den Titel trägt.
Vielleicht hatten die Softwareentwickler keine Ahnung mit denen du zusammenarbeitest, es gibt wie in jedem Beruf Gute und nicht so Gute und die wirklich guten sind selten. Aber gehe mal davon aus, dass die guten Softwareentwickler sehr wohl Ahnung haben wie man sinnvoll parallelisiert und dies auch machen, sofern ihnen die Zeit dafür gegeben wird dies zu tun, denn der Aufwand bei der Entwicklung und Validierung ist natürlich höher. Daher hängt es nicht nur von den Softwareentwicklern ab ob sie das machen, sondern auch von dem der ihre Arbeit bezahlt.
Mir wurde beigebracht so viel wie möglich an Workflow zu parallelisieren. Das macht man auch in Projekten auch so, dafür muss man kein Softwareentwickler sein.
Eben, aber wenn man ein Haus baut, kann man auch nicht gleichzeitig das Fundament ausheben, tapezieren und das Dach decken.
Deshalb bleibe ich dabei, beim Henne-Ei Problem auf der einen Seite brauchst du die Worker um das darauf zu realisieren und auf der anderen Seite brauchst du die Arbeit die alle Worker beschäftigen kann.
Das ist aber kein Henne-Ei Problem, sondern eine Frage dessen was die Software machen soll. Du kannst alle nötigen Handwerker und Materialien an den Bauplatz für ein Haus bringen, aber bevor die Baugrube nicht ausgehoben ist, kann das Fundament nicht gegossen werden, bevor das Fundament nicht getrocknet ist, kannst Du keine Mauern hochziehen, da können mehrere daran arbeiten, aber bevor die Mauern nicht stehen, kann man den Dachstuhl nicht zimmern (außer man hat Kräne und Platz um den später drauf zu heben) und bevor der Dachstuhl nicht steht, können die Dachdecker auch das Dach nicht decken. Man kann eben nicht immer alles parallel machen, wenn die Leute nicht nur ein Haus, sondern eine ganze Siedlung hochziehen müssen, dann kann man die ganzen Bauarbeiter die meisten Zeit parallel an verschiedenen Häusern beschäftigen, aber dies ist dann wieder eine anderen Aufgabe als nur ein Haus zu bauen.
 
Warum habe ich die ganze Zeit den Gedanken, das wir diese ellenlange Diskussion nicht führen würden, wenn Intel als erster im Mainstream Bereich 6- Kerner und darüber angeboten hätte!!??
 
Warum habe ich die ganze Zeit den Gedanken, das wir diese ellenlange Diskussion nicht führen würden, wenn Intel als erster im Mainstream Bereich 6- Kerner und darüber angeboten hätte!!??
ich weiß es nicht:
Der 7700K hatte damals soviel gekostet wie heute ein Ryzen 5900X 12 Kerner
1649009529392.png

Ich glaube insgesamt ist es nicht nur die Anzahl der Kerne sondern auch der Preis. Ich meine aktuell geht es doch: Intel kann günstig und Intel kann Cores.... ein Schelm wer böses dabei denkt.
 
Viele A320M Boards gibt es um ~20€ und hatte vor eines zu kaufen. Besteht da die Gefahr ein Board mit einem Bios zu erwischen welches z.B einen Ryzen 1600 nicht mehr unterstützt? Plane da für jemanden den PC von einem i5 3450 aufzurüsten, steige aber kaum noch durch wie die derzeitige Situation ist was den Support von der 1xxx Gen betrifft
 
Viele A320M Boards gibt es um ~20€ und hatte vor eines zu kaufen. Besteht da die Gefahr ein Board mit einem Bios zu erwischen welches z.B einen Ryzen 1600 nicht mehr unterstützt? Plane da für jemanden den PC von einem 3440 aufzurüsten, steige aber kaum noch durch wie die derzeitige Situation ist was den Support von der 1xxx Gen betrifft
Es sollte einfach zwei Bios Varianten geben, die ausgelieferten sind mit der alten Generation kompatibel. Wird ein update gemacht, verliert man den Support. Man könnte aber mit einem modernen Prozessor auch wieder zurück flashen auf ein altes Bios. Nur mit einer alten CPU und aktuellem BIOS kannst du halt nicht zurück flashen.

Nachtrag: https://www.asus.com/de/support/FAQ/1044348
Leider ist das nicht einheitlich, jeder Hersteller kocht da sein eigenes Süppchen.
 
Zuletzt bearbeitet:
Viele A320M Boards gibt es um ~20€ und hatte vor eines zu kaufen. Besteht da die Gefahr ein Board mit neuestem Bios zu erwischen welches z.B einen Ryzen 1600 nicht mehr unterstützt?
Da bei Geizhals das günstigste AM4 Board für über 30€ gelistet wird, dürfte es für 20€ wohl ein gebrauchtes Board sein. Da kannst Du doch den Verkäufer fragen welche BIOS Version drauf ist und dann in der CPU Supportliste des Mainboards nachschauen ob diese Version den RYZEN 1600 unterstützt und wenn nicht, kann der Verkäufer ja vielleicht eine passende BIOS Version aufspielen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh