AMD Ryzen 9 3800X mit 16 Kernen taucht in Datenbank auf

Holzman, von den 24 Lanes gehen 4 für den externen Chipsatz ab und die Grakas oder PCIe SSDs müssten PCIe 4.0 lanes haben um mit halb so vielen Lanes die gleiche Bandbreite zu haben, wenn sie nur PCIe 3.0 Lanes haben, dann laufen auch die PCIe 4.0 Lanes nur mit den 8Gb/s von PCIe 3.0 Lanes. Nur weil die Lanes doppelt so schnell sind, werde es ja auch nicht mehr.

Das hatte ich aber damals schon im Thread zur News " AMD Ryzen 3000 soll mit neuem X570-Chipset mit PCIe 4.0 zur Computex 2019 starten" geschrieben in dem du auch aktiv warst. Das Thema sollten wir hier wirklich nicht nochmal durchkauen müssen, nur weil hier wieder solche Aussagen wie "vier M.2 PCIe-SSDs" kommen, die eben nur in dem Sinne stimmen, dass eine PCIe SSDs natürlich nicht mehr als eine Lane braucht um zu funktionieren, nur ist die Performance dann eben mies. Man kann dann zwar mit PCIe Switches die PCIe 4.0 Uplink haben die Bandbreite von PCIe 4.0 Lanes auf doppelt so viele PCIe 3.0 Lanes aufteilen, aber solche Chips gibt es noch nicht und wenn sie kommen, werden sie wie die jetzigen PLX sehr teuer sein und viel Strom brauchen. Da es bisher schon kein AM4 Board mit einem PLX Chip gibt, wird sich dies bei denen mit PCIe 4.0 kaum ändern.

Das Video über die Interposer ist mal wieder feuchte Träume von AdoredTV, nicht mal Rome hat Interposer (wie der Abstand der Chiplets zeigt), die sind anderes als der Typ meint nämlich richtig teuer und werden kaum Interposer in den RYZEN 3000 verbaut sein. Schön ist nur, dass er selbst die Taktraten der 64 Kerner zeigt und die besten da gerade mal knapp über 3GHz kommen, wenn sie eben als MCM statt monolitischer Die gebaut werden, was eben darauf deutet, dass es nicht die Leistungsaufnahme ist die die Taktraten hier beschränkt, sondern rein die Fertigung und Architektur.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wer hat denn in Stein gemeißelt, dass Ryzen genauso aufgebaut werden muss wie Rome?
Bzgl. der Taktraten scheinst du das Video wohl nur überflogen zu haben, denn das sind alles Werte einer theoretischen CPU lol.
 
Zuletzt bearbeitet:
Wer hat denn in Stein gemeißelt, dass Ryzen genauso aufgebaut werden muss wie Rome?
Bzgl. der Taktraten scheinst du das Video wohl nur überflogen zu haben, denn das sind alles Werte einer theoretischen CPU lol.

In Stein gemeißelt ist es nicht, aber das war die bisherige Taktik von AMD, damit sie günstig produzieren können.. Ein Chiplet / CCX für alle CPUs und dann mit MCM verbunden..
 
Ähnlich ermüdend wie die immer wiederkehrende Leier: 10 Jahre nur Quadcore, deswegen kann Software nur 4 Kerne nutzen, die wurde ja immer auf 4 Kerne optimiert.

Diese 10 Jahre waren bestimmt ausschlaggebend, oder warum nutzen immer mehr Spiele mehr Kerne?
Gabs da nen Meilenstein in der Softwarentwicklung den ich nicht mitbekommen habe?

Natürlich gibt es bei Software Limitierungen aber es könnte mittlerweile schon deutlich besser aussehen.
Aber, Paddy92 to the rescue :hust:


@croni-x schon klar, muss aber jetzt nicht unbedingt bedeuten, dass es so kommt.
Zumal ein Interposer, der so groß ist wie der AM4 Sockel lächerlich günstig wäre, da eben diese mit älteren, deutlich günstigeren Fertigungsgrößen produziert werden können.

Wir werden sehen was es wird.
 
Zuletzt bearbeitet:
Gibt überhaupt verlässliche Info wann die neuen Ryzen 3xxx kommen?

Leider nein.. Ich gehe von Mai aus :( zumindest Infos auf die man sich einigermaßen verlassen kann.

Diese 10 Jahre waren bestimmt ausschlaggebend, oder warum nutzen immer mehr Spiele mehr Kerne?
Gabs da nen Meilenstein in der Softwarentwicklung den ich nicht mitbekommen habe?

Naja nicht Software Entwicklung sondern die Konsolen haben mit ihren MT Spielen schon zur Entwicklung von neuen Engines die 4 Kerne unterstützen beigetragen.

Leider ist aber nicht jede Software parallelisierbar..
 
croni-x, schon bisher gibt es zwei Dies, nämlich ein eigenes Die für die Raven Ridge APUs mit einem CCX und der GPU darauf und eben kein MCM mit CPU und getrennter GPU über MCM. Es ist letztlich eine wirtschaftliche Frage ob es bei steigenden Verkaufszahlen weiter Sinn macht an dem Modell der gleichen Dies für alle CPUs von RYZEN bis Rome festzuhalten und dies würde bedeuten, dass man RYZEN mit einem extra I/O Chip versehen muss, was die Latenz der Zugriffe auf das RAM und die PCIe Lanes wahrscheinlich unnötig erhöht, die Kosten sowieso oder, sofern die Rome Chiplets diese Funktionen auch schon enthalten, dann deren Größe und Kosten unnötig steigen lässt, oder eben unterschiedliche Dies für beide baute, wobei die Chiplets dann sicher ihren Weg in die TR finden dürften.

Dazu kommen eben noch technische Überlegungen wie eben die Frage des Taktes den man erzielen kann, aber auch die der Kühlung, ein 7nm Chip erzeugt die Hitze ja auch auf einer kleineren Fläche. Baue ich daneben noch einen zweiten Chip, den I/O Chip, der womöglich noch auf einer anderen Fertigung stammt, so haben dies unterschiedliche Erwärmungen und damit Wärmeausdehnung und das macht es gerade mit einem verlöteten HS nicht einfach, zumal wenn man die recht nahe nebeneinander platzieren muss, was meist Du wohl wieso die Dies bei TR und EPYC so weit auseinander sind? Dies weit voneinander entfernt zu platzieren verbietet sich bei einem Interposer sowieso, der wird dann viel zu teuer und mit Interpose und verlötetem HS hat es meines Wissens noch keiner probiert. Das dürfte auch nicht einfach sein, denn dann muss man verhindern das sich nur ein Die erwärmt, dadurch ausdehnt und dann den anderen direkt daneben, der ja über Lot fest mit dem HS verbunden ist, vom Interposer rupft.
 
Diese 10 Jahre waren bestimmt ausschlaggebend, oder warum nutzen immer mehr Spiele mehr Kerne?

Wer sagt denn, dass vorher nicht mehrere Kerne genutzt wurden?

Spiele entwickeln sich immer weiter. Bessere KI, größere Open World, immer mehr Objekte/NPCs, erweiterte Gamelogik, usw. Da ist es doch logisch, dass die immer mehr Leistung benötigen und so die Anforderungen an die Hardware steigen. War eigentlich schon immer so. :fresse:


Gabs da nen Meilenstein in der Softwarentwicklung den ich nicht mitbekommen habe?

Andere Frage, aber was hat sich denn seit der Überschwemmung von Cores groß verändert in der Softwareentwicklung? Wo wurde erst durch schlechtes Multithreading Potential liegen gelassen und nun wird es ausgeschöpft?
 
Wobei das Multithreading Potential bei vielen Aufgaben kleiner sein dürfte also so mancher hier, vor allem diejenigen die selbst überhaupt keine Software entwickeln, zu glauben scheinen. Es geht eben nicht alles parallel zu berechnen und es lohnt sich wegen des ganzen Overheads der Threadverwaltung des OS nicht, jeden kleinen Mist in eigene Threads auszulagern, dies dauert am Ende nämlich nur länger. Die Frage was sich nun lohnen würde und was nicht ist obendrein nicht pauschal zu beantworten, da es von vielen Faktoren abhängt. Dazu kommt, dass der Aufwand bei der Entwicklung und Validierung der Software extrem steigt, wenn sie parallelisiert ist, dies muss auch erstmal jemand bereit zu leisten oder zu bezahlen. Vieles ist heute schon parallel programmiert wo es Sinn macht, die low hanging fruits sind also schon gepflügt worden.
 
Andere Frage, aber was hat sich denn seit der Überschwemmung von Cores groß verändert in der Softwareentwicklung? Wo wurde erst durch schlechtes Multithreading Potential liegen gelassen und nun wird es ausgeschöpft?

Um das zu verdeutlichen führe ich immer gerne das Projekt Star Citizen an, mit entzücken stellt man schon heute fest, dass bereits mehr als 16 CPU-Kerne aktiv genutzt werden, das ganze Projekt wäre auf Basis einer Vier-Kern CPU gar nicht möglich gewesen.

Chris Roberts Erfolg dabei ist es, eben gerade auch die aktuelle und zukünftig Hardware direkt mit ein zu beziehen. Wenn das Game fertig ist werden vermutlich 128 Kerne längs Einzug gehalten haben.
 
Wer sagt denn, dass vorher nicht mehrere Kerne genutzt wurden?

Spiele entwickeln sich immer weiter. Bessere KI, größere Open World, immer mehr Objekte/NPCs, erweiterte Gamelogik, usw. Da ist es doch logisch, dass die immer mehr Leistung benötigen und so die Anforderungen an die Hardware steigen. War eigentlich schon immer so. :fresse:
Keiner, aber, wenn ich von Games ausgehe werden die Entwickler sich hüten, Zeit in Optimierungen zu investieren die von der Masse garnicht genutzt werden können.
Bei professioneller Software mag das anders sein, damit verdienen aber viele ihr Geld und können somit deutlich mehr in ihre HW (Server/HEDT) investieren.
Mir gehts allerdings um den Mainstream.


Andere Frage, aber was hat sich denn seit der Überschwemmung von Cores groß verändert in der Softwareentwicklung? Wo wurde erst durch schlechtes Multithreading Potential liegen gelassen und nun wird es ausgeschöpft?

Wurde ja erst 2017 losgetreten.
Markt muss sich anpassen und hoffentlich dann zeitig auch die Software.

Leider sind die meisten Softwareentwickler auch etwas "bequem" (um es mal nett auszudrücken) was diese Optimierungen angeht, wohl der Hauptgrund warum sich DX12 bis heute nicht durchsetzen kann.

Die Konsolen zeigen doch bestens was mit so schwacher Hardware überhaupt möglich ist wenn ordentlich programmiert wird.

Ich bin kein Softwareguru und weit davon entfernt, mir ist klar, dass nicht alles parallelisierbar ist, dennoch liegt noch ordentlich Potenzial brach.
 
Zuletzt bearbeitet:
In der AMD Investor Presentation vom Januar 2019 ist nur von Zen2 im Zusammenhang mit "Zen 2 Based EYPC Processors" die Rede (S.17), bei wie dieser aus 2017 war noch generell von Zen2 die Rede (S.22), aber wo hat AMD eigentlich in letzter Zeit, also nachdem GF seine 7nm Fertigung auf Eis gelegt hat, behauptet das RYZEN 3000 Zen2 in 7nm ist? Die mobilen RYZEN 3000 werden weiterhin 12nm von GF sein und nur kleine Verbesserungen wie etwas mehr Takt aufweisen.
 
@Holt

Bisher wurden alle Ryzen auf der CES vorgestellt, außerdem: CES = Consumer Electronics Show

Die Namensgebung AMDs mobilen CPUs ist absolut bekloppt gewählt.
Leider sehr verwirrend, aber das scheinen für AMD UND Intel komplett eigene Bereiche zu sein, trotz ähnlicher Namensgebung... schade.
 
Zuletzt bearbeitet:
In der AMD Investor Presentation vom Januar 2019 ist nur von Zen2 im Zusammenhang mit "Zen 2 Based EYPC Processors" die Rede (S.17), bei wie dieser aus 2017 war noch generell von Zen2 die Rede (S.22), aber wo hat AMD eigentlich in letzter Zeit, also nachdem GF seine 7nm Fertigung auf Eis gelegt hat, behauptet das RYZEN 3000 Zen2 in 7nm ist? Die mobilen RYZEN 3000 werden weiterhin 12nm von GF sein und nur kleine Verbesserungen wie etwas mehr Takt aufweisen.

Das ist seitens AMD offiziell bestätigt worden:
Zen 2: AMD bestätigt 7-nm-CPUs von TSMC
 
Da steht:
Also "könnten" und nicht werden, die Bestätigung ist nur für die Server CPUs, nicht für die Desktop RYZEN und die mobilen 3000er RYZEN sind nur leicht überarbeitete 12nm GF Chips mit etwas mehr Takt. Zen2 könnte erstmal nur Rome only sein, RYZEN 3000 dagegen wieder 12nm von GF mit mehr Takt und es gibt meines Wissens derzeit keine Aussage von AMD die dem entgegensteht, im Gegenteil passt es zu dem Versprechen 7nm Zen2 2019 auf den Markt zu bringen, denn es kommt ja mit Rome.

Das müsste auch kein Nachteil sein, wenn man damit über mehr Takt und die bessere IPC der neuen Architektur an die Gamingperformance des 9900K rankommt. Das macht sogar mehr Sinn als mehr Kerne zu verbauen, aber dann beim Gaming doch wieder hinten zu liegen.
 
OK wenn man es genau nimmt, ist die Quelle keine Bestätigung, stimmt.

Mal sehen, das Geschrei wäre aber bestimmt riesen groß, wenn Zen2 für Desktop in 12nm erscheinen würde. :eek:
 
Mal sehen, das Geschrei wäre aber bestimmt riesen groß, wenn Zen2 für Desktop in 12nm erscheinen würde. :eek:

Denk das wird sogar passieren. 8c, max 12c, +200-400MHz und 12nm, mehr wirds nicht geben, ist das wahrscheinlichste.
Erst Threadripper wird wieder interessanter.

Hoffe es gibt trotzdem keinen Shitstorm, AMD kann ja nichts für die Leaks.. die meisten werden dann aber erstmal wieder auf den 9900k schauen.
 
7nm für Zen 2 ist so sicher wie das Amen in der Kirche, ka. was ihr für Hirngespinnste gerade habt :fresse:
 
Anarchist, bei denen die auf die Leaks reingefallen sind, wäre das Geschrei groß, aber bei der Masse der Kunden wäre es umgekehrt, denn wenn AMD dann bei der Gamingperformance an Intel ran kommt, wären die Masse sogar zufriedenere als wenn das wieder nicht klappt und es dafür zum Trost mehr Kerne gibt, denn die Games können i.d.R. mit noch mehr Kernen nichts anfangen. Die meisten würden dann zum 9900K schauen, wenn dieser in den Gamingtests weit vor den RYZEN 3000 landet.

Auch wenn nur 200 bis 400MB mehr Takt drin sind, so sollten eine Überarbeitung der Architektur noch mal 10% mehr IPC bringen, sofern AMD nicht wieder bei den RYZEN 2000 die alten Masken nimmt und nur über den Mircocode die Latenzen etwas senkt, denn genau das hat man bei den RYZEN 2000 gemacht, die Dies wurden ja nicht einmal kleiner, man hat also nicht einmal die Größenvorteil der 12nm Fertigung genutzt. Bisher geht der maximal Boosttakt bis 4,3 Ghz, nehmen 300MHz mehr als Mittelwert zwischen 200 und 400, dazu dann so 5% mehr IPC durch die Bank als bei Intels Coffee Lake und dann hätten wir 4,6GHz Boosttakt und AMD wäre schon ganz nahe dran, die fps weniger wären dann über den Preis zu rechtfertigen, dazu dann über Feature wie PCIe 4.0, was ja auch schon neue neue Masken erfordert und bei der Gelegenheit kann man auch gleich noch die Architektur optimieren. Außerdem wird ja auch der I/O Chip für Rome bei GF gefertigt und der bekommt auch PCIe 4.0, man hat dann also schon die Schaltungen für die Fertigung bei GF fertig entwickelt vorliegen.

Dies würde eben auch perfekt zu der Aussage passen:
Ein Shitstorm ist nicht gerechtfertigt, den brechen nur Leute los die den Gerüchten geglaubt oder diese wie hier im Forum mit dem Messer zwischen den Zähnen verteidigt haben, aber es gibt eben keinen Grund dafür, denn auch in der Form wären die RYZEN 3000 sehr attraktiv und eben ganz anderes als Rome.
 
Sorry, aber du bist wohl hier der, der keinen Plan hat wovon er redet.. Die non-X sind alles anderes als OC Krüppel.. die sind die einzigen Ryzen wo sich OC überhaupt noch lohnt seit der 2000 Reihe (Zen+). Die 2000X benötigen eigentlich garkein OC mehr, weil sie von selbst im Maximum laufen. Ganz findige OCer bzw. Perlen bilden hier die starke Ausnahme und erreichen vielleicht noch 1-3% mehr Leistung.

Zen2 mag vielleicht eine komplett neue CPU sein, aber im Prinzip nutzt Zen2 immernoch die selbe Architektur der Recheneinheiten von Zen.. nur da drum herum, also die Anbindungen der eigentlichen Recheneinheiten/Kerne wurde stark verändert. Inwiefern das jetzt eine neue Architektur, ein Upgrade, eine Evolution ist... wer definierts :X

4100MHz AC(auto) vs. 4375(bzw. 4450 max.)MHz AC ist eigentlich schon ein wenig mehr als 3% mehrleistung... und klar muss man glück haben, und trotzdem brauchen die non-X im schnitt 0.1V mehr für den gleichen takt und gehen 200MHz früher die puste aus... ergo: zu nix zu gebrauchen... sind halt die abfallcores, die weder für TR noch für die X reichen.

- - - Updated - - -

Da steht: Also "könnten" und nicht werden, die Bestätigung ist nur für die Server CPUs, nicht für die Desktop RYZEN und die mobilen 3000er RYZEN sind nur leicht überarbeitete 12nm GF Chips mit etwas mehr Takt. Zen2 könnte erstmal nur Rome only sein, RYZEN 3000 dagegen wieder 12nm von GF mit mehr Takt und es gibt meines Wissens derzeit keine Aussage von AMD die dem entgegensteht, im Gegenteil passt es zu dem Versprechen 7nm Zen2 2019 auf den Markt zu bringen, denn es kommt ja mit Rome.

Das müsste auch kein Nachteil sein, wenn man damit über mehr Takt und die bessere IPC der neuen Architektur an die Gamingperformance des 9900K rankommt. Das macht sogar mehr Sinn als mehr Kerne zu verbauen, aber dann beim Gaming doch wieder hinten zu liegen.

Zen2 kommt in form von ryzen3 dieses frühjahr auf den markt, und das ganze in 7nm...

12nm sind nur die APUs...
 
Ähnlich ermüdend wie die immer wiederkehrende Leier: 10 Jahre nur Quadcore, deswegen kann Software nur 4 Kerne nutzen, die wurde ja immer auf 4 Kerne optimiert.

was aber auch stimmt... beste beispiel: adobe programme, mit mehr als 4C/8T können die einfach nicht... und das ist nicht nur tragisch, sondern auch traurig... darum empfehle cih auch jeden der ernsthaft mit PS arbeitet nen intel, da dort das taktplus mehr bringt als die theoretische mehrleistung bei AMD derzeit.

- - - Updated - - -

Ryzen 3000, nicht Ryzen 3!

ryzen 1 = 1*00(X) = Zen1
ryzen 2 = 2*00(X) = Zen+
ryzen 3 = 3*00(X) = Zen2
 
Wobei das Multithreading Potential bei vielen Aufgaben kleiner sein dürfte also so mancher hier, vor allem diejenigen die selbst überhaupt keine Software entwickeln, zu glauben scheinen. Es geht eben nicht alles parallel zu berechnen und es lohnt sich wegen des ganzen Overheads der Threadverwaltung des OS nicht, jeden kleinen Mist in eigene Threads auszulagern, dies dauert am Ende nämlich nur länger. Die Frage was sich nun lohnen würde und was nicht ist obendrein nicht pauschal zu beantworten, da es von vielen Faktoren abhängt. Dazu kommt, dass der Aufwand bei der Entwicklung und Validierung der Software extrem steigt, wenn sie parallelisiert ist, dies muss auch erstmal jemand bereit zu leisten oder zu bezahlen. Vieles ist heute schon parallel programmiert wo es Sinn macht, die low hanging fruits sind also schon gepflügt worden.

Genau das ist ja das Problem. Die wissen es einfach nicht und können es sich auch nicht vorstellen. Die reimen sich dann irgendetwas zusammen und das ist dann Fakt. Immer wieder liest man die gleichen, sinnfreien Pauschalen, aber wirklich ändern tut sich nichts, obwohl es sich doch laut deren Thesen "verbessern" müsste..


Um das zu verdeutlichen führe ich immer gerne das Projekt Star Citizen an, mit entzücken stellt man schon heute fest, dass bereits mehr als 16 CPU-Kerne aktiv genutzt werden, das ganze Projekt wäre auf Basis einer Vier-Kern CPU gar nicht möglich gewesen.

Gerade solche Simulationen sind auch genau die Vorzeige Szenarien, die sich perfekt in die Breite skalieren lassen, was bei anderen Genres hingegen nicht so einfach möglich ist. Da wird schön an den eigentlichen Limitierungen vorbei entwickelt (nicht negativ gemeint), sodass dieses gar nicht erst auffallen.

computerbase.de schrieb:


Wurde ja erst 2017 losgetreten.
Markt muss sich anpassen und hoffentlich dann zeitig auch die Software.
Leider sind die meisten Softwareentwickler auch etwas "bequem" (um es mal nett auszudrücken) was diese Optimierungen angeht, wohl der Hauptgrund warum sich DX12 bis heute nicht durchsetzen kann.
Die Konsolen zeigen doch bestens was mit so schwacher Hardware überhaupt möglich ist wenn ordentlich programmiert wird.

Es liegt aber nicht immer nur an den Softwareentwicklern. Oft sind Gründe für fehlende Optimierungen fehlende Zeit - man kann ja ruhig Patches nach schieben - oder auch Geld. Hinzukommen, dass in Unternehmen Entscheidungen getroffen werden, auf welche du wenig bis kein Einfluss hast..

Die Konsolen zeigen vieles, z.B. warum wir LL-APIs wollen/brauchen oder was am PC retuschiert wird.

Die Konsolen haben im Gegensatz zum PC eine sehr schwache Singlethreadleistung und müssen daher über die Breite gehen. Am PC ist das nicht wirklich anders. Dies kann man z.B. hier ganz gut sehen: Ghost Recon Wildlands: GPU- und CPU-Benchmarks aus der Finalversion [Update]
Preisfrage: Verschwindet die gute Kernskalierung plötzlich oder wird sie einfach nur retuschiert, weil man in ein anderes Limit rennt?
Und jetzt denk mal weiter. Bei dem Beispiel wird dann offensichtlich die GPU zum limitierenden Faktor und retuschiert die Kernskalierung. Aber was passiert, wenn auch dieses Limit beseitigt wird und anschließend etwas nicht so offensichtliches limitiert, wie z.B. ein API-Limit?

Auch noch so ein Punkt "Die Konsolen zeigen doch bestens was mit so schwacher Hardware überhaupt möglich ist wenn ordentlich programmiert wird". Das hat nichts mit ordentlicher Programmierung zu tun, sondern dass es da andere Möglichkeiten gibt. Die Dx11 API der Xbox wurde um LL-API-Features erweitert: "The Xbox One, as you may recall, uses Microsoft’s Direct3D 11.X API. This details of this API are scarce as they’re only open to registered Xbox One developers, but fundamentally it’s said to be a variant of Direct3D 11 with a number of Xbox One additions, including low level API features that would be suitable for programming a console". Das ist doch, was wir auch am PC haben wollen.


Ich bin kein Softwareguru und weit davon entfernt, mir ist klar, dass nicht alles parallelisierbar ist, dennoch liegt noch ordentlich Potenzial brach.

Und da liegt das Problem. Schimpft sich Dunning-Kruger-Effekt.
Warum Fakten, wenn ich doch meine Meinung habe...


was aber auch stimmt... beste beispiel: adobe programme, mit mehr als 4C/8T können die einfach nicht... und das ist nicht nur tragisch, sondern auch traurig... darum empfehle cih auch jeden der ernsthaft mit PS arbeitet nen intel, da dort das taktplus mehr bringt als die theoretische mehrleistung bei AMD derzeit.

Klar, weil man die letzten 10 Jahre auch nur auf Quadcores limitiert war... Ist dir vielleicht schon einmal in den Sinn gekommen, dass sich einfach nicht alles parallelisieren lässt?
 
Mit 24 PCIe-4.0 Lanes könnte man z.B. zwei Grafikkarten in SLI/CF betreiben und hätte immer noch genug Lanes für vier M.2 PCIe-SSDs. Natürlich im Standard 3.0, aber hier auch soll ja 4.0 kommen.
Könntest du dann noch erklären welchen Vorteil man mit einer M.2 PCI-E SSD hat?
Startet dann der PC schneller? Wenn ja, um wie viele Millisekunden?
Starten Programme schneller?
Wird dadurch überhaupt irgendwas schneller?
Werden PCI-E SSD wärmer?
Müssen diese auch gekühlt werden?
Sind PCI-E SSD teurer?

Mich erinnert diese PCI-E SSD Diskussion immer an Menschen die ihre 15PS mehr bei einem 300PS Autos hervorheben, die letztlich nur in einer um 2km/h höheren Endgeschwindigkeit münden. Doch diese Endgeschwindigkeit wird aber selten bis nie erreicht, weil die Strecke ständig limitiert ist. Sei es durch andere Teilnehmer im Straßenverkehr, oder durch Tempolimits, oder das Wetter usw.
PCI-E SSD sind aktuell für mich einfach absoluter Quatsch für die Masse.
 
Bei Konsolen kann man LL APIs nutzen, weil man weiß auf welcher Hardware die SW genau läuft und entsprechend kann man die Software auch extrem gut auf diese Hardware optimieren, aber bei PCs hat man eine Unzahl möglicher Hardwarekombinationen und braucht daher Abstaktionslayer, also High-Level APIs um diese auf allen möglichen PC lauffähig bekommen zu können und die kosten eben Performance. Aber sonst wären viele Games eben nur für Intel mit NVidia verfügbar, weil einfach diese Mehrzahl der Kunden benutzen.

Aber wer eben keine Ahnung von Softwareentwicklung hat, der sieht eben nur was man bei den Konsolen aus deren beschränkten Mitteln rausholen kann und hält die Entwickler der PC für Trottel, weil er eben den entscheidenden Unterschied zwischen beiden übersieht: Die Hardwarevielfalt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh