AMD erläutert Funktionen der Chipsätze für RYZEN

Es hängt wirklich alles nur von den Boardpartnern ab, wie die die Lanes umsetzen.

Gibt ja einige Boards mit 2x M.2 und 10x SATA im Preview - allerdings schwant mir da schon Übles. Vermutlich läuft ein M.2 mit voller Power, der zweite tötet dann von den 10x SATA gleich vier weg, läuft nur mit 4x PCIe2.0 und das alles muss dann durch die -4- PCIe 3.0-Lanes zur CPU. Dann lieber 2x PCIe3.0-x2 direkt an der CPU für die NVMe und die vier PCIe-Lanes zum Chipsatz für die komplette Peripherie frei lassen. Bin gespannt, wie die Boardpartner das umsetzen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nur als Info vorab, weil das oben so klang nach dem Motto, Quadcores haben nur 8x PCIe Lanes!
Da steht 7th Gen. APU. Das ist Bristol Ridge auf Basis der Excavator- und damit neuesten Bulldozerarchitektur. Nix mit Raven Ridge auf Zen Basis!
Es ist also ziemlich warscheinlich, dass die Raven Ridge APUs dort ebenso 16x wie bspw. Kaveri und älter schon lieferten, bringen!!
-> Die Einschränkung liegt einfach an den alten APUs, wohl ursprünglich eher für embedded/mobile entwickelt und nun eben auch auf AM4 verwurstelt... Also die 8x PCIe 3.0 Lanes mal nicht überbewerten.



Möchte man nun 2 Grafikkarten einen Raid-Controller und ggf. noch eine Soundkarte betreiben, ist die AMD-Plattform schon tot, bevor sie überhaupt auf dem Markt ist, wirklich sehr schade ich hatte mir davon mehr erhofft.

Nein, gerade dafür bietet sich der PLX Chip (oder mehrere davon) doch an... Es erhöht massiv die Flexibilität bis hin zu, stecke wo du willst und was du willst und habe volle Bandbreite...
Nachteil -> nicht gleichzeitig, aber das erwartet sicher auch keiner ;)
2x GPUs fürs Zocken erzeugt nunmal nur Last, wenn da auch gezockt wird... Der Raidcontroller wird wohl kaum vollen Datendurchsatz brauchen, wenn du da gerade drauf spielst... Zumal, gerade CF profitiert durch den Wegfall der Brücke von hoher Bandbreite zwischen den GPUs. Heist, beide GPUs können intern mit 16x untereinander, also 16GB/sec durchschubsen. Das läuft dann auch NICHT über den Chipsatz/die CPU, sondern direkt. Der Uplink wird für diesen Teil der Kommunikation nicht blockiert.

Bin sogar der Meinung, man sollte viel mehr dieser Boards mit diesen Brückenchips ausstatten. Warum? Weil es jedesmal ein Krampf ist, als Lukü User ein neues Board zu finden, wo man eben 2x GPUs im Dual Slot Design + Raidcontroller + Soundkarte drauf bekommt und das auch noch so, dass min. 1x Slot Luft zwischen den GPUs ist (besser 2x) und die Anbindung trotzdem "passt". Bei S2011-3 bekommst du da nämlich schnell Probleme ohne PLX Chip. Denn da sind die "Gamerboards" dafür gedacht, 3-4x MGPU zu fahren. Das heist, für 16x/16x sollte es dort Slot 1 und 3 sein. Schön dicht zusammen... Slot 1 + 4 oder 5 haben teils/oft dann komische Anbindungen ala 16x/8x mit brachliegendem Rest... Der PLX Chip hilft. Ich stecke wo ich will und hab 16x :fresse: ;)

Der Unterschied bei den Riegeln rein vom Takt macht nur bis zu etwa 50% aus. Bei QuadChan vs. DualChannel sind es 100% mehr Bandbreite. Völlig einholen geht also eher nicht.
DDR4- DualChannel deckt PCIe 3.0 x16 bei 2133MHz fast doppelt ab, zum Zocken hat man folglich keinen Vorteil durch Quadchannel. Der Vorteil kann nur durch CPU- und IGP- Zugriffe auf den RAM kommen und wie gesagt, kenne kaum Szenarien, wo es was bringt, es sei denn man zockt mit IGP. Selbst der Blender- Rendertest für RyZen hat exakt 0% Unterschied mit 2 Riegeln weniger, also DualChannel gebracht.

Das ist leider technisch schlichtweg unsinn... PCIe hat mit RAM Bandbreite genau NULL zu tun. Das, was in Games durch hohe Bandbreite profitiert ist nicht die Grafikkarte, sondern der Prozessor, er wartet dabei NICHT auf den Speicher, der nicht hinterher kommt, sondern kann seine brach liegenden Kapazitäten in Rechenergebnise umwandeln, wenn es schneller wird. Caches und hohe Speichertaktraten bei niedrigen Latenzen helfen genau dort. Plattformübergreifend, egal ob Single/Dual/Trippe/Quad oder bald Hexachannel...

PS: die Blender Testszene verbraucht nichtmal 500MB RAM -> klar sein dürfte, dass die Bandbreitenabhängigkeit bei so nem Witz an "Datenmenge" effektiv gegen NULL geht. Mach das selbe bitte mit einer Szene, die 50GB RAM verbraucht! -> du wirst staunen, zu was Bandbreite alles "fähig" ist.
 
Nur als Info vorab, weil das oben so klang nach dem Motto, Quadcores haben nur 8x PCIe Lanes!
Da steht 7th Gen. APU. Das ist Bristol Ridge auf Basis der Excavator- und damit neuesten Bulldozerarchitektur. Nix mit Raven Ridge auf Zen Basis!
Ist halt nicht besonders schlau, seine Folien so zusammenzuschmeißen. Bristol Ridge hat mit RyZen nichts am Hut, somit weiß ich auch nicht, was es auf der Folie zu suchen hat. Das hat mich tatsächlich völlig verwirrt. Man hätte hinschreiben sollen, was man dieses Jahr sonst noch launcht oder "Bristol Ridge" statt diesem nichtssagenden Generationszeug.

Das ist leider technisch schlichtweg unsinn... PCIe hat mit RAM Bandbreite genau NULL zu tun. Das, was in Games durch hohe Bandbreite profitiert ist nicht die Grafikkarte, sondern der Prozessor
Das schrieb ich ja. Die meisten haben trotzdem Angst, dass bei zu wenig Bandbreite ihre GPU Schwierigkeiten bekommt, und dann wäre das auch tatsächlich schlimm. Da es aber nicht so ist, muss man dazu erst mal im CPU- Limit sein, und wer im CPU- Limit ist, hat entweder falsche Einstellungen vorgenommen, oder eine zu schlechte CPU für seine Grafikkarte gekauft, oder(was seltener vorkommt) die Spieleentwickler haben grottige Arbeit geliefert oder das Spiel hat eine bessere Optimierung nicht nötig, weil genug FPS da sind(Dann hätte man wieder falsche Einstellungen, weil man sie nicht begrenzt)
Edit: Zugegeben, solange die ausreichend schnellen Oktacores kaum bezahlbar sind, kann man den Leuten auch keinen großen Vorwurf machen, dass ihre Karte nicht zur CPU passt.

PS: die Blender Testszene verbraucht nichtmal 500MB RAM -> klar sein dürfte, dass die Bandbreitenabhängigkeit bei so nem Witz an "Datenmenge" effektiv gegen NULL geht. Mach das selbe bitte mit einer Szene, die 50GB RAM verbraucht! -> du wirst staunen, zu was Bandbreite alles "fähig" ist.
Das mag ja sein, ich habe auch nicht geschrieben, dass QuadChannel völlig sinnlos ist. Trotzdem sollte man sich vor Augen halten, dass man selbst im Profibereich nicht alle 10 Minuten eine Szene in voller Qualität rendert, sondern dafür in der Regel auch mit der Consumer- Plattform auskäme, wenn im Unternehmen für die heftigen Renderjobs noch ein dickes Gerät steht, wo die Endaufträge alle hingeschickt werden können. Und es ist noch immer die Consumer- Plattform und ich habe "Heimgebrauch" geschrieben, also von professioneller Verwendung nicht mal gesprochen.
 
Zuletzt bearbeitet:
Bristol Ridge taucht da auch nur auf, weil es AMDs erste AM4-APU ist. Letztlich darf man aber auch nicht vergessen, wofür Bristol Ridge gedacht ist - und dann ein Respektabstand nötig ist.

Unter'm Strich sind die Einschränkungen von Bristol Ridge aber nicht besonders groß. PCIe-x8 ist beim Gaming kein Totschlagargument - ob x16 oder x8 macht beim Gaming keinen Unterschied.
 
Ist halt nicht besonders schlau, seine Folien so zusammenzuschmeißen. Bristol Ridge hat mit RyZen nichts am Hut, somit weiß ich auch nicht, was es auf der Folie zu suchen hat. Das hat mich tatsächlich völlig verwirrt. Man hätte hinschreiben sollen, was man dieses Jahr sonst noch launcht oder "Bristol Ridge" statt diesem nichtssagenden Generationszeug.
Schau dir die Folie nochmal genau an :wink:
Da geht es um die AM4 Plattform... Es ist schon sinnig, so wie es ist, da neben Summit Ridge eben (vorerst) nur Bristol Ridge die Palette da unten komplettiert. Bristol Ridge ist nunmal die 7th Gen. APU, was zumindest allgemein auch bekannt ist...

Das schrieb ich ja. Die meisten haben trotzdem Angst, dass bei zu wenig Bandbreite ihre GPU Schwierigkeiten bekommt, und dann wäre das auch tatsächlich schlimm. Da es aber nicht so ist, muss man dazu erst mal im CPU- Limit sein, und wer im CPU- Limit ist, hat entweder falsche Einstellungen vorgenommen, oder eine zu schlechte CPU für seine Grafikkarte gekauft, oder(was seltener vorkommt) die Spieleentwickler haben grottige Arbeit geliefert oder das Spiel hat eine bessere Optimierung nicht nötig, weil genug FPS da sind(Dann hätte man wieder falsche Einstellungen, weil man sie nicht begrenzt)
Keine Ahnung, wer die "Meisten" bei dir sind... CPU Limit hat auch nix mit Bandbreite zu tun. Oder umgekehrt, ein Bandbreitenlimit ist kein CPU Limit. Nur so als Hinweis :wink:

Das mag ja sein, ich habe auch nicht geschrieben, dass QuadChannel völlig sinnlos ist. Trotzdem sollte man sich vor Augen halten, dass man selbst im Profibereich nicht alle 10 Minuten eine Szene in voller Qualität rendert, sondern dafür in der Regel auch mit der Consumer- Plattform auskäme, wenn im Unternehmen für die heftigen Renderjobs noch ein dickes Gerät steht, wo die Endaufträge alle hingeschickt werden können. Und es ist noch immer die Consumer- Plattform und ich habe "Heimgebrauch" geschrieben, also von professioneller Verwendung nicht mal gesprochen.

Das PS bezog sich auf deinen Satz zur Blender Szene und ist eher als Erklärung zu verstehen... Nach all den technischen Unverständlichkeiten, die ich (persönlich) aus vielen deiner Posts rauslese, war es einfach nur ein Erklärungsversuch... Wenn du es anders gemeint hast, OK... Der Satz ließt sich aber einfach nicht daran, sondern viel eher als gehst du davon aus, dass Blender davon nicht profitiert, wie es AMD erst jüngst mit ihrer Ryzen Szene gezeigt haben.
Sei es drum... Bandbreite KANN wichtig sein, muss es aber nicht. Quadchannel KANN was bringen, muss es aber nicht... Was kommt, werden wir sehen. Je nach Software hat der RyZen bei 16 Threads Last möglicherweise einen klaren Nachteil ggü. Broadwell-E -> einfach weil die gesamte Bandbreite nicht hoch genug ist um sich den Spaß über alle Threads zu teilen. Aber das können wir erst direkt Messen, wenn das Ding zu haben ist :wink:
 
Das sehe ich was die Ryzen-Plattform angeht allerdings ganz genau so, was nicht heißen soll, dass dies nicht auch auf Intel-Plattformen mit zu wenigen Lanes zuträfe, also im Prinzip auf alles abgesehen von den verschiednen Iterationen der 2011er-Plattform mit der richtigen CPU (denen die auch wirklich 40 Lanes zur Verfügung stellen) und selbst das ist nicht gerade reichlich.

2 x 16 = 32 dazu noch ein Raid-Controller 1 x 8 und schon sind die 40 Lanes weg.

Bliebe nur das ausweichen auf eine Xeon-Plattfrom, nur zahle ich da für die CPUs das 4-Fache bei gleicher Leistung und bräuchte davon dann auch noch 2 Stück, also anstatt 500 - 600 EUR für eine CPU auszugeben, bin ich dann bei ca. 4000. dazu kommen dann Board und RAM (jetzt suchen wird noch die Boards raus, welche auch von LSI oder anderen Raidcontroller-Firmen als fungibel angegeben werden) und gleichzeitig Crossfire / Sli unterstützen, da wird es echt mager.... und das alles nur für ausreichend PCIe Lanes?

Hier sieht man hervorranden wohin sich der Markt entwickelt. Hauptsache die CPU hat 4GHz (also 4790 oder 6700 oder 7700) eine Graka im System und ein Platte über M2 angebunden, mehr braucht der Durchschnittsgamer nicht und glaubt dann er hätte was ganz tolles unter / auf / neben dem Schreibtisch stehen. Das ist auch in Herstellerkreisen bekannt, also wird entsprechendes produziert und für alles was auch nur leicht darüber hinaus geht, wird dann das X-Fache fällig, was den Preis betrifft.

Und das eine CPU, blos weil sie in Dual-CPU Systemen einsetzbar ist, das 4-Fache von eine Single-Socket-CPU kostet, ist einfach nur Humbug, man erinnere sich an die Celerons, welche man auch auf Dual-Sockel-Systemen laufen lassen konnte und das war in welchem Jahr?
 
Zuletzt bearbeitet:
Das sehe ich was die Ryzen-Plattform angeht allerdings ganz genau so, was nicht heißen soll, dass dies nicht auch auf Intel-Plattformen mit zu wenigen Lanes zuträfe, also im Prinzip auf alles abgesehen von den verschiednen Iterationen der 2011er-Plattform mit der richtigen CPU (denen die auch wirklich 40 Lanes zur Verfügung stellen) und selbst das ist nicht gerade reichlich.

2 x 16 = 32 dazu noch ein Raid-Controller 1 x 8 und schon sind die 40 Lanes weg.

Dafür gibts die PLX Chips... Du bekommst nicht mehr Lanes -> machst zu 99% aber auch nicht alles gleichzeitig. Und wenn doch, dann ist die Plattform einfach ungeeignet für dich.
Billig und alles können gibts nicht. Egal ob Intel oder AMD. :wink:

PS: deine Ausführung zu den Preisen der Xeon CPUs sind überwiegend auch "quatsch". Nix für ungut... Der Preis der Xeon Modelle definiert sich in erster Linie nachdem, was du willst. Coreanzahl kostet, Takt (vor allem hoher) kostet usw.
Massenware -> 2x2620v4 bspw. gibt mehr MT Leistung als im Desktop und kostet weniger bis gleich viel zzgl. aller Vor- und Nachteile der Plattform ansich.
Boards mit SLI und/oder CF Support sind nunmal keine Serverboards -> das sollte beachtet werden.
Celerons für Dual CPU? Wann soll das gewesen sein? Bestenfalls mit FSB vorstellbar -> und das ist schon >10 Jahre her, ergo uninteressant und damals völlig andere Marktvorraussetzungen.
 
Was ist NVMe? Richtig ein SW Protokoll für SSDs die per PCIe Lanes angebunden sind (wenn man von NVMe over Fabrics mal absieht) und wieso weiß AMDs Folienzeichner das nicht? Vor allem wieso übernehmen alle diese Mist auch noch? Es gibt keine NVMe HW Schnittstelle, es gibt nur PCIe Lanes, die schreiben ja auch USB3.1 und nicht etwas UASP, nur weil deren USB3.1 eben vermutlich auch das UASP Protokoll unterstützt. Warum schreiben sie nicht direkt PCIe, oder würden M.2 PCIe AHCI SSDs daran nicht laufen?

Die CPU kann sowieso kein NVMe, das kann der Treiber des OS und der im UEFI dann auf der CPU machen, aber keine CPU kann das direkt. Wenn ich die Folien und den Text dazu lesen, dann kräuseln sich meine Fußnägel.

Ich finde das sehr verwirrend mit den PCIe/SATA-Lanes und SATAe.
Das bin ich auch, denn die Fußnote 1 der einen Folie redet von PCIe 3.0 Lanes, die Tabelle darüber von 8 PCIe 2.0 Lanes für den X370.

Und in den Chipsätzen sind je 2 SATAe-Ports, die sowohl je 2xPCIe3.0 als auch 2xSATA enthalten. Die Chipsätze bieten also auch immer 4xPCIe3.0 für NVMe und eigtl 6-8xSATA, richtig?
Es wäre entgegen den Geflogenheiten von Intel und den Board Herstellern die SATA Ports und PCIe Lanes der SATA Express Ports nicht sowieso extra aufzuzählen. Von daher ist es nicht zu erwarten das die beiden SATAe Ports noch mal extra 4 SATA Ports und 4 PCIe Lanes bedeuten, denn gewöhnlich werden auch z.B. bei Intels Z170 6 SATA Ports und 20 PCIe Lanes angegeben, ein paar davon sind dann aber als SATAe ausgeführt, also Teil eines SATAe Ports. Es steht aber eben gewöhnlich nicht einem Board mit einem SATAe Port, dann dort, dass es 4 SATA und einen SATAe Port hat, sondern da steht z.B.:
Alle Boards von denen diese Zitate der Beschreibung stammen haben nur den Z170 und keinen zusätzlichen SATA Host Controller verbaut.
So komme ich bei Ryzen+X370 auf 6-8xPCIe3.0, 8xPCIe2.0, 2xUSB3.1, 10xUSB3.0 und 8-10xSATAIII, korrekt? Das ist schon eine ganze Menge, auch wenn ich den Humbug mit PCIe Gen2 und Gen3 in einem Chip nicht verstehe.
Das wäre eine Menge wenn ausgerechnet AMD es bei den Angaben nur anderes als Intel und die Boardhersteller handhaben würde, aber ich fürchte die Anzahl der PCIe Lanes und SATA Controller dürfte auch dort die Gesamtzahl sein und damit wären dann an SATA Express Ports vom Chipsatz vielleicht nur PCIe 2.0 Lanes wie bei den H97 und Z97er Board, aber da SATA Express eine Totgeburt ist für die es keine Laufwerke zu kaufen gibt, wäre das zu verschmerzen. Keine Ahnung wieso AMD den Mist nicht gleich noch gecancelt hat, es ist doch schon lange als Totgeburt zu erkennen.

PCIe SSDs brauchen PCie 3.0 x4 als Anbindung damit es Sinn macht und nur eine davon ist sehr, sehr wenig für eine Plattform die CPUe im Bereich von vermutlich 500+€ aufnehmen und angeblich bis 2020 bestehen bleiben soll, dürften doch schon dieses Jahr die PCIe SSDs die SATA SSDs von Stückzahlen her überholen und deren Aufpreise bald sehr massiv fallen.

andererseits ist es ein starkes Anzeichen dafür, dass AMD eben tatsächlich den Achtkerner etwa zum Preis eines 7700K oder gar niedriger bringt, und der hat auch nur 16 PCIe v3- Lanes.
So teuer sind Chipsätze nicht und der i7-7700K hat zwar auch direkt nur 16 PCIe Lanes (die anderen 4 werden als DMI3 fest zur Anbindung des Chipsatz benötigt), aber der Chipsatz bietet im Fall des Z270 noch mal 24 weitere PCIe Lanes und da kann man dann eine Menge ranhängen, PCIe SSDs, TB3 oder auch 10GbE Controller.

Intel Xpoint (Optane-SSDs) könnte man doch an den NVMe Port der CPU anschließen.
Es gibt keine NVMe Ports, es gibt nur Slots mit PCIe Lanes in die man dann SSD stecken kann die dann die Befehle des NVMe Protokolls zu Kommunikation nutzen. Der Mist muss sich nicht ausbreiten nur weil er auf den Folien von AMD steht, denn das macht die Geschichte nicht wahrer.
 
Muss man da wirklich messen?
Ich meine es gibt doch Tests wie z.b.
PCI-Express-Mythos untersucht: x16/x16 gegen x8/x8 mit GTX 780 Ti SLI [Special der Woche]
wenn man überlegt das die Anforderungen ja eher steigen als sinken sehe ich 2x8 schon als ziemlich suboptimal an.

Glaube 1x8 + viel Zubehör oder 1x16 mit wenig Zubehör sind schmerzfreier als wirklich Sli betreiben zu wollen.
Wobei man nicht vergessen darf, dass diese "Problematik" Käufer von Intels Mainstream-Schiene (S1156, S1155, S1150, S1151) seit Jahren nicht gestört hat, dennoch auf SLI zu setzen. Laut dem Test würde ein SLI auf x8/x8 etwa 8% Leistung verlieren. Jetzt muss jeder für sich selbst entscheiden, ob sich diese 8% Leistung in dem Aufpreis auf die S2011-Plattform wiederspiegeln. ;)

Im normalen Single-GPU-Betrieb ist von einem Verlust von 1% auszugehen, wenn man auf x8 statt auf x16 setzt:
PCIe 3.0 x8 vs. x16: Does It Impact GPU Performance? | GamersNexus - Gaming PC Builds & Hardware Benchmarks
 
Zuletzt bearbeitet:
fdsonne schrieb:
deine Ausführung zu den Preisen der Xeon CPUs sind überwiegend auch "quatsch". Nix für ungut... Der Preis der Xeon Modelle definiert sich in erster Linie nachdem, was du willst. Coreanzahl kostet, Takt (vor allem hoher) kostet usw.

Der Ansichrt darft du gerne sein, ich behalte mir vor andere Meinung zu sein. Die i7 2011er sind Xeons mit offnem Multi oder umgekehrt es ist und bleibt dich gleiche CPU, die dann auf einmal 1000 EUR mehr kostet, blos weil sie Dual-CPU fähig ist.... ja das nennt sich cournotscher Punkt, Intel kannn diese Preise mangels Wettbewerb verlangen, das war es dann aber auch schon.

PLX-Chips sind und bleiben Augenwischerei und bringen bei SLi rein gar nicht, weil da beide Anschlüsse gleichzeitig voll ausgelastet werden. Was bringt es da ganz flink immer hin und her zu schlaten? - Im Mittel landet man wieder bei 8 Lanes.

@fortunes:
Danke für diese Ausführung, sicher muss das jeder selber wissen, nur sehe ich sehr wenig Sinn darin in eine Konfiguration zu investieren, welche zunächst schon nicht 1:1 skaliert, nich immer und überall funktioniert, welche ich mir nur deswegen anschaffe, weil ich mit einer Grafikkarte nicht auskomme und dies dann noch in der Leistung wieder bescheide, weil die Anzahl der Lanes für einen vernünftigen Betrieb zu begrenzt ist. ... Aber Hauptsache 2 Grakas im System, wer will soll es so machen, für ich das "hingemurkster Kram" um mal "Land of Lore - Götterdämmerung" zu zitieren - für die, die sich daran noch erinnern können.
 
Zuletzt bearbeitet:
Wobei man nicht vergessen darf, dass diese "Problematik" Käufer von Intels Mainstream-Schiene (S1156, S1155, S1150, S1151) seit Jahren nicht gestört hat, dennoch auf SLI zu setzen. Laut dem Test würde ein SLI auf x8/x8 etwa 8% Leistung verlieren. Jetzt muss jeder für sich selbst entscheiden, ob sich diese 8% Leistung in dem Aufpreis auf die S2011-Plattform wiederspiegeln. ;)

Im normalen Single-GPU-Betrieb ist von einem Verlust von 1% auszugehen, wenn man auf x8 statt auf x16 setzt:
PCIe 3.0 x8 vs. x16: Does It Impact GPU Performance? | GamersNexus - Gaming PC Builds & Hardware Benchmarks

Naja Sli ist ja nicht umsonst unbeliebt. :d

Aber machen wir mal eine Milchmädchenrechnung:

I7 6850 40 Lanes + Board = 620+200 = 820€
I7 7700 16 Lanes + Board = 400 +100 = 500€
Sli Highend z.b. Gtx 1080 = 640+640 = 1280€

Wären also 2100€ vs 1780€. Gibt man 8% dazu landet man linear bei 1922€ also keine 200€ Unterschied mehr. Dafür bekommst aber auch ein Prozessor der immernoch rund 20% schneller ist als ein 5Ghz Kaby Lake. Der vermeintliche große Preisunterschied wird durch die Grafikkarten doch bissl relativiert. So gesehen macht Sli für mich wirklich nur Sinn auf der X99 Plattform mit einem 6Kerner.
 
Dafür bekommst aber auch ein Prozessor der immernoch rund 20% schneller ist als ein 5Ghz Kaby Lake. Der vermeintliche große Preisunterschied wird durch die Grafikkarten doch bissl relativiert. So gesehen macht Sli für mich wirklich nur Sinn auf der X99 Plattform mit einem 6Kerner.
20% schneller wobei? Synth. Benches? ;)

Aktuell gibt es nur wenige bis gar keine Games, in denen ein 6-Kerner in 4K einem 7700K davonzieht. Aber die werden kommen - dann ist man aber mit einer AM4-Plattform deutlich günstiger unterwegs.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh