[News] AMD´s FX 8350 vor i7 3770K in Crysis 3

JWelche Probleme soll Crysis haben?!
Ich verstehe dich und Mick nicht die Bohne. Ihr redet irgendetwas mit purer absicht schlecht, nur weil ihr nicht akzeptiert, dass es scheinbar Szenen gibt die Mltithreaded sind.
Ein Querulant ist jemand, der sich mit offensichtlichen Tatsachen nicht bekehren lässt.

Einmal versuch ich es noch...
More Crysis 3 CPU benchmarks
welcome to the jungle ist einen furz multithreading optimiert.
deneb@4ghz = 2m/vishera@4,7ghz
das sind 4threads gegen 4threads allerdings liegen 3jahre multithreading entwicklung und 700mhz dazwischen. bulldozer sollte multithreaded auf jedenfall besser dastehen als sein vorgänger.
ein vishera mit 3modulen und änhlichem takt, hat gerade mal sage und schreibe max 3fps mehr. sehr schön "multithreaded" wenn aus 50% mehr threads gerade mal 3fps rausspringen.

kannst du vielleicht jetzt verstehen, warum etwas mit dem code nicht stimmen kann?
hier geht es nicht ums schlecht reden, wir vergleichen zahlen und stellen ungereimtheiten fest.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ MadDias

Du vergleichst hier äpfel mit birnen.
Seid wann ist es denn nicht normal das ein Phenom @4ghz schneller als ein 4300@ 4,7 ghz ist ?

Klar haben beide 4 threads aber du vergisst hier einfach mal zugunsten deiner argumentation, dass die bulldozer architektur keine vollwertigen kerne besitzt. Jeder dieser kerne hat eine niedrigere ipc als die der phenoms. nur mit vielen threads und hohem takt sind sie schneller als die alten phenoms.
rechne doch mal nach. der 4300 hat mit seinen 4,7ghz einen um 17,5% höheren takt. wenn ich das richtig im kopf habe hat ein kern der bullis nur 80% der leistung eines alten phenom kerns also ist das ergebniss total normal.
das der 6300 dann wiederum nur so wenig mehr fps bringt ist auch quatsch da du hier mal eben wieder nur um deine aussage zu unterstreichen einen 3,5ghz 6300er + turbo mit einem 4,7ghz 4300 vergleichst. wenn du dagegen einen 4,7ghz 4300er mit dem dazu passenden 6300 @ 4,7ghz vergleichs würdest du sehen das der leistungsgewinn bei ~30% liegt und ziemlich genau zu der anzahl an mehr kernen passt.

also hört doch mal auf euch hier alles gerade so hinzulegen wie es euch passt (gilt nicht nur für dich) und vergleicht mal richtig!
ich bin jetzt kein verfechter der sagt das crysis 3 extrem super multithreaded optimiert ist aber wenn man schon vergleiche anstellt dann sollte es richtig sein und nciht gerade so das es dir in deinen kram rein passt.
 
Zuletzt bearbeitet:
maddias schrieb:
kannst du vielleicht jetzt verstehen, warum etwas mit dem code nicht stimmen kann?

Mäh, du zitierst meinen Beitrag der einen anderen Sachverhalt beinhaltet.

Ich meinte eher diesen Beitrag:

Crysis ist seit Anbeginn irgendwie eine Lachnummer, zu viele Aussagen/Meinungen von Holzbirnen die mich dazu veranlassen das Spiel komplett links liegen zu lassen, mehr eine Technologie-Demo ( mit ihren Kinderkrankheiten )

Und das ist einfach nur übertrieben. Nur weil offensichtlich SMT bremst, was in vielen Spielen nicht anders ist und dass es Stellen gibt, die scheinbar gut parallelisiert sind, machen das Spiel noch nicht zu einem Spiel mit Krankheiten.

das sind 4threads gegen 4threads allerdings liegen 3jahre multithreading entwicklung und 700mhz dazwischen. bulldozer sollte multithreaded auf jedenfall besser dastehen als sein vorgänger.

Wieso? 2 physische Kerne + CMT gegen 4 physische Kerne.
Logisch dass da der FX nur gleichflott ist und nicht schneller sein kann.

Wie soll er den multithreaded schneller sein, wenn er nicht mehr Logik hat?
Der FX-6300 ist mit 3 Modulen bei gleichem Takt in etwa auf Höhe eines Phenom II 1090T.

Der FX-8350 ist 20% vor dem 1100T durch mehr Threads und mehr Takt.

kannst du vielleicht jetzt verstehen, warum etwas mit dem code nicht stimmen kann?

Nein, kann ich nicht, weil niemand auch nur den HAuch eine Ahnung vom Code hat und deine Rechnung die du da aufstellst nicht stimmt.
 
Zuletzt bearbeitet:
Nein, kann ich nicht, weil niemand auch nur den HAuch eine Ahnung vom Code hat und deine Rechnung die du da aufstellst nicht stimmt.

Nach der Logik ist dann so ziemlich jedes kommerzielle Programm gut, da der Code in der Regel nicht veröffentlicht wird... :banana:

Da du ja auf auf Zahlenspiele stehst erkläre uns mal das:

Die Polemik werfe ich hiermit dir vor, da du (absichtlich?) falsch rechnest. Also, rechnen wir nochmal, mathematisch gerundet auf ganze Prozent:

FX-6300 zu FX-4300: 28% Mehrleistung bei 9% weniger Takt = 40% Mehrleistung bei 50% mehr Kernen, normiert auf gleichen Takt
X6 1100T zu X4 965: 21% Mehrleistung bei 3% weniger Takt = 25% Mehrleistung bei 50% mehr Kernen, normiert auf gleichen Takt

Von vier zu sechs Kernen bei Phenom II 25% Leistungszuwachs, von vier zu sechs Kernen bei FX 40% Leistungszuwachs. Woher kommt das? Der Code ist ja über jeden Zweifel erhaben, wie wir von jemandem gehört haben, der ihn genauso wenig kennt, wie die Kritiker des Codes...
 
Ich sage nicht dass der Code üben jeden Zweifel erhaben ist, mir geht es nur gegen den Strich, dass Leute, die davon keinen Schimmer haben immer meinen sie müssen dazu was besonderes sagen und mit fehlender SMT Skalierung weißmachen wollen, dass der Code Mist sei.
Und die Rechnung von Undertaker1 stimmt nicht. Der FX-4300 und der FX-6300 takten gleichhoch, was eine Differenz zum Phenom von 3 Prozentpunkten ausmacht.
Heißt der Phenom skaliert 3% Punkte schlechter. Das kann an was weiß ich liegen. Vermutlich weil die FPu´s beim -4300 etwas limitieren und so die Skalierung etwas besser ausfällt.
 
Zuletzt bearbeitet:
Und die Rechnung von Undertaker1 stimmt nicht. Der FX-4300 und der FX-6300 takten gleichhoch, was eine Differenz zum Phenom von 3 Prozentpunkten ausmacht.

Nein. Bitte nicht schon wieder diese Behauptungen ohne Quellen oder Begründung.

FX-8320, FX-6300 und FX-4300 im Test: Die kleinen Vishera-Modelle treten an

Der FX-4300 hat den höheren All-Core-Turbo. Wenn der Turbo überhaupt anliegt, was möglich ist, aber bisher noch keiner bestätigen konnte. Ob mit oder ohne Turbo, der FX-4300 taktet höher. Die entsprechenden Rechenbeispiele habe ich für beide Fälle gebracht.
 
Zuletzt bearbeitet:
Ich sage nicht dass der Code üben jeden Zweifel erhaben ist, mir geht es nur gegen den Strich, dass Leute, die davon keinen Schimmer haben immer meinen sie müssen dazu was besonderes sagen und mit fehlender SMT Skalierung weißmachen wollen, dass der Code Mist sei.
Und die Rechnung von Undertaker1 stimmt nicht. Der FX-4300 und der FX-6300 takten gleichhoch, was eine Differenz zum Phenom von 3 Prozentpunkten ausmacht.
Heißt der Phenom skaliert 3% Punkte schlechter. Das kann an was weiß ich liegen. Vermutlich weil die FPu´s beim -4300 etwas limitieren und so die Skalierung etwas besser ausfällt.

Den ganzen Spaß auf SMT beschränken tust primär du. Wer wovon wie viel Ahnung hat, weißt du gar nicht und es gibt hier schon genug Leute die eine ähnliche Einschätzung abgegeben haben. Dein Problem ist, dass du nicht im geringsten objektiv bist, du brichst das alles auf eine Diskussion AMD vs Intel runter und verteidigst deine Firma. Nur leider interessiert mich das überhaupt nicht, mich interessiert das wie und das warum. Wer die schnellste CPU hat ist mir egal und die meisten, die hier dem Code des Spiels eine gute Leistung absprechen tun dies nicht um die Leistung von AMD zu schmälern, sondern weil der Code offensichtlich suboptimal ist. Dafür gibt es inzwischen genug Benches um sich ein Bild zu machen.

Das folgende Beispiel ist übrigens auch schön für deine Sachliche Argumentation:

Welche Probleme soll Crysis haben?!
Ich verstehe dich und Mick nicht die Bohne. Ihr redet irgendetwas mit purer absicht schlecht, nur weil ihr nicht akzeptiert, dass es scheinbar Szenen gibt die Mltithreaded sind.
Ein Querulant ist jemand, der sich mit offensichtlichen Tatsachen nicht bekehren lässt.

Ich rede das Spiel nicht schlecht weil da Szenen sind, die Multithreaded sind und AMD dort vorne liegt. Auch die Unterstellung, das man dies nicht akzeptiert ist albern. Es geht wieder um das wie und warum, zum Beispiel warum hat man es nur geschafft Gras zu parallelisieren. Dazu kommen noch genug Benches die auf Very High eine grützige Performance mit 350€-GPUs bieten, selbst in geringen Auflösungen. Was sind dann deine Gegenargumente? Man kenne den Code ja nicht und wisse nicht wie die Engine funktioniere. Beides stimmt, aber wir kenne alle das Resultat. Und den fett markierten Satz kannst du dir mal durch den Kopf gehen lassen, denn zum einen ist es faszinierend, dass du definierst was Fakten sind und jenseits dieses Wortes passt das perfekt auf dich.

Zum Abschluss noch mal ein Blick auf deine geliebten Entwickler und den guten Code:

Significant optimisation to Medium detail settings (PC Only)

Von hier: Crysis 3 - Patch 1.1 und »Data Patch B« für den Shooter veröffentlicht - News - GameStar.de ist aus den offiziellen Patch-Notes eine Woche nach Release. Warum muss man da was signifikant verbessern, wenn alles gut läuft?
 
Zuletzt bearbeitet:
CPU-load des FX-6300 bei "Welcome to the Jungle" (GTX 670, 1080p, VH, SMAA 2Tx) - der Takt liegt durchweg bei 3,8 GHz und schnellt gelegentlich bis auf 4,0 GHz hoch.

efwfw3.png
 
Danke für die Info. :) Weißt du jetzt auch noch, wie hoch der FX-4300 taktet?

Btw: Wie kann bei einer derartigen Auslastung eigentlich ein Turbotakt >3,8 GHz entstehen? Ist das nicht das spezifizierte Maximum des FX-6300 bei Last auf allen Kernen? Oder ist das getestete Mainboard hier etwas freizügiger?
 
Zuletzt bearbeitet:
Der FX-4300 kommt jetzt erst ins Asrock 970 E3. Die gelegentlichen Spitzen sind nur für weniger als eine Sekunde, vll hat der Chip da einfach kurz "Luft" - sieht man selbst beim x264 HD teils.
 
Was soll denn jetzt die Auslastung aussagen, Multithread 6Kerne plus bei AMD ? Intel hat eine höhere Leistung ohne die angeblich implementierte SMT-Bremse und nutzt dann max 4Kerne für mehr Frames !?

Und nochmal, bei den Polen ist der i7 samt SMT mit einer HD7970GHz schon beim Grasrendern um schlappe 5Frames schneller ^^ Die ganzen vergleiche sind m.m.n Nutzlos und entscheident ist das was zu hause hinten raus kommt, wie gehabt ;)
 
Ich glaube über dir geht es gerade darum welcher Takt bei Volllast bei Heuldies 3 bei den bei den kleineren FXs anliegt. ;)
 
Wieso? 2 physische Kerne + CMT gegen 4 physische Kerne.
Logisch dass da der FX nur gleichflott ist und nicht schneller sein kann.

Wie soll er den multithreaded schneller sein, wenn er nicht mehr Logik hat?
Der FX-6300 ist mit 3 Modulen bei gleichem Takt in etwa auf Höhe eines Phenom II 1090T.

bulldozer hat module mit 2 physischen kernen, falls du dir mal die DIE genauer angeschaut hast.
das ist nicht das gleiche wie bei intel, wo man von kernen+smt reden kann. ivy bridge besitzt wirklich nur 4 physische kerne.
da es sich bei bulldozer um 2 identische kerne in einem modul handelt, die sich auch noch eine ganze menge logik teilen, könnte man davon ausgehen, dass sie multithreaded um einiges besser sind als die alten deneb und thuban kerne.
du behauptest ja selbst, das ein fx-6300 auf augenhöhe mit einem thuban wäre. wieso also nicht auch den 4000er mit einem deneb vergleichen?
brauchst du jetzt beweise, dass thuban schneller ist, als der fx-6300?
 
Naja so eine künstliche FPS-Bremse lässt sich auch einfach lösen in dem man die Einstellungen etwas herabsetzt.
Oder man sucht in den .cfg Datei nach Parameter, was die Community meistens macht.


Wie meinst du das? Wenn du einen I7 um 2 Kerne reduzierst hast du 2+2 Threads vs 4+4 Threads, da sind 50% skalierung kein Wunder.
Hier mal mit abgeschaltenem Hyper-threading: (ganz unten) Benchmarks: CPU-Skalierung : Battlefield 3: Großer Performance-Vergleich mit über 30 Grafikkarten

Nein ich meine wenn man einen i7 im BIOS um 2 Kerne reduziert und diese 2 Kerne einmal mit und einmal ohne Ht bencht. Das ergibt in. BF3 glatte 50% Differenz
 
Btw: Wie kann bei einer derartigen Auslastung eigentlich ein Turbotakt >3,8 GHz entstehen? Ist das nicht das spezifizierte Maximum des FX-6300 bei Last auf allen Kernen? Oder ist das getestete Mainboard hier etwas freizügiger?
Da wird wohl der HPC-Mode aktiv sein, dieser erlaubt der CPU bis zur ersten Turbo Stufe mit 100% Last zu arbeiten.
Wenn die CPU nicht 100% ausgelastet ist, werden auch zwischendurch die 4.1GHz gezündet, je nach TDP Budget.
 
en ganzen Spaß auf SMT beschränken tust primär du. Wer wovon wie viel Ahnung hat, weißt du gar nicht und es gibt hier schon genug Leute die eine ähnliche Einschätzung abgegeben haben.

Nein, das tuhe ich beileibe nicht, du siehst das wieder volkommen falsch. ( etwa absichtlich?)
Du redest die ganze Zeit von der schlechten Skalierung von SMT und hast außer dieser Aussage keine stichhaltigen Beweise für einen ineffizienten Code.
Also von was redest du bitte noch? Ich bin gerne offen für Argumente, die ich schon 100 mal gefordert habe, aber es kamen wie bekannt ja keine. ;)

Dein Problem ist, dass du nicht im geringsten objektiv bist, du brichst das alles auf eine Diskussion AMD vs Intel runter und verteidigst deine Firma.

Nein, der Grund warum du so aggro bist, liegt schlicht daran, weil der AMD Prozessor bei massiver Parallelität scheinbar mithalten kann.
Und so etwas erklärst du dir nur mit ineffizientem schlechten Code, ohne wissenschaftlich ranzugehen und mal überhaupt irgendetwas zu recherchieren.
Vereinfach gesagt: AMD skaliert gut = mit dem Spiel stimmt etwas nicht.

Leistung absprechen tun dies nicht um die Leistung von AMD zu schmälern, sondern weil der Code offensichtlich suboptimal ist.

Nochmal, worin liegt die offensichtlichkeit begraben? Erkläre es mir anhand von Beispielen, Argumenten oder Fakten.
Y33H@ hätte bestimmt schon was dazu gesagt, oder irgend jemand anderes, außer deinen Bashing Freunden, wenn es was wissenwertes zu erzählen gäbe.

Dazu kommen noch genug Benches die auf Very High eine grützige Performance mit 350€-GPUs bieten, selbst in geringen Auflösungen. Was sind dann deine Gegenargumente?

Ich habe Gegenargumente geliefert.

a) Die maximalen Einstellungen nutzen immer sehr rechenintensive Features wie Global Illumination, MSAA kostet extrem da deferred Renderer, etc.. um das maximale herauszuholen, analog zu BF3, BF2, Arma2 ist das doch genauso, dass es an der Spitze nurnoch BQ Gewinn mit extrem hohen Leistungseinsatz gibt.
Das ist nun wirklich nichts neues und nicht ansatzweise irgendein stichhaltiges Argument.
b) Der Code ist bei mittleren Settings scheinbar sehr gut, weil selbst eine HD 7750 dafür reicht, bei immernoch superber Grafik.
Wenn ich mir im Gegenzug andere Shooter ansehe, muss ich dort viel mehr Qualität runterdrehen.

Auf diese Argumente hast du noch nie gewantwortet, ich auf deine schon. ;)

Und den fett markierten Satz kannst du dir mal durch den Kopf gehen lassen, denn zum einen ist es faszinierend, dass du definierst was Fakten sind und jenseits dieses Wortes passt das perfekt auf dich.

Ich denke es ist vielmehr genau umgekehrt.

Warum muss man da was signifikant verbessern, wenn alles gut läuft?

Solche Patches findest du bei jedem Spiel.
Einen ineffizienten Code kann man sowieso nicht patchen.
Dieser Patch kann sich genauso auf die Zusammenarbeit mit den Grafikkartenherstellern beziehen um das maximum herauszuholen.
Wie groß diese Verbesserungen sind könnte ja vielleicht mal einer nachmessen.

MadDias schrieb:
bulldozer hat module mit 2 physischen kernen, falls du dir mal die DIE genauer angeschaut hast.

Mr. Dude hat erst vor kurzem einen Dieshot gepostet und nein, dort sich keine 2 Physischen Kerne in einem Modul.

da es sich bei bulldozer um 2 identische kerne in einem modul handelt, die sich auch noch eine ganze menge logik teilen, könnte man davon ausgehen, dass sie multithreaded um einiges besser sind als die alten deneb und thuban kerne.

Ne, das gibt keinen Sinn, was du da sagst. Gerade wenn sich ein Kern etwas teilt, muss die Multithreading Performance sinken.
Deswegen sind es ja auch 2 Threads mehr beim FX-8XXX, ansonsten würde man multitthreaded gegen nen Phenom II 1100T verlieren.

du behauptest ja selbst, das ein fx-6300 auf augenhöhe mit einem thuban wäre. wieso also nicht auch den 4000er mit einem deneb vergleichen?

Kann man ja auch vergleichen, da die FX mehr Takt haben und das so wieder ausgleichen.
Trotzdem hat ein FX-4300 keine Chance gegen den Deneb 965Be bei gleichem Takt in Multithreaded Apps, bei weitem nicht.
 
Mr. Dude hat erst vor kurzem einen Dieshot gepostet und nein, dort sich keine 2 Physischen Kerne in einem Modul.

Ne, das gibt keinen Sinn, was du da sagst. Gerade wenn sich ein Kern etwas teilt, muss die Multithreading Performance sinken.
Deswegen sind es ja auch 2 Threads mehr beim FX-8XXX, ansonsten würde man multitthreaded gegen nen Phenom II 1100T verlieren.

Kann man ja auch vergleichen, da die FX mehr Takt haben und das so wieder ausgleichen.
Trotzdem hat ein FX-4300 keine Chance gegen den Deneb 965Be bei gleichem Takt in Multithreaded Apps, bei weitem nicht.

http://extrahardware.cnews.cz/sites/default/files/pictures/clanky/ehw/2012/10rijen/amd-fx-8350-test/piledriver_die_lg_w_front.jpg
hier hast du nen Vishera DIE shot. Soll ich dir die "Kerne" rot umranden, oder erkennst du sie? Es sind tatsächlich 2 Kerne pro Modul. Von 4 Modulen + CMT zu reden ist absoluter Schwachsinn. Wenn es die 8 Kerne nicht gibt, könnte man ja eine Klage wegen arglistiger Täuschung einreichen.
Wieso ergibt es keinen Sinn bei parallelen Threads Caches zu teilen, anstatt Daten über Umwege anderen Kernen zur Verfügung zu stellen? War das nicht der große "Fortschritt" den Bulldozer bringen sollte?
AMD hat es nicht geschafft, diesen eigentlich guten Ansatz in die Tat umzusetzen. Soweit ich weiss verliert der 8350 gegen den 1100T jeden Test, in dem keine Befehlssätze benutzt werden, die nur der Bulldozer implementiert hat.
Eine "bessere" Architektur braucht also mehr Takt, um das gleiche zu liefern als eine "ältere". Es lebe der Fortschritt...
 
Idle-Verbrauch? Der ist top...

Mach mal...

Eine "bessere" Architektur braucht also mehr Takt, um das gleiche zu liefern als eine "ältere". Es lebe der Fortschritt...
Wenn sie das (irgendwann) bei geringerer Leistungsaufnahme schafft...so what?
 
@Xero:
Nix gegen dich, aber woher kommt das Hirngespinst, dass AMD beim Idle-Verbrauch nicht mithalten kann? (hab ich letztens schon mal gelesen)
Last-Verbauch ist ein Problem, Idle aber definitiv nicht!

AMD's CPUs sind günstiger, die Mehrkosten beim Strom kann man ca. abschätzen und sind bei "normaler" Nutzung vllt. 10€ im Jahr (gut, die Frage ist, was normal ist ;) )
 
hier hast du nen Vishera DIE shot. Soll ich dir die "Kerne" rot umranden, oder erkennst du sie? Es sind tatsächlich 2 Kerne pro Modul.

Ja umrande mir bitte die beiden physischen Kerne eines Moduls, ich bin gespannt.

Von 4 Modulen + CMT zu reden ist absoluter Schwachsinn. Wenn es die 8 Kerne nicht gibt, könnte man ja eine Klage wegen arglistiger Täuschung einreichen.

Ich kapier grade gar nichts, was du sagen willst.

AMD hat es nicht geschafft, diesen eigentlich guten Ansatz in die Tat umzusetzen. Soweit ich weiss verliert der 8350 gegen den 1100T jeden Test, in dem keine Befehlssätze benutzt werden, die nur der Bulldozer implementiert hat.
Eine "bessere" Architektur braucht also mehr Takt, um das gleiche zu liefern als eine "ältere". Es lebe der Fortschritt...

Der FX-8350 braucht bei multithreaded Apps nicht mehr Takt um bei Truecypt, X264HD oder Winrar davonzuziehen, auch bei Games ist der FX-8350 bei gleichem Takt nicht unbedingt langsamer.
Außerdem ist Takt alleine nur eine Variable in der Rechnung und sagt erstmal wenig, das sollte man bedenken, bevor man so polemisch wird.

Aber... der FX-8350 ist bei gleichem Takt sicherlich viel spars. Würde mich nicht wundern wenn man bi 8x 3,3ghz ne prima 80 Watt CPU herausquetschen könnte.

Nicht solange Idle-Verbrauch und Leistung pro Watt nicht an Intel rankommen
oder

Idle Verbrauch ist auf Augenhöhe.
Leistung pro Watt ist, wenn man nicht zu weit abgeschlagen ist, eher zu vernachlässigen, wenn man das überzeugendere Produkt hat. ( APU)

AMD hat es nicht geschafft, diesen eigentlich guten Ansatz in die Tat umzusetzen.

Warum nicht? Der Ansatz funktioniert doch.
 
Zuletzt bearbeitet:
Wenn man das mit der Marketingfolie vergleicht, besteht ein Core also aus der FPU, 2 Load/Store Einheiten, 2x 16KB L1 und ner halben Cache Unit. Der Andere besteht dann aus dem BranchPredictor und dem ganzen Rest...:haha:
 
Immer schön sachlich, das ganze... :d

Anhang anzeigen 228130

danke Mick!

natürlich lassen sich die einzelnen kerne nicht schön in einem viereck eingrenzen, soviel platz hat selbst amd nicht auf der die.
wenn man schon verfechter einer mislungenen architektur ist, sollte man doch wenigstens wissen wovon man redet.

---------- Post added at 15:29 ---------- Previous post was at 15:13 ----------

Wieso? 2 physische Kerne + CMT gegen 4 physische Kerne.
Logisch dass da der FX nur gleichflott ist und nicht schneller sein kann.
nur als kleine erinnerungsstütze... ok, ich war nicht ganz richtig mit 4modulen+cmt, aber du hast es ja richtig versemmelt.
 
danke Mick!

natürlich lassen sich die einzelnen kerne nicht schön in einem viereck eingrenzen, soviel platz hat selbst amd nicht auf der die.
wenn man schon verfechter einer mislungenen architektur ist, sollte man doch wenigstens wissen wovon man redet.
Und du weißt wovon du redest? Irgendwie habe ich da so meine Zweifel. Bist du dir wirklich sicher, dass du in einem Modul zwei vollwertige physische Kerne "rot umranden" kannst? Ich meine klar, die zwei Integer-Kerne sieht jeder...aber zwei vollwertige physische Kerne?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh