Asus TUF B550-Plus Gaming M.2_2 -> miese Performance

janek75

Profi
Thread Starter
Mitglied seit
07.01.2021
Beiträge
104
Moin,

ja wie der Name schon sagt, habe ich am zweiten M.2 Slot (der, der über den Chipsatz angesteuert wird) ne echt miese Performance.
Ich rede hier von gerade mal 700MB/s was PCIe 3.0 x1 oder PCIe 1.0 x4 entsprechen würde. Meine NVMEs unterstützen aber beide PCIe 3.0 x4, dies wird auch so als aktuelle Verbindung in CrystalDiskInfo und Samsung Magican angezeigt.

Habe zwei NVMEs (Samsung und Kingston) und beide natürlich schon getauscht. Auf M.2_1 (der, der über die CPU angebunden ist) läuft alles fein -> ca. 3500 MB/s auf M.2_2 plötzlich nur noch 800 MB/s.

Ich habe keine SATA Platten angeschlossen und keine Zusatzkarten in den PCIe Slots.

Witzigerweise macht es Null unterschied welche PCIe GEN Version ich für den M.2_2 Slot im Bios einstelle (Auto, GEN1, GEN2, GEN3) es bleibt bei genau der gleichen Geschwindigkeit, weswegen ich davon ausgehe dass die NVMEs im M.2_2 Slot fälschlicherweise mit PCIe 1.0 x 4 oder aber mit PCIe 3.0 x1 angesprochen werden. Warum mir das aber so nicht in CrystalDiskInfo angezeigt wird ist natürlich auch komsich.

Auf dem M.2_1 läuft wie gesagt alles gut, wenn ich den Slot im Bios auf GEN1 runterstelle dann bekomme ich auch erwartungsgemäß eine niedrigere Datenrate, diese Bios Einstellung scheint also grundsätzlich zu funktionieren.
Unter Linux das selbe Phänomen weswegen ich Windows Treiber als Ursache eigentlich eher ausschließe.

Hatte jemand schon einmal so ein ähnliches Problem mit den B550 Boards?

Was ich schon probiert habe
- NVME Treiber Update bei der Samsung NVME
- AMD Chipsatz Update
- Bios Update
- clear CMOS
alles ohne Erfolg
Kann man irgendwie ein Bios downgrade forcen?
Beitrag automatisch zusammengeführt:

oha

der Dude hat genau das selbe Problem wie ich, er hat sich sogar nen PCIe Slot Adapter für die NVME geholt, ohne Erfolg offenbar läuft der ganze Chipsatz PCI Bus nur mit 1.0 oder aber mit maximal mit PCIe 3.0 x1 😬.

 

Anhänge

  • SamsungMagican1_edit.png
    SamsungMagican1_edit.png
    68,8 KB · Aufrufe: 100
  • crystalsikinfo.png
    crystalsikinfo.png
    40,3 KB · Aufrufe: 104
  • AS_SSD_mark.png
    AS_SSD_mark.png
    49,3 KB · Aufrufe: 98
  • crystalmark.png
    crystalmark.png
    20,8 KB · Aufrufe: 94
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hi,
ich habe eine ähnlich Config. Siehe mein System unter mein Avatar links. Ich habe 2 M2 SSD im System Ich hattte Probleme als ich noch noch meine Soundblaster X-Fi PCIe Karte verbaut hatte. Mir gingen einfach die PCIe-Lanes aus....
Nachdem ich die PCie Soundkarte rausgeworfen habe und nur die Onboard Realtek nutze, war alles in Butter.
Das Einzige was ich mir vorstellen kann, dass die 2. M2 SSD aus irgend einen Grund nur mit 2 Lanes angesprochen wird oder es liegt möglicherweise ein Defekt der 2. M2 SSD vor.
Hast du schon mal M2 Slots getauscht? Also die 2. SSD in den 1. M2 Slot gesteckt und umgekehrt?
Oder vielleicht mal eine andere SSD ausprobiert ob sich das Verhalten reproduzieren lässt?
 
Hast du schon mal M2 Slots getauscht? Also die 2. SSD in den 1. M2 Slot gesteckt und umgekehrt?
hab die NVME SSDs schon getauscht, es liegt definitiv am Slot und nicht an der SSD.

Ich befürchte langsam das Board hat ne Macke :(
Beitrag automatisch zusammengeführt:

Das Einzige was ich mir vorstellen kann, dass die 2. M2 SSD aus irgend einen Grund nur mit 2 Lanes angesprochen
rein rechnerisch sogar nur mit einer 3.0 Lane
 
Dann könnte es tatsächlich am Mainboard liegen. Besonders da das Verhalten unter Windows und Linux sich bei dir gleichermaßen reproduzieren lässt........
 
weswegen ich davon ausgehe dass die NVMEs im M.2_2 Slot fälschlicherweise mit PCIe 1.0 x 4 oder aber mit PCIe 3.0 x1 angesprochen werden. Warum mir das aber so nicht in CrystalDiskInfo angezeigt wird ist natürlich auch komsich.
Oder der Chipsatz ist nur mit einer PCIe 3.0 Lanes angebunden, oder die PCIe Lanes von dessen Anbindung laufen nur mit PCIe 1.0 Geschwindigkeit, wobei ich letzteres für weniger Wahrscheinlich halte. Ersteres wäre durch einen Fehler des Mainboards, CPU Sockels oder der CPU selbst zu erklären. Vielleicht kann man es bei HWInfo64 sehen, wenn man da alles was unter Bus steht und mit PCIe zu tun hat aufklappt bis man die Anbindung des Chipsatzes gefunden hat oder Du lädst das Reportfile des Systems hoch, dann schau ich mir das mal an ob ich da was sehen kann.

Wäre das Problem im M.2 Slot, würde CrystalDiskInfo nicht anzeigen das die SSD mit PCIe 3.0 x4 angebunden ist, der erste Teil der Anzeige ist die tatsächliche Anbindung und hinter dem | steht die maximale Anbindung die die SSD unterstützt.

der Dude hat genau das selbe Problem wie ich, er hat sich sogar nen PCIe Slot Adapter für die NVME geholt, ohne Erfolg offenbar läuft der ganze Chipsatz PCI Bus nur mit 1.0 oder aber mit maximal mit PCIe 3.0 x1 😬.
Wenn der PCIe Slot in dem der Adapter steckt am Chipsatz hängt, dann würde es die Vermutung das der ganze Chipsatz nur mit PCIe 3.0 x1 angebunden ist, nur bekräftigen.
 
Zuletzt bearbeitet:
Ja, da die NVME offensichtlich mit 3.0 x4 angebunden zu sein scheint (zumindest laut crystaldiskinfo und samsung magican, siehe screenshots), liegt das Problem wohl an der Verbindung Chipsatz <-> CPU. Ich checke morgen mal HWinfo genauer.

Also eigentlich ist der Chipsatz ja mit PCIe 3.0 x 4 angebunden. Zumindest laut dieser Grafik.

amd_ryzen_3_b550_folien-04_E2D1510DE0714982907E1208D695A4EB.jpg


Was ich dabei nicht verstehe, am Chipsatz hängen doch noch andere Komponenten wie Soundchip, USB, SATA, muss das alles gleichzeitig durch das 3.0 x4 Nadelöhr zur CPU?
Wie kann denn dann überhaupt ne NVME exklusiv 3.0 x4 bekommen?
 
Also eigentlich ist der Chipsatz ja mit PCIe 3.0 x 4 angebunden.
Ja, eigentlich ja, aber wenn es Probleme mit den Lanes gibt, etwa ein Kantaktproblem auf der Platine, der CPU oder in deren Sockel, dann hat man eben vielleicht nicht alle 4 Lanes. Dies gibt es ja auch bei M.2 oder PCIe Slots ab und zu mal, oft hilft dort dann das Ausziehen und neu Einstecken der M.2 SSD / Karte.

Was ich dabei nicht verstehe, am Chipsatz hängen doch noch andere Komponenten wie Soundchip, USB, SATA, muss das alles gleichzeitig durch das 3.0 x4 Nadelöhr zur CPU?
Wieso Nadelöhr? Für das bisschen Durchsatz was die meist nur machen, reicht doch selbst eine PCIe Lane. Hast Du überhaupt eine SATA SSD an den SATA Ports? Mit mindestens zwei schnellen SATA SSDs im RAID 0 an den SATA Ports des Chipsatzes könnte man die Bandbreite von PCIe 3.0 x1 auslasten und ggf. auch feststellen, dass die Anbindung des Chipsatzes in diesem speziellen Fall das Nadelöhr ist.

Wie kann denn dann überhaupt ne NVME exklusiv 3.0 x4 bekommen?
Wieso exklusiv? Chipsätze sind im Prinzip vor allem PCIe Lane Switches (aka PLX Chips) mit integrierten USB und SATA Host Controllern. Die Bandbreite des Uplinks, also der Verbindung zur CPU, wird dynamisch auf die Downlinks (also PCIe Lanes, SATA und USB Ports) aufgeteilt. Auf PCIe werden die Daten in Paketen übertragen (wie eigentlich bei allem was mit Rechnern zu tun hat) und da die Kommunikation normalerweise von einem Geräte an einem Downlink über den Uplink zur CPU geht oder umgekehrt, wobei PCIe vollduplex ist, also Daten in beide Richtungen gleichzeitig übertragen kann, sammelt der Switch die Paket und schickt sie über den Uplink zur CPU und empfängt zugleich Pakete von CPU und sendet diese an ihre Empfänger an den Downlinks. Dies erhöht die Latenz minimal, aber da die Pakete bei PCIe im Vergleich zu z.B. SATA mit seinen bis zu 8192 Byte Nutzdaten pro Paket (dort FIS genannt) bei PCIe klein ist, üblich sind 64, 128 oder 256 Byte je nach Gerät, nicht sehr viel. Der Nachteil ist halt mehr Overhead, denn jede Paket muss ja außer den Nutzdaten noch weitere Daten enthalten, wie Absender und Adresse, dazu Prüfsummen um Fehler zu erkennen, um korrekt zugeordnet werden zu können.

Es ist also nicht so wie manche zu glauben scheinen das da die 4 Lanes der Verbindung zur CPUs immer mal zusammen oder einzeln auf diese oder das Gerät geschaltet werden. Deshalb wird die Anbindung des Chipsatzes erst dann zum Flaschenhals, wenn der gesamte Datenverkehr der in eine Richtung geht (wegen Vollduplex), die Bandbreite der Anbindung übersteigt. Vergiss also die Idee von sowas wie exklusiven Lanes, sowas macht keinen Sinn und sowas gibt es daher auch nicht.
 
Also ich hatte das Board auch mal und keine solchen Probleme, also ist das kein generelles Problem.

Hier mal ne Samsung 980 Pro, Unterschiede gibt es ab nicht so eklatant.


CPU Slot

as-ssd-bench Samsung SSD 980 2TB 70% gefüllt CPU Slot PCIe 4  26.09.2021 07-50-13.png

Chipsatz Slot

as-ssd-bench Samsung SSD 980 Pro 2TB 2 M.2 Slot Chipsatz PCIe 3.0 x4 18.08.2022 06-53-32.png
 
Schon Traurig wie man bei AMD oder Intel beschissen wird, wenn es um die PCIe Lanes geht. Schau dir die Billigste Epic CPU bei Geizhals an… 128 PCIe Lanes oh ein Wunder es geht also. Im Desktop Bereich wie der Krüppel mit beschnittenen 24 Lanes ein Trauerspiel.

So Versucht man die Kunden auf die Teuren Plattformen zu drücken Threadripper oder Sockel 2066. Wer mehr Lanes haben will muss auch mehr Zahlen, nicht nur bei der Anschaffung sondern auch beim Stromverbrauch etc.
 
Wieso exklusiv? Chipsätze sind im Prinzip vor allem PCIe Lane Switches (aka PLX Chips) mit integrierten USB und SATA Host Controllern. Die Bandbreite des Uplinks, also der Verbindung zur CPU, wird dynamisch auf die Downlinks (also PCIe Lanes, SATA und USB Ports) aufgeteilt. Auf PCIe werden die Daten in Paketen übertragen (wie eigentlich bei allem was mit Rechnern zu tun hat) und da die Kommunikation normalerweise von einem Geräte an einem Downlink über den Uplink zur CPU geht oder umgekehrt, wobei PCIe vollduplex ist, also Daten in beide Richtungen gleichzeitig übertragen kann, sammelt der Switch die Paket und schickt sie über den Uplink zur CPU und empfängt zugleich Pakete von CPU und sendet diese an ihre Empfänger an den Downlinks. Dies erhöht die Latenz minimal, aber da die Pakete bei PCIe im Vergleich zu z.B. SATA mit seinen bis zu 8192 Byte Nutzdaten pro Paket (dort FIS genannt) bei PCIe klein ist, üblich sind 64, 128 oder 256 Byte je nach Gerät, nicht sehr viel. Der Nachteil ist halt mehr Overhead, denn jede Paket muss ja außer den Nutzdaten noch weitere Daten enthalten, wie Absender und Adresse, dazu Prüfsummen um Fehler zu erkennen, um korrekt zugeordnet werden zu können.

Danke für die Erklärung dass erklärt auch warum NVM;Es an der SB immer ein bisschen langsamer sein können, wenn gleichzeitig Sound und SATA Platten arbeiten oder?


Zu meinem Problem:
Also ich habe jetzt den SB Link Mode im Bios auf GEN1 -> PCIe 1.0 gestellt.

Wenn das die Einstellung für die Verbindung zwischen Chipsatz (SB) und CPU ("NB") ist und bei meinem Board nur eine Lane verfügbar wäre dann müsste die Geschwindigkeit noch ein mal um 1/4 sinken da dann der Chipsatz nur noch mit PCIe 1.0 x1 an die CPU angebunden wäre.

Ihr merke an den Konjunktiven schon, dass das nicht passiert ist, ich habe immer noch 740/690 MB/s auf dem M.2_2 SLot. 🙄

Ist "SB Link-> GEN1" vielleicht doch nicht die richtige Einstellung.

Gibt es eine Möglichkeit ein Bios downgrade zu forcen?

Dass müsste der upstream Switch zur CPU sein, wie man sieht läuft er auf PCIe 3.0 x4, scheint also ok zu sein und wird von der Bios Einstellung nicht verändert, irgendwie alles komisch....


Beitrag automatisch zusammengeführt:

upstream.png
 
Zuletzt bearbeitet:
also ist das kein generelles Problem.
Davon geht auch keiner aus, aber ein Problem wie eine kalte Lötstelle oder eine sonst wie unterbrochene Verbindung, sei es in der CPU, in ihren Sockel, auf dem Mainboard oder dem Chipsatz, liegt ja hier offenbar vor. Sowas muss bei der QC ja auch nicht unbedingt auffallen, denn es funktioniert ja alles, nur die Performance ist halt eingeschränkt, aber ich glaube kaum dies einem Mainboardhersteller bei der QC auffallen würde.

Schon Traurig wie man bei AMD oder Intel beschissen wird, wenn es um die PCIe Lanes geht.
Wo bescheißen sie denn? Man weiß doch was man bekommt, dies ist ja kein Geheimnis: Beschissen wird man nur, wenn man etwas anderes bekommt als versprochen wurde.

Im Desktop Bereich wie der Krüppel mit beschnittenen 24 Lanes ein Trauerspiel.
Je nach Plattform hat man ja auch im Desktop Bereich mehr als 24 Lanes, denn neben denen vom der CPU hat man ja auch noch die vom Chipsatz und bei einem Z790 sind dies bis zu 28 (20 PCIe 4.0 und 8 PCIe 3.0), zusätzlich zu den 20 direkt von der CPU.

So Versucht man die Kunden auf die Teuren Plattformen zu drücken Threadripper oder Sockel 2066. Wer mehr Lanes haben will muss auch mehr Zahlen
Die allermeisten Kunden der Desktop Plattform kommen mit den PCIe Lanes aus die diese bieten, denn sie brauchen sie für eine Graka, ein paar M.2 SSDs und vielleicht noch eine weitere Karte wie z.B. eine Soundkarte. Warum sollte solche Kunden die Mehrkosten tragen müssen die mit noch mehr PCIe Lanes einhergehen würden? Die gibt es eben nicht umsonst und dazu braucht man auch einen größeren Sockel um die nötigen Verbindungen (Pins) unterbringen zu können, wenn diese PCIe Lanes direkt aus der CPU kommen sollen, was dann deren Diesize (also auch Kosten) und Leistungsaufnahme natürlich auch nach oben treibt und bei kleinen Mini-ITX Mainboards zu noch schlimmeren Platzproblemen führt als man jetzt schon hat.

Wer wirklich so viele PCIe Lanes braucht, der muss dann eben die teuren Workstation oder Server Plattformen kaufen. Andererseits kommen da ja dann auch Karten wie z.B. NVMe SSDs rein und die kosten in Summe dann auch eine ganze Menge und wer nun hingeht und sich beschwert diese Plattformen wäre zu teuer, weil er gerne eine Menge billiger gebrauchter 250GB M.2 SSD in der Bucht kaufen und nutzen würde um ein paar Euro pro TB gegenüber einer neuen 4TB zu sparen, dem ist nicht zu helfen.

dass erklärt auch warum NVM;Es an der SB immer ein bisschen langsamer sein können, wenn gleichzeitig Sound und SATA Platten arbeiten oder?
Nicht immer, denn NVMe SSDs brauchen schon einige lange und parallele Zugriffe um auf ihre volle Leserate zu kommen und diese kommen im Alltag selten vor. Soundkarten und SATA Platten belegen ja nicht so viel Bandbreite, die sollte da noch übrig sein, außer man hat ein größeres RAID 0 mit SATA SSDs. Dann wäre es vielleicht ein Problem wenn man gleichzeitig große Dateien von der NVMs und dem RAID 0 aus den SATA SSDs lesen will, aber wann macht man sowas schon mal? Man wird doch eher Dateien von der NVMe SSD auf das RAID kopieren (oder umgekehrt) und dann ist es wieder kein Problem, weil PCIe ja vollduplex ist. Wenn man also an einem mit PCIe 3.0 x4 angebundenen Chipsatz zwei MVMe betriebt die mit 3,5GB/s lesen und schreiben können, dann kann man auch mit dieser Geschwindigkeit von einer auf die andere kopieren. Zumindest theoretisch, der Explorer schafft es nicht, der begrenzt vorher und vielleicht schaut auch der Virenfinder was das für Dateien sind, etc., aber rein von der Chipsatzanbindung her ist es möglich.

Ist "SB Link-> GEN1" vielleicht doch nicht die richtige Einstellung.
Ändert sich was wenn Du da Gen3 einstellst? Keine Ahnung wie es bei AMD mit den PCIe Lanes zur Anbindung des Chipsatzes aussieht, aber wenn die entsprechenden Energiespareinstellungen aktiv sind, dann senken die Lanes normalerweise die Geschwindigkeit um Energie zu sparen, wenn die Bandbreite nicht gebraucht wird. Wenn man die Geschwindigkeit im BIOS fixiert statt sie auf AUTO zu lassen, dann passiert die normalerweise nicht, aber vielleicht liegt ja genau da das Problem. Der Chipsatztreiber ist aktuell? Welcher Energiesparplan ist aktiv? Wenn es nicht Höchstleistung ist, probiere doch mal Höchstleistung. Denn wenn dies die richtig Einstellung ist, keine Ahnung ob dies der Fall ist, dann sind ja offenbar alle 4 PCIe Lanes vorhanden, laufen nur eben zu langsam.
 
Ändert sich was wenn Du da Gen3 einstellst?
nope, hab ich schon gestern probiert, same as "Auto" (Default)
Beitrag automatisch zusammengeführt:

Der Chipsatztreiber ist aktuell?
ja
Welcher Energiesparplan ist aktiv?
Ausgeglichen, Problem tritt aber auch bei Linux auf, da läuft afaik kein Energeisparplan
wenn es nicht Höchstleistung ist, probiere doch mal Höchstleistung.
mach ich mal
Beitrag automatisch zusammengeführt:

Hab mal mit Linux geschaut, dass ist interessant, das müsste der Uplink zur CPU sein oder? (2.5 GT/s bedeutet wohl PCIe 1.0)


02:00.2 PCI bridge: Advanced Micro Devices, Inc. [AMD] 500 Series Chipset Switch Upstream Port (prog-if 00 [Normal decode])
Subsystem: ASMedia Technology Inc. Device 0201
Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx-
Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
Latency: 0, Cache Line Size: 64 bytes
Interrupt: pin C routed to IRQ 32
IOMMU group: 15
Bus: primary=02, secondary=03, subordinate=07, sec-latency=0
I/O behind bridge: f000-ffff [size=4K] [16-bit]
Memory behind bridge: fc500000-fc6fffff [size=2M] [32-bit]
Prefetchable memory behind bridge: [disabled] [64-bit]
Secondary status: 66MHz- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- <SERR- <PERR-
BridgeCtl: Parity- SERR+ NoISA- VGA- VGA16+ MAbort- >Reset- FastB2B-
PriDiscTmr- SecDiscTmr- DiscTmrStat- DiscTmrSERREn-
Capabilities: [50] MSI: Enable- Count=1/1 Maskable- 64bit+
Address: 0000000000000000 Data: 0000
Capabilities: [78] Power Management version 3
Flags: PMEClk- DSI- D1- D2- AuxCurrent=55mA PME(D0-,D1-,D2-,D3hot+,D3cold+)
Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
Capabilities: [80] Express (v2) Upstream Port, MSI 00
DevCap: MaxPayload 512 bytes, PhantFunc 0
ExtTag+ AttnBtn- AttnInd- PwrInd- RBE+ SlotPowerLimit 75W
DevCtl: CorrErr+ NonFatalErr+ FatalErr+ UnsupReq+
RlxdOrd+ ExtTag+ PhantFunc- AuxPwr- NoSnoop+
MaxPayload 128 bytes, MaxReadReq 512 bytes
DevSta: CorrErr+ NonFatalErr- FatalErr- UnsupReq+ AuxPwr+ TransPend-
LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L0s L1, Exit Latency L0s <2us, L1 <32us
ClockPM- Surprise- LLActRep- BwNot- ASPMOptComp+
LnkCtl: ASPM Disabled; Disabled- CommClk+
ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
LnkSta: Speed 2.5GT/s (downgraded), Width x4
TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
DevCap2: Completion Timeout: Not Supported, TimeoutDis- NROPrPrP- LTR+
10BitTagComp- 10BitTagReq- OBFF Not Supported, ExtFmt+ EETLPPrefix-
EmergencyPowerReduction Not Supported, EmergencyPowerReductionInit-
FRS-
AtomicOpsCap: Routing-
DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis- LTR- 10BitTagReq- OBFF Disabled,
AtomicOpsCtl: EgressBlck-
LnkCap2: Supported Link Speeds: 2.5-8GT/s, Crosslink- Retimer- 2Retimers- DRS-
LnkCtl2: Target Link Speed: 2.5GT/s, EnterCompliance- SpeedDis-

Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
Compliance Preset/De-emphasis: -6dB de-emphasis, 0dB preshoot
LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete- EqualizationPhase1-
EqualizationPhase2- EqualizationPhase3- LinkEqualizationRequest-
Retimer- 2Retimers- CrosslinkRes: unsupported
Capabilities: [c0] Subsystem: ASMedia Technology Inc. Device 0201
Capabilities: [100 v1] Advanced Error Reporting
UESta: DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
UEMsk: DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
CESta: RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
CEMsk: RxErr- BadTLP- BadDLLP- Rollover- Timeout- AdvNonFatalErr+
AERCap: First Error Pointer: 00, ECRCGenCap+ ECRCGenEn- ECRCChkCap- ECRCChkEn-
MultHdrRecCap- MultHdrRecEn- TLPPfxPres- HdrLogCap-
HeaderLog: 00000000 00000000 00000000 00000000
Kernel driver in use: pcieport
Beitrag automatisch zusammengeführt:



Update:
habe jetzt im BIOS nochmal "SB Link" auf GEN3 geforced und Win11 Höchstleistungsmodus aktiviert aber der Uplink beibt bei 2.5GT/s aka PCIe 1.0 (siehe Screenshot), ich freu mich schon aufs Board ausbauen, und RMA (Ticket bei Auss ist offen), mit dem aktuellen Rechner hab ich nix als Ärger...
 

Anhänge

  • upstream2.png
    upstream2.png
    117,2 KB · Aufrufe: 88
Zuletzt bearbeitet:
aber der Uplink beibt bei 2.5GT/s aka PCIe 1.0 (siehe Screenshot)
Dann hast Du den passenden Wert ja schon gefunden. Schau mal ob sich was ändert, wenn CDM auf der SSDs im M2_2 Slot läuft, also wirklich Last da ist und die Geschwindigkeit hoch gehen müsste.

Sonst fällt mir höchstens noch ein: Ist der Chipsatz vielleicht zu heiß und throttelt deswegen? Keine Ahnung wieso er so heiß sein sollte, aber vielleicht ist das ja das Problem oder sein Temperatursensor hat einen Schaden.
 
Dann hast Du den passenden Wert ja schon gefunden. Schau mal ob sich was ändert, wenn CDM auf der SSDs im M2_2 Slot läuft, also wirklich Last da ist und die Geschwindigkeit hoch gehen müsste.

Sonst fällt mir höchstens noch ein: Ist der Chipsatz vielleicht zu heiß und throttelt deswegen? Keine Ahnung wieso er so heiß sein sollte, aber vielleicht ist das ja das Problem oder sein Temperatursensor hat einen Schaden.
Hmm ich hab ne WakÜ da wird natürlich Chipsatzmässig nix gekühlt, ich schau mal, was sind denn normale Chipsatztemperaturen?
Beitrag automatisch zusammengeführt:

Update: Ich hab mal spaßeshalber im Bios GEN2 eingestellt, ohne Unterschied, zuerst einmal, aber nun war der Rechner aus und nach dem Start habe ich immerhin 5GT/s also PCIe GEN2

Die NVME quittiert das auch prompt mit nun 1600 MB/s

Der Rechner war ne halbe Stunde aus,, also vielleicht echt ein Hitzeproblem.
Beitrag automatisch zusammengeführt:

Ist das der Chipsatz? 😬
Beitrag automatisch zusammengeführt:

Update: hmm auf Auto oder GEN3 bleibt er wieder auf 2.5GT/s also PCIe 1.0 :(
 

Anhänge

  • temp.png
    temp.png
    14,3 KB · Aufrufe: 70
Zuletzt bearbeitet:
was sind denn normale Chipsatztemperaturen?
Keine Ahnung, SSDs Controller throtteln normalerweise ab 70°C, Intel CPUs meist ab 100°C, irgendwo dazwischen wird auch das Temperaturlimit für den Chipsatz liegen. Halte doch mal eine Lüfter davon und schau ob es dann besser wird.
 
Hab da jetzt nen fetten Ventilator vor das Gehäuse gepackt und ich hab das Gefühl je mehr ich Kühle desto heißer wird die Temperatur? Crazy
Beitrag automatisch zusammengeführt:

jetzt 91 Grad
Beitrag automatisch zusammengeführt:

Alles geht um ca. 10 Grad runter (SSD, Mainboard, Graka) außer diese beiden komischen Temps die gehen um 10 Grad rauf, kann es sein dass die Sensoren falsch angeschlossen sind oder so?
Beitrag automatisch zusammengeführt:

jetzt 92 Grad

temp3.png

Beitrag automatisch zusammengeführt:

Also das ist echt bescheuert, habe den Lüfter jetzt wieder abgebaut, und das Gehäuse geschlossen und erwartungsgemäss gehen alle Temps wieder etwas nach oben, außer diese beiden komischen temps (TMPIN4 & AUXTIN0) die gehen jetzt wieder nach unten, verrückt...oder ist das so ein tj.max Ding?
 

Anhänge

  • temp.png
    temp.png
    32,9 KB · Aufrufe: 74
Zuletzt bearbeitet:
Meine beiden B550M Tuf Gaming Plus (1xWifi 1x non wifi) haben kein Problem mit dem vollen gen3x4 Durchsatz im M2-Slot am Chipsatz.
Evtl. hat Deine CPU oder Board ein Problem mit dem Link zwischen CPU und Chipsatz?

Über diese beiden Temp-Werte kann man nur unklare Infos und Spekulationen bekommen; sollten aber wohl mit der echten Chipsatztemp nichts zu tun haben.
 
Zuletzt bearbeitet:
Über diese beiden Temp-Werte kann man nur unklare Infos und Spekulationen bekommen; sollten aber wohl mit der echten Chipsatztemp nichts zu tun haben.

was haben denn deine beiden Boards bei den seltsamen Sensoren für temps? Würde mich echt mal intertessieren, vielleicht sind die bei mir defekt, ausgelesen habe ich mit HWInfo.
 
Mein Hwinfo (v7.32 4900) hat sie komplett ausgeblendet in der Sensorenanzeige => keine Anzeige

HWMonitor : TMPIN4 + AUXTIN0 84-85 grad. Unter quasi-Idle, wo nur ein Twitch-Stream läuft. Vorhin wars mal 92. Mainboard 36 Grad. CPU (5750G) schwankt zwischen 32-40.
In einem Gehäuse mit gutem Airflow.
Das ist das B550M Tuf Plus Wifi.

Das zweite (5600X) kann ich nicht nachschauen; da läuft mittlerweile headless ein Proxmox-Server drauf.

Als SSD hatte ich aber alles mögliche dran: 970 Evo Plus, 960 Evo, Fastro MS200, WD SN850, PM9A1, also von billig über Mittelklasse + OEM bis Premium.
 
Zuletzt bearbeitet:
danke, also wie bei mir, ich denke bei dir werden die temps unter last wie bei mir eher sinken als steigen ;)

naja ok, nochmal vielen dank fürs schauen, hat dann wohl nix mit meinem Problem zu tun
Beitrag automatisch zusammengeführt:

Das zweite (5600X) kann ich nicht nachschauen; da läuft mittlerweile headless ein Proxmox-Server drauf.

wenn PROXMOX unter Linux läuft kannst du lm-sensors oder xsensors installieren und damit nachschauen.

Code:
#sensors | grep AUXTIN0

musst du aber nicht, nur als Info wenn du mal temps unter Linux wissen willst. :)
Beitrag automatisch zusammengeführt:

.
Mein Hwinfo (v7.32 4900) hat sie komplett ausgeblendet in der Sensorenanzeige => keine Anzeige
achso, my fail, sorry habe auch nix in HWInfo und mit HWMonitor ausgelesen
 
Zuletzt bearbeitet:
Das funktioniert nicht ohne Kerneleingriffe/Kerneltreiber, ist bekanntes Problem mit dem NCT6798D-R Chip. (haben viele Asus-Boards).
 
@Trambahner
Bei mir laufen laut HWInfo auch die Chipsatz USB und Sata Controller nur auf 2.5GT/s kannst du vielleicht mal schauen ob das bei dir auch so ist?

usb.png
sata.png
 
Alles geht um ca. 10 Grad runter (SSD, Mainboard, Graka) außer diese beiden komischen Temps die gehen um 10 Grad rauf, kann es sein dass die Sensoren falsch angeschlossen sind oder so?
Falsch anschließen kann man solche Sensoren nicht, die sind ja meist auf dem Chip selbst und auch sonst ist es ja nicht so als würden sie 100°C oder 120°C oder sowas minus der echten Temperatur anzeigen, wenn man sie falsch anschließt. Die Rohwerte der Sensoren werden offenbar falsch interpretiert, wobei es nebensächlich ist was irgendwelche Tools anzeigen, wichtig ist nur, was das System selbst interpretiert (wobei dies meist das Gleiche ist, aber nicht immer), welches auf die Temperaturen reagiert, eben z.B. indem es die Geschwindigkeit von PCIe Lanes senkt um die Leistungsaufnahme und damit Temperatur zu senken.
oder ist das so ein tj.max Ding?
Kann sein, aber wir sehen ja das die Geschwindigkeit der PCIe Lanes der Chipsatzanbindung gedrosselt ist und dies wäre auch zu erwarten, wenn das System die Temperatur als so hoch ansieht, wie sie auch angezeigt werden. Vielleicht ist es ein BIOS Bug, vielleicht ein Bestückungsfehler auf der Platine, was auch immer, aber dies ist ein Fall für den ASUS Support und wohl eine RMA.
 
Nope, der Chipsatz hängt bei mir mit gen3 (also 8.0 GT/s) dran, wie es sein soll. Sonst könnte die SSD am M.2 sort ja auch nicht 3.4 GB/s erreichen.
Dito der Sata-Part; auch 8.0 GT/s
Also wie es sein muss.
Die Linkspeeds im Bios stehen alle auf "Auto"; also default.

In der Proxmox-Kiste ist auch gen4 aktiv. Da ist ja ein 5600X drin und die Nvme-SSDs für den ZFS-Pool sind per Bifurcation (hab ich auf x4x4x4x4 eingestellt, es können also nochmal zwei PCIe SSDs @ gen4 rein) auf dem 16er-Slot untergebracht . Grafik braucht die Kiste ja nicht (nur für ggf. Wartungszwecke, da reicht der Slot am Chipsatz mehr als aus)
 
Zuletzt bearbeitet:
Ich hab ja oben bereits die Vermutung eines Defekts geäussert, denn ein Limit auf gen1 oder gen2 ist auf jeden Fall nicht Standard.
 
Danke euch allen, wie es bei ähnlichen Boards aussieht hat mir schon geholfen, ich mach morgen ne RMA auf.
Ich hab übrigens nen MiniPc und die mATX Version. Ein Hitzeproblem konnte ich aber ausschließen.

Ich habe es übrigens wieder auf Auto (also GEN1) gestellt, GEN2 hat gestern zu einem Reboot geführt. Irgendwas stimmt mit der Schnittstelle CPU <-> Chipsatz definitiv nicht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh