Holt
Legende
- Mitglied seit
- 05.07.2010
- Beiträge
- 29.759
Da wäre ich mir nicht bei allen Boards so sicher, siehe Post #68.Laut L1 Wendell: Diese "Deppen" nutzen in ihren eigenen Servern Workstation Boards, die die CPUs bereits komplett nach Intel Default Spec fahren.
So scheint es mir auch zu sein.Nüchtern betrachtet sieht das für mich eher aus, als betreiben da ein paar Amateure ein Rechenzentrum, nach dem Motto "Gaming Server mit Gaming CPUs"
Die Frage ist die der Seriosität der Quellen. Auch wenn ein paar Amateure ein Rechenzentrum betreiben, macht sie das nicht zu Fachleuten.Sonst bleibt das hier trotz Quellen alles ein bisschen Wischiwaschi und Knochenwerfen.
Es geht ja um mehr als nur die Einstellung der Limits, sondern eben auch um andere Einstellungen wie die Spannungskurven und Dingen wie CEP.Bei Alderon liefen die Dinger auf W680 Boards, gedeckelt auf Intel Spec.
Eben, aber schon der 13900K ist bis 5,8GHz spezifiziert und früher erschienen, der E-2488 kam erst in Q4 2023, genau wie der 14900K der sogar 400MHz mehr maximalen Turbotakt hat.Der Xeon E-2488 ist zB Raptor Lake 8/16 mit 5.6GHz Turbo für LGA1700.
Nein, denn Desktop Hardware ist nicht für Dauerlast oder auch nur Dauerbetrieb gedacht. Bei Desktop HDD wird daher auch angegeben, dass sie nur für 2400 Power-On-Hours pro Jahr gedacht sind. Die klassische Definition eines Desktop, also des Rechners der auf dem Schreibtisch (Desk) steht, ist der eine persönlichen Arbeitsmittels eines Mitarbeiter und der schaltet den morgens ein, arbeitet normalerweise so 8 Stunden am Tag, macht eine Stunde Mittagspause und schaltet ihn dann abends aus und dann kommt man mit 2400 Stunden im Jahr aus. Der Rechner muss dabei auch nur kurze Leistungsspitzen ertragen und ist meist mehr oder weniger Idle.Die Spec der Desktop CPUs sollte auch für Dauerlast gelten, sonst ists als Spec nutzlos.
Rechner die für aufwendigere Aufgaben wie Simulationen, CAD, etc. gedacht sind, sind dann die Workstations, da steht dann die Arbeit an einer bestimmten Anwendung im Vordergrund und da so leistungsstarke Rechner früher unverhältnismäßig teuer waren, gab es dann meist nur wenige davon und die Mitarbeiter die mit diesen Aufgaben befasst sind, wechseln sich an der Workstation ab, es ist also kein persönlicher Computer (PC) und Workstations sind auch für Dauerlast und Dauerbetrieb ausgelegt. Sie unterscheiden sich von Servern vor allem dadurch, dass jemand an der Workstation direkt arbeitet, während Server headless betrieben werden und meist in einem klimatisierten Serverraum stehen, während Workstations in Büros stehen.
Heute verschwimmen die Definitionen etwas, aber wer von einem Desktop erwartet, dass diese 24/7 Dauerlast vertragen muss, der irrt sich halt.
So ist es aber, wer Dauerlastfähigkeit von einem Desktop erwartet, hat die Kategorien Desktop, Workstation und Server nicht verstanden.Überleg doch mal, was du da gerade implizierst: dass man einer Intel Desktop CPU generell nicht zutrauen kann, dass sie ihre Spezifikation unter Dauerlast einhält.
Dann haben sie Probleme mit dem RAM und wer RAM Fehler hat, muss mit allem möglichen Problemen rechnen, wie eben auch Abstürzen. Da steht aber eben nie dabei, dass es die Folge eines RAM Fehler war, dies erfährt man nur bei Systemen mit ECC RAM und deswegen ist im Server und Workstationbereich ja auch praktisch Pflicht, weil dort eben der stabile Betrieb über Wochen, Monate, Jahre und fehlerfreie Ergebnisse der Berechnungen von großer Bedeutung sind.Alderon Games tauscht alle Raptor-Lake-CPUs gegen AMD aus
Massive Probleme mit Abstürzen und Memory Corruption berichtet
Die PCs bzw. Desktops sollen vor allem billig sein und es reicht wenn sie meistens fehlerfrei laufen, weshalb ECC RAM bis heute nicht generell in Desktops verbreitet ist. Stattdessen hat man scheibchenweise neue Technologien eingeführt um zu viele Probleme zu vermeiden, mit DDR4 kam eine CRC für die Datenübertragung hinzu um Übertragungfehler erkennen zu können, fehlerhafte Übertragungen müssen dann wiederholt werden. Übertragungsfehler können also zu Laggs führen, was schon besser ist als Abstürze. Mit DDR5 kam nun noch eine On-Die-ECC hinzu, auch wenn diese wohl optional ist, scheinen sie doch alle Riegel zu haben, aber die ist transparent, man erfährt also nicht ob da in einem Die harte Fehler vorhaben sind und die On-Die-ECC daher jedesmal Fehler korrigiert und damit nicht mehr in Lage ist zu korrigieren, wenn dann wirklich mal ein Bit kippt. Die kleineren Fertigungsprozesse der DDR5 RAMs haben dies wohl nötig gemacht, aber wie viel sicherer vor RAM Fehlern ist man am Ende wirklich gegenüber DDR4? Werden nur die DRAM Dies genommen die selbst fehlerfrei sind, dann ist dies bestimmt sicher, aber verarbeiten die RAM Hersteller auch DRAM Chips die interne Fehler haben, die die On-Die-ECC gerade noch ausgleichen kann, dann bringt sie am Ende keine höhere Sicherheit vor RAM Fehlern.
Kannst du dir nicht vorstellen, dass es vielleicht ein wenig komplizierter ist die Ursache solcher Instabilitäten, die ja offenbar auch nur bei bestimmten Programmen auftreten, also bei sehr dynamischem Verhalten, zu ermitteln als wenn irgendwas einfach durchbrennt? Bei letzterem braucht man nur die Spannungen zu überwachen und sich anzusehen wie hoch diese ging, bevor der Chip abfackelt. Nicht jeder Fehler ist gleich komplex wenn es um die Ermittlung der Ursache geht und entsprechend dauert es dann auch mal länger, bis man diese gefunden hat, sich sicher ist das man nun auch die richtige Ursache oder schlimmer noch Kombination verschiedener Ursachen gefunden hat. Es wäre nicht sehr vertrauensfördernd, wenn Intel da jede Woche ein Update bringen müsste, weil man dann doch wieder neue Erkenntnisse gewonnen hat und die Aussage von der Vorwoche wieder korrigieren muss, nur um die Sensationslust der Medien zu befriedigen.Das scheibchenweise Anerkennen der Probleme geht doch mittlerweile fast 3 Monate (?) und ist einfach unanständig gegenüber den Leuten, welche ihr teuer Geld in diese CPUs gesteckt haben.
Ich traue den Ingenieuren bei Intel allemal die Kompetenz zu, die Gründe zu analysieren