Single Core Aufgaben

Auch das ist Unsinn. Wer soll das bezahlen? Dir sind gängige Stundenpreise für Programmierer bekannt?
Lasst doch bitte solchen Unsinn, wenn ihr NULL Erfahrung im Business habt... :wink:
Also das kommt jetzt wirklich auf die Unternehmensstruktur an.
Es gibt ja nicht umsonst überhaupt das Angebot von Softwareentwicklern btw. Unternehmen die Software im Auftrag entwickeln. Größere unternehmen zahlen gern 20 000 - 100 000 für eine Software wenn das den Produktionsablauf beschleunigt. Zusammen mit ner Workstation könnte man hier wahrscheinlich die Rechenzeit auf einen Halben Tag drücken.
Wenn die Problemstellung mit höheren Latenzen klar kommt, auch verteilung auf Cluster (weitere ~20K). Dann ist es in Minuten erledigt.
D.h. das kann sich durchaus lohnen.

Auf Single Core rum zu hacken ist einfach mal Käse, wenn es anders geht.

Allerdings fragen Unternehmen dieses Kalibers wohl eher nicht in nem Forum nach...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist doch aber irrelevant @Fr@ddy, findest du nicht?
Gut 1/3tel Leistungseinsparung von einer betagten 2600k CPU auf was Top aktuelles, egal ob nun 6700k, nen v5 Xeon E3, nen v4 Xeon E3 oder den v4 Xeon E4, sind halt gut 1/3... Das macht aus 10 Tagen eben nur noch 6,6. Muss man nicht mitnehmen, kann man aber...

Ich sage ja nur, dass man sich zuvor fragen sollte, ob man mit 7 Tagen glücklicher als mit 10 ist. Wenn beides zu lang ist kann man das ganze auch lassen oder sich nach alternativen Lösungen umsehen.
So langsam muss man sich halt leider daran gewöhnen, dass man nicht einfach nach ein paar Jahren neue Hardware kaufen kann und die alte Software läuft plötzlich schneller. Wenn Software nicht gut über parallele ausführung skaliert ist die Leistungssteigerung über die letzten Jahre recht dürftig.

Evtl. auch mal prüfen ob die Software von neueren AVX Versionen profitiert, das könnte die Laufzeit im idealfall fast halbieren. Prüfen ob die Software AVX verwendet wäre auch mit Blick auf die CPU Auswahl sinvoll, da viele Modelle den Takt bei AVX-nutzung senken.
Wenn sie Quellen der Software noch vorhanden sind kann man auch mal andere Compiler und flags verwenden, bis zu 20% sind da keine Seltenheit.

Das größte Potential hat natürlich parallelisierung oder ändern der Parameter der Simulation. Es wäre schon sehr glücklich wenn man die Laufzeit durch austausch der Hardware halbieren könnte. Ich halte nur durch Hardwarewechsel eher 30% für realistisch.
 
Allerdings fragen Unternehmen dieses Kalibers wohl eher nicht in nem Forum nach...

Merkst du was?? ;)
-> es wird also wohl Gründe haben, warum das so ist, wie es ist...

Auffallend ist hier mal wieder, dass die Helfer (die Bereitschaft zu Helfen in allen Ehren!) schlicht und ergreifend nicht helfen, sondern einfach den eigenen Tellerand auf den anfragenden draufdrücken wollen...
Wenn Jemand nach einem Prozessor fragt, der mehr ST Power liefert -> und diese gibts, wie man hier ja lesen kann, dann ist eine Empfehlung zur Umprogrammierung der Software schlicht und ergreifend am Thema vorbei. Genau so wie OC zu Empfehlen für das genannte Vorhaben unsinn ist. Eigentlich sogar die i7 Modelle anzupreisen anstatt der Xeons (ECC)

Keine Ahnung, warum nur mir sowas auffällt :wink:
Ehrlich gesagt ist das ziemlich beschähmend, wie die Threads in Computerforen mit jedem Jahr Niveau verlieren :(


Auf Single Core rum zu hacken ist einfach mal Käse, wenn es anders geht.
Im gegenwärtigen Fall gehts aber nicht anders???
Das hinzudichten von "Möglichkeiten" die nicht zur Wahl standen ist auch so ein Part wie oben angesprochen... Es war nicht angefragt, die Software umzuschreiben. Und sicher wird der TE, wenn er das vor hat, nicht im CPU-Bereich vom Hardwareluxx nach sowas fragen... Warscheinlich wird er für sowas gar nicht im Luxx anfragen.

Das größte Potential hat natürlich parallelisierung oder ändern der Parameter der Simulation. Es wäre schon sehr glücklich wenn man die Laufzeit durch austausch der Hardware halbieren könnte. Ich halte nur durch Hardwarewechsel eher 30% für realistisch.

Gut 1/3tel halte ich auch für realistisch mit so einem Wechsel. Für den Kostenaufwand ist das aus meiner Sicht "OK"... Kost ja effektiv nix, wenn man es genau nimmt. Zumindest nichts im Vergleich zu den Zahlen, die der TE hier angedeutet hat...
 
Zuletzt bearbeitet:
Nö kostet und bringt nicht viel ;-)

Sind eigentlich die interessantesten Probleme, wenn man mit Geld draufwerfen keine zufriedenstellende Lösung erzielen kann wirds spannend finde ich.

Übrigens unterstützt der genannte 2600k auch keinen ECC Speicher. Daher würde ich aktuell auch zum 6700k oder E5-1630v4 greifen wenn ich etwas lieferbares nehmen müsste. Für alles andere müsste man sich noch etwas gedulden, Socket 2066 könnte noch fast ein Jahr auf sich warten lassen.
Bei single Threaded Anwendungen kommt man auch mit den Consumer CPUs ganz gut aus denke ich. Probleme mit der Speicherbandbreite oder TDP limits bekommt man eher bei multithreaded Anwendungen.

Das Niveau in den Foren sinkt nicht nur, es scheinen mehr Beiträge dabei zu sein, die nicht wirklich hilfreich sind, aber es gibt auch immer mal wieder erstaunlich gute informationen. Den ZFS thread hier im Forum finde ich zum Beispiel recht ordentlich. Man muss ein bisschen mehr filtern als früher aber es gibt durchaus noch qualifizierte infos.
 
Zuerst mal muss geklärt werden welche Software es ist
Wenn es wirklich um software etwa 3d zeichnen geht oder animationen mit korrekten ergebnissen (bsp weltraum galaxien bewegungen) Dann lässt sich das unter umständen nicht parralelisieren (physics)
Wenn es aber um schlicht blender handelt gibt es andere Lösungen.
Simularion kann alles sein sobald aber Korrekte physic verwendet werden muss wo Ergebnisse auf andere basieren braucht man einen Schnellen Main Thread.
Da hilft viel cache und speicherbandbreite.
Es kann aber auch sein das es sich um machiennebau geht, motoren simulation usw , da stößt man auf Grenzen wenn es um paarallellsierung geht. sobald ergebnisse vom vorherigen takt ankommt bremst dort oft der speicher.

Allgemein würde ich aber auch nen xeon e5 1650 aufwärts empfehlen eher die e5 1680 hoher singlecore takt und ECC ram
Was bei genauen Berechnungen sehr wichtig sein sein.

also kombi
xeon e5 1680 v4 oder v5
x99 mainboard von supermicron mit passenden 64gb ram
DDR4 2400 höher getakteten ram bringt im server Segment selten was.
günstigere Fassung wäre
xeon e3 1275
c232 mainboard supermicron ua. (diese mainboards können teurer sein als die x99)
64gb RAM ddr4 2400
 
Nö kostet und bringt nicht viel ;-)

Sind eigentlich die interessantesten Probleme, wenn man mit Geld draufwerfen keine zufriedenstellende Lösung erzielen kann wirds spannend finde ich.

Interessant ja, nur muss es eben eine Lösung geben bzw. es muss gewollt sein, das Problem derart zu lösen. Im Moment ist das nicht der Fall. Es wurde ja explizit nach ST Power gefragt. Und es wurde auch explizit erwähnt, dass die Software mit MT im Moment nicht tut bzw. ist sogar deutlich gemacht, dass es mathematisch dafür keine Lösung gibt.
Nix aber von Möglichkeiten die Software da hin zu bewegen, wurde genannt... Geschweige denn, das Problem mit der Mathematik dort hin zu biegen.
Aber sei es drum... Ich halte weiterhin knappe 1000-1500€ (bzw. vielleicht 2000€, wenn man Stangenware mit Support kauft) für angemessen, die Geschwindigkeit um 1/3tel zu steigern und damit 3x Durchläuft im Zweifel anstatt 2x Durchläufe pro Tag zu schaffen -> wenn der Tagessatz der Ingeneure bei 1000€+ liegt.

Übrigens unterstützt der genannte 2600k auch keinen ECC Speicher.
Logisch ;) Heist ja aber nicht, dass es eine gute Lösung ist...
Muss ja nichtmal zwangsweise bemerkt wurden sein, wenn da Rechenfehler durch Bitfehler im RAM entstanden sind. Es ist bei der Zeit, wie lange das Ding pro Durchlauf tuckert nichtmal ausgeschlossen, dass da seit Anfang an die Büchse falsch rechnet und nicht einen richtigen Durchlauf geschafft hat ;) Ganz sicher hat das Keiner wirklich verifiziert.

Das Niveau in den Foren sinkt nicht nur, es scheinen mehr Beiträge dabei zu sein, die nicht wirklich hilfreich sind, aber es gibt auch immer mal wieder erstaunlich gute informationen. Den ZFS thread hier im Forum finde ich zum Beispiel recht ordentlich. Man muss ein bisschen mehr filtern als früher aber es gibt durchaus noch qualifizierte infos.

Das steht außer Frage -> Ausnahme und Regel und so ;)
Wobei der Serverbereich hier auch schon immer die Ausnahme war...
Mir fällt das nur halt hier wieder extrem auf... Die Menge hier weis offenbar alles besser. Vor allem als der Anfragende... Aber anstatt diesem zu "helfen" mit dem, was angefragt wurde, wird irgendwas hingezimmert, was teils massiv am Thema vorbei geht...
 
Wenn Jemand nach einem Prozessor fragt, der mehr ST Power liefert -> und diese gibts, wie man hier ja lesen kann, dann ist eine Empfehlung zur Umprogrammierung der Software schlicht und ergreifend am Thema vorbei.
Bleiben wir mal auf dem Boden bitte. Fakt ist, ein schnellerer Prozessor wird das Problem nur minimal verringern, ob der Jobs nun 7 oder 10 Stunden läuft macht kaum einen Unterschied. Mit der passenden Software läßt sich die Rechenzeit dramatisch absenken und das ist auch in Hinblick auf die zukünftige CPU Entwicklung der einzig sinnvolle Weg. Ich habe schon entsprechende Libraries im Programmcode genutzt, und den dramatischen Unterschied erlebt.

- - - Updated - - -

… dass es mathematisch dafür keine Lösung gibt.
Schon einmal mit der numerischen Approximation von DGLs beschäftigt? Ich habe da so meine Zweifel bei dieser Aussage.
 
Schon einmal mit der numerischen Approximation von DGLs beschäftigt? Ich habe da so meine Zweifel bei dieser Aussage.

Ob ICH mich mit irgendwas beschäftig habe oder nicht, ist hier reichlich nebensächlich...
Wenn ihr es besser wisst, bauts doch dem TE so, dass es geht?
Die Aussage stammt keineswegs von mir, siehe Startpost. Aber das ist wieder typisch, weiste drauf hin, beim Thema zu bleiben, biste der blöde...

Genau so der andere Part, wir reden hier über 1/3tel Zeiteinsparung -> "minimal" ist was anderes. Minimal wäre 5% von mir aus 10%. Aber da ist 1/3tel weit drüber. Kannste nun glauben oder nicht, ist mir reichlich egal. Aber das geht mir ziemlich auf den Keks, dass hier alles offenbar Besserwisser vor dem Herrn sind und wenns dann konkret ums "machen" geht, kann es wieder keiner oder will es wieder keiner.
Wo sind denn die konkreten Hilfestellungen zur Problemlösung über Multithreading? Ich seh nix... Wo sind denn die konkreten Fragen nach dem Programmcode oder wenigstens Teilen vom Programmcode -> auch das seh ich nicht.
Ist euch/dir vielleicht der Gedanke gekommen, dass der TE, wenn er hätte gewusst, wie das Problem in Multithreading-fähiger Software anzugehen geht, es derart umgesetzt hätte??? -> kann nicht sein... Ne, ausgeschlossen... :wall:

Was ich aber sehe ist eine Anfrage von einem Hilfesuchenden mit einer konkreten Zielsetzung für ST Performance.
Entweder ihr könnt liefern -> dann macht es anständig oder ihr könnt nicht, dann ...

EDIT:
stimmt nicht, es war nicht der Startpost, sondern Post #8 (vom TE höchst selbst)
http://www.hardwareluxx.de/community/f11/single-core-aufgaben-1137109.html#post24960743
 
Zuletzt bearbeitet:
recht hast du @fdsonne
Immer wieder ein vergnügen deine Kommentare hier im forum.

Was das niveau angeht ist es hier deutlich angenehnner als auf computerbase oder pcgh, aber auch leicht zu hohe Nasen
 
Ob ICH mich mit irgendwas beschäftig habe oder nicht, ist hier reichlich nebensächlich...
Der OP hat ein konkretes Problem und schließt mit hoher Wahrscheinlichkeit wegen eines Verständnisproblems einen Lösungsansatz aus. Wenn man das mangels Fachwissen nicht versteht, sollte man einfach mal zurückhaltender auftreten und hier keine vollkommen sinnfreie Metadiskussion vom Zaun brechen. Zudem wurde im Thread schon zig Hinweise auf CPUs mit höherer ST-Performance gemacht. Aber wirklich hilfreich sind die meisten Hinweise auch nur, wenn man Zugriff auf den Programmsourcecode hat, denn nur so kann man Profit aus AVX und AVX2 ziehen. Wenn man 10 Stunden Programmlaufzeit hat, wird man daran auch mit einer beliebigen neuen CPU nicht viel ändern können, denn ohne AVX/AVX2 kann man die Laufzeit nur marginal verringern. Bei solchen Laufzeiten kann man das ohnehin nur über Nacht laufen lassen, und da spielt der Unterschied ob es nun 10 oder 6 Stunden sind keine große Rolle.

D.h. will man signifikant die Laufzeit ändern, MUSS MAN AN DEN SOURCECODE RAN. Das weiß ich aus eigener leidvoller Erfahrung mit SciTech Software, und dieser Schritt ist letztlich unvermeidlich, weil man sonst in der Modellbildung massivst eingeschränkt ist.
 
Nicht 10h, 10 Tage, wie gesagt, steckt Geld in die Codeoptimierung hin zur Parallelisierung, das spart Monate! an Rechenzeit, selbst wenn man mit dem schnellsten Singlecore auf etwas über 6 Tage kommen würde...

Gesendet von meinem A0001 mit der Hardwareluxx App
 
Wüsste ja mal gerne ob sich der TE bei der Aussage hier:

Diese Simulation ist nicht ohne weiteres zu parallelisieren, die Mathematik dafür (Lösungsalgorithmen der Differenzialgleichungen) gibt es einfach nicht.
Wirklich sicher ist bzw. was "ohne Weiteres heisst"

@fdsonne:
Was genau spricht denn so direkt dagegen, andere Lösungsvorschläge zu bieten - besonders sobald die Eingangsfrage ja beantwortet ist (wurden schon etliche CPUs erwähnt)?

Hab hier ein Zitat aus dem Regelwerk eines anderen Forums:
Gerade am Anfang ist es immer gut zu sagen, was man insgesamt erreichen will und nicht so sehr Annahmen darüber zu treffen, wie man es erreichen könnte und dann das Wie zu hinterfragen. Oft ist der Denkfehler nämlich schon im Ansatz und man kann besser helfen, wenn man das Ziel des Fragenden kennt.
Der TE scheint genau in dieser Zwickmühle zu stecken, nur einen einzigen Lösungsweg wirklich in Betracht zu ziehen.

@MDot GPunkt
Du hast uns etwas wichtiges noch nicht verraten. Wie viel kostet euch jeder Tag, oder jede Stunde die die Maschine zum Rendern braucht? Könnt ihr eure Mitarbeiter und alle anderen Resourcen, in dieser Zwischenzeit, problemlos auslasten? Wenn nicht, kann da oft eine erheblich höhere Summe aufkommen, die man praktisch verliert, als man meint.
 
Zuletzt bearbeitet:
Was wird denn genau berechnet?
Hast du gute Erfahrungen mit Lösungsansätzen?
Ggf. mal bei einem Institut angefragt, welche sich mit Lösungsansätzen von dem was berechnet wird, auskennt?
 
Ich habe den Eindruck daß der TE hier keine großartigen Diskussionen über die Software bzw. Umprogrammierung dieser anstreben will. Klar ist daß dies wohl langfristig die erfolgreichste Strategie wäre, allerdings ist er hier in diesem Forum dann meiner Meinung nach sowieso falsch.
Wie gesagt vermute ich daß er nur einen schnellen/einfachen/verhältnismäßig günstigen Weg finden will um das ganze so wie es ist etwas zu beschleunigen. Und so wie fdsonne schon sagt ist das definitv in einem gewissen Ausmaß möglich wenn man eine knapp 6 Jahre alte CPU (und wohl auch Plattform) auswechselt. Im Vorfeld kann man hier zwar nur schätzen wie viel ein Wechsel auf eine neue CPU/Plattform bringt und es kann ohne weiteres sein daß man damit daneben liegt. Der Leistungsgewinn z.B. von einem 2600K mit DDR3-1333 Dual Channel auf einen Xeon E3-1275 v5 mit DDR4-2133 Dual Channel und ECC könnte überall so zwischen 10 und vielleicht >=40% liegen. Wie gesagt können wir es nicht wissen wie gut das Programm mit einer neuen Architektur skaliert, ob schnellerer RAM oder eventuell mehr Cache hilft usw. Und das weiß der TE bestimmt auch nicht, sonst würde er wohl explizit danach fragen bzw. selbst eine CPU/Plattform wählen.

Ich habe selbst im beruflichen Umfeld etwas Ahnung von gewissen Abläufen und eingesetzten Programmen und Hardware. Man glaubt oft nicht was es für einen Rattenschwanz an Arbeit/Aufwand und Probleme aufwerfen kann wenn man irgendwo etwas wie z.B. ein Programm ersetzen oder anpassen will. Wir wissen nicht was da alles damit verbunden ist, wenn das ein Teil einer ganzen Ablaufkette ist ist es wie gesagt oft nicht möglich ohne großen Aufwand dies zu ändern.
Die Hardware auf dem die Software läuft (wenn es jetzt vielleicht nicht gerade um spezifische Anschlüsse geht) kann man jedoch meist ohne viel Aufwand tauschen/ändern. Das ist verhältnismäßig günstig und bringt neben der Geschwindigkeit auch wieder etwas mehr "Sicherheit" wg. Ausfall durch Alterung.
 
Der OP hat ein konkretes Problem und schließt mit hoher Wahrscheinlichkeit wegen eines Verständnisproblems einen Lösungsansatz aus. Wenn man das mangels Fachwissen nicht versteht, sollte man einfach mal zurückhaltender auftreten und hier keine vollkommen sinnfreie Metadiskussion vom Zaun brechen. Zudem wurde im Thread schon zig Hinweise auf CPUs mit höherer ST-Performance gemacht. Aber wirklich hilfreich sind die meisten Hinweise auch nur, wenn man Zugriff auf den Programmsourcecode hat, denn nur so kann man Profit aus AVX und AVX2 ziehen. Wenn man 10 Stunden Programmlaufzeit hat, wird man daran auch mit einer beliebigen neuen CPU nicht viel ändern können, denn ohne AVX/AVX2 kann man die Laufzeit nur marginal verringern. Bei solchen Laufzeiten kann man das ohnehin nur über Nacht laufen lassen, und da spielt der Unterschied ob es nun 10 oder 6 Stunden sind keine große Rolle.

D.h. will man signifikant die Laufzeit ändern, MUSS MAN AN DEN SOURCECODE RAN. Das weiß ich aus eigener leidvoller Erfahrung mit SciTech Software, und dieser Schritt ist letztlich unvermeidlich, weil man sonst in der Modellbildung massivst eingeschränkt ist.

Bezüglich AVX2 kann ich jdl nur beipflichten.
Bei manchen BOINC Projekte werden auch Unterschiedliche Befehlssätze probiert, unter anderem FMA4, AVX und AVX2 das sind die neusten.
Die alten liefen noch mit SSE2 und SSE3.
Dort sind die Skylake "rocket leader" mit AVX2 und liegen gute 50% vor meinem FX-9590 (Single-Core) mit FMA4.

Das bedeutet aber nicht das ein FX-9590 50% langsamer bei Spiele ist, bei BOINC wird meist auch von Hand optmiert auf die gezielte Aufgabe hin. ;)

Evt lässt sich sowas auch über ein BOINC Projekt realisieren, dann dürfen andere Rechnen.
Es laufen gerade wieder ein paar Projekte aus, Nachschub wäre schön. :)
 
auf jeden fall mal als erstes ht abschalten und testen. kenne ein ganz ähnliches problem und ht hat da massiv gebremst. der i5 war annähernd doppelt so schnell wie der i7 weil die software mit ht nicht klarkam.

ende vom lied war, dass statt 2600k 2500k @ 4 ghz in die rechner kamen und dann liefs und zwar 24/7 schon seit einigen jahren jetzt.
 
Zuletzt bearbeitet:
Genau so der andere Part, wir reden hier über 1/3tel Zeiteinsparung -> "minimal" ist was anderes.

Wenn man von 40 auf 30h runterkommt, der Herr Ingenieur die Simulation um 10 Uhr morgens startet und üblicherweise bis 5 da ist, bringt das in der Tat nicht viel. Ansonsten wurde ja auc schon festgestellt, dass dieses Forum aus div. Gründen ein eher ungeeigneter Ort ist, dieses Problem zu lösen, da einfach die Expertise nicht da ist und offensichtlich auch kein Interesse vonseiten des TE besteht ("Business"anwendungen (man kann ja nicht sagen, was man macht, vllt. auch nur die Branche), dann iwelche CPUs aufgezählt, jaaa :d)...
 
Luebke, HT kann man meist auch im BIOS/UEFI deaktivieren und man kann außerdem, was bei Aufgaben die Singlethread sind oft Sinn macht, die Zuordnung der Prozesse im Task Manager so ändern, dass sie nur immer auf einem Kern/Thread der CPU laufen. Man kann es auch im Programm selbst machen. Das bringt den Vorteil, dass damit der Task Scheduler von Windows den Threads nicht alle paar ms auf einen anderen Kern schiebt, wobei dann auch immer dessen Cacheinhalte ungültig werden.
 
ich weiß dass man das kann, aber klugerweise wurden die cpus mit der softwareumgebung getestet, bevor die ganze firma damit bestückt wurde ;)
und warum nen teuren i7 kaufen um ihn dann zum i5 zu kastrieren? ^_^
und das mit den tasks zuordnen funktioniert in dem fall nicht, weil die software rechnerübergreifend läuft.
keine sorge, wurde alles vor dem umrüsten sorgfältig getestet. der i5 war damals die perfekte lösung.
 
Zuletzt bearbeitet:
*tztztztz*
10 Tage Rechnen ohne ECC
Wieviel Ergbnisse wohl falsch sind.
(Ich würde da mein Haus drauf verwetten, daß mindestene eine Berechnung der letzten 6 Jahre falsch ist bei mindestens 2 Berchnungen pro Monat - wenn ich denn ein Haus hätte)
*Ohne Worte*
 
*tztztztz*
10 Tage Rechnen ohne ECC
Wieviel Ergbnisse wohl falsch sind.
(Ich würde da mein Haus drauf verwetten, daß mindestene eine Berechnung der letzten 6 Jahre falsch ist bei mindestens 2 Berchnungen pro Monat - wenn ich denn ein Haus hätte)
*Ohne Worte*
Wobei wir noch immer nicht wirklich wissen was da genau berechnet wird und welche Auswirkung so ein gekipptes Bit wirklich anrichten könnte.
 
Welche Auswirkungen ein gekipptes Bit hat, kann man nie vorhersehen da man nie weiß, wo es passiert und was dort steht. Wird eine danach direkt überschrieben ohne noch mal gelesen zu werden, passiert z.B. gar nichts. Steht dort ein Zwischenergebnis, wird das Endergebnis falsch sein und steht dort ein Teil des Programmcodes......
 
Ein Gekipptes Bit in einer Mediadatei (Foto, Video, Audio) bemrkt man in 99,999% Aller Fälle nichtmal.
Ein Gekipptes Bit in einer mathematischen Berechnung die schon 10 tage dauert- vermutlich mit wissenschaftlichen Hintergrund - verurrsacht mit 99,99999999% ein falsches Ergebnis. Die Abweichung vom richtigen Ergbnis kann vor dem Komma sein oder auch die 13 Trillionste Stelle nach dem Komma.

Wenn da der Programmcode steht, schmiert der Task ab oder aber die Berechnungsaufgabe selbst wird verändert (Plus wird Minus oder Tangens wird Cosinus).

Was nützt der schnellste Prozesssor, wenn die Ergebnisse nicht zuverlässig sind. Das ist in meinen Augen die viel wichtigere Baustelle!
 
Wobei wir noch immer nicht wirklich wissen was da genau berechnet wird und welche Auswirkung so ein gekipptes Bit wirklich anrichten könnte.
Wenn man es verallgemeinert, was nie wirklich gut ist, aber wenn man es unbedingt Umfassend ausdrücken will:
Korrupte Daten auf den Datenträgern.

Aber wer weis, vielleicht sind die Fehler im Desktop bereich gewollt.
Es gab doch schon mal eine Studie, womit CPUs schneller Rechnen wenn sie Fehler "zulassen" und weniger Energieverbrauch.
Intel will mit Anaphase alte Software deutlich beschleunigen - Nachrichten bei HT4U.net
Ist sogar noch Online...
 
Ein Gekipptes Bit in einer Mediadatei (Foto, Video, Audio) bemrkt man in 99,999% Aller Fälle nichtmal.
Ein Gekipptes Bit in einer mathematischen Berechnung die schon 10 tage dauert- vermutlich mit wissenschaftlichen Hintergrund - verurrsacht mit 99,99999999% ein falsches Ergebnis. Die Abweichung vom richtigen Ergbnis kann vor dem Komma sein oder auch die 13 Trillionste Stelle nach dem Komma.

Wenn da der Programmcode steht, schmiert der Task ab oder aber die Berechnungsaufgabe selbst wird verändert (Plus wird Minus oder Tangens wird Cosinus).

Was nützt der schnellste Prozesssor, wenn die Ergebnisse nicht zuverlässig sind. Das ist in meinen Augen die viel wichtigere Baustelle!

jaaa... V.a. da ja die meisten Dinge, die man so berechnet auch extrem von Einzelwerten abhängen. Richtig ist, wir wissen nix über das Problem und sein Anwendungen. Aber erstmal laut schreien...
 
jaaa... V.a. da ja die meisten Dinge, die man so berechnet auch extrem von Einzelwerten abhängen. Richtig ist, wir wissen nix über das Problem und sein Anwendungen. Aber erstmal laut schreien...
Exakt. Dass da 10 Tage lang, Werte berechnet werden, die wirklich jeweils aufeinander aufbauen bezweifle ich mal stark.
Beim Rendern einer großen Szene in einem 3D Programm (was auch Tage dauern kann) ist es zum Beispiel extrem unwahrscheinlich dass solch ein Bitfehler, einen merkbaren Unterschied im Resultat ergibt.
Zudem sind Resultate von vielen Berechnungen sowieso nicht exakt, denn man hat durch Rundungen, Ungenauigkeiten.


@Phantomias88
Zu http://ht4u.net/news/22084_intel_will_mit_anaphase_alte_software_deutlich_beschleunigen/
Ich lese da nichts vom Zulassen von Fehlern, sondern von der Idee dass die CPU selbst, Singlethread-Code in Multithread gewissermaßen umschreibt. Sowas in der Richtung geschieht inzwischen schon. Man hat ja mehrere ALUs in jedem Kern die gleichzeitig versorgt werden.

Einfach den Takt erhöhen und dann Fehler zulassen wäre schon ein interessanter Ansatz für bestimmte Aufgaben, allerdings müsste man dann klar zwischen Systemrelevanten Berechnungen trennen die auf jeden Fall richtig ablaufen müssen.
 
Zuletzt bearbeitet:
Laut dem Chart: PassMark CPU Benchmarks - Single Thread Performance ist der i7-4790k die CPU mit der höchsten Singlethread-Leistung.
bevor teure cpus gekauft werden empfiehlt es sich dringend, ein paar mögliche kandidaten mit der software zu testen. die eingesetzte software ist ja nicht passmark und wie gesagt kann die software ggf mit ht gar nichts anfangen, dann wäre ein i5 deutlich günstiger bei gleicher leistung.

im vorliegenden fall rate ich vor einer neuanschaffung dazu, bei den aktuellen cpus ht zu deaktivieren und nochmal zu testen. sollte das erfolg haben, kann man über dies moderates oc nutzen, um die leistung noch weiter zu steigern. sandybridge lässt sich sehr leicht kühlen und hat mehr oc-potential als alle seine nachfolger. bei 4 ghz @ 24/7 wird der nicht wärmer als @ stock und braucht auch nicht mehr vcore.
 
Exakt. Dass da 10 Tage lang, Werte berechnet werden, die wirklich jeweils aufeinander aufbauen bezweifle ich mal stark.
Beim Rendern einer großen Szene in einem 3D Programm (was auch Tage dauern kann) ist es zum Beispiel extrem unwahrscheinlich dass solch ein Bitfehler, einen merkbaren Unterschied im Resultat ergibt.
Zudem sind Resultate von vielen Berechnungen sowieso nicht exakt, denn man hat durch Rundungen, Ungenauigkeiten.


@Phantomias88
Zu Intel will mit Anaphase alte Software deutlich beschleunigen - Nachrichten bei HT4U.net
Ich lese da nichts vom Zulassen von Fehlern, sondern von der Idee dass die CPU selbst, Singlethread-Code in Multithread gewissermaßen umschreibt. Sowas in der Richtung geschieht inzwischen schon. Man hat ja mehrere ALUs in jedem Kern die gleichzeitig versorgt werden.

Einfach den Takt erhöhen und dann Fehler zulassen wäre schon ein interessanter Ansatz für bestimmte Aufgaben, allerdings müsste man dann klar zwischen Systemrelevanten Berechnungen trennen die auf jeden Fall richtig ablaufen müssen.
Kommt darauf an ob die Berechnungen mit "doppelter" oder "einfacher" Genauigkeit laufen, ersteres ist nicht so Fehler anfällig.
Aber man braucht den doppelten Strom da alle Berechnungen doppelt ausgeführt werden.

Stimmt, war der falsche Link, passt besser zum Thema, weiter unten ist der Link zu den Rechenfehler: Schnellere Prozessoren durch mehr Rechenfehler? - Nachrichten bei HT4U.net
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh