Rekord: "Northwood"-Celeron um 235 Prozent auf über 4,0 GHz übertaktet

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.262
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="hwbot" src="/images/stories/logos/hwbot.png" width="100" height="100" />Alte Hardware ist unter ambitionierten Profi-Overclockern sehr beliebt, kann man mit ihr doch noch einige Weltrekorde einheimsen. Dem Übertakter „ObscureParadox“ ist es nun gelungen, einen fast zwölf Jahre alten Mobile-Celeron auf „Northwood“-Basis von 1,2 auf rund 4,02 GHz zu übertakten. Das entspricht einer Übertaktung von satten 235 Prozent und damit einem neuen Rekord.</p>
<p>Um die brachiale Taktsteigerung zu realisieren, musste er den FSB-Takt von 100 auf 333,15 MHz anheben. Der Multiplikator war dabei auf 12 festgesetzt. Als Untersatz diente dem Prozessor ein ASUS P4C800-E Deluxe. Um die 3D-Beschleunigung kümmerte sich eine NVIDIA GeForce FX5500, der...<br /><br /><a href="/index.php/news/allgemein/hwbot/32005-rekord-qnorthwoodq-celeron-um-235-prozent-auf-ueber-40-ghz-uebertaktet.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Link hinterm Bild führt zu einem Bild des Buy Buttons von Facebook.
 
naja viell. für maximale kompatibilität o_O ... man weiß es nicht, aber geiler rekord! respekt!
 
War bestimmt ein TCCD Riegel um den Ram bei dem hohen FSB stabil zu halten.
 
Irgendwie zeigt mir das, man kann mit alter Hardware die 4Ghz erreichen, mit neuerer kaum mehr als das. Also sind die natürlichen Grenzen bei dieser Marke erreicht oder wie?

Ist schon enorm was da abgeliefert wurde, ausgerechnet Celeron. :d
 
naja, für 5 GHz brauchst bei heutigen CPU´s aber kein LN2 mehr, oft nicht mal WaKü
 
Und der Takt alleine ist ja sowieso nicht ausschlaggebend.
 
troßdem langsamer als ein haswell celeron, falls man das überhaupt benchen kann.
Wahrscheinlich gibt es sofort nen blauen wenn man mehr als CPU-z öffnet.
 
Mobile-Celeron
Verstehe ich nicht ganz, soll das eine Notebook Cpu sein, auf einem Desktop Mainboard ?
 
Ja, die laufen auch auf manchen normalen Boards mit einem bestimmten BIOS.
Aber schöner Erfolg, ist sicherlich für die Ewigkeit.
 
Irgendwie zeigt mir das, man kann mit alter Hardware die 4Ghz erreichen, mit neuerer kaum mehr als das. Also sind die natürlichen Grenzen bei dieser Marke erreicht oder wie?

Bei 4 GHz kommste innerhalb eines Taktes nur 7,5 cm bei Lichtgeschwindigkeit voran. Elektronen schubsen etwas langsamer, und Leiterbahnen sind nicht immer und überall gerade. Das ist also die Größenordnung, wo ein Signal noch rechtzeitig durch die CPU kommen kann, aber Außenanbindungen wie z.B. RAM oder PCIe sind mit diesem Realtakt (keine Marketing-MHz) schon nicht mehr möglich... ;)


Tja, zum Thema...klar, einfach mal den FSB von 100 auf 333 MHz stellen. Wer hat das nicht schonmal gemacht :stupid:
 
Bei 4 GHz kommste innerhalb eines Taktes nur 7,5 cm bei Lichtgeschwindigkeit voran. Elektronen schubsen etwas langsamer, und Leiterbahnen sind nicht immer und überall gerade. Das ist also die Größenordnung, wo ein Signal noch rechtzeitig durch die CPU kommen kann
Aha! Das klingt jendenfalls sehr plausibel. Jetzt verstehe ich wo die Grenzen gesetzt sind bzw was die Grenzen setzt.

Somit kann man auch diesen Northwood Celeron einfach nicht mehr sehr viel schneller betreiben, da dort die Naturgesetzte greifen.
Kann mir gut vorstellen das sich durch die starken und simplen Strukturen im Celeron die Elektronen nicht unbedingt schwerer tun als in modernen. Nur entsteht dort durch die hohe Spannung auf zu kleiner Fläche immense Abwärme im Vergleich zu heutigen.:confused: Die restliche peripherie (insb mainboard und RAM) muss natürlich auch mitspielen und das ging damals nicht..
 
Zuletzt bearbeitet:
Stimmt nicht wirklich.
Mein Pentium 4 D 950 lief 2006 schon knapp 6Ghz:
Entsafter`s CPU Frequency score: 5991.65 mhz with a Pentium 4 D 950

Super-Pi lief noch mit 5700Mhz.
Wäre wohl noch mehr als 6Ghz gegangen, danach ging aber das Board hopps und hat die CPU mitgerissen (Kondenswasser im Sockel).

Ich beziehe mich auf die Aussage der 2 Poster über mir. Die Physikalische Grenze spielt da noch keine wirkliche Rolle (bei 4Ghz).


Was man da auch gut sieht bei meinem Beispiel von 2006.
Die neuen Rekorde (6700Mhz mit dem gleichen CPU Modell) stammen von 2010. Rekorde mit alten CPUs aufstellen ist ein Kinderspiel, da die Hardware beinahe kostenlos zu haben ist. Beim QX6700 hatten wir im Team 4 Stück (ohne Sponsoren), d.h. mal locker flocking 4k Euro für CPUs, welche nicht wirklich toll liefen zu der Zeit (Boards waren einfach nicht gut genug).
 
Zuletzt bearbeitet:
Ich beziehe mich auf die Aussage der 2 Poster über mir. Die Physikalische Grenze spielt da noch keine wirkliche Rolle (bei 4Ghz).
Die Anmerkung bezog sich auf Takte außerhalb von der CPU, also RAM Takt und FSB, die weite Wege zu den RAM Steckplätzen oder der NB haben.
Und dort habe ich noch keine realen Takte >2,5GHz gesehen!
Innerhalb der CPU reden wir über Strecken <1cm... da gehen dann auch 8,7GHz+ :wink:
 
...kommt aber auf die Größe der CPU an, und wieviele Takte so ein Befehl brauchen darf, bis das Signal am anderen Ende des Siliziums ankommen muss. Wie gesagt, das ist so die Größenordnung, auch die besten OC'ler werden bei den heutigen Die-Größen sicher nicht auf mittlere zweistellige GHz-Taktraten kommen. Und für die Festlegung des Standardtakts für Consumer, d.h. wo auch so etwas wie Leistungsaufnahme pro Rechenleistung zählt, wirds keinen Takt von auch nur annähernd 10 GHz geben. Denn da limitiert nicht die Lichtgeschwindigkeit, sondern eher parasitäre Kapazitäten, die man dann mit Brachialgewalt umladen muss, was zunehmend stark heizt.
Die Miniaturisierung, die quasi alle Probleme bisher gut abgemildert hat (einfach auf die nächste Node warten, Problem halbiert), kommt auch langsam zum Erliegen, Stichwort Leckströme und EUV-Lithografie. Ich hab da keine genauen Zahlen parat, aber ich war der Meinung, dass mittlerweile ein Drittel der gesamten Leistungsaufnahme durch unerwünschte Quanteneffekte verursacht wird. Und dass die Chipfabriken seit zehn Jahren lieber heute als morgen ihre Kryptonfluoridlaser austauschen würden, ist denke ich auch bekannt ;) Was da alles ersatzweise entwickelt wurde, weil man beim EUV einfach nicht zu Potte kommt...
 
Jein, denn wenn für nen komplexeren Befehl nicht beim nächsten Takt, sondern erst für den übernächsten das Ergebnis am Pin gegenüber anliegen muss, dann lockern sich die Zeitbeschränkungen (für den Signalweg) ungemein. Bringt natürlich nix, wenn die beteiligten Bauelemente quer über die CPU verteilt sind, aber wenn das räumlich schick gruppiert ist...;)
 
...kommt aber auf die Größe der CPU an, und wieviele Takte so ein Befehl brauchen darf, bis das Signal am anderen Ende des Siliziums ankommen muss. Wie gesagt, das ist so die Größenordnung, auch die besten OC'ler werden bei den heutigen Die-Größen sicher nicht auf mittlere zweistellige GHz-Taktraten kommen. Und für die Festlegung des Standardtakts für Consumer, d.h. wo auch so etwas wie Leistungsaufnahme pro Rechenleistung zählt, wirds keinen Takt von auch nur annähernd 10 GHz geben. Denn da limitiert nicht die Lichtgeschwindigkeit, sondern eher parasitäre Kapazitäten, die man dann mit Brachialgewalt umladen muss, was zunehmend stark heizt.
Die Miniaturisierung, die quasi alle Probleme bisher gut abgemildert hat (einfach auf die nächste Node warten, Problem halbiert), kommt auch langsam zum Erliegen, Stichwort Leckströme und EUV-Lithografie. Ich hab da keine genauen Zahlen parat, aber ich war der Meinung, dass mittlerweile ein Drittel der gesamten Leistungsaufnahme durch unerwünschte Quanteneffekte verursacht wird. Und dass die Chipfabriken seit zehn Jahren lieber heute als morgen ihre Kryptonfluoridlaser austauschen würden, ist denke ich auch bekannt ;) Was da alles ersatzweise entwickelt wurde, weil man beim EUV einfach nicht zu Potte kommt...
Also es gibt da schon noch ein par neue Konzepte die vieleicht irgendwann brauchbar sind. Sowas wie Ein-Atom Transistoren. Welche aus drei Atomen wurden bereits als funktionsfähig gezeigt.
Aber ansonsten klar, denke auch nicht dass Takt der Weg der Zukunft ist. Eher wird man weiter in die Breite skalieren. Entweder durch mehr IPC (wobei sich da auch Intel schwer tut mehr als 5-10% pro Generation rauszuholen) oder eher durch mehr Kerne. Man muss nur endlich irgendwie die Softwareentwickler dazu zwingen auch in die Breite zu entwickeln weil die sich weigern (bin selbst ein angehender) :d
 
Software ist nicht beliebig parallelisierbar - wems was bringt, der hats längst umgestellt, wems nix oder kaum was bringt, der wird da keine Zeit investieren. Bleibt Takt und CPI/IPC...oder schlankere Software :fresse:
 
Die Anmerkung bezog sich auf Takte außerhalb von der CPU, also RAM Takt und FSB, die weite Wege zu den RAM Steckplätzen oder der NB haben.
Und dort habe ich noch keine realen Takte >2,5GHz gesehen!
Innerhalb der CPU reden wir über Strecken <1cm... da gehen dann auch 8,7GHz+ :wink:
Ihr vergesst wohl gerne, dass der P4 einen Hotclock-ALU (wie bei nVidia ab G80) besitzt. Damit verdoppeln sich die Taktraten in der Ausführungseinheit.
 
Man hätte bestimmt nochmehr rausholen können, wenn man das gesamte Mainboard in flüssiges Stickstoff gehangen hätte.

Habe früher mal von so einem Versuch gelesen. Damit das funktioniert, haben die das Mainboard mit Komponenten zuerst in Epoxidharz gegossen dann - gib ihm Saures :-)
Übertaktet wurde damals auch ein Celeron.

Nachtrag:
Hab mal kurz gegoogelt und das hier gefunden:
http://www.tomshardware.de/Flussigstickstoff-Kuhlung-5GHz-Chipcon-Prometeia,testberichte-741.html

Da konnte man wohl einen alten P4 auf 5,25 Ghz übertakten :-)
 
Zuletzt bearbeitet:
P4 ist nicht gleich P4. einen willamette auf 3 ghz zu takten is schon ne echte leistung, einen presler auf 5 ghz dagegen ist eher schwach...
 
Software ist nicht beliebig parallelisierbar - wems was bringt, der hats längst umgestellt, wems nix oder kaum was bringt, der wird da keine Zeit investieren. Bleibt Takt und CPI/IPC...oder schlankere Software :fresse:
Naja, Sache ist dass Paralelisierung oft mit sehr viel Aufwand verbunden ist - eben im moment zu viel Aufwand im Vergleich zur Leistungsverbesserung. Das heisst aber nicht dass es unmöglich ist.
Frage ist natürlich auch was für Anwendungen brauchen denn mehr Leistung? Mit alltäglichen Dingen wie Office (und mail, etc), Verwaltungsprogramme und auch Grafikbearbeitung, scheint es als seien wir schon ziemlich nah an er Grenze der möglichen Hardwareanforderungen...
Bleiben also nur noch games (die bisher weiterhin meist Graka-limitiert sind) und Pro-Software ala Video- und 3D Bearbeitung, wobei sich grade diese beiden Fälle sehr gut breit skalieren lassen und das auch schon seit Jahren gemacht wird.
 
Mit alltäglichen Dingen wie Office (und mail, etc), Verwaltungsprogramme und auch Grafikbearbeitung, scheint es als seien wir schon ziemlich nah an er Grenze der möglichen Hardwareanforderungen...

Ha. Hahaha. Kennst du Office 2000, 2010 und 2013? 2000 ist prima und absolut ausreichend. 2000 lief wie auch 97 auf den ältesten Kisten, die man sich nur vorstellen konnte. 2010 ist abgesehen von einem völlig unbrauchbaren Menü funktional gesehen das Allergleiche. Ich vermisse gegenüber 2k10 im alten 2k nichts, rein gar nichts. Aber fett isses, unglaublich. Offenbar viel Flickwerk um nix, denn altbekannte Fehler sind immer noch drin - nur mit hübscheren Abstürzen verpackt. Und weil das noch nicht reicht, gibts jetzt ein Office 2013. Von unsrem Rechenzentrum krieg ich das für umsonst, im Büro steht eine P4-Möhre. Mit Standardeinstellungen (Eingabeanimation!) ruckelt dieses aufgeblasene Stück Sch... beim bloßen Tippen. Noch Fragen über künftige Hardwareanforderungen für sowas 08/15 wie ne Office-Software? Ich nicht. Wirthsches Gesetz, und viel Spaß, wenn Moore's Law dann wegen der lästigen Physik so langsam ausläuft...

Software is getting slower more rapidly than hardware becomes faster.
 
mich würde mal interesieren, wenn man ein Pentium3-S CPU auf 3 oder gar 4Ghz laufen lässt, wie schnell der da sein muss :d
 
Ha. Hahaha. Kennst du Office 2000, 2010 und 2013? 2000 ist prima und absolut ausreichend. 2000 lief wie auch 97 auf den ältesten Kisten, die man sich nur vorstellen konnte. 2010 ist abgesehen von einem völlig unbrauchbaren Menü funktional gesehen das Allergleiche. Ich vermisse gegenüber 2k10 im alten 2k nichts, rein gar nichts. Aber fett isses, unglaublich. Offenbar viel Flickwerk um nix, denn altbekannte Fehler sind immer noch drin - nur mit hübscheren Abstürzen verpackt. Und weil das noch nicht reicht, gibts jetzt ein Office 2013. Von unsrem Rechenzentrum krieg ich das für umsonst, im Büro steht eine P4-Möhre. Mit Standardeinstellungen (Eingabeanimation!) ruckelt dieses aufgeblasene Stück Sch... beim bloßen Tippen. Noch Fragen über künftige Hardwareanforderungen für sowas 08/15 wie ne Office-Software? Ich nicht. Wirthsches Gesetz, und viel Spaß, wenn Moore's Law dann wegen der lästigen Physik so langsam ausläuft...
Naja, ich redete ja auch von Vierkernern... An der Hochschule haben wir ein par i5er der ersten Generation und darauf läuft Office 2013 völlig ruckelfrei... Die Rechner haben auch schon ein par Jährchen auf dem Buckel.
 
Dann stell dich mal drauf ein, dass ein prä-2020-Office dort nicht mehr tut...wär ja schlimm, wenn man mit Software keine Hardware mehr verkaufen könnte.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh