[Sammelthread] Dual-Laber-Thread new part 4

Ganz so ohne Beschäftigung bin ich nicht, aber wechsele in der Tat gerade den Studiengang - das gibt ein bisschen Freiraum für Spinnereien :d

Den Link zu den Paxvilles hat mir ein Kollege zukommen lassen, ich hab da nicht lange gefackelt. Kein Interesse? :d

Auf 50 Euro mehr oder weniger kommts beim Brett mittlerweile auch nicht mehr an - ich brauch den SAS Controller für meine Systempartition und 4 "Datengräber made by Seagate" im Raid 1. Hab zwar noch nen Raid 5 Controller hier, aber in dem Rechner soll endlich mal Platz sein - mit Redundanz. Ob das jetzt im Endeffekt ein paar MB/s mehr oder weniger sind... Wen interessierts. Einfach noch einen Controller dazustecken ist nicht, hab keine Steckplätze mehr frei, und auf die X-FI verzichte ich nicht.

So schnell schätze ich die Tulsas im normalen Betrieb gar nicht ein, aber hey, mit nem P4 3,4 GHz kommt man auch über die Runden... Aber wehe eine Anwendung skaliert mit dem Cache :asthanos:... Bin da mal sehr gespannt, auch auf die Speicherbandbreite in dem Zusammenhang. (Werde mit den Paxvilles auch nen Vergleichstest machen).

Ist halt der Krampf, dass alles schon wieder so alt ist - gerade an den Controllern etc. merkt man das doch schon bestimmt. Aber dieses Zeug neu leisten kann sich ja eigentlich niemand - ich zumindest garantiert nicht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wie zum geier haben die mit den Paxvilles die tpd auf 165 watt getrieben?
das bekommste doch selbst mit highendkühlern schlecht unter kontrolle.
zumal die ja gradma 2mb lvl2 cache haben!
 
Neja die Paxvilles waren doch die 90nm CPUs, richtig?
Und die Paxvilles gibts als Dualcore Versionen, auch richtig?

Wenn das soweit richtig ist, dann ist klar, warum die TDP so hoch ist, denn selbst die Desktop Singlecore 90nm P4 CPUs hatten schon ne TDP von über 100W, ne DC Version gabs gar nicht von den 90nm CPUs. Wenn man nun bedenkt, das Intel hier zwei SingleCore DIEs auf ein Package gepackt hat, dann sollte wohl klar sein, was das für Mörderteile sind ;)
Scheint so als würde der max. Takt bei den Teilen auch bis zu den vollen 3GHz gehen. Mehr war ja im Desktopbereich auch nicht möglich.
 
Ganz so ohne Beschäftigung bin ich nicht, aber wechsele in der Tat gerade den Studiengang - das gibt ein bisschen Freiraum für Spinnereien :d

Den Link zu den Paxvilles hat mir ein Kollege zukommen lassen, ich hab da nicht lange gefackelt. Kein Interesse? :d

Auf 50 Euro mehr oder weniger kommts beim Brett mittlerweile auch nicht mehr an - ich brauch den SAS Controller für meine Systempartition und 4 "Datengräber made by Seagate" im Raid 1. Hab zwar noch nen Raid 5 Controller hier, aber in dem Rechner soll endlich mal Platz sein - mit Redundanz. Ob das jetzt im Endeffekt ein paar MB/s mehr oder weniger sind... Wen interessierts. Einfach noch einen Controller dazustecken ist nicht, hab keine Steckplätze mehr frei, und auf die X-FI verzichte ich nicht.

So schnell schätze ich die Tulsas im normalen Betrieb gar nicht ein, aber hey, mit nem P4 3,4 GHz kommt man auch über die Runden... Aber wehe eine Anwendung skaliert mit dem Cache :asthanos:... Bin da mal sehr gespannt, auch auf die Speicherbandbreite in dem Zusammenhang. (Werde mit den Paxvilles auch nen Vergleichstest machen).

Ist halt der Krampf, dass alles schon wieder so alt ist - gerade an den Controllern etc. merkt man das doch schon bestimmt. Aber dieses Zeug neu leisten kann sich ja eigentlich niemand - ich zumindest garantiert nicht.

von welchem studiengang zu welchem wechselst du?
also, an den paxvills hab ich kein interesse, wenn du fetten tulusas zum laufen bringst,
werde ich mich auch um sowas kümmern :asthanos:
der tulusa 16m ist schon um einiges schnelle als der p4, sieht man schon an der stromaufnahme :coolblue:
was kommt so alles in die steckpläte, daß du kein platz für eine raid-kart hast?
neu kann man sich grad die kleinste konfiguration leisten, bei mir war das
sm-x6da3+1gb DDR2 +2x 2,8GHz, mehr war nicht drin (keine neue graka, keine
neuen festplatten, alles aus dem alten rechner!)
 
Hi,

fdsonne: Paxville ist Dualcore, quasi Smithfield. 2 MB lvl 2 Chache pro Core.

OT: Ich wechsele von Physik zu Germanistik (Nicht lachen - ich bin nicht der Physikfreak, der jetzt schreibt, sondern eher der Schreiberling, der mal bei den Physikern reingeschaut hat, weil das zufällig auch sein Steckenpferd ist. Aber unterm Strich nichts für mich, die Organisation nach der Umstellung auf Bachelor/Master ist grauenvoll, die wünschenswerte Synchonisation zwischen VL und Übungen nicht vorhanden und der Schwierigkeitsgrad machbar, aber nicht auf das ganze Notenspektrum ausgelegt, sondern auf "Bestehen / Durchfallen". Beim Diplom kein Thema, aber als Bachelor... ohne mich :d)

Ich stelle mir gerade vor, was der Tulsa für ne TDP auf 90nm gehabt hätte - aua. Meine gelesen zu haben, dass der Cache alleine 30W Strom saugt. Harr...

Wenn Du Interesse an Tulsas hast, schreib mir ne PM, von den ES gibts noch ein paar. :) Geb dir dann die Kontaktdaten meiner Quelle.
 
@stingray65
Netburst bleibt Netburst, da nutzen auch 16MB L3 Cache nix, mit nem 3-3,5GHzGHz Tulusa kommt man aber in keinem Fall an die Leistung aktueller Core2 CPUs ran, schon gar nicht im Multithreaded Bereich, auch aus dem Grund, weil es keine Native Dualcores sind, sondern sich alle CPUs über den FSB unterhalten müssen.

EDIT:
Falsch Falsch Flasch, denkfehler meinerseits...
Die Northwood CPUs waren ja 130nm und die Prescott Teile waren schon 90nm.
Und im Desktopbereich wurden ja die 90nm CPUs auch schon als DC verkauft (mit 2 DIEs)

Ich hatte mich schon gewundert wie das sein kann :fresse:
Aber gut, ist ja gehoppst wie gesprungen, die ersten Prescott CPUs im S478 waren ja auch die übelsten Heizschweine und waren oft auch noch langsamer als die Northwood P4s.

Dementsprechend müssten die Tulusa CPUs das Gegenstück zu den 9xx CPUs im Desktopbereich sein (+ eben den L3 Cache) und die Paxville CPUs eben die der 800er (damals noch ohne L3 Cache)
Und die Dempsey aus dem S771 müssten quasi Tulusa CPUs sein, nur ohne L3 Cache...

Kann man das soweit sagen?

@espenlaub
ne du, so ne heizknechte brauch ich nicht wirklich...
Dann lieber die 5080er CPUs mit 3,73GHz für S771.
Aber die werden wohl unbezahlbar sein...
 
Zuletzt bearbeitet:
nuja, irgendjemand hatte hier doch schonmal son tulsa boliden gehabt, und der hat teils die quads abgezogen, vondaher wäre ich mit der aussage vorsichtig! ;)
 
Auch Core CPUs kommunizieren über den FSB - oder? (i7 mal ausgenommen)

Ich weiß nur eines: Im 3DMurks06 produziert ein Dual Tulsa mehr Punkte als ein Q6600 - das ist für nen Bench, der auf Multithreading ausgelegt ist, schon ein Wort. Mehr Vergleichsdaten habe ich zZ nicht - aber liefere ich hoffentlich nach. Denke schon dass der Cache ganz ordentlich drückt - der Sprung vom P4 auf P4EE war auch nicht unerheblich, und das waren 2MB.

nuja, irgendjemand hatte hier doch schonmal son tulsa boliden gehabt, und der hat teils die quads abgezogen, vondaher wäre ich mit der aussage vorsichtig! ;)

Das hört sich gut an. Haste nen Link? Habe bisher nur einen einzigen Post von einem Japaner auf xs.org gefunden. Daher habe ich auch die 3D Murks CPU Scores.

Aber, mal ehrlich - mir gehts gar nicht um die Geschwindigkeit. Wenn ich nen Q6600 oder Q9500 ärgern kann, freue ich mich drüber, dass es für mehr eh nicht reicht, ist mir klar. Bei dem System gehts nur um den Stil - denn 32 MB L3 Cache ist ein Wort. Und als P4 EE Anhänger der ersten Stunde mag ich Netburst sehr. :d Wie war damals der selbst erdachte Slogan? " Gegen diese 64 Brut helfen nur 2 MB L3 Cache..." :d Das waren noch Zeiten.

Beiträge zusammengeführt, da Antwort auf eigenen Beitrag innerhalb von 4 Stunden:

Die Northwood CPUs waren ja 130nm und die Prescott Teile waren schon 90nm.
Und im Desktopbereich wurden ja die 90nm CPUs auch schon als DC verkauft (mit 2 DIEs)

Ich hatte mich schon gewundert wie das sein kann :fresse:
Aber gut, ist ja gehoppst wie gesprungen, die ersten Prescott CPUs im S478 waren ja auch die übelsten Heizschweine und waren oft auch noch langsamer als die Northwood P4s.

Dementsprechend müssten die Tulusa CPUs das Gegenstück zu den 9xx CPUs im Desktopbereich sein (+ eben den L3 Cache) und die Paxville CPUs eben die der 800er (damals noch ohne L3 Cache)
Und die Dempsey aus dem S771 müssten quasi Tulusa CPUs sein, nur ohne L3 Cache...

Kann man das soweit sagen?

@espenlaub
ne du, so ne heizknechte brauch ich nicht wirklich...
Dann lieber die 5080er CPUs mit 3,73GHz für S771.
Aber die werden wohl unbezahlbar sein...

Vollkommen richtig, bis auf eines - der Tulsa ist von der Architektur her ein 9xx Prozessor, aber alles auf einem DIE - wurde wohl mit der Umstellung auf 65nm so gemacht. War Presler auch auf einem DIE? Glaube ja nicht, oder? Die Paxvilles habe ich übrigens stingray angeboten, weil jener genau das Board hat, welches ich suche :d - somit wären die definitiv kompatibel.

Tulsa:

 
Zuletzt bearbeitet:
Hallo,
also mit der cpu-leistung ist das so eine sache.
die tulusas sind schon was älter, der fsb-800mhz ist auch nicht der schnellste
wie auch die speicheranbindung. deshalb sind sie schon mal
prinzipiel langsamer als die modernen cpu.
aber: da die rechnenleistung nicht mehr nennenswert steigt und intel möchte
neue cpu verkaufen, greift man zu tricks, aktuelle xeons haben z.b verschiedene
fsb (die billigeren 800-1000mhz), die teuer bis 1,6ghz, die fb-speicherriegel bei den
aktuellen xeon sind auch eine totale pleite (bis 6w verlustleistung, bei 8 sockeln
knapp 50w) und sehr teuer ohne mehrwert zu den alten ddr2-reg-ecc.
der aktuelle, schnellste 2xcore oder 4xcore xeon ist natürlich schneller als die
alte technik, aber die unteren und mittleren cpu sind auch nicht viel (wenn überhaupt)
schneller als die schnellsten, alten...
 
@espanlaub,

was ich noch mal fragen wollte - den rechner, den du baust, wofür soll
er sein? der wird nicht ganz billig sein, meit einem aktuellen xeon wärst
du rechenleistungsmäßig nicht schlechter dran und die kosten würden
sich die waage halten...
oder soll es wirklich ein oldtimer-sein mit einem fetten v8 motor und
viel chrom (kupfer)?:hail::hail:
 
Wird genau die Kiste. Ansonsten benutze ich benutze n kleines Macbook, das wars :). Klar, ein Quad wär natürlich viel sinnvoller. Und um ehrlich zu sein, ein kleiner Dualcore wäre wohl noch vernünftiger - aber ich mag die ganzen Xeons und gebastelt werden muss halt auch hin und wieder...
 
Wird genau die Kiste. Ansonsten benutze ich benutze n kleines Macbook, das wars :). Klar, ein Quad wär natürlich viel sinnvoller. Und um ehrlich zu sein, ein kleiner Dualcore wäre wohl noch vernünftiger - aber ich mag die ganzen Xeons und gebastelt werden muss halt auch hin und wieder...

krass, du steigst also vom mopped (macbook) auf einen schweren lkw (xeon tulsa).
das nenne ich eine veränderung :asthanos:
 
Nette Technik, aber meiner Meinung nach im Desktopbereich absolut unnötig - ist ja auch ne Server CPU...

Die Entwicklung im Desktopbereich ist sowieso etwas komisch - die Technik ist der Software um Welten voraus. Ich sehe bis heute keinen Sinn darin, einen normalem Computer mit mehr als zwei Kernen auszurüsten - und selbst wenn Titel wie GTA4 usw im Gaming Bereich davon profitieren liegt das mehr an der Gestaltung der Software als an der wirklichen Notwendigkeit.

Technisch gefällt mir der i7 sehr gut - aber eine (stromsparendere) Dualcore CPU auf dieser Technik basierend würde ich begrüßen - da wären dann auch gleich ganz andere Taktraten drinnen.

Versteht mich nicht falsch, aber Intel weiß sein Zeug schon zu vermarkten. Ich denke da nur an die GC2007 und den Slogan "Quadcore - Hardcore". Ein großteil der User, die sich eine solche CPU geleistet haben, wären mit einem höher getaktete Dualcore besser bedient.

Aber, man sollte es auch so sehen: Die Servertechnik ist gewissermaßen der Vorreiter für den Desktopbereich. Dass Enterprise Anwendungen gar nicht genug Cores haben können, leuchtet ein - immer weniger physische Rechner für die gleiche Rechenleistung. (Viele Clients auf wenig Computern statt viele Clients auf vielen Computern). Nur so richtig Fuß fassen kann das bei Vista & Co eben nicht.

Multithreading wäre da auch ein Stichwort - aber um ehrlich zu sein: Schon damals bei den ersten P4 HT war ziemlich flüssiges arbeiten möglich - verglichen zu den Athlon FX CPUs, die für 1000 Steine immer noch unter Last hängende Fenster usw produziert haben (kann man sich im SMP Forum noch an sowas erinnern ;)?). Wenn es nach mir ginge: Klar, es ist toll während dem Zocken noch fix ne CD brennen oder ne dicke File entpacken zu können. Aber wie oft mach ich das denn? Mit 4 Kernen (... Threads -> Dualcore HT mal eingeschlossen) bin ich mehr als gut bedient, an einem P4 HT kann man auch heute noch gut arbeiten, mal abgesehen von der Rohleistung, die im Vergleich zu Core CPUs eben fehlt.
 
Zuletzt bearbeitet:
ja schon, im Desktopbereich wird das noch bissl dauern, kann auch ehrlich gesagt nicht wirklich glauben, das alles was im Serverbereich kommt, auch irgendwann im Desktop Bereich umgesetzt wird.
Man denke an die Hexacores von Intel, sowas wird Intel mit Sicherheit vorerst nicht bringen.

Aber so ein Teil mit 2x8 echten Cores macht schon was her... Für die normalen Desktopanwendungen net, aber wozu sind wir im Luxx?
Es findet sich schon was, das von 32 Threads nutzen ziehen kann :fresse:

Wollte mir eigentlich die Nahalem DP Systeme mal anschauen, wenn diese flächendeckend verfügbar sind, aber wenn ich sowas lese, dann könnt ich gut noch ein Jahr warten.
Die Workstation reicht imho für nahezu alles aus, und ich spar noch Geld, was dann für so ne Monstermaschine drauf gehen könnte...
 
Zum rendern kann man nicht genug Cores haben :d
Aber das ist auch nicht das, was ich zu normalen Desktopanwendungen zählen würde.
Sicher reichen für den ganzen Standardkram locker aktuelle, auch die langsameren, Dualcoremodelle leicht aus.
Also Office, Internet und der ganze Kram.

Hab ja lang genug selber mit nem Dual Pentium III 800 mit 512 MB RAM gesurft.
Das einzige was wirklich knapp war war der RAM. Die CPUs liefen zwar teilweise kurz auf 100% (allerdings fast nie beide gleichzeitig) aber wirklich richtig lahm war die Kiste kaum.

Die Software ist auf jeden Fall ein Flaschenhals auf aktuellen Systemen. Seh ich selbst immer wieder bei AutoCAD (ja und da sollte man meinen das würde Workstationsysteme mit 2 CPUs und bis zu 8 Kernen auch nur einigermaßen nutzen können - Pustekuchen!).

Der LGA 1366 kann für die 8 Core CPU gar nicht gehen, immerhin hat die ja 4mal QPI, das kann man im 1366 nicht zur Verfügung stellen weil zu wenig Pins da sind.

Reicht der 1366 denn überhaupt für die Xeon DPs, die ja dann wohl auch 2mal QPI brauchen?

Hatte übrigens gestern irgendwo ne Meldung von Ende letzten Jahres aufgestöbert, dass die Xeon DPs am 29.03.2009 kommen sollen. Hat da wer aktuellere oder andere Infos?
 
hi,

also, bei mehr-prozessor maschinen sollte man die skalierbarkeit nie
aus den augen verlieren. es gibt paar inoffiozielle zahlen, die zwar nicht
100% sind aber ein gutes bild abgeben:
1cpu=100%
2cpu=180%
4cpu=300%
8cpu=500%
dh. mit der anzahl der cpu steigt der overhead, somit ist die sinvolle
grenze bei etwa 4 cpu´s. bei speziellen anwendungen (z.b. berechnungen
die im cache ablaufen, keine peripheriezugriffe usw.) bekommt man ein
paar prozente mehr.

zu den neuen xeons (erscheinungsdatum ende märz) - die will ich mir
auch anschauen, von dem preis her werden die aber gesalzen sein,
und was die top-boards (supermicro, tyan) kosten werden will ich auch
nicht wissen. die 8-core, >2 wege systeme werden unbezahlbar sein (schon die 2*4 speicherinterfaces werden ihren tribut an die boardhersteller fordern)...
 
Also auf unserer Celsius R550 mit 2x Xeon X5460 = 8 Cores liegt die Skalierung bei 6,04x im Cinebench R10. Allerdings skaliert Raytracing afaik im allgemeinen sehr gut.
 
im cinebench sind die opterons von der skalierung durch des ht bussystem aber effizienter!
 
Ja da hast du Recht.
Hab leider nix vergleichbares da um das mal zu testen aber mein Dual Opteron 248 mit 2 Singlecores hat's auf 1,95x gebracht, das schafft z.B. auch kein Core2Duo, da hatte ich 1,89x bei nem E8400.
 
Jup 3,75 kommt da hin bei den Opterons, ich hab mit der Workstation glaub was von 3,4-3,5 oder sowas gehabt.

Denke aber mal die Nahalem DP Server werden da gar nicht mal so schlecht dastehen... nur soll die Maschine bei mir wieder auch für das ein oder andere Spielchen herhalten, sprich, es Takt von 3GHz+ muss schon sein :fresse: egal wie viele Cores, sonst wird das nix.
 
geht das eigentlich wieder richtung Fully buffered? sprich können wir wieder mit dem ram das gehäuse heizen? :fresse:
 
angeblich setzt Intel dieses mal auf DDR3 Reg. ECC Speicher.
FB-DIMMs auf DDR3 Basis sind mir auch gar nicht bekannt aktuell...

Neja teuer schon, aber was soll der Geiz :fresse:
 
Ja wenn Gaming ne Rolle spielt muss man auf jeden Fall auf den Takt schauen.
Aber billig wirds sicher nicht am Anfang.
 
Ja wenn Gaming ne Rolle spielt muss man auf jeden Fall auf den Takt schauen.
Aber billig wirds sicher nicht am Anfang.

Haltet euch daran nicht so fest. Ein Beispiel aus der Vergangenheit: Was auf einem P4 mit 3 GHz nie im Leben nur annähernd spielbar gewesen wäre läuft auf nem Yonah mit 500 MHz eventuell schon wie Butter.

Aber hinsichtlich der heutigen Entwicklung (billig -> viel Kerne, wenig Takt und teuer -> viel Kerne, viel Takt) stimmt das schon.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh