Nehalem - Infos und Fakten [4]

wie gut das es solche bugs irgendwie bisher in jeder CPU-serie gab. Nur das seit dem AMD phenom ein großes trara drum gemacht wird.
Bios werden halt drauf gepatcht und wieviel leistungs verlust dadurch entsteht ode ruach nicht is eigentlich wurscht - am ende zählt die leistung die er bringt - fertig und aus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
liegt am dollarkurs...

Blödsinn!

Der Dollar ist seit Anfang des Jahres von über 1,42 auf aktuell etwas über 1,32 gefallen!
Beweis: http://www.ariva.de/chart/index.m?boerse_id=13&secu=4633&t=month

Im gleichen Zeitraum ist der i7-920er von 242,- Euro auf 260,- Euro gestiegen.
Beweis: http://preisvergleich.hardwareluxx.de/deutschland/?phist=366185&age=28

Mit einem gestiegenen Dollar kann das also nix zu tun haben.


P.S.: Wenn sich jemand meine Links in ein paar Tagen/Wochen/Monaten ansieht, wird sich für den Leser vielleicht ein anderes Bild ergeben, da die verlinken Inhalte sich auf die aktuelle Preislagen per Ende Januar beziehen! Aktuell ist es aber so, wie ich es beschrieben habe -> Dollar ist im Januar runter gegangen -> Preis der CPU rauf.
 
Zuletzt bearbeitet:
Du verstehst da scheinbar was nicht. Dieser ganze Rechnerkrams wird in Dollar gehandelt und wenn der Euro am Wert verliert, im Vergleich zum Dollar, dann werden diese Waren für uns teurer. Wäre der Euo/Dollar Kurs gestiegen wäre der Core i7 920 höchstwahrscheinlich billiger geworden.
 
OK - Verstanden - danke für den Hinweis.
Habe zwar genau wie Du gedacht - allerdings genau anders (falsch) herum ;-)


Für alle noch einmal zum nachvollziehen:


Beispiel 1 = Situation vor einem Monat:
-> Für einen Euro bekommt man 1,42$.
-> Die CPU hat 242,- Euro bzw. rund 343,-$ gekostet.

Beispiel 2 = Situation heute:
-> Für einen Euro bekommst man nur noch 1,32$.
-> Die CPU kostet 260,- Euro bzw. 343,-$.

Der Preis der CPU ist also bezogen auf den Dollar stabil geblieben!
 
Zuletzt bearbeitet:
sorry - war ja nicht pers. gemeint.

Es ist halt schon ein wenig absurd, dass man für ein und das selbe mit einem im Verhältnis stärkeren Euro mehr bezahlen muss, als mit einem schwächeren.
Normaler Weise müsste es ja genau anders herum sein -> Je stärker der Euro, desto günstiger kann man im Dollar-Raum einkaufen.

So etwas wie das hier führt das System der Währungsdifferenzen abadsurdum!
Dann kann man gleich eine Weltwährung einführen und alle anderen abschaffen.
 
Warum wird immer wieder behauptet, daß
der i7 ein Stromfresser ist?
Das Gegenteil ist der Fall. Der i7 ist sparsamer
als jeder andere Quadcore.
Lest euch mal den aktuellen Vergleichstest zum
Stromverbrauch bei Quads auf anandtech durch.

Im Idle liegen die i7 und PhenomII gleich auf. Der
neuer Stromsparer Q9550S verbraucht 12W mehr
und der alte Phenom X4 9950 verbraucht 20W mehr.

Dann folgen mehrere Benches unter Last. Bei PovRay
beispielsweise liegen i7 920 und PhenomII beim
Maximalverbrauch gleich auf, nur das der i7 dabei
50 Prozent schneller rechnet.

Ich habe spaßeshalber mal den Energieverbrauch der
Benches addiert.

i7 920 : = 31.056 Joule
i7 965 : = 33.282 Joule
Q9550S: = 37.274 Joule
X4 940 : = 44.567 Joule
X4 9950: = 60.078 Joule

Der i7920 ist also 20% sparsamer als der
70 Euro teurere Q9550S und 43% sparsamer
als der PhenomII X4 940.

Diese Zahlen beziehen sich auf anandtech und deren Benches.
 
Das ist ein interessanter Ansatz nicht immer nur die momentane Leistungsaufnahme zu sondern mal die verbrauchte Energie bei verschiedenen Benchmarks zu vergleichen. Bei Games macht ein solcher Vergleich eher keinen Sinn aber bei Anwendungen bei denen es auf kürzeste Abarbeitungszeiten ankommt kann man das wirklich vergeichen.
 
Zuletzt bearbeitet:
@lachsack

Einen ähnlichen Vergleich hat auch eine Review Seite beim Phenom II Launch mal gemacht. Weiß aber nicht mehr wo das genau war...

Die habn alle Systeme bestimmte Aufgaben lösen lassen (Videos encoden, Number-Crunchen, Packen, Verschlüsseln etc.) und haben die insgesamt dabei verbrauchte Energie gemessen. Der i7 hat alle anderen Plattformen bei jeder einzelnen Aufgabe geschlagen ;)

Die richtig hohen Verbrauchswerte stellen sich beim i7 ein, wenn 8 Threads ordentlich auf die Kerne einprügeln. Beim Vergleich mit anderen CPUs wird dann oft vergessen, dass der Datendurchsatz des i7 in solchen Szenarien weit über dem der Vergleichsplattformen liegt.
 
nur welches "ernsthafte" Programm nutzt zur Zeit mehr al 2 cores...ich kenne keins...
und VISTA ???

das ist zur Zeit so, also kauft man sich ein Porsche und fährt eigentlich immer nur in der Stadt ??
 
und die nächste Generation mit 6 Cores steht vor der Tür ??

und du zitierst Winrar... alles irre, aber man braucht es ja...
 
nur welches "ernsthafte" Programm nutzt zur Zeit mehr al 2 cores...ich kenne keins...
und VISTA ???

das ist zur Zeit so, also kauft man sich ein Porsche und fährt eigentlich immer nur in der Stadt ??

Eigentlich sind das recht viele: Renderman, Maxwell, VRay, Mental Ray, anderere Renderer, Videoschnittprogramme, Packprogramme

Und auch Spiele wie Mirror's Edge oder GTA IV nutzen mehr als 2 Kerne.
 
Also ich brauch WinRAR ca. 10-15 mal am Tag, wenn ich meine VMs verpacke und entpacke ;)
 
und die nächste Generation mit 6 Cores steht vor der Tür ??

und du zitierst Winrar... alles irre, aber man braucht es ja...
Und was ist mit Multithreading? Wenn nun mehrere Progs gleichzeitig ackern? Da hast dann mitm DualCore ebenfalls verschissen. Aber sowas wird ja nicht beachtet.
 
Eigentlich sind das recht viele: Renderman, Maxwell, VRay, Mental Ray, anderere Renderer, Videoschnittprogramme, Packprogramme

Und auch Spiele wie Mirror's Edge oder GTA IV nutzen mehr als 2 Kerne.


ich meinte "richtige" Programme... die du genannt hast sind Nischen... für "Spaßvögel"
Ich denke an z.B. Adobe.. die könnten es gebrauchen, aber da kommt erstmal nichts !!
 
Das sind alles richtige Programme... Oder möchtest du Pixar erzählen, daß deren Renderer ein Programm für "Spaßvögel" ist?

Aber da du Adobe ansprichst: Lightroom ist multithreaded.
 
Kommt Leute... das ist doch alles Krampf hier... für die paar Programme braucht man keinen i7.
Seid doch einfach ehrlich.. das ist wie ein Ferrari, man braucht ihn nicht, aber er ist einfach geil.
Wenn man über tag addiert, wieviel Zeit man spart dann ist das einfach ein Witz..und rechtfertigt sicher nicht so eine CPU.
Wenn man dann noch bedenkt, was das mainborad kostet, der Speicher.. naja,

Intel muß uns immer wieder was neues servieren, damit die Kiste läuft. Das geht so bereits eine ganze Weile. Ist ja alles toll, aber kommt mir hier nicht, dass man wegen den paar armseligen Programmen einen i7 braucht.
Die Software muß endlich darauf geschrieben werden, vorher lohnt sich das ehrlicherweise nicht..
(aber ich kaufe mir wahrscheinlich auch ein i7, aber ich gehöre auch zu den irren.., leider)

und intel entwickelt sicher nicht für Pixar.. oder habe ich was verpaßt...
 
Zuletzt bearbeitet:
@NikNolte7
Dann erkläre uns, wofür man Dual-Quadcore-Workstations oder Quad-Hexacore-Server braucht, denn dafür gibt es einen nicht zu unterschätzenden Markt.

Pixar hat übrigens schon vor dem Launch des Nehalem einen Vertrag mit Intel geschlossen über die Lieferung von Nehalemrechnern, nur leider weiß ich nicht, ob es Server oder Workstations sind.

Auch kann ich nicht verstehen, wie du mit Mainstreamanforderungen auf die Sinnhaftigkeit eines High-End-Systems schließen willst und was genau du hier bezweckst.
 
ich bezwecke hier nichts... ich habe einfach meine Meinung geäußert mehr nicht...
Vielleicht sollte man manchmal ernsthafter den Sinn und Unsinn von neuen CPU´s hinterfragen, und insbesondere dann, wenn es wirklich nur sehr wenig Software gibt, die diese Power wirklich nutzt.
Das sollte man einfach zugeben, und nicht Pixar oder ähnliches zitiern.
Wenn Vista, Vista 7 endlich soweit wären, oder gar Adobe, wäre das sicher ein Grund...

Aber, ich höre lieber auf, sonst werde ich noch "gesteinigt" für diese Meinung...
 
Letztlich muss jeder selbst wissen, wofür er den Rechner einsetzen will und was für das Haupteinsatzgebiet am besten ist.
Für mich persönlich ist es wichtig, daß meine Renderings in sehr guter Qualität möglichst schnell fertig sind. Mein alter X3350 hat dafür 8 Stunden gebraucht, der i7 braucht etwas mehr als die Hälfte der Zeit.
Für die meisten Heimanwender ist der i7 wirklich nichts, nicht im Sinne von "Brauchen", da stimme ich dir zu. Ach ja: Von Autodesk gibt es auch zahlreiche Programme, die hervorragend mit der Anzahl der Threads skalieren.
 
ich bezwecke hier nichts... ich habe einfach meine Meinung geäußert mehr nicht...
Vielleicht sollte man manchmal ernsthafter den Sinn und Unsinn von neuen CPU´s hinterfragen, und insbesondere dann, wenn es wirklich nur sehr wenig Software gibt, die diese Power wirklich nutzt.
Das sollte man einfach zugeben, und nicht Pixar oder ähnliches zitiern.
Wenn Vista, Vista 7 endlich soweit wären, oder gar Adobe, wäre das sicher ein Grund...

Aber, ich höre lieber auf, sonst werde ich noch "gesteinigt" für diese Meinung...

1. das hat man damals schon zu den dualcore gesagt - quadcore sind schon ne zeit lang draußen dieses letztes jahr kamen schon 2 spiele und dieses jahr werdens sicher noch mehr.
Im software bereich is quadcore unterstützung in den diversen branchen schon sehr lang vertreten.

2. es gibt und wird kein VISTA 7 geben - MS is doch nit dumm noch irgendwas unter dem namen vista zu verkaufen^^

3. Adobe hat Quadcoresupport.
 
Zuletzt bearbeitet:
@"NikNolte"

Du hast vergessen das NUR in Anführungsstriche zu setzen.
Noch gibt es nicht allzuviele Programme, die den Quad- Okt- etc. -prozessor voll fordern.
Jedoch, die wenigen Programme, die dies tun, werden auch benötigt.
Fotoprogramme wie CS4, DXO etc. lasten den Prozessor mit all seinen Kernen aus. Wenn man wie ich, teilweise bis zu 3-4000 Fotos durch den DXO Konverter Prügelt, dann ist man über jedes Quäntchen froh, das der Prozessor bringt.

mfG Gucky
 
OK... es gibt sicher Anwendungen... nichts für ungut..wollte jetzt niemanden ärgern..

Unterstützt Photoshop CS4 Quadcores ??
Wußte ich nicht....
 
@ pajaa Wenn's wirklich schnell gehen müsste, würde ich mich nach Cuda umsehen. Oder nach AMD's Pendant. Dann würde es min. 50 x schneller gehen, als nun mit dem i7.

Anstatt ne Stunde ging es dann noch 30 Sekunden oder so

http://www.computerbase.de/artikel/..._physx_ueberblick/7/#abschnitt_cudabenchmarks


Ich habe mit CUDA experimentiert, allerdings ist die Akzeptanz in der Community nicht allzu hoch, und um meine Materialien für Gelato aufzubereiten fehlt mir wirklich die Zeit und auch die Lust.

Mein bevorzugter Maxwell Render hat eine große Community mit sehr fähigen Leuten, die hochprofessionelle Materialien zum Download anbieten. Schlafen muss ich ja auch noch ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh