[Sammelthread] Intel Haswell (Sockel 1150) Gerüchte + FAQ + Infos

Natürlich zählt am Ende das Gesamtpaket und was interessant ist ist ja auch immer subjektiv. Nur meiner Ansicht nach könnte man gerade in diesen Zusammenhang ja mal etwas mehr auf die CPU eingehen und nicht zum gefühlten 20. mal auf die iGPU. ;) Z.B. mal was zu den integrierten Spannungsreglern, Verbrauch oder grobe Leistungsangaben (Ja selbst die würden mich als Marketing-Geblubber mehr interessieren :d ).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die solln endlich mal das Übertakten per BCLK testen.

Also die Frequenzteiler des BCLK für die Kerne von 125 und 166 sind ja nun bestätigt (vtl. sogar 250). Gibts da schon eine Aussage von Intel, ob diese auch bei den nicht K Modellen verfügbar sein wird, oder eben nicht?
Hab ich da vtl. irgendwo ne News übersehen? - mMn würden (falls ja) die K Modelle nur noch wenig Sinn machen. Ich hoffe mal, Intel schiebt dem nicht-K Übertakten keinen Riegel vor (auch ich halte es leider für eher unwarscheinlich).

:heul:

Naja ich hab schon seit vier Jahren einen PII x3@x4@3,5GHz (für ~150€ damals ein Schnäppchen). Wollte dieses Mal nicht unbedingt das doppelte für die CPU ausgeben ...
 
Wenn ich mir dann gleich zu Anfang Mainboard mit 1150 Sockel hole und dieses dann den usb3 Bug aufweist, ist es dann möglich dieses umzutauschen? Es sollen ja nicht alle vom Bug betroffen sein. Oder muss ich auf das C2 Stepping warten, Oktober hatte ich gelesen, das wäre mir zu lang =(
 
Besteht die Chance das man nur durch den BLCK auch noch ein paar Prozente beim Übertakten rausholen kann wie früher beim FSB übertakten?

Oder ist der auch so schnell genug, selbst für die übertakteten Kerne und Caches?

Schade das Intel nur DDR3 1600 supportet, wo es doch selbst DDR 2400 schon recht günstig ab 125 Euro (16GB) gibt.
 
Also was den Speicher angeht guck dir mal Speicher-Tests zu Ivy an, der Leistungsgewinn steht da in keiner Relation zum Preis. ;) Also auch wenig Grund seitens Intel so hoch beim Speicher-Controller zu gehen.
 
Beim Hardwareluxx Review wäre es nett, wenn die Tester auch den Einfluss der Speichergeschwindigkeit auf die GPU testen würden.
 
Trotzdem ist das ein Witz seine CPUs so hoch zu züchten aber den Speicher Controller so zu belassen wie vor 2 oder 3 Generationen
 
Steht immer noch Anfang Juni als Release im Raume ?


Gesendet von meinem Nexus 4 mit der Hardwareluxx App
 
maybe sieht intel da keine konkurenz bei AMD und handhabt es desshalb so

und maybe erkennen die intelfanboys nun wie sich soetwas auswirkt ;)
 
Womöglich kommt DDR4 mit dem Haswell Refresh.

Die Intel Fanboys haben es doch gar nicht in der Hand, ob AMD nun eine Konkurrenz ist oder nicht. Die kleine Gruppe kann den Markt überhaupt nicht bewegen.
 
Frag mal einige IT´ler ob sie INTEL oder AMD server bze INTEL oder AMD workstations verwenden

und warum keine AMD ;)

und die INTEL fanboys welche weltweit alle foren mit gehype zumüllen sind auch nicht ohne

und zack haben wir einen riesen gruppe ;)
 
Zuletzt bearbeitet:
Wieso wird bezüglich AMD eigentlich immer diese Verschwörungs-Theorie-Kacke ausgepackt? Dass AMD die letzten Jahre im CPU-Bereich massiv am Markt vorbei entwickelt hat ist doch weder Intels noch des Endkundens Schuld. Ich hätte auch gerne eine AMD-CPU im Rechner, nur bezahle ich nicht 150€ für einen FX 8320, wenn ich für fast das gleiche Geld einen i5 3470 bekomme. Mehr Rohleistung und fast halber Verbrauch...
 
in der firma denk man sich 1) nehm ich einen intel, wie er in zig millionen anderen firmen problemlos läuft 2) geh ich das risiko ein eine kiste von AMD zu kaufen
 
Und solche Leute dürfen wählen :bigok:

Gesendet von meinem LG-P880 mit der Hardwareluxx App
 
Frag mal einige IT´ler ob sie INTEL oder AMD server bze INTEL oder AMD workstations verwenden

und warum keine AMD ;)

und die INTEL fanboys welche weltweit alle foren mit gehype zumüllen sind auch nicht ohne

und zack haben wir einen riesen gruppe ;)

Ja mei, das sind doch jetzt zwei Gruppen. Einmal die ITler und einmal die Fanboys. Die Gruppe der 15-jährigen Knödel, die sich einen Intel holen, weil er cool ist, hat jetzt nicht unbedingt die Macht, den Markt entscheidend zu verändern. Ein Achtkerner ist sowieso viel cooler.

Die Argumente der ITler pro Intel sind mir aber nicht bekannt, dazu wüsste ich gerne mehr. Läuft das sachlich ökonomisch oder aus dem Bauch heraus?
 
ITler sind wie Bauern, die setzen gerne auf das Bewerte... :d

Was man in großen Firmen aber auch nicht außer acht lassen darf ist, dass die Kostenbewertung dort meistens eine andere. Während hier den meisten Nerds der Preis vor die Ennergie-Effiziens geht, sieht der Spaß anders aus, wenn man viel davon betreibt. Kaufst du einen PC sind die Strompreise auf drei Jahre egal, kaufst du 250 PC, die quasi permanent laufen ist er es nciht. Anschaffungen kann man steuerlich geltend machen, Betriebskosten nicht. Google verbraucht so viel Strom wie eine Großstadt: Suchmaschinenriese: Google verbraucht so viel Strom wie eine Großstadt - SPIEGEL ONLINE , wenn die 20% Strom einsparen könnten pro Jahr ist denen das bestimmt lieber als einmalig "30 Dollar" an einer Kiste zu sparen...
 
In der IT wird idR überhaupt nicht auf AMD oder Intel geachtet. Da gibt es eine Ausschreibung, Angebote von Firmen und dann die Wahl des besten (bzw. günstigsten). Über den Erfolg von AMD/Intel entscheiden damit hier letztlich vor allem HP, Dell & Co.
 
Ja mei, das sind doch jetzt zwei Gruppen. Einmal die ITler und einmal die Fanboys. Die Gruppe der 15-jährigen Knödel, die sich einen Intel holen, weil er cool ist, hat jetzt nicht unbedingt die Macht, den Markt entscheidend zu verändern. Ein Achtkerner ist sowieso viel cooler.

Die Argumente der ITler pro Intel sind mir aber nicht bekannt, dazu wüsste ich gerne mehr. Läuft das sachlich ökonomisch oder aus dem Bauch heraus?
Also ich war schon in einigen Büros tätig und hatte vorab noch nie ne AMD Workstation!

Lediglich ein einziges mal bekam ich einen AMD Rechenknecht.
Da aber auch erst als ich demonstrierte das Corel Draw auf nem AM2 X2 @ 1 ghz flüssiger als auf nem INTEL Quad mit glaub 3,1 ghz lief
Und da war der Unterschied wie Tag und Nacht denn es ruckte auf dem Quad als hätte man 2 FPS bei nem Game

CAD mässig deto!
Erst seit die NB in der CPU ist kann man INTEL Workstations dafür brauchen!
Davor hatte man teils Pläne wo die CPU nichtmal 10% ausgelastet war und die CPU nichts mehr tat weil irgendetwas andre limittierte (vermutlich NB)

---------- Post added at 13:36 ---------- Previous post was at 13:26 ----------

ITler sind wie Bauern, die setzen gerne auf das Bewerte... :d

Was man in großen Firmen aber auch nicht außer acht lassen darf ist, dass die Kostenbewertung dort meistens eine andere. Während hier den meisten Nerds der Preis vor die Ennergie-Effiziens geht, sieht der Spaß anders aus, wenn man viel davon betreibt. Kaufst du einen PC sind die Strompreise auf drei Jahre egal, kaufst du 250 PC, die quasi permanent laufen ist er es nciht. Anschaffungen kann man steuerlich geltend machen, Betriebskosten nicht. Google verbraucht so viel Strom wie eine Großstadt: Suchmaschinenriese: Google verbraucht so viel Strom wie eine Großstadt - SPIEGEL ONLINE , wenn die 20% Strom einsparen könnten pro Jahr ist denen das bestimmt lieber als einmalig "30 Dollar" an einer Kiste zu sparen...
blos spart ein INTEL keine 20% strom ein denn 99,99% der workstations laufen wohl 90 bis 99% % des Tages im IDL da ausser office kaum etwas andres darauf getätigt wird und folglich würde für die meisten tätigkeiten sogar die leistung von ARM reichen
und IDL ist quasi kein unterschied zwischen INTEL und AMD
 
Zuletzt bearbeitet:
Das dürfte dann der Vergleich von Onboard-GPU vs. einer schnellen dedizierten Grafikkarte gewesen sein. Geschweige denn, dass es keinen X2 mit 1 GHz gibt, wäre selbiger je nach Workload eben auch nur irgendwo zwischen 15 und 30% so schnell wie ein C2Q @ 3 GHz. Letzterer natürlich out-of-the-Box, was die Geschwindigkeit des FSB betrifft.

blos spart ein INTEL keine 20% strom ein denn 99,99% der workstations laufen wohl 90 bis 99% % des Tages im IDL da ausser office kaum etwas andres darauf getätigt wird
und IDL ist quasi kein unterschied zwischen INTEL und AMD

Eine Workstation dürfte eher <10% des Tages idlen und die restliche Zeit irgendwo bei hoher Teillast laufen.
 
Zuletzt bearbeitet:
blos spart ein INTEL keine 20% strom ein denn 99,99% der workstations laufen wohl 90 bis 99% % des Tages im IDL da ausser office kaum etwas andres darauf getätigt wird und folglich würde für die meisten tätigkeiten sogar die leistung von ARM reichen
und IDL ist quasi kein unterschied zwischen INTEL und AMD

Die 20% sollten auch kein Expliziter-wert sein, sondern nur verdeutlichen, dass Fixkosten auf Laufzeit weniger kneifen als Betriebskosten. ;) Wie gesagt die Anschaffung schreibt man ab, die Betriebskosten nicht...
 
Das dürfte dann der Vergleich von Onboard-GPU vs. einer schnellen dedizierten Grafikkarte gewesen sein. Geschweige denn, dass es keinen X2 mit 1 GHz gibt, wäre selbiger je nach Workload eben auch nur irgendwo zwischen 15 und 30% so schnell wie ein C2Q @ 3 GHz. Letzterer natürlich out-of-the-Box, was die Geschwindigkeit des FSB betrifft.



Eine Workstation dürfte eher <10% des Tages idlen und die restliche Zeit irgendwo bei hoher Teillast laufen.
@ work hatte ich ne matrox und @ home wars ne 10W office karte
der X2 war heruntergetaktet

du sprichst da von rändermaschinen oder soetwas
soetwas steht selten wo rum
office stations mit outlook, word, excel und ein par W95 oder XP proggys jedoch an jedem eck ;)
 
Ich glaub wir schweifen hier massiv vom Thema ab...
 
Also in 38,5 Tagen, dem 3.6 ^^
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh