[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Mehrleisung bei CPUS fällt deutlich geringer aus, als z.B. bei Grafikkarten.
Deswegen lässt sich die Frage, ob man von einem X6 auf einen BD updaten soll irgendwie...
Noch dazu kommt, daß die Mehrleistung auch von Programmen/Spielen genutzt werden muss, was ja auch momentan nicht der Fall ist und noch etwas länger so bleiben wird.
CPUS muss man vlt. alle 4-5 Jahre updaten, dann erst lohnt es sich. Alles anderes ist Spaß am Hobby.

Spaß am Hobby ist es auf jeden Fall.

Trotzdem, ist natürlich richtig was die Leistung etc. angeht. Deswegen hätte mich auch nur der Verlgeich OC X6 gegen OC Bulli interessiert.

Im Grunde ärgere ich mich eh ein wenig das ich mir extra neues Board und Speicher gekauft habe in hinblick auf den Bulli und weil ich eh Upgraten wollte und es sich so angeboten hat.

Nun habe ich quasi Hammer Speicher auf einem Hammer Brett, nur keine CPU die damit wirklich effektiv was reisen kann.

Darüber hinaus plante ich eigentlich eine zweite 6950 @6970 ins System zu schieben, da wäre die Power wieder weit mehr von bedeutung. Aber diese ist ja Momentan leider nicht geboten.

Och man...

Auf Intel möchte ich eigentlich nur ungern.
Da ja quasi die Plattform steht und erst neu ist. Und ich im Grunde immer schon AMD Sympatisant war.
Auch wenn ich mal ein Pentium Dual Core E2180 hatte der mit knapp 4Ghz lief :fresse: Davor war es immer AMD. Und danach auch mit dem Phenom 2 X4.

Werde wohl ausharren müssen bis die neuen kommen... und dazu noch hoffen müssen das der auch noch auf AM3+ läuft...

Irgendwie habe ich den eindruck das mein vermeindliches Upgrade und vorbereitungen völlig für den A**** waren...
 
Zuletzt bearbeitet:
Alle 4-5jahre kannste aber total vergessen wenn man die aktuellsten games zocken will!
Eher alle 2 jahre!


Vollkommener Quatsch. Q9550, wann ist er rausgekommen? Vor 3 1/2 Jahren? Seit wann reicht die Leistung bei Aktuellen Games nicht mehr? Garnicht. Man kann damit immer noch sehr gut spielen. Es kommt nur auf die Ansprüche an. Sobald man JEDES neue Spiel mit MAX Einstellungen spielen will, dann reichen auch 2 Jahre nicht. Dann musst du jede neue bessere CPU mitnehmen und vorallem immer die besten Grafikkarten (mind2x).. Aber gerade CPU´s reichen eine ganze Zeitlang aus.
 
Irgendwie habe ich den eindruck das mein vermeindliches Upgrade und vorbereitungen völlig für den A**** waren...

Das hätte dir doch aber vorher schon auffallen müssen das hier was im Busch ist

Jetzt hast du die "Katze im Sack gekauft" und entspricht nun nicht deinen Anforderungen

Und Sympathie hin oder her wer rational kauft dem ist der Konzern unter dem die CPU gefertigt wurde doch vollkommen Schnuppe
 
Zuletzt bearbeitet:
Genau das ist mein Problem.
Ich möchte auch gar nicht darüber meckern ;)
Aber ein wenig endtäuscht darf man glaube ich sein :)

Edit:

Ich mecker auch gar nicht über den Bulli an sich, oder sehe ihn als Endtäuschung oder gar totgeburt oder was weiß ich.
Bin einzig ein wenig über die Momentane Leistung endtäuscht und hätte mir da mehr erhofft.

Das der Bulli Potenzial hat steht für mich auser Frage. Nur erfüllt er halt noch nicht die Erwartungen wodurch ich länger als erhofft auf mein Upgrade warten muss und dazu hoffen muss das sich die Investition für das Board gelohnt hat in dem der nächste noch drauf läuft ;)

Und Sympathie hin oder her wer rational kauft dem ist der Konzern unter dem die CPU gefertigt wurde doch vollkommen Schnuppe

Und eben das ist mir eben nicht gänzlich völlig schnuppe.
Wenn es aus P/L sicht ein massiven unterschied - der mich interessiert - persönlich machen würde, dann ja.
Das war zu dem Zeitpunkt aber nicht spruchreif ;)
 
Zuletzt bearbeitet:
Alle 4-5jahre kannste aber total vergessen wenn man die aktuellsten games zocken will!
Eher alle 2 jahre!
Wenn man noch zwei Grafikkarten sein eigen nennt kannste sowieso immer die schnellste CPU verbauen und dann noch max OC dauf geben!
man sieht ja jetzt schon wie derbe der BD@OC gegen einen I7 2600k@OC bei Crossfire verkackt...
Da hat man mit dem Intel höhere min FPS als das BD sys avg hat!
Mit dem erscheinen der GTX680 und HD7970 wird der BD höchstwarscheinlich schon bei einer GPU limitieren und bremsen und wer dann denkt naja ich bau bei mir mal CF oder SLI ein weil ich mehr FPS brauch wird dann bitter entäuscht sein weil sich nix tut!
FÜR 680SLI oder 7970CF braucht man sicher nen SB@5Ghz oder besser IvyBridge/SB-E @ max OC!

Ich würde mir aber auch wünschen das die Spiele entwickler die spiele so programmieren das man diese vielen kerne auch voll nutzen kann wie z.B. DICE wo der BD ja garnicht so schlecht abschneidet aber trozdem nicht mit dem SB mithalten kann!


Tut mir leid, aber wer bitte kauf sich alle 2 Jahre eine neue CPU, am besten noch neues Mainboard dazu ? Ganz einfach, jemand der Spaß an dem Hobby hat. Wirklich nötig ist das nicht. Klar, es gibt einzelne Spiele, die nicht rund laufen auf alter Hardware. Die meisten Spiele kann man aber immer noch sehr gut mit einem C2D oder C2Q aus dem Jahr 2006 spielen. Mit ein wenig OC sogar ganz sicher.
Grafikkarte sollte man schon alle 2 Jahre sich eine für 100 Euro leisten, mehr braucht man aber nicht zum "flüssig" spielen.
 
Genau das ist mein Problem.
Ich möchte auch gar nicht darüber meckern ;)
Aber ein wenig endtäuscht darf man glaube ich sein :)

Ja bei zwei HD6970 wäre ein SB richtig gut das kannste mir glauben da kommt dann deutlich was bei rum und besonders der stromverbrauch wird erheblich gesenkt!
der X6 geht auch schon recht gut aber du wirst dann bei BFBC2 o. auch BF3 viel stärkere drops haben als mit nem I7 2600k selbst wenn du deine 4Ghz hast!
Musst ja wenn nur deinen CPU und das Board tauschen aber ram behalten fals es DDR3 1333er ist!

@classic437
Ich spiele halt online und da bedeutet bei mir flüssig min 60FPS und je nach spiel brauche ich auch min 100FPS weil es sich dann einfach besser spielt.
Deswegen hatte ich ja auch zwei GPUs und nach dem AMD x4 reinfall nun nen SB@4,7Ghz mit Luftkühlung ;)
 
Zuletzt bearbeitet:
Hi Powerplay

hm hast du mal geschaut das die drei Test Spiele für den SLI test 2 Spiele beinhalteten wo von vornherein klar war das der buli die nicht mag?
und das Dritta Game hat er den 2600K geschlagen? ganz so verkehrt kanns doch nicht sein. Klar ist es nicht so wie viele gerne möchten aber zumindestens dafür das der 2600 mit 5,2 lief war eine niederlage eigendlich gegen nen knapp 4,7ghrz bulli ne peiliche nummer :P könnte man da auch rauslesen ....

lg

PS. schau dir das doch mal an :d bevor du hier alle Prozessoren darstellst als nichtskönner
 
Zuletzt bearbeitet:
Ja bei zwei HD6970 wäre ein SB richtig gut das kannste mir glauben da kommt dann deutlich was bei rum und besonders der stromverbrauch wird erheblich gesenkt!
der X6 geht auch schon recht gut aber du wirst dann bei BFBC2 o. auch BF3 viel stärkere drops haben als mit nem I7 2600k selbst wenn du deine 4Ghz hast!
Musst ja wenn nur deinen CPU und das Board tauschen aber ram behalten fals es DDR3 1333er ist!

@classic437
Ich spiele halt online und da bedeutet bei mir flüssig min 60FPS und je nach spiel brauche ich auch min 100FPS weil es sich dann einfach besser spielt.
Deswegen hatte ich ja auch zwei GPUs und nach dem AMD x4 reinfall nun nen SB@4,7Ghz mit Luftkühlung ;)

Ich hab 1866 CL9 er. Der rennt auch bei 2000 noch @ CL9.

Siehe Systeminfo :)
 
PS. schau dir das doch mal an :d bevor du hier alle Prozessoren darstellst als nichtskönner
Das kannste so vergessen weil es von AMD direkt kommt (die zeigen nur das was man sehen will) und auserdem ist hier eindeutig ein GPU limit zu sehen!
Das gleich machste mal mit zwei karten und von mir aus @ 2880x1620 im downsampling ohne AA und HBAO aus und ich bin mir sicher der BD bekommt ne klatsche!

Eine CPU muss in sachen spieleleistung grundsätzlich bei 800x600 getestet werden um zu sehen was sie wirklich kann alles andere ist nix wert und wer das gegenteil behauptet hat einfach überhaupt keine ahnung das wird dir jeder tester bestätigen!
 
Zuletzt bearbeitet:
Hi Powerplay

ich glaube nicht das bei BF3 das passieren wird, und wie man gesehen hat im SLI test auch nicht passiert ist. Dieses Spiel kann wohl doch mit den resurcen vom Bulli umgehen aber wohl auch mit dem des X6 was nahe legt das BF3 doch CPU lastiger. Ich schreibe das nur wegen deiner Schwarz Weiß Sicht, den so ist es einfach auchn nicht, da du aber immer wieder So agrumentierst solltest du dir auch die sachen mal unter einem Anderen Gesichtspunkt anschauen.

lg

PS: zu 800*600 wenn ich lust hab auf nen Web pad zu spielen dann teste ich den augenschmaus auch :P
 
Was und wie Intel das macht darf nicht Thema dieses Threads sein. Da habe ich meine eigene Meinung zu.

Was du jedoch schreibst AM3 vs. AM3+ ist so nicht richtig. Frag mal nach bei den Testern, die werden dir das bestätigen. Mehr schreibe ich nicht dazu.

ps: Das der Unterschied ebend nicht marginal ist, auf gleicher Plattform, dürfte dir ja anhand der mittlerweile zahlreichen Tests nicht entgangen sein, oder?

mhm ich glaub wir reden aneinander vorbei. Ich meinte marginal wäre AM3 Prozzi auf AM3 vs. AM3 Prozzi auf AM3+. Genaue Vergleiche (eh schwierig, weil die Boards ja auch unterschiedlich ausgestattet sein und verschiedene Vcore-Schwankungen haben können) habe ich da noch nicht gesehen..

Bei Frage Verbrauch x4/x6 OC vs. Bulli OC werd ich mal ein bischen was recherchieren jetzt. Interessiert mich auch.. Ich weiss aber, dass man mit nem Thuban und ansonsten sparsamen sys die 400w Grenze eben auch leicht knacken kann, das relativiert die Bulli Verbräuche AMD-intern...
 
Es ist ja schon fast Brechreiz erregend, wie hier den leuten ein SB schmackhaft gemacht wird.
Es kann doch jeder selber Ergebnisse interpretieren und für sich entscheiden, welche CPU
für wen geeignet ist.
Ihr würdet selbst meinem Opa zum Surfen nen 2600k andrehen, da der bei Flashseiten
durch seinen höheren Turbo 38473864FPS anstatt 38223412FPS eines 2100ers darstellt, und wenn ihm das mal nicht reicht, kann er durch den freien Multiplikator ja noch übertakten...
 
Genau das ist mein Problem.
Ich möchte auch gar nicht darüber meckern ;)
Aber ein wenig endtäuscht darf man glaube ich sein :)

Edit:

Ich mecker auch gar nicht über den Bulli an sich, oder sehe ihn als Endtäuschung oder gar totgeburt oder was weiß ich.
Bin einzig ein wenig über die Momentane Leistung endtäuscht und hätte mir da mehr erhofft.

Das der Bulli Potenzial hat steht für mich auser Frage. Nur erfüllt er halt noch nicht die Erwartungen wodurch ich länger als erhofft auf mein Upgrade warten muss und dazu hoffen muss das sich die Investition für das Board gelohnt hat in dem der nächste noch drauf läuft ;)



Und eben das ist mir eben nicht gänzlich völlig schnuppe.
Wenn es aus P/L sicht ein massiven unterschied - der mich interessiert - persönlich machen würde, dann ja.
Das war zu dem Zeitpunkt aber nicht spruchreif ;)


ich würde an deiner stelle erstmal abwarten was da so noch kommt....vielleicht schiebt amd zeitnah ein neues stepping nach.
http://ht4u.net/news/24465_neues_b3-stepping_fuer_amds_fx-prozessoren_zeichnet_sich_ab/

den FX61xx hat auch noch niemand richtig getest (nur simuliert)

du bist ja in der komfortablen situation einfach mal abwarten zu können....dein X6@4ghz wird sicherlich nicht in unspielbare bereiche abrutschen....
 
Zuletzt bearbeitet:
PS: zu 800*600 wenn ich lust hab auf nen Web pad zu spielen dann teste ich den augenschmaus auch :P

Das zeigt nur auf das du nicht verstanden hast was diese Einstellungen für einen aussagekräftigen CPU Test bedeuten

Dort geht es nicht um möglichst praxisnahes "Gamen" sondern das offenlegen der Leistungsfähigkeit einer CPU dazu sind diese Tests unerlässlich
 
Zuletzt bearbeitet:
Hi Powerplay

ich glaube nicht das bei BF3 das passieren wird, und wie man gesehen hat im SLI test auch nicht passiert ist. Dieses Spiel kann wohl doch mit den resurcen vom Bulli umgehen aber wohl auch mit dem des X6 was nahe legt das BF3 doch CPU lastiger. Ich schreibe das nur wegen deiner Schwarz Weiß Sicht, den so ist es einfach auchn nicht, da du aber immer wieder So agrumentierst solltest du dir auch die sachen mal unter einem Anderen Gesichtspunkt anschauen.

lg

PS: zu 800*600 wenn ich lust hab auf nen Web pad zu spielen dann teste ich den augenschmaus auch :P

j aich hatte halt den X4 und mein kumpel den X6 und nun haben wir beide den i7 2600k daher unsere einstellung dazu da DICE die kerne sehr gut auslastet ist ja keine frage weil bei BFBC2 ist der BD ja auch nicht so schlecht!
Bei BF3 denke ich wird es ähnlich aussehen also das der BD zwar gut ist aber nicht besser sein wird!

P.s. Du hast das Wetab ---> Geil!!
Installier dir mal win8 und staune wie unglaublich schnell es damit wird!
Ist echt ohne scheiß schon wie ein ipad!
 
ich würde an deiner stelle erstmal abwarten was da so noch kommt....vielleicht schiebt amd zeitnah ein neues stepping nach.
Neues B3-Stepping fr AMDs FX-Prozessoren zeichnet sich ab - Nachrichten bei HT4U.net

den FX61xx hat auch noch niemand richtig getest (nur simuliert)

du bist ja in der komfortablen situation einfach mal abwarten zu können....dein X6@4ghz wird sicherlich nicht in unspielbare bereiche abrutschen....

Genau darauf wird es auch hinaus laufen. Einfach abwarten :)
Trotzdem interessiert mich der Vergleich zwischen x6 OC / Bulli OC in allen belangen :fresse:
 
man bedenke, da sollte doch noch nen FX 8170 kommen oder? somit wäre das doch der "gegenpart" zum 2600k`oder nicht?
 
mhm ich glaub wir reden aneinander vorbei. Ich meinte marginal wäre AM3 Prozzi auf AM3 vs. AM3 Prozzi auf AM3+. Genaue Vergleiche (eh schwierig, weil die Boards ja auch unterschiedlich ausgestattet sein und verschiedene Vcore-Schwankungen haben können) habe ich da noch nicht gesehen..

Bei Frage Verbrauch x4/x6 OC vs. Bulli OC werd ich mal ein bischen was recherchieren jetzt. Interessiert mich auch.. Ich weiss aber, dass man mit nem Thuban und ansonsten sparsamen sys die 400w Grenze eben auch leicht knacken kann, das relativiert die Bulli Verbräuche AMD-intern...
Das kann natürlich gut sein das bei PII AM3 -> AM3+ der Unterschied gegen null sogar geht. Bestreite ich auch nicht.
Ja, dann recherchiere da mal. Ich warte auch noch auf die richtig guten Tests die das mal peinlichst genau -ohne Wischiwaschi- unter die Lupe nehmen. Einige gibbet ja schon, aber die sind eher so'lala..

Wenn HWL das zb. nochmal genau unter die Lupe nehmen könnte, daß Equipment dürfte doch da sein, oder? ..dann wäre das natürlich schon genial.

edit: Was zb. vCore-Schwankungen betrifft, da wäre das ASRock 890FX Deluxe5 eigentlich ein ideales Testboard für sowas. Da gehen vCore Drops quasi gegen null, egal ob idle oder last. Sehr stabil das Teil und da könnte man dann den PII-X6 und den FX-6100 ideal drauf einmessen. Schade, daß ich meines nicht mehr hier habe, dann hätte ich das event. sogar mal selbst gemacht. Aber anders herum, nur für sowas jetzt nochmal einen PII-X6 und einen FX-6100 nachkaufen. Nein danke! :)
 
Zuletzt bearbeitet:
Tut mir leid, aber wer bitte kauf sich alle 2 Jahre eine neue CPU, am besten noch neues Mainboard dazu ? Ganz einfach, jemand der Spaß an dem Hobby hat. Wirklich nötig ist das nicht. Klar, es gibt einzelne Spiele, die nicht rund laufen auf alter Hardware. Die meisten Spiele kann man aber immer noch sehr gut mit einem C2D oder C2Q aus dem Jahr 2006 spielen. Mit ein wenig OC sogar ganz sicher.
Grafikkarte sollte man schon alle 2 Jahre sich eine für 100 Euro leisten, mehr braucht man aber nicht zum "flüssig" spielen.

ich glaub der upgradewahn bei pc`s nimmt langsam aber sicher ab,wenns nur ums zocken geht.warum?

weil spiele multiplattformmäßig entwickelt werden und pc-spiele bei der entwicklung wohl eher mäßig entwickelt werden.wenn man sich manche vergleiche anschaut müssten heutige spiele 10x besser aussehen als auf konsolen.nur tun sie das nicht.

meistens laufen sie nur auch aufn pc, in nen etwas bseseren gewand: bessere beleuchtung,schatten,aa ect.

ich hab mich mit nem upgrade q9550 auf i5 2500 schwer getan.natürlich musste die neuste technik her.das war für mich auch entscheidend,gerade was leistung zum stromverbrauch bei nen "24/7" sys angeht.

spielen kann man aber noch glaub ich mit nen q9550 in 2-3 jahren gut.warum?

siehe multiplattformentwicklung von spielen.da wird auch ne neue xbox o. playstation nichts dran ändern.nur das wir grafisch davon profitieren.

dann wären wir schon bei 5-6 jahren q9550.

klar werd ich irgendwann nen ivy o. späteres einsetzen, weil 5 ghz sexy sind.aber absolut notwendig zum zocken?

ne!

so ot beendet.

also ich glaub das die bulli-struktur später noch in fahrt kommt, wenn amd am stromverbrauch drastisch optimiert.

der fx 6100 skaliert bei höheren takt wahrscheinlich besser als nen x6.zudem kommt er ja auch höher.->ingame braucht takt u. anwendungen cores,zumindest so grob gesagt.

mich würd mal nen review von nen fx 6100 interssieren,da kann man glaub ich mehr in die zukunft von bulli schauen
 
Die wohl mal angesetzten 4,5 GHz sind zwar möglich, aber dann kann AMD auch gleich Netzteile mit in die FX-Plattform aufnehmen.
Was habt ihr denn ständig mit euren 4,5 GHz? Wo kommt denn dieses Märchen wieder her? Geplant waren 3,5 GHz. Und diese hat man auch eingehalten. Ebenso die Spannung. Das zeigt, dass der Prozess für die angepeilten Specs völlig iO ist. Punkt.


Was Leonidas/3dcenter dazu schreibt ist absolut kein Quatsch
Doch, es ist leider grösstenteils Quatsch. Geplant waren 3,5 GHz für ein Modul, ausgeliefert wird mit 3,6 GHz. Dass man die angepeilten Taktraten nicht erreicht hat, ist schon mal die erste Lüge von 3DC. Falls nicht, dann widerlege dies bitte mit offiziellen Quellen.

Gegenfrage,wer sagt dir denn das man die Pro/Mhz Leistung in dem erforderlichen Maß steigern kann?
In welchem erforderlichen Masz? Was ist denn das erforderliche Masz? Kannst du das definieren? Ausserdem habe ich dazu nichts gesagt. Ich fragte, warum die IPC nicht gesteigert werden soll. Wenn du dieser Meinung bist, dann bringe auch dafür Fakten oder plausible Gründe. Falls nicht, dann unterlasse diese primitiven Provokationen.

Um zu glauben das die "kleine Verwechselung" ein Versehen ist,muß man schon derb verstrahlt sein.Was wird denn dem geneigten Betrachter eher auffallen,der plakative Vergleich,oder das kleingedruckte im Abspann?
Wer sich nicht die Systemspecs genau anschaut, ist selbst Schuld. Und noch "verstrahlter" ist man wohl, wenn man überall Verschwörungen sieht. Aber Hauptsache damit Polemik hier im Thread machen und verschweigen, dass es in den Systemspecs richtig steht. Und das ausgerechnet von den Leuten, die hier immer am auffälligsten bashen. :rolleyes:
 
Der 6100er ist übrigens nun bei MF auch lieferbar.

Hab ich mir mal bestellt :) Mal sehen wie er sich so schlägt. Werde den mal mit eine paar Benches mit meinem Phenom X4 vergleichen!

edit: Was zb. vCore-Schwankungen betrifft, da wäre das ASRock 890FX Deluxe5 eigentlich ein ideales Testboard für sowas. Da gehen vCore Drops quasi gegen null, egal ob idle oder last. Sehr stabil das Teil und da könnte man dann den PII-X6 und den FX-6100 ideal drauf einmessen. Schade, daß ich meines nicht mehr hier habe, dann hätte ich das event. sogar mal selbst gemacht. Aber anders herum, nur für sowas jetzt nochmal einen PII-X6 und einen FX-6100 nachkaufen. Nein danke! :)

Ich werde mich mich dann mal drum kümmern. ;-)
 
Zuletzt bearbeitet:
der fx6100 ist nun in 4 shops auf lager :)


EDIT//: in 11 shopd :d

---------- Beitrag hinzugefügt um 17:55 ---------- Vorheriger Beitrag war um 17:51 ----------

AMD Opteron 4256 EE (OS4256HJU8KGU)

sieht ma lecker aus :) 35w TDP
 
Zuletzt bearbeitet:
Zwecks des Verbrauchs vom Bulli / X6 hab ich mal einen kleinen Test mit meinem X6 angestellt.

CPU: 4Ghz
CPU NB: 3Ghz
Ram: 2Ghz
HD6950 @ 6970 (Shader Freischaltung) @ 960GPU / 1500 Ram @ 1.25V Kühlung: Hardwareluxx - Preisvergleich
Board: Asus Formula V

Dazu Arbeiten 2 Brenner, 1x 500GB 7200RPM Samsung / 1x 1TB 7200RPM Hitachi / 2x 2TB 7200RPM Western Digital Green. 4 Gehäuse Lüfter und 2x 120er CPU Lüfter

1.4 V-Core
1.35V CPU-NB
1.65V Ram

C1E Aktiviert.
Cool&Quiet Aktiviert.

CPU Taktet also auch runter und V-Core geht im Idle auch auf 1,260 runter.

Als Test habe ich mal schnell 3DMark11 durchlaufen lassen auf normalen Performance Preset.

Im Idle komme ich auf einen durschnittswert von -> 140W.
Unter Last ist der höchst gemessene Wert im 3DMark11 -> 426W.

Edit:

So gleiches Szenario nur unübertaktet.

Graka hab ich auf den gleichen Settings laufen lassen.

CPU / Ram alles Auto.

Was dann bei 3,2Ghz @ 3,6Ghz Turbo Core und 1600Mhz auf dem Ram mündet.

Idle: 120w
Last: 345w

Points unterschied im 3Dmark (wenn auch egal) knapp 450points
 
Zuletzt bearbeitet:
ich schätze mal das 30w für peripherie drauf gehen.

aber die 6 kerne wollen versorgt werden.hui
 
Ich mach den ganzen Spaß jetzt noch mal komplett ohne Übertaktung und mal schauen was dann dabei rum kommt :) Meld mich gleich wieder.
 
Mick Foley schrieb:
Bei den Windows 8 Benches wurde aber lustigerweise der 8150 mit dem 2500k verglichen um das wirklichtesten zu können hätte man das mit dem 2600k vergleichen müssen, denn die bprofitieren beide eher eine besondere Threadveteilung als eine normaler quad ala 2500k.

Da hast du recht, obgleich der 2500k eher der Gegner für AMD sein sollte, wie der 2600 oder 2700k.
Wobei ich wie gesagt nicht glaube dass Intel hier stärker profitiert als AMD.
Da gibts nen schönen Artikel der ein paar Seiten vorher gepostet wurde. Der Erklärt das zumindest in Ansätzen.
Intels SMT Threads werden mit normalen Threads defacto gar nicht mehr verwechselt, wie sollte Intel also profitieren?

Wo gibts denn Test's mit finalem Win8,gegen den 2600 ?

Hab ich selbiges behauptet? Eher nicht.
Das Windows ist doch ca 6 Monate vor Release schon lange fertig, da werden nurnoch Feinheiten angepasst, was den Kernel betrifft, sowieso nicht, siehe C´T Windows 8 Ausgabe.
Zur Windows 7 Beta hat sich beim finalen Windows doch auch nichts am Kernel selbst geändert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh