scully1234
Banned
Dieser Jemand wird sich wohl auf offizielle angeben bezogen haben.
Entschuldigung konnte mir gerade ein "leichtes"Lachen nicht verkneifen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Dieser Jemand wird sich wohl auf offizielle angeben bezogen haben.
Die Mehrleisung bei CPUS fällt deutlich geringer aus, als z.B. bei Grafikkarten.
Deswegen lässt sich die Frage, ob man von einem X6 auf einen BD updaten soll irgendwie...
Noch dazu kommt, daß die Mehrleistung auch von Programmen/Spielen genutzt werden muss, was ja auch momentan nicht der Fall ist und noch etwas länger so bleiben wird.
CPUS muss man vlt. alle 4-5 Jahre updaten, dann erst lohnt es sich. Alles anderes ist Spaß am Hobby.
Alle 4-5jahre kannste aber total vergessen wenn man die aktuellsten games zocken will!
Eher alle 2 jahre!
Irgendwie habe ich den eindruck das mein vermeindliches Upgrade und vorbereitungen völlig für den A**** waren...
Und Sympathie hin oder her wer rational kauft dem ist der Konzern unter dem die CPU gefertigt wurde doch vollkommen Schnuppe
Alle 4-5jahre kannste aber total vergessen wenn man die aktuellsten games zocken will!
Eher alle 2 jahre!
Wenn man noch zwei Grafikkarten sein eigen nennt kannste sowieso immer die schnellste CPU verbauen und dann noch max OC dauf geben!
man sieht ja jetzt schon wie derbe der BD@OC gegen einen I7 2600k@OC bei Crossfire verkackt...
Da hat man mit dem Intel höhere min FPS als das BD sys avg hat!
Mit dem erscheinen der GTX680 und HD7970 wird der BD höchstwarscheinlich schon bei einer GPU limitieren und bremsen und wer dann denkt naja ich bau bei mir mal CF oder SLI ein weil ich mehr FPS brauch wird dann bitter entäuscht sein weil sich nix tut!
FÜR 680SLI oder 7970CF braucht man sicher nen SB@5Ghz oder besser IvyBridge/SB-E @ max OC!
Ich würde mir aber auch wünschen das die Spiele entwickler die spiele so programmieren das man diese vielen kerne auch voll nutzen kann wie z.B. DICE wo der BD ja garnicht so schlecht abschneidet aber trozdem nicht mit dem SB mithalten kann!
Genau das ist mein Problem.
Ich möchte auch gar nicht darüber meckern
Aber ein wenig endtäuscht darf man glaube ich sein
Ja bei zwei HD6970 wäre ein SB richtig gut das kannste mir glauben da kommt dann deutlich was bei rum und besonders der stromverbrauch wird erheblich gesenkt!
der X6 geht auch schon recht gut aber du wirst dann bei BFBC2 o. auch BF3 viel stärkere drops haben als mit nem I7 2600k selbst wenn du deine 4Ghz hast!
Musst ja wenn nur deinen CPU und das Board tauschen aber ram behalten fals es DDR3 1333er ist!
@classic437
Ich spiele halt online und da bedeutet bei mir flüssig min 60FPS und je nach spiel brauche ich auch min 100FPS weil es sich dann einfach besser spielt.
Deswegen hatte ich ja auch zwei GPUs und nach dem AMD x4 reinfall nun nen SB@4,7Ghz mit Luftkühlung
Das kannste so vergessen weil es von AMD direkt kommt (die zeigen nur das was man sehen will) und auserdem ist hier eindeutig ein GPU limit zu sehen!PS. schau dir das doch mal an bevor du hier alle Prozessoren darstellst als nichtskönner
Was und wie Intel das macht darf nicht Thema dieses Threads sein. Da habe ich meine eigene Meinung zu.
Was du jedoch schreibst AM3 vs. AM3+ ist so nicht richtig. Frag mal nach bei den Testern, die werden dir das bestätigen. Mehr schreibe ich nicht dazu.
ps: Das der Unterschied ebend nicht marginal ist, auf gleicher Plattform, dürfte dir ja anhand der mittlerweile zahlreichen Tests nicht entgangen sein, oder?
Genau das ist mein Problem.
Ich möchte auch gar nicht darüber meckern
Aber ein wenig endtäuscht darf man glaube ich sein
Edit:
Ich mecker auch gar nicht über den Bulli an sich, oder sehe ihn als Endtäuschung oder gar totgeburt oder was weiß ich.
Bin einzig ein wenig über die Momentane Leistung endtäuscht und hätte mir da mehr erhofft.
Das der Bulli Potenzial hat steht für mich auser Frage. Nur erfüllt er halt noch nicht die Erwartungen wodurch ich länger als erhofft auf mein Upgrade warten muss und dazu hoffen muss das sich die Investition für das Board gelohnt hat in dem der nächste noch drauf läuft
Und eben das ist mir eben nicht gänzlich völlig schnuppe.
Wenn es aus P/L sicht ein massiven unterschied - der mich interessiert - persönlich machen würde, dann ja.
Das war zu dem Zeitpunkt aber nicht spruchreif
PS: zu 800*600 wenn ich lust hab auf nen Web pad zu spielen dann teste ich den augenschmaus auch :P
Hi Powerplay
ich glaube nicht das bei BF3 das passieren wird, und wie man gesehen hat im SLI test auch nicht passiert ist. Dieses Spiel kann wohl doch mit den resurcen vom Bulli umgehen aber wohl auch mit dem des X6 was nahe legt das BF3 doch CPU lastiger. Ich schreibe das nur wegen deiner Schwarz Weiß Sicht, den so ist es einfach auchn nicht, da du aber immer wieder So agrumentierst solltest du dir auch die sachen mal unter einem Anderen Gesichtspunkt anschauen.
lg
PS: zu 800*600 wenn ich lust hab auf nen Web pad zu spielen dann teste ich den augenschmaus auch :P
ich würde an deiner stelle erstmal abwarten was da so noch kommt....vielleicht schiebt amd zeitnah ein neues stepping nach.
Neues B3-Stepping fr AMDs FX-Prozessoren zeichnet sich ab - Nachrichten bei HT4U.net
den FX61xx hat auch noch niemand richtig getest (nur simuliert)
du bist ja in der komfortablen situation einfach mal abwarten zu können....dein X6@4ghz wird sicherlich nicht in unspielbare bereiche abrutschen....
Weil er 100-200Mhz mehr Takt hat als der 8150man bedenke, da sollte doch noch nen FX 8170 kommen oder? somit wäre das doch der "gegenpart" zum 2600k`oder nicht?
Das kann natürlich gut sein das bei PII AM3 -> AM3+ der Unterschied gegen null sogar geht. Bestreite ich auch nicht.mhm ich glaub wir reden aneinander vorbei. Ich meinte marginal wäre AM3 Prozzi auf AM3 vs. AM3 Prozzi auf AM3+. Genaue Vergleiche (eh schwierig, weil die Boards ja auch unterschiedlich ausgestattet sein und verschiedene Vcore-Schwankungen haben können) habe ich da noch nicht gesehen..
Bei Frage Verbrauch x4/x6 OC vs. Bulli OC werd ich mal ein bischen was recherchieren jetzt. Interessiert mich auch.. Ich weiss aber, dass man mit nem Thuban und ansonsten sparsamen sys die 400w Grenze eben auch leicht knacken kann, das relativiert die Bulli Verbräuche AMD-intern...
Tut mir leid, aber wer bitte kauf sich alle 2 Jahre eine neue CPU, am besten noch neues Mainboard dazu ? Ganz einfach, jemand der Spaß an dem Hobby hat. Wirklich nötig ist das nicht. Klar, es gibt einzelne Spiele, die nicht rund laufen auf alter Hardware. Die meisten Spiele kann man aber immer noch sehr gut mit einem C2D oder C2Q aus dem Jahr 2006 spielen. Mit ein wenig OC sogar ganz sicher.
Grafikkarte sollte man schon alle 2 Jahre sich eine für 100 Euro leisten, mehr braucht man aber nicht zum "flüssig" spielen.
Was habt ihr denn ständig mit euren 4,5 GHz? Wo kommt denn dieses Märchen wieder her? Geplant waren 3,5 GHz. Und diese hat man auch eingehalten. Ebenso die Spannung. Das zeigt, dass der Prozess für die angepeilten Specs völlig iO ist. Punkt.Die wohl mal angesetzten 4,5 GHz sind zwar möglich, aber dann kann AMD auch gleich Netzteile mit in die FX-Plattform aufnehmen.
Doch, es ist leider grösstenteils Quatsch. Geplant waren 3,5 GHz für ein Modul, ausgeliefert wird mit 3,6 GHz. Dass man die angepeilten Taktraten nicht erreicht hat, ist schon mal die erste Lüge von 3DC. Falls nicht, dann widerlege dies bitte mit offiziellen Quellen.Was Leonidas/3dcenter dazu schreibt ist absolut kein Quatsch
In welchem erforderlichen Masz? Was ist denn das erforderliche Masz? Kannst du das definieren? Ausserdem habe ich dazu nichts gesagt. Ich fragte, warum die IPC nicht gesteigert werden soll. Wenn du dieser Meinung bist, dann bringe auch dafür Fakten oder plausible Gründe. Falls nicht, dann unterlasse diese primitiven Provokationen.Gegenfrage,wer sagt dir denn das man die Pro/Mhz Leistung in dem erforderlichen Maß steigern kann?
Wer sich nicht die Systemspecs genau anschaut, ist selbst Schuld. Und noch "verstrahlter" ist man wohl, wenn man überall Verschwörungen sieht. Aber Hauptsache damit Polemik hier im Thread machen und verschweigen, dass es in den Systemspecs richtig steht. Und das ausgerechnet von den Leuten, die hier immer am auffälligsten bashen.Um zu glauben das die "kleine Verwechselung" ein Versehen ist,muß man schon derb verstrahlt sein.Was wird denn dem geneigten Betrachter eher auffallen,der plakative Vergleich,oder das kleingedruckte im Abspann?
Der 6100er ist übrigens nun bei MF auch lieferbar.
edit: Was zb. vCore-Schwankungen betrifft, da wäre das ASRock 890FX Deluxe5 eigentlich ein ideales Testboard für sowas. Da gehen vCore Drops quasi gegen null, egal ob idle oder last. Sehr stabil das Teil und da könnte man dann den PII-X6 und den FX-6100 ideal drauf einmessen. Schade, daß ich meines nicht mehr hier habe, dann hätte ich das event. sogar mal selbst gemacht. Aber anders herum, nur für sowas jetzt nochmal einen PII-X6 und einen FX-6100 nachkaufen. Nein danke!
Mick Foley schrieb:Bei den Windows 8 Benches wurde aber lustigerweise der 8150 mit dem 2500k verglichen um das wirklichtesten zu können hätte man das mit dem 2600k vergleichen müssen, denn die bprofitieren beide eher eine besondere Threadveteilung als eine normaler quad ala 2500k.
Wo gibts denn Test's mit finalem Win8,gegen den 2600 ?
Ich mach den ganzen Spaß jetzt noch mal komplett ohne Übertaktung und mal schauen was dann dabei rum kommt Meld mich gleich wieder.