[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1. Ging es um POV-Ray mit der Compiler Option bdver1 und da liegst Du falsch am Anwendungsprogramm musste gar nichts optimiert werden, sondern nur umcompiliert werden.
2. SuperPi nutzt den Gauss-Legendre Algorithmus: Gauss der enthält in jedem iterationsschritt unter anderen folgenden Rechenschritt:
Code:
t[I]n+1[/I] = t[I]n[/I] - p[I]n[/I](a[I]n[/I] - a[I]n+1[/I])^2
FMA4: FMA instruction set - Wikipedia, the free encyclopedia
Dies schreibt man ein wenig um:
Code:
opt = -(a[I]n[/I] - a[I]n+1[/I])^2
t[I]n+1[/I] = t[I]n[/I] + p[I]n[/I] x opt
und siehe da schwups ein Code für FMA4 irrer Aufwand ich weiß eventuell erkennt sowas der Compiler auch automatisch. Ob es schneller ist weiß ich nicht, da ich hier keinen Bulldozer habe und es mal ausprobieren könnte.
Wenn das Programm schon 'vorausschauend' geschrieben wurde, reicht die Compiler-Option (POV-Ray)
Im Fall von SuperPi bekommst du aber z.B. keinen Vektor zusammen, da es sich um Skalare handelt. Manche Algorithmen sind leider nicht parallelisierbar. Das recht häufig genutzte Newton-Verfahren ist z.B. auch so ein Problemkind, man tastet sich sequentiell durch einen Funktionenwelt und muss Schritt nach Schritt gehen. Man kann parallel mehrere Routen versuchen, mehr aber auch nicht. Insofern ist die Behauptung, ich setze ein Compiler-Flag und hab' automatisch AVX-Code, nicht zutreffend.
 
Nein. Das Thema hatten wir doch nun schon unzählige male. 1., Spiele sind nicht geeignet, um CPU Performance zu ermitteln. 2., besonders Spiele skalieren nicht 1:1 mit dem CPU Takt. Also hört bitte endlich mal mit diesem sinnfreien Halbwissen auf. Bleibt bei normalen Anwendungen. Und da sieht es IPC technisch nicht so schlecht aus. Zwar nicht die erwarteten Verbesserungen, aber auch bei weitem nicht weit hinter 10h, single- und multithreaded.
1) Im CPU-Limit geeignet
2) Im CPU-Limit skalieren Spiele nahezu 1:1 mit mehr Takt
3) Leistung pro Takt/Thread des FX liegt auf Höhe eines Phenom I
 
hast nix gefunden nä ? xD

Graphics Nvidia GeForce GTX 580 1.5 GB

crysis%201920.png

WOW was für ein unterschied.


Crysis 2 mit Very High oder Ultra Settings ist GPU Limit.
Willst nicht verstehen oder?

AMD Bulldozer FX-8150 Processor Review - Page 17

Da hast zwei Games wo kein GPU Limit vorliegt. Aber Games, sind nicht die stärke vom Bulldozer außer sie sind Multithread optimiert und selbst dann tut er sich schwer.
 
Hier ist wirklich ein Kindergarten. Da sind ja meine Kinder, die ich täglich in den heilpädagogischen Kindergarten fahre erwachsener.

Dieses GPU Limit Beispiel soll nur zeigen, dass praktisch alle (um es mal deutlich und schmutzig auszudrücken) Lügenerzähler sind, die behaupten Bulldozer ist Dreck/Müll/Fail/Abschaum/Niete usw.

Keiner behauptet hier, dass Bulldozer gut geworden ist, aber wenn hier täglich 16 Stunden am Tag seit 12 Oktober immer wieder von den gleichen Leuten Fail, Müll Bulldozer usw gesprochen wird, warum bringt dann dieser Müll im GPU Limit trotzdem die Leistung wie andere hoch gelobte CPUs? Wie man nämlich auch sehen kann, würde ein X2 selbst bei GPU Limit nicht diese Frames bringen wie es die angebliche Müll Bulli CPU macht.

Hört doch endlich mal auf jeden Tag immer wieder den gleichen Scheiß zu labern.
 
Crysis 2 mit Very High oder Ultra Settings ist GPU Limit.
Willst nicht verstehen oder?

AMD Bulldozer FX-8150 Processor Review - Page 17

Da hast zwei Games wo kein GPU Limit vorliegt. Aber Games, sind nicht die stärke vom Bulldozer außer sie sind Multithread optimiert und selbst dann tut er sich schwer.

also kann man im grossen und ganzen sagen:

*) bei games mit GPU limit und dem einsatz von blos einer graka fast egal ist welche CPU man verwendet und somit ein FX durchaus seine daseinsberechtigung hat

*) bei games ohne GPU limit die FPS e so hoch sind daß es frisch wieder egal ist welche CPu man nutzt

*) für 0815 sachen wie zb winrar der FX regiert

in summe also ne zeitgerechte CPU dieser FX
 
1) Im CPU-Limit geeignet
2) Im CPU-Limit skalieren Spiele nahezu 1:1 mit mehr Takt
3) Leistung pro Takt/Thread des FX liegt auf Höhe eines Phenom I
Hat der Phenom I nicht auch 2MB L3 Cache gehabt.
Beim FX8xxx sind es pro Modul 2MB L3 Cache...

Zeitgerecht? Bei dieser Leistungsaufnahme?
Ja die Leistungsaufnahme ist Rekordverdächtig und nicht so toll!
Allerdings ist der Bully auch doppelt so groß in fast jeder hinsicht.
Von daher ist der Verbrauch schon i.O. Intel hat nicht aus Spaß keinen 8C/16T im Desktopbereich, weil sie nie und nimmer die TDP von 140W einhalten könnten.

MfG
 
Wenn man hingegen aufrüstet, dann wird von den meisten Leuten (beachte: ich schreibe nicht alle!) in etwa gleichmäßig aufgerüstet. Dass eine CPU etwas länger genutzt wird als eine GPU ist unstrittig, aber drei Jahre lang die GPU aufzurüsten während die CPU identisch bleibt, dürfte recht selten vorkommen

Ich weiß, du schreibst nicht alle. Aber dazu habe ich eine kleine Episode. Ich glaube 2007 oder 2008 habe ich mir den Q6600 gekauft. Viele Leute schrieben: Zum Gamen nimm lieber einen E8400 und takte ihne höher! Ich habe mir gedacht: Mehrkernunterstützung wird kommen und dann stehe ich mit dem Quadcore wieder gut da. Außerdem habe ich in den letzten Jahren einige Software (besonders unter Linux) genutzt welche gut mit den Kernen skaliert.

Meine Rechnung ist aufgegangen: Ich habe nach 2,5-3 Jahren die HD4850 nun gegen eine HD5850 ausgetauscht und kann ohne AA und HBAO mindestens auf Hoch (Kampagne ging teils auch Ultra) spielen, dann habe ich natürlich keine 60 FPS sondern eher 30-50 (in Gebäuden auch 80+), aber für die Kampagne ist das okay. Im MP werde ich noch etwas basteln müssen. Meistens limitiert die GPU, selten die CPU - habe mal einen Graph der Auslastung gemacht...

Und die Moral von der Geschicht: Viele Kerne lohnen sich! ;)
 
also kann man im grossen und ganzen sagen:

*) bei games mit GPU limit und dem einsatz von blos einer graka fast egal ist welche CPU man verwendet und somit ein FX durchaus seine daseinsberechtigung hat

*) bei games ohne GPU limit die FPS e so hoch sind daß es frisch wieder egal ist welche CPu man nutzt

*) für 0815 sachen wie zb winrar der FX regiert

in summe also ne zeitgerechte CPU dieser FX


Zeitgerecht ja, aber für Heimanwender nur bedingt zu empfehlen.
Bulldozer ist im Server Segment besser aufgehoben, aber wenn die Preise weiter fallen, dann kann man schon zugreifen.

Und Verbrauch können scheinbar alle Testseiten NICHT messen. Entweder waren die zu blöd (gilt auch für Hardwareluxx) oder die Boards hatten ein sehr schlechtes Bios.

Der Verbauch liegt im Idle etwas über den 2500/2600K und unter Last braucht er weniger als ein 2600K.
 
Der Verbauch liegt im Idle etwas über den 2500/2600K und unter Last braucht er weniger als ein 2600K.

Du redest jetzt aber nicht vom FX 8150? Der liegt bei der Leistungsaufnahme unter Last ganz sicher nicht auf dem Level eines 2600K, darunter schon gleich gar nicht. Im idle liegen beide auf einem gleichen, sehr niedrigen Niveau, die reine CPU betrachtet.
 
also kann man im grossen und ganzen sagen:

*) bei games mit GPU limit und dem einsatz von blos einer graka fast egal ist welche CPU man verwendet und somit ein FX durchaus seine daseinsberechtigung hat

Verstehe ich nicht. Wenn es egal ist, welche CPU man verwenden kann, wieso sollte man dann unter mehreren Alternativen die teurere nehmen? Würde dieser Fakt die Daseinsberechtigung der teureren CPU, des FX, nicht negieren?

*) bei games ohne GPU limit die FPS e so hoch sind daß es frisch wieder egal ist welche CPu man nutzt

Gleiches Problem - wenn es egal ist welche CPU man nehmen kann, wieso soll man dann eine teurere als nötig nehmen, wenn es für den höheren Preis keine extra Leistung gibt? Ich verstehe die Logik dahinter einfach nicht.

*) für 0815 sachen wie zb winrar der FX regiert

Unter 08/15 Sachen würde ich erst einmal die Performance des Betriebssystems sehen. Ich bin überfragt, wie gut Windows die einzelnen Kerne auslastet - gibt es da einen Benchmark? Eine CPU, die die Bootzeit noch einmal verringert, fände ich jedenfalls deutlich angenehmer.

Ausserdem würde mich die Performance in Standard Office Anwendungen (MS Office, Open Office) interessieren. Selbst mit SSD dauert das Starten von Programmen noch merkbar Zeit - hier würde ich den Vorteil einer schnelleren CPU sehen - gibt es dazu einen Benchmark?

Insb. das Erstellen von Listen unter Open Office Base dauert bei meiner CPU z.B. quälend langsam - ich rede hier von Minuten und nicht von Sekunden... - welche CPU hätte dort Vorteile?

Dann gibt es noch Dinge wie Bildbearbeitung, welche CPU kann mir schneller in Paint.Net ein neues Bild berechnen?

Videoschnitt - mit welcher CPU kann ich mittels VDub schneller die Reklame aus einer Fersehaufnahme rausschneiden?

Und wie schlägt sich die CPU unter dem xbmc? Welche CPU kann schneller Scrappen? Und programmbedingt lasstet die xbmc Oberfläche die CPU zu 100% aus - wie sieht es dabei mit dem Stromverbrauch aus?

Wenn es etwas gibt, was mich gar nicht interessiert, ist es vermutlich die Performance beim Nutzen von Packern.

in summe also ne zeitgerechte CPU dieser FX

Ist mir in Anbetracht der Benchmarks in Kombination mit dem Preis ein Rätsel, wie man zu dem Schluss kommen kann.

Also im Kern möchte ich eine möglichst schnelle CPU für möglichst wenig Geld. Wenn ich fürs gleiche Geld eine schnellere CPU kriegen kann, dann nehme ich die Schnellere. Wenn ich eine gleichschnelle CPU für weniger Geld kriegen kann, dann nehme ich die Preisgünstigere. Was ist daran so kompliziert?
 
Zuletzt bearbeitet:
Und Verbrauch können scheinbar alle Testseiten NICHT messen. Entweder waren die zu blöd (gilt auch für Hardwareluxx) oder die Boards hatten ein sehr schlechtes Bios.

Der Verbauch liegt im Idle etwas über den 2500/2600K und unter Last braucht er weniger als ein 2600K.
Oh, das Ergebnis würde ich gerne sehen. Auch würde ich gerne sehen welche Fehler gemacht wurden.
 
Ich hab keine Lust mehr mich mit dem Karnevall hier abzugeben macht euch doch die Benchmarks so das es passt für Bulldozerchen tschau

Du hast ja auch den Sinn seines Posts bei dir intern scheinbar abgeändert.
Er hat gesagt, dass die CPU bei höheren Settings kaum Relevanz hat, wenn sie genügend Grundperformance aufweist.
Und warum hat er das getan?
Weil andere Leute ständig grundlos auf diese CPU eindreschen und behaupten sie wäre prinzipiell nicht für Gaming geeignet, was ist dann der Phenom II? Ein FX-4100 ist aktuell für 95 Euro zu haben, solide übertakbar und was P/L angeht genauso teuer wie der ähnlich schnelle Phenom II 955.

RoughNeck schrieb:
Crysis 2 mit Very High oder Ultra Settings ist GPU Limit.
Willst nicht verstehen oder?

Wenn du eine Seite zurückblätterst ging es darum, wann ein GPU Limit beginnt.
Und das hat er mit seinem Benchmark zu zeigen versucht. Ich unterstelle jetzt mal keine absichtliche Phantasie.

Timbaloo schrieb:
Zeitgerecht? Bei dieser Leistungsaufnahme?

Es ging doch scheinbar um die Leistung, und nicht um die Leistungsaufnahme.
Wer sich an 40 Watt mehr unter Vollast aufhängt, wenn der Idle Verbrauch dank Power Gating sehr gering ist, der kauft eben woanders.
Intel ist derzeit mit einem besseren P/L aufgestellt.

Grummel schrieb:
Verstehe ich nicht. Wenn es egal ist, welche CPU man verwenden kann, wieso sollte man dann unter mehreren Alternativen die teurere nehmen? Würde dieser Fakt die Daseinsberechtigung der teureren CPU, des FX, nicht negieren?

Es ging, doch auch hier wieder nur ums Prinzip. Nvidias GTX470 wurde damals schließlich auch gekauft, obwohl eine bessere HD6870 verfügbar war...
Niemand will das jetzt auf die jetzigen Preise bei schlechter Lieferbarkeit herunterbrechen, du tust es ergo schon wieder, was schon 10000000000mal gesagt wurde.
Irgendwann ist es doch mal gut , oder immernoch nicht?
Oder wollen wir jetzt über die Daseinsberechtigung von Intels SB-E reden?
Grummel schrieb:
ch verstehe die Logik dahinter einfach nicht.

Ich verstehe deine Logik nicht.

Grummel schrieb:
Was ist daran so kompliziert?

Na es ging um keine P/L Betrachtung, sondern ums Prinzip.
Du hast diese aktuelle P/L Betrachtung bei schlechter Verfügbarkeit doch selbst mit in seine obige Argumentation mit hineingebracht und wirfst ihm jetzt provokant vor er hätte irgendwas auf dieser Basis entschieden.
Du solltest schon bei dem eigentlichen Aussagen der Forenuser bleiben, ansonsten könnte man dich als Troll oder Lügner bezeichnen.

Was daran so kompliziert ist, solltest du dich am besten selbst fragen.

Wollen wir mit Aussagen verdrehen so weit machen, oder gibts jetzt endlich mal wieder Posts mit Themenbezug und ehrlichen Argumentationsweisen?
 
Zuletzt bearbeitet:
Es ging doch scheinbar um die Leistung, und nicht um die Leistungsaufnahme.
Wer sich an 40 Watt mehr unter Vollast aufhängt[...]

richtig, meine gtx570 verbraucht unter last auch mehr als eine 6970/ 6950 und ist dabei teilweise deutlich langsamer. dann hätte die gtx570 ja auch kaum eine daseinsberechtigung, oder? gtx470 war auch in sachen verbrauch deutlich hinter der 5870 und wurde dennoch gekauft (obwohl die ja auch fast 1 jahr nach der 5870 kam und teuerer war)

ab morgen weiss ich mehr über BD ;)
 
Zuletzt bearbeitet:
Man kann sich mit viel Polemik und Schwachfug alles erdenkliche zurechtlegen.
Das geht mitunter schon so weit das munter Zusammenhänge ignoriert und Aussagen verdreht werden.

@ Gibt es denn nicht irgendwann mal irgendwelche Banns? Oder interessiert der Thread eh niemanden?
 
Zuletzt bearbeitet:
Hi astra 1.8

langsam freue ich mich auf die vielen berichte, leider muss ich noch etwas warten bis ich ganz umrüsten kann.

lg
 
Mir gings nur darum zu zeigen dass unter normalen Gamingbedingungen fast immer ein GPU Limit einsetzt. Meine Güte.
Das hab ich aber auch 3 mal geschrieben und wenn ein Spiel Cpu lastig skalliert wie tf2 oder ähnliche sachen, dann is man eh schon locker im spielbaren Fps Bereich.

Somit ist so ein Spiel dann ebenfalls gut spielbar. Mir gings einzig darum aufzuzeigen dass fast immer ein Gpulimit greift ,unter normalen bedingungen, weil hier Leute die ganze Zeit sinnfrei auf den BD eingedroschen haben mit ihren 480x320 benchmarks, mit der Begründung er wär ja nen Totalausfall zum zocken.. und nu geht der ganze Kram nochmal von vorne los...

Bin hier raus.. lächerlicher kindergarten.

www.youtube.com/watch?v=kV4vHpqrj6E&feature=channel_video_title
 
Zeitgerecht? Bei dieser Leistungsaufnahme?

Edit: Wurde das schon gepostet?
Ex-AMD Engineer Explains Bulldozer Fiasco: Lack of Fine Tuning - X-bit labs

der verbrauch ist ganz normal
die revewpages haben lediglich beim OC beim spannung anlegen massiv übertrieben
klarerweise zieht die CPU dann mehr strom ;)


@ Grummel

wart mal ne runde
die preise müssen sich erst einpendeln
noch sind die 8 kerner ja kaum verfügbar
klarerweise nutzen dies die händler aus
 
Zuletzt bearbeitet:
Man liest hier echt nur noch Spam.. Der Threadinhaber hat sich zum Ziel gemacht seine Verteidigende Jahrelange Pro-AMD Stellung zunicht zu machen um so richtig schön zu Bashen, damit jeder weiss wiesehr er sich in seinen Hochtrabenden Annahmen vertan Hat. Eigentlich wäre es nun Zeit für das Moderatorenteam den Thread zu closen oder aber diese Basher endlich mal zu verwarnen.. man liest nur noch Spam, Bashes und auf der Andren Seite Verteidigt man ne Firma.. Oh man, wenn ihr sonst keine Langeweile habt. Denkt euch mal was neues aus als zuhohen Verbrauch, Schlechte Gamingleistung in Unterirdisch niedrigen Bildauflösungen, wo selbst mein 720BE zur Rakete wird, und achja die Tatsache das AMD vllt zuviel gewagt hat. Ich sage euch nur, seit Froh dass AMD Exitiert, sonst würden die Amerikanischen Kartellbehörden aber Intel den Garaus machen.

Back to Topic: Nämlich BD

Wir sind hier in einem Spekulationsthread über Leistung und zukünftige Nutzungsprofile des BD. Ich plädiere dafür dass Duplex der Thread abgenommen wird und alle Leute, die negativ aufgefallen sind, (sowohl AMD als auch Intel Fans) dem Thread zu verweisen. Duplex, es ist ja schön und gut dass AMD und JF dich Enttäuscht haben, aber bitte such dir ne Andre Möglichkeit deinem Frust freien lauf zu lassen...Danke
 
Zuletzt bearbeitet:
der verbrauch ist ganz normal
die revewpages haben lediglich beim OC beim spannung anlegen massiv übertrieben
klarerweise zieht die CPU dann mehr strom ;)
Was ist denn ganz normal? Silentpcreview z.B. ist sicher keine große OC-Seite, und die ermitteln halt mal gut den halben Wert in Sachen Rechenleistung zu Verlustleistung des FX-8150 gegenüber 2600k und 2500k. Und das ist, sorry, nicht "ganz normal". O.K. sie haben wie andere auch mit dem Asus Crosshair V Formula getestet, mit einem anderen Board wäre das Ergebnis sicher nicht ganz so schlimm, aber keiner kann mir erzählen, dass durch ein "falsches" Board die Leistungsaufnahme so dermassen nach oben geht.

AMD FX-8150 8-Core Bulldozer Processor | silentpcreview.com
 
Es ging, doch auch hier wieder nur ums Prinzip. Nvidias GTX470 wurde damals schließlich auch gekauft, obwohl eine bessere HD6870 verfügbar war...

Ich habe auf konkrete Aussagen von Techtrancer gantwortet und keine Prinzipienduskussion geführt.

Wenn die HD6870 die bessere Grafikkarte ist, dann darf man das doch sagen. Wieso darf man beim BD aber nicht sagen, dass es bessere Alternativen aus dem gleichen Haus gibt.

Mit Verlaub, ich habe hier den Eindruck, dass einige Leute ziemlich übertreiben:

Weil andere Leute ständig grundlos auf diese CPU eindreschen und behaupten sie wäre prinzipiell nicht für Gaming geeignet,...

Wer schreibt denn bitteschön, dass der BD prinzipiell nicht fürs Gaming geeignet ist? Das lese ich ehrlich gesagt zum ersten Mal. Es gibt lediglich bessere Alternativen.

Überhaupt fallen mir die AMD "Anhänger" durch eine ausgrsprochene Aggressivität in dem Thread auf, die sich gegen jeden nicht AMD "Anhänger" richtet. Nicht nur gegen Intel Fanboys, wo dies ja noch verständlich wäre, sondern auch gegen neutrale Teilnehmer am Thread, die einfach nur berechtigte und belegbare Kritik am BD äußern.

Hier ist wirklich ein Kindergarten. Da sind ja meine Kinder, die ich täglich in den heilpädagogischen Kindergarten fahre erwachsener.
...
Dieses GPU Limit Beispiel soll nur zeigen, dass praktisch alle (um es mal deutlich und schmutzig auszudrücken) Lügenerzähler sind, die behaupten Bulldozer ist Dreck/Müll/Fail/Abschaum/Niete usw.


Wer hat denn den BD als "Abschaum" bezeichnet? Hier wird auf völlig absurde Art und Weise übertrieben.

Dieses aggressive Vorgehen gehen jegliche Form von berechtigter Kritik steckt übrigens schon von Anfang an in diesem Thread - und meines Erachtens kam die Aggression in der Regel von Seiten AMDs.

Und mittlerweile scheinen einzelne völlig durchzudrehen, wenn sogar versucht wird Duplex, den Eröffner des Threads, der hier über Monate Infos über den BD zusammengestellt hat, den BD über Monate verteidigt hat (bis er halt auf den Markt kam), hier rauszuekeln, weil er nun (nachdem die Leistung des BD auf dem Tisch liegt) nicht mehr in den pro-BD Hype einstimmen möchte:

@Duplex bitte gib den thread doch jemand anders der den weiterführt denn du bist hier völlig deplaziert ...

vor kurzem hattest noch ein X6 sys in deiner sig und nun labberst was von luschen und heizen sehr originell für einen der nen BD sammelthread führt :stupid:

Ich weiß auch nicht, welche Relevanz die eigene CPU im PC hat. Klar hat man dann einen leichten Bias - aber es gibt Menschen, die das erkennen und die dann trotzdem eine neutrale Position beziehen können.

Ich selbst habe ja auch eine AMD CPU. Und ich weiß auch warum: eine gute HTPC Onboard Graka, mit der ich sogar mal ein Spiel wagen kann und k10stat ermöglicht mir wunderbar gleichzeitig Stromzusparen (Idle) und zu Overclocken. Das finde ich bei Intel nicht (also zumindest fand ich das damals beim Kauf nicht).

Aber ich würde mich jetzt nicht hinstellen und sagen, meine CPU wäre besonders schnell, denn selbst @4 Ghz ist sie langsamer als ein Pentium G850 @2,9 Ghz. Das ist nun mal die Realität.

Nun könnte ich mich irren und mein Athlon II ist @4 Ghz evtl. gar nicht langsamer als ein G850 @stock - dann könnte man über so eine Sachfrage diskutieren. Aber was würde hier passieren? Es würden sofort Angriffe gegen die Person gestartet. Und jeder kann ja mal durch die Seiten blättern und wird erkennen von welcher Seite diese Angriffe in der Regel kommen: von der AMD Seite:

@Schaffe: Gibs auf, ich würde an deiner Stelle gar nicht mehr den ewig gestrigen über dir/uns antworten...
 
Zuletzt bearbeitet:
richtig, meine gtx570 verbraucht unter last auch mehr als eine 6970/ 6950 und ist dabei teilweise deutlich langsamer. dann hätte die gtx570 ja auch kaum eine daseinsberechtigung, oder? gtx470 war auch in sachen verbrauch deutlich hinter der 5870 und wurde dennoch gekauft (obwohl die ja auch fast 1 jahr nach der 5870 kam und teuerer war)

ab morgen weiss ich mehr über BD ;)

Wo hast du das her, das deine GTX570 deutlich langsamer ist? Glaube das gegen teil ist der Fall.

Ja Ja so ist das, alle wollen einen neuen Prozessor, befassen sich aber nicht mit der Materie und meinen dann einen Performance schub in 1920x1200 zu spüren.

Verstehe sowieso nicht warum die meisten Zeitschriften auch PCGH immer vergleiche in 1680x1050 anstellen.
 
Wer hat denn den BD als "Abschaum" bezeichnet? Hier wird auf völlig absurde Art und Weise übertrieben.

Du scheinst wirklich gezielt Lügen zu verbreiten und Falschinformationen zu streuen, echt schon richtig armselig sowas.
Ich bin hier raus, mach was du willst, der Thread ist ohnehin verloren.

und meines Erachtens kam die Aggression in der Regel von Seiten AMDs.

Aber ganz sicher. Ich frage mich ja nur warum denn die Moderation auf meinen Hinweis alle gemeldeten Beiträge von Scully und Spieluhr gelöscht hat.:rolleyes:

Ich kann dir ja viele provokationen und Quotes zeigen, aber jemanden der Paranoia hat, kann man auch mit Fakten nicht überzeugen.:rolleyes:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh