[Sammelthread] AMD Bulldozer "Zambezi" 32nm "New CPU Architecture" Sockel AM3+ [Part 3]

Das tollste, was da von AMD liegt, sind mehrere X6 1100T und ein TWKR. That's it.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
SiSoftware Zone


ist der kleinste Bulli mit nur 2800 Mhz also wäre +33% zu rechnen trotzdem eher mau

Ich glaube der BD verliert da einfach so deutlich auf grund des speichercontrollers welcher einfach lächerlich langsam ist mit 2200Mhz der lsst die CPU einfach verhungern!
Auf jedenfall ist gut zu sehen das der BD eigentlich keine chance gegen den SB hat!
Ob der test echt ist ist natürlich ne andere frage....
 
Wir sollten am besten warten bis ein Test bei CB online ist und nur dann kann man mit gewissheit sagen was sache ist!
 
Die Aussage war, dass User-Reviews idR mehr abzugewinnen ist.

User reviews? Also für mich ergibt die Aussage keinen Sinn.
Ich kenne kein user review, welches informativer wäre als das einschlägiger Hardwareseiten mit jahrelanger Erfahrung.

mr.dude schrieb:
Es macht daher mehr Sinn, schlanke Kerne in grösserer Anzahl zu verbauen als grosse und klobige Kerne in geringerer Anzahl,

Nur dass die SB Kerne alles andere als klobig sind.

Die Performance bei wenigen Threads lässt sich auch mittels Turbo ausgleichen, der bei weniger Transistoren und weniger Energie pro Kern eben höher ausfallen kann.

Eine geringe IPC lässt sich niemals mit Turbo ausgleichen.
Bei gewissen Taktraten ist einfach schluss, da kann die Pipeline noch so lang sein.
Ich kapier nicht wie du den wirren Aussagen von Fruehe da noch etwas positives abgewinnen kannst.
 
mr. dude könnte doch testen, die ganzen Hardwareseiten haben doch eh keine Ahnung.
SCNR ;)
 
:fresse: :lol:

Da vertraue ich auch lieber auf die allseits bekannten Websites (damit ist NICHT Youp**n gemeint :shot:)
 
Ich glaube der BD verliert da einfach so deutlich auf grund des speichercontrollers welcher einfach lächerlich langsam ist mit 2200Mhz der lsst die CPU einfach verhungern!
Auf jedenfall ist gut zu sehen das der BD eigentlich keine chance gegen den SB hat!
Ob der test echt ist ist natürlich ne andere frage....

Diese neuen Benches sehen für mich persönlich aber auch nicht gerade gut aus...bei gerade mal 200 Mhz weniger bzw. bei höherem Turbo dennoch deutlich schlechter. Obs stimmt ist ne andere Frage.
 
Alleine die Cache-Werte ... ich gehe davon aus, die echten Resultate sehen deutlich besser aus.
 
Dennoch jetzt schon der 2. Benchd er BD teilweise extrem schlechte Werte prognostiziert. Kann man wirklich nur hoffen, das da irgendwas nicht stimmt (ES, Bios, was auch immer)...aber der Marc wird sich dann doch lieber einen SB zulegen :coolblue:!
 
Die Userreviews, die man so im Netz (meist in Foren) findet, sind zwar sehr lobenswert, aber deutlich weniger ausführlich/fundierter als ein ordentlicher Test von einer großen Seite aus besagten Gründen.
Sehe ich nicht so. Und welche Gründe? Hardwareseiten klatschen meist ziemlich lieblos irgendwelche Balkendiagramme hin mit den üblichen Verdächtigen. Nicht selten sind dann auch noch völlig unbrauchbare Tests dabei wie Super Pi oder dergleichen. Oder man schaue sich das Performance-Leistungsaufnahme-Rating von CB an, was imo völlig unbrauchbar ist. Ich würde nicht so weit gehen und CB hier das Verbreiten von Halbwahrheiten unterstellen. Gibt aber bestimmt Leute, die das so sehen. User-Reviews können da wesentlich detaillierter auf bestimmte Sachverhalte eingehen, wie ich das zB hier oder hier gemacht habe. Solche ausführlichen Tests können Hardwareseiten gar nicht machen. Zum einen, weil sie gar nicht die Zeit dafür haben, jede Anwendung und jeden Prozessor so detailliert zu beleuchten. Zum anderen aber auch, weil schlichtweg Kenntnisse zur Materie fehlen. Es gibt sicherlich nicht viele Redakteure, die sich zB mit Compilern auskennen. Und wenn solche Tests in Foren wie diesem gemacht werden, kann man auch problemlos eigene Wünsche äussern, was man gerne getestet haben möchte. Bei Hardwareseiten muss man das nehmen, was einem vorgesetzt wird. Abstimmungen wie auf CB sind da eher die Ausnahme. Und selbst dann wird bei weitem nicht alles berücksichtigt. Letztendlich weiss man auch oft nicht, welche Intention eine Hardwareseite verfolgt oder von wem sie "gesponsert" wird. Wenn man selbst testet, braucht man sich darüber keine Gedanken machen.

Letztendlich wird in den vielen Reviews mit Software getestet, die auch so bei den Leuten daheim zur Anwendung kommt.
Ist das so? Ich kann dir ja mal verraten, wie viele von den von CB getesteten Anwendungen auf meinem Rechner sind. Genau eine, Paint.NET. ;) Kein Vergleich zur Performance von Browsern (für mich speziell Firefox von Bedeutung), kein Office, kein Zip/7-Zip, kein VMware, keine Compiler (GCC, MSC), keine Datenbankanwendungen (zB MySQL), usw. Also nicht viel dabei, was mich interessiert. Was soll mir also der Testparcours von CB sagen? Nicht viel. Ich würde mit solchen Thesen, die du da wieder aufstellst, sehr vorsichtig sein. Der gemeine Desktop User wird eher weniger mit Cinebench, Autodesk, TrueCrypt, SPECjvm und Co etwas anfangen können. Und mal davon abgesehen, am meisten stört mich eigentlich, dass kaum jemand Multitasking testet. Anandtech hat da sogar mal eine Ausnahme gemacht, IIRC. Allerdings war das auch nur recht halbherzig. Es werden leider immer nur einzelne Anwendungen getestet. Was sicherlich richtig ist, aber eben nicht alles.

Wenn man es aus Sicht dieser Leute sieht (die sollen die Desktop-CPUs ja schließlich kaufen), interessiert alles andere als das Endergebnis nicht.
Das Problem dabei ist, Tests geben trotzdem nur ein spezifisches Setup wieder. Ein anderes Board, eine andere HDD, anderer Speicher, etc, und schon können die Ergebnisse anders aussehen. Es verlangt auch niemand, dass man Software neu kompilieren muss. Das machen die Entwickler sowieso von Zeit zu Zeit. Und mit einem Versionsupdate kann sich die Performance ebenfalls ändern.


Was spricht dagegen den Wert gegenüber einem Phenom einfach zu nennen? Ohne konkreten Takt weiß man ohnehin nicht wie schnell BD Modelle dann im Endeffekt sind.
Naja, die Taktraten dürften mittlerweile ziemlich sicher sein Viel wird sich da bei den finalen Modellen wohl nicht mehr tun. Die eigentliche Frage müsste sein, ob er überhaupt die finale Performance kennt, um IPC daraus ableiten zu können. Ein finales Exemplar mit entsprechendem BIOS dürfte er wohl auch noch nicht in den Händen gehabt haben.


Nur dass die SB Kerne alles andere als klobig sind.
Dann vergleiche doch mal mit einem K10 Kern. Über 50% mehr Transistorlogik nenne ich klobig. ;)

Eine geringe IPC lässt sich niemals mit Turbo ausgleichen.
Natürlich lässt sie sich mit Turbo ausgleichen. 4,2 GHz ist ~10% mehr Takt als 3,8 GHz. Man könnte damit also ~10% weniger IPC ausgleichen.
 
mr.dude schrieb:
Dann vergleiche doch mal mit einem K10 Kern. Über 50% mehr Transistorlogik nenne ich klobig.

Entscheidend ist eher was am Ende dabei herauskommt.
Nämlich 216 mm² von sandy bridge mit GPU gegen 315mm² von Zambezi bzw Orochi.
Da werden wir bald sehen was nun klobiger ist. ;-)

Man könnte damit also ~10% weniger IPC ausgleichen

Ja das durchaus.
Nur unter geringer IPC verstehe ich so 20 bis 30% weniger.
 
Zuletzt bearbeitet:
Schön, dass du jetzt wieder ablenkst und nach Ausreden suchst. Es ging eindeutig um Kerne und nicht das gesamte Die. Und was DU unter geringerer IPC verstehst, war ebenso wenig das Thema. ;)
 
Zuletzt bearbeitet:
Ist das so? Ich kann dir ja mal verraten, wie viele von den von CB getesteten Anwendungen auf meinem Rechner sind. Genau eine, Paint.NET. ;) Kein Vergleich zur Performance von Browsern (für mich speziell Firefox von Bedeutung), kein Office, kein Zip/7-Zip, kein VMware, keine Compiler (GCC, MSC), keine Datenbankanwendungen (zB MySQL), usw. Also nicht viel dabei, was mich interessiert.

Wenn du so willst, kann man es wohl niemanden recht machen...
Die Sachen die du aufzählst, müssen jemanden anderen auch nicht unbedingt wichtig sein.

In einem Review geht es doch auch viel eher darum, ein breites Spektrum an Aufgabengebieten zu beleuchten.
So findet sich im CB Rating eben Cinebench und 3DStudioMax als Rendersoftware, WinRAR als Packprogramm, Paint.NET als Bildbearbeitungstool, SPECjvm2008 als Java Bench, TrueCrypt als Verschlüsslungssoftware, zwei Videoencoder Benches usw. im Programm...
Das erreicht CB in dem Fall also schonmal. Klar hätten dich im Beispiel andere Bereiche interessiert, aber du sprachst ja schon die Umfragen an. Wenn die Masse eben sowas sehen will, bekommen sie eben sowas. ;)
 
Sehe ich nicht so. Und welche Gründe?

Zeit, Erfahrung, kostenpflichtige Software, Hardware zum Vergleich, professionelles Messquipment und Knowhow. Klar überschneidet sich das auch mal mit dem ein oder anderen Anwender. Aber die Seiten machen das seit Jahren und haben auch direkten Draht zum IHV, um bei Anomalien nachzufragen.

Hardwareseiten klatschen meist ziemlich lieblos irgendwelche Balkendiagramme hin mit den üblichen Verdächtigen. Nicht selten sind dann auch noch völlig unbrauchbare Tests dabei wie Super Pi oder dergleichen.

Wie gesagt - Grips an, sowas ignorieren. Man kann nicht erwarten, im Netz alles auf dem Silbertablett serviert zu bekommen, was Sinn macht. Auch so ein Userreview muss man erstmal finden - und dann kann auch das mies sein.

Oder man schaue sich das Performance-Leistungsaufnahme-Rating von CB an, was imo völlig unbrauchbar ist. Ich würde nicht so weit gehen und CB hier das Verbreiten von Halbwahrheiten unterstellen. Gibt aber bestimmt Leute, die das so sehen. User-Reviews können da wesentlich detaillierter auf bestimmte Sachverhalte eingehen, wie ich das zB hier oder hier gemacht habe. Solche ausführlichen Tests können Hardwareseiten gar nicht machen. Zum einen, weil sie gar nicht die Zeit dafür haben, jede Anwendung und jeden Prozessor so detailliert zu beleuchten. Zum anderen aber auch, weil schlichtweg Kenntnisse zur Materie fehlen. Es gibt sicherlich nicht viele Redakteure, die sich zB mit Compilern auskennen.

Das Rating, das du ansprichst, ist wirklich nicht sonderlich aussagekräftig. Man sollte lieber die umgewandelte elektrische Energie während einer Aufgabe, z.B. einer Konvertierung eines Videos erfassen. THG hat das mal gemacht. Aber ich schweife ab:
Deine verlinkten Beiträge in allen Ehren, aber hast du 10+ Anwendungen getestet? Und die Verbrauchsmessungen sind ausführlich aber die Lastwerte nicht praxisnah. Ich arbeite/spiele nicht mit Core2MaxPerf. Das ist also ein eher schlechtes Beispiel. Da hätte man genauso Prime laufen lassen können wie CB es macht. Wie oben geschrieben: Was THG macht ist praxisnah und sinnvoll. Du siehst, ein Userreview mag manche Sachen anders machen, aber ist es deshalb besser? Dann werden weniger Sachen getestet und es fehlt der Überblick.

Und was du immer mit deinen Compilern willst...das interessiert den Endanwender nicht die Bohne. Frage ist, was will man mit dem Review? Eine wissenschaftliche Betrachtung oder eine eher praxisnahe Informationsvermittlung/Kaufberatung? Ich denke, die meisten Tests wollen eher letzteres.

Und wenn solche Tests in Foren wie diesem gemacht werden, kann man auch problemlos eigene Wünsche äussern, was man gerne getestet haben möchte. Bei Hardwareseiten muss man das nehmen, was einem vorgesetzt wird. Abstimmungen wie auf CB sind da eher die Ausnahme. Und selbst dann wird bei weitem nicht alles berücksichtigt. Letztendlich weiss man auch oft nicht, welche Intention eine Hardwareseite verfolgt oder von wem sie "gesponsert" wird. Wenn man selbst testet, braucht man sich darüber keine Gedanken machen.

Ich lese hier eine versteckte Anschuldigung heraus. Das muss nicht sein. In dubio pro reo.

Ist das so? Ich kann dir ja mal verraten, wie viele von den von CB getesteten Anwendungen auf meinem Rechner sind. Genau eine, Paint.NET. ;) Kein Vergleich zur Performance von Browsern (für mich speziell Firefox von Bedeutung), kein Office, kein Zip/7-Zip, kein VMware, keine Compiler (GCC, MSC), keine Datenbankanwendungen (zB MySQL), usw. Also nicht viel dabei, was mich interessiert. Was soll mir also der Testparcours von CB sagen? Nicht viel. Ich würde mit solchen Thesen, die du da wieder aufstellst, sehr vorsichtig sein. Der gemeine Desktop User wird eher weniger mit Cinebench, Autodesk, TrueCrypt, SPECjvm und Co etwas anfangen können. Und mal davon abgesehen, am meisten stört mich eigentlich, dass kaum jemand Multitasking testet. Anandtech hat da sogar mal eine Ausnahme gemacht, IIRC. Allerdings war das auch nur recht halbherzig. Es werden leider immer nur einzelne Anwendungen getestet. Was sicherlich richtig ist, aber eben nicht alles.

Man muss sich eben die richtigen Reviews raussuchen. CB find ich von der Auswahl der Benchmarks nicht so pricklend, HT4U gefällt mir schon besser. Man kann immer was finden, was für einen selbst relevant ist. Da muss man nicht die Benchmarks insgesamt diskreditieren.


Das Problem dabei ist, Tests geben trotzdem nur ein spezifisches Setup wieder. Ein anderes Board, eine andere HDD, anderer Speicher, etc, und schon können die Ergebnisse anders aussehen. Es verlangt auch niemand, dass man Software neu kompilieren muss. Das machen die Entwickler sowieso von Zeit zu Zeit. Und mit einem Versionsupdate kann sich die Performance ebenfalls ändern.

Deshalb steht die verwendete Hardware und Software auch dabei. Was du da sagst, ist nichts Neues. Du kritisiert doch bzw. merkst an, dass die meisten Reviewer von Codeoptimierungen und Compilern keine Ahnung haben. Und jetzt sagst du, dass niemand eine Neukompilierung verlangt. Das passt nicht zusammen. Entweder es soll die Tester kümmern, weil es das Ergebnis beeinflusst oder eben nicht. Dem oben stehenden Absatz entnehme ich mal "eben nicht". Die Prämisse, dass man mit aktuellster Software testet, ist selbstverständlich. Darunter leidet halt wieder die Vergleichbarkeit - die Mehrarbeit, alles nochmal zu benchen, kann man von keinem Reviewer erwarten.
 
Wenn du so willst, kann man es wohl niemanden recht machen...
Die Sachen die du aufzählst, müssen jemanden anderen auch nicht unbedingt wichtig sein.
Richtig. Aber darum ging es ja nicht. Es ging um die Behauptung von boxleitnerb:
Letztendlich wird in den vielen Reviews mit Software getestet, die auch so bei den Leuten daheim zur Anwendung kommt.
Und das ist imo eine recht naive Denkweise.

In einem Review geht es doch auch viel eher darum, ein breites Spektrum an Aufgabengebieten zu beleuchten.
Ja. Nur wird es deswegen repräsentativ? Das Problem ist doch, im gleichen Aufgabengebiet kann es extreme Unterschiede geben. Beispiel, Super Pi vs System Stability Tester. Beides wissenschaftliche Tools, die Pi bis zu einer angegeben Stelle nach dem Komma mittels Gauss-Legendre berechnen können. Während Super Pi auf einem C2D deutlich schneller läuft im Vergleich zu einem X2, ist das beim System Stability Tester umgekehrt. Je nachdem, welche Anwendung man nun in den Testparcours aufnimmt, dementsprechend kann man die Ergebnisse zugunsten eines Herstellers auslegen.

Klar hätten dich im Beispiel andere Bereiche interessiert, aber du sprachst ja schon die Umfragen an. Wenn die Masse eben sowas sehen will, bekommen sie eben sowas.
Was heisst, die Masse will sowas sehen? Ich habe die Umfrage in letzter Zeit nicht mehr mitverfolgt. Meines Wissens hat sich der Testparcours dadurch bisher aber nicht wirklich geändert. Und mal davon abgesehen, wenn ein Vorschlag von 2 oder 3 Leuten kommt, heisst das noch lange nicht, dass die Masse sowas sehen will.
 
Naiv ist da gar nichts. Audio-, Video- und Bildbearbeitung wird sehr häufig getestet, und das machen sehr viele der Anwender auch. Ich schrieb nicht "ausschliesslich". Dass in Parcours oft Mist dabei ist, ist klar.
 
Richtig. Aber darum ging es ja nicht. Es ging um die Behauptung von boxleitnerb:

Und das ist imo eine recht naive Denkweise.


Ja. Nur wird es deswegen repräsentativ? Das Problem ist doch, im gleichen Aufgabengebiet kann es extreme Unterschiede geben.

Neja auf ein Review bezogen mag es naiv sein, aber ich für meinen Teil gehe dem entgegen und betrachte mehrere Reviews mit den unterschiedlichsten Anwendungen. Oft sieht man im Endergebnis so extreme Unterschiede nicht. Alternativ mache ich mir selbst ein Bild, sofern die Mittel es ergeben.

Repräsentativ definiert ja jeder für sich anders. Daher ist es auch schwer alles unter einen Hut zu bringen. Und im Gegensatz zu noch vor ein paar Jahren, hat die Qualität der Reviews denke ich schon zugenommen.

Ich frage mich eher, was will man sonst machen? Repräsentativer allgemein sind Usertests auch nicht unbedingt, würde ich behaupten. Zumindest für mich nicht, weil mein Anwendungsgebiet auch nicht unbedingt dem des 0815 Usertest-Schreibers entspricht ;)


Aber das wird dann wohl doch zu sehr OT!?
 
@boxleitnerb: Deine Diskussion und deine Signatur passen irgendwie nicht ganz zusammen ^^
 
Deine verlinkten Beiträge in allen Ehren, aber hast du 10+ Anwendungen getestet?
Wenn du 10+ User hast, wo jeder eine Anwendung testet, hast du deine 10+ Anwendungen. ;) Genau das ist doch auch ein Vorteil, ein User muss nicht etliche Anwendungen testen (obwohl das einige machen), kann dafür aber ausführlicher testen. Es ist das Bündeln von vielen Ressourcen.

Und die Verbrauchsmessungen sind ausführlich aber die Lastwerte nicht praxisnah.
Das ist richtig. Darum ging es dort aber auch nicht. Die Frage war, wie hat sich die Leistungsaufnahme unter Idle und maximaler Last gegenüber 65 nm geändert. Daher habe ich nach einem Tool mit möglichst hoher Auslastung gesucht. Wobei ich heute wohl eher auf LinX zurückgreifen würde. Laut meinen letzten Eindrücken legt das nochmal etwas drauf. Wenn man praxisnah testen will, dann könnte man noch wesentlich weiter gehen und zB mit 10%, 20%, 30%, usw Auslastung bei verschiedenen Workloads testen (Int, x87, SSE, etc). Dafür braucht man aber auch erstmal geeignete Tools bzw Anwendungen.

Da hätte man genauso Prime laufen lassen können wie CB es macht.
Testet CB die Leistungsaufnahme mit verschiedenen Taktraten, mit verschiedenen Spannungen und verschiedener Anzahl an Kernen? Ich denke nicht.

Und was du immer mit deinen Compilern willst...das interessiert den Endanwender nicht die Bohne. Frage ist, was will man mit dem Review?
Der Sinn dahinter war, zu vermitteln, dass Hardware nicht alles ist und Software extrem viel Einfluss hat. Das sollte Anwender durchaus interessieren. Nicht unbedingt bei der Kaufberatung, aber beim Thema Benchmarks.

Ich lese hier eine versteckte Anschuldigung heraus.
Das war aber nicht als Anschuldigung zu verstehen. Es ist leider eine Tatsache, dass bestimmte Seiten oder Tester Affinitäten haben und sich diese dann auch in Tests widerspiegeln. Wurde schon oft diskutiert. Wenn du Beweise willst, solltest du am besten die Leute selber fragen. Erwarte aber nicht, dass sie sowas freiwillig zugeben.

Deshalb steht die verwendete Hardware und Software auch dabei. Was du da sagst, ist nichts Neues. Du kritisiert doch bzw. merkst an, dass die meisten Reviewer von Codeoptimierungen und Compilern keine Ahnung haben. Und jetzt sagst du, dass niemand eine Neukompilierung verlangt. Das passt nicht zusammen. Entweder es soll die Tester kümmern, weil es das Ergebnis beeinflusst oder eben nicht. Dem oben stehenden Absatz entnehme ich mal "eben nicht". Die Prämisse, dass man mit aktuellster Software testet, ist selbstverständlich. Darunter leidet halt wieder die Vergleichbarkeit - die Mehrarbeit, alles nochmal zu benchen, kann man von keinem Reviewer erwarten.
Ich habe nirgendwo kritisiert, dass Reviewer idR keine Ahnung von Compilern/Optimierungen haben. Es war lediglich eine simple Feststellung. Und nochmal, du hast meine Aussage gar nicht verstanden. DU als normaler User sollst gar nichts neu kompilieren. Das macht der Entwickler der Anwendung für dich bei einem Versionsupddate. Der Punkt ist, ohne Kenntnisse zur Software lässt sich Hardware nur halbherzig und oberflächlich beurteilen. Soll das der Anspruch eines Reviews sein? Ich denke nicht. Kleines Beispiel, beim Agena hat CB noch Lightwave getestet. Da war selbst ein popeliger E6420 bei 4 Threads schneller als AMDs damaliges X4 Flaggschiff. Ist der X4 nun so langsam oder liegt es an der Software? Mich interessiert das sehr wohl. Und deshalb ist es für mich auch sinnvoll, wenn Reviewer sowas beleuchten. Mir als normalen potenziellen Kunden nutzt es überhaupt nichts, wenn ein toller Prozessor auf dem Papier in der Praxis keine Performance bringt. Genauso wenig bringt es mir etwas, wenn ich mich für einen Prozessor aufgrund eines solchen Ratings entscheide und sich wenig später mit einem Softwareupdate herausstellt, dass es die falsche Wahl war. Lustigerweise war genau das bei Lightwave der Fall. Nach einem Versionsupdate lief es wesentlich besser auf dem K10. N1truX auf P3D deutet genau solche Softwareprobleme für Bulldozer an, worunter gerade Reviews beim Launch leiden könnten. Was immer man davon halten soll.
 
Leute, irgendwie ist das die letzten zig Seiten nur noch eine "Privatschlacht" von euch 5-6 Männeken und für außenstehende recht langweilig, weil ihr euch hier über Sachen in die Köppe bekommt die so gut wie keinen interessieren. ;)
 
Müssen wohl bei AMD schaffen... *duckundweg

Edit:// 3000 Posts und noch immer kein Bulldozer
 
Zuletzt bearbeitet:
Ich verstehe eh nicht, wie man über eine CPU die noch gar nicht für uns verfügbar ist einen Sammelthread vollgepostet bekommt, der schon in die 3te Runde geht. Wow, zu der CPU muß es ja soviele Infos geben, da liegt bestimmt ein 800 seitiges Handbuch bei.

edit: Jetzt weiß ich auch warum das so lange dauert bis die kommt. Es liegt nicht an der CPU, die ist schon ausreichend da, nur die kommen mit den drucken der Handbücher nicht so schnell hinterher wegen Rechtschreibfehler usw. ;)
 
Zuletzt bearbeitet:
Das mit den 10 verschiedenen Userreviews ist jetzt nicht dein Ernst? Das ist konstruiert hoch zehn.

Das ist nicht praxisnah. Praxisnah ist, eine normale Anwendung laufen zu lassen und nicht speziellen Code herauszupicken. Dasselbe gilt für deine Leistungsaufnahmemessungen. Siehe den angesprochenen THG-Test.

Wer sowas behauptet, sollte selbst Beweise erbringen. Das ist im System unseres Rechtsverständnisses völlig normal. Alles andere ist abstrus.

Lange Rede, kurzer Sinn:
Man kann sicherlich vieles an den Benchmarks im Netz ankreiden, aber in ihrer Gesamtheit sind sie nunmal die einzige Möglichkeit, sich ein umfassendes Bild einer CPU unter den gegebenen Umständen zu machen. Das mag einem nicht schmecken wie JF, aber es ist nunmal so. Wenn man nicht mit völliger Ignoranz mehrere dieser Tests liest, wird man ausreichend gut informiert.

So, bin raus.
 
Zuletzt bearbeitet:
Praxisnah ist, wenn man jeder das Ding selber für sich testen würde, um mal meine
bescheidene Meinung auszudrücken.
 
warum fast ihr eure gedanken nicht als stichpunkt auf der ersten seite fest? dann müsst ihr euch nicht wiederholen ;)

ach ja das ist echt viel text ich kann das andauernde wiederholen und ich hab doch gesagt nicht mehr sehen....

das ist eines der schlechtesten ST die ich bei hwluxx erlebt habe. tragt eure meinungsverschiedenheiten über pm oder im ring aus......
 
Zuletzt bearbeitet:
Die können teilweise nicht per PM diskutieren, da sie sich gegenseitig auf ignore haben. Zumindest steht es ja so in den Signaturen.

Zu der Diskussion selbst muss man sich seine eigene Meinung bilden.

Wenn du 10+ User hast, wo jeder eine Anwendung testet, hast du deine 10+ Anwendungen. ;) Genau das ist doch auch ein Vorteil, ein User muss nicht etliche Anwendungen testen (obwohl das einige machen), kann dafür aber ausführlicher testen. Es ist das Bündeln von vielen Ressourcen.

ein paar Seiten vorher:
Das Problem dabei ist, Tests geben trotzdem nur ein spezifisches Setup wieder. Ein anderes Board, eine andere HDD, anderer Speicher, etc, und schon können die Ergebnisse anders aussehen.


Alle 10 User haben also exakt das gleiche System ... oder wie soll ich sonst die verschiedenen Tests vergleichen können?
10 Verschiedene Hardwareseiten testen viele Programme auf ein und dem selben System. Vergleiche ich diese Tests nun untereinander, kann ich mir eine bessere Meinung bilden.

Es ist wie mit Zeitschriften, jeder der z.B. Auto Bild kennt, weiß das VW dort recht häufig gewinnt, oder Audi oder ein anderer aus dem Konzern.
Ich muss aber weder da noch bei Bulldozertests (wieder back to Topic) den Testsieger kaufen, sondern kann mir ein Urteil über die Leistung des Produktes bilden.

Ich habe mich ja auch damals schon gegen den (zu teuren) i7 entschieden (SB gabs da noch nicht).
 
Ist das nicht alles nun geklärt?

Es gibt keine Review die 100% die persönlichen Interessen abdeckt oder so, dann muß man für sich selber testen, aber in der Gesamtheit der ausgewählten Testszenarien, in der Gesamtheit der verschiedenen Magazine kann man durchaus Rückschlüsse für sich selber ziehen, auch wenn der einzelne Test eben nicht 100% der eigenen Interessen abdeckt. Die Reviews können dann schon fair eine CPU zu ihrer Konkurrenz einordnen, wer hier wieder mal die große AMD Verschwörung sieht, dieser Meinung kann ich nur zustimmen, denn die CIA ist hier kräftig am Werke...LOL

Jetzt mal im Ernst die CPU Tests von CB, PCGH, Luxx und so weiter, sind vollkommen Okay, sie reichen für den normalen User, der dennoch ein wenig Ahnung hat oder sich mit einer CPU auseinandersetzen möchte, außerdem werden verschiedene Progoramme, Games, von Single bis Multileistung alles durchgetestet...wer hier immernoch für sich einen eigenen Test besser findet soll das tun, das ändert aber nichts an der Tatsache das diese Tests alle Okay sind, wenn BD dort verkacken sollte, dann hat er auch verkackt, da kann man sich das in eigenen Tests von mir aus schön reden wie man mag...Man muß auch mal die Größe haben die eigene sooooo geliebte Firme zu kritisieren, aber nein, es gibt ja immer Ausreden, AMD ist kleiner als Intel, AMD hat eine komplett neue Fertigung...blablabla...das interessiert die Bockwurst. Wenn BD so wird wie die jetzigen Benches zeigen, dann hat AMD schlichtweg ein Produkt geschaffen was für den Desktop Markt nicht geeignet ist, da die Konkurrenz weitaus mehr Leistung zu einen weitaus früheren Zeitpunkt zu bieten hatte/hat. Sowas kann man auch am Markt vorbei produziert nennen.

Um jeglichen Morddrohungen aus dem Weg zu gehen...ich habe hier bewusst im Konjunktiv geschrieben...wenn BD einschlägt, dannn können wir alle tanzen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh