Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Die Aussage war, dass User-Reviews idR mehr abzugewinnen ist.
mr.dude schrieb:Es macht daher mehr Sinn, schlanke Kerne in grösserer Anzahl zu verbauen als grosse und klobige Kerne in geringerer Anzahl,
Die Performance bei wenigen Threads lässt sich auch mittels Turbo ausgleichen, der bei weniger Transistoren und weniger Energie pro Kern eben höher ausfallen kann.
Ich glaube der BD verliert da einfach so deutlich auf grund des speichercontrollers welcher einfach lächerlich langsam ist mit 2200Mhz der lsst die CPU einfach verhungern!
Auf jedenfall ist gut zu sehen das der BD eigentlich keine chance gegen den SB hat!
Ob der test echt ist ist natürlich ne andere frage....
Sehe ich nicht so. Und welche Gründe? Hardwareseiten klatschen meist ziemlich lieblos irgendwelche Balkendiagramme hin mit den üblichen Verdächtigen. Nicht selten sind dann auch noch völlig unbrauchbare Tests dabei wie Super Pi oder dergleichen. Oder man schaue sich das Performance-Leistungsaufnahme-Rating von CB an, was imo völlig unbrauchbar ist. Ich würde nicht so weit gehen und CB hier das Verbreiten von Halbwahrheiten unterstellen. Gibt aber bestimmt Leute, die das so sehen. User-Reviews können da wesentlich detaillierter auf bestimmte Sachverhalte eingehen, wie ich das zB hier oder hier gemacht habe. Solche ausführlichen Tests können Hardwareseiten gar nicht machen. Zum einen, weil sie gar nicht die Zeit dafür haben, jede Anwendung und jeden Prozessor so detailliert zu beleuchten. Zum anderen aber auch, weil schlichtweg Kenntnisse zur Materie fehlen. Es gibt sicherlich nicht viele Redakteure, die sich zB mit Compilern auskennen. Und wenn solche Tests in Foren wie diesem gemacht werden, kann man auch problemlos eigene Wünsche äussern, was man gerne getestet haben möchte. Bei Hardwareseiten muss man das nehmen, was einem vorgesetzt wird. Abstimmungen wie auf CB sind da eher die Ausnahme. Und selbst dann wird bei weitem nicht alles berücksichtigt. Letztendlich weiss man auch oft nicht, welche Intention eine Hardwareseite verfolgt oder von wem sie "gesponsert" wird. Wenn man selbst testet, braucht man sich darüber keine Gedanken machen.Die Userreviews, die man so im Netz (meist in Foren) findet, sind zwar sehr lobenswert, aber deutlich weniger ausführlich/fundierter als ein ordentlicher Test von einer großen Seite aus besagten Gründen.
Ist das so? Ich kann dir ja mal verraten, wie viele von den von CB getesteten Anwendungen auf meinem Rechner sind. Genau eine, Paint.NET. Kein Vergleich zur Performance von Browsern (für mich speziell Firefox von Bedeutung), kein Office, kein Zip/7-Zip, kein VMware, keine Compiler (GCC, MSC), keine Datenbankanwendungen (zB MySQL), usw. Also nicht viel dabei, was mich interessiert. Was soll mir also der Testparcours von CB sagen? Nicht viel. Ich würde mit solchen Thesen, die du da wieder aufstellst, sehr vorsichtig sein. Der gemeine Desktop User wird eher weniger mit Cinebench, Autodesk, TrueCrypt, SPECjvm und Co etwas anfangen können. Und mal davon abgesehen, am meisten stört mich eigentlich, dass kaum jemand Multitasking testet. Anandtech hat da sogar mal eine Ausnahme gemacht, IIRC. Allerdings war das auch nur recht halbherzig. Es werden leider immer nur einzelne Anwendungen getestet. Was sicherlich richtig ist, aber eben nicht alles.Letztendlich wird in den vielen Reviews mit Software getestet, die auch so bei den Leuten daheim zur Anwendung kommt.
Das Problem dabei ist, Tests geben trotzdem nur ein spezifisches Setup wieder. Ein anderes Board, eine andere HDD, anderer Speicher, etc, und schon können die Ergebnisse anders aussehen. Es verlangt auch niemand, dass man Software neu kompilieren muss. Das machen die Entwickler sowieso von Zeit zu Zeit. Und mit einem Versionsupdate kann sich die Performance ebenfalls ändern.Wenn man es aus Sicht dieser Leute sieht (die sollen die Desktop-CPUs ja schließlich kaufen), interessiert alles andere als das Endergebnis nicht.
Naja, die Taktraten dürften mittlerweile ziemlich sicher sein Viel wird sich da bei den finalen Modellen wohl nicht mehr tun. Die eigentliche Frage müsste sein, ob er überhaupt die finale Performance kennt, um IPC daraus ableiten zu können. Ein finales Exemplar mit entsprechendem BIOS dürfte er wohl auch noch nicht in den Händen gehabt haben.Was spricht dagegen den Wert gegenüber einem Phenom einfach zu nennen? Ohne konkreten Takt weiß man ohnehin nicht wie schnell BD Modelle dann im Endeffekt sind.
Dann vergleiche doch mal mit einem K10 Kern. Über 50% mehr Transistorlogik nenne ich klobig.Nur dass die SB Kerne alles andere als klobig sind.
Natürlich lässt sie sich mit Turbo ausgleichen. 4,2 GHz ist ~10% mehr Takt als 3,8 GHz. Man könnte damit also ~10% weniger IPC ausgleichen.Eine geringe IPC lässt sich niemals mit Turbo ausgleichen.
mr.dude schrieb:Dann vergleiche doch mal mit einem K10 Kern. Über 50% mehr Transistorlogik nenne ich klobig.
Man könnte damit also ~10% weniger IPC ausgleichen
Ist das so? Ich kann dir ja mal verraten, wie viele von den von CB getesteten Anwendungen auf meinem Rechner sind. Genau eine, Paint.NET. Kein Vergleich zur Performance von Browsern (für mich speziell Firefox von Bedeutung), kein Office, kein Zip/7-Zip, kein VMware, keine Compiler (GCC, MSC), keine Datenbankanwendungen (zB MySQL), usw. Also nicht viel dabei, was mich interessiert.
Sehe ich nicht so. Und welche Gründe?
Hardwareseiten klatschen meist ziemlich lieblos irgendwelche Balkendiagramme hin mit den üblichen Verdächtigen. Nicht selten sind dann auch noch völlig unbrauchbare Tests dabei wie Super Pi oder dergleichen.
Oder man schaue sich das Performance-Leistungsaufnahme-Rating von CB an, was imo völlig unbrauchbar ist. Ich würde nicht so weit gehen und CB hier das Verbreiten von Halbwahrheiten unterstellen. Gibt aber bestimmt Leute, die das so sehen. User-Reviews können da wesentlich detaillierter auf bestimmte Sachverhalte eingehen, wie ich das zB hier oder hier gemacht habe. Solche ausführlichen Tests können Hardwareseiten gar nicht machen. Zum einen, weil sie gar nicht die Zeit dafür haben, jede Anwendung und jeden Prozessor so detailliert zu beleuchten. Zum anderen aber auch, weil schlichtweg Kenntnisse zur Materie fehlen. Es gibt sicherlich nicht viele Redakteure, die sich zB mit Compilern auskennen.
Und wenn solche Tests in Foren wie diesem gemacht werden, kann man auch problemlos eigene Wünsche äussern, was man gerne getestet haben möchte. Bei Hardwareseiten muss man das nehmen, was einem vorgesetzt wird. Abstimmungen wie auf CB sind da eher die Ausnahme. Und selbst dann wird bei weitem nicht alles berücksichtigt. Letztendlich weiss man auch oft nicht, welche Intention eine Hardwareseite verfolgt oder von wem sie "gesponsert" wird. Wenn man selbst testet, braucht man sich darüber keine Gedanken machen.
Ist das so? Ich kann dir ja mal verraten, wie viele von den von CB getesteten Anwendungen auf meinem Rechner sind. Genau eine, Paint.NET. Kein Vergleich zur Performance von Browsern (für mich speziell Firefox von Bedeutung), kein Office, kein Zip/7-Zip, kein VMware, keine Compiler (GCC, MSC), keine Datenbankanwendungen (zB MySQL), usw. Also nicht viel dabei, was mich interessiert. Was soll mir also der Testparcours von CB sagen? Nicht viel. Ich würde mit solchen Thesen, die du da wieder aufstellst, sehr vorsichtig sein. Der gemeine Desktop User wird eher weniger mit Cinebench, Autodesk, TrueCrypt, SPECjvm und Co etwas anfangen können. Und mal davon abgesehen, am meisten stört mich eigentlich, dass kaum jemand Multitasking testet. Anandtech hat da sogar mal eine Ausnahme gemacht, IIRC. Allerdings war das auch nur recht halbherzig. Es werden leider immer nur einzelne Anwendungen getestet. Was sicherlich richtig ist, aber eben nicht alles.
Das Problem dabei ist, Tests geben trotzdem nur ein spezifisches Setup wieder. Ein anderes Board, eine andere HDD, anderer Speicher, etc, und schon können die Ergebnisse anders aussehen. Es verlangt auch niemand, dass man Software neu kompilieren muss. Das machen die Entwickler sowieso von Zeit zu Zeit. Und mit einem Versionsupdate kann sich die Performance ebenfalls ändern.
Richtig. Aber darum ging es ja nicht. Es ging um die Behauptung von boxleitnerb:Wenn du so willst, kann man es wohl niemanden recht machen...
Die Sachen die du aufzählst, müssen jemanden anderen auch nicht unbedingt wichtig sein.
Und das ist imo eine recht naive Denkweise.Letztendlich wird in den vielen Reviews mit Software getestet, die auch so bei den Leuten daheim zur Anwendung kommt.
Ja. Nur wird es deswegen repräsentativ? Das Problem ist doch, im gleichen Aufgabengebiet kann es extreme Unterschiede geben. Beispiel, Super Pi vs System Stability Tester. Beides wissenschaftliche Tools, die Pi bis zu einer angegeben Stelle nach dem Komma mittels Gauss-Legendre berechnen können. Während Super Pi auf einem C2D deutlich schneller läuft im Vergleich zu einem X2, ist das beim System Stability Tester umgekehrt. Je nachdem, welche Anwendung man nun in den Testparcours aufnimmt, dementsprechend kann man die Ergebnisse zugunsten eines Herstellers auslegen.In einem Review geht es doch auch viel eher darum, ein breites Spektrum an Aufgabengebieten zu beleuchten.
Was heisst, die Masse will sowas sehen? Ich habe die Umfrage in letzter Zeit nicht mehr mitverfolgt. Meines Wissens hat sich der Testparcours dadurch bisher aber nicht wirklich geändert. Und mal davon abgesehen, wenn ein Vorschlag von 2 oder 3 Leuten kommt, heisst das noch lange nicht, dass die Masse sowas sehen will.Klar hätten dich im Beispiel andere Bereiche interessiert, aber du sprachst ja schon die Umfragen an. Wenn die Masse eben sowas sehen will, bekommen sie eben sowas.
Richtig. Aber darum ging es ja nicht. Es ging um die Behauptung von boxleitnerb:
Und das ist imo eine recht naive Denkweise.
Ja. Nur wird es deswegen repräsentativ? Das Problem ist doch, im gleichen Aufgabengebiet kann es extreme Unterschiede geben.
Wenn du 10+ User hast, wo jeder eine Anwendung testet, hast du deine 10+ Anwendungen. Genau das ist doch auch ein Vorteil, ein User muss nicht etliche Anwendungen testen (obwohl das einige machen), kann dafür aber ausführlicher testen. Es ist das Bündeln von vielen Ressourcen.Deine verlinkten Beiträge in allen Ehren, aber hast du 10+ Anwendungen getestet?
Das ist richtig. Darum ging es dort aber auch nicht. Die Frage war, wie hat sich die Leistungsaufnahme unter Idle und maximaler Last gegenüber 65 nm geändert. Daher habe ich nach einem Tool mit möglichst hoher Auslastung gesucht. Wobei ich heute wohl eher auf LinX zurückgreifen würde. Laut meinen letzten Eindrücken legt das nochmal etwas drauf. Wenn man praxisnah testen will, dann könnte man noch wesentlich weiter gehen und zB mit 10%, 20%, 30%, usw Auslastung bei verschiedenen Workloads testen (Int, x87, SSE, etc). Dafür braucht man aber auch erstmal geeignete Tools bzw Anwendungen.Und die Verbrauchsmessungen sind ausführlich aber die Lastwerte nicht praxisnah.
Testet CB die Leistungsaufnahme mit verschiedenen Taktraten, mit verschiedenen Spannungen und verschiedener Anzahl an Kernen? Ich denke nicht.Da hätte man genauso Prime laufen lassen können wie CB es macht.
Der Sinn dahinter war, zu vermitteln, dass Hardware nicht alles ist und Software extrem viel Einfluss hat. Das sollte Anwender durchaus interessieren. Nicht unbedingt bei der Kaufberatung, aber beim Thema Benchmarks.Und was du immer mit deinen Compilern willst...das interessiert den Endanwender nicht die Bohne. Frage ist, was will man mit dem Review?
Das war aber nicht als Anschuldigung zu verstehen. Es ist leider eine Tatsache, dass bestimmte Seiten oder Tester Affinitäten haben und sich diese dann auch in Tests widerspiegeln. Wurde schon oft diskutiert. Wenn du Beweise willst, solltest du am besten die Leute selber fragen. Erwarte aber nicht, dass sie sowas freiwillig zugeben.Ich lese hier eine versteckte Anschuldigung heraus.
Ich habe nirgendwo kritisiert, dass Reviewer idR keine Ahnung von Compilern/Optimierungen haben. Es war lediglich eine simple Feststellung. Und nochmal, du hast meine Aussage gar nicht verstanden. DU als normaler User sollst gar nichts neu kompilieren. Das macht der Entwickler der Anwendung für dich bei einem Versionsupddate. Der Punkt ist, ohne Kenntnisse zur Software lässt sich Hardware nur halbherzig und oberflächlich beurteilen. Soll das der Anspruch eines Reviews sein? Ich denke nicht. Kleines Beispiel, beim Agena hat CB noch Lightwave getestet. Da war selbst ein popeliger E6420 bei 4 Threads schneller als AMDs damaliges X4 Flaggschiff. Ist der X4 nun so langsam oder liegt es an der Software? Mich interessiert das sehr wohl. Und deshalb ist es für mich auch sinnvoll, wenn Reviewer sowas beleuchten. Mir als normalen potenziellen Kunden nutzt es überhaupt nichts, wenn ein toller Prozessor auf dem Papier in der Praxis keine Performance bringt. Genauso wenig bringt es mir etwas, wenn ich mich für einen Prozessor aufgrund eines solchen Ratings entscheide und sich wenig später mit einem Softwareupdate herausstellt, dass es die falsche Wahl war. Lustigerweise war genau das bei Lightwave der Fall. Nach einem Versionsupdate lief es wesentlich besser auf dem K10. N1truX auf P3D deutet genau solche Softwareprobleme für Bulldozer an, worunter gerade Reviews beim Launch leiden könnten. Was immer man davon halten soll.Deshalb steht die verwendete Hardware und Software auch dabei. Was du da sagst, ist nichts Neues. Du kritisiert doch bzw. merkst an, dass die meisten Reviewer von Codeoptimierungen und Compilern keine Ahnung haben. Und jetzt sagst du, dass niemand eine Neukompilierung verlangt. Das passt nicht zusammen. Entweder es soll die Tester kümmern, weil es das Ergebnis beeinflusst oder eben nicht. Dem oben stehenden Absatz entnehme ich mal "eben nicht". Die Prämisse, dass man mit aktuellster Software testet, ist selbstverständlich. Darunter leidet halt wieder die Vergleichbarkeit - die Mehrarbeit, alles nochmal zu benchen, kann man von keinem Reviewer erwarten.
Wenn du 10+ User hast, wo jeder eine Anwendung testet, hast du deine 10+ Anwendungen. Genau das ist doch auch ein Vorteil, ein User muss nicht etliche Anwendungen testen (obwohl das einige machen), kann dafür aber ausführlicher testen. Es ist das Bündeln von vielen Ressourcen.
Das Problem dabei ist, Tests geben trotzdem nur ein spezifisches Setup wieder. Ein anderes Board, eine andere HDD, anderer Speicher, etc, und schon können die Ergebnisse anders aussehen.