Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
Diesen ganzen Synthetic-Müll sollte man echt aus den Tests schmeissen, wie Pov-Ray und Cinebench bei Anand.
Also Pov-Ray würde ich schon ganz gerne sehen wollen. :) Auch wenn es eine sehr alte Codebasis hat und nicht wirklich optimal für aktuelle Prozessoren ist.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da warte ich schon die ganze Zeit drauf, dass die Tests an den Nehalem angepaßt werden müssen. In Anwendungen , die extrem auf Mutlithreading abgehen (was CB10 nicht tut, da es das Bild einfach auf alle Kerne auteilt und jeder für sich rechnet), steht der Agena gar nicht schlecht da. Nur diese Software wird halt nicht genommen, weil man dann nicht mehr auf dem Agena rumreiten kann. Daher fehlt erstaunlicherweise Nero Recode bei CB im Test.
 
Da werden wohl erste Ergebnisse im Server-Bereich kommen.
Ich glaube nicht, dass sich im Testverhalten der Desktopvarianten etwas groß ändern wird.
Aber der Phenom hat durchaus seine Vorteile, gerade in der Speicheranbindung.
 
Was irritierend ist: der Prozessor hat ein TDP von 130 W, aber eine integrierte max. Leistungsaufnahme von 130 W. Dies würde bedeuten, dass er gleich viel Wärmeenergie abgeben kann, als er an elektrischer Energie aufnehmen kann. Ein Perpetuum Mobile der 3. Generation. Korrigiert mich, falls ich da was falsch verstanden hab...

Wo soll die Energie denn sonst hingehen, leuchte deine CPU im dunkeln, verrichtet mechanische Arbeit o.ä.? Natürlich geht ohne sonderliche Vernachlässigungen die gesammte Leistungsaufnahme in die Abwärme. ;)
 
Danke für den Link. Da sieht man, dass sich bei geeigneter Software der Phenom und I7 nicht viel nehmen werden. Dem Agena fehlt einfach Takt, den hoffentlich der Deneb bringt.
 
Danke für den Link. Da sieht man, dass sich bei geeigneter Software der Phenom und I7 nicht viel nehmen werden. Dem Agena fehlt einfach Takt, den hoffentlich der Deneb bringt.
Naja ... les mal den Text dazu, Nehalem lief nur mit 52% CPU Last:
CPU utilization was roughly 52% with ~6 threads running. Even though we tried to find the optimal system configuration for running the benchmark, there is a chance that I/O limitations are holding the top performers back.
Auf Deutsch: Das DVD Laufwerk ist zu langsam.
 
Dann wären aber nicht solche Unterschiede zwischen den einzelnen Modellen vorhanden. I/O können ganz andere Geschichten sein, wie zB Treiber. Zur Auslastung der Phenoms steht ja auch nichts. Kurzum, da steht erstmal nichts, was Nehalem theoretisch besser macht.
 
Ist auch logisch. Da scheint dann HT nix mehr zu bringen. Hier @work habe ich mit zwei Quadcore Xeons den Test gemacht und konnte die 8CPU Kerne auch nur zu 60% auslasten. Das Rohmaterial lag dabei auf einer SAS Festplatte und geschrieben wurde auf eine andere 15k Platte.
 
Wo soll die Energie denn sonst hingehen, leuchte deine CPU im dunkeln, verrichtet mechanische Arbeit o.ä.? Natürlich geht ohne sonderliche Vernachlässigungen die gesammte Leistungsaufnahme in die Abwärme. ;)

Das weis ich doch.

Mir ging es darum festzustellen, dass der i7 bei 130 W max. Energieaufnahme im übertakteten Zustand und einer TDP (für den schlimmsten Fall) 130 W hat. Dies würde bedeuten: Leistungsaufnahme elektrische Energie = Leistungsabgabe Wärme -> 100% gehen in Wärme-> 0% Wirkungsgrad = günstige Heizung...

Irgendwie steh ich da gerade mit der TDP-Definition auf dem Schlauch, denn da hätten wir kein bisschen Effizienz dahinter.
 
Daraus werde ich jetzt nicht so schlau - es geht bei jeder CPU 100% Leistungsaufnahme -> Abwärme. Was hat das mit der TDP zu schaffen? Und inwiefern ist dort der i7 eine Ausnahme? Ein PC ist nichts anderes als eine strombetriebene Heizung ;)
 
Ein abschließendes Urteil werde ich mir erst nach dem Cbase Ergänzungstest mit diveren Grafikkarten machen. Bis auf die Formulierung des Fazits ist auch der aktuelle Test ziemlich gut gelungen.

Man kann aber schon mal zusammenfassen, dass hier von diversen Seiten dermaßen Mist gemessen bzw. geschrieben wurde, das das schon fast an absichtliche Täuschung grenzt und einem den Magen umdreht.

Den Vogel schießt THG ab, unglaublich, das kann kein Versehen mehr sein.

PCGH legt auch nach und testet eindeutig mit zweierlei Maß, siehe Thema "EIST geht noch nicht, deshalb messen wir keinen Stromverbrauch" (sogar nichtmal unter load, wo EIST gar nicht relevant ist) und vergleiche mit dem Vorgehen bei der 4870 X2

Aber auch die Benchmarkergebnisse bei Spielen sind völlig unglaubwürdig wenn ich mal mit Anandtech vergleiche:

http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3448&p=4

Guru3D bekleckert sich nicht gerade mit Ruhm, indem sie für ihren Multi-GPU test einerseits für "nicht" Nehalems nur beschnittene Boards verwenden ohne PCIE 2.0 und mit beschnittenen Lanes im SLI.

Gleichzeitig wird gegen einen dualcore gebencht und nicht vs. einen quad. Mittlerweile solle aber klar sein das gerade multi gpu treiber gerne mal ne Stange Rechenleistung fressen.
 
Anandtech hat dummerweise öfters nur mit mittleren Details gemessen, was gerade bei Physikeffekten die Auslastung mehrerer Kerne deutlich verschlechtert... Am besten gefällt mir wohl der Guru3D Test mit dicken SLI/CF Systemen für minimalste GPU-Limitierungen - wodurch auch verschieden breite PCIe-Anbindungen egal sind. :)

http://www.guru3d.com/article/core-i7-multigpu-sli-crossfire-game-performance-review/

CB ist durch die 9800GTX leider zu vergessen.
 
Zuletzt bearbeitet:
das problem dort ist das die "nur" einen E8400 testen

wäre vielleicht ein aktueller Quad drin dann wäre der unterschied nicht so schön hoch.
und das der 965 noch 200mhz mehr takt hat wollen wir auch nicht vergessen.
 
Zuletzt bearbeitet:
Anandtech hat dummerweise öfters nur mit mittleren Details gemessen, was gerade bei Physikeffekten die Auslastung mehrerer Kerne deutlich verschlechtert... Am besten gefällt mir wohl der Guru3D Test mit dicken SLI/CF Systemen für minimalste GPU-Limitierungen - wodurch auch verschieden breite PCIe-Anbindungen egal sind. :)

http://www.guru3d.com/article/core-i7-multigpu-sli-crossfire-game-performance-review/

CB ist durch die 9800GTX leider zu vergessen.

Siehe meine Kritik am Guru3d Artikel:

1. Testen gegen einen E8400 -> klar das das da bei zusätzlicher Last durch den Multi-GPU Treiber der Dualcore limitiert. Warum kein Test mit einem Quad? Das macht den Test völlig wertlos bzw. zeigt mal wieder, das es hier nicht um richtiges Testen ging sondern darum, einen gewissen "Effekt" beim Leser zu erzielen.

2. So schön für ne Showcase das ganze auch ist: quad CF und tripple SLI kann man vergessen und ist völlig Praxisirrelevant.

Eine 9800GTX+ ist keine langsame Karte, erst recht nicht bei 1280X1024. Eine GTX280 ist da auch nicht mehr so unglaublich viel schneller.

Zudem ist es sicherlich ein Argument, das einfach die X58 Plattform inkl. QPI einen deutlichen Vorteil gegenüber der alten X48 hat, wenn es um Multi-GPU Scaling geht. Phenoms werden ja nicht mit quad cf oder tripple SLI getestet, da wird der Deneb wohl der erste sein der in den Genuß kommt.

Sehr wahrscheinlich ist doch das der alte Yorkfield schon immer bei solchen highend Multi-GPU Systemen limitiert hat und der Nehalem nur die Bottlenecks durch sein Interface behebt. Das kann aber der Deneb sicherlich auch.
 
Zuletzt bearbeitet:
Siehe meine Kritik am Guru3d Artikel:

1. Testen gegen einen E8400 -> klar das das da bei zusätzlicher Last durch den Multi-GPU Treiber der Dualcore limitiert. Warum kein Test mit einem Quad? Das macht den Test völlig wertlos bzw. zeigt mal wieder, das es hier nicht um richtiges Testen ging sondern darum, einen gewissen "Effekt" beim Leser zu erzielen.

Bei welchen der getesteten Spiele der Quad-Vorteil wie hoch ist, muss natürlich aus anderen Reviews gezogen werden, das gestehe ich ein :)

2. So schön für ne Showcase das ganze auch ist: quad CF und tripple SLI kann man vergessen und ist völlig Praxisirrelevant.

Eine 9800GTX+ ist keine langsame Karte, erst recht nicht bei 1280X1024. Eine GTX280 ist da auch nicht mehr so unglaublich viel schneller.

Das ist aber genau der Punkt den ich meine: Für ein 100%iges CPU-Limit kann man entweder nur die Auflösung auf ein absolutes Minimum senken oder aber die Grafikleistung massiv erhöhen. Ersteres wurde bisher hier immer kritisiert, aber gegen letzteren Punkt gibt es doch nun wirklich nichts einzuwenden - wenn wir die Leistung der Grafikkarte messen wollen, gehört das in ein anderes Review, GPU-Limits haben in einem CPU-Test nichts verloren.

Zudem ist es sicherlich ein Argument das einfach die X58 Plattform inkl. QPI einen deutlichen Vorteil gegenüber der alten X48 hat, wenn es um Multi-GPU Scaling geht. Phenoms werden ja nicht mit quad cf oder tripple SLI getestet, da wird der Deneb wohl der erste sein der in den Genuß kommt.

Das ist in einem Szenario, wie von mir gefordert und von Guru3D auch zu großen Teilen umgesetzt, mit irrwitzig hohen GPU-Limits eben gerade nicht relevant, dass ist ja das schöne - selbst wenn durch die bessere Skalierung der neue Chipsatz 300 statt 290fps liefern kann, interessiert uns das nicht wenn die CPU irgendwo um 50-100fps hängt - Hauptsache, reichlich Luft dazwischen, um solche Verfälschungen generell auszuschließen.

Sehr wahrscheinlich ist doch das der alte Yorkfield schon immer bei solchen highend Multi-GPU Systemen limitiert hat und der Nehalem nur die Bottlenecks durch sein Interface behebt. Das kann aber der Deneb sicherlich auch.

Der engste Flaschenhals ist nach wie vor konstant und nennt sich die PCIe-Schnittstelle. Der Legion-Hardwaretest mit hohen Auflösungen und bis zu 8xAA sollte dieses Gerücht doch mittlerweile aus der Welt geschafft haben, und auch keines der heutigen Reviews zeigt unter GPU-Limits in hohen Auflösungen einen unerklärlichen Vorsprung des Nehalem - alle CPUs liefern dort die gleichen FPS, wie gehabt eh und je.
 
Die Quad CF und Tripple SLI Skalierung war bisher nicht wirklich toll, das heißt es verpuffte viel Leistung. Warum und wo geht diese verloren?

Wenn wir mal bei SLI bleiben:

Schon von einer auf 2 GTX280 hast du keine 100% Skalierung. Weil das ganze schon am CPU Limit hängt? Sicherlich nicht.

Denn:

Wenn du jetzt noch eine dritte GTX280 einbaust, skaliert das ganze ja immernoch, zwar alles andere als ideal aber es zeigt, das das System bei 2 GTX280 noch nicht am CPU Limit hängt.

Was folgern wir daraus? Die schlechte Skalierung bei SLI bzw. tripple SLI hängt nicht unbedingt an einem CPU limit!

Also verpufft bei einem aktuellen Yorkfield X48 an einer anderen Stelle ein Haufen Leistung obwohl es noch kein CPU Limit gibt.

Fazit: bis jetzt beweisen multi gpu tests nur das die Nehalem Plattform gut dafür geeignet ist. Sie beweisen jedoch NICHT das die CPU Leistung an sich dem Yorkfield bei Spielen deutlich überlegen ist.

Zeig mir ein Bench (bitte nicht PCGH oder THG) bei dem ein Nehalem, meinetwegen in niedrigen Auflösungen, bei einer single GPU diesen Performancevorteil erreichen kann. Achso: auch bitte kein WiC
 
Zuletzt bearbeitet:
Eine 9800GTX+ ist keine langsame Karte, erst recht nicht bei 1280X1024. Eine GTX280 ist da auch nicht mehr so unglaublich viel schneller.



Täusch dich mal nicht. Auch dort kann die GPU limitieren, die CPU muss nur schnell genug sein. Die CPUs im CB Test liegen verdächtig nah beeinander. Eine 9800 GTX entspricht leistungsmäßig einer 8800 GTX, wann war die aktuell? 2006 kam die auf den Markt. 2 Jahre sind im IT Bereich eine lange Zeit. Wenn man schon High-End CPUs testet, dann bitte auch eine High-End GPU verwenden.
 
http://hartware.net/review_860_8.html

Hier mal ein Test, zwar auch mit nicht der schnellsten Graka aber niedriger Auflösung und durchweg guter Skalierung der verschiedenen CPUs.

Auch interessant: hier gibts schon bei 3,3g OC throttlingeffekte des i920 mit boxed Kühler!
 
Zuletzt bearbeitet:
Täusch dich mal nicht. Auch dort kann die GPU limitieren, die CPU muss nur schnell genug sein. Die CPUs im CB Test liegen verdächtig nah beeinander. Eine 9800 GTX entspricht leistungsmäßig einer 8800 GTX, wann war die aktuell? 2006 kam die auf den Markt. 2 Jahre sind im IT Bereich eine lange Zeit. Wenn man schon High-End CPUs testet, dann bitte auch eine High-End GPU verwenden.

9800GTX " + "

Diese ist in niedrigen Auflösungen deutlich schneller als eine 8800GTX. Erst wenn der Speicher volläuft hat die 8800GTX ne Chance.

http://www.computerbase.de/artikel/...60_216_shader/22/#abschnitt_performancerating
 
Die Quad CF und Tripple SLI Skalierung war bisher nicht wirklich toll, das heißt es verpuffte viel Leistung. Warum und wo geht diese verloren?

Wenn wir mal bei SLI bleiben:

Schon von einer auf 2 GTX280 hast du keine 100% Skalierung. Weil das ganze schon am CPU Limit hängt? Sicherlich nicht.

Denn:

Wenn du jetzt noch eine dritte GTX280 einbaust, skaliert das ganze ja immernoch, zwar alles andere als ideal aber es zeigt, das das System bei 2 GTX280 noch nicht am CPU Limit hängt.

Was folgern wir daraus? Die schlechte Skalierung bei SLI bzw. tripple SLI hängt nicht unbedingt an einem CPU limit!

Also verpufft bei einem aktuellen Yorkfield X48 an einer anderen Stelle ein Haufen Leistung obwohl es noch kein CPU Limit gibt.

Fazit: bis jetzt beweisen multi gpu tests nur das die Nehalem Plattform gut dafür geeignet ist. Sie beweisen jedoch NICHT das die CPU Leistung an sich dem Yorkfield bei Spielen deutlich überlegen ist.

Hmm, ich erklär nochmal was ich meinte:

Stellen wir uns vor, CPU A schafft 40fps, CPU B 50fps. Mit einer GPU erreichen wir meinetwegen 30fps. Mit 2 GPUs bei schlechter Skalierung 40fps, bei guter 50fps. Mit 3 GPUs wären es 50/60fps. Was würden wir in diesem Fall sehen? Gar nix, das GPU-Limit liegt hoch genug, dass Unterschiede wie die SLI-Skalierung nicht mit in den CPU-Test einfließen können. Und genau das möchte ich durch absolut klare CPU-Limits wie man die bei Guru3D sehen konnte sicher gestellt haben. In so einem Fall ist es egal, ob SLI/CF auf einem schlechten oder guten Board zu 60% oder zu 80% skaliert, hauptsache wir stellen sicher das die Grafikkarte(n) weit unter Vollast arbeiten muss.

Zeig mir ein Bench (bitte nicht PCGH oder THG) bei dem ein Nehalem, meinetwegen in niedrigen Auflösungen, bei einer single GPU diesen Performancevorteil erreichen kann. Achso: auch bitte kein WiC

Far Cry 2?

http://ht4u.net/reviews/2008/intel_nehalem_core_i7/index45.php

Auch Quake Wars oder UT3 sehen ähnlich gut aus, der i920 knapp hinter oder auf Höhe des QX9770.
 
Zuletzt bearbeitet:
Nochmal: Der Guru3D ist grundsätzlich Quatsch, da man mit einem E8400 vergleicht. Also können wir den komplett mal knicken, solltest du eigentlich akzeptieren können, oder?

Ich kann genauso argumentieren: theorethisches CPU Limit mit ausreichend leistungsfähigen Single GPU läge bei 150 fps bei Nehalem genauso wie Yorkfield. Die gibt es aber nicht. Deshalb Einsatz von 3 per SLI die jeweils eine Single GPU Leistung von 50 FPS erreichen. Das Interface des Yorkfield limitiert schon bei etwa 100 fps da es mit den 3 Karten parallel nicht gut klarkommt. Das Nehalem Interface schafft 130 fps weil es damit besser klarkommt.

Deshalb weißt du eben nicht wo das CPU Limit liegt. Du kannst bei SLI einfach nicht wissen, ob es ein CPU Limit oder ein Interfacelimit ist. Warten wir da mal einfach den Cbase test ab, da werden dann wenigstens nicht Äpfel mit Birnen verglichen wie bei Guru3D.

Bezüglich Farcry 2:

Ok, akzeptiert. Ist ein Spiel das besser mit dem Nehalem funktioniert, aber auch das einzigste was dermaßen gut skaliert. Zudem wieder das Problem mit den low details und deutlich über 100 FPS (Praxisrelevanz) aber anders kann man das GPU Limit nicht ausschließen.
 
Zuletzt bearbeitet:
Nochmal: Der Guru3D ist grundsätzlich Quatsch, da man mit einem E8400 vergleicht. Also können wir den komplett mal knicken, solltest du eigentlich akzeptieren können, oder?

Dummerweise habe ich noch keinen anderen Test mit vergleichbarer GPU-Power finden können, somit bleibt außer Quervergleichen bisher nicht viel übrig.

Ich kann genauso argumentieren: theorethisches CPU Limit mit ausreichend leistungsfähigen Single GPU läge bei 150 fps bei Nehalem genauso wie Yorkfield. Die gibt es aber nicht. Deshalb Einsatz von 3 per SLI die jeweils eine Single GPU Leistung von 50 FPS erreichen. Das Interface des Yorkfield limitiert schon bei etwa 100 fps da es mit den 3 Karten parallel nicht gut klarkommt. Das Nehalem Interface schafft 130 fps weil es damit besser klarkommt.

Ich möchte gerne nocheinmal diese Interface-Sache geklärt haben, was soll das sein? Du kennst doch das Legion-Hardware Review, du kennst die aktuellen Nehalemtests: Alle zeigen, das bei einem GPU-Limit sich keine CPU Absetzen kann. Wie auch, wenn tatsächlich der ungewöhnliche Fall vorläge, dass nicht die Rechenleistung der Grafikkarte limitiert, wäre die engste Schnittstelle auf allen Systemen der PCIe-Bus.

Deshalb weißt du eben nicht wo das CPU Limit liegt. Du kannst bei SLI einfach nicht wissen, ob es ein CPU Limit oder ein Interfacelimit ist. Warten wir da mal einfach den Cbase test ab, da werden dann wenigstens nicht Äpfel mit Birnen verglichen wie bei Guru3D.

Wie gesagt: Das mit dem Interface hätte ich gerne erstmal näher erklärt. Legionhardware hat dem in einem ausführlichen Test widersprochen, die aktuellen Nehalem-Reviews tun dies, die Theorie mit der PCIe-Schnittstelle als Nadelöhr ebenso.

Bezüglich Farcry 2:

Ok, akzeptiert. Ist ein Spiel das besser mit dem Nehalem funktioniert, aber auch das einzigste was dermaßen gut skaliert. Zudem wieder das Problem mit den low details und deutlich über 100 FPS (Praxisrelevanz) aber anders kann man das GPU Limit nicht ausschließen.

Optimal heißt bei Far Cry 2 wohl nicht maximale Details? Desweiteren nochmal, UT3 und Quake Wars, um hier nur zwei Extrembeispiele mit 20%+ IPC-Verbesserung zu nennen.
 
Geht es nur mir so oder scheinen sich alle Testseiten ihr Fazit so hinzudrehen, dass der I7 Die neue Wunderwaffe gegen Ökomenschen ist und dabei nichts schafft?


Seien wir mal ehrlich: Das Ding rechnet leicht schneller als sein Vorgänger. Hat ein echtes Tdp/Abwärme Problem und bringt für die Hauptabsatzmärkte in diesem Forum nix.

Ocer und auch Gamer brauchen keinen Core I7 zusammen mit dem Wechsel auf DDr3 und ein x58 Board.
 
so könnte man es auch subsummieren ;)

Wie gesagt er hat ja einiges an Performance gewinn, aber eben dort wo 4 Kerne sinn machen über wo keine 4 kerne große anwendung finden ist auch auch nicht wirklich schneller.

Gibts irgendwo schon tests zu Tripple/Dualchannel ?
 
Zuletzt bearbeitet:
ich hab mir nochmal den THG Test angesehen.

ICH BEKOMM DAS KOTZEN! Mir dreht sich echt der Magen um, sowas von unglaublich.

Das kann doch wohl nicht wahr sein:

Nero Recode 8: "129% langsamer"

Das geht schonmal von der Prozentrechnung her gar nicht.

Aber auch an sich ist das schwer möglich, wenn der QX9770 angeblich nur "30% langsamer" ist, siehe Cbase:

http://www.computerbase.de/artikel/...core_2_duo_e8600_e0/10/#abschnitt_nero_recode

Hat da einer einfach mal ne 1 vorne dran gehängt?

Der THG "Test" ist ein Skandal ohne gleichen.

Das hat nichts mehr mit Fehlern zu tun die mal passieren können. Da steckt Absicht dahinter.
 
Zuletzt bearbeitet:
Fazit: bringt erwartungsgemäss bei Desktop Plattformen praktisch nichts.
Das ist falsch Du müsstest schreiben:

Fazit: bringt erwartungsgemäss bei Desktop Applikationen praktisch nichts.

Bin mir sicher, dass Du mit diversen BOINC Projekten und gleichzeitig laufenden 8 Threads nen Unterschied zw. Triple und Dual messen kannst :)

Für die allgemeine 1-2 threadige 08/15 Desktop Software ist das aber natürlich viel zuviel :)

ciao

Alex
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh