Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
Da müsstest du mehr Benches von dieser Sorte bringen, sonst bringt es nichts, denn man kann problemlos das Gegenteil zeigen.
Zeigt dieser Test etwa ein unerwünschtes Ergebnis, oder warum werden wieder weitere Benches gefordert?

Und wie du zu einem Test, der eine spezielle Situation darstellen soll, schlüssig das Gegenteil beweisen willst ist mir schleierhaft.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,
habe einen AMD Phenom 9550 und einen Intel Q6600 und Render oft 3D Animationen.
Da ich dabei gerne noch etwas spiele, begrenze ich das rendern auf 2 cores, so dass noch 2 cores zum gamen bleiben. ;) Unter diesen Bedigungen hat das Intel System keine chance gegen das AMD System. Die min FPS sind bei dem AMD System DEUTLICH höher als bei dem Intel System.
Ohne rendern sind sie fast gleich bzw auch da hat das AMD System höhere min FPS als das Intel System -nur sind dabei die min FPS bei beiden noch so hoch, dass man keinen unterschied merkt.
Da ich einen 24" TFT habe, habe ich keine lust (es sieht einfach sch... aus) auf 1024*768 oder so zu spielen.

Liebe "CPU Tester", bitte testet doch unter realen Bedingungen (!) wir haben das Jahr 2008 und 20" - 24" tft sind keine seltenheit mehr, es mach doch keinen sin auf einem 4 fach cpu System Singel Core Spiele mit einer Auflösung von 1024*768 (oder so) zu "Testen".

Danke! Kann ich genauso bestätigen, hatte nur keine Lust alles auszutesten und aufzuschreiben. In meinen Augen bringt die überlegene AMD-Architektur unter den komplexen Real-World-Situationen den Vorteil für den Phenom, während Intel in den Reviews immer nur Single-Thread Höchstbelastung testet und da wegen Optimierungen und höherem Takt meist vorne liegt.

Eine andere glaubhafte Erklärung wäre der überlegene Speicherkontroller von AMD, welcher eben unter hoher Belastung kein Flaschenhals wird wie bei Intel.

Ich ärgere mich immer mehr auf den ganzen (geschickten) Intel-Hype mit den zig-Schwanzmark-Benchmarks hereingefallen zu sein.
Das entscheidende Feature in der OC-Gemeinde ist halt das Übertakten und davon bekommt man bei AMD eher weniger, während es bei Intel natürlich enorm viel Spaß macht eine CPU mal eben um 50% zu übertakten.
 
Zuletzt bearbeitet:
Nur die Auflösungen sind gegeben, keine Angabe zu den Einstellungen und keine Angabe welches Level...

Aber geh ja nicht drauf ein, das der Test das gleiche Ergebniss zeigt...
 
Nur die Auflösungen sind gegeben, keine Angabe zu den Einstellungen und keine Angabe welches Level...

Aber geh ja nicht drauf ein, das der Test das gleiche Ergebniss zeigt...


Bei den Bildern der letzten Seite liegt der Phenom vorne, hier nicht. Wo zeigt er das gleiche Bild? So, jetzt bin ich drauf eingegangen, aber selber auf andere Sachen nicht drauf eingehen. Darüber hinaus war es klar das man sich nun irgend etwas sucht, um den Test abblocken zu können. Ich kenne noch den ein oder anderen Test dieser Sorte, aber es macht einfach keinen Sinn diese hier zu nennen. Man glaubt nur das was einem gefällt.
 
Zuletzt bearbeitet:
Beim Test von daysleeper83 wird eine höhere Auflösung zum Vergleich genommen(ohne gleichzeitig noch AA zu erhöhen). Mag sein das der Intel da noch weiter einbricht.

Übrigens blocke ich den Test nicht ab und ich weiß auch nicht warum du mir das vorwirfst. Ich sag nur das er das gleiche Bild zeigt...
 
jungs, ihr dreht euch im kreis...es gibt doch zick user mit intel quad und amd quad....die sollen sich halt mal treffen und einen gemeinsamen bench machen ;) ich stelle auch mein wohnzimmer zur verfügung :d
 
Ich frage dich noch einmal, hast du schon jemals etwas von einer GPU-Limitierung gehört? Muss man es dir erklären?

GPU-Limitierung schneidet quasi die FPS ab einem gewissen Punkt, nämlich dort, wo die Leistungsgrenze der GPU erriecht ist, ab. Aber ein Spiel läuft nicht 100% am GPU-Limit, es gibt auch Lasteinbrüche durch die CPU. Zudem bedeutet viel GPU-Last auch viel CPU-Last, das wird auch gerne mal verdrängt...
Genau diese Lasteinbrüche durch die Spielengine spiegeln aber das Verhalten der CPU wider, da das GPU-Limit quasi als Framelimiter fungiert. Ist eine CPU bei überwiegendem GPU-Limit schneller, heißt das einfach, dass sie ein homogeneres Leistungsbild liefert, mehr nicht. Das kann auch ein katalysierender Effekt werden, indem der Treiber bei hoher CPU-Last, die ja trotz dem GPU-Limit noch auftreten kann, evtl. nicht schnell genug mit Eckpunkten versorgt wird und die GPU trotz eigentlichem GPU-Limit Däumchen dreht. Das passiert aber eher selten. Meist ist der Anteil, den die CPU dann ausmacht kaum messbar, das heißt aber noch lange nicht, dass das überall so sein muss. Erstmal verstehen, dass ein GPU-Limit ein CPU-Limit nicht ausschließt sondern eher der umgekehrte Fall eintritt, dann kann man sich auch darüber unterhalten. Das ist einfach eine Sache der Logik.
 
Zuletzt bearbeitet:
Das der OC-Club Test grobe Schnitzer enthalten muss, lässt sich mit einem einzigen Bild zeigen:



Würde der Core 2 auf Grund seines angeblich limitierenden FSBs hinter dem Phenom liegen, muss der QX9770 deutlichst vor dem Q6600 mit weniger Cache und weniger FSB liegen. Der FSB ist eindeutig kein Limit, die Seite hat Mist gemessen.



Beleg 2:



Der 9600 wird mit steigender Auflösung auf einmal 50% schneller. Grober Unfug.
 
Zuletzt bearbeitet:
@Mondrial:

Wie hoch geht dein X3 8650 mit dem Referenztakt? Hast du die maximale Übertaktung gestestet?
 
Würde der Core 2 auf Grund seines angeblich limitierenden FSBs hinter dem Phenom liegen, muss der QX9770 deutlichst vor dem Q6600 mit weniger Cache und weniger FSB liegen. Der FSB ist eindeutig kein Limit, die Seite hat Mist gemessen.
Da selbst der auf 3.7GHz übertaktete Q9450 da die gleichen Frames erzeugt, muss bei den Intels irgendwas Anderes begrenzen. Aber das ist natürlich unmöglich...
Beleg 2:
Der 9600 wird mit steigender Auflösung auf einmal 50% schneller. Grober Unfug.
Das ist der GPU-Test aus der Crysis Demo(sollte man vielleicht mal dazu sagen). Wer weiß was da passiert ist. Ich würde einen Test wegen eines Wertes nicht gleich abschreiben...

@LoneSloane Maximum ist 3.1GHz aber nicht primestable, Reftakt geht glaub ich bis 290MHz.
 
Zuletzt bearbeitet:
Bitte nicht selektiv irgendwas rauspicken und damit als Blödsinn abstempeln versuchen wir das doch mal ein wenig objektiv zu betrachten. Zugegeben bei den 1280*1024 wurde zumindest in Bezug auf den Phenom Mist gemessen.

Die Reihenfolge macht aber dennoch sinn wenn man die 1280 rauslässt

1024*768 = 38 FPS
1680*1050 =33 FPS
1920*1200 = 21 FPS

http://www.overclockersclub.com/reviews/intel_q9450/8.htm

Kann man hier nicht mal 2 User finden die Phenom und Intel direkt gegeneinander antreten lassen bei möglichst gleicher Graka um gewisse Benches bestätigen oder widerlegen zu können? Muss sich doch finden lassen, ansonsten drehen wir uns hier im Kreis.
 
Völlig unabhängig ob die Phenoms WIRKLICH bei hoher Auflösung mit hohen Settings schneller sind zeigt die ganze Angelegenheit doch aber eines:

Unter realen Spielbedingungen bzw. Einstellungen macht es keinen Unterschied ob man nun Intel oder AMD im Rechner hat!

Trotzdem werden grundsätzlich nur low settings getestet, um einen Performancevorsprung zu suggerieren, der in Wirklichkeit beim Anwender gar nicht ankommt.

Also bekommt euch bitte nicht wegen den Benches in die Haare.

Die Grundaussage bleibt, völlig unabhängig ob Intel und AMD NUR gleichauf sind oder AMD eventuell schneller.

Zusätzlich wird jetzt vom zweiten bestetigt, dass vor allem bei echtem Multitasking mit mehreren, verschiedenen, parallel laufenden Anwendungen AMD scheinbar deutliche Vorteile hat. Also dem Klassiker encoden und parallel Spielen.

Zu diesem Thema wurden bisher auch keine Tests durchgeführt. Absicht? Wozu einen Intel Quad wenn dieser kein richtiges Multitasking schafft? Das wäre meiner Meinung nach eine ziemlich schlechte Nachricht für Intel, wozu brauch man sonst 4 Kerne?
 
Zuletzt bearbeitet:
Da selbst der auf 3.7GHz übertaktete Q9450 da die gleichen Frames erzeugt, muss bei den Intels irgendwas Anderes begrenzen.

Das glaube ich dir gerne, also schieß mal los was das sei soll :) Ihr redet hier vom FSB, der kann es nicht sein wenn alle Core2 mit verschiedenen FSBs auf gleichem Niveau liegen. Wo also soll der Flaschenhals sein?
 
Kann mich nicht erinnern das Intel damals benachteiligt wurde(Verweis auf Threadthema). AMD war damals in einigen Bereichen schneller und das kam in den Tests auch rüber. Trotzdem wurden Intels Vorteile in bestimmten Bereichen immer erwähnt.

Klaro. Es wurde fast überall von den großen Vorteilen der 64bit-Unterstützung des Athlon 64 gesprochen, alle waren begeistert und es war eines DER Kaufargumente. Nur haben die meisten User sich die 2003 einen A64 gekauft haben bis heute nix davon ;)

Was hier immer von Benachteiligungen gesprochen wird ... . Einen Unterschied bei den Standard-Highend Dingern merkt man als Normaluser doch eh keinen Unterschied. Nur ist Intel mit seinen CPUs vom Stromverbrauch und den Features schon etwas weiter.
 
Das glaube ich dir gerne, also schieß mal los was das sei soll :) Ihr redet hier vom FSB, der kann es nicht sein wenn alle Core2 mit verschiedenen FSBs auf gleichem Niveau liegen. Wo also soll der Flaschenhals sein?

Das Problem der internen Kommunikation und Anbindung scheint ja ziemlich komplex zu sein, deshalb ist es evtl. nicht möglich diese Phänomene nur auf einen Faktor zurückzuführen, sondern evtl. müssen auch noch Wechselwirkungen mit anderen Vorgängen innerhalb der CPU und mit dem Chipsatz beachtet werden.

Die beobachteten Phänomene passen natürlich auch zu der in Serverumgebungen beobachteten Leistungsfähigkeit der AMD-CPUs. Das habe ich mir vom Administrator bei mir in der Firma bestätigen lassen, der auch unter Hochlastsituationen Vorteile für AMD beobachtet hat.
 
Die Kerne sind intern über den FSB gekoppelt, es ist nicht möglich das eine CPU mit 800MHz mehr Takt, 50% mehr FSB und 50% mehr Cache (Q6600 vs. QX9770) exakt 0% schneller ist. Das ist ohne jeden Zweifel ein Messfehler.

Zum 2. Punkt: Multi-Sockel-Systeme sind ein ganz anderer Punkt. Hier teilen sich nocheinmal a) vielfach mehr Kerne in den FSB und müssen b) auch über das gesammte Board über diesen kommunizieren und nicht nur intern, hierdurch resultiert in der Tat die bessere Skalierung der AMD-Systeme bei mehreren Sockeln. Hier haben die letzten FSB-Erhöhungen von Intel btw. auch gute Performancesteigerungen gebracht, im Gegensatz zu der eher mäßigen FSB-Skalierung im Home-Bereich - hier ist einfach, nicht zuletzt auch auf Grund der riesigen Caches, kein Flaschenhals in gleichem Maß vorhanden.
 
Der 9600 wird mit steigender Auflösung auf einmal 50% schneller. Grober Unfug.


Bei WiC zeigt sich mir auch eine Ungereimtheit.



Zwischen 1024x768 und 1920x1200 exakt 0 fps Differenz beim Phenom. Das ist Unfug. Offensichtlich immer die gleiche Auflösung. Eigentlich genug, um so einen Test besser schnell zu vergessen. Genau das meine ich mit ein Test reicht nicht. Zum Glück sind die Fehler so offensichtlich, das es sich von selbst erledigt hat.
 
Klaro. Es wurde fast überall von den großen Vorteilen der 64bit-Unterstützung des Athlon 64 gesprochen, alle waren begeistert und es war eines DER Kaufargumente. Nur haben die meisten User sich die 2003 einen A64 gekauft haben bis heute nix davon ;)
Man sollte dabei immer bedenken, der K8, also Grundlage von AMD64 bzw x86-64, wurde mit dem Opteron geschaffen. Und genau hier, also im Serverbereich, sind 64 Bit Systeme und Software schon lange Standard.

Was hier immer von Benachteiligungen gesprochen wird ... . Einen Unterschied bei den Standard-Highend Dingern merkt man als Normaluser doch eh keinen Unterschied. Nur ist Intel mit seinen CPUs vom Stromverbrauch und den Features schon etwas weiter.
Welche Features denn? Zugegeben, was die Leistungsaufnahme betrifft, ist Intel weiter. Aber das ist auch keine Kunst mit 45nm gegenüber 65nm. Beim Rest hat Intel eher das Nachsehen. Deren CPUs haben immer noch keinen richtigen shared Cache, zumindest nicht die Quadcores. Bezüglich Virtualisierung hinken sie AMD auch schon lange hinterher. Interne NB angebunden mit HT brauchen wir wohl nicht mehr erwähnen. Direct Connection Architecture (Server), unabhängige Taktdomänen, etc.pp. Wo bleiben die Features von Intel? Ach richtig, ich vergass das total irrelevante SSE4. :rolleyes: Warte auf SSE5/AVX, dann lohnen sich die SIMD Verbesserungen auch wieder.
Und was sollen denn "Standard-Highend Dinger" sein? Schon mal daran gedacht, dass es mehr als nur Spiele gibt?

Zwischen 1024x768 und 1920x1200 exakt 0 fps Differenz beim Phenom. Das ist Unfug.
Wieso soll das Unfug sein? Hast du die CPU Auslastung zur Hand, um das beurteilen zu können?
 
Zuletzt bearbeitet:
Welche Motivation sollten sie zu so einem "tricksen" haben. Mal zum Vergleich

http://www.overclockersclub.com/reviews/amd_phenom_x3_8750/12.htm

Der X3 bricht auch so gut wie gar nicht ein, gerade mal 3 FPS zwischen minimaler und maximaler Auflösung. Bevor hier das geschrei losgeht, dass sich die Ergebnisse des X4 mit den anderen nicht decken, ist zu beachten, dass der dort mitgetestete X4 mit TLB Patch lief (ersichtlich an den Sisoft Memory Benchmark)
 
Wie kommen die Leute dazu so einen Schwachsinn zu schreiben:

http://geizhals.at/eu/?sr=346956,-1

Ich versteh es nicht! Laut anandtech verbraucht ein 9950 gerademal 2 Watt unter Last (CoH) und im Leerlauf mehr als ein q9300 (wohlgemerkt 45nm!) noch dazu ist der q9300 gleichauf mit dem 9950, trotz der "speziellen" Benchmarkauswahl.

(Ich frag mich warum anand kein nero recode testet, aber ich glaub ich weiß warum: http://www.computerbase.de/artikel/..._9850_black_edition/10/#abschnitt_nero_recode )

Wieso kommen solche Leute und schreiben so einen Müll in das Geizhals Bewertungsforum um vorsätzlich AMD zu schädigen und Käufer davon abzuhalten den Prozessor zu kaufen?
 
Nero ist deutsche Software und jenseits der Grenzen nicht wirklich verbreitet.
 
Bei Anandtech kommt dem Phenom beim Verbrauch zu gute, dass einer der sparsamsten Chipsätze (780g) gegen einen der hungrigsten (Q35) getestet wurde - wenn dann auch nur Last auf einem Kern herrscht, sind die Unterschiede recht gering, wie man auch an der absolut betrachtet kleinen Differenz aller CPUs erkennt. Bei, zugegebenermaßen in aktuellen Spielen wohl eher seltener, Volllast auf allen Kernen liegen etwa 80W zwischen Q9300 und X9950.

http://www.computerbase.de/artikel/...black_edition/23/#abschnitt_leistungsaufnahme

(habe den Q9300 konservativ mit 5W weniger als der Q9450 geschätzt)

Wenn man beide Tests vergleicht erkennt man aber auch gut, welche wahnsinnig großen Einfluss Chipsatz und Mainboard auf den Verbrauch haben, wem es um jedes Watt geht, der sollte vorher gründlichst vergleichen.
 
Bei Anandtech kommt dem Phenom beim Verbrauch zu gute, dass einer der sparsamsten Chipsätze (780g) gegen einen der hungrigsten (Q35) getestet wurde - wenn dann auch nur Last auf einem Kern herrscht, sind die Unterschiede recht gering, wie man auch an der absolut betrachtet kleinen Differenz aller CPUs erkennt. Bei, zugegebenermaßen in aktuellen Spielen wohl eher seltener, Volllast auf allen Kernen liegen etwa 80W zwischen Q9300 und X9950.

http://www.computerbase.de/artikel/...black_edition/23/#abschnitt_leistungsaufnahme
Da kann man hier aber genauso gut argumentieren, dass mit dem 790FX der hungrigste Chipsatz bei AMD zum Einsatz kommt, während bei Intel mit dem X38 eher ein Mid-Range Chipsatz verwendet wurde.
Wenn du dir den Text dazu mal durchliest, wirst du ausserdem feststellen, dass CB offenbar eines der "heissen" Modelle erwischt hat. Wie andere Printmedien scheinbar auch. AMD wollte hier wohl Übertaktungsversuchen vorbeugen. Damit geht die Allgemeingültigkeit praktisch gegen Null.
Sicherlich liegen zwischen zwischen 9950 und Q9300 keine 2 Watt. Das ist unrealistisch. Aber es liegen auch keine 80W dazwischen. Das ist genauso unrealistisch. Das würde bedeuten, der Q9300 braucht pro Kern keine 10W unter Last. Das sind schon noch ein paar Watt mehr. ;)
 
Zuletzt bearbeitet:
Im Vergleich zu den anderen Phenoms im CB-Test liegt der 9950 aber absolut realistisch, der 790FX mag nicht optimal sein aber auch der X38 liegt ein ganzes Stück über dem effizienteren P45. Ein Q9300 liegt übrigens in der Tat bei nur etwa 10W pro Kern unter Volllast - direkt hinter den Spannungswandlern (die etwa bei 80% Wirkungsgrad liegen werden) hat Hardtecs4U 50W für die gesammte CPU ermittelt:

http://ht4u.net/reviews/2008/amd_phenom_x4_x3/index17.php

Bei Last ergeben sich hier sogar über 100W mehr für den 9850 (den emlulierten 9950 will ich mal fairer Weise außer Acht lassen) und das noch vor dem Netzteil, da mag es sich bei diesem Exemplar wohl wirklich um eines mit recht hoher Vcore gehandelt haben (auch wenn man mit dem 9600BE in dem Test vergleicht) - mag man nur hoffen, dass das nicht die Regel ist... Die ~80W mehr unter Volllast kommen also gut und gerne hin, das wären 20W pro Kern was bei Anandtech und Single-Core Belastung zusammen mit dem sparsameren Chipsatz in einem Quasi-Gleichstand resultiert. In diesem Sinne also eine nicht sehr AMD-feindlich/Intel-freundliche Verbrauchsmessung, da braucht man Anandtech denke ich nicht vorzuwerfen sie würden contra-AMD testen :angel:
 
Im Vergleich zu den anderen Phenoms im CB-Test liegt der 9950 aber absolut realistisch
Welche anderen Phenoms? Die hat CB doch fast alle simuliert. Wenn die Basis nicht stimmt, stimmt dementsprechend auch der Rest nicht.

der 790FX mag nicht optimal sein aber auch der X38 liegt ein ganzes Stück über dem effizienteren P45.
Nicht optimal ist gut. ;) 790FX ist so ziemlich das hungrigste, was für AMD jemals erschien. Das toppt selbst den schon verschwenderischen NF 590 SLI locker. Das kann man nicht mit Intel vergleichen. Dort unterscheiden sich die Chipsätze nur wenig. Bei AMD kommt noch hinzu, dass nicht selten minderwertige Komponenten verbaut werden. H4U schreibt ja auch, dass davon der Wirkungsgrad entscheidend abhängt.

Ein Q9300 liegt übrigens in der Tat bei nur etwa 10W pro Kern unter Volllast - direkt hinter den Spannungswandlern (die etwa bei 80% Wirkungsgrad liegen werden) hat Hardtecs4U 50W für die gesammte CPU ermittelt:
Ich sprach von der realen Leistung, also ohne die Spannungswandler zu berücksichtigen. Und dort sollte die Leistungsaufnahme eher bei 15-20W liegen. Aber selbst das kann variieren, je nachdem, womit die CPU ausgelastet wird.
Ausserdem ist es immer noch derselbe Chipsatz bei AMD, sogar dasselbe Board. Da kannst du von mir aus noch hunderte Vergleiche bringen. Allgemeine Aussagekraft besitzt das immer noch nicht.
Ich denke zudem, dass H4U hier falsche Messergebnisse hat. 154W für die CPU unter Last kann nicht stimmen, schon gar nicht inklusive Spannungswandler. Wenn dem so wäre, hätten die Ingenieure irgendwas falsch berechnet. Der Rest ist ja wieder nur simuliert.
Real dürfte der 9950 bei 120W liegen, der Q9300 bei 70W. Rechen wir noch 10W für die interne Northbridge bei AMD weg, bleiben 10W pro Kern übrig. Damit muss AMD bis Shanghai leben.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh