Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
Ach Undertaker, wieder mal auf einem Egotrip? Du duskutierst hier nun mittlerweile gegen wie viele Leute? 5? 6? Fällt nicht langsam mal der Groschen? Wieso bist du nur so stur und ignorierst sämtliche Fakten? Deine Meinung oder Sichtweise entsprechen jedenfalls keinen.
Welche Latenzen sollen sich beim FSB denn addieren? :rolleyes: Der FSB ermöglicht einfach nicht so geringe Zugriffszeiten wie modernere Verbindungen ala Hypertransport oder QPI. Und damit kann RAM auch nicht so schnell angesprochen werden. Das wirkt sich logischerweise aus, wenn Daten nicht mehr gecached sind und neu geladen werden müssen. Punkt. Bandbreite ist dabei völlig unerheblich. Zumindest bei Desktops. Vielleicht testest du einfach mal ein AMD K8 System mit HT-Takt 200 oder so.
Ich muss genauso wenig die Spezifikationen von DDR2 und DDR3 begründen. Die kannst du auch selbst nachlesen. Wikipedia ist schon mal ein guter Anfang. Vielleicht schaust du einfach noch mal auf die Übersicht von sommerwiewinter. DDR2-800 entspricht zB DDR3-1600. Beide haben einen Speichertakt von 200 MHz und eine Latenz von 5 ns. Dass der effektive Takt letztendlich höher ist und damit die Bandbreite steigt, ist logisch. Wäre auch blöd, wenn dem nicht so wäre. Dann könnten wir uns nämlich neue RAM Versionen sparen. Der effektive Takt ist übrigens kein realer Takt, sondern wird über parallele Datenpakete bzw geänderter Logik realisiert. Nur so zur Info. Man spricht auch vom I/O Takt. ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wieso bist du nur so stur und ignorierst sämtliche Fakten? Deine Meinung oder Sichtweise entsprechen jedenfalls keinen.

Wenn die Menschheit immer dumm der Masse hinterhergeglaubt hätte, würden wir heute noch an die Erde als Scheibe glauben...

Welche Latenzen sollen sich beim FSB denn addieren? :rolleyes: Der FSB ermöglicht einfach nicht so geringe Zugriffszeiten wie modernere Verbindungen ala Hypertransport oder QPI.

...darum nehme ich mir gerne die Zeit, dich aufzuklären: Der FSB hat eine gewisse Latenz, die mag höher liegen als bei einer Verbindung per IMC, alles OK: Die Zeit, die nun ein Speicherzugriff benötigt, besteht aus der FSB-Latenz in beiden Richtungen sowie der Speicherzugriffszeit. Und das, Mathematik Klasse 1, ist eine Summe ;)

Und damit kann RAM auch nicht so schnell angesprochen werden. Das wirkt sich logischerweise aus, wenn Daten nicht mehr gecached sind und neu geladen werden müssen. Punkt. Bandbreite ist dabei völlig unerheblich. Zumindest bei Desktops. Vielleicht testest du einfach mal ein AMD K8 System mit HT-Takt 200 oder so.

Viel Blabla um etwas das wir gar nicht diskutiert haben, und nichteinmal richtig:

http://www.anandtech.com/memory/showdoc.aspx?i=2800&p=7

Ich muss genauso wenig die Spezifikationen von DDR2 und DDR3 begründen. Die kannst du auch selbst nachlesen. Wikipedia ist schon mal ein guter Anfang. Vielleicht schaust du einfach noch mal auf die Übersicht von sommerwiewinter. DDR2-800 entspricht zB DDR3-1600. Beide haben einen Speichertakt von 200 MHz und eine Latenz von 5 ns. Dass der effektive Takt letztendlich höher ist und damit die Bandbreite steigt, ist logisch. Wäre auch blöd, wenn dem nicht so wäre. Dann könnten wir uns nämlich neue RAM Versionen sparen. Der effektive Takt ist übrigens kein realer Takt, sondern wird über parallele Datenpakete bzw geänderter Logik realisiert. Nur so zur Info. Man spricht auch vom I/O Takt. ;)

Da fehlt wohl etwas Detailwissen ;) Schau dir einfach mal an, wie viele Subtimings ein aktueller Speicher hat, dann reden wir weiter ;)
 
Undertaker, deine Geduld ist wirklich bemerkenswert. Als geneigter Leser kriegt man ja hier manchmal echt zuviel, will aber keine Luftschlösser zerstören.. (Kampf vs Windmühlen anyone ?)
 
BEKOMMT EUCH MAL WIEDER EIN!

Hier wird von allen Seiten mal wieder teilweise maßlos übertreiben und sich dann in ewigen Detaildiskussionen aufgerieben. Hier gehts drum ob immer fair gebencht wird. Ob nun jetzt der Prozessor schneller und der langsamer ist, gehört woanders hin, aber nicht hier her!

Das ist ein kleiner aber feiner Unterschied.

Um neuen Lesern halbwegs ein Interesse an dem Thread zu ermöglichen, bitte ich darum die Diskussion nicht immer so ausufern zu lassen, nicht immer alles zu zitieren und sich um jeden Satz zu streiten.

Große und ausführliche postings mit eigenem Standpunkt und fertig.

Der Nehalem wird ohne Frage ein sehr guter Prozessor, das kann man nicht abstreiten.

Genauso ist es aber auch lächerlich zu behaupten AMD hätte sich auf irgendetwas ausgeruht. Hier kommt einfach zum tragen, dass Intel 4-5 mal soviel Forschungskapazitäten hat, alles andere wäre auch etwas verwunderlich.

Das war aber jetzt mal von mir ein Beispiel was hier nicht hingehört! Hier geht es um Benchmarks, Reviews und dergleichen!

Insofern begrüße ich den Nehalem, weil mit seinem Eintreffen die Ausrichtung der Benchmarks verändert wird, wovon auch der Deneb profitierten wird.

Leider werden weiterhin 2 Probleme bestehen bleiben:

Momentan brauch ein Phenom einfach mehr Erfahrung was die Einstellung anbelangt um die optimale Leistung zu erzielen. Das diese bei einem Intel Quad nicht notwendig ist, ist ein Vorteil für Intel. Jedoch wird weiterhin für alle Erfahrenen Nutzer die wahre Leistung des Phenom in mainsteam CPU Reviews verborgen bleiben.

An der allgemeine Ausrichtung der Programmentwickler auf Intel, teilweise auch durch finanzielle Unterstützung bzw. Programmiersupport, wird sich auch mit Nehalem nicht viel ändern. Das heißt SSE und andere Befehle werden zunächst für Intel programmiert und verschaffen daher Intel in Benchmarks, aber auch sicherlich auch dem Nutzer, einen Vorteil abseits der allgemeinen Prozessorarchitektur. Diskussionswürdig bleiben jedoch Fälle, bei denen absichtlich nicht Intelprozessoren benachteiligt werden, wie der aktuelle PCMark05 "Skandal", der merkwürdigerweise nicht von der großen Internetpresse aufgegriffen wurde, sondern schnell wieder von der Bildfläche verschwand. Diese beschäftigt sich z.B. traurigerweise viel lieber damit, bei der 4870 X2 Mikroruckler "nachzuweisen" und klopft sich dafür selbst auf die Schulter.
 
Zuletzt bearbeitet:
Zitat von Rafirediablo

Momentan brauch ein Phenom einfach mehr Erfahrung was die Einstellung anbelangt um die optimale Leistung zu erzielen. Das diese bei einem Intel Quad nicht notwendig ist, ist ein Vorteil für Intel. Jedoch wird weiterhin für alle Erfahrenen Nutzer die wahre Leistung des Phenom in mainsteam CPU Reviews verborgen bleiben.
------------------------------------------------------------------------------------------------

Das kann ich nur bestätigen ein voll getweakter Phenom mit den richtigen Bioseinstellungen ist bei
3 Ghz jedem Intel Quad bei gleichem Tackt ebenbürtig bei Mulicore otimierter Software sogar überlegen. Was wir in vielen Userbenches festgestellt haben. In den Mainstream Reviews werden Einstellungen verwendet die nie ein User der Erfahrung mit dem zugegeben sehr komplizierten Bios des Phenoms hat verwenden würde. So sieht man auch nie das Leistungsvermögen der Phenoms. Ich glaube das ist auch so gewollt. Sonst würden sich die Tester informieren wie das geht mit den Einstellungen.
zb.da
http://www.forumdeluxx.de/forum/showthread.php?t=483829


Es wird ja auch versucht die 4870 X2 schlecht zu reden (Microruckler) ist halt von AMD nicht von Nvidia.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/24/
Denn obwohl es diverse Gerüchte und angebliche Tests des 3D-Beschleunigers oder Untersuchungen mittels zweier Radeon-HD-4850- oder Radeon-HD-4870-Karten gegeben hat, die besagten, dass es bei der Radeon-HD-4800-Serie keine Mikroruckler mehr gibt, stimmten diese schlicht und ergreifend nicht. Durch die generell deutlich höhere Performance der Karte bemerkt man die Mikroruckler jedoch erst in sehr hohen Qualitätseinstellungen (oder je nach Spiel überhaupt nicht mehr)
 
Zuletzt bearbeitet:
Diese beschäftigt sich z.B. traurigerweise viel lieber damit, bei der 4870 X2 Mikroruckler "nachzuweisen" und klopft sich dafür selbst auf die Schulter.

In Anbetracht der vielbeschworenen Gerüchte im voraus, dass diese ausgemerzt sein, ist doch eine Untersuchung dieser Problematik absolut gerechtfertigt? Ist ja nicht so, dass dies bei der Konkurrenz, die mit gleichen Problemen kämpft, unter den Tisch gekehrt würde - das die Karte die Karte davon abgesehen die schnellste auf dem Markt ist, zweifelt ansonsten auch keiner an.
 
MR sind nicht weg, aber mit einem neueren Treiber wurden sie wohl ziemlich entschärft (lese oft im X2 Thread;))
 
Zuletzt bearbeitet:
In Anbetracht der vielbeschworenen Gerüchte im voraus, dass diese ausgemerzt sein, ist doch eine Untersuchung dieser Problematik absolut gerechtfertigt? Ist ja nicht so, dass dies bei der Konkurrenz, die mit gleichen Problemen kämpft, unter den Tisch gekehrt würde - das die Karte die Karte davon abgesehen die schnellste auf dem Markt ist, zweifelt ansonsten auch keiner an.
Das sie die schnellste ist kan ja keiner anzweifeln aber nen Hype um die Microruckler
die eh keiner in der Praxis veststellen kann das schaffen sie ja.
Für mich ist das die gleiche Methode wies bei den Phenom Tests gemacht wird.
Intel kohle lässt grüßen.
 
Zuletzt bearbeitet:
Also hiermit simuliert finde ich sie schon recht heftig:

http://www.computerbase.de/download.../grafikkarten/mikroruckler-tester_single-gpu/

Mag sein, dass das in Bereichen von 60fps nicht mehr störend ist - andererseits hätte man dort mit einer Singlekarte dann auch ein flüssiges Bild. So lange die Problematik nicht komplett behoben ist muss wohl jeder selbst entscheiden, ob ihm das den Mehrpreis für einen Tausch einer konstanten gegen eine höhere Bildrate wert ist. Das gilt natürlich für jedes SLI/CF.
 

Was ist mit Mircoruckler?


http://www.pcgameshardware.de/aid,6...r_Sky_-_Mikroruckeln_mit_Geforce-GTX-260-SLI/

Fazit: "Im Rahmen unseres DX10-Benchmark-Tests nahmen wir auch Multi-GPU-Lösungen unter die Lupe. Während die Radeon HD 4870 X2 eine hervorragende Vorstellung ablegt, bei der nur ganz dezentes Mikroruckeln auftritt, zeigt GTX-260-SLI abermals das Problem unregelmäßiger Frameausgabe."

grid_graph237s.png
Also hiermit simuliert finde ich sie schon recht heftig:

http://www.computerbase.de/download.../grafikkarten/mikroruckler-tester_single-gpu/

Mag sein, dass das in Bereichen von 60fps nicht mehr störend ist - andererseits hätte man dort mit einer Singlekarte dann auch ein flüssiges Bild. So lange die Problematik nicht komplett behoben ist muss wohl jeder selbst entscheiden, ob ihm das den Mehrpreis für einen Tausch einer konstanten gegen eine höhere Bildrate wert ist. Das gilt natürlich für jedes SLI/CF.
Toll simulierte MR... das ist absolut nicht aussagekräftig, außer dass man sieht wie sich extreme MR auswirken können, was nicht heißt dass das nun auf Grafikkarte xy zutrifft;)
 
Also hiermit simuliert finde ich sie schon recht heftig:

http://www.computerbase.de/download.../grafikkarten/mikroruckler-tester_single-gpu/

Mag sein, dass das in Bereichen von 60fps nicht mehr störend ist - andererseits hätte man dort mit einer Singlekarte dann auch ein flüssiges Bild. So lange die Problematik nicht komplett behoben ist muss wohl jeder selbst entscheiden, ob ihm das den Mehrpreis für einen Tausch einer konstanten gegen eine höhere Bildrate wert ist. Das gilt natürlich für jedes SLI/CF.

Was soll den der Singlegpu Test da?
Was soll der beweisen.
Hab gestern ne 4870 x2 eingebaut von Microrucklern nix zu mercken wahrscheilich zu schnell das man was merkt. Das Teil kann man nur empfehlen für 420 Teuronen so ne
Leistung echt der Hammer.
 
Zuletzt bearbeitet:
Das Programm macht genau das, was bei Mikrorucklern auftritt: Es lässt die Frametimes schwanken, was trotz gleicher FPS ein "zäheres" oder "unrundes" Spielgefühl produziert. In allen Spielen tritt das Problem offensichtlich nicht auf, zudem sind Framerates von maximal 30-40fps von Nöten.
So lange es aber diese Fälle noch gibt, sollte man vor dem Kauf eines Multi-GPU Systemes aber auf jeden Fall zunächst selbst testen, ob man damit leben kann:

http://www.computerbase.de/artikel/...hd_4870_x2/24/#abschnitt_problem_mikroruckler
 
Das Programm macht genau das, was bei Mikrorucklern auftritt: Es lässt die Frametimes schwanken, was trotz gleicher FPS ein "zäheres" oder "unrundes" Spielgefühl produziert. In allen Spielen tritt das Problem offensichtlich nicht auf, zudem sind Framerates von maximal 30-40fps von Nöten.
So lange es aber diese Fälle noch gibt, sollte man vor dem Kauf eines Multi-GPU Systemes aber auf jeden Fall zunächst selbst testen, ob man damit leben kann:

http://www.computerbase.de/artikel/...hd_4870_x2/24/#abschnitt_problem_mikroruckler
Funzt halt nur mit einer GPU bei der X2 schwarzer bildschirm also nix geht.
 
Ich spreche ja normalerweise nicht von panikmache im zusammenhang mit MR, aber simulierte MR sind genau das.
Ich kann auch einen langsamen Quad-Prozessor simulieren -> Sinn? -> Null...
 
Hmm... Kannst ja mal versuchen, CF vor dem Start zu deaktivieren. Dann müsstest du oben links in dem schwarzen Fenster Schrift haben, dort einfach mal die 1 und danach Enter drücken.

Ich spreche ja normalerweise nicht von panikmache im zusammenhang mit MR, aber simulierte MR sind genau das.
Ich kann auch einen langsamen Quad-Prozessor simulieren -> Sinn? -> Null...

Inwiefern sind über Frametimes simulierte MR etwas anderes, als reale? Technisch ist die Ursache ja geradezu simpel und problemlos künstlich implementierbar, das Programm damit keine krumme Emulation sondern eine 1:1 Simulation.
 
Zuletzt bearbeitet:
Hmm OK ärgerlich, ich kannte das nur von Nvidiamodellen wo es diesbzgl. die Möglichkeit im Treiber gab.
 
Na ja, MR sind total überbewertet, da es in den Bereichen, in denen eine X2 operiert einfach nur egal ist :d. Das werden einige auch niemals begreifen (oder begreifen wollen?). Immerhin findet bei Grafikkarten noch ein halbwegs fairer Wettbewerb auf den Reviewseiten statt, während man das bei den CPUs nicht behaupten kann.
Irgendwie ist es witzig, wie gewisse Leute es verstehen, den Thread zu zerstören. Ich seh da immer nur ein ignoriertes Posting und dann 2-3 Aufregerpostings hinterher. Tut euch selber einen gefallen: Nutzt die Ignoreliste, ist besser für die Nerven und für gewisse Flamer wird es uninteressant.
 
Zuletzt bearbeitet:
Das dort offensichtlich Mist gemessen wurde, wenn Q6600 und QX9770 auf einer Höhe liegen, ohne das ein GPU-Limit vorliegt, ist dir doch wohl bewusst? :lol: Über den Test wurde hier schoneinmal diskutiert mit dem Ergebnis, dass falsche Werte ermittelt wurden, speziell auf der gerade von dir verlinkten Seite. Das hat im übrigen rein gar nichts mit der Relation Phenom - C2D zu tun.
 
Zuletzt bearbeitet:
Das dort offensichtlich Mist gemessen wurde, wenn Q6600 und QX9770 auf einer Höhe liegen, ohne das ein GPU-Limit vorliegt, ist dir doch wohl bewusst? :lol: Über den Test wurde hier schoneinmal diskutiert mit dem Ergebnis, dass falsche Werte ermittelt wurden, speziell auf der gerade von dir verlinkten Seite. Das hat im übrigen rein gar nichts mit der Relation Phenom - C2D zu tun.
Klar ist immer mist wenn der Phenom die Intel Quads nassmacht kennt man von Dir ja.
 
Klar ist immer mist wenn der Phenom die Intel Quads nassmacht kennt man von Dir ja.

Bleib doch bitte bei der technischen Sicht, es ist schlicht unsinnig, dass dort z.B. in Crysis mit einer Erhöhung (!) der Auflösung die FPS um 100% steigen (!). Ich denke du besitzt genügend technischen Sachverstand, um dies zu erkennen.

http://www.overclockersclub.com/reviews/intel_q9450/8.htm

Gleiches gilt z.B. für den zuerst verlinkten CoH Bench, der auf der Intelplattform klar im GPU-Limit hing, beim Phenom hingegen klar nicht. Das ist technisch schlicht unmöglich.
 
Zuletzt bearbeitet:
Beim WIC Bench ists auch so das bei höhere auflösung die Frames steigen mit meinem
@ 3,2 Ghz getestet warum weis ich auch nicht.

Resolution: 1024*768
Detail Level: Very High
Average fps: 56
Min fps: 27
Max fps: 86

Resolution: 1152*864
Detail Level: Very High
Average fps: 62
Min fps: 29
Max fps: 96
 
Zuletzt bearbeitet:
das ist schwer vorstellbar, war bei mir mit Single GPU nicht der fall

Vielleicht hats was mit Crossfire zu tun? effektiver bei höheren Auflösungen? kp
 
Beim WIC Bench ists auch so das bei höhere auflösung die Frames steigen mit meinem
@ 3,2 Ghz getestet warum weis ich auch nicht.

Resolution: 1024*768
Detail Level: Very High
Average fps: 56
Min fps: 27
Max fps: 86

Resolution: 1152*864
Detail Level: Very High
Average fps: 62
Min fps: 29
Max fps: 96



Um knapp 100%? Sieht nicht so aus ;) Unterschiede dieser Größenordnung sind im Falle von WiC Messschwankungen, die hatte ich auch (was z.B. CB veranlasst hat, nicht mit dem integriertem Bench zu testen).
 
Zuletzt bearbeitet:
Beim Overclockersclub ist offensichtlich ein Ergebnis inkorrekt, aber auch ansonsten kann der Phenom gut mithalten und ist auf Augenhöhe.

Sagt keiner was zu dem Usertest? Bestätigt meine Erfahrungen. Wenn man dann noch die Preise einrechnet, dann sollten schon mehr Phenoms verkauft werden.

http://www.forumdeluxx.de/forum/show...=479512&page=1
 
Beim Overclockersclub ist offensichtlich ein Ergebnis inkorrekt, aber auch ansonsten kann der Phenom gut mithalten und ist auf Augenhöhe.

Sagt keiner was zu dem Usertest? Bestätigt meine Erfahrungen. Wenn man dann noch die Preise einrechnet, dann sollten schon mehr Phenoms verkauft werden.

http://www.forumdeluxx.de/forum/show...=479512&page=1
Kann schon sein das da da was inkorrekt ist bei vielen andern benches schneidet der Phenom aber auch so ab das was nicht korrekt sein kann wenn man die Userbenches anschaut.
Ich sehs ja bei meinem auch egal was ich benche.
 
Zuletzt bearbeitet:
Die Diskussion der Ergebnisse (schau mal auf das Datum) hatten wir schon im Thread selbst. Dabei kam u.a. heraus, dass zum einen die Szenen nicht identisch waren (extremst: CoD4), zum anderen auch hier wieder unsinnige Unterschiede trotz GPU-Limits auftraten. Wenn die Grafikkarte limitiert, kann keine CPU schneller sein als eine andere ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh