Wird AMD permanent gegenüber Intel in Reviews benachteiligt? [5]

Status
Für weitere Antworten geschlossen.
@astra 1.8

Bei 1600 meine ich mich zu erinnern das 133 BCLK war, erst bei 1800 schaltete der 1366 auf 150 BCLK.
Kann aber falsch liegenm ist schon eine weile her, Wenn ich falsch liege dann Sorry.

beim s1366 weiss ich das nicht, aber beim s1156 ist das so, wie ich es schilderte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eigentlich habe ich momentan kaum Zeit, aber etwas muss ich bei der Gelegenheit erneut ansprechen, weil es gerade einfach zu offensichtlich von xbitlabs ist und deswegen noch mal erwähnt werden sollte.

Seit Jahren ärgere ich mich über Reviews, in denen Intel-Systeme seit dem Core2 mit sparsamen Mittelklasse-Boards mit 1x16 PCIe Lanes (P35, P45, usw.) und Phasenabschaltung gegen AMD-Systeme mit stromhungrigen High-End-Boards mit 2x16 PCIe Lanes (590SLi, 790FX) und ohne Phasenabschaltung verglichen/getestet werden. Dabei ist mir neben Anandtech, HT4U etc. INSBESONDERE immer wieder xbitlabs aufgefallen, die massenweise solche Tests durchführten (hier ein Auszug):

http://www.xbitlabs.com/articles/cpu/display/core2duo-e7200_3.html#sect0
http://www.xbitlabs.com/articles/cpu/display/phenom-x3-8750_4.html#sect0
http://www.xbitlabs.com/articles/cpu/display/core2duo-e7300-pdc-e5200_4.html#sect0
http://www.xbitlabs.com/articles/cpu/display/athlon-x2-7750_3.html#sect0
http://www.xbitlabs.com/articles/cpu/display/phenom-ii-x4-810_6.html#sect0
http://www.xbitlabs.com/articles/cpu/display/core-i7-870_7.html#sect0
http://www.xbitlabs.com/articles/cpu/display/phenom-ii-x4-965_3.html#sect0
http://www.xbitlabs.com/articles/cpu/display/phenom-ii-x4-965-c3_5.html#sect0
http://www.xbitlabs.com/articles/cpu/display/athlon-ii-x3-435_3.html#sect0

Es ist schier unglaublich, dass xbitlabs unzählige mal dort ein stromhungrige AMD High-End-Board ala 790FX (ASUS, DFI, Gigabyte) mit 2 x 16PCIe Lanes verwendet wo es völlig unnötig war, da ohnehin nur eine Grafikkarte zum Einsatz kam und zudem teilweise lediglich sparsamere Mittelklasse-CPU getestes wurden.

Aber ausgerechnet in dem Test, in dem ein Multi-GPU-Gespann (Crossfire) zum Einsatz kommt und ein AMD High-End-Board endlich Sinn ergeben würde, nutzt xbitlabs nun ein 790GX Mittelklasse-Board mit 1 x16 PCIe bzw. 2 x 8 PCIe Lanes! Das ist so himmelschreiend dämlich dass einem die Spucke wegbleibt. Dass auf der Intelseite zum ersten Mal ein X48 statt wie zig mal zuvor ein P35 oder P45 Board verwendet wird, setzt dem ganzen noch die Krone auf.

Fazit:

Bringen High-End-Boards keinen Vorteil, sondern lediglich Verbrauchsnachteile mit sich, werden auf Intel-Seite sparsame Mittelklasseboards verwendet und auf AMD-Seite unnützt hungrige High-End-Boards.

Bringen hungrige High-End-Boards bei Multi-GPU Konfigs (ausnahmsweise) einen Vorteil und ist der Verbrauchsnachteil zu vernachlässigen bzw. relativiert sich wegen der Grakas, wird auf Intel-Seite überraschend ein High-End-Board (X48) verwendet und auf AMD-Seite unlogischerweise ein Mittelklasse-Board (790GX).
 
Zuletzt bearbeitet:
Ob nun hier und da etwas mehr oder weniger Takt vorhanden war ist doch bei diesen Review völlig egal. Die große Benachteiligung ist offensichtlich und da macht es keinen Sinn bis ins kleinste Detail da noch weiter zu stochern weil es diese Benachteiligung nicht einmal im Ansatz abschwächen könnte.

Es bleibt einfach DDR2 900 CL5 2T - 2x5870 @2x8 Lanes für das AMD System, während DDR3 1600 CL7 1T - 2x5870 @2x16 Lanes für das Intel System anstehen. Was will man da noch sagen?
Wenn man für das AMD System auch DDR3 1600 oder wenigstens DDR3 1333 und ein FX Brett genommen hätte, würde man über die Werte sinnvoll diskutieren können.

Das was che new schildert sagt doch auch schon alles aus. Einfach nur billig.
 
Zuletzt bearbeitet:
Du kannst mit DDR2 vs. DDR3 keine zweistelligen Prozentwerte wegdiskutieren - und die PCIe-Lanes brauchen wir im CPU-Limit nicht weiter beachten. Also, wohin soll das führen?
 
Du kannst mit DDR2 vs. DDR3 keine zweistelligen Prozentwerte wegdiskutieren - und die PCIe-Lanes brauchen wir im CPU-Limit nicht weiter beachten. Also, wohin soll das führen?

primär geht es hier nicht um die leistung der cpu´s, hier ist der i5 bzw i7 dem phenom2 klar überlegen, es geht ja darum, dass die testbedingungen ungleich sind/ waren und das zum teil deutlichst!
 
primär geht es hier nicht um die leistung der cpu´s, hier ist der i5 bzw i7 dem phenom2 klar überlegen, es geht ja darum, dass die testbedingungen ungleich sind/ waren und das zum teil deutlichst!

Das versteh ich voll und ganz, hab ja auch geschrieben, die Kritik ist grundsätzlich absolut korrekt. Aber: Die Ergebnisse lassen sich damit nicht wegdiskutieren, den GPU-limitierten Werten nach hat die 8x-PCIe Anbindung nicht gebremst und die Differenz von DDR2 zu DDR3 liegt in einer völlig anderen Größenordnung.

Also: Schelte für die Unsauberkeiten. Aber die Grundaussage der Testergebnisse ficht das nicht an.
 
Zuletzt bearbeitet:
Eigentlich habe ich momentan kaum Zeit, aber etwas muss ich bei der Gelegenheit erneut ansprechen, weil es gerade einfach zu offensichtlich von xbitlabs ist und deswegen noch mal erwähnt werden sollte.[...]
Gut das du dir das (noch)mal so genau angeschaut hast. Das scheint bei dieser Seite echt Methode zu sein.

Aber die Ausrede "Ihr wolltet ja immer sparsame Boards für AMD" steht ja direkt in den Startlöchern.

Also ich glaube dieser Test vereinigt alle Fehler und Unstimmigkeiten die bisher in diesem Thread moniert wurden.
 
Die Sache ist doch die, dass sich das alles summiert. Hier ein paar prozent und dort noch ein paar..., deswegen finde ich eben nicht dass man solche Dinge vernachlässigen kann!

Ich möchte mal auf folgendes Review verweisen ( leider iwie das einzige? wo man so einen vergleich finden kann ):
http://www.tweaktown.com/articles/1472/intel_p45_vs_x48_crossfire_performance/index.html

Also ich weiß ja nich. Wenn schon bei nem läppischen 4850er CF Einbrüche bei 16x/16x vs 8x/8x festzustellen sind, dann solls gerade bei nem 5870CF wurscht sein oder wie?! :hmm:
 
es wurde doch schon gezeigt das man die HD5870 mit sogar nur PCIe 4x laufen lassen kann und nur wenig performanceverlust hat.
Solche Behauptungen interessieren hier aber nicht. Entweder man testet mit gleichen Voraussetzungen auf beiden Seiten oder lässt es bleiben. Alles andere führt zu nichts und ist vollkommen sinnfrei. Was wie viel Prozent wo ausmacht, ist dabei erstmal nebensächlich, da das sowieso niemand genau für den konkreten Anwendungsfall bestimmen kann.
Es geht doch nicht darum, irgendwas wegzudiskutieren. Aber Kleinvieh macht auch Mist. Und durch mehrere Benachteiligungen können auch grössere Unterschiede entstehen. Dann wird Nehalem in ein besseres Licht gerückt, in dem er gar nicht steht. Und genau das ist hier anscheinend wieder mal der Fall, vermutlich sogar vorsätzlich.

bei everest steht fsb, also sage ich fsb
Nein, nenne es bitte Referenztakt, damit unmissverständlich klar ist, worüber wir reden. FSB ist falsch und wenn das ein Programm so anzeigt, sollte uns das nicht interessieren. Bei Intel hast du es schliesslich auch korrekt BCLK genannt, obwohl FSB angezeigt wird. ;)

echt? normalerweise nicht
Doch. Kannst dir ja mal den Durchsatz für verschiedene RAM Module anschauen. Gibt genügend Tools, die sowas testen. ;)

Und nicht vergessen.
Bei 3,4GHZ hat der Intel 200 BCLK und der Phenom 224 HT. Die haben sich viel mühe gegeben AMD zu benachteiligen.
Jup, der HT-Takt beeinflusst die Performance des Phenom effektiv praktisch nicht. Bei Intel hingegen, IIRC, muss der Uncore Takt mindestens doppelt so hoch sein wie der Speichertakt. Mit anderen Worten, der L3 muss beim Nehalem auch ordentlich übertaktet worden sein, beim Phenom recht wahrscheinlich gar nicht.
 
Zuletzt bearbeitet:
Also wenn das eine Standard HD4850 war, hatte diese nur 512MB Speicher und ist an diesen elendig verreckt - was PCIe-Differenzen schoneinmal grundsätzlich pusht.

Eines sieht man in diesem Test aber sehr schön, genau das was ich angesprochen hatte: Differenzen werden maximal, wenn wir uns in höchsten Qualitätssettings im GPU-Limit befinden. Genau hier sind bei XBit aber keine Unterschiede, ergo keine Auswirkungen der PCIe-Anbindung, zu beobachten. ;)
 
eben, wenn xbitlabs nochmal mit AM3 Board testen würde und ähnliche Ergebnisse folgen fällt hier wieder jedem die Kinnlade runter um dann kurz darauf Schiebung zu brüllen

wenn man dann sowas postet

re5.png


also AM3 System dann ist es auch wieder nicht recht weil man nicht mehr als medium Quality eingestellt hat um nicht ins GPU Limit zu laufen

ist aber interessant wie gut da der C2Q da steht von der Pro Mhz Leistung
 
Zuletzt bearbeitet:
Ich find den Thread hier zwar ganz gut, aber ein paar Sachen müssten auch erwähnt werden.

Gerade was den RAM anbetrifft.
Intel schaut schon immer, neue "viel versprechende" Technologien als erster einzuführen.

Dann freuen sich doch gleiche mehrere grosse Firmen.
Kingston, Corsair, GEIL etc. spendet den dicksten Ram den sie finden, new Products on the spotlight!

Daher kommt es oft vor, das mann im gesponserten Intel Testsystem auch ne richtig fette Ausstattung bekommt.

Zudem gibt es meiner Meinung nach einfach zu wenig gute Boards für AMD CPUs.

Bei Intel nimmt sich immer ein Hersteller die "Frechheit" ein 300€ Board zu bauen. Das wird dann mit offenen Händen gesponsert, so wie der RAM.
Man bringt neue Technologien auf den Markt, die müssen überzeugen. Was ist das doch für eine Blamage, als AMD zuerst sagte, wir warten noch mit DDr3, im Moment bringt das keine Vorteile.
Nun, manipuliert man halt die Tests. Super Werte "dank DDR3" heisst es. Was denkt ihr wie viele bekannte von mir sofort geil auf den neuen RAM waren?

Warum soll ein Autohersteller seinen kleinsten Wagen sponsern, wenn er doch mit dem fetten 600 PS Monster die Leute ins sabbern bringt?

Vielleicht ist das ein sehr wahrer Grund warum oft mit ungleichen Karten gebencht wird!?
 
Zuletzt bearbeitet:
@temnozor

Warum stellst du immer Screens in den Raum ohne Quellenangabe? Hast du was zu verbergen?
Kannst du auch anständig diskutieren oder ist Polemik deine Triebfeder?
 
OK, mr.dude, du kannst wohl nicht mit offtopic aufhören?

Nein, nenne es bitte Referenztakt, damit unmissverständlich klar ist, worüber wir reden. FSB ist falsch und wenn das ein Programm so anzeigt, sollte uns das nicht interessieren. Bei Intel hast du es schliesslich auch korrekt BCLK genannt, obwohl FSB angezeigt wird. ;)

es hat jeder verstanden, auch du.

Doch. Kannst dir ja mal den Durchsatz für verschiedene RAM Module anschauen. Gibt genügend Tools, die sowas testen. ;)

der durchsatz ist aber nur theoretisch, praktisch beeinflusst das aber nur minimal die ergebnisse.

Jup, der HT-Takt beeinflusst die Performance des Phenom effektiv praktisch nicht. Bei Intel hingegen, IIRC, muss der Uncore Takt mindestens doppelt so hoch sein wie der Speichertakt. Mit anderen Worten, der L3 muss beim Nehalem auch ordentlich übertaktet worden sein, beim Phenom recht wahrscheinlich gar nicht.

dann ist der standard getaktete i7 920 aber immer noch ein guter vergleichswert, denn der hat den standard bclk von 133mhz
 
So ein neuer Test kann endlich die Gemüter auf der einen Seite wieder beruhigen und auf der anderen Seite aufwühlen.

Gleiche Testsysteme in beiden Reviews. Gleiche Hardware und W7 64bit.

Test 23.Dez
Performancerating Spiele (1680x1050)
i5 750 mit Turbo an 3% hinter X4 956

Test 4.Jan
Performancerating Spiele (1680x1050)
i5 750 mit Turbo an 0,4% vor dem X4 956

Jetzt stimmt wieder die Tabelle für die eine Seite.

Nachtrag:
Es wurde doch was verändert. Der ANNO 1404 Bench wurde nicht in die Wertung mit aufgenommen
Quelle
Wir stehen zu unserem ursprünglich gewählten Test und behalten genau das Ergebnis, das aufzeigt, dass die Intel-Prozessoren auch in Anno 1404 schlechter dastehen können als dies viele andere Seiten vermitteln. Dennoch können wir die weiteren Tests nicht völlig beiseite schieben, weshalb wir alle ermittelten Ergebnisse von Anno 1404 aus unserem Gesamtrating ausschließen.
 
Zuletzt bearbeitet:
Man sollte sich am besten auch mal die Hintergründe durchlesen. :) CB hat 3 weitere Benches in Anno gefahren, welche allesamt ein umgekehrtes Ergebnis wie das ursprüngliche Savegame zeigten. Was hätte man nun machen können?

1. Nichts.
2. Alle 4 Savegames mitteln
3. Den aus der Reihe tanzenden Fall ausschließen und nur die 3 neuen Benches nehmen
4. Anno bis zu weiterer Klärung aus dem Rating ausklammern.

Es ist Punkt 4 geworden, wohl die diplomatischste Wahl die zu treffen war. Da sowohl die PCGH als auch andere Seiten eher die Ergebnisse der neuen Savegames bestätigen, und das für nahezu jede Stadtgröße, denke ich immernoch, dass die ursprünglichen Werte von CB einem Fehler aufsaßen. Das lässt sich nun aber in Ruhe nachprüfen.
 
Man sollte sich am besten auch mal die Hintergründe durchlesen. :) CB hat 3 weitere Benches in Anno gefahren, welche allesamt ein umgekehrtes Ergebnis wie das ursprüngliche Savegame zeigten. Was hätte man nun machen können?

1. Nichts.
2. Alle 4 Savegames mitteln
3. Den aus der Reihe tanzenden Fall ausschließen und nur die 3 neuen Benches nehmen
4. Anno bis zu weiterer Klärung aus dem Rating ausklammern.

Es ist Punkt 4 geworden, wohl die diplomatischste Wahl die zu treffen war. Da sowohl die PCGH als auch andere Seiten eher die Ergebnisse der neuen Savegames bestätigen, und das für nahezu jede Stadtgröße, denke ich immernoch, dass die ursprünglichen Werte von CB einem Fehler aufsaßen. Das lässt sich nun aber in Ruhe nachprüfen.

vielleicht kannst du dich an den worte von "volker" erinnern....bei Anno lassen sich savegame basteln, wo je nach wunsch einmal intel, oder amd vorne ist....

[QUOTESchuld daran ist vor allem auch unser gewähltes Szenario, bei dem der PC einfach eine Menge zu tun hat. Drei Dutzend Schifffahrtsrouten mit unzähligen Schiffen, viele, viele Betriebe, die die Grundversorgung der 82.000 Einwohner sicherstellen, und alles weitere zerren an der Performance selbst der schnellsten Prozessoren. Startet man eine deutlich kleinere Karte wie zum Beispiel Mission 1 der Kampagne sind durchschnittliche Zahlen von bis zu 160 Bildern pro Sekunde für den Core i7-870 und maximal 135 FPS für das Flaggschiff von AMD kein Problem. Würde man also dieses Szenario wählen, käme Intel und nicht AMD als Sieger heraus.][/QUOTE]
 
Was aber sehr verwunderlich ist, da es keine reproduzierbare Abhängigkeit zu geben scheint. Bei Hardware.fr und PCGH kamen ebenfalls extrem große Savegames zum Einsatz, bei welchen der PII kaum über 30fps kommt und deutlich zurück liegt - an der Größe scheint es also nicht zu liegen. Und dann so extreme Schwankungen? Sehr sehr merkwürdig, zumal noch keine andere Seite ein ähnliches Ergebnis wie das erste CB-Save produziert hat. Letztlich kann man hier wohl nur sehr viele verschiedene Saves für einen sinnvollen Wert mitteln.
 
Wenn die CB zu gunsten von AMD Fehler gemacht hat, dann gehört das natürlich untersucht und Notfalls korrigiert. Ich frage mich zwar warum das ganze dann Online gestellt hat, aber Fehler passieren.
Schließlich wollen wir Faire Bedingungen auf beiden Seiten.

@temnozor

Ist es zu viel Verlangt auch die Quelle anzugeben, wennst ein Ergebnis postest? Wennst dich schon an einer Diskussion beteiligst, dann poste auch so das man das ganze Nachvollziehen kann.
Wenn du das nicht kannst, dann enthalte dich dieser Diskussion ;)
 
Wenn die CB zu gunsten von AMD Fehler gemacht hat, dann gehört das natürlich untersucht und Notfalls korrigiert. Ich frage mich zwar warum das ganze dann Online gestellt hat, aber Fehler passieren.
Schließlich wollen wir Faire Bedingungen auf beiden Seiten.


Letztens hatten die doch in ihrem Grafikkarten Test auch zugunsten AMDs einen Fehler gemacht. Nachdem nachgestochert wurde, ist der Fehler korrigiert wurden. Aber man kann ja als außenstehender nicht alles nachprüfen, nur die sehr sonderlichen Werte anprangern.
 
Nachtrag:
Es wurde doch was verändert. Der ANNO 1404 Bench wurde nicht in die Wertung mit aufgenommen

Oh gott die letzte Bastion des verzweifelten AMD Kämpfers ist nun gefallen :( da CB wohl doch ein Einsehen hatte das sie mit ihrer schwammigen Anno1404 Messung ziemlich allein auf weiter Flur dastanden.

@temnozor

Ist es zu viel Verlangt auch die Quelle anzugeben, wennst ein Ergebnis postest? Wennst dich schon an einer Diskussion beteiligst, dann poste auch so das man das ganze Nachvollziehen kann.
Wenn du das nicht kannst, dann enthalte dich dieser Diskussion ;)

Ist es zuviel verlangt sich einfach den Bildlink anzugucken aus dem geht die Quelle eindeutig hervor...
Also nochmal für dich:

Quelle: XBitlabs Testlink siehe Bildlink
 
Ein weiterer schöner Test.

Man nehme einen i5 661 ~175€ und einen E8600 ~212€ und bencht diese CPUs gegen X2 240e ~63€ wohl deswegen e Modell, damit der wenigstens ~63€ anstatt 240 ohne e ~43€ kostet. und einen X2 550 ~72€.

Dazu packt man dann ein H55 Intel Brett ohne RAID ~95€ und ein 785G AMD Brett ~72€

Dann macht man Tests und verfasst ein Fazit, welches wohl Intel $ in die Kasse spülen sollte. Was anderes fällt einem dazu nicht ein.

Tomshardware
Es scheint fast so, dass Intel dieses Mal niemand in die Parade fährt. Die Einführung der Nehalem-Architektur mit dem Core i7 auf dem Sockel LGA 1366 sichert Intel das Spitzen-Segment. Der Core 2 Duo ist zwar teuer, dominiert allerdings den Mainstream. Die kürzlich vorgestellte LGA 1156-Plattform kümmert sich um die aktuellen und zukünftigen Systeme von Anwendern mit normalem Budget und dem Upper Mainstream. Die neuen Core i5- und Core i3-Prozessoren dürften sich für AMD zum reinen Albtraum entwickeln, da das Unternehmen im Mainstream jetzt noch mehr an Boden verliert: Intel dominiert neben der Performance mittlerweile auch eindeutig die Leistungseffizienz. Für AMD spricht derzeit einzig und allein noch der Preis und ein effektives Preis-Leistungs-Verhältnis. Allerdings lässt sich dieser Faktor auch nicht unbegrenzt melken.

AMD Plattformkosten + CPU
785G ~72 + 63 + 72 = 207€

Intel Plattformkosten + CPU
H55 ~95 + 175 + 212 = 482€

Da kann AMD aber noch lange melken :stupid:
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
na, dann nenn mir mal einen besseren amd dual core als den x2 550 ;)
es geht bei dem test nicht wirklich um den preis, sondern um die dualcores.
und du schreibst es doch selbst im zitat:
Es scheint fast so, dass Intel dieses Mal niemand in die Parade fährt. Die Einführung der Nehalem-Architektur mit dem Core i7 auf dem Sockel LGA 1366 sichert Intel das Spitzen-Segment. Der Core 2 Duo ist zwar teuer, dominiert allerdings den Mainstream. Die kürzlich vorgestellte LGA 1156-Plattform kümmert sich um die aktuellen und zukünftigen Systeme von Anwendern mit normalem Budget und dem Upper Mainstream. Die neuen Core i5- und Core i3-Prozessoren dürften sich für AMD zum reinen Albtraum entwickeln, da das Unternehmen im Mainstream jetzt noch mehr an Boden verliert: Intel dominiert neben der Performance mittlerweile auch eindeutig die Leistungseffizienz. Für AMD spricht derzeit einzig und allein noch der Preis und ein effektives Preis-Leistungs-Verhältnis. Allerdings lässt sich dieser Faktor auch nicht unbegrenzt melken.

AMD Plattformkosten + CPU
785G ~72 + 63 + 72 = 207€

Intel Plattformkosten + CPU
H55 ~95 + 175 + 212 = 482€

:stupid:

ps: wenn du in deiner rechnung schon bei der cpu den E8600 nimmst,d ann solltest du als mainboard auch ein p45 board nehmen
 
Zuletzt bearbeitet:
@astra 1.8
Na dann zieh halt 10€ ab für die alte 775 Plattform :confused:
Beachte doch mal die Rechnung die ich gemacht habe.

Weiter habe ich geschrieben, dass AMD noch lange melken kann. Hast du das absichtlich nicht mit zitiert?

Wie soll bei den Preisen ein i5 zum Albtraum werden? Ich denke du hast das Fazit nicht verstanden. Wie kann Tom`s so eine Behauptung aufstellen wenn Prozessoren verglichen werden die einen Preisunterschied von 103-140€ aufweisen?

Es ist einfach ein absolut falsche Fazit zu dem was du schreibst.
 
Zuletzt bearbeitet:
Lol, CB finde ich lustig, da ist mal AMD schneller und schupps *muss* es ein Bug sein.
Naja immerhin rudern sie dann im nächsten Satz zurück.

Ich frage mich nur, wieso die nicht auf die Cachegrößen kommen. Ist bei den genannten Save-game Dateigrößen nun wirklich nahe liegend.

1 MB Save Game ist witzlos, 7 MB passen auch noch gut in den Cache, aber 16MB sind dann eindeutig zuviel.
Das ganze sind zwar "nur" Savegame Dateigrößen und spiegeln nur grob den tatsächlichen RAM Bedarf wieder, aber man muss kein Prophet sein, um zu ahnen, dass das 16MB Spiel mehr RAM benötigen wird ...

Sah man auch schon schön am Frameverlauf im letzten Test, Intel fängt toll an, und bricht dann ein.

Entweder ist der L2 einfach zu klein, oder ein Prefetcher läuft Amok.

ciao

Alex
 
Schneller? Maximal niedrigere Latenzen. Das ist hier aber wohl eher weniger entscheidend. Gerade bei Multi-GPU Geschichten kommt es auf Bandbreite an. Und da ist man mit DDR3-1600 (7-7-7-14 CR1) klar im Vorteil gegenüber DDR2-892 (5-4-4-12 CR2). Der DDR3 hat hier sogar die bessere Latenz. So viel Inkompetenz ist ja eigentlich schon unfassbar.
Ich hab mal versucht die Sache mit meinen Mitteln und einen Test von Far Cry 2 nachzustellen. Der Performanceunterschied beträgt da gute 5%. Bei dem Test habe ich das MSI GF615M-P33 mit GeForce 6150 Chipsatz, sowie meine HD4870 verwendet. Es wäre also gut möglich, dass der Unterschied mit einem vernünftigen Board und einer oder gar zwei HD5870 noch ein Stück größer ausfällt. Hinzu kommt bei zwei HD5870 noch der Nachteil der PCIe-Lanes...

Übrigens lief die NB beim AMD in dem Test scheinbar bei ~2.4GHz, also doch relativ fair(obwohl grade man bei C3 noch etwas mehr erwarten könnte).
Es ist schier unglaublich, dass xbitlabs unzählige mal dort ein stromhungrige AMD High-End-Board ala 790FX (ASUS, DFI, Gigabyte) mit 2 x 16PCIe Lanes verwendet wo es völlig unnötig war, da ohnehin nur eine Grafikkarte zum Einsatz kam und zudem teilweise lediglich sparsamere Mittelklasse-CPU getestes wurden.

Aber ausgerechnet in dem Test, in dem ein Multi-GPU-Gespann (Crossfire) zum Einsatz kommt und ein AMD High-End-Board endlich Sinn ergeben würde, nutzt xbitlabs nun ein 790GX Mittelklasse-Board mit 1 x16 PCIe bzw. 2 x 8 PCIe Lanes! Das ist so himmelschreiend dämlich dass einem die Spucke wegbleibt. Dass auf der Intelseite zum ersten Mal ein X48 statt wie zig mal zuvor ein P35 oder P45 Board verwendet wird, setzt dem ganzen noch die Krone auf.
Beim aktuellen Test der Clarkdales wird für die AMD-CPUs natürlich wieder ein Gigabyte 790FX verwendet. :fresse: Also dafür sollte man xbitlabs echt einen Preis verleihen...
 
Was aber sehr verwunderlich ist, da es keine reproduzierbare Abhängigkeit zu geben scheint. Bei Hardware.fr und PCGH kamen ebenfalls extrem große Savegames zum Einsatz, bei welchen der PII kaum über 30fps kommt und deutlich zurück liegt - an der Größe scheint es also nicht zu liegen. Und dann so extreme Schwankungen? Sehr sehr merkwürdig, zumal noch keine andere Seite ein ähnliches Ergebnis wie das erste CB-Save produziert hat. Letztlich kann man hier wohl nur sehr viele verschiedene Saves für einen sinnvollen Wert mitteln.


wobei das aber bettler städte sind die rein gar nix mit dem Endgame zu tun haben
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh