Topic ist: kann man die Leistung einer Top-Karte mit einer schwachen CPU nutzen? Einen besseren Einblick als meine Grafik gibt, wird man kaum finden.
Was hier geschrieben wurde, bestätigt doch wohl, daß meine Karte ausserordentlich schnell ist. In diversen Spielen kann man das gut nutzen, wie die Grafik zeigt. QED. Natürlich nicht in allen.
Mal ehrlich, wie kommst du mit deiner Hardware auf solche Werte?
Crysis und DiRT laufen bei mir sehr gut, weil sie fast nur von der Grafikkarte abhängen. Daraus kann man nicht schliessen, daß alles so läuft. Oblivion ist mit meiner CPU und DDR400 nur in Dungeons oder im Wald zu ertragen, aber nicht in den Städten.
Ich zitiere: ..."Framerates bei 1280*1024, alles auf Ultra (DiRT), alles auf high (Crysis, XP), bei 8xAA, 16xAF. BTW alles mit VSync"...
Ist ja nicht so, daß niemand in meiner Bekanntschaft eine HD 3870 hat.. Aber keiner kann nachvollziehen, wie du bei solchen Settings noch flüssig spielen kannst..
Da bei mir fast alles CPU-limitiert ist, macht es kaum einen Unterschied, ob ich mit oder ohne AA und AF spiele. VSync muß ich zuschalten, weil mir sonst Tearing das Bild zerreisst.
Zwischen 777/1126 MHz und 864/1251 MHz liegen Welten.
Die Grafik, die ich gepostet hab, zeigt bei 80% GPU-Last ca. 25 fps, bei 100% aber schon 40 fps. 80% habe ich, wo die CPU limitiert. Bei 80% habe ich etwa die Leistung der kleinsten HD 3870, bei 60% etwa die der HD 3850.
Übertaktung der GPU ohne Übertaktung des RAMs bringt kaum Vorteile, wer aber beides genauso taktet, müßte auch die gleiche Leistung haben.
Crysis läuft bei mir flüssig, aber nicht mit den gleichen fps wie DiRT. Jedenfalls nicht mit 864/1251, aber das habe ich ja auch nie behauptet.
Gesagt habe ich: Ich habe die Bandbreite, und ich habe mehr GFlops als eine Ultra hat. Ist ja auch kein 120-Euro-Modell.
EDIT: Ich rechne es jetzt mal vor:
Eine X2 hat die Leistung zweier HD3850.
Eine HD 3850 hat 80% der Leistung einer HD 3870.
Eine X2 hat 160% der Leistung einer HD 3870.
Eine HD 3870 hat damit 62,5% (100/160*100) der Leistung einer X2.
20% Overclocking darauf sind 75% (62,5+12,5) der Leistung einer X2.
Da die X2 anerkanntermaßen über 30% vor der Ultra liegt,
liegt eine HD 3870 bei +20% Takt auf GPU und RAM definitiv vor der Ultra.
Wer was anderes glaubt, hat Probleme mit dem Grundrechnen.
Ihr macht hier einen Höllenzirkus ohne jede Grundlage.
Den einzigen Vorteil, den ich der 3870 zusprechen kann ist daß sie teilweise höhere min. FPS in einigen Games hat..
Bei 777 MHz GPU-Takt? Bei 851 MHz? Bei 904 MHz? Bei über 1200 MHz Speichertakt? Über 1300 MHz? Über 1400 MHz? Bist Du Dir sicher, daß Du weißt, worüber Du sprichst?
Die Grafik zeigt einen Anstieg von 25 fps auf 40 fps bei 20% mehr GPU-Last. Das entspricht 20% mehr Takt.
Es gibt eben nicht
die HD 3870, sondern verschiedene Modelle, deren Spawas andere Grenzen setzen, deren RAM anders bestückt ist, die mit verschiedenen Spannungen arbeiten, mit verschiedenen Kühlern bestückt sind, verschieden getaktet, und eben auch unterschiedliche Preise haben.
CB bencht ja auch nur die schwächsten Modelle, die der Markt hergibt. Im Sammelthread hat erst einer gefragt, was von dieser Turbo mit GDDR3 zu halten ist. Ich hab noch versucht, ihn zu warnen... heute wundert er sich, daß er nicht über 12k im 3dmark06 kommt. 3850-Niveau halt. Nicht schlecht, aber meilenweit von Karten entfernt, die man auf 15-16K jagen kann. Ich hab mich hier schon immer bemüht, auf die Unterschiede hinzuweisen*, aber man redet gegen taube Ohren, weil Leute wie dieser Andermahr mit ihrem Geschwätz alles übertönen.
Ich hab mal danach gegoogelt und hab einige Threads gefunden, wo über diese Schwierigkeiten in DIRT geklagt wird. Jedoch sind davon sowohl Nvidia als auch ATI- Besitzer betroffen, die meiner Meinung nach ihren Rechner nicht im Griff haben, ihre Hardware nicht einschätzen können und/oder nicht fähig sind ihr System richtig einzustellen.
Ich habe die Kundenrezensionen bei Amazon durchstöbert, hier im Luxx gelesen, und auch anderswo. Danach ist mein hier gepostetes Ergebnis schon recht ordentlich. Um so besser kann es illustrieren, daß eine Top-Karte in einem schwachen System einiges bringen kann.
Schwaches System heißt nicht low end und nicht low cost. Die Kiste hat mich vor 22 Monaten etwas über 1000,- gekostet. Ohne Monitor, ohne Windows. Auch wenn das nur ein P4D ist, läuft er immerhin mit 3,2 GHz. Für DiRT, Crysis oder Two Worlds reicht das gerade so eben, mit maximalen Settings bei 1280*1024 uneingeschränkt flüssig zu spielen. Für Oblivion z. B. genügt das nicht. Das ist, was die Leute wissen wollen.
Falls du zum Topic nix konstruktives beitragen kannst,
Noch bin ich hier der einzige Teilnehmer im Thread, der überhaupt etwas beigetragen hat. Das wollen wir mal nicht vergessen.
Wer wissen will, ob sich eine High End Karte lohnt, will keine Sprüche, keine Theorien, sondern sehen, wie ein problematisches Spiel unter solchen Bedingungen läuft, und was dabei eine Rolle spielt. Siehe oben.
würde ich dir empfehlen deine unhaltbaren Äußerungen hier sein zu lassen
Lass die Unverschämtheiten. Von mir ist hier jedes Wort belegt. Soweit ich erklärt habe, was es mit meiner Karte auf sich hat, war das nötig, damit nicht die Fanboys behaupten, daß diese Karte nur Midrange sei, und die Grafik nicht beweise, daß eine GTX im selben System Sinn hätte.
Doch, hätte sie, denn sie liegt ja in etwa in der gleichen Leistungsklasse. D. h. übertaktet auf Ultra-Niveau, und damit am oberen Ende der Einzel-GPU-Karten wie meine eben auch.
...deine Fanboy- Kollegen und du...
Geh mal zum Arzt! Die Karte ist nicht etwa zufällig so schnell, sondern weil ich lange gesucht hab, um bei unbegrenztem Budget das Beste zu kaufen, das der Markt gerade hergibt. Ich hätte fürs gleiche Geld mit weniger Mühe 'ne GTX schiessen können, die DiRT nicht mit maximalen Schatten ruckelfrei stemmt, und dabei weder lautlos noch 40 Grad kühl bleibt.
Crysis & Stalker benche ich nächste Woche vielleicht mal, wenn ich dazu komme. Sonst könnte ich mit TW dienen. Hab keine große Spielesammlung hier.
* ATI ist auch nicht sehr fair, was Modelle und ihre Unterschiede angeht. Ich bin absolut kein Fan. AMD ist für mich sowieso ein Sauladen, und Sapphire als Firma ganz besonders.