CPU vs. Grafikkarte - Optimale Verhältnisse

@ Sophosaurus
Geh mal zum Arzt junge, du leidest unter erheblichen Realitätsverlust, nacher glaubste wahrscheinlich noch den ganzen Müll wo du hier abläßt^^
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Topic ist: kann man die Leistung einer Top-Karte mit einer schwachen CPU nutzen? Einen besseren Einblick als meine Grafik gibt, wird man kaum finden.
Was hier geschrieben wurde, bestätigt doch wohl, daß meine Karte ausserordentlich schnell ist. In diversen Spielen kann man das gut nutzen, wie die Grafik zeigt. QED. Natürlich nicht in allen.
Daß eine schnelle Grafikkarte in GPU- lastigen Games viel mehr bringt als eine schnelle CPU, dürfte längst aus meinen vorherigen Posts hervorgegangen sein. Und ja, der RV670 ist einer der schnellsten erhältlichen Grafikchips auf dem Markt, aber noch lange nicht der schnellste! Findest du nicht, daß einige deiner vorangegangenen Posts etwas übertrieben sind? Ob man deinen Grafiken glauben schenken kann, darüber muß sich jeder sein eigenes Bild machen.

Bei 777 MHz GPU-Takt? Bei 851 MHz? Bei 904 MHz? Bei über 1200 MHz Speichertakt? Über 1300 MHz? Über 1400 MHz? Bist Du Dir sicher, daß Du weißt, worüber Du sprichst?

Die Grafik zeigt einen Anstieg von 25 fps auf 40 fps bei 20% mehr GPU-Last. Das entspricht 20% mehr Takt.

Es gibt eben nicht die HD 3870, sondern verschiedene Modelle, deren Spawas andere Grenzen setzen, deren RAM anders bestückt ist, die mit verschiedenen Spannungen arbeiten, mit verschiedenen Kühlern bestückt sind, verschieden getaktet, und eben auch unterschiedliche Preise haben.
Wenn ich sage "HD 3870" dann meine ich die ganz normale Referenzkarte mit 775MHz GPU Takt und 1125MHz Speichertakt, nicht irgendwelche Exoten, auch nicht übertaktet, denn das kann man auch selbst (nicht daß ich es auf 19" mit meiner momentanen CPU und der 8800 GTS nötig hätte :haha:)

CB bencht ja auch nur die schwächsten Modelle, die der Markt hergibt.
Soviel ich weiß, werden Benches im Netz meistens mit der von mir beschriebenen Referenzkarte durchgeführt. Jedenfalls ist bei seriösen Reviews immer angegeben um welche Karte es sich dabei handelt. Daß die Benches von CB manchmal etwas merkwürdig sind, brauchst du mir nicht zu erzählen.. Aber es gibt ja zum Glück mehrere Quellen :d

Ich habe die Kundenrezensionen bei Amazon durchstöbert, hier im Luxx gelesen, und auch anderswo. Danach ist mein hier gepostetes Ergebnis schon recht ordentlich...
Auf die meisten Kundenrezensionen pfeif ich und Eigenlob stinkt sowieso. :rolleyes:

Noch bin ich hier der einzige Teilnehmer im Thread, der überhaupt etwas beigetragen hat. Das wollen wir mal nicht vergessen.
Och Sophosaurus, jetzt haste mal angefangen auf einem normalen Level zu kommunizieren und jetzt kommt sowas?! Ich verweise auf mein Kommentar oben --> Eigenlob...

Wer wissen will, ob sich eine High End Karte lohnt, will keine Sprüche, keine Theorien, sondern sehen, wie ein problematisches Spiel unter solchen Bedingungen läuft, und was dabei eine Rolle spielt.
Und diese Infos erhält er nätürlich nur von dir, allwissender Sophosaurus :lol:

Lass die Unverschämtheiten. Von mir ist hier jedes Wort belegt. Soweit ich erklärt habe, was es mit meiner Karte auf sich hat, war das nötig, damit nicht die Fanboys behaupten, daß diese Karte nur Midrange sei, und die Grafik nicht beweise, daß eine GTX im selben System Sinn hätte.
Doch, hätte sie, denn sie liegt ja in etwa in der gleichen Leistungsklasse. D. h. übertaktet auf Ultra-Niveau, und damit am oberen Ende der Einzel-GPU-Karten wie meine eben auch.
Eine HD 3870 bewegt sich ganz sicher nicht in der Leistungsklasse einer 8800 GTX, auch nicht in etwa. Überprüfe deine Quellen. Auf welchem Niveau befindet sich dann eine übertaktete 8800 GTX??

* ATI ist auch nicht sehr fair, was Modelle und ihre Unterschiede angeht. Ich bin absolut kein Fan. AMD ist für mich sowieso ein Sauladen, und Sapphire als Firma ganz besonders.
Also ich würde AMD jetzt nicht gerade als "Sauladen" bezeichnen und mit der 3850/3870/3870X2 hat ATI im gegensatz zu Nvidia derzeit eine sehr schöne und besonders wichtig: auch für den Noob überschaubare Produktreihe auf dem Markt. Die 8800GT und 9800GTX hätte man sich bei Nvidia nun wirklich sparen können.. Naja Marketing. Was Sapphire angeht kann ich dir nur recht geben, derzeit das beste Beispiel wie man eine Produktreihe verpfuschen kann ;)
 
Zuletzt bearbeitet:
Ich selber habe eine Dual Core CPU 4200+ Athlon mit einer 8800 GT Zotac AMP im Betrieb.
Alle heutigen Spiele laufen mit einer Auflösung von 1680 x 1050 x 32 AA4x AF16x schnell
sauber und flüssig....ich hatte vorher eine ATI X850XT von Powercolor drin.
kann ich nur bestätigen :)
 
kann ich auch bestätigen,

selbe CPU und auch ne 8800GT und alles läuft bei 1280x1024 ohne Probleme!
 
Kinnas, ich weiß ja nicht, was ihr mit eurer Stänkerei bezweckt, aber Tatsache ist, daß GPU-Z meiner HD3870 eine höhere Rohleistung bescheinigt, als eine Ultra hat.

http://www.techpowerup.com/gpuz/3mcge/

Einer einfachen HD 3870 werden 496 GFlops* bei 777 MHz bescheinigt, einer 8800 Ultra 581 GFlops*, und meine HD 3870 Silent macht 586 GFlops bei 918 Mhz. Die Speicherbandbreiten betragen 72,0 GB/s bei einer einfachen HD3870, 86,4 GB/s bei der Ultra und meiner HD 3870 Silent.

Womit, zum Kuckuck, soll eigentlich eine 8800 Ultra die Leistung meiner Karte erreichen? Sie ist mit 8 ALUs so viel unflexibler als eine HD3870 mit 64 ALUs, daß ihr dazu nun wirklich alle Voraussetzungen fehlen.

Sie hat gerade mal dieselbe Bandbreite, aber weniger Rechenleistung, und steht damit auf verlorenem Posten. Da hilft ihr das serienmäßige Voltmodding auch nicht weiter, denn mit moderaten +10% VGPU und VRAM, kann ich jederzeit noch mal einiges nachlegen.

Und nun findet euch gefälligst damit ab! Die Ultra ist eine völlig abwegige Fehlkonstruktion von vorgestern. Mit saumäßiger Bildqualität, ohne Ton. Dafür wird sie heiß und macht Krach, wärend die schnellste Einzel-GPU-Karte der Welt mit maximal 45 Grad Celsius lautlos und elegant ihre Überlegenheit ausspielt. So sieht's aus. Ende der Diskussion. :coolblue:

* Werte können dieser Tabelle entnommen werden.

Sorry
aber was verzapfst du da für einen Bullshit. Der Flaschenhals beim RV670 sind die zu wenigen TMUs was die schlechtere Texelfüllrate gegenüber dem G80 zeigt.

Eine 8800GTX/Ultra sind immer noch die schnellsten Single GPU Karten und das wird sich erst mit dem R700 und den GTS 200 ändern.

Ich hoffe den Bullshit was du von dir gibst glaubt so keiner. Bevor du jetzt glaubst ich bin ein Nvidia Fanboy, schau mal SIG.
 
Crysis ist sowieso Kinderkram, und solange hier keiner wagt, seine fusskranke Karte, ob nun Ultra oder GTX mit DiRT zu benchen, bevor das Ding in die Tonne geht, gibt's keine weiteren Benches von mir!

Tut mit echt leid, aber DiRT gurkt bei mir mit 20FPS rum.
Rein von den Zahlen ist meine CPU auch ne ganze Ecke schneller als deine. Echt kontrovers oder?
Achja, ich hab ganz vergessen: Die 20FPS hab ich _ohne_ weitere Autos auf der Mattscheibe...
Mit siehts dann noch ganz anders aus, dort darf ich mich dann auch mal mit 7FPS vergnügen.

Ich kann mir natürlich sehr gut vorstellen, dass ein flüssiges Spielgefühl bei dir schon ab 10FPS zustande kommt, dann würden Teile deiner Aussagen zumindest Sinn ergeben.

Das Web ist voller Jammerlappen mit Nvidia-Karten, bei denen DiRT ruckelt, und nicht ein einziger Besitzer einer HD 3870 käme auf so eine verrückte Idee.
So ein Mist aber auch...

Dieses Geflenne hier... 586 GFlops sind und bleiben 586 GFlops! Und meine Karte ist alles andere als am Ende.
Diese GFlops und die Bandbreite scheinen ja echt eine Dipolstellung in Sachen Grafikleistung zu haben.
Vll. kannst du mir ja auch erklären, wie sich diese beiden Größen auf die Leistung auswirken?

Topic ist: kann man die Leistung einer Top-Karte mit einer schwachen CPU nutzen? Einen besseren Einblick als meine Grafik gibt, wird man kaum finden.
Jo, deswegen gibts mit einem ordentlichen Core2Duo auch knapp das doppelte an 3D-Marks.
Aber nunja, die besitzen wohl keine Aussagekraft. Und alles, was bisher in Thema Leistungsverhätlnis GPU/CPU angenommen und bewiesen wurde, ist nun hinfällig.
Deine neue Theorie ist echt interessant, steht nur leider auf einem Kartenhaus - einmal Pusten und schon ist alles kaputt.

Crysis und DiRT laufen bei mir sehr gut, weil sie fast nur von der Grafikkarte abhängen. Daraus kann man nicht schliessen, daß alles so läuft. Oblivion ist mit meiner CPU und DDR400 nur in Dungeons oder im Wald zu ertragen, aber nicht in den Städten.
DiRT scheinst du gar nicht zu besitzen...fahr einfach mal gegen ein paar KI-Gegner....

Da bei mir fast alles CPU-limitiert ist, macht es kaum einen Unterschied, ob ich mit oder ohne AA und AF spiele. VSync muß ich zuschalten, weil mir sonst Tearing das Bild zerreisst.
Moment mal:
Topic ist: kann man die Leistung einer Top-Karte mit einer schwachen CPU nutzen? Einen besseren Einblick als meine Grafik gibt, wird man kaum finden.

Du selbst sagst, dass deine CPU die Wunderkarte schön auslasten kann - schließlich läuft Crysis und DiRT ja butterweicher...

Wer was anderes glaubt, hat Probleme mit dem Grundrechnen.
Ihr macht hier einen Höllenzirkus ohne jede Grundlage.
Tut uns leid, dass ist höhere Sophomatik, die verstehen wir nicht...

Die Grafik zeigt einen Anstieg von 25 fps auf 40 fps bei 20% mehr GPU-Last. Das entspricht 20% mehr Takt.
BlaBlaBla...die Erde ist eine Scheibe.
Galilei hat wenigstens noch Beweise liefern können...

Es gibt eben nicht die HD 3870, sondern verschiedene Modelle, deren Spawas andere Grenzen setzen, deren RAM anders bestückt ist, die mit verschiedenen Spannungen arbeiten, mit verschiedenen Kühlern bestückt sind, verschieden getaktet, und eben auch unterschiedliche Preise haben.
Ich könnte wetten, du hättest das nun als Argument für mein rebellisches Verhalten angebracht. Mach dir nichts draus, ich nehms dir vorweg:
[...] und nicht ein einziger Besitzer einer HD 3870 käme auf so eine verrückte Idee.

Um so besser kann es illustrieren, daß eine Top-Karte in einem schwachen System einiges bringen kann.
Stehst du auf dem Kopf, während du das schreibst?
Schwächere Grafikkarte -> schneller als stärkere Grafikkarte
System mit schwächerer CPU -> schneller als stärkere CPU

Noch bin ich hier der einzige Teilnehmer im Thread, der überhaupt etwas beigetragen hat. Das wollen wir mal nicht vergessen.
Ich bin der zweite...

Noch eine Zusatzinfo fürs Topic:
Ich konnte trotz limitierender CPU feststellen, dass eine 8800GT dennoch ihre Mehrleistung gut ausspielen kann.
Grobe Richtlinie: TDU, 1680x1050, max Details, 16xAF, 2xAA ergibt mit der HD3870 runde 30-35fps im Durchschnitt. Die 8800GT hatte bei selben Settings etwa 45-50fps im Durchschnitt.
 
Zuletzt bearbeitet:
Korrekt! Dicht machen, denn es läuft nur noch darauf hinaus, mir einen gefälschten Rivatuner-Lauf zu unterstellen.

Fakt ist: da oben steht ein Bench, der einige Aussagekraft hat, und der zeigt mathematisch erwartbare Ergebnisse bei gar nicht mal ungewöhnlichen Taktraten (864/1251), die man von genügend Besitzern ähnlicher karten bestätigt bekommt, und alles andere ist Rauschen im Wald.
 
Korrekt! Dicht machen, denn es läuft nur noch darauf hinaus, mir einen gefälschten Rivatuner-Lauf zu unterstellen.

Fakt ist: da oben steht ein Bench, der einige Aussagekraft hat, und der zeigt mathematisch erwartbare Ergebnisse bei gar nicht mal ungewöhnlichen Taktraten (864/1251), die man von genügend Besitzern ähnlicher karten bestätigt bekommt, und alles andere ist Rauschen im Wald.

So Junge:
1280x1024, DiRT, Details: Ultra, 8xAA, 16xAF
Core: 837Mhz
Memory: 1206Mhz
Durchschnitt von 23-24FPS
Butterweich ist was anderes. Dazu kommt mein schnellerer X2, der mit 2,8Ghz läuft.
Und ja, meine CPU ist sogar mit weniger Takt schneller als deine...
 
Moderate Einstellungen bei mir:
4xAA, 8xAF, Mipmap High, Vsync, AAA, 1280*1024

Ein mal Crysis, alles auf High, Gefecht mit der Mannschaft am Ende der Strasse im ersten Level:

Crysis4AA8AF.gif

Min. FPS: 20 (der Effekt, wenn man durch diesen roten Nebel sieht)
Avg FPS: 28
Max FPS: 38

Ein mal DiRT, alles auf Maximum, Magneti Pirelli Crossover:

Dirt Middle.gif

Min. FPS: 26 (ein mal die Felswand hochgebrettert)
Avg. FPS: 46
Max. FPS: 51

Soll ich noch mal mit 2xAA und 4xAF, oder genügt das jetzt?

PS nebenbei bemerkt: Crysis bleibt unter 512 MB, und selbstredend wird beim Benchen nicht abwärts geblickt, weil die FPS sonst um die 45 pendeln. Dirt mit Blick von hinten aufs Fahrzeug, denn mit Blick aus dem Cockpit oder vor der Stoßstange läuft es mit doppelten FPS.

PPS Wieso hast Du eigentlich so verblüffend gleichmäßige FPS? Das ist für DiRT völlig atypisch.
 
Zuletzt bearbeitet:
Evtl. find ich nochmal die Zeit, um Crysis zu testen.
Ich finds schon komisch, dass du nun AA/AF runtergeschraubt hast und bei DiRT nun die Rede von "Maximum Details" ist...

Zu DiRT und Thema Cockpit: Hab ich genau gegenteilige Erfahrung machen können. Ich habe von innen "gebencht". Mit der Perspektive von außen leider nicht, weiß aber durch frühere Tests mit 1680x1050, 4xAA, kein AF und Ultra Details, dass die FPS ca. 5-10FPS höher lagen.

"Meine" FPS bei DiRT sind relativ gleichmäßig, in der Tat. Allerdings hatte ich vergessen, den Maßstab des Graphen besser zu wählen. Was aussieht, wie eine gerade Linie sind FPS-Schwankungen von bis zu 5 FPS.

€: Deine Werte sind so, was DiRT angeht, sogar nachvollziehbar. Ich habe noch Vista und mit dem Singleslot-Kühler kann ich auch nicht wirklich hoch takten.
Ich fande nur die Behauptung, du könntest DiRT bei Details auf Ultra und 8xAA, 16xAF butterweich spielen als sehr sehr hoch gegriffen...
 
Zuletzt bearbeitet:
dann sollten ein Q66 @ 3gig und ein bis zwei 4870 x2 also doch gut zusammen passen wenn ich das so lese.
 
So sieht das Intel wenn es um CPU vs GPU geht.Ein Upgrade von Onboard GPU auf 8800GTX bringt nix aber der Wechsel der CPU bringt etwas.:stupid:
Natürlich sind nur CPU fordernde Programme vorhanden und keine Spiele in dem Bild, klar das eine bessere GPU da kaum etwas bringt.Solche vergleiche kann man sich eigentlich Sparen.

cpu1yae.jpg
 
Zuletzt bearbeitet:
Was dieses Bild hier im Spiele-Graka-Thread zu suchen hat, verstehe ich absolut nicht. :stupid:

Das Bild zeigt aber die Wahrheit, denn wenn man keine Videospiele spielt, dann lohnt es sich überhaupt garnicht, eine Spiele Graka anzuschaffen. :lol:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh