Wie stark bremst meine CPU eine HD 3850 aus?

Radeonactive

Semiprofi
Thread Starter
Mitglied seit
05.10.2005
Beiträge
1.157
Ort
Berlin
Hallo. Ich wollte mir morgen eine ATI HD 3850 zulegen. Scheint mir einfach derzeit eine gute P/L Karte zu sein. Hätte aber noch eine Frage zu meinem System.

Was meint ihr, wie stark mein aktueller Prozesser die HD 3850 ausbremsen wird? Hab derzeit einen CoreDuo T2400 @ 1,96 GHz.


Ich bin nicht Derjenige der unmengen viel zockt. Die Auflösung muss auch nicht die höchste sein. Meistens zocke ich auf 1440x900 wegen der nativen Monitorauflösung. Über ein Antwort von euch würde ich mich freuen.

Gruß. Thorsten
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Karte würde sehr gut zu der CPU passen ;)
 
Was bedeuten denn immer diese ;) dahinter? Ihr seid doch hoffentlich ehrlich oder? :)
 
Na, jeder spielt hier gerne den großen Alleswisser :d Ist halt ne nette Gäste für zwischendurch :fresse:
 
naja bissle mehr mhz würden der karte schon gut stehen...
und klar ist ein core2duo schneller...
aber wieviel das jetzt macht...?
sicherlich kein drittel *g

grüße
 
Was für ne geile Frage
a) ist von Deiner Auflösung abhängig
b) is von Deinen Qualitäts-Settings im Game und im Treiber abhängig
c) is von dem Game abhängig

Fazit: Nicht über die Fragestellung nachgedacht, sondern irgendwas gefragt was man mal aufgeschnappt hat.

Wenn Dein Game in Deinen Settings und Deine Auflösung von der Graka limitiert ist, dann ist es Scheissegal was für eine CPU dahinter steckt.
Wenn Deine Auflösung so winzig ist und Dein Game so anspruchslos von der Grafik her dass sich die Graka immer langweilt, dann limitiert die CPU.
In der Regel limitiert bei Deiner Auflösung bei aktuellen Games wie Crysis die Grafikkarte und nicht die CPU, aber wir wissen ja gar nicht was Du Spielst. Es gibt auch Beispiele wo dem nicht so ist, vielleicht zoggste ja nur Source-Games, die fast immer CPU_Limitiert sind, weil die Grafik halt "relativ" simpel ist. Die Grenze ist übrigens absolut fließend und niemand von uns kann genau sagen was bei Dir der Fall ist, es sei denn er hat genau die gleiche Hardware, fährt die gleiche Auflösung und zockt die gleichen Games wie Du.
Was nun bei Dir der Fall ist kann keiner von uns wissen, sondern nur Du. Also probier es aus, und dann weißte auch mehr. Hier auf eine Antwort zu vertrauen (egal ob Dir nun jemand sagt "kein Ding" oder "scheiß CPU") ist leider mal total umsonst.
 
Zuletzt bearbeitet:
Ich denke auch ein paar mehr MHz wären nicht schlecht. Mir geht es halt darum, dass ich nicht gleich meinen ganzen PC aufrüsten wollte. Die CPU hab ich erst kürzlich für nen schmalen Taler ersteigert. Und mein Board macht leider kein großartiges OC mit.
 
@Hisn,

das ist mir mal jetzt aber neu :hmm: Kannse das mal ein bisschen geordneter erzählen? ^^ Ich dachte immer, dass wenn die CPU die Grafikkarte nicht schnell genug mit "Infos" versorgt, dass dann halt die CPU limitiert. Ok, ein paar Games sind eher "CPU-lastig" und andere wiederum eher "Grafiklastig". Von daher sollte man halt den Mittelding treffen, sodass weder die CPU für die Grafikkarte oder die Grafikkarte für die CPU zu schnell ist.

Lasse mich gerne eines besseren belehren, falls das was ich mir bis jetzt unter Limitierung so vorgestellt habe falsch sein sollte. Von daher wäre ich über eine Berichtigung meiner Aussage (falls es falsch sein sollte) dankbar :)
 
Naja ist so nen Mittelding, schau Dir Crysis an. Ab einer 1280er Auflösung isses total egal ob die CPU 2,4 Ghz oder 4,4 Ghz hat, die FPS werden nicht mehr. Es limitiert also die Graka. Unter 1280 sieht man sogar unterschiede zwischen Dual und Quadcore.
In Source Games kannste aber selbst in 2650x1600 noch einen deutlichen Unterschied zwischen 2,4 und 4,4Ghz sehen. Da limitiert selbst in der riesen-Auflösung immer die CPU weil die Graka sich bei der lausigen Detailfülle meistens langweilt, solange sie einigermaßen vernünftig ist. Eine allgemeingültige Aussage zu treffen ist einfach unmöglich, weil es bei jedem Game, bei jeder Auflösung, bei jeder Detail-Stufe (vielleicht drückst Du ja mit 16xAF die Graka ins Limit, während sie bei 4xAF noch Luft hat mehr Frames zu rechnen als die CPU vorbereiten kann, oder Du drückst die CPU ins Limit indem Du mehr Details von ihr vorbereiten lässt die die Graka immer noch kalt lassen) das Verhältnis von CPU ist am Limit zu Graka ist am Limit ändern kann.

Mann muss es also für sich und bei jedem Game selbst ausprobieren, indem man mal die Auflösungen ändert, die Detailstufe ändert und sowas. Niemand kann einem das abnehmen.
 
Zuletzt bearbeitet:
Ist schon alles richtig,aber er wollte nur wissen ob seine CPU die Graka ausbremst....:hmm:
Wie schon gesagt; "passt schon" :bigok:
 
So, nach deinem Edit habe ich es nun einigermaßen verstanden :bigok:

@Adrian,

lies ma nochmal :fresse:

Naja ist so nen Mittelding, schau Dir Crysis an. Ab einer 1280er Auflösung isses total egal ob die CPU 2,4 Ghz oder 4,4 Ghz hat, die FPS werden nicht mehr. Es limitiert also die Graka. Unter 1280 sieht man sogar unterschiede zwischen Dual und Quadcore.
In Source Games kannste aber selbst in 2650x1600 noch einen deutlichen Unterschied zwischen 2,4 und 4,4Ghz sehen. Da limitiert selbst in der riesen-Auflösung immer die CPU weil die Graka sich bei der lausigen Detailfülle meistens langweilt, solange sie einigermaßen vernünftig ist. Eine allgemeingültige Aussage zu treffen ist einfach unmöglich, weil es bei jedem Game, bei jeder Auflösung, bei jeder Detail-Stufe (vielleicht drückst Du ja mit 16xAF die Graka ins Limit, während sie bei 4xAF noch Luft hat mehr Frames zu rechnen als die CPU vorbereiten kann, oder Du drückst die CPU ins Limit indem Du mehr Details von ihr vorbereiten lässt die die Graka immer noch kalt lassen) das Verhältnis von CPU ist am Limit zu Graka ist am Limit ändern kann.

Mann muss es also für sich und bei jedem Game selbst ausprobieren, indem man mal die Auflösungen ändert, die Detailstufe ändert und sowas. Niemand kann einem das abnehmen.
 
@Adrian
^^ Und wenn er jetzt nur CCS spielt? Dann wird er nicht ein FPS mehr bekommen. Dann kann er nur Bildqualität hochprügeln^^
 
Meine Fresse ey, mit PC´s hat man vielleicht Probleme. Mit ner Konsole hat man sowas nicht :fresse:

Und es nochmal klarzustellen :d

Naja ist so nen Mittelding, schau Dir Crysis an. Ab einer 1280er Auflösung isses total egal ob die CPU 2,4 Ghz oder 4,4 Ghz hat, die FPS werden nicht mehr.

Bei Crysis z.B. braucht man also ab 1280 x irgendwas mehr Grafikpower.

In Source Games kannste aber selbst in 2650x1600 noch einen deutlichen Unterschied zwischen 2,4 und 4,4Ghz sehen. Da limitiert selbst in der riesen-Auflösung immer die CPU weil die Graka sich bei der lausigen Detailfülle meistens langweilt, solange sie einigermaßen vernünftig ist.

Bei Source-Spielen hingegen mehr CPU-Power, da wenig Details, die die Grafikkarte berechnen muss.
 
Alles klar. Ich danke euch schonmal für eure Hilfe. Werd mir die karte morgen bestellen.
 
Was für ne geile Frage
a) ist von Deiner Auflösung abhängig
b) is von Deinen Qualitäts-Settings im Game und im Treiber abhängig
c) is von dem Game abhängig

Da hat es aber wieder einer wichtig! :hmm:
Lies halt erst mal genau seinen Text. Steht doch dran was er für eine Auflösung benutzt.

Fazit: Nicht über die Fragestellung nachgedacht, sondern irgendwas gefragt was man mal aufgeschnappt hat.

Was soll der Blödsinn? Is Dir langweilig?



@ Radeonactive: Die Graka passt recht gut zu Deiner CPU, da braucht man eigentlich überhaupt nicht so viel rumzulabern wie es hier ein paar Leute scheinbar nötig haben. Den T2400 kannst Du vielleicht noch etwas OCen, der lief damals bei mir mit 2.5GHz, was natürlich nicht automatisch bedeutet, dass es Deine auch tut, aber ein bisschen was sollte schon noch gehen.
 
Hisn du bist ne coole Sau

klar kann eine langsame CPU eine GRafikarte ausbremsen! Wenn eine CPU die Grafikarte nicht so schnell mit Datenbeliefern kann wie die GPU verarbeiten kann, dann bremst die CPU die GPU aus!
Nach deiner Logik würde es ja auch bedeuten das man mit einem A64 3000+ locker Crysis spielen kann wenn man eine 8800GTX damit betreibt:lol:
Dumm nur das die CPU der Graka nicht genügend Daten zur verfügung stellen kann und so viel Potenzial brach liegen würde
 
Was bedeutet eigentlich die CPU bremst die Grafikkarte aus?
Nehmen wir eine 1280x1024 Auflösung

Nehmen wir einen X2 4400+ mit 2400MHz.
Der dürfte doch ausreichen um eine 7800GT 256MB zu füttern.
Eine HD 3850 256MB wird der X2 @2400MHz wohl nicht wirklich füttern können.
Nun die entscheidende Frage
Habe ich dann mit der HD 3850 256MB schlechtere FPS im Spiel als mit der 7800GT?
Oder anders gefragt.
Habe ich dann trotzdem bessere FPS mit der HD 3850 256MB als mit der 7800GT?
 
Zuletzt bearbeitet:
@ALL MECKERER
Natürlich kann eine CPU die Graka ausbremsen, aber keiner von euch kann sagen "ja macht sie" oder "nein macht sie nicht" weil euch dazu einfach die Grundlagen fehlen, es sei denn irgend jemand hat genau die gleiche CPU, die gleiche Graka, die gleiche Auflösung und fährt die gleichen Bildqualitätsettings bei den gleichen Games. Darauf will ich hinaus, einfach pauschal zu erzählen "nein macht es nicht, oder ja macht es" ist völliger Blödsinn weil es von viel zu viel Faktoren abhängt. Und Fonce: Ja ich lehne mich mal ausm Fenster uns sag "genau so wie Du es beschreibst ist es", wenn man Crysis auf Very High mit 8xAA und 16xAF in der genannten Auflösung zockt, dann ist es wahrscheinlich egal (ich habs nicht getestet, warum auch) ob ein Q9X oder ein 3800+ im Rechner steckt weil die Graka einfach nicht in der Lage ist mehr als 3 Frames überhaupt darzustellen. Und 3 Frames trau ich einem 3800+ gerade noch irgendwie zu.
 
Zuletzt bearbeitet:
Jungs habt ihr schonmal darüber nachgedacht warum CPU Benchmarks für Games zwischen 640x480, 800x600 und 1024x768 gemacht werden?

Ui , ja richtig weil dort die CPU Limitiert und die Graka eine nebenrolle spielt. mit jeder höheren Auflösung wird die CPU immer mehr zum zu vernachlässigen Teil im System. Wie HISN schon sagt, in höheren Auflösungen grade mit viel AA+AF ist die reine Power der Graka gefragt und die CPU wird nicht mehr zum limitierenden Faktor.

Aber orientiert ihr euch alle schön an 3DMark großer Proz , dicke Punkte :hmm:

Darum ist die Frage nach den Game Einstellungen des User sehr wichtig um die Frage vernünftig beantworten zu können.
 
@ALL MECKERER
Natürlich kann eine CPU die Graka ausbremsen, aber keiner von euch kann sagen "ja macht sie" oder "nein macht sie nicht" weil euch dazu einfach die Grundlagen fehlen, es sei denn irgend jemand hat genau die gleiche CPU, die gleiche Graka, die gleiche Auflösung und fährt die gleichen Bildqualitätsettings bei den gleichen Games. Darauf will ich hinaus, einfach pauschal zu erzählen "nein macht es nicht, oder ja macht es" ist völliger Blödsinn weil es von viel zu viel Faktoren abhängt. Und Fonce: Ja ich lehne mich mal ausm Fenster uns sag "genau so wie Du es beschreibst ist es", wenn man Crysis auf Very High mit 8xAA und 16xAF in der genannten Auflösung zockt, dann ist es wahrscheinlich egal (ich habs nicht getestet, warum auch) ob ein Q9X oder ein 3800+ im Rechner steckt weil die Graka einfach nicht in der Lage ist mehr als 3 Frames überhaupt darzustellen. Und 3 Frames trau ich einem 3800+ gerade noch irgendwie zu.

Hey,

im Grunde hast du vollkommen recht. In allen Punkten. Aber dem TE geht es hier ja eher um eine Richtung. Ein Gefühl. Siche wäre interessant, was er zockt. Auflösung mit 1440x900 ist sicher irgendwo im mittleren Bereich anzusiedeln Oder habe ichs überlesen, was er zockt?
Was ich dazu noch loswerden will ist, wer sich eine Zeit lang mit der aktuellen Hardware und speziell mit CPUs, Grakas und so weiter beschäftigt, bekommt in etwa ein Gefühl, wie Komponernten miteinander harmonisieren.
Acuh wenn die CPU mit 2GHz noch paar MHz vertragen würde, denke ich persönlich, dass eine HD3850 mit 512MB sicher eine gute Kombo zum 2GHz CoreDuo darstellt.

@TE

Was für Games werden gezockt?
 
Was ich dazu noch loswerden will ist, wer sich eine Zeit lang mit der aktuellen Hardware und speziell mit CPUs, Grakas und so weiter beschäftigt, bekommt in etwa ein Gefühl, wie Komponernten miteinander harmonisieren.
Da muss ich dir zustimmen.:bigok:

Aber orientiert ihr euch alle schön an 3DMark großer Proz , dicke Punkte
Schon mal dran gedacht das es beim 3DMark auch Punkte für die GFX Tests gibt und diese auch nur von der Graka abhängen und man dadurch gut feststellen kann ob die CPU die Graka ausbremst oder nicht??:hmm:
 
Schon mal daran gedacht das die meisten mit der CPU limitierenden Standart Einstellung benchen?

Nemmt mal ne höhere Auflösung mit AA+AF und schon sehr ihr das sich dort wirklich nur die Graka Punkte verändern und es egal ist wie sehr ihr die CPU übertaktet.
 
hier ein guter test/vergleich...zwar schon etwas älter, aber dürfte alle eure fragen beantworten ;)
http://www.3dcenter.org/artikel/2005/03-26_f.php

Einen Athlon XP mit einer Radeon 9800 Pro durch einen Athlon 64 aufzurüsten, bringt mit einem Plus von ca. 20% unter 1024x768 und ca. 9% unter den höheren Grafikeinstellungen keinen wirklich spürbaren Performancezuwachs. Da ist es schon deutlich rentabler, auf eine Radeon X800 XT(-PE) aufzurüsten, denn dabei sind die Zuwächse mit 23% unter 1024x768 und sogar 61% unter den höheren Grafikeinstellungen deutlich größer. Unter dem Athlon 64 kann sich die Radeon X800 XT-PE sogar mit 90% von der Radeon 9800 Pro absetzen.
 
Zuletzt bearbeitet:
Also ich habs getestet Crysis , timeshift, WOW, usw...
Hab meine CPU aus fun auf 3ghz getaktet und die auslastung beobachtet beim zocken nach einer stunde ergab das nur crysis die C2D @ 3ghz maximal 90% ausgelastet hat, somit hab ich sie auf 3,2 getaktet da war es nur noch maximal 80% :d

Alle anderen games lagen drunter..... also hab ich meine cpu von 3,6ghz @1,35v auf 3,2@ 1,19v Runtergetaktet und Untervoltet.

Konnte soger somit alle anderen spannungen aufs minimum reduzieren. :)

Grakka siehe sig.

mein System Vista Ultimate 64 bit.

daher bisl frag würdig ob ein 2ghz C2D reicht, und nicht limitierend wird.
 
Nehmen wir ein Spiel

1
Auflösung 1440x900. Alle Details auf Maximum, AA + AF auch auf Maximum
X2 @2200MHz - 2GB RAM - 8800GTS 640MB.
Wenn ich nun zu einer 8800GTX Ultra wechsel, habe ich dann mehr FPS?

2
Auflösung 1440x900. Alle Details auf Maximum, AA + AF auch auf Maximum
X2 2200MHz - 2GB RAM - X1900GT 256MB.
Wenn ich nun zu einer HD3850 256MB wechsel, habe ich dann mehr FPS?
 
Zuletzt bearbeitet:
Also ich habs getestet Crysis , timeshift, WOW, usw...
Hab meine CPU aus fun auf 3ghz getaktet und die auslastung beobachtet beim zocken nach einer stunde ergab das nur crysis die C2D @ 3ghz maximal 90% ausgelastet hat, somit hab ich sie auf 3,2 getaktet da war es nur noch maximal 80% :d

Alle anderen games lagen drunter..... also hab ich meine cpu von 3,6ghz @1,35v auf 3,2@ 1,19v Runtergetaktet und Untervoltet.

Konnte soger somit alle anderen spannungen aufs minimum reduzieren. :)

Grakka siehe sig.

mein System Vista Ultimate 64 bit.

daher bisl frag würdig ob ein 2ghz C2D reicht, und nicht limitierend wird.

in crysis ist mir das auch aufgefallen, ein C2D auf 2Ghz ruckelt, bei 3Ghz aber nicht mehr. das ist eins der wenigen spiele die mir von CPU-limitierung her bekannt sind.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh