CPU vs. Grafikkarte - Optimale Verhältnisse

@jorjaco1101

Du hast doch die gleiche Grafikkarte wie ich auch. Dann verrate mir mal wo da die CPU limitiert:

Beispiel Crysis, habe ich 2x durchgespielt auf 1280x1024.

System 1: Athlon X2 Getaktet auf 2,7 GHz, 4 GB RAM

System 2: Intel Q6600 Getaktet auf 3,2 GHz, 4 GB RAM

Ich habe beim Spielen keinen Unterschied feststellen können zwischen beiden Systemen. Die FPS im Benchmark waren minimal höher auf dem Intel System, 3DMark 05 zeigt mir 2000 Punkte mehr an als auf dem Athlon.

Und hier wollen mir dann einige erzählen, die CPU limitiert irgendwas?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ihr redet einen Stuss zusammen.

Mit der gleichen CPU und z. B. einer 9800 GTX Grafikkarte erreicht der Threadersteller doch mehr FPS als mit einer 8800 GT Grafikkarte.

Was ist eine "Situation, in der die CPU limitiert"? Entweder das Spiel läuft auf der CPU oder es läuft nicht. Daß man mit einer schnelleren CPU mehr FPS hat, ist sonnenklar. Aber eine CPU limitiert niemals nix und garnicht.

Und wenn die angenommene CPU ein Celeron ist, dann habe ich mit einer 9800 GTX immer noch mehr FPS als mit einer 8800 GT.

Ihr sitzt stundenlang am Tag vor einer Maschine und habt nicht den blassesten Schimmer wie diese funktioniert und postet dann hier so einen Schwachsinn.

Jeder der euch dann wiederspricht, wird augenblicklich zum Idioten gestempelt.

wirklich du denkst jetzt auch noch das du ahnung hast oder was :haha: ein zb.e6600 mit einer 8800GT ist schneller als ein celeron mit einer 9800gtx :rolleyes:manche leute hatten in ihrem leben vielleicht erst einen prozzi lesen ein bisschen pc(BILD-DIR DEINE MEINUNG)gameshardware und denken sie hätten von irgendetwas einen plan
 
Zuletzt bearbeitet:
@ Zaphod: Nein natürlich limitiert die CPU da gar nix, weil die Grakas aus heutiger sicht untere Mittelklasse sind und deine genannten CPUs schon zu den besseren gehören.

Es geht ja mehr um einen Fall wie z.B. Celeron oder meinetwegen Pentium4 in Kombi. mit einer 9800gx2. DA ist so als wenn du mitm Ferrari immer im 1. Gang fährst...
 
also dann wäre ein Q66 - (ob bei standrad oder @3gig egal) - und zwei 4870x2 schon sinnig, wenn der PC hauptsächlich zum daddeln, brennen ab und zu ein Filmchen gucken und surfen ist.
 
@Soulja Boy: Von den Leuten, die du da benennst, bist du 100%ig einer. Deine Posts, die ich bisher von dir gelesen habe, beweisen das. Das limitierende Element bei Leuten von deinem Kaliber ist der Sachverstand. Durch diesen mangel an Sachverstand entsteht dann eine Verschiebung der Diskussion auf eine andere Ebene.

Der passende Spruch hierzu lautet: Diskutiere niemals mit einem Idioten, er zieht dich auf sein Niveau herab und schlägt dich dann mit Erfahrung.

@jorjaco1101

Wieso sollte ich mir als Super-Spielezocker denn keine 9800 GX2 zu meinem Pentium 4 dazu kaufen?

Kannst du mir nur 1 einziges beweisbares Argument vorbringen, warum sich das nicht für mich lohnt?
 
Zuletzt bearbeitet:
wirklich du denkst jetzt auch noch das du ahnung hast oder was :haha: ein zb.e6600 mit einer 8800GT ist schneller als ein celeron mit einer 9800gtx :rolleyes:manche leute hatten in ihrem leben vielleicht erst einen prozzi lesen ein bisschen pc(BILD-DIR DEINE MEINUNG)gameshardware und denken sie hätten von irgendetwas einen plan

Die Aussage kann man vergessen, da du in deinem Vergleich total übertreibst. Die 8800GT unterscheidet sich jetzt auch nicht großartig von der 9800GTX, beide gleiche Architektur (G92), E6600 und Celeron jedoch sind sehr unterschiedlich..
Ich kann deine Aussage auch umdrehen und bin dann genauso im Recht.
Beispiel: Ein Celeron mit einer 9800GTX ist in Games schneller als ein E8400 mit einer Geforce6200! Schwupps, und schon bin ich derjenige der im Recht ist.

Es geht vielmehr um eine gleichwertige Verteilung von CPU- und GPU- Leistung, wobei die GraKas früher limitieren als CPUs. (Eine CPU überlebt mal kurz 2 GraKa- Generationen ohne wirklich unspielbare Leistungseinbußen) Grafikkarten sind nunmal für Gaming wichtiger als CPUs, ob du es willst oder nicht :rolleyes:.

ZaphodB hat nicht behauptet ein schnellerer Prozessor würde keine Vorteile bringen, also zwischendurch mal lieber den Ball flach halten!
 
Zuletzt bearbeitet:
ZaphodB hat nicht behauptet ein schnellerer Prozessor würde keine Vorteile bringen, also zwischendurch mal lieber den Ball flach halten!

ok, lenken wir jetzt das Hauptaugenmerk mal von GPUs auf CPUs.
Ich würde gerne jetzt wissen welche Vorteile in Games es mir bringt wenn ich z.B. meinen Q66 @ 3Gig gegen einen C2D 8400 @ 4Gig eintauschen würde wenn ich absolute High End Grafik am werkeln habe.

15-20% mehr fps ? = + 5/6 fps ?
 
Zunächst kommt es darauf an, was du mit "High- End Grafik" meinst. Welche GraKa? SLI/CF? Welches Game? Welche Auflösung und Details? All diese Faktoren spielen hier eine große Rolle und müssen berücksichtigt werden :bigok:
 
Eine CPU überlebt mal kurz 2 GraKa- Generationen ohne wirklich unspielbare Leistungseinbußen

richtig^^ dabin ich glaub ich das beste beispiel, hatte schon eine 7100, eine x700pro, eine 7800gtx und jezt eine 2600pro an meinem 3800X2@2500mhz hängen :fresse: bald kommt noch was in der richtung 38x0, aber die knete stimmt noch nich :(
 
Zunächst kommt es darauf an, was du mit "High- End Grafik" meinst. Welche GraKa? SLI/CF? Welches Game? Welche Auflösung und Details? All diese Faktoren spielen hier eine große Rolle und müssen berücksichtigt werden :bigok:

ich rede von ner 4870x2 oder gar 2 von denen.
Ich hatte vor mir zum Release die erste zu kaufen, den Folgemonat ein neues NT und dann den Monat die 2.
Zocken wollte ich Crysis, CoD4, Collin MC Rae: Dirt, Assasins Creed, Stalker, World in Conflict, FEAR, und freue mich auf Operation Origin und Far Cry 2. ...BF2 ist wohl eher weniger erwähnenswert.
Gezockt wird mit nem 22" Samsung 226BW. CPU noch @ Standard, takte ihn aber auf ~3-3,3 gig...dann funzt auch EIST noch :drool:

Auflösung und Details so hoch wie möglich, aber so weit runter wie nötig das es flüssig spielbar ist.
 
Zuletzt bearbeitet:
Korrekt. Ich spiel mit 'nem Pentium D @ 3,2 (stock) und DDR400 Crysis und DiRT butterweich auf einer HD3870 @ 864/1251.

Das System limitiert dermassen, daß ich im 3dmark06 nicht mal auf 7000 Punkte komme, aber soweit ich weiß, packt weder eine 8800GT, noch eine 9600GT die gleichen Framerates bei 1280*1024, alles auf Ultra (DiRT), alles auf high (Crysis, XP), bei 8xAA, 16xAF. BTW alles mit VSync.

Hab mal eine Rivatuner-Aufzeichnung von Dirt erstellt. Magneti Marelli Crossover komplett durchgefahren:

DiRT HIGH.gif

Manchmal zieht die CPU die fps auf 24 runter wie man sieht, aber die Karte wird selbst von meiner gemächlichen Kiste ganz gut ausgelastet. Und DiRT gilt ja nun auch als etwas hardwarehungriger. Mit 'ner schnelleren CPU wären die Minimum-Frames immer über 30, der Schnitt über 40, wie man an dem Zeitschnitt sehen kann, wo es 24,86 fps bei 79,09% Last sind. Wenn man genauer hinsieht: Die wenigen Ausschläge mit 100% GPU bringen volle 50 fps.

EDIT: Jemand mit 'ner GT/GTS/GTX/Ultra hier, der die gleichen fps erreicht?

Ich erklär noch mal, was ich damit sagen will: Ein anerkannt problematisches Spiel auf einem anerkannt lahmen System, mit einer dennoch sehr guten Performance, die zu 100% auf eine GraKa zurückzuführen ist, von der die meisten meinen würden, die lohnt in so einer Kiste gar nicht. Sie lohnt sich, wie man sieht, denn es bringt hier eine Performance, die kaum jemand hat.

PPS: Soll ich noch mal mit 918/1323 statt 864/1251?
 
Zuletzt bearbeitet:
Korrekt. Ich spiel mit 'nem Pentium D @ 3,2 (stock) und DDR400 Crysis und DiRT butterweich auf einer HD3870 @ 864/1251.

Das System limitiert dermassen, daß ich im 3dmark06 nicht mal auf 7000 Punkte komme, aber soweit ich weiß, packt weder eine 8800GT, noch eine 9600GT die gleichen Framerates bei 1280*1024, alles auf Ultra (DiRT), alles auf high (Crysis, XP), bei 8xAA, 16xAF. BTW alles mit VSync.

mit einer X2? mit einer normalen 3870 kannst du crysis niemals mit 8xAA und 1280x1024 + high zocken.
 
ich rede von ner 4870x2 oder gar 2 von denen.
Ich hatte vor mir zum Release die erste zu kaufen, den Folgemonat ein neues NT und dann den Monat die 2.
Zocken wollte ich Crysis, CoD4, Collin MC Rae: Dirt, Assasins Creed, Stalker, World in Conflict, FEAR, und freue mich auf Operation Origin und Far Cry 2. ...BF2 ist wohl eher weniger erwähnenswert.
Gezockt wird mit nem 22" Samsung 226BW. CPU noch @ Standard, takte ihn aber auf ~3-3,3 gig...dann funzt auch EIST noch :drool:

Auflösung und Details so hoch wie möglich, aber so weit runter wie nötig das es flüssig spielbar ist.

Wie sich die 4870X2 schlagen wird kann dir zum jetzigen Zeitpunkt noch keiner sagen, da die Karte noch nicht erhältlich ist. Eventuell sich beim Release mal die Benches anschauen.
Ein E8400@4Ghz würde gegenüber dem Quad@3Ghz leichte Geschwindigkeitsvorteile bringen, die aber eher zu vernachlässigen sind.
--> Jedem Käufer eines neuen Rechners würde ich den E8400 empfehlen. Wenn du aber schon einen Q66 hast, würde ich den behalten und das Geld lieber in ne bessere GraKa investieren. Der Unterschied ist einfach zu gering.
 
Zuletzt bearbeitet:
ich rede von ner 4870x2 oder gar 2 von denen.
Ich hatte vor mir zum Release die erste zu kaufen, den Folgemonat ein neues NT und dann den Monat die 2.
Zocken wollte ich Crysis, CoD4, Collin MC Rae: Dirt, Assasins Creed, Stalker, World in Conflict, FEAR, und freue mich auf Operation Origin und Far Cry 2. ...BF2 ist wohl eher weniger erwähnenswert.
Gezockt wird mit nem 22" Samsung 226BW. CPU noch @ Standard, takte ihn aber auf ~3-3,3 gig...dann funzt auch EIST noch :drool:

Auflösung und Details so hoch wie möglich, aber so weit runter wie nötig das es flüssig spielbar ist.

ähm... hast du den hübschen artikel auf CB über cpu´s in crysis gesehn?linky here
ein core2quad@3,2ghz ist da grad mal 5% schneller als ein amd x2@2,2ghz...
is also auf deutsch gesagt scheißegal was für ne cpu du dir zu deinen grafikkarten holst. ausser du willst natürlich css oder bf2 mit 200+ fps spielen (wobei du auf nem lcd eh nur 60fps zu sehn bekommst).
von 2 4870x2 würd ich dir abraten... oder kann dein bildschirm mehr als 1920x1200? 4gpu´s sind wohl eher was für 3dmark fetischisten, aber beim spielen merkst du wohl keinen unterschied.
 
ähm... hast du den hübschen artikel auf CB über cpu´s in crysis gesehn?linky here
ein core2quad@3,2ghz ist da grad mal 5% schneller als ein amd x2@2,2ghz...
is also auf deutsch gesagt scheißegal was für ne cpu du dir zu deinen grafikkarten holst.
wenn man einen C2D nimmt und ihn auf 2Ghz und 3Ghz laufen lässt, merkt man einen großen unterschied, es ruckelt viel weniger.
 
Zuletzt bearbeitet:
Das hängt halt alles vom Spiel ab, bei CPU Lastigen Sachen reicht halt nen C2D auf 3Ghz grad so, aber zB nur ne 6800. Und bei den Graka Sachen könnte halt schon nen Celeron (je nach dem ;)) reichen aber keine 9800GX2.

Aber ich würde generell bei ner Cpu (so ab A64 aufwärts/besonders beim Dualcore) ne neue Graka empfehlen, weil es das einfach mehr bringt, wenn vorher halt ne 7600Gt oder so drin steckte.
Nen Kumpel hat sich auch für seinen Athlon 64 3500+ ne 8800GTS 512 geholt (vorher x800Pro) und das geht ab wie sonst was...
 
mit einer X2? mit einer normalen 3870 kannst du crysis niemals mit 8xAA und 1280x1024 + high zocken.

Du könntest genausogut behaupten, ich könne DiRT nicht auf ULTRA mit 8xAA und 16xAF zocken, bloß, weil das auf 'ner GT nicht geht. BTW geht das RAM einer X2 nicht auf 1200 und höher. Die 3870 geht i.d.R. auf knapp 1400, meine auch um einiges darüber.

Was ist überhaupt eine "normale 3870". Klingt ja wie W. Andermahr, der so gern der Welt vorgaukelt, daß der Karottenschneider für 130 Euro das Ende der Fahnenstange markiere. Für mich ist eine 3870 XTX normal (904/1200 MHz ab Werk). Für mich ist auch normal, daß die Chinesen keine Lust mehr haben, den europäischen Markt mit sowas zu beliefern, weil hier so viel Blödsinn gelabert wird.

Bei mir macht Crysis jedenfalls nicht den kleinsten Ruckler, und wer sich die Rivatuner-Aufzeichnung da oben ansieht, weiß auch warum. Was man da sieht, geht nämlich laut 'ner Menge High-End-System-Besitzer auch nicht.

Eine X2 braucht man vielleicht für höhere Auflösungen, aber wohl kaum für 1280*1024. Ich werde den Verdacht nicht los, wer sich dazu äussert, hat nie eine 3870 gehabt oder gesehen, und nimmt an, man könne sich die wie eine 3850 mit maximal ein bis zwei Frames mehr vorstellen. Dem ist nicht so.

COMPARISON.gif

Eine Ultra hat laut CB Performancerating (d. h. dem Durchschnitt aus allen gefakten Benches der CB) etwa 1,9 mal die Performance einer x1900xtx. Wo meine Karte im Verhältnis zur x1900xtx steht, kannst Du der Tabelle entnehmen.

wenn man einen C2D nimmt und ihn auf 2Ghz und 3Ghz laufen lässt, merkt man einen großen unterschied, es ruckelt viel weniger.

Was tut es? Weniger ruckeln? Es ruckelt ja nicht mal mit meinem D940, der im Leben nicht an einen C2D @ 2 GHz rankommt. Kann es sein, daß Crysis auf allen Nvidia-Karten ruckelt, und ihr das vor lauter Verzweiflung dem armen Prozessor in die Schuhe schieben wollt, um euch eure GraKas schönzureden? Was empfehlt ihr da überall, wenn es bei euch ruckelt? Bei mir ruckelt nix. Ruckelnde Konsolengrafik auf 'ner high end Karte... ist ja lachhaft.

PS Dass meine 3870 z. Z. etwa auf 06er 16K-Niveau läuft, kann man den Werten auf der Grafik entnehmen. Selbstredend nicht mit dem D940 darstellbar, aber was sagt das schon.

EDIT: Oblivion z. B. ist fast es völlig egal, ob eine x1900, eine HD3870X2, eine 8800 Ultra, oder eine 7900 GT rendert, wenn nicht mindestens ein Quad über 3Ghz werkelt.
 
Zuletzt bearbeitet:
Du könntest genausogut behaupten, ich könne DiRT nicht auf ULTRA mit 8xAA und 16xAF zocken, bloß, weil das auf 'ner GT nicht geht.

Was ist überhaupt eine "normale 3870". Klingt ja wie W. Andermahr, der so gern der Welt vorgaukelt, daß der Karottenschneider für 130 Euro das Ende der Fahnenstange markiere.

Für mich ist eine 3870 XTX normal (904/1200 MHz ab Werk). Für mich ist auch normal, daß die Chinesen keine Lust mehr haben, den europäischen Markt mit sowas zu beliefern, weil hier so viel Blödsinn gelabert wird.

Bei mir macht Crysis jedenfalls nicht den kleinsten Ruckler, und wer sich die Rivatuner-Aufzeichnung da oben ansieht, weiß auch warum. Was man da sieht, geht nämlich laut 'ner Menge High-End-System-Besitzer auch nicht.

Eine X2 braucht man vielleicht für höhere Auflösungen, aber wohl kaum für 1280*1024. Ich werde den Verdacht nicht los, wer sich dazu äussert, hat nie eine 3870 gehabt oder gesehen, und nimmt an, man könne sich die wie eine 3850 mit maximal ein bis zwei Frames mehr vorstellen. Dem ist nicht so.

Anhang anzeigen 68524

Eine Ultra hat laut CB Performancerating (d. h. dem Durchschnitt aus allen gefakten Benches der CB) etwa 1,9 mal die Performance einer x1900xtx. Wo meine Karte im Verhältnis zur 1900 xtx steht, kannst Du der Tabelle entnehmen.

willst du uns verarschen? chinesen?
ati sitzt in kanada... auch wenn die karten in taiwan oder china produziert werden, eine xtx version gibt es nicht. 904mhz ab werk... lol
crysis schmiert sogar auf ner 8800ultra ab, sobald du AA ins spiel bringst. willst du jetzt behaupten deine 3870xt (ne midrange karte) ist schneller als die immernoch amtierende schnellste singlecore graka der welt?
ne x2 ist auch bei 1280x1024 schneller als deine karte, cf skaliert mittlerweile auch bei so niedrigen auflösungen ziemlich gut.
du hast crysis? dann lad dir mal das crysis benchtool runter und lass deine wunder xtx mal sehn. das bild in deinem anhang sagt mir nämlich garnix...

edit: 16k 3dmark06 niveau??? weisst du überhaupt was du da faselst??
 
Zuletzt bearbeitet:
Vorsicht Fanboy Alarm! :banana:
Alle in Deckung!

P.S.: Chinesen :lol:
 
Zuletzt bearbeitet:
lol.. der wird ja immer lustiger ;) oblivion... x1900 und 7900 in einem satz ;)
du weisst, dass die 7900gtx garnicht das rendern kann, was eine x1900xtx rendert (hdr+AA)?
auch bei diesem spiel ist bei zunehmender auflösung die cpu mal wieder völlig einerlei.
 
willst du uns verarschen? chinesen?
ati sitzt in kanada... auch wenn die karten in taiwan oder china produziert werden,

Kennste Dieter Nuhr? ATI wurde in Hong Kong gegründet und geführt, und wird es heute noch. Die kanadische Gesellschaft, die heute in AMD-Besitz ist, besteht aus nicht mehr als einer Verwaltung und Teilen der Entwicklungsabteilung, macht aber hauptsächlich Marketing. So hat man sich den Zugang zum US-Markt offen, und den Protektionismus der Amerikaner vom Hals gehalten. Kannste überall nachlesen. Google ist dein Freund!

ATI heute, das ist in erster Linie PcPartner in China, und die der dahinterstehenden Holding gehörenden Brands wie Sapphire, Diamond, Asustek, Gigabyte, aber auch Zotac und viele andere.

eine xtx version gibt es nicht. 904mhz ab werk... lol

Dazu gab es nicht nur Meldungen im Web. Ich z. B. habe eine. Derzeit 918 MHz ohne Voltmod. Willst Du das eine "normale" Sapphire Single Slot nennen? Offizielles Statement von Sapphire Hong Kong: Diese karte ist nicht für den europäischen Markt freigegeben.

crysis schmiert sogar auf ner 8800ultra ab, sobald du AA ins spiel bringst.

Dann würde ich mir mal 'ne anständige Karte kaufen, wenn sie nicht kann, was meine 'Midrange-Karte' kann.

willst du jetzt behaupten deine 3870xt (ne midrange karte) ist schneller als die immernoch amtierende schnellste singlecore graka der welt?

blablabla... da oben stehen Benches. Kauf Dir von mir aus 'ne Ultra, und stell welche daneben. Alles andere ist Rauschen.

ne x2 ist auch bei 1280x1024 schneller als deine karte, cf skaliert mittlerweile auch bei so niedrigen auflösungen ziemlich gut.

Wen interessiert denn das? Ich brauche kein CF, und keine X2, weil bei 1280*1024 nix ruckelt. Wenn es auf der Ultra ruckeln sollte, was ich nicht glauben kann, dann taugt sie halt nix.

du hast crysis? dann lad dir mal das crysis benchtool runter und lass deine wunder xtx mal sehn. das bild in deinem anhang sagt mir nämlich garnix...

Wenn Du Rivatuner-Aufzeichnungen nicht lesen kannst, lass sie Dir vorlesen. Bißchen seltsam, daß ich hier Benches ausstelle, nix als Gelaber dagegen gehalten wird, und weitere Benches gefordert werden. Jetzt sind erstmal andere dran.

edit: 16k 3dmark06 niveau??? weisst du überhaupt was du da faselst??

Mein RAM macht ohne Voltmod 1440 MHz mit. 15k3 wurden mit 1323 MHz erzielt. RV670 skaliert eins zu eins auf Speichertakt. Meine GPU wird ohne Voltmod ab 932 MHz vom NT limitiert. Beides bei 42 Grad Celsius unter Last. Noch Fragen?

Wenn ich meine Karte modden sollte, dann weil ich auf 17k kommen will, nicht auf 16k. Wie gesagt, nicht mit dem D940, meinem alten Board, und dem jetzigen NT. Bringt nur den Thread nicht weiter.

Im Wesentlichen geht es auch nur um den Bench da oben. 50 Frames bei DiRT in ULTRA mit 8xAA und 16xAF, Minimum-Frames knapp 25 bei klar erkennbarer CPU-Limitierung. Entweder weißt Du nicht, was DiRT ist, oder Du hast losgeplappert, ohne den Bench zu beachten. Was soll eine Karte in die Knie zwingen können, die DiRT mit 50 fps liefert?

PS Höhere Auflösungen in Oblivion? So oder so kommt niemand in der Schlacht um Sutch auch nur auf 20 fps. I.d.R. nicht mal bei 1024*768. Da ist es pupegal, ob HDR aktiv ist oder nicht. In Sutch bricht jedes System gleich ein, ganz egal, welche karte drin ist. D. h. für viele: Aufrüsten von einer x1800 auf eine X2 ohne einen einzigen Frame zu gewinnen, oder von einer 7800 GT auf eine 8800 Ultra ohne einen einzigen Frame mehr zu bekommen. Aber ein klasse Witz allemal, mit höherer Auflösung mehr Frames bekommen zu wollen, wenn die CPU eine Grätsche macht.

PPS Ihr könnt ja gern weiter auf totale Unkenntnis (Chinesen) dümmlichen Dünkel stützen, aber das ändert nichts an den Fakten.
 
Zuletzt bearbeitet:
ich les leider immer nur blabla.. woher weiss ich, was du da mit rivatuner gemessen hast? den atitool fusselwürfel?
dirt ist ein 1:1 konsolen port, der von anfang an beschissen gelaufen ist.
ist es für dich so schwer einen leicht nachvollziehbaren crysis bench durchzuführen, um deine angebliche 3870xtx zu zeigen?

was google mir über das, was du ati aus hongkong nennst, zeigt, ist das hier:
"Asia Technology and Instrument Limited (ATI) was founded on November 1992 in Hong Kong. We represent and distribute innovative instruments of overseas manufacturers in our sales region. The products we are selling cover different types of measuring and control instruments , including temperature, level, pressure, flow and power conversion."
hört sich alles nicht nach grafikkarten an..
ati wurde von 2 auswanderern aus hongkong in kanada gegründet!
soviel zu deinem sachverstand...
was mich leider noch etwas mehr an deiner "uber xtx" zweifeln lässt...
 
Was nicht wissen, oder Hintergründe nicht kennen, ist keine Schande. Aber Überheblichkeit, hinter der nur Hörensagen steckt, ist schon eine.

Glaubst Du ernstlich, Du wärst der einzige Mensch auf der Welt, dem zu ATI Kanada einfällt? Google mal etwas anders! Fang mit PcPartner und Sapphire an, dann findest Du schnell die Hintermänner, denen ein ganz großer Teil der dicksten Fische im PC-Ausstatter-Geschäft gehören.

PcPartner ist offiziell 'nur' der chinesische Hersteller im Auftrag der Brands, von denen Sapphire mit ca. 70% Anteil der größte ist. Beide gehören derselben Holding, und die wurde von denselben Leuten gegründet, die ATi in Kanada gegründet haben. Nach aussen tritt PcPartner zurück, aber im Grunde ist ATI einer der vielen 'Schafspelze' von PcPartner, und war es immer schon. Von kanada aus hat man Zugang zum US-Markt, und geniesst nicht wenig Förderung durch die kanadische Regierung.

Produktinfos zu Sapphire-Modellen sind von Europa aus fast gar nicht zu bekommen, und ohne chinesisch zu sprechen, kommt man da halt nicht weit.

Selbst die kleineren Modelle mit 825 MHz und 850 MHz gibt es 'offiziell' nicht, obwohl die Defaulttakte ihre Existenz beweisen, denn die kann derzeit niemand ändern, weil sie im BIOS verschlüsselt stehen. Infos zur Verschlüsselung hat Aledander, der Autor des CB-BIOS-Editors.

Hier eine News bei Overclockers.ru zur selben Karte mit 904 Mhz.

Hier greift PCGH das Thema auf, und zeigt einen 3dmark06 mit nur 11759 Punkten @ Default.

Hier ein Bench der Ultra von CB unter ähnlichen Bedingungen mit 12525 Punkten.

Wie gesagt, meine läuft derzeit mit 918/1323.

Crysis-Benches kann man jedenfalls genauso fälschen, wie man mit Rivatuner was anderes aufzeichnen kann, als man behauptet. Daran kann ich nix ändern. Rivatuner-Aufzeichnungen sind aufschlussreicher als interne Benches, und ich traue Crysis nicht, seit ich sah, was es veranstaltet, wenn ich die Einstellung automatisch wählen lasse. Dann ruckelt es nämlich mit saumäßiger Grafik. Stelle ich es manuell ein, läuft es flüssig, und sieht weit besser aus.

EDIT: Und was heißt, DiRT sei beschissen gelaufen? DiRT läuft bei mir perfekt.
 
Zuletzt bearbeitet:
Was tut es? Weniger ruckeln? Es ruckelt ja nicht mal mit meinem D940, der im Leben nicht an einen C2D @ 2 GHz rankommt. Kann es sein, daß Crysis auf allen Nvidia-Karten ruckelt, und ihr das vor lauter Verzweiflung dem armen Prozessor in die Schuhe schieben wollt, um euch eure GraKas schönzureden? Was empfehlt ihr da überall, wenn es bei euch ruckelt? Bei mir ruckelt nix. Ruckelnde Konsolengrafik auf 'ner high end Karte... ist ja lachhaft.

WAS:eek:

du schreibst totalen schrott. es ist 100% so wie ich es sage, 2GHz ruckelt es. das habe ich glücklicherweise festgestellt, als sich die oc einstellungen auf meinem board zurückgestellt haben.


crysis mit 8xAA :lol: sellten sowas gelesen.


2x der selbe müll
http://forums.techpowerup.com/showthread.php?t=59129&page=2

die 3870 oc liste
http://www.oc.xise.de/view.php?dbID=15&limit=all&sort=desc&colum=Core-Takt&search=&searchcolum=
 
Zuletzt bearbeitet:
also wenn ich den geistigen müll einiger "experten" hier lese, sollte eine Duron 1200 CPU mit einer 9800GTX also locker zum Gamen aller Games Reichen, weil die CPU ja nicht limitieren kann:stupid::stupid::stupid:

wenn das so sit, warum kann ich dann bei meiner 3850 X TurboIII einen anstieg der FPS in Games beobachten, wenn ich meinen 5200+ auf 3Ghz Takte ?
 
Zuletzt bearbeitet:
Es ist eigentlich ganz einfach: Maximaler Datendurchsatz (I/O) von CPU und GPU sollten etwa gleich sein. Also sprich ein ausgewogenes I/O Verhältnis.

Es macht zB wenig sinn einen Q6600 mit einer 6800GT zu betreiben. Da beträgt der I/O Durchsatzverhältnis ca. 6:1. Anders herum wäre bei einen 3000 A64 mit einer 9800GX2 das I/O Verhältnis ca. 1:3.

Der grösste Flaschenhals ist zu erst mal der FSB bei Intel und der HT Bus bei AMD, dann erst die CPU bzw. GPU Power.
 
So isses. Bevor die CPU schlapp macht ist der Datenbus schon total überladen.

Der Phenom von AMD hat den zur Zeit schnellsten Datenbus in der PC Technik und arbeitet deshalb etwas effizienter als die Intel Core Prozessoren. Das ist seit Einführung des Hypertransport mit dem NForce 2 Chipsatz schon so.
 
Zuletzt bearbeitet:
ich bestell mir heute eine 3870, damit ich crysis auf 8xAA zocken kann :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh