CPU vs. Grafikkarte - Optimale Verhältnisse

Korrekt. Ich spiel mit 'nem Pentium D @ 3,2 (stock) und DDR400 Crysis und DiRT butterweich auf einer HD3870 @ 864/1251.

Das System limitiert dermassen, daß ich im 3dmark06 nicht mal auf 7000 Punkte komme, aber soweit ich weiß, packt weder eine 8800GT, noch eine 9600GT die gleichen Framerates bei 1280*1024, alles auf Ultra (DiRT), alles auf high (Crysis, XP), bei 8xAA, 16xAF. BTW alles mit VSync.

also das ist doch wohl eher Wunschdenken!:stupid:

ich habe eine 3850 X Turbo III die ich über 3870@stock laufen habe, und einen 5200+ der @3Ghz läuft, mit 4GB DDR2 880 und diese werte laufen nichtmal bei mir annähernd ruckelfrei!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was nicht wissen, oder Hintergründe nicht kennen, ist keine Schande. Aber Überheblichkeit, hinter der nur Hörensagen steckt, ist schon eine.

hörensagen ist, was ich hinter deinem wissen vermute...

Glaubst Du ernstlich, Du wärst der einzige Mensch auf der Welt, dem zu ATI Kanada einfällt? Google mal etwas anders! Fang mit PcPartner und Sapphire an, dann findest Du schnell die Hintermänner, denen ein ganz großer Teil der dicksten Fische im
PC-Ausstatter-Geschäft gehören.

pc-ausstatter... willst du mir jetzt erzählen pc-partner oder sapphire entwickeln die karten??

PcPartner ist offiziell 'nur' der chinesische Hersteller im Auftrag der Brands, von denen Sapphire mit ca. 70% Anteil der größte ist. Beide gehören derselben Holding, und die wurde von denselben Leuten gegründet, die ATi in Kanada gegründet haben. Nach aussen tritt PcPartner zurück, aber im Grunde ist ATI einer der vielen 'Schafspelze' von PcPartner, und war es immer schon. Von kanada aus hat man Zugang zum US-Markt, und geniesst nicht wenig Förderung durch die kanadische Regierung.

??? sony hat doch auch zugang zum us markt... die sitzen aber weiterhin in japan. pcpartner ist nichts weiter als eine fertigungsstätte.

Produktinfos zu Sapphire-Modellen sind von Europa aus fast gar nicht zu bekommen, und ohne chinesisch zu sprechen, kommt man da halt nicht weit.

warum wohl? bestimmt nicht, weil der chinesische markt so riesig ist, dass man sich nordamerika und europa durch die lappen gehen lassen könnte.
kann es sein, dass die gewährleistungsbestimmungen in china ein bisschen anders aussehen als hier?

Selbst die kleineren Modelle mit 825 MHz und 850 MHz gibt es 'offiziell' nicht, obwohl die Defaulttakte ihre Existenz beweisen, denn die kann derzeit niemand ändern, weil sie im BIOS verschlüsselt stehen. Infos zur Verschlüsselung hat Aledander, der Autor des CB-BIOS-Editors.

Hier eine News bei Overclockers.ru zur selben Karte mit 904 Mhz.

Hier greift PCGH das Thema auf, und zeigt einen 3dmark06 mit nur 11759 Punkten @ Default.

Hier ein Bench der Ultra von CB unter ähnlichen Bedingungen mit 12525 Punkten.

du hast dir die screenshots deiner angeblichen xtx aber angeschaut oder? der default takt ist bei denen nämlich 777mhz. wieso sollte man diesen takt nicht ändern können, wenn man ein hersteller ist, der ati nur als mittel zum zweck benutzt um in den us-markt zu kommen?

Wie gesagt, meine läuft derzeit mit 918/1323.

mag sein... dennoch ist es "nur" eine 3870xt OC

Crysis-Benches kann man jedenfalls genauso fälschen, wie man mit Rivatuner was anderes aufzeichnen kann, als man behauptet. Daran kann ich nix ändern. Rivatuner-Aufzeichnungen sind aufschlussreicher als interne Benches, und ich traue Crysis nicht, seit ich sah, was es veranstaltet, wenn ich die Einstellung automatisch wählen lasse. Dann ruckelt es nämlich mit saumäßiger Grafik. Stelle ich es manuell ein, läuft es flüssig, und sieht weit besser aus.

schwachsinn... wenn du dir die mühe machst mit phtoshop deine screenshots zu editieren, ist das deine sache. aber rivatuner aufzeichnungen zeugen einfach von faulheit, oder dem bestreben etwas im dunkeln zu lassen, was wirklich interessant wäre. ob du jetzt 4xAA manuell oder automatisch einstellen lässt ändert nichts dran, dass deine karte einbricht.

EDIT: Und was heißt, DiRT sei beschissen gelaufen? DiRT läuft bei mir perfekt.

bei dir läuft einiges zuviel perfekt...
macht es dir spass in jedem forum in dem du deine komischen screenshots zeigst belächelt zu werden? wenn du etwas behauptest solltest du fakten in form von links liefern und uns nicht bemühen google anzuwerfen. ich habs gemacht, aber du weisst es ja anscheinend besser. ich sag nur ati hongkong...
 
Zuletzt bearbeitet:
So isses. Bevor die CPU schlapp macht ist der Datenbus schon total überladen.

Der Phenom von AMD hat den zur Zeit schnellsten Datenbus in der PC Technik und arbeitet deshalb etwas effizienter als die Intel Core Prozessoren. Das ist seit Einführung des Hypertransport mit dem NForce 2 Chipsatz schon so.
aber warum sind sie langsammer als ein gleichgetakteter core2duo in den games ob 800x600 oder 1280x1024 wobei bei letzten genannten es nur 1-2 fps sind???
 
Zuletzt bearbeitet:
Deswegen hat der Phenom, was Speicherfragen angeht, trotzdem die effizientere und elegantere Architektur. ;)
 
Der Chip wird auf 3 unterschiedlichen Karten verbaut: RV7700XT, RV770Pro und RV770Pro mit GDDR3.

So ist das gemeint.:fresse:
 
lol.. der wird ja immer lustiger ;) oblivion... x1900 und 7900 in einem satz ;)
du weisst, dass die 7900gtx garnicht das rendern kann, was eine x1900xtx rendert (hdr+AA)?
auch bei diesem spiel ist bei zunehmender auflösung die cpu mal wieder völlig einerlei.


Laut ihm hinkt eine 8800GT einer HD3870 so derbe hinterher, dass man darüber kein Wort verlieren sollte: http://www.forumdeluxx.de/forum/showpost.php?p=8958510&postcount=14


Eigentlich ist es ja lustig, auf der anderen Seite wieder traurig, dass er das Forum als Plattform für seinen Stuss missbraucht. Weil es immer Leute gibt, die diesen Blödsinn noch glauben.
 
ich glaub das verstehst du falsch.

der RV770 soll in 3 verschiedene versionen auf dem markt kommen 4870? 4850? 4870 X2
ok, ok .....habe verstanden...wäre halt auch nicht die 1. mehrPCB-Lösung, von daher kahm ich auf den Gedanken.
 
Kinnas, ich weiß ja nicht, was ihr mit eurer Stänkerei bezweckt, aber Tatsache ist, daß GPU-Z meiner HD3870 eine höhere Rohleistung bescheinigt, als eine Ultra hat.

http://www.techpowerup.com/gpuz/3mcge/

Einer einfachen HD 3870 werden 496 GFlops* bei 777 MHz bescheinigt, einer 8800 Ultra 581 GFlops*, und meine HD 3870 Silent macht 586 GFlops bei 918 Mhz. Die Speicherbandbreiten betragen 72,0 GB/s bei einer einfachen HD3870, 86,4 GB/s bei der Ultra und meiner HD 3870 Silent.

Womit, zum Kuckuck, soll eigentlich eine 8800 Ultra die Leistung meiner Karte erreichen? Sie ist mit 8 ALUs so viel unflexibler als eine HD3870 mit 64 ALUs, daß ihr dazu nun wirklich alle Voraussetzungen fehlen.

Sie hat gerade mal dieselbe Bandbreite, aber weniger Rechenleistung, und steht damit auf verlorenem Posten. Da hilft ihr das serienmäßige Voltmodding auch nicht weiter, denn mit moderaten +10% VGPU und VRAM, kann ich jederzeit noch mal einiges nachlegen.

Und nun findet euch gefälligst damit ab! Die Ultra ist eine völlig abwegige Fehlkonstruktion von vorgestern. Mit saumäßiger Bildqualität, ohne Ton. Dafür wird sie heiß und macht Krach, wärend die schnellste Einzel-GPU-Karte der Welt mit maximal 45 Grad Celsius lautlos und elegant ihre Überlegenheit ausspielt. So sieht's aus. Ende der Diskussion. :coolblue:

* Werte können dieser Tabelle entnommen werden.
 
Zuletzt bearbeitet:
bla bla, was für ein schrott....
soll ich meine 7900GT rauskramen, dann siehst du was bandbreite bedeutet
 
yo is voll der Quark, dann könnte man auch behaupten ein Athlon x2 mit 2,4 Ghz ist schneller als ein 6550 weil der hat ja nur 2,33 Ghz...

lass dich mal nicht von den ganzen hohen Zahlen blenden.
 
Zuletzt bearbeitet:
ich kann meine 7900GT bis 63,4 GB/s übertakten und sie bleibt trotzdem dreimal langsamer als meine 8800GT

:wayne:
 
Die Ultra ist eine völlig abwegige Fehlkonstruktion von vorgestern. Mit saumäßiger Bildqualität, ohne Ton. Dafür wird sie heiß und macht Krach, wärend die schnellste Einzel-GPU-Karte der Welt mit maximal 45 Grad Celsius lautlos und elegant ihre Überlegenheit ausspielt. So sieht's aus. Ende der Diskussion. :coolblue:


Hört auf Ihn. Der Experte hat gesprochen. Wenn der G80 eine saumäßige Bildqualität hat, was soll dann erst deine ach so tolle 3870er darstellen? Griff ins Klo...

Der Typ redet nur seine Hardware schön, die er besitzt. Laut ihm haben LC Power Netzteile auch eine höhere Qualität als Seasonic z.B. Weil LC Power Leistungswerte nicht so sehr geschönt sind wie die der Seasonics oder Enermax. Und oh Wunder, er besitzt auch noch ein LC Power. Dafür das sie nicht geschönt sind fackeln die aber recht häufig ab. Pass mal lieber auf deine Hardware auf. Nicht das die auch noch gegrillt wird.
 
Zuletzt bearbeitet:
Hört auf Ihn. Der Experte hat gesprochen. Wenn der G80 eine saumäßige Bildqualität hat, was soll dann erst deine ach so tolle 3870er darstellen? Griff ins Klo...

heyheyhey, das hört sich schon sehr abwertend an :fresse:

Ne im Ernst, an der Bildquali kann man nichts aussetzen bei der ati, die ist imho soger besser als bei der Ultra und auch noch als bei den G92...

aber hier gings ja um die Geschwindigkeit in erster Linie

Edit:
Wobei ich die Bildqualität der Ultra auch nicht als saumäßig einstufen würde (hatte noch keine Ultra hier, nur ne GTX aber das tut sich ja nix.)

nebenbei, ganz schön OT hier :-P
 
Zuletzt bearbeitet:
Ja würd ich auch sagen :btt:

Lohnt sich auch nicht auf solche Beiträge einzugehen, er hat seine Meinung und die kann ihm halt keiner nehmen. Wenn er sich dann irgendwann wieder ne Nvidia kauft, gehts von vorne los. Allerdings auf der anderen (grünen) Seite.

Ich besaß bis vor 2 Monaten noch eine Radeon 1950pro und hatte die Wahl zwischen Radeon 3870 und 8800GTS 512. Da die Hersteller die wirklich sehr gute Referenz- Kühlung abgeschafft und die gute 3870er so vergewaltigt und "gemoddet" haben (eigene Kühllösungen, teilweise keine Lüftersteuerung, eigene Layouts a`la Sapphire Toxic :hmm:), habe ich mich dann für eine schöne 8800GTS 512 im Referenzdesign entschieden, was ich bis heute keinesfalls bereut habe :bigok:

@Topic: auf ausgeglichene Leistung zwischen CPU und GPU sollte Acht gegeben werden, wobei die GPU- Power beim zocken klar stärker ins Gewicht fällt, egal ob ATI oder Nvidia.
Hier ein hochinteressanter Artikel dazu:
Leistungszuwachs durch CPU: http://www.tomshardware.com/de/CPU-oder-GPU-Nvidia-Intel,testberichte-240002-4.html
Leistungszuwachs durch GPU: http://www.tomshardware.com/de/CPU-oder-GPU-Nvidia-Intel,testberichte-240002-5.html
 
Zuletzt bearbeitet:
Kinnas, ich weiß ja nicht, was ihr mit eurer Stänkerei bezweckt, aber Tatsache ist, daß GPU-Z meiner HD3870 eine höhere Rohleistung bescheinigt, als eine Ultra hat.

http://www.techpowerup.com/gpuz/3mcge/

Einer einfachen HD 3870 werden 496 GFlops* bei 777 MHz bescheinigt, einer 8800 Ultra 581 GFlops*, und meine HD 3870 Silent macht 586 GFlops bei 918 Mhz. Die Speicherbandbreiten betragen 72,0 GB/s bei einer einfachen HD3870, 86,4 GB/s bei der Ultra und meiner HD 3870 Silent.

Womit, zum Kuckuck, soll eigentlich eine 8800 Ultra die Leistung meiner Karte erreichen? Sie ist mit 8 ALUs so viel unflexibler als eine HD3870 mit 64 ALUs, daß ihr dazu nun wirklich alle Voraussetzungen fehlen.

Sie hat gerade mal dieselbe Bandbreite, aber weniger Rechenleistung, und steht damit auf verlorenem Posten. Da hilft ihr das serienmäßige Voltmodding auch nicht weiter, denn mit moderaten +10% VGPU und VRAM, kann ich jederzeit noch mal einiges nachlegen.

Und nun findet euch gefälligst damit ab! Die Ultra ist eine völlig abwegige Fehlkonstruktion von vorgestern. Mit saumäßiger Bildqualität, ohne Ton. Dafür wird sie heiß und macht Krach, wärend die schnellste Einzel-GPU-Karte der Welt mit maximal 45 Grad Celsius lautlos und elegant ihre Überlegenheit ausspielt. So sieht's aus. Ende der Diskussion. :coolblue:

* Werte können dieser Tabelle entnommen werden.

ein letztes mal lass ich mich darauf ein meinen senf zu deinem an den haaren herbeigezogenen schwachsinn dazuzugeben.
du kannst nixmehr nachlegen... bei deiner karte ist spätestens bei 950mhz schluss.. ausser du hast ne exotische kühlung. seh es ein.. du hast ne ganz ordinäre hd3870xt, wie alle anderen auch. über deine speicherbandbreite können meine 2900er nur müde lächeln.. bei mir stehn stramme 121,6gb/s im gpuz. bringt das was? nö...
du weisst hoffentlich auch, dass die 2900 in einigen dingen sogar schneller ist als deine hd3870 ;) an eine 8800gtx oder ultra kommt sie trotzdem nicht ran. mein crossfire gespann vielleicht, aber eine einzelne karte auf keinen fall...
auf dem papier sahen die ati karten schon immer gut aus.
aber wie gesagt.. solange du crysis nicht benchen willst, wirst du die wahrheit nie erfahren. dein pentium mit 3,2ghz entspricht in etwa einem core2 mit 1,8ghz.. lol
du willst uns erzählen, dass dein system, dass im 3dmark06 grademal müde 6k bringt crysis@1280x1024,high, mit massig AA flüssig laufen lässt?
wann trittst du im fernsehn auf?
 
Zuletzt bearbeitet:
nein, nein, nein, schluss jetzt mit dieser unsinnigen Debatte, man muß auch mal loslassen können, auch wenn es weh tut, und damit hat sich das.

Crysis ist sowieso Kinderkram, und solange hier keiner wagt, seine fusskranke Karte, ob nun Ultra oder GTX mit DiRT zu benchen, bevor das Ding in die Tonne geht, gibt's keine weiteren Benches von mir!

Ansonsten ist mir Wumpe, was andere mit ollen Kamellen wie der HD2900 zurechtbenchen, oder was Kalle Arsch seine Klofrau gehört oder gelesen haben will. Das Web ist voller Jammerlappen mit Nvidia-Karten, bei denen DiRT ruckelt, und nicht ein einziger Besitzer einer HD 3870 käme auf so eine verrückte Idee.

Dieses Geflenne hier... 586 GFlops sind und bleiben 586 GFlops! Und meine Karte ist alles andere als am Ende. Ich habe sie ja schon deutlich höher gefahren. Aber ich wäre ja verrückt, sie von einem Tag auf den anderen so zu jagen, wenn sie nicht vorher einige Zeit 24/7 mit den bisherigen Werten stabil gelaufen ist. Fakt ist, sie läuft jetzt erstmal mit 918/1350, und das bei 40 Grad mit Serienkühler und geräuschlos. Da geht noch reichlich was.

Findet euch damit ab, und aus die Maus.

EDIT:

Welche Tabelle? Ich seh da bloß einen Text, in dem es um die 3870X2 geht!

Samt tabellarischer Aufstellung der Taktraten, und der reinen Rechenleistung für das Basismodell der 3870, die X2, und der Ultra.

Die sehen ja zwar schon gut aus aber was zählt sind eben Benches.

Die Benches. Ja, selbstredend die Benches, das versteht sich doch wohl von selbst! Aber Du willst doch nicht ernstlich Benches mit 20% weniger Takt heranziehen, die obendrein großenteils als verfälscht debunkt sind. Oblivion im First Person hinterm Busch und dgl. Selbst wenn Du die heranziehen wolltest, sollte Dir doch wohl klar sein, daß 20% auf GPU und auf RAM auch 20% auf alle gebenchten FPS sind.

Und da schlägt die 3870 zwar Geforce 8800GTS 640 und 9600, wird aber von den G92ern eingeholt.

Und? Mit angezogener Handbremse. 777/1126 auf einer Karte, deren Speicher mit 1200 MHz zertifiziert ist, und die Du anderswo mit 904 MHz GPU-Takt kaufen kannst. Soll man darüber lachen oder weinen?

Ansonsten bencht man bei vergleichbaren Einstellungen. Kannst ja mal versuchen, eine G80 oder G92basierte karte auf die gleiche Texturenschärfe einzustellen, die eine 3870 bei 4xAF hat. Sobald Du die Einstellung gefunden hast, bencht man die Karten dann auch damit. Dürfte 16xAF sein. Kannst Dir ja mal die Werte einer GTX oder Ultra bei 16xAf ansehen, und eine 3870 bei 4xAF daneben. Das is dann ein Vergleich mit gleichwertiger Einstellung. Alles andere ist Beschiss, sonst nix. Worauf willste denn eine GT/GTX/Ultra stellen, um gegen eine 3870 bei 16xAF zu benchen, 32xAF? 62xAF?

Allein schon die Idee, eine Karte mit acht Alus könnte irgendeine komplexe Szenerie in Bewegung rendern, ohne hinter eine Karte mit 64 Alus zurückzufallen, wie ein Rentner hinter einen Marathonläufer, ist einfach nur absolut lächerlich.

So, Schluss jetzt, eine 3870 ist schneller, und daran beißt die Maus keinen Faden ab.

Wenn es anders wäre, wäre dieser Thread jetzt schon voll von Rivatuner-Aufzeichnungen samt Triumphgeheul, so wie ich hier über diese Trümmerkarten vom Leder ziehe, oder glaubste, irgendjemand, der mir in diese Parade fahren könnte, würde darauf verzichten?

Und das ist, was ich nämlich wirklich mal wissen wollte. Mission Accomplished. BTW meine Karte macht wirklich 586 GFlops und rund 90 GB/s ohne Voltmod, aber ich taste mich halt nur langsam höher, und Crysis und DiRT läuft hier eins a!.
 
Zuletzt bearbeitet:
Ich glaube deinen Intel Pentium D 940 gegen z.B. einen C2D 8200 zu ersetzen würde dir viel mehr bringen als deine HD 3870 weiter zu quälen..

Mal ehrlich, wie kommst du mit deiner Hardware auf solche Werte?
Ich zitiere: ..."Framerates bei 1280*1024, alles auf Ultra (DiRT), alles auf high (Crysis, XP), bei 8xAA, 16xAF. BTW alles mit VSync"...
Ist ja nicht so, daß niemand in meiner Bekanntschaft eine HD 3870 hat.. Aber keiner kann nachvollziehen, wie du bei solchen Settings noch flüssig spielen kannst..

Edit: Den einzigen Vorteil, den ich der 3870 zusprechen kann ist daß sie teilweise höhere min. FPS in einigen Games hat..

Das Web ist voller Jammerlappen mit Nvidia-Karten, bei denen DiRT ruckelt, und nicht ein einziger Besitzer einer HD 3870 käme auf so eine verrückte Idee.

Ich hab mal danach gegoogelt und hab einige Threads gefunden, wo über diese Schwierigkeiten in DIRT geklagt wird. Jedoch sind davon sowohl Nvidia als auch ATI- Besitzer betroffen, die meiner Meinung nach ihren Rechner nicht im Griff haben, ihre Hardware nicht einschätzen können und/oder nicht fähig sind ihr System richtig einzustellen.

Ich für meinen Teil habe jetzt keine Lust mehr über solche Themen zu diskutieren und werde mich ab jetzt ausschließlich dem Topic widmen. Falls du zum Topic nix konstruktives beitragen kannst, würde ich dir empfehlen deine unhaltbaren Äußerungen hier sein zu lassen und einen ATI vs. Nvidia Thread zu eröffnen -.-
Dort können deine Fanboy- Kollegen und du sich dann gegenseitig die Köpfe einschlagen :wall:
 
Zuletzt bearbeitet:
Ich glaube deinen Intel Pentium D 940 gegen z.B. einen C2D 8200 zu ersetzen würde dir viel mehr bringen als deine HD 3870 weiter zu quälen..

NEIN! dann kommen ja noch mehr nicht nachvollziebare ergebnisse zu stande, dann kann er Crysis mit 200fps und 16xAA / 64x AF Spielen bei 1600er auflösung!:fresse:

und wenn dann noch DDR2 reinkommt, ohweija!:asthanos:
 
Zuletzt bearbeitet:
Was geht denn hier ab, ich dachte, dass sei ein seriöses Forum:fresse:...

Hört doch auf mit dem Mist, und wie schon gesagt ist Crysis ist eh Schrott, wenn dann Bencht anständige Spiele(z.b. COD4, Stalker, The Witcher etc.)...
 
Mal ehrlich, wie kommst du mit deiner Hardware auf solche Werte?
Ich zitiere: ..."Framerates bei 1280*1024, alles auf Ultra (DiRT), alles auf high (Crysis, XP), bei 8xAA, 16xAF. BTW alles mit VSync"...
Ist ja nicht so, daß niemand in meiner Bekanntschaft eine HD 3870 hat.. Aber keiner kann nachvollziehen, wie du bei solchen Settings noch flüssig spielen kannst..

Alles erfunden. Der hat noch nie eine G80/G92 live gesehen. Ihm reicht ein Bild und erkennt schon die dermaßen überlegene Bildqualität. In Wirklichkeit haben die aktuellen NVIDIA Karten das minimal bessere AF. Aber das ist Jammern auf hohem Niveau. Man muss auch mal erwähnen, es gibt auf beiden Seiten immer mal wieder das ein oder andere Spiel, wo eine AMD bzw. NVIDIA Karte stark im Vorteil ist. Deswegen ist das schon Schwachsinn von einem Spiel auf die ganze Karte zu schließen. Nur da von dem Schwachsinnserzähler so viel falsche Sachen schon gepostet wurden, kann man von dem nicht ein einziges Wort mehr ernstnehmen.
 
Zuletzt bearbeitet:
Sophosaurus, König der Realitätsverdreher; Meister der Falschwahrnehmung; Dampfplauderer erster Klasse.

"He Saurus, wie kann deine Karte schneller sein als meine, wenn die nichtmal Assasins Creed auf 1920x1200 ruckelfrei hinbringt? Sie KANN also garnicht schneller sein."

Du erkennst den Fehler in der Argumentation, also hör mal mit deinem ständigen DIRT-Gesülze auf. Das du von einem einzigen Spiel umfassend auf die Leistung einer anderen Karte schließt zeugt von einigem, aber nicht von Sachverstand. Das du der Einzige bist der die AF-Qualität (natürlich ohne sinnvollen Vergleich) der ATI/NV-Karten anders wahrnimmst- genaugenommen vollkommen umgekehrt- als der Rest der nicht mit Blindheit geschlagenen Bevölkerung, macht einen nicht glaubhaft.

Und dein Lobgehudel auf deine unvostellbar tolle Grafikkarte ist an Arroganz und Protzerei nicht mehr zu überbieten. Wir kennen das: Was man im Rechner hat ist immer besser als das was der andere hat. Auch wenn man dafür mal ein paar Umstände ignoriert.
 
Zuletzt bearbeitet:
aber warum sind sie langsammer als ein gleichgetakteter core2duo in den games ob 800x600 oder 1280x1024 wobei bei letzten genannten es nur 1-2 fps sind???

AMD hat dem Phenom eine 3stufige Cache Pipeline verpasst. Die Leistungsverluste kommen denke ich, daher, daß die meisten Compiler für Intel Architekturen optimiert sind.

Wenn es eine neue Hardwaregeneration gibt, dann dauert es eine Weile, bis die Progarmmierertools darauf optimiert und angepasst sind.

Eine 3stufige Cachepipeline macht eigentlich auch nur im Serverbereich Sinn, da die Maschinen Mulitprozessortasks und viele I/O Operationen durchführen und dabei noch große Mengen von RAM adressieren müssen.

AMD hat den Phenom eigentlich ja auch als Serverprozessor auf den Markt gebracht.

Ähnliche Architekturen findet man z. B. bei SUN UltraSparc Prozessoren. SUN ist Weltrekordhalter was die CPU Leistung betrifft.

Die Grafikkleistung für Videospiele spielt da überhaupt gar keine Rolle.

SUN UltraSparc T2 8 Core Prozessor: http://www.sun.com/processors/UltraSPARC-T2/

SUN UltraSparc IV+ mit 32 MB L3 Cache: http://www.sun.com/processors/UltraSPARC-IVplus/details.xml
 
Zuletzt bearbeitet:
AMD hat dem Phenom eine 3stufige Cache Pipeline verpasst. Die Leistungsverluste kommen denke ich, daher, daß die meisten Compiler für Intel Architekturen optimiert sind.

Wenn es eine neue Hardwaregeneration gibt, dann dauert es eine Weile, bis die Progarmmierertools darauf optimiert und angepasst sind.

Eine 3stufige Cachepipeline macht eigentlich auch nur im Serverbereich Sinn, da die Maschinen Mulitprozessortasks und viele I/O Operationen durchführen und dabei noch große Mengen von RAM adressieren müssen.

AMD hat den Phenom eigentlich ja auch als Serverprozessor auf den Markt gebracht.

Ähnliche Architekturen findet man z. B. bei SUN UltraSparc Prozessoren. SUN ist Weltrekordhalter was die CPU Leistung betrifft.

Die Grafikkleistung für Videospiele spielt da überhaupt gar keine Rolle.

aso danke habe ich nicht gewusst
 
Topic ist: kann man die Leistung einer Top-Karte mit einer schwachen CPU nutzen? Einen besseren Einblick als meine Grafik gibt, wird man kaum finden.

Was hier geschrieben wurde, bestätigt doch wohl, daß meine Karte ausserordentlich schnell ist. In diversen Spielen kann man das gut nutzen, wie die Grafik zeigt. QED. Natürlich nicht in allen.

Mal ehrlich, wie kommst du mit deiner Hardware auf solche Werte?

Crysis und DiRT laufen bei mir sehr gut, weil sie fast nur von der Grafikkarte abhängen. Daraus kann man nicht schliessen, daß alles so läuft. Oblivion ist mit meiner CPU und DDR400 nur in Dungeons oder im Wald zu ertragen, aber nicht in den Städten.

Ich zitiere: ..."Framerates bei 1280*1024, alles auf Ultra (DiRT), alles auf high (Crysis, XP), bei 8xAA, 16xAF. BTW alles mit VSync"...
Ist ja nicht so, daß niemand in meiner Bekanntschaft eine HD 3870 hat.. Aber keiner kann nachvollziehen, wie du bei solchen Settings noch flüssig spielen kannst..

Da bei mir fast alles CPU-limitiert ist, macht es kaum einen Unterschied, ob ich mit oder ohne AA und AF spiele. VSync muß ich zuschalten, weil mir sonst Tearing das Bild zerreisst.

Zwischen 777/1126 MHz und 864/1251 MHz liegen Welten.

Die Grafik, die ich gepostet hab, zeigt bei 80% GPU-Last ca. 25 fps, bei 100% aber schon 40 fps. 80% habe ich, wo die CPU limitiert. Bei 80% habe ich etwa die Leistung der kleinsten HD 3870, bei 60% etwa die der HD 3850.

Übertaktung der GPU ohne Übertaktung des RAMs bringt kaum Vorteile, wer aber beides genauso taktet, müßte auch die gleiche Leistung haben.

Crysis läuft bei mir flüssig, aber nicht mit den gleichen fps wie DiRT. Jedenfalls nicht mit 864/1251, aber das habe ich ja auch nie behauptet.

Gesagt habe ich: Ich habe die Bandbreite, und ich habe mehr GFlops als eine Ultra hat. Ist ja auch kein 120-Euro-Modell.

EDIT: Ich rechne es jetzt mal vor:
Eine X2 hat die Leistung zweier HD3850.
Eine HD 3850 hat 80% der Leistung einer HD 3870.
Eine X2 hat 160% der Leistung einer HD 3870.
Eine HD 3870 hat damit 62,5% (100/160*100) der Leistung einer X2.
20% Overclocking darauf sind 75% (62,5+12,5) der Leistung einer X2.
Da die X2 anerkanntermaßen über 30% vor der Ultra liegt,
liegt eine HD 3870 bei +20% Takt auf GPU und RAM definitiv vor der Ultra.

Wer was anderes glaubt, hat Probleme mit dem Grundrechnen.
Ihr macht hier einen Höllenzirkus ohne jede Grundlage.

Den einzigen Vorteil, den ich der 3870 zusprechen kann ist daß sie teilweise höhere min. FPS in einigen Games hat..

Bei 777 MHz GPU-Takt? Bei 851 MHz? Bei 904 MHz? Bei über 1200 MHz Speichertakt? Über 1300 MHz? Über 1400 MHz? Bist Du Dir sicher, daß Du weißt, worüber Du sprichst?

Die Grafik zeigt einen Anstieg von 25 fps auf 40 fps bei 20% mehr GPU-Last. Das entspricht 20% mehr Takt.

Es gibt eben nicht die HD 3870, sondern verschiedene Modelle, deren Spawas andere Grenzen setzen, deren RAM anders bestückt ist, die mit verschiedenen Spannungen arbeiten, mit verschiedenen Kühlern bestückt sind, verschieden getaktet, und eben auch unterschiedliche Preise haben.

CB bencht ja auch nur die schwächsten Modelle, die der Markt hergibt. Im Sammelthread hat erst einer gefragt, was von dieser Turbo mit GDDR3 zu halten ist. Ich hab noch versucht, ihn zu warnen... heute wundert er sich, daß er nicht über 12k im 3dmark06 kommt. 3850-Niveau halt. Nicht schlecht, aber meilenweit von Karten entfernt, die man auf 15-16K jagen kann. Ich hab mich hier schon immer bemüht, auf die Unterschiede hinzuweisen*, aber man redet gegen taube Ohren, weil Leute wie dieser Andermahr mit ihrem Geschwätz alles übertönen.

Ich hab mal danach gegoogelt und hab einige Threads gefunden, wo über diese Schwierigkeiten in DIRT geklagt wird. Jedoch sind davon sowohl Nvidia als auch ATI- Besitzer betroffen, die meiner Meinung nach ihren Rechner nicht im Griff haben, ihre Hardware nicht einschätzen können und/oder nicht fähig sind ihr System richtig einzustellen.

Ich habe die Kundenrezensionen bei Amazon durchstöbert, hier im Luxx gelesen, und auch anderswo. Danach ist mein hier gepostetes Ergebnis schon recht ordentlich. Um so besser kann es illustrieren, daß eine Top-Karte in einem schwachen System einiges bringen kann.

Schwaches System heißt nicht low end und nicht low cost. Die Kiste hat mich vor 22 Monaten etwas über 1000,- gekostet. Ohne Monitor, ohne Windows. Auch wenn das nur ein P4D ist, läuft er immerhin mit 3,2 GHz. Für DiRT, Crysis oder Two Worlds reicht das gerade so eben, mit maximalen Settings bei 1280*1024 uneingeschränkt flüssig zu spielen. Für Oblivion z. B. genügt das nicht. Das ist, was die Leute wissen wollen.

Falls du zum Topic nix konstruktives beitragen kannst,

Noch bin ich hier der einzige Teilnehmer im Thread, der überhaupt etwas beigetragen hat. Das wollen wir mal nicht vergessen.

Wer wissen will, ob sich eine High End Karte lohnt, will keine Sprüche, keine Theorien, sondern sehen, wie ein problematisches Spiel unter solchen Bedingungen läuft, und was dabei eine Rolle spielt. Siehe oben.

würde ich dir empfehlen deine unhaltbaren Äußerungen hier sein zu lassen

Lass die Unverschämtheiten. Von mir ist hier jedes Wort belegt. Soweit ich erklärt habe, was es mit meiner Karte auf sich hat, war das nötig, damit nicht die Fanboys behaupten, daß diese Karte nur Midrange sei, und die Grafik nicht beweise, daß eine GTX im selben System Sinn hätte.

Doch, hätte sie, denn sie liegt ja in etwa in der gleichen Leistungsklasse. D. h. übertaktet auf Ultra-Niveau, und damit am oberen Ende der Einzel-GPU-Karten wie meine eben auch.

...deine Fanboy- Kollegen und du...

Geh mal zum Arzt! Die Karte ist nicht etwa zufällig so schnell, sondern weil ich lange gesucht hab, um bei unbegrenztem Budget das Beste zu kaufen, das der Markt gerade hergibt. Ich hätte fürs gleiche Geld mit weniger Mühe 'ne GTX schiessen können, die DiRT nicht mit maximalen Schatten ruckelfrei stemmt, und dabei weder lautlos noch 40 Grad kühl bleibt.

Crysis & Stalker benche ich nächste Woche vielleicht mal, wenn ich dazu komme. Sonst könnte ich mit TW dienen. Hab keine große Spielesammlung hier.

* ATI ist auch nicht sehr fair, was Modelle und ihre Unterschiede angeht. Ich bin absolut kein Fan. AMD ist für mich sowieso ein Sauladen, und Sapphire als Firma ganz besonders.
 
Zuletzt bearbeitet:
Ich selber habe eine Dual Core CPU 4200+ Athlon mit einer 8800 GT Zotac AMP im Betrieb.
Alle heutigen Spiele laufen mit einer Auflösung von 1680 x 1050 x 32 AA4x AF16x schnell
sauber und flüssig....ich hatte vorher eine ATI X850XT von Powercolor drin.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh