Erste GeFroce Fx Benches

Ich verstehe es nicht... Wenn 3 Leude die Theorien von ihm widerlegen und der gleichen Meinung sind. Das er dann so hartnäckig an seiner (falschen) Theorie festhält :wall:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
au man. Euer Streit ist ja fast peinlich, besonders für Sid Burn. ihr hab allein schon 2,5 seiten von 3 zu geschrieben, wobei es hier um die FX geht.

@Sid Burn wiso willst du denn nicht akzeptieren, dass die Berechnung von FSAA und AF über haupt keine Arbeit für die CPU bedeutet???

@die andere Partei
ich stimme euch zu 99,9% zu. das einzige,
was noch ein problem bei FSAA und AF ist, ist die größe des Graka-Rams und die System Ram Bandbreite. weil wen der graka ram dur die berechnung von FSAA und AF voll ist (höhere auflösung braucht in der Karte mehr platz) wird der kram in der System Ram ausgelagert. und der ist lahm.

wenn irgentwas nich stimmt bitte korrigieren(ausser RS-Fehler) ich bin erst 15. also nich zu sehr aufregen wenn ich mist schreibe. und wenn die diskusion nich bald beendet wird solltet ihr ein neues Thema eröffnen.:) :)
 
1. Nehmen wir mal deine 200MHz CPU. Die kann (nur ein Beispiel) in einem Spiel max. Koordinaten für 1000 Polygone (Dreiecke sind ja auch nur Polygone) produzieren. Die Grafikkarte (z.B. 9700 Pro) wird dann in 640x480x32/noAF/noFSAA fast idlen, vielleicht 20% Leistung brauchen und es kommen unterm Strich 50fps raus. Schalte ich jetzt auf 1024x768x32/noAF/noFSAA muss die Karte mit 50% Leistung arbeiten...die fps bleiben bei 50, an der Buslast ändert sich fast NULL. Aktiviere ich nun 1024x768x32/16xtri-AF/4xFSAA arbeitet die GraKa mit 95% Leistung....die fps bleiben bei 50. An der Buslast ändert sich erneut nichts relevantes.

So stimme dir wieder zu. Ich sage auch ganz klipp und klar, die CPU hatt nichts mit der Berechnung von FSAA und AF zu tun. Habe ich auch nie gesagt ds die CPU leistung dazu was zu tun hat. Sondern eher die Bandbreite.

Okay sagen wir deine meinung ist komplett richtig, und alles stimmt, und CPU soll volkommen egal sein. Warum wird dann die Schere größer zwischen AA und non AA, wenn man nen schnelleren CPU nimmt. Oder besser gesagt immer kleiner wenn man nen langsameren CPU nimmt? den das ist ja was ihr beid vorher gesagt habt. Das was du sagst ist genau das was ich sage. Denn die AA und AF Leistung bleibt gleich, egal bei welcher CPU. also Leistungsverlust müsste gleich bleiben, egal welcher CPU. Und das wurde mir kritisiert, das bei weniger CPU Leistung auch die Schere immer enger wird. Jedoch sagst du ja jetzt selber das der CPU egal ist.

Nehmen wir mal deine 200MHz CPU. Die kann (nur ein Beispiel) in einem Spiel max. Koordinaten für 1000 Polygone (Dreiecke sind ja auch nur Polygone) produzieren

Stimmt nicht ganz. Wenn in einem Spiel 30.000 Polygone in einer Szene vorkommen,w erden auch 30.000 Polygone von der CPU generiert. Wenn die CPU Leistung nciht so stark ist soviele in der Entsprechenden Zeit zu Produzieren, dauen die berechnung länger, wobei die GraKa in der Zeit Idled.

Es ist ja nicht so, das du einen langsameren CPU hast, und dann weniger Polygone hast. Wenn das nach dir geht, wäre für alle Grafik nur die grafikkarte entscheidend. Den Polygone werden ja nur so viele Produziert wie die CPU schafft.

Und warum nicht dagegen sein? Das was ihr sagt ist einfach nicht Logisch. Wenn ich nen langsameren CPU nehme, wird die Verlustleistung doch nciht niedriger bis ich bei 0% angekommen zwischen AA an und aus !!!
 
@sid burn:
Und warum nicht dagegen sein? Das was ihr sagt ist einfach nicht Logisch. Wenn ich nen langsameren CPU nehme, wird die Verlustleistung doch nciht niedriger bis ich bei 0% angekommen zwischen AA an und aus !!!

natürlich stimmt das und ich glaube du hast alles soweit im einzelnen verstanden nur der geistes blitz für den gesammt zusammenhang fehlt noch.

was meinst du eigentlich mit:
Habe ich auch nie gesagt ds die CPU leistung dazu was zu tun hat. Sondern eher die Bandbreite.
 
@Potz

ich sprach von der bandbreite die ein CPU hat. 133Mhz FSB. wenn du 100Mhz FSB hast, bleibt die Bandbreite ja gleich. Auch wenn der CPU schneller ist oder langsamer. Jedoch macht sich die CPu Leistung wieder bemerkbar in Dreicke zu Stellen. Licht und Schatten Berechnungen sind auch auf dem CPU. Und komm jetzt nicht mit T&L das ist Müll.

Okay der geistes Blitz fehlt mir. ;)

Aber es ging ja Hauptsächlich darum um die sogenante Schere zwischen AA und nicht AA. Und das diese geringer wird, je langsamer der CPU, und das diese irgendwann bei 0% angekommen ist. Was aber fakt ist, das es Falsch ist. Selbst wenn ich ne 9700Pro nehme. Wenn ich die in nen 900Mhz CPu einbaue, wird es nie so sein ds ich zwischen AA und nciht AA fast keinen Leistungsunterschied habe, und je höher die CPU geht desto höher wird die Schere. Den die CPU hat zwar die selbe bandbreite, jedoch für das generieren der gleichen Anzahl der Polygone braucht sie länger. Von daher wird die graKa länger im Idle sein. Das ist Rechenzeit verschwendung, und die Gesamtleistung sinkt wieder.

Theoretisch wäre dann auch kein unterschied zwischen AA an udn aus. Jedoch ist es Praktisch nciht so. theoretisch bringt asynchrone Speichertaktunk überhaupt nix. Bei mir bringt es bis zu 20% mehr leistung. gerade beim CPU kannst die Theorie vergessen. Deswegen sagte ich ja gebt mir ne Konfiguration wo mit oder ohne AA gleich ist. Doch bisher wurde keine Abgeben.
 
Original geschrieben von Sid Burn
Wenn ich nen langsameren CPU nehme, wird die Verlustleistung doch nciht niedriger bis ich bei 0% angekommen zwischen AA an und aus !!!

Doch genau das passiert! Und Verlustleistung ist was anderes, du meinst den Performancehit ;)

Bei den 1000 Polygonen hatte ich das "/s" vergessen ;)


Zu deiner Konfig kann ich dir was geben, auch wenns nen triviales Beispiel ist: CS@1024x768x32 noAF/noFSA=100fps, @1024x768x32/16-triAF/4xFSAA0100fps. Performancehit=0%Zwar bremst bei CS die Engine selbst auf 100fps, wäre aber das gleichen als wenn du ne CPU hättest mit 300MHz.

Und nein, Licht ist nicht CPU....und wer T&L als Müll beschimpft hat null Ahnung....
 
Also 100fpas gleich ob AA an oder aus. Dann wirst wohl VSync an haben.

Und T&L ist so gut. Jedoch das T&L was wir haben in grafikkarten ist Müll. Less dir mal Artikel bei 3dCenter.de durch. Wo das T&L bei der GF2 beschrieben wird. Dort wirst du selber zum Entschluss kommend as es absoluter Müll ist. Erst durch neuere evrsionen bessere Versionen wird T&L besser. momentan ist es einfach nur mißt.

Das zeigt das du nciht viel Ahnung hast.
 
Original geschrieben von Sid Burn
Also 100fpas gleich ob AA an oder aus. Dann wirst wohl VSync an haben.

Und T&L ist so gut. Jedoch das T&L was wir haben in grafikkarten ist Müll. Less dir mal Artikel bei 3dCenter.de durch. Wo das T&L bei der GF2 beschrieben wird. Dort wirst du selber zum Entschluss kommend as es absoluter Müll ist. Erst durch neuere evrsionen bessere Versionen wird T&L besser. momentan ist es einfach nur mißt.

Das zeigt das du nciht viel Ahnung hast.

Bubb....also langsam glaube ich nicht nur dass du soviel Ahnung von GraKas hast wie nen Affe vom Bügeln...ich bin mir dessen sicher.

Im Gegensatz zu dir weiss ich wie ein PC funktioniert, sogar bis runter auf die Gatorebene....wärest du nicht erst seit 2 Wochen mit PCs beschäftigt sondern wie ich 17 Jahre...dann hättest du auch "ein wenig" mehr Wissen. Vsync ist natürlich aus...aber da du ja von nix ne Ahnung hast, weißt du auch nicht dass die HL Engine nicht über 100fps anzeigen kann, selbst in 320x240 mit Flat Shading (wird dir auch nix sagen.....)würde es nicht über 100fps gehen.

Im Gegensatz zu dir kenne ich alle 3DCenter Artikel und bin da auch gern gesehener Kommentator....der 3DC Artikel zum Thema T&L ist leider extrem theoretisch...eine 800MHz CPU kann zwar bei einem reinen T&L Test einer festverdrahteten T&L Engine ala GF2 das Wasser reichen..aber eben nur in der Theorie. In der Praxis (also im Spiel) bleiben von den 800MHz noch etwa 30% für Soft-T&L Aufgaben übrig, denn die CPU muss sich um die Soundsteuerung, Protokolle, I/O Vorgänge, KI etc kümmern. Du bräuchtest also eine ~2.4GHz CPU um IM SPIEL die T&L Leistung der GF2 durch die CPU erledigen zu lassen.

Außerdem sind T&L Einheiten schon lange entwickelt...Aufwachen..nennt sich heute Vertex Shader. Sind programmierbar und adaptiv. Die GF3 hat z.B. 1 Vertexshader und eine "klassische" T&L Unit, die aber nicht parallel arbeiten können. Die ATI 8500 hat 2 Vertexshader, wobei der eine "ab Werk" mit dem klassischen Befehlssatz gefüttert ist und beide Einheiten auch superskalar arbeiten können, daher ist das T&L auf ner ATI Karte auch schneller. Installier einfach mal den DronezMark...da wirste sehen wie schnell die CPU T&L Aufgaben im Vergleich zu ner GraKa macht.
 
Zuletzt bearbeitet:
@Avenger

Joo stimmt mit CS. Habs selber getestet. Nur kann ja nicht jede Engine auf der Welt kennen. Auserdem hat eine schwache Engine nix mit unser Problem zu tun. Den wir sprechen über Hardware nicht über Software was eine bestimtme Engine schafft. Den bei der CS Engine bringt die Software nicht mehr, die verhindert das die Hardware mehr Leisten kann.

Trotz alledem bin ich immer Höfflich gewesen. warum fängst jetzt an mich zu Beleidigen? So etwas kann man auch normal mit Worten Beispielen etc. Klären. Dafür ist doch ein Forum da. um zu Diskutieren. Ich selber habe schon im Laufe dieses Threads Sachen eingesehn und verbessert. Doch manche Sachen die Logisch sind, sieht keiner ein. Bist mit deinen Wortschatz am Ende so das nicht mehr Argumentativ Sprechen kannst?

Von solchen Leuten halte ich nicht viel die zu Ausdrücken greifen müssen, um sich zu Bewahrheiten. Und nur weil ich seit 2 Wochen im Forum angemeldet bin heißt das nicht das, ich mich auch erst seit dem Interressiere.

Solch ein beitrag wie den letzten hättest die jetzt sparen können. Meinste etwa ich sehe dich als ein großer meister an, oder als der Hardware Gott weil auf 17 jahre Erkenntnis zurück greifen kannst? Soll ich jetzt lachen. Es kommt immer eine neue Generation die sich besser auskennt, und die alte Ersetzt. Ob der das jetzt 17 Jahre macht oder 5 Jahre ist egal.

Das ich das bin sage ich nicht. bin ich definitiv nicht. jedoch muss ich mir so ein Angeberisches immer besserwisserisches (richtig geschrieben?...) Reden nciht Anhören.

Guten Tag noch.

EDIT: Ja weiß das die CS oder Half-Life Engine auf Quake Engine basiert. Nicht das mich gleich wieder Anmotzt das nicht zu Wissen. Kann eben nicht jeder so gut sein wie du. Och du mein Held. :love: Vertex Shader... hin und her. Die meisten Engine benutzen diese überhaupt nicht. Es gibt nur paar Spiele die davon richtig gebrauch machen. Warum soll dann also T&L so Wertvoll sein. Momentan ist es wirklich noch fürn Arsch... Um es Wortwörtlich zu sagen.
 
Zuletzt bearbeitet:
so nun habe ich mal alle posts über diesen leistungseinbruch übersprungen und sage auch noch was kleines dazu^^
ich ba hier nen celeron 500 und ne geforce2mx
wenn ich ut2003 zocke, dann ist es eigentlich scheiß egal ob ich nun auf 320*240 mit null details zocke, oder alles auf maximal stelle....bei der niedrigsten einstellung habe ich so 12 fps und bei max einstellungen 11,5 fps......wenn hier jetzt aber ein highend pc stehen würde(kommt in2-3 tage ;-)), dann würde die ganze sache gleich ganz anders aussehen^^

jetzt zur fx:
ja mich erinnert das ganze auch an die damalige 3dfx zeit, bei der ich fast flennen musste, als ich hörte, dass die ihre rampage graka nicht mehr rausbringen werden, weil nvidia die aufgekauft hat( grrrrr )...
das lag daran, dass immer mehr verspätungen entstanden, wärend nvidia gemütlich neue karten entwickelte und rausbrachte....

bloß diesmal ist es nicht allein ihre schuld, denn die firma, die ihre gpu's produziert hat diese verzögerungen verursacht....sie haben zu lange gebracht um auf 0.13micron umzusteigen und nun ist nvidia wörtwörtlich am arsch, außer die bringen jetzt noch fette treiber, die wenigstens etwas den vorsprung erhöhen, damit sie konkurrenzfähig bleiben und damit die preise schön niedrig bleiben.....

eigentlich war nvidia hier der dumme, da sie die 0.13 micron technik testen ließen und die firma nun alles beherrscht.....doch ati(die auch bei der selben firma produzieren lassen) haben nun ein erprobtes 0.13 micron zur verfügung und sie können günstig die neue technik verwenden und nvidia plätten.....

bin schon gespannt, wie sich das übers jahr so entwickeln wird....

achja: die jetzige fx suckt.....es sind zu viele fehler drinn
-die bandbreite
-nur 3 vertexshader

und das wären eigetnlich schon die 3 hauptkritikpunkte

hätet die graka 4 vertexshader wie die radeon gehabt, dann wäre sie jetzt warscheinlich deutlich schneller gewesen...
 
Original geschrieben von Sid Burn
@Avenger

Joo stimmt mit CS. Habs selber getestet. Nur kann ja nicht jede Engine auf der Welt kennen. Auserdem hat eine schwache Engine nix mit unser Problem zu tun. Den wir sprechen über Hardware nicht über Software was eine bestimtme Engine schafft. Den bei der CS Engine bringt die Software nicht mehr, die verhindert das die Hardware mehr Leisten kann.

Trotz alledem bin ich immer Höfflich gewesen. warum fängst jetzt an mich zu Beleidigen? So etwas kann man auch normal mit Worten Beispielen etc. Klären. Dafür ist doch ein Forum da. um zu Diskutieren. Ich selber habe schon im Laufe dieses Threads Sachen eingesehn und verbessert. Doch manche Sachen die Logisch sind, sieht keiner ein. Bist mit deinen Wortschatz am Ende so das nicht mehr Argumentativ Sprechen kannst?

Von solchen Leuten halte ich nicht viel die zu Ausdrücken greifen müssen, um sich zu Bewahrheiten. Und nur weil ich seit 2 Wochen im Forum angemeldet bin heißt das nicht das, ich mich auch erst seit dem Interressiere.

Solch ein beitrag wie den letzten hättest die jetzt sparen können. Meinste etwa ich sehe dich als ein großer meister an, oder als der Hardware Gott weil auf 17 jahre Erkenntnis zurück greifen kannst? Soll ich jetzt lachen. Es kommt immer eine neue Generation die sich besser auskennt, und die alte Ersetzt. Ob der das jetzt 17 Jahre macht oder 5 Jahre ist egal.

Das ich das bin sage ich nicht. bin ich definitiv nicht. jedoch muss ich mir so ein Angeberisches immer besserwisserisches (richtig geschrieben?...) Reden nciht Anhören.

Guten Tag noch.

EDIT: Ja weiß das die CS oder Half-Life Engine auf Quake Engine basiert. Nicht das mich gleich wieder Anmotzt das nicht zu Wissen. Kann eben nicht jeder so gut sein wie du. Och du mein Held. :love: Vertex Shader... hin und her. Die meisten Engine benutzen diese überhaupt nicht. Es gibt nur paar Spiele die davon richtig gebrauch machen. Warum soll dann also T&L so Wertvoll sein. Momentan ist es wirklich noch fürn Arsch... Um es Wortwörtlich zu sagen.

:ha nicht nur dumm, auch noch rotzfrech. Wer hat denn hier anderen Menschen Unwissenheit unterstellt, nur weil er von der Materie nichts versteht? Du doch. Technische Argumente scheinen ja auf den letzten 3 Seiten keinen Millimeter durch deine Mauer des eingebildeten Wissens durchgedrungen zu sein.

Gerade bei CS sagte ich ja, dass die Engine bremst, dies aber vergleichbar ist als wäre der Prozessor in der Leistung limiert. Wenn du dies nicht begreifst, dann frag einfach nochmal nach anstatt ständig auszuweichen.

Das Problem deiner Argumentation: Kein Wissen und daher keine Logik. Denn aus falschem Wissen kann niemals korrekte Logik entstehen. Du wirst mich sicherlich nicht ersetzen, da kannste sicher sein. Deine Vertex Shader "Antwort" zeigt ja wieder, dass du nichts, aber auch gar nichts verstanden hast. Wenn ein Spiel Hardware T&L unterstützt, dann nutzt es auch automatisch die Vertex Shader, weil T&L heutzutage in den Vertex Shadern steckt. Und wie lange gibt es T&L schon? Richtig, seit es die OGL Schnittstelle gibt, da in dieser Hardware T&L seit Anfang an implementiert ist, daher also jedes Spiel welches die OGL Schnittstelle unterstützt von Hardware T&L profitiert.
 
Unwissenheit unterstellen ist imemr noch etwas anderes als Beleidigen.

Naja ich werde mir jetzt nen 1Ghz Rechner und ne Radeon9700Pro bestellen, damit ich ohne Verlust in AA und AF spielen kann :ha Auch wenn nur 40fps. Naja wenn das Kontsant bleibt reicht das ja. CPU ist ja egal :ha

Naja du/ihr habt Recht und ich habe meine Ruhe. Ihr übrigens auch also pssss

EDIT: Bei Mafia z.b. gerade mit Fraps gebencht. bekomme ich gleich viele fps ob T&L an oder aus ist. Habe aber nur ne DX7 Karte. Von daher das fest verdrahte T&L. Jedoch dürfte das bei einer DX8 Karte nciht anders sein. Jedenfalls dann wenn Mafia standartmäßig keine Vertex/Puixel Shader benutzt. Spiele die auf DX7 Programmiert wurden können die vertex/Pixel Sahder auch nciht nutzen, und benutzen auch nur das sogenante fest verdrahtete. Und selbst wenn es nen DX8 spiel ist, muss es noch keine Vertex Sahder benutzen. Davon gibts ja genug Spiele.
 
Zuletzt bearbeitet:
Ja, wir haben Recht. Schön das dus endlich einsiehst ;)...

Du hast ja nun mittlerweile bewiesen, dass dein Wissen mehr als lückenhaft ist! Also, bitte sei doch nicht so stur und glaub uns endlich...
 
@Madnex

Joo mein Wissen ist "Lückenhaft" Man kann nie alles Wissen. Aber brauch man auch nciht unbedingt. Aber mal ehrlich was soll ich den nun galuben? Also worüber haben wir genau Diskutiert was ich glauben soll?
 
^^ ist es immernoch nicht zu ende....
der prozentuale leistungseinbruch ist bei einer schwachen cpu nunmal kleiner, als bei einer starken und dies kann ich und viele andere Belgen(durch praktische benchs)....
das heißt aber noch lange nicht, dass das spiel dann auf der schwachen cpu besser läuft, als auf der starken, was natürlich nciht der fall ist.....aber prozentual zur besseren cpu, verliert die schwächere(alles mit der selben graka) weniger leistung, ist aber trotzdem nicht fähig, das game schnell genug darzustellen.......zum ganzen kommt noch, dass bei games ja nicht nur die grafik alleine die frames bestimmt, sondern dass hier viele faktoren zusätzlich dazu kommen, welche die frames drücken(KI,Physik usw...).....

damit will ich nicht wie die anderen sagen, dass dein wissen lückenhaft ist, sondern, dass du etwas anders gedacht hast und durch fixierung darauf, eine andere meinung entwickelt hast, welche auch wenn es nur wenig von der realität abweicht, eben abweicht....
Das heißt ja nicht, dass dein ganzes Wissen für die katz war, da es immerhin ein so großes theater entfacht hat und deine kenntnis bewiesen hat......

ich würde an dieser stelle mal sagen------------------------------------------------------- ------------------------ende der geschichte------------------------------

kommen wir lieber zum thread thema zurück und lasst uns über die schwache archtitektur der fx heulen, da jetzt kein druck auf ati entstehen wird( außer marketingtechnisch natürlich )....

nach gerüchten zufolge will nvidia auf den r350 mit einer noch schnelleren graka antworten....mal schauen, ob das der fall sein wird, was ich leider bezweifle....geld haben die ja genug^^
 
Ja, ich meinte bei dir aba lückenhaft bezüglich der 3D-Technik!

Also wollen wir mal zusammenfassen...
  1. Die Leistungsunterschiede zwischen aktiviertem und deaktiviertem FSAA bei Verwendung von langsameren CPUs wird prozentual gesehen geringer je langsamer die CPU ist. Das geht soweit bis kein Unterschied mehr da ist.
  2. Je langsamer die CPU ist desto mehr Graka Bandbreite liegt brach.
  3. Die Berechnung von FSAA und AF haben rein gar nix mit dem Prozessor zu tun, sondern werden ausschließlich von der GPU berechnet.
  4. Egal welche Auflösung benutzt wird, die CPU hat immer nur die gleiche Datenmenge zu berechnen. Das ändert sich auch nicht mit höhren Auflösungen oda zugeschalteten Features die sowieso ausschließlich durch die GPU berechnet werden.
    [/list=1]

    Falls ich was vergessen habe, ergänzt die Liste bitte...
 
5. GraKas ab DX8 haben keine festverdrahtete T&L Engine, die Vertex Shader übernehmen diese Aufgaben. Daher sind Aussagen ala "Vertex Shader werden kaum genutzt" Käse, da alle OGL Games Vertex Shader nutzen und auch alle halbwegs modernen DX Games :)
 
Sicher werden anstatt den festverdrahteten T&L Einheiten dann die vertex Shader benutzt. jedoch nicht in ihren vollen Potenzial.

Bei Mafia was ich mal schnell getestet habe, hat die aktiviereung/deaktivierung von Hardware T&L nicht 1 fps mehr/weniger gebracht. Kann aber auch an der DX7 Karte liegen. Das es sich erst mit DX8 Karten bemerkbar macht. Weis Momentan nciht ob Mafia Vertex/Pixel Shader Effekte darstellt.
 
Um jetzt zur GFFX zurück zu kommen...

Was ich schwachsinnig finde ist erstmals das hinuasgehen der DX9 Standards. In DX wird diese Karte wohl ihre Technische Überlegenheit nciht ausnutzen können. Denke nciht das eine Engine auf DX9 sowie auf der GFFX Programmiert würde. Wäre wohl zu Zeitaufwendig.

Bei OGL sieht das anders aus. Da muss man ja sowieso für die Verschiedenen Grafikkarten Programmieren. Von daher wird da die Karte ihr volles Potenzial ausnutzen können. Wenn das Spiel auf GFFX Programmiert wurde.

Doom3 wird wohl das erste sein. Momentan ahbe ich gelesen sind da APIs für GF2, 3 und 4 Programmiert worden. NAchteilhaft kam auch, das vielleicht sogar die radeon9700Pro nur die GF2 API benutzen wird und gar nciht erst ihre DX9 Futures benutzen könnte. Wäre schade.

naja weiterhin wie ich aber auch shcon in anderem Thread sagte. Ist der Staubsauger auf der Karte nciht Toll. Für Silent Freaks ungeeignet. und denke das die schon am Maximum mit dieser Technik angelangt sind. Und wenn ATI die selben Fortschritte macht und auch auf 0.13 und DDr II umsteigt, werden die durch die erhöhten Taktraten die GFFX wieder Locker schlagen können.
 
Wie gesagt:

Lad dir DronezMark runter...der testet auch die T&L Geschwindigkeit der CPU im Vergleich zur GraKa.

Edit: Doom3 hat einen GF3->higher, einen 8500er->Higher und einen Standard Pipecode.
 
Naja DroneZMark ist nicht so gut als benchmark dafür varriert der zu stark nach jedem Ergbeniss. wurde auf HardTecs4u bei irgend einem Test festgestellt. Und kalr wenn ausschlißlich T&L benutzt wird bringt es schon was. Nur bei aktuellen Games ist dies meistens nicht der fall.

Also zum Zeitpunkt wo ich News gelesen hatte zu Doom3 war nur ne Geforce und Standart API Integriert. Wenn die mitlerweile ne Radeon API Integriert haben, dann ist es ja gut.
 
... "lustig" dieser thread... . @Sid bist Du bei anderen Sachen auch so penetrant uneinsichtig? Nicht, daß ich viel Ahnung hätte, aber dies, was ich weiß reicht aus und ich muß mir net noch welche (Ahnung) einbilden. Wie willst Du je Nutzen aus der/dem Meinung/Wissen anderer ziehen, wenn Du erst mal versuchst alles zu wiederlegen, selbst wenn es in die Hose geht?.
mfG,
bc
 
Dass der DroneZMark nicht als Bench herhalten kann ist schon irgendwie klar, schließlich ist dass Teil ja komplett NVidia programmiert. Es ging rein um die T&L Ergebnisse.

In meinem Fall XP 2600+ vs ATi 9700:
Min (KTriangles/s): 55 zu 78
Max. : 1300 zu 2450
Avg : 670 zu 1250

Und dies, wenn die CPU zu 100% fürs T&L zur Verfügung steht. Schon überzeugend, oder?
 
Zuletzt bearbeitet:
@Avenger
Joo schon überzeugend. Nur wird man nie so ein spiel haben was zu 100% nur T&l berechnet. Warum also sowas Benchenw as nie der Realität entsprechen wird?

@blackcrow
Warum bin ich uneinsichtig? Les doch mal genau was ich immer geschrieben habe. Habe oft genug gesagt das ich da einer Meinung bin... Nur zu 100% muss man ja wohl nie einer Meinung sein, oder? Ich habe auch Vorstellungen die genausten Wiederlegt werden müssen, damit ich etwas anderes glaube. Jedoch wurde das nie gemacht. Immer nur gesagt "Ne das ist nicht so, du liegst Falsch" Klar das man dann nicht überzeugt wird etwas anderes zu Glauben. Warum auch?

EDIT: Ach Sorry Avenger hab deinen Post falsch gelesen :ha JoJo schon verstanden. Klar ne radeon9700Pro wird ja auch extra fürs T&L Optimiert. Und wenn man explizit T&L benutzt bringt es auch was. Jedoch macht das kein Spiel. Oder die GraKa brauch andere ebrechnungen die nciht im Festverdrahteten T&L enthalten sind. oder vertex/Pixel Shader werden erst gar nciht verwendet, weil es für die Programmierer zu schwer ist zu Programmieren u.s.w. Jedoch wie du weist. Werden diese DX8.1 Futures nur von wenigen Spielen benutzt. Und das fest verdrahte T&L bringt nicht wirklich viel.
 
Zuletzt bearbeitet:
Jedoch wurde das nie gemacht. Immer nur gesagt "Ne das ist nicht so, du liegst Falsch"
Wieso? Marc, Avanger und ich habns dir zu erklären versucht. Marc hats zwar dann irgendwann aufgegeben. Aba wir haben dir Argumente geliefert. Das du teilweise mit den technischen Abläufen derb danebengelegen hast musst du selbst auch zugeben.

Was erwartest du, sollen wir dir jetzt die ultimativen Benchmarks liefern. Die das einwandfrei belegen? Geben tuts die mit Sicherheit auch, nur halt nicht bei aktuellen Grakas. Zudem habens dir auch andere User bestätigt das es so ist.

Ok, mal ein Reallife Beispiel von mir:
Eine Voodoo2 hab ich mal auf nem Cyrix PR166+ (133 MHz) betrieben. Bei Q2 z. B. war es egal welche Auflösung ich gewält habe, ob ne 320er oda ne 800er, ich hatte immer die gleich Framerate. Später hab ich dann auf nen K6-2 300 aufgerüstet und bei dem selben Game mit der gleiche Graka große Unterschiede zwischen der 320er und 800er Auflösung gehabt. Das ist Fakt.

Das ist deshalb mit FSAA vergleichbar, weil beides, höhere Auflösung und FSAA, hauptsächlich die Bandbreite der Graka beanspruchen. Je niedriger die CPU-Leistung ist desto näher rücken die prozentualen Leistugsunterschiede zwischen verschiedenen Auflösungen bzw. aktivierten/deaktivierten Features wie FSAA und AF zusammen. Wenn die CPU langsam genug ist, ist es der Graka egal ob da in ner 1600er Auflösung mit 4xFSAA gezockt wird oda in ner 320er ohne FSAA. Denn dann ist die Grundleistung der Graka so niedrig, dass kein Unterschied mehr existiert. Du musst verstehen, dann ist die Ausnutzung der Bandbreite der Graka so niedrig (die Bandbreite ändert sich nicht, nur die Ausnutzung!), dass sich die FSAA Berechnung der normalen Berechnung angleicht.
 
so das ist jetzt mein neues lieblingsbild :d

FX.jpeg


:ha :ha :ha :ha
 
:ha :ha :ha :ha

Das Bild ist Geil. will auch nen 400€ Föhn. GOIL.
Sorry das Bild ist so geil. Das kommt Zeitweise in meine Signa.
:d

:ha :ha :ha :ha
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh