[Sammelthread] Grafikkarten - Technikdiskussion

naja gothic3 ohne aa ist jetzt nicht gerade das parade beispiel,dazu kommt das ich mir im besten willen nicht vorstellen kann das bei cod4 die speicherauslastung gleich bleibt wie dort zusehen
CoD4 640x480, max. Details ohne AA/AF
CoD4 640x480, max. Details + 24xAA/16xAF im CCC


biste dir sicher das das tool auch funktioniert oder überhaupt 24xAA gegriffen hat?

das ati ein top speicherverwaltung besitzt ist klar aber das ist dann schon zuviel desguten;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das 24xAA gegriffen hat, sieht man denk ich daran das das Bild stark mit dem Bloomeffekt verwischt... (was ja bei dem Edge-detect Filter passiert)
Und das die FPS Rate noch mals sinkt.

Ob das Tool 100% funzt, weis ich wie gesagt nicht, aber ich denk schon das es geht. Habe bei damalige Messungen mit dem Rivatuner auch ähnliche Ergebnisse bekommen. (wo ich noch die 2900XT hatte)
Daher auch mein Standpunkt, das der Mehrverbrauch bei höherer Auflösung oder zuschalten von AA/AF nicht unbedingt so gewaltig ist.

So nächstes Game...
Heroes of Might and Magic V - TotE 640x480, max. Details ohne AA/AF
FVM: 300MB --> 212MB Verbrauch


Heroes of Might and Magic V - TotE 640x480, max. Details + max. AA/AF inGame
FVM: 299MB --> 213MB Verbrauch


Heroes of Might and Magic V - TotE 640x480, max. Details + 24xAA/16xAF im CCC
FVM: 299MB --> 213MB Verbrauch


Heroes of Might and Magic V - TotE 1680x050, max. Details ohne AA/AF
FVM: 280MB --> 232MB Verbrauch


Heroes of Might and Magic V - TotE 1680x1050, max. Details + max. AA/AF inGame
FVM: 280MB --> 232MB Verbrauch


Heroes of Might and Magic V - TotE 1680x1050, max. Details + 24xAA/16xAF im CCC
FVM: 279MB --> 233MB Verbrauch


In Heroes of Might and Magic V - TotE werden bei 640x480 212MB verbraucht, bei 1680x1050 sinds 232MB. Bedeutet ein Verbrauchsanstieg von 9,43% bei 574,22% mehr Pixeln...
Und auch hier sieht man anhand der Screens mit AA, das AA nahezu kein Speicher verbraucht.

Sorry aber Kommentare wie "G3 ohne AA sei nicht gerade ein Paradebeispiel" sind mal hier völlig fehl am Platz. Aber wie ich vorher schon sagte, alles nur heiße Luft was kommt, die meisten Labern sinnlos irgendwo was nach und haben es nie selbst gemessen.
Und sag jetzt ja nicht, das auch Heroes 5 kein gutes Beispiel ist... (wenn wir das weiter führen, ist kein Game ein gutes Beispiel, da es in allen Games ähnlich aussehen wird)

Achso, anzumerken sei eventuell noch, System war oberstes in meiner Sig., OS war XP SP3 und die ATT Version war die 1.4.7.1211Beta
http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/ati_tray_tools/

das ati ein top speicherverwaltung besitzt ist klar aber das ist dann schon zuviel desguten;)

Das mag ja sein, aber das ändert nichts an der Tatsache wie ich sie vorher sagte...
Beweise bitte das Gegenteil oder hör auf mit offensichtlich falschen Behauptungen!

Übrigens, das die VRam Anzeigen so niedrig ausfallen liegt unter anderem auch daran, das ich den Screen direkt nach dem Ladebildschirm gemacht habe, sprich wenn man sich bewegt, dann steigt der Verbrauch noch mal, aber da ist halt nicht gewährleistet, das auch 100% die gleichen Situationen auftreten. In G3 Beispielsweise sinkt der freie Speicher nach nicht mal 2 Minuten rumlaufen auf unter 100MB!
 
Zuletzt bearbeitet:
naja ich sagte ja bis 8aa hält sich das in grenzen mit dem speicher
aber wenn ich z.b. sehe das bei Heroes of Might and Magic V du bei 24aa die selben fps hast wie max aa in game dann kann was nicht stimmen.das hätte eigentlich dir selbst auffallen können.
 
Wo ist jetzt dein Problem? Ich sage genau das was auf dem Monitor steht. Das 24xAA Edge-detect an ist, sieht man unter anderem an den Büschen da auf dem Hügel wo die Stadt steht. Die verändern sich, wirken irgendwie Detailreicher... gleiches kannst du auch bei CoD4 beobachten.

Das Heroes V nicht so sonderlich Hardwarefressend ist, kann sich wohl selbst jeder denken. Und dazu kommt, das keiner weis wie stark das AA Level ingame ist, da man dort nur nen Regler zwischen min. und max. schieben kann.

Irgendwie kommts mir so vor, als suchtest du krampfhaft irgendwelche Argumente um dir zu beweisen, das du doch nicht unrecht hast... Sorry aber das ist echt mal kindisch und lächerlich. Eventuell wäre es doch einfacher einzugestehen, das du doch nicht ganz recht hast (wobei du ja selbst noch nicht mal nachgemessen hast)

Du kannst mir gerne noch weitere Games nennen, soweit ich diese besitze, bzw. es Demos davon gibt, mach ich noch mehr Tests... Die werden aber nicht wirklich anders sein...
 
ich sag dir was das problem ist zwischen 4aa und 24aa ist im normalfall ein performanceverlust von 50-75% deshalb meine skepsis.

ich such nichts krampfhaft ich suche nur ordentliche beispiele.mach das mal mit ut3 oder jericho gibts auch demos zu.
 
kann ich machen...
logischerweise sollte dort die Performance arg in den Keller gehen, bei CoD4 sinds mit 24xAA auch nur noch 25FPS... Leider zeigt es auf dem Screen diese ATT Zeile und die FPS nicht mit an, warum auch immer.
 
Hallo an alle ersteinmal!!
Ich finde das dieser thread sich vieleicht mit der jetzt aufkommenden neuerung von physx
beschäftigen könnte. Zumal jetzt im August finale treiber rauskommen.
Was mich besonders interessiert ist, ist es möglich neben einer 8800gt eine zweite 8800gt nur dazu abzustellen bzw einzustellen den physikalischen bereich abzudecken.
Und ist davon ab dann sli von nöten oder geht das dann auch auf nem intelboard was ja eigentlich nur cf kann?
Hinzugefügter Post:
Falls ich mich jetzt hier aber vollends im thread verirrt hab, mal kurz bescheid sagen und mich auf richtigen thread verweisen!!!
 
Zuletzt bearbeitet:
hallo zusammen , hab ma ne frage wie kommt es das bei 32 bit systemen bei 4 gb arbeitspeicher , der grafikspeicher (z.b 512mb) mitgerechnet wird ,also nur 3,5 gb genutz werden. Möchte gerne wissen wie das genau zustande kommt ?

danke schon mal im vorraus
 
Also erstmal an die TEs : Super Thread, sehr interessant! Soetwas in der Art hab ich schon immer mal gesucht nur etwas mehr ins Detail, aber vielleicht wird das ja noch ausgebaut. :xmas:

@nicetec: Ich kann dir keine genaue Erklärung geben, probieren tu ichs trotzdem. *g* Ein 32bit-Prozessor hat einen auf 32bit begrenzten Adressraum. 32 Bit entsprechen genau den 4GiB, wenn du jetzt 4 GiB RAM in deinen Rechner einbaust, kann die CPU aufgrund des beschränkten Adressraumes keinen weiteren Speicher mehr ansprechen (logischerweise).

Daher muss die Größe des Grafikspeichers abgezogen werden. Soweit ich weiß, werden auch die Speicher anderer Peripheriegeräte abgezogen...

Hoffe, das stimmt so in etwa. :)
Wenn nicht, korrigiert mich. ^^
 
@*marc
danke erstma das dacht ich mir auch schon so aber ist nicht eigentlich die gpu verantwortlich für die adresierung (grafikspeicher) und somit eigentlich unabhänhig vom 32 bit system vom cpu . Oder die 32 bit ist auch für die northbridge aber dann funktz bir mir immer noch nicht so in der birne :-[
 
so, bin jetzt vom Malle Urlaub zurück und kann mich nun im Laufe der nächsten Woche weiteren Tests bezüglich der Grafikspeicherproblematik widmen, wenn erwünsch ;)
 
Was meint ihr wird sich in Zukunft bei den Grafikkarten an neuen Technologien durchsetzen? Wie wird es AMD und nVidia meistern sich den neuen Herausforderungen zu stellen? Stichwort Rasterisation vs. Raytracing bzw. CPU Psysik vs. GPU Physik?
Ich gebe zumindest GPGPU und GPU-Computing keine Chance mehr, so wie es jetzt ist. Die Hersteller-eigenen Technologien, also CUDA bzw. CAL, werden nicht mehr zum Zuge kommen. Mit DirectX 11 bringt Microsoft die hersteller-übergreifende Lösung.

Wie Intels-Larrabee-Projekt tatsächlich angenommen wird und was es bringt, lässt sich zum jetzigen Zeitpunkt schlecht abschätzen. Ich persönlich begrüße allerdings den Schritt des Chipriesen. Konkurennz tut immer gut.

Rasterisation und Raytracing werden bald klar im Kommen sein! :bigok:

Gruß
:wink:
 
hallo leute
ich hab jetzt nvidia geforce2 mx 400,und hab mir eine neue gekauft nvidia 9600 gso für 100 euro,aber mein pc ist ein bischen zu alt und diese goldene dinger da bei der grafikkarte passen nicht zu meinen pc.Was kann ich jetzt tun?oder wo kann ich eine nvidia 9 finden die zu mein pc past.Mein motherboard ist intel brookdale i845...kann jemand mir helfen?
 
hallo leute
ich hab jetzt nvidia geforce2 mx 400,und hab mir eine neue gekauft nvidia 9600 gso für 100 euro,aber mein pc ist ein bischen zu alt und diese goldene dinger da bei der grafikkarte passen nicht zu meinen pc.Was kann ich jetzt tun?
matrox-p690.jpg
.Mein motherboard ist intel brookdale i845...kann jemand mir helfen?
 
Du hast schätzungsweise AGP - die neue Grafikkarte PCI-E.

Wahrscheinlich brauchst du also mindestens unzwar als absolutes Minimum ein neues Mainboard.
 
Die TMUs sind ein wichtiger Bestandteil heutiger Karten und zuständig für die Texturadressierung, Kantenglättung und anisotropische Filterung.

Streich Kantenglättung raus. Sonst isses falsch...


mfg Nakai
 
Für die Kantenglättung sind prinzipiell die ROPs und die Shader verantwortlich, bei SSAA die ganze Karte.


mfg Nakai
 
stimmt denn die Berechnung der Speicherbandbreite?

Also bei mir sind 1100*256/4096=68,75GB/sec... (durch 4096 deshalb, weil man erst *2 dann durch 8 und durch 1024 rechnet um auf GB/sec zu kommen)
 
Ich gebe zumindest GPGPU und GPU-Computing keine Chance mehr, so wie es jetzt ist. Die Hersteller-eigenen Technologien, also CUDA bzw. CAL, werden nicht mehr zum Zuge kommen. Mit DirectX 11 bringt Microsoft die hersteller-übergreifende Lösung.

Wie Intels-Larrabee-Projekt tatsächlich angenommen wird und was es bringt, lässt sich zum jetzigen Zeitpunkt schlecht abschätzen. Ich persönlich begrüße allerdings den Schritt des Chipriesen. Konkurennz tut immer gut.

Die Idee hinter Larabee ist durchaus als interessant anzusehen, weitaus interessanter find ich jedoch AMDs Fusion-Konzept, in der ein GPU dem Prozessor beigestellt wird. Den da wird das eigentliche Problem erfasst: CPUs bieten auf lange Sicht gesehen einfach nicht genügend Rechenleistung, irgendwann bräuchte man Mainboards mit 4 Core8-Prozzis(überspitzt dargestellt). Dafür haben CPUs halt die "Intelligenz", sprich Befehlssätze usw. usf. um auch rechnen zu können.
Bei der GPU ist umgekehrt, die haben unwahrscheinlich hohe Rechenleistung, können aber nix.
Fusion schlägt da die Brücke und lässt die CPU die Befehle verarbeiten und stellt ihr, um die notwendige Rechenleistung aufbringen zu können, eine direkt angebundene GPU an die Seite. Fusion ist quasi das umgekehrte Larabeekonzept.
Aber beides hat eigentlich das gleiche Ziel, Larabeekarten sollen erstmals die Möglichkeit bieten, als Grafikkarten dem Prozessor echte Arbeit abnehmen zukönnen, was durch den einsatz von CPUs die die entsprechenden Befehle auch verarbeiten können möglich wird.
Interessant wär ein Fusion Prozi mit Larabeekarte. :d
Aber egal wierum eigentlich, ganz klar ist für mich, dass echtes GPGPU erst durch diese beiden Konzepte marktreif wird. Mich würde ja außerdem mal interessieren, ob NVIDIA in dem Bereich auch noch mitreden will.
 
Die Idee hinter Larabee ist durchaus als interessant anzusehen, weitaus interessanter find ich jedoch AMDs Fusion-Konzept, in der ein GPU dem Prozessor beigestellt wird. Den da wird das eigentliche Problem erfasst: CPUs bieten auf lange Sicht gesehen einfach nicht genügend Rechenleistung, irgendwann bräuchte man Mainboards mit 4 Core8-Prozzis(überspitzt dargestellt). Dafür haben CPUs halt die "Intelligenz", sprich Befehlssätze usw. usf. um auch rechnen zu können.
Bei der GPU ist umgekehrt, die haben unwahrscheinlich hohe Rechenleistung, können aber nix.
Fusion schlägt da die Brücke und lässt die CPU die Befehle verarbeiten und stellt ihr, um die notwendige Rechenleistung aufbringen zu können, eine direkt angebundene GPU an die Seite. Fusion ist quasi das umgekehrte Larabeekonzept.
Aber beides hat eigentlich das gleiche Ziel, Larabeekarten sollen erstmals die Möglichkeit bieten, als Grafikkarten dem Prozessor echte Arbeit abnehmen zukönnen, was durch den einsatz von CPUs die die entsprechenden Befehle auch verarbeiten können möglich wird.
Interessant wär ein Fusion Prozi mit Larabeekarte. :d
Aber egal wierum eigentlich, ganz klar ist für mich, dass echtes GPGPU erst durch diese beiden Konzepte marktreif wird. Mich würde ja außerdem mal interessieren, ob NVIDIA in dem Bereich auch noch mitreden will.

Neja das Fusion Konzept baut ja wohl vorranging im Notebookbereich auf. Sprich soo brachial viel Rechenleistung wirst du mt der integrierten Grafikeinheit nicht bekommen. Und schlussendlich ist es eigentlich auch fast egal, ob die GPU in der CPU steckt oder im Chipsatz integriert ist, das wird so brachial viel Leistungsunterschied nicht machen...
 
@nicetec: Ich kann dir keine genaue Erklärung geben, probieren tu ichs trotzdem. *g* Ein 32bit-Prozessor hat einen auf 32bit begrenzten Adressraum

Ganz konkret ist das, was da 32 Pfade breit ist, der Adressbus. Und da wir uns in binärer Logik bewegen, adressiert man damit eben 2^32
Bit Speicher.
 
Neja das Fusion Konzept baut ja wohl vorranging im Notebookbereich auf. Sprich soo brachial viel Rechenleistung wirst du mt der integrierten Grafikeinheit nicht bekommen. Und schlussendlich ist es eigentlich auch fast egal, ob die GPU in der CPU steckt oder im Chipsatz integriert ist, das wird so brachial viel Leistungsunterschied nicht machen...
Die Schlepptopprozis werden nur die ersten Fusionprodukte sein, die auf den Markt kommen. Interessant fand ich an Fusion, als AMD von einem Desktopprozi redete, der außer seinen normalen 4-8 Kernen, eine GPU-Einheit für Grafikberechnungen und eine GPU-Einheit eben als reinen "Coprozessor" druffgepackt bekommt.
Von diesen ersten Schlepptopmodellen erwart ich mir tatsächlich selber nicht viel außer halt relativ stromsparende Schlepptops.
Ich hab darüber neulich in der PCGH gelesen, da wurde das Fusionkonzept mal etwas ausführlicher behandelt, ich werd ma gucken ob ich entsprechende Quellen im Netz finde.
Edit:
TweakPC reißt das Thema so ein kleines bisserl hier an: http://www.tweakpc.de/news/14707/kolumne-amd-fusion-mehr-philosophie-als-marketing/
 
Zuletzt bearbeitet:
Hallo,
ich wollte mich jetzt hier mal schlau machen was denn eigentlich die ganzen Grafikakrten Begriffe bedeuten (vorne wurden ja schon einige erklärt), denn oft ist es so, dass die neueste Grafikkarte nicht unbedingt die beste ist.
Wo schaut man bei einer Grafikkarte als erstes hin, was macht sie gut und was macht sie schlecht?


Was ist der Shader-Takt und was ist der Speichertakt, durch was unterscheiden sie sich - Kerntakt?
Was ist die Speicheranbindung und was sind die Textureinheiten?

Hoffe ihr könnte mir helfen, ich möchte mir nämlich demnächst einen neuen Desktop anschaffen und brauche eine Grafikkarte ;)

Bedanke mich schonmal

MFG
Panther-
 
Schwierige Fragen, die du da hast. Ich fang mal von unten an. "Textureinheiten" gibts hardwareseitig ja seit der der Geforce 8xxx bzw. AMD HD2xxx nicht mehr. Hardwareseitig gibt es seit dem nur noch die unified Shader.
Vorher hatte man extra Shadereinheiten für die Berechnung der Geometrischen Daten, die sogenannten Vertex-Shader und extra Shadereinheiten für die einzelnen Bildpunkte und deren Färbung.
Seit dem Unified-Shader-Konzept fällt diese Trennung weg und es softwareseitig bestimmt für was die jeweilige Shadereinheit gerade zuständig ist. Außerdem können sie in DX10 nun als sogenannten Geomitry-Shader eingesetzt werden, welche die Dinge die der Vertex-Shader vorher berechnet hat dynamisch verändern können.
Wie du vielleicht schon rausliest, sind Shadereinheiten schlicht und einfach Recheneinheiten. Sehr, sehr grob betrachtet sind sie eigentlich das, was im Prozessor die Prozessorkerne sind, nur dass hier die eingesetzte Zahl der gleichzeitig nutzbaren Recheneinheiten im Großen und Ganzen unabhängig von der Anzahl der Threads ist, da sie massiv paralell arbeiten.
Was wir also auf jeden Fall festhalten können ist, dass eine hohe Anzahl an Shadern gut sein muss. Du darfst aber die Anzahl der Shader einer AMD-Karte nicht mit der Anzahl von Shadern einer Nvida-Karte vergleichen, da beide verschieden arbeiten und sehr viel mehr Faktoren eine Rolle spielen.
Den Unterschied zwischen den beiden merkt man ganz deutlich daran, dass es bei Nvidia zusätzlich zum Kerntakt noch den Shadertakt gibt. Frag mich jetzt aber nicht was dieser genau aussagt, fest steht jedoch, dass er in direkter Verbindung mit Kerntakt steht.
Der Kerntakt sagt aus wie schnell eine Recheneinheit getacktet ist, ähnlich der Taktangabe an deinem Prozessor.
Der Speichertakt wiederum stellt die Tacktung des verwendeten Grafikspeichers dar. Hier ist zu beachten, dass es auch wichtig ist wie der Speicher an den Grafikprozessor angebunden ist. Es is eigentlich am besten darauf zu schauen wieviel GB vom Speicher zum GPU und wieder zurück geschaufelt werden kann.
Für die Kaufentscheidung würde ich aber all diese Zahlen nicht all zu wichtig nehmen, da du mit diesen, wie gesagt, eigentlich nur Karten innerhalb einer Serie vergleichen kannst. Wichtiger wär es Benchmarks anzugucken und dabei zu prüfen, welche Spiele auf welcher Karte wie gut laufen. Je nachdem auf welche Spiele du wert legst und wie dein Geldbeutel es zulässt kaufst du dir dann die entsprechende Karte.
Rein von der Preis/Leistung her steht AMD mit ihren 48xxer Karten momentan sehr gut da, dafür kann Nvidia in der Bildqualität punkten, was aber auch erst ab der nicht mehr ganz billigen GTX260 ein Argument bleibt, da hier erst genug Leistung da ist um die entsprechend hohen Qualitätseinstsellungen vorzunehmen.

Ich kann auch nur berichten was ich meine verstanden zu haben und darum gilt natürlich: Über Ergänzungen, Verbesserungen und Belehrungen wär ich jederzeit hoch erfreut.
 
Schwierige Fragen, die du da hast. Ich fang mal von unten an. "Textureinheiten" gibts hardwareseitig ja seit der der Geforce 8xxx bzw. AMD HD2xxx nicht mehr. Hardwareseitig gibt es seit dem nur noch die unified Shader.
Textureinheiten sind doch die TMUs, welche es nach wie vor auf den Karten gibt... (oder steh ich auf dem Schlauch? :fresse:)

Den Unterschied zwischen den beiden merkt man ganz deutlich daran, dass es bei Nvidia zusätzlich zum Kerntakt noch den Shadertakt gibt. Frag mich jetzt aber nicht was dieser genau aussagt, fest steht jedoch, dass er in direkter Verbindung mit Kerntakt steht.

Shadertakt gibts bei den AMD Karten auch, aber der ist eben genau so hoch wie die GPU Takt an sich... erhöht den GPU Takt, steigt im gleichen Verhältniss der Shadertakt mit.

Glaub mal irgendwas gelesen zu haben, das bei den RV770 GPUs über 20 Taktdomänen vorhanden sind. (also Teile, welche anders Takten als der normale GPU Takt.
 
Textureinheiten sind doch die TMUs, welche es nach wie vor auf den Karten gibt... (oder steh ich auf dem Schlauch? )
Irgendwie hast recht und ich mich verhaspelt. Hat ja auch irgendwie nichts mit einander zu tun. Die Trennung in Pixelshader und Vertexshader fällt weg, aber ne TMU is kein Shader.
Ich frag mich nur grad was die dann überhaupt macht. Über die Vertexshader werden ja Eckpunkte festgelegt und dadurch die Geometrie bestimmt und über Pixelshader dann das aussehen jedes Pixels aufgrund diverser mathematischer Berechnungen, die den Lichteinfall, Schattenwurf etc. einbeziehen.
Was ne Textur ist, is ja klar. Das sind quasi die Tapeten. Also alles was über den Objekten liegt. Das können Grafiken sein, aber auch Informationen über Materialbeschaffenheit und ähnliches.
Ich forsch da mal weiter.
Shadertakt gibts bei den AMD Karten auch, aber der ist eben genau so hoch wie die GPU Takt an sich... erhöht den GPU Takt, steigt im gleichen Verhältniss der Shadertakt mit.

Glaub mal irgendwas gelesen zu haben, das bei den RV770 GPUs über 20 Taktdomänen vorhanden sind. (also Teile, welche anders Takten als der normale GPU Takt.
Danke für die Info.
 
@nicetec: Ich kann dir keine genaue Erklärung geben, probieren tu ichs trotzdem. *g* Ein 32bit-Prozessor hat einen auf 32bit begrenzten Adressraum. 32 Bit entsprechen genau den 4GiB, wenn du jetzt 4 GiB RAM in deinen Rechner einbaust, kann die CPU aufgrund des beschränkten Adressraumes keinen weiteren Speicher mehr ansprechen (logischerweise).

Daher muss die Größe des Grafikspeichers abgezogen werden. Soweit ich weiß, werden auch die Speicher anderer Peripheriegeräte abgezogen...
Btw tut das OS den Adressraum verwalten und nicht die CPU. ^^
Die CPU ist nur sowas wie Hände, Arme und Beine für das OS.
Und mir hat man hier schon erklärt, dass der Vram unabhängig vom Hauptspeicher angesprochen werden kann.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh