Allgemeiner Nvidia Grafikkarten Laberthread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eben. Aber wenn ich da an Crysis denke, hatte ich da mit der 8800 GTS512 damals dicke Probleme, mit der GTX260 läuft da alles wunderbar.
 
Ich weis nicht, früher hab ich auch gesagt ich brauch kein AA. Lieber eine Res-Stufe höher. (Gaaaaaaaanz früher ;)). Heute nichtmehr.

Gut mir reicht auch 4xAA bzw. 2xAA als Minimum aber deswegen würde ich sicher bei einigen Programmen wenns gehen würde, ohne das meine G80er so fies einbrechen würden auch 8xAA einstellen - warum auch nicht. ATI kanns halt jetzt schon, NVIDIA noch nicht so gut. ATI hat dafür die schelchteren (imho) Alterntivmodi und insgesamt brauch ich 8xAA als MUSS genausodringend wie DX 10.1. :fresse:

Außerdem solls ja auch Konsolenzocker bzw. normalos geben, die ohne AA leben können, was sollen die erst über uns 4xAAler sagen? Wenn ich ne Konsole sehe, egal ob Fernseher oder Moni, möchte ich am liebsten sofort in die Settings und Möglichkeiten zur Einstellung wie an nem PC. :fresse: :kotz:

Und Vergessen wir nicht die Leute die auf G80+-Chips ohne wenigstens 8xAF spielen - kostet ja 5% Leistung und sieht man nicht. Ich würde mir da schnellstens ne Wand zum Kopf dagegenhauen suchen, aber offensichtlich können sie gut damit leben.
 
Ich weis nicht, früher hab ich auch gesagt ich brauch kein AA. Lieber eine Res-Stufe höher. (Gaaaaaaaanz früher ;)). Heute nichtmehr.

Gut mir reicht auch 4xAA bzw. 2xAA als Minimum aber deswegen würde ich sicher bei einigen Programmen wenns gehen würde, ohne das meine G80er so fies einbrechen würden auch 8xAA einstellen - warum auch nicht. ATI kanns halt jetzt schon, NVIDIA noch nicht so gut. ATI hat dafür die schelchteren (imho) Alterntivmodi und insgesamt brauch ich 8xAA als MUSS genausodringend wie DX 10.1. :fresse:

Außerdem solls ja auch Konsolenzocker bzw. normalos geben, die ohne AA leben können, was sollen die erst über uns 4xAAler sagen? Wenn ich ne Konsole sehe, egal ob Fernseher oder Moni, möchte ich am liebsten sofort in die Settings und Möglichkeiten zur Einstellung wie an nem PC. :fresse: :kotz:

Und Vergessen wir nicht die Leute die auf G80+-Chips ohne wenigstens 8xAF spielen - kostet ja 5% Leistung und sieht man nicht. Ich würde mir da schnellstens ne Wand zum Kopf dagegenhauen suchen, aber offensichtlich können sie gut damit leben.

Da gebe ich Dir voll Recht :d
 
Ich weis nicht, früher hab ich auch gesagt ich brauch kein AA. Lieber eine Res-Stufe höher. (Gaaaaaaaanz früher ;)). Heute nichtmehr.

Gut mir reicht auch 4xAA bzw. 2xAA als Minimum aber deswegen würde ich sicher bei einigen Programmen wenns gehen würde, ohne das meine G80er so fies einbrechen würden auch 8xAA einstellen - warum auch nicht. ATI kanns halt jetzt schon, NVIDIA noch nicht so gut. ATI hat dafür die schelchteren (imho) Alterntivmodi und insgesamt brauch ich 8xAA als MUSS genausodringend wie DX 10.1. :fresse:

Außerdem solls ja auch Konsolenzocker bzw. normalos geben, die ohne AA leben können, was sollen die erst über uns 4xAAler sagen? Wenn ich ne Konsole sehe, egal ob Fernseher oder Moni, möchte ich am liebsten sofort in die Settings und Möglichkeiten zur Einstellung wie an nem PC. :fresse: :kotz:

Und Vergessen wir nicht die Leute die auf G80+-Chips ohne wenigstens 8xAF spielen - kostet ja 5% Leistung und sieht man nicht. Ich würde mir da schnellstens ne Wand zum Kopf dagegenhauen suchen, aber offensichtlich können sie gut damit leben.

Ohne AF geht in der Tat nichts, aber glücklicherweise frisst das ja heutzutage nicht mehr so viel Leistung!
 
Nvidia bessere Alternativmodi?
ATIs 24x Edge Detect ist wohl in punkto iq/leistungsverlust unschlagbar.
nvidia bietet zwar eine vielzahl modi an die besser aussehen, doch sind diese meist unspielbar aufgrund des dramatischen leistungseinbruchs

edge detect schlägt auf alle Fälle nvidia CFAA!
MSAA nimmt sich hingegen wirklich nichts und beim adaptive antialiasing liegt nvidia hingegen klar vorn
 
Ich weis nicht, früher hab ich auch gesagt ich brauch kein AA. Lieber eine Res-Stufe höher. (Gaaaaaaaanz früher ;)). Heute nichtmehr.


Außerdem solls ja auch Konsolenzocker bzw. normalos geben, die ohne AA leben können, was sollen die erst über uns 4xAAler sagen? Wenn ich ne Konsole sehe, egal ob Fernseher oder Moni, möchte ich am liebsten sofort in die Settings und Möglichkeiten zur Einstellung wie an nem PC. :fresse: :kotz:

looool

ich zocke mit meine x360 auf 720p un kann mich nicht beschweren.
und das aufm 37zoll glotzenaugust von philips.
was das aa angeht muss ich sagen das das eigendlich besser ist als das 4xAA von der pc hardware.


mfg
 
na toll ... der 181.20 besitzt wieder keinen sparmodus beim video schauen!
der 180.48 hat da keine probleme
 
hm.. vll haben die Nvidia-Programmierer es aus einem unersichtlichen Grund weggelassen ?!
 
Himmel...24xAA, wie unspielbar soll das denn sein?
:fresse:

man muss auch ein game finden, das diesen modus gut unterstützt.


edit:
ein screen mit edge detection, sieht aber nicht viel anders aus als der 8xAA mod
 
Zuletzt bearbeitet:
looool

ich zocke mit meine x360 auf 720p un kann mich nicht beschweren.
und das aufm 37zoll glotzenaugust von philips.
was das aa angeht muss ich sagen das das eigendlich besser ist als das 4xAA von der pc hardware.

mfg



Tolle Niveau mit loooool, und gleich auch so fundiert alles begründet.

So mal der Reihe nach: Röfl-Gruß and dich zurück.
1. Schön das du dich an der deiner X-Box erfreust.
2. Freut mich, ich habe auch schon auf meinem 46" Full HD von Samsung gespielt und stelle trotzdem fleißig AA ein.
3. Besser als PC Hardware? In den Konsolen STECKT PC-Hardware. Die PS3 hat im Grunde ne GF 7 mit XDR-Ram. Bei der XBOX tu ich mir schwerer ist ne ATI (die alte war ne NVIDIA) mit Unified Shader und SM 3+. WIE?! soll so was besser BQ liefern als neue Architekturen, wenn nicht grad das Game elend geprogt ist?
4. Tolles Konsolen-AA übrigens. Wie viele Portierungen oder Cross-Platform Entwicklungen erscheinen denn ohne oder mit schlechtem AA weil auf die Konsolen Rücksicht genommen werden muss?
5. Zur XBox:
[...]Von seiner Größe her wäre er für ein vierfaches Anti-Aliasing bei 1080i (1920 × 1080 Bildpunkten) dann allerdings zu klein. Selbst bei 720p (1280 × 720 Bildpunkten) wäre nur ein zweifaches Anti-Aliasing möglich, wenn alle Pixel komplett in die 10 MByte eDRAM passen sollen. Dem entsprechend schreibt Microsoft den Xbox-Spielen auch nur vor, Auflösungen von 720p mit 2X-Anti-Aliasing zu unterstützen. Höhere Auflösungen sind optional.[...]

Also ist klar, tolles XBox (wenn überhaupt) 2xAA sieht besser aus als 4xAA von Karten die 1-3 Generationen neuer sind.
Als nächstes kommt noch dass das AF von vor GF8 Zeiten auch besser aussieht.
Vom "Full-HD" mit 720 oä Texturen reden wir mal nciht; Wenn das gilt habe ich hier auch ein paar Games "die in Full-HD oder mehr laufen" Civ(ilization)Net, Empire Earth, Tie Fighter, Schleichfahrt Homeworld und noch ein paar mehr.

Ein bischen sollte man schon versuchen, seine Behauptungen zu begründen, dann fällt einem auch schneller selbst auf, dass das nur Unsinn sein kann.
Falls etwas anderes auszudrücken versucht wurde, das nächste mal wenn schon die Länge der Meinungsaußerung zB üppig auf 6 Zeilen verdoppeln; und bei dieser Völlerei am besten noch Satzzeichen und Großbuchstaben verwenden.



So mal genug in die Richtung. Das man auf Konsolen spielen kann ist völlig klar. Hat früher auch auf dem NES, C64 oder VC 20 keiner Augenkrebs bekommen weils einfach stand der Technik war. Wer also nichts anderes gewohnt ist und vom Vorgänger kommt wird erstaunt sein. Wer mehr oder anderes gewohnt ist, fängt berechtigtermaßen an zu maulen.

€: @ Rawde: Ist das Grid oder villeicht Dirt? Habe keines von den Games nur Neugier. :d ;)
 
Zuletzt bearbeitet:
na toll ... der 181.20 besitzt wieder keinen sparmodus beim video schauen!
an anderer Stelle hat jemand den Tipp gegeben, die neueste PhysX-Version (PhysX_9.09.0010_SystemSoftware) zu installieren.
Bei mir hats ebenfalls geholfen. Die Kärtchen takten wieder runter.

ciao Tom
 
Ich habe gestern mal Länger Bioshock gespielt und Riva-Tuner mitloggen laßen. Dazwischen immer mal Wieder in Windows getabt und was runtergeladen.

Die Highlights will ich euch nicht Vorenthalten:

Maximaler lokaler VRam Verbrauch: 753 MB (ergibt Sinn, sind 768 MB Karten)
Maximaler VRam Verbrauch ingesamt: 932 MB ( WTF! das ganze direkt vor einem Tab.
Maximaler nicht-lokaler VRam Verbrauch: 180 MB (natürlich das fehlende Puzzlestück umd auf 930 zu kommen :stupid: ).

Settings: DX 9, alles Max was geht und im NHancer: 32xS Kombiniert 16 AF SSAA Gamma-Korr (OHNE AA-Einst.-Prog.-aufw.)

Lief absolut flüssig. Alles Explosionen oder der Splicer-Überfall in Fort Frolic, Jetzt auch in Hephastus ohne Probleme. Wobei ich die Settings auch schon länger drinnenhab.
 
Ich habe gestern mal Länger Bioshock gespielt und Riva-Tuner mitloggen laßen. Dazwischen immer mal Wieder in Windows getabt und was runtergeladen.

Die Highlights will ich euch nicht Vorenthalten:

Maximaler lokaler VRam Verbrauch: 753 MB (ergibt Sinn, sind 768 MB Karten)
Maximaler VRam Verbrauch ingesamt: 932 MB ( WTF! das ganze direkt vor einem Tab.
Maximaler nicht-lokaler VRam Verbrauch: 180 MB (natürlich das fehlende Puzzlestück umd auf 930 zu kommen :stupid: ).

Settings: DX 9, alles Max was geht und im NHancer: 32xS Kombiniert 16 AF SSAA Gamma-Korr (OHNE AA-Einst.-Prog.-aufw.)

Lief absolut flüssig. Alles Explosionen oder der Splicer-Überfall in Fort Frolic, Jetzt auch in Hephastus ohne Probleme. Wobei ich die Settings auch schon länger drinnenhab.


ich denke das Windoof noch ein Paar MB der Grafikspeicher auf die platte auslagert.. auch wenn diese länger zum zugreifen braucht.... :confused:
 
Ja eben darum wunderte es mich auch warum es nicht ruckelt zum :kotz:; bei Immerhin fast 180 MB extra.
Ich glaube mittlerweile die Karten lagern gar nicht aus weil der VRam erschöpft sondern:


Was mir noch aufgefallen ist: Bioshock lagert _immer mindestens_ 30-60 MB aus, auch wenn der VRam noch nicht erschöpft ist. OK sind halt irgendwelche Daten aber es wird noch Merkwürdiger

Irgend ein Lvl (alos länger Phase lt RT) hatte einen durchgängigen VRam Verbrauch von nur bis zu 380 MB. Das wirklich Merkwürdige: Nur bis zu 250 MB vom Graka Ram wurden genutzt. Die restlichen 150 MB lagen nicht lokal.

150 MB war auch der ca der Standard was BS nicht local üblerichweise liegen hatte. Wenn man das vom Peak-Wert 935 abzieht (752 auf den Karten, 150 sowiso lokal) bleiben nur 33 oder weniger die wegen mangelnden VRam ausgelagert werden müssen.
 
na es werden nicht ständig 930mb gebraucht.
bestes beispiel battlefield 2: beim laden einer map werden auch andere mitgeladen, so werden die ladezeiten bei einem mapwechsel stark verkürzt.

die 180mb werden doch auf die ram ausgelagert :hmm:
 
Naja meine Phantasie geht schon soweit, dass ich mir Vorstelle das sind irgendwelche Roh-Daten für zB Beleuchtungsberechnung die nicht in voller Geschwindigkeit da sein müssn. Immerhin sind Grakas ja zu höchste Parallelisierung imstande, was auch den Vorteil hat etwas andere kurz liegen zu lassen und in der zwischenzeit was anderes zu Rechnen.

Aber was ist das? 150-180 MB sind kein Pappenstil. Konsolen Ram bzw. Konsolen VRam ist da praktsich schon damit alleine zum mehr als 50% gefüllt. Was schmeißen die darein? Kann doch nicht nur Ladezeit sein - immerhin installiere ich eh schon GBs was zB bei einer XBox nicht da ist.

Zur Auslagerung: Wohin ist egal. Ram bzw. Platte sind beides extrem langsam und nur auf Verzweiflungsbasis verwendbar.

Ich kenne das von meinem Notebook, hat 128 MB Vram, wenn ichs da mit AA übertreibe oder den LCD Fernseher mit Full-HD anstecke geht sobald der Vram voll ist die Performance sowas von in den Keller. (Sofern sie da nicht ohnehin ist, weil ich was zu neues Spiele. Immerhin CoD 4 lief in geringer Quali noch sehr gut).
 
Zuletzt bearbeitet:
na es werden nicht ständig 930mb gebraucht.
bestes beispiel battlefield 2: beim laden einer map werden auch andere mitgeladen, so werden die ladezeiten bei einem mapwechsel stark verkürzt.

die 180mb werden doch auf die ram ausgelagert :hmm:

das kenne ich noch zu gut von BF2 :d

@Iron_Head_Heinz


naja manchmal muss man seine Hard& Software nicht ganz verstehen... :confused:
 
an anderer Stelle hat jemand den Tipp gegeben, die neueste PhysX-Version (PhysX_9.09.0010_SystemSoftware) zu installieren.
Bei mir hats ebenfalls geholfen. Die Kärtchen takten wieder runter.

ciao Tom

ah ... dank dir ! werde es mal probieren!

edit:

nope! des bringt nichts :( sonst noch vorschläge?
 
Zuletzt bearbeitet:
Thread Tod? :d


Leider hab ich ja im Haupt-PC wieder eine ATI, aber hier im drittsystem und in dem System meiner Freundin, stecken 2 BFG Karten. Ala 8800GTS OC 512Mb und 9800GTX OCX 512Mb ;)
 
Ich frage mich wie lange Nvidia noch SLI unterstützen wird (also quasi die Enthusiasten)und ob Sie nicht mit den neuen 40nm chips bald den ATI weg gehen werden und 2 oder mehr GPU auf einem PCB unterbringen werden. Immerhin treten Kostenaspekte immer mehr in den Vordergrund -> grafikpower für Notebooks und Handys, abkehr vom Desktop PC.
 
Ich frage mich wie lange Nvidia noch SLI unterstützen wird (also quasi die Enthusiasten)und ob Sie nicht mit den neuen 40nm chips bald den ATI weg gehen werden und 2 oder mehr GPU auf einem PCB unterbringen werden. Immerhin treten Kostenaspekte immer mehr in den Vordergrund -> grafikpower für Notebooks und Handys, abkehr vom Desktop PC.

da hast du allerdings recht, das sie wie ATI keine zwei GPUs auf einem PCB unterkriegen, habe ich bis jetzt auch noch nicht so richtig verstanden. irgend einen Grund wird es da schon geben!
 
Ich hätte da eine Frage, jedoch möchte ich nicht extra einen neuen Thread aufmachen.

Ich tausche meine Ersatzkarte 7900GT gegen eine 8600GTS, die is zwar bissl langsamer, aber ich kann PhysX ausprobieren.
(Und sie ist blau. :d )



Ich habe noch einen Accelaro Rev.2, würde dieser ausreichen um einen 8600GTS 256MB passiv zu kühlen?

Würde mich über Antworten freun.

Mfg
 
Zuletzt bearbeitet:
Ich habe noch einen Accelaro Rev.2, würde dieser ausreichen um einen 8600GTS 256MB passiv zu kühlen?

Würde mich über Antworten freun.

Mfg

Wenn Du im Case einen guten Luftstrom hast, dürfte das kein Problem sein.
 
Ich habe noch einen Accelaro Rev.2, würde dieser ausreichen um einen 8600GTS 256MB passiv zu kühlen?

Damit hab ich meine 8800GT g92 passiv gekühlt in nem 2 Lüfter System, wird dicke ausreichen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh