7800 GTX fällt bei SM3.0-Test durch.

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So und jetzt mal wieder :btt:

Wenn ihr beide was konstruktives zum Thema beizutragen habt könnt ihr hier gerne posten aber eure Sticheleien nerven so langsam.
 
Nahaz schrieb:
So und jetzt mal wieder :btt:

Wenn ihr beide was konstruktives zum Thema beizutragen habt könnt ihr hier gerne posten aber eure Sticheleien nerven so langsam.
jo ist ja kein problem aber wen er anfängt ;-)
:bigok:

zum Topic
kann dem Koyote008 vollkomen anschliesen er spricht mir aus der seele
Koyote008 schrieb:
Man man man , die Threads werden eh durch Fanboys bestimmt.

Bis vor kurzem wo ne ATI garkein SM3 kannte , war SM3 Zeitungemäss und egal + überflüssig.

Jetzt kann die Nvidia 6/7 den MS Kompatibilitätstest nicht voll bestehen , was bei Games aber bisher irrelevant ist.
Nun ist für ATI-ler SM3 das Mass aller Dinge und zwingend kaufentscheidend.

Das ist doch sowas von bekloppt +lachwech+.

Punkten kann nur die XT mit 512MB , und wer das Geld hat kann sich freuen , alle anderen R520 Karten können gegenüber Nvidia INGAME in der SUMME nicht so punkten.

Und Schlussendlich isses egal ob XL , XT , G70 GT / GTX / Extreme .... alles Karten die man sich kaufen kann , und ein Fanboy wird immer Dinge gerne übersehen und in Kauf nehmen , sollte aber dazu stehen ... und nicht hypen , wo es nichts zu hypen gibt.

Greetz Koyote008
 
Reine Zeitverschwendung, die News Comments zu lesen. Ich habe zwar selber eine Nvidia Karte, rede aber deshalb nicht die Konkurrenz schlecht :rolleyes: Für manche Leute hier ist der PC wohl echt wichtiger geworden, als ein soziales Leben.
 
Gorgomat schrieb:
Reine Zeitverschwendung, die News Comments zu lesen. Ich habe zwar selber eine Nvidia Karte, rede aber deshalb nicht die Konkurrenz schlecht :rolleyes: Für manche Leute hier ist der PC wohl echt wichtiger geworden, als ein soziales Leben.
Yepp einige nehem das viel zu ernst, soll ja mansche geben für die Hardware + inet wichtiger ist als Reallife ^^ kaum zuglauben
apropo RL ruft c ya
 
Real Life? Is' das so was wie "Die Sims"? :confused: :d

Aber mal :btt: Welche Karte sich wer kauft und was die jetzt für tolle Shader etc. kann is' doch eigentlich wurscht, zocken kann man mit allen aktuellen Karten und wer bitte lässt schon FRAPS die ganze Zeit laufen um zu sehen wieviele fps er hat? Nur die Hardcore-Benchmark-Geilen wohl. :)
 
McStone schrieb:
Real Life? Is' das so was wie "Die Sims"? :confused: :d


War gerade am Wasser trinken, häts fast vor lachen ausgespuckt :haha:


Habt ihr schonmal beim Treiber installieren darauf geachtet?
Kein offizeller Treiber kriegt diese Signierung von M$ :d
 
Ocean-Driver schrieb:
Habt ihr schonmal beim Treiber installieren darauf geachtet?
Kein offizeller Treiber kriegt diese Signierung von M$ :d

Die 81.85 die ich heut' installiert habe hat ausnahmsweise mal nicht gemekert.
 
Nunja ....

es ist schon richtig & wichtig über gewisse Fakten zu schreiben , und es ist auch möglich das Befehle statt Hardware in Software berechnet werden oder sonstwas ... und Performance verloren geht.

Das ist aber messbar , schlimmer ist wenn ein Feature garnicht nutzbar ist ,
statt 85%.

Weitaus schlimmer sind die teils schlecht optimierten Games die auf den Markt kommen , und unnötig einiges an Performance des Rechner wegwerfen.

Bei schlecht optimierten Spielen ist der Unterschied zwischen einer 6800GT und 7800GTX Extreme viel zu gering , siehe F.E.A.R. ,
sowas finde ich ne Sauerei .....

Greetz Koyote008
 
Sieht man da überhaupt unterschiede im SPiel? (SM 3.0 zu 2.0) :hmm:

Is doch einfach nur unsinnig.
Und HDR ist für mich einfach übertrieben.
Jeder User sollte für sich entscheiden was er möchte.
Es ist doch völlig egal ob man eine Grafikkarte von Nvidia hat oder Ati hauptsache sie geht und man ist mit ihr zufrieden.
Aber:wayne:
 
Ob man den Unterschied sieht weiß ich nicht, mit meiner GTX hatte ich bis jetzt keine Probs (insofern als das mir in Games irgenwas negativ aufgefallen wäre). Mit meiner X800 XT PE hatte ich ebensowenig Probleme. Eigentlich hatte ich noch nie mit irgendeiner Karte von nVida oder ATI probleme, die einzige Karte mit der ich im nachhinein nicht wirklich zufrieden bin ist die Martox Mystique 4mb..... aber das ist schon ne ganze weile her.

Daher kann ich Koyote und Real ACC nur zustimmen.

mfG
Satan
 
Oh Mann immer das gleiche hier :haha:

Wir fallen alle auf die Versprechungen und Verlockungen der Industrie rein und dabei hacken wir uns noch gegenseitig die Augen aus für etwas was bis jetzt in keinem Spiel von essenzieller Wichtigkeit wäre.

DirectX 9 unterstützt Pixel-Shader Programme. Mehr nicht. Die Länge der Pixelshader ist auf deutsch "sche....egal" .
Shader - Modell 2.0 definierte max. 96 Befehle als längste auszuführende Länge einer Befehlskette.
Dann kam die Marketingmaschine und Nvidia erfand SM 2a. Wow - wie wichtig. Jetzt konnten bis zu 512 Befehle abgearbeitet werden pro Pixel.
Aber ATIs Werbeabteilung dachte sich - scheis... das können wir auch - also kam von ATI SM 2b. Wow -wie wichtig. Jetzt konnten auch ATI - Jünger bis zu 512 Befehle pro Pixel ausführen und auch noch mit 32 Register zwischenspeichern. :lol:

Und jetzt legt NVidia noch nach und erfindet SM3. Ja darauf hat die Spielewelt gewartet. Jetzt werden bis zu 65000 Befehle pro Shader unterstützt. Und weil Nvidia damit wieder so schön Werbung macht kontert ATI und verspricht jetzt bei Ihrer X1000 Serie natürlich auch SM3.

Was heisst denn das alles eigentlich ?
Bsp. Ein Shader-Programm zur Berechnung von Farbe und Lichtverhältnisse EINES Pixel ist 50 Befehle lang. Somit muss die Grafikkarte 50 Taktzyklen warten bzw. berechnen bis EIN einzelner Pixel feritig berechnet ist. Bei 16 Pipes können also 16 Pixel gleichzeitig berechnet werden. WOW - bei 1280*1024 Pixel kommt da schon einiges zusammen. Und weil die Frames aufgrund der langen Shader-Befehle dann wegbrechen gibt es in keinem mir bekannten Spiel bis heute Pixel-Shader mit mehr als 100 Befehlszyklen.
Und selbst wenn man nur eine SM2 Karte hat und es später mal in Äonen von Jahren mal SM 98c gibt die vielleicht aus 2hoch 16 Befehlen bestehen dann müssen solche Karten halt die Berechnung aufteilen und das Ergebniss zwischenspeichern - ABER ES GEHT AUCH DAMIT !!!

Fazit : Weder NVidia noch ATI haben eigentlich etwas wirklich sinnvolles weiterentwickelt - aber ihre Marketingabteilung macht uns glauben das wir das unbedingt haben müssen um ja noch in 2 Monaten spielen zu können. Obwohl ich das selbst weis bin ich manchmal doch auch ein Opfer dieser Maschinerie.

Gruß
Michi


Edit : Deswegen gibt es auch keinen richtigen Vorteil von mehr PP oder mehr Takt. Nvidia erhöht die Pipeline-Zahl und kann damit mehr Shader pro Takt abarbeiten. ATI erhöht den Takt und kann damit mehr Shader-Befehle pro Sekunde abarbeiten = Gleichstand !!
 
Hey, da hat jemand die aktuelle c't gelesen. ;) Hast aber vollkommen recht, nur bei einer Sache muss ich nochmal nachharken: Sicher das Nvidia das SM 3.0 eingeführt hat? Ich mein' das wär' Microsoft gewesen.
 
@ Tunix
du sagst gleichstand weil NV mehr pipes und ATI mhr takt macht,
jetzt ist die frage was produziert wohl mehr abwärme ;)
32 pipes oder nen takt von 1000/2000 zb
ich glaube mit dem takt wird man nie soweit kommen wie mit den pipes, daher geht NV den richtigen weg denke ich,
falls ich unrecht habe verbessere mich aber mit guten fakten bitte.
 
@ Night<eye>

Da hab ich mich mit "erfindet" etwas unverständlich ausgedrückt. Wer hats erfunden ? Natürlich die Schweizer :lol:

Ne im Ernst : Du hast natürlich Recht. Die Vorgaben macht MS mit Ihrer DirectX - Schnittstelle. So waren in 8.1 die Shader-Modelle 1.1-1.4 integriert.
Und wenn man es schon genau nimmt dann sind die SM-Längen max. Instruktionen (nicht Befehle). Ein Shader-Programm mit 10 Befehlen kann aber 512 Instruktionen haben durch Sprünge und Schleifen etc.
Habe früher selbst in Assembler programmiert deswegen kenn ich die Problematik noch genau.

Was mich mal interessieren würde ob OpenGL eigentlich SM auch unterstützt oder ob hier irgenwie nur emuliert wird. Dann wäre ja SM bei OpenGL basierten Spielen eh nutzlos. Vielleicht kann mich mal da einer darüber Aufklären.

Die Infos hab ich eigentlich durch Berichte aus Hardwareluxx oder 3dcenter. Z.B: http://www.hardwareluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=2&t=000018&p=5


Gruß
Michi



Edit : @ Nighteye

Grundsätzlich ist beides nicht besonders Zukunftsfähig. ATI erhöht im Moment den Takt und gerät damit in die "Intel-Falle". Was dabei herauskommt weis man zu genüge. Irgendwann ist halt aufgrund der Leckströme zappa. Nvidia ist aber auch nicht so besonders besser. Mehr PP können zwar mehr Pixel gleichzeitig berechnen, die Pünktchen müssen aber auch noch in den Speicher um auf dem Bildschirm zu erscheinen. Da ist also ohne massive Speicherdurchsatzerhöhung und Speichertakterhöhung auch irgendwann mal zappa. Besser wären z.B. so eine Art Vorhersagen ob ein Pixel überhaupt im Bild auftaucht - wenn nicht dann kann es ja gleich aus der Recheneinheit rausgenommen werden. Gibts in Ansätzen ja schon.

Aber mal anders gefragt. Wenn ich mir mal z.B.: Battlefield II anschaue - so eine Spieleentwicklung dauert ja doch 1-2 Jahre. Gabs da schon Programmierer die an SM3 gedacht haben. Ist überhaupt SM 2.0 in Battlefield II integriert ?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh