nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Der Compiler kann zwar teilweise optimieren, aber um wirklich das Potential der Karte ausschöpfen zu können muss man (zumindest atm. noch) per Hand vektorisieren.
Kommt halt darauf an, wie gut der Compiler ist. Ich bin manchmal selbst erstaunt, was x86 Compiler mittlerweile für Tricks drauf haben. Die OpenCL Compiler sind natürlich noch recht jung. Das wird sicherlich noch ein Weilchen dauern, bis diese das vorhandene Potenzial wirklich ausschöpfen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Prinzip ist es mir eh wurst wieviel Strom das Teil zieht, solange es ordentlich rockt. Schlimmstenfalls muß ein neues NT her.
Habe ne zweite GTX 260 da hab heute einmal SLI probiert, ich meine die Zahlen sind schon fesch, aber für mich brauchen würde ich es nicht.
 
:hmm: du brauchst nichtmal ein SLI aus zwei GTX260, warum möchtest du dann ne GTX380?...gehts dir nur um den Haben Faktor? Die 260er scheint dir ja zu reichen^^
 
Am besten wäre 225 Watt mit 6pin+8Pin dann einen Wasserkühler drauf.
Und 75Watt OC Spielraum:drool:
MFG
 
Oh man, und wenn die wirklich 2x8pin pcie bekommen würde? shit happens! nur weil sie dann laut spezifikation maximal für 375 w ausgelegt wäre, bedeutet es nicht das sie die auch brauchen muss. P = U*I für alle die das noch immer nicht wissen. das netzteil stellt eine spannung von 12v bereit und einen strom entsprechend der netzteil leistung. wieviel strom die karte im endeffekt zieht hat doch nichts mit den steckern zu tun!

An ner Heimsteckdose liegen idR 230V 16A an, damit wären also round about 3680 W möglich bevor die sicherung fliegt. Braucht jedes gerät was man da einstöpselt diese Leistung? NEIN

ich würde persönlich immer diese 8 pin stecker verbauen! erst recht wenn volterra chips verbaut werden. so kann ich beim originalprodukt die tatsächliche leistung so ausrichten das niemand über den verbrauch meckert, und alle denen das nicht reicht haben genug spielraum nach oben.

im endeffekt ist es doch schon bald wichtiger geworden wie hoch man overclocken kann.
 
Zuletzt bearbeitet:
Also im besagten Beispiel hat nVidia erstmal ein grösseres Problem, 40% ist immer noch weniger als 45%. Und Optimierungen sind alles andere als nichtig. Diese werden ja schliesslich vom Compiler durchgeführt, der die Blöckgrössen festlegen kann, wie er lustig ist. Und mit diesen Optimierungen kommt der Entwickler auf High-Level Sprachebene auch nicht in Berührung. Was der Typ gemacht hat, ist einfach besseren Code als ATIs Compiler zu implementieren. Das hat mit nVidia und "einen Mittelweg zu finden" gar nichts zu tun.

Wenn wir aber von der Matrizenrechnung ausgehen ist es zum einen nicht möglich eine Matrix einfach so zu verkleinern ohne dadurch merh Matrizen zu erhalten und dann wieder einen höheren Berechnungaufwand zu betrieben nur um die ursprüngliche Aufgabe wieder herzustellen.

Wenn es so einfach und immer sinnvoll wäre, meinst du nicht der ATI-Compiler würde es immer so umsetzen? Tut er ja aber scheinbar nicht.
 
:hmm: du brauchst nichtmal ein SLI aus zwei GTX260, warum möchtest du dann ne GTX380?...gehts dir nur um den Haben Faktor? Die 260er scheint dir ja zu reichen^^

Jo haben Faktor ich wollte eigentlich schon längst die 5870er kaufen, nur im Prinzip reicht das was bei mir im Rechner so arbeitet. Deswegen warte ich die neuen Nvidias noch ab um eben die bessere zu kaufen.
Ich bin von der 275er auf die 4890er weil die ja alle so toll finden, das war ein großer Fehler die Bildquali der Nvidia Karten ist irgendwie besser.
Nach 4 Monaten hatte ich ein wenig Glück und die 4800er ging ein, und habs dann gegen eine 260er austauschen lassen, und bin seit dem wieder zufrieden.
Ich kaufe alle 3-6 Monate neue Teile dann bekomm ich für die alten noch so viel das ich nie wirklich viel drauf zahlen brauch. Ist halt ein teures Hobby *g*

Edit: Die meisten werden wohl wissen das die neuen Karten 32x AA anbieten, und die Spannungen kann man auch frei verändern.
 
Zuletzt bearbeitet:
...die Bildquali der Nvidia Karten ist irgendwie besser...

Nvidia hatte immer die Bessere Bildquali weil die Texturfilter sauberer arbeiteten bis zum GT200!

Beim RV870 wurde das aber endlich überarbeitet.

http://www.computerbase.de/artikel/...i_radeon_hd_5870/6/#abschnitt_af_kontrolliert

Sofern nvidia also nur das 32xMSAA hinzufügen sollte und nichts am AF macht wird AMD diesmal also die Nase vorne haben. Bleibt also abzuwarten. Ich denke aber nicht das nvidia das so auf sich sitzen lassen wird ;)
 
Wenn wir aber von der Matrizenrechnung ausgehen ist es zum einen nicht möglich eine Matrix einfach so zu verkleinern ohne dadurch merh Matrizen zu erhalten und dann wieder einen höheren Berechnungaufwand zu betrieben nur um die ursprüngliche Aufgabe wieder herzustellen.

Wenn es so einfach und immer sinnvoll wäre, meinst du nicht der ATI-Compiler würde es immer so umsetzen? Tut er ja aber scheinbar nicht.

So sieht es aus. Es ist eben nicht immer sinnvoll Matrizen so zu zerkleinern damit man möglichst kleine und damit viele erhält. Da braucht eine Matrix nur so aufgebaut zu sein, dass man 2 gleiche Matrizen erhält und schon rechnet man im Endeffekt doppelt. Das muss man sich mal bei einer halben Mio. Matrizen und mehr vorstellen. Im Endeffekt wird doppelt berechnet und man erhält das selbe Ergebnis. Sprich, es wäre mMn wesentlich sinnvoller zu schauen, wie man einen Algorithmus entwicklet der auch die entsprechenden Matrizen erkennt und diese dann nach Schema F effizient verkleinert.
 
Oh man, und wenn die wirklich 2x8pin pcie bekommen würde? shit happens! nur weil sie dann laut spezifikation maximal für 375 w ausgelegt wäre, bedeutet es nicht das sie die auch brauchen muss. P = U*I für alle die das noch immer nicht wissen. das netzteil stellt eine spannung von 12v bereit und einen strom entsprechend der netzteil leistung. wieviel strom die karte im endeffekt zieht hat doch nichts mit den steckern zu tun!

An ner Heimsteckdose liegen idR 230V 16A an, damit wären also round about 3680 W möglich bevor die sicherung fliegt. Braucht jedes gerät was man da einstöpselt diese Leistung? NEIN

ich würde persönlich immer diese 8 pin stecker verbauen! erst recht wenn volterra chips verbaut werden. so kann ich beim originalprodukt die tatsächliche leistung so ausrichten das niemand über den verbrauch meckert, und alle denen das nicht reicht haben genug spielraum nach oben.

im endeffekt ist es doch schon bald wichtiger geworden wie hoch man overclocken kann.

weill nicht jeder 2*8 pin hat also nimt man sowenig und kleine anschlüsse wie irgenwie möglich
 
Wenn wir aber von der Matrizenrechnung ausgehen ist es zum einen nicht möglich eine Matrix einfach so zu verkleinern ohne dadurch merh Matrizen zu erhalten und dann wieder einen höheren Berechnungaufwand zu betrieben nur um die ursprüngliche Aufgabe wieder herzustellen.
Ich glaube, du verstehst hier etwas falsch. Mathematische Matrizen, die vom Entwickler zur Implementierung eines Algorithmus verwendet werden und zweidimensionale Blöcke, der der Compiler auf Datenebene handelt, sind zwei verschiedene Dinge. Der Compiler kann diese Blöcke theoretisch beliebig verwalten, ohne den Berechnungsaufwand des High-Level Algorithmus zu verändern.

Wenn es so einfach und immer sinnvoll wäre, meinst du nicht der ATI-Compiler würde es immer so umsetzen? Tut er ja aber scheinbar nicht.
Lies dir mal den Thread genau durch. Ein ATI Entwickler, sofern das kein Fake Poster war, bestätigt sogar, dass der Compiler für neuere Hardware noch viel Optimierung benötigt.
Congratulations on improving on our algorithm for dense-matmat mul. It is very impressive to see that people can take our code developed on older hardware and improve it past its original design. The original code was developed on the R600 hence the 8x4 design and later optimized for R670 but the original design didn't change.
 
Sofern nvidia also nur das 32xMSAA hinzufügen sollte und nichts am AF macht wird AMD diesmal also die Nase vorne haben. Bleibt also abzuwarten. Ich denke aber nicht das nvidia das so auf sich sitzen lassen wird ;)


Ne ne ich denke die lassen da nix anbrennen, ich bin mir sicher das die ordentlich was weiter gehen, und auch ne top quali abliefern.
Nvidia geht das so gelassen an wie nie zuvor, ich kanns kaum noch erwarten ;)
 
Besseres AF bekommt man nur durch SSAA, da dies auf DX9 begrenzt ist denk ich lassen sie das links liegen trotzdem wäre es cool wenn man es im Treiber mit rein machen würde, ohne nHancer gibts ja kein SSAA bei NV.

Aber ich glaub das mit dem 32XAA ist wieder so ein wurschtel zeuch CSAA like, das können sie ma schön behalten das will doch keiner :(
 
Zuletzt bearbeitet:
Besseres AF bekommt man nur durch SSAA, da dies auf DX9 begrenzt ist denk ich lassen sie das links liegen trotzdem wäre es cool wenn man es im Treiber mit rein machen würde, ohne nHancer gibts ja kein SSAA bei NV.

Aber ich glaub das mit dem 32XAA ist wieder so ein wurschtel zeuch CSAA like, das können sie ma schön behalten das will doch keiner :(


was soll auf dx9 begrenzt sein? SSAA?
 
Als Nvidia User ist der Nhancer sowieso Standard, das installiere ich direkt nach dem Treiber *g*
 
Nvidia hatte immer die Bessere Bildquali weil die Texturfilter sauberer arbeiteten bis zum GT200!

Beim RV870 wurde das aber endlich überarbeitet.
vorallem flimmern die alten ATI grakas weil textur-samples eingespart wurden.

@Maeximum30
Nhancer nutze ich nur für probleme wie AA in stalker, ich bin schon sehr zufrieden das ich die 260GTX mit rivatuner 2D/3D problemlos und silent regeln kann.
eine ATI kommt mir sicherlich lange nicht mehr in den PC.
 
weil es mich gerade interessiert hat, warum es nicht funktionieren könnte, hab ich mal etwas gesucht:Artikel auf Anandtech
Auszug aus dem Artikel schrieb:
as there is a catch to AMD’s SSAA implementation: It only works under OpenGL and DirectX9. As we found out in our testing and after much head-scratching, it does not work on DX10 or DX11 games. Attempting to utilize it there will result in the game switching to MSAA.

When we asked AMD about this, they cited the fact that DX10 and later give developers much greater control over anti-aliasing patterns, and that using SSAA with these controls may create incompatibility problems... We’re told that AMD will “continue to investigate” implementing a proper version of SSAA for DX10+, but it’s not something we’re expecting any time soon.
So gesehen würde es wohl prinzipiell gehen, es kann aber auch zu Problemen kommen. Deswegen wirds momentan vom ATI-Treiber bei DX10+ nicht genutzt.
 
SuperSampling Anti-Aliasing neigt lediglich zu Kompatibilitätsproblemen mit einigen PostProcessing-Effekten... deaktiviert man diese kann man per nhancer diverse spiele zu SSAA überreden, sollte demnach aber auch bei AMD gehen wenn man diese effekte reduziert oder abschaltet... generell inkompatibel ist es aber nicht...

dachte erst du wolltest darauf hinaus das der AMD treiber zu blöd ist den LOD Bias selbstständig anzupassen und dadurch beim SSAA die texturen unschärfer werden bzw anfangen zu flimmern. da hilfts auch nicht das sie ihr AF nun auch winkelunabhängig berechnen ;)


als nächstes kommt die frage was ist post processing? :fresse:
 
Zuletzt bearbeitet:
GTA IV unterstützt garkein AA nur nach game mod, ist die API deswegen generell inkompatibel zu AA? wohl eher nicht.

nvidia crackt demnach überhaupt nichts, sie kümmern sich nur intensiver um solche misstände... und nu BTT ^^
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh