Praxistipp: NVIDIA Hairworks auf AMD-Grafikkarten optimieren

Crysis 3 - da war das auch der Fall. da sind die AMD Karten aufgrund der geringeren Tessellationsleistung auch derbe eingebrochen.
hatte da zuerst noch ne 5870 und bin dann auf ne 580 gewechselt, das warn Unterschied wie Tag und Nacht.

Nvidia dafür anzukreiden dass die Entwickler von TWIII ihr Spiel für die höhere Tessellationsleistung der beiden GraKa-Hersteller ausgelegt zu haben, isn bisschen ab der Realität.
immerhin ists min seit Crysis 3 hinreichend bekannt, dass AMD bei der Tessellationsleistung nicht mithalten kann.
dass das die vorherrschenden AMD-User hier kein einziges mal auch nur am Rande erwähnen, wundert irgendwie kaum ...

Und wie sah das ganze in Tomb Raider aus? Das erwähnst du nicht und läst es sogar ganz bei deiner Behauptung über den Teller fallen. Gab es da nicht sogar eine Entschuldigung von Nvidia?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
mal so rein fiktiv gedacht
es wäre wirklich so, dass AMD nicht so gut so schnell tessellieren können wie NV.
ist das NVs Schuld u Absicht?
ist es dann böswillig gemeint, Hairworks auch für AMD zu öffnen, dass auch AMD Karten es darstellen können?

AMD u NV sind Konkurrenten.
wie 2 Läufer zB.
ist es vom schnelleren Läufer böswillig, dass er schneller kann und macht?
oder ist der langsame Läufer einfach langsam und der schnelle meints gar nich mal böse, aber er will u muss sich deswegen auch nicht drosseln.

@Picke, Schaffe: Ihr wollt Argumente, logische gerne, sinnvoll und so?
wie soll das gehen? es ist in jedem thread offensichtlich, indem es um NV vs AMD geht, dass gerade Ihr keinem einzigen Argument zugänglich seid.

OT: @Picke: is echt ne geile Karte die 970. hab richtig viel Spaß damit :d
 
Es verwundert halt, dass NV dieses Feature, was sie Jahre lang unter Verschluss gehalten haben und welches (PhysX aka Physikberechnungen per GPU) somit in nur einer Hand voll Titeln überhaupt eingesetzt wurde... :wink: NV hat PhysX seit ~9 Jahren im Programm. Und Hairworks scheint das erste echte Physik per GPU Feature zu sein, was nicht auf NV Hardware angewiesen ist!

Jetzt mal Hairworks aussenvor. PhysX war seit dem Nvidia PhysX geschluckt hat auf Grafikkarten eigentlich ein unding. Klar kann ein GPU schneller Physik berechnungen machen, aber liefen zu der Zeit und in den Titeln, die CPU leer während GK schon ohne PhysX auf hochtouren lief.
 
Zuletzt bearbeitet:
Und wie sah das ganze in Tomb Raider aus? Das erwähnst du nicht und läst es sogar ganz bei deiner behauptung über den Teller fallen. Gab es da nicht sogar eine Entschuldigung von Nvidia?

was mir nich im Kopf rumschwebt, kann ich nicht "über den Teller fallen lassen".

is so lächerlich wie AMD-Fanboys immer wieder gegen NV haten.
Absicht, unfair, böse, etc.
isn Konkurrenzkampf, Leute. is nich wir sind alle gleich und haben uns alle gleich lieb. Kommune 1 gibts schon lange nich mehr und war auch nich soo dolle ... ;)
im Wettbewerb gehts um ... na? ... besser sein.

immerhin, wir NV-user haben Kekse und Ihr AMD-user habt den deutschen Binärcode Meckern auf hohem Niveau mimimimiiimimmmimimi.
is doch Eure Entscheidung. :fresse:
 
Ich bin keine AMD Fanboy, ich hab ihn meinem Leben mehr Nvidia Grafikkarten bessen als AMD/ATIs. Sitze jetzt grade auch noch vor einer Nvidia. Und ich kann dir eins sagen als wirklich neutraler Nutzer es gibt es ihn meinen Augen kaum AMD Fanboys das einzige was es gibt sind leider NV Fanatiker die die Wahrheit nicht sehen wohlen. Die haben mal gehört Nvidia ist besser und denken dadurch das sie den Mist immer wieder von sich geben profiliren sie sich als Hardware Experten.

Mich kotzt momentan als neutralle Endnutzer die ganze Firmenpolitik von Nvidia an. Ich hab keine Lust mich durch G-Sync mit Nvidia zu verheiraten, ich möchte mich nicht über die Spezifikationen der Hardware die ich kaufe belügen lassen. Erst recht sehe ich es nicht ein das meine Grafikarte nach erscheinen einer neuen Generation, "Treiberseitig" ausgebremst wird. Den viele Kepler Nutzer scheinen der Meinung zu sein das sie mehr performance auf veralteten Treibern kriegen.
 
Zuletzt bearbeitet:
Jetzt mal Hairworks aussenvor. PhysX war seit dem Nvidia PhysX geschluckt hat auf Grafikkarten eigentlich ein unding. Klar kann ein GPU schneller Physik berechnungen machen, aber liefen zu der Zeit und in den Titeln, die CPU leer während GK schon ohne PhysX auf hochtouren lief.

Ja das sehe ich ähnlich. Ich gehe sogar soweit und sage, dass die GPU dafür allgemein eher ungeeignet ist. Gerade wenn man auf die Mittelklasse schielt, welche die größte Marktverteilung haben dürfte... So zählt es dort eher allgemein GPU Performance für FPS zu erzielen anstatt irgendwelche Physik Simulationen. Deswegen war ich von den damaligen Ageia PPUs ja so angetan. Leider hat es neben der PCI Karte nur ein paar Prototypen für PCIe gegeben -> und ich hatte 2007 schon keinen freien PCI Slot mehr im PC.

Was nutzt ein "Feature" was auf dem Konkurrenzprodukt 70 statt 20% Leistung kostet außer das man AMD-Karten damit diffamiert will ?
Das ist so gewollte und soll PR-mäßig zeigen wie überlegen Maxwell mit Tesselation umgehen kann im Gegensatz zu diesen billigen AMD-Karten... Suggestion ist alles im Marketing !

Ja und? Ist es eine Weltneuheit, das NV in der Tesselationleistung vor AMD agiert?
Ich erinner mich dunkel, dass dieser Umstand seit dem Fermi v1 der Fall ist... Kann doch keiner was für. Dafür hat AMD den Regler eingebaut. Du als User kannst wählen... Also nutz es doch einfach, wo ist dein Problem??

Der wo bei einem Spiel die Regeln macht und nicht fair gegenüber anderen Teilnehmen ist, der wird immer als der Glorreiche gefeiert. Stell dir mal vor, AMD hätte mit TressFX genau das selbe gemacht und NVIDIA-Karten deutlich aus gebremst. Wie hätte das dann ausgesehen ?

AMDs überlegene Leistung zeigt NVIDIAs-Kepler die Rücklichter ?
Wach endlich mal auf Junge...

Wer feiert denn? Ich sehe hier Niemanden. Du verkennst die Lage und ziehst analog zu Schaffe deine AMD vs. NV Grabenkriege hoch. Interessiert aber eigentlich überhaupt niemanden.

Und welche überlegene Leistung von AMD? Und was hat das bitte mit Hairworks zu tun? Mir wäre nicht bekannt, dass Kepler unter Hairworks stärker einbricht wie Maxwell. Also was willst du mit diesem Unsinn?

Wie so oft hat es absolut gar keinen Zweck mit dir eine Konversation zu führen... :rolleyes:
 
Ich bin keine AMD Fanboy, ich hab ihn meinem Leben mehr Nvidia Grafikkarten bessen als AMD/ATIs. Sitze jetzt grade auch noch vor eine Nvidia. Und ich kann dir eins sagen als wirklich Neutralernutzer es gibt es ihn meinen Augen kaum AMD Fanboys das einzige was es gibt sind leider NV Fanatiker die die Wahrheit nicht sehen wohlen. Die haben mal gehört Nvidia ist besser und denken dadurch das sie den Mist immer wieder von sich geben profiliren sie sich als Hardware Experten.

Mich kotzt momentan als neutralle Endnutzer die ganze Firmenpolitik von Nvidia an. Ich hab keine Lust mich durch G-Sync mit Nividia zu verheiraten, ich möchte mich nicht über die spezifikationen der Hardware die ich Kauf belügen lassen. Erst recht sehe ich es nicht ein das meine Grafikarte nach erscheinen neue Hardware Treiberseitig ausgebremst wird. Den viele Kepler nutzen scheinen der Meinung zu sein das sie mehr performance auf veralteten Treibern kriegen.

Schön kommentiert! :bigok:
 
Ich hab keine Lust mich durch G-Sync mit Nividia zu verheiraten,

Hm verheiratet man sich mit Freesync nicht auch gezwungenermaßen mit AMD? Zumindest wenn man die Gaming-Sparte betrachtet.
Spielt ja im Endeffekt keine Rolle ob offen oder nicht, wenn jeweils nur einer eine bestimmte Technik einsetzt und es nur zwei Anbieter gibt.
 
Zuletzt bearbeitet:
Erst recht sehe ich es nicht ein das meine Grafikarte nach erscheinen einer Generation Treiberseitig ausgebremst wird. Den viele Kepler nutzen scheinen der Meinung zu sein das sie mehr performance auf veralteten Treibern kriegen.

Gibt es dazu denn schon ein paar Zahlen?

Ich selbst habe aktuell nicht das Gefühl, dass die FPS gesunken sind, allerdings habe ich ebenso das Gefühl, dass es ggü. den GM204 GPUs eigentlich mehr sein müsste/könnte. Blos bleibt die Frage nach dem Warum und Wieso dabei völlig ungeklärt.
PS: nimms mir nicht übel, aber objektiv wäre hier gewesen auf den Umstand hinzuweisen und nicht eine Tatsache zu generieren, die noch völlig offen ist. ;)
 
Hm verheiratet man sich mit Freesync nicht auch gezwungenermaßen mit AMD? Zumindest wenn man die Gaming-Sparte betrachtet.
Spielt ja im Endeffekt keine Rolle ob offen oder nicht, jeweile nur einer eine bestimmte Technik einsetzt und es nur zwei Anbieter gibt.

Nvidia ist aber an der Situation Schuld. Auch die sitzen in der VESA haben aber die Informationen aus dieser genutzt, um anstelle des dort beschlossenen Adaptiv-Sync Standarts, lieber schnell noch ihr eigenes Ding auf dem Markt zu werfen. Vermutlich mit dem Ziel der erzwungenen Endkundenbindung.

Gibt es dazu denn schon ein paar Zahlen?

Ich selbst habe aktuell nicht das Gefühl, dass die FPS gesunken sind, allerdings habe ich ebenso das Gefühl, dass es ggü. den GM204 GPUs eigentlich mehr sein müsste/könnte. Blos bleibt die Frage nach dem Warum und Wieso dabei völlig ungeklärt.
PS: nimms mir nicht übel, aber objektiv wäre hier gewesen auf den Umstand hinzuweisen und nicht eine Tatsache zu generieren, die noch völlig offen ist. ;)

Mit der Objektivität hast du recht. Man könnte ja einfach mal einfach den vorletzten Treiber vor Maxwell installieren und Benchmarken und mit dem aktuellen vergleichen. Ich hab aber momentan nicht mal die Muse für so was: Ich sitze hier aber schon seit über 2 Monaten und spiele nur noch anspruchslose Spiele z.B. Hearthstone, HotS weil meine 660Ti mir nicht mehr reicht und warte auf die nächste AMD Generation, um endgültig ein Entscheidung zum Aufrüsten inklusive neuen Monitor zu fällen.
 
Zuletzt bearbeitet:
Nvidia ist aber an der Situation Schuld. Auch die sitzen in der VESA haben aber die Informationen aus dieser genutzt, um anstelle des dort beschlossenen Adaptiv-Sync Standarts, lieber schnell noch ihr eigenes Ding auf dem Markt zu werfen. Vermutlich mit dem Ziel der erzwungenen Endkundenbindung.

schau mal ein paar Beiträge weiter oben, Slot hat es ganz gut zusammen gefasst. Dabei geht es in keinster Weise um Schuldzuweisungen, sondern es ist einfach mal eine Gegebenheit, dass ein gewinnorientiertes Unternehmen, jede erdenkliche Situation für ihre Zwecke missbrauchen wird, wenn man sich darauf einen Mehrwert erhofft.

Allerdings habe ich hier immer das Gefühl, man will einfach nicht verstehen, dass keins der Unternehmen am Markt die Wohlfahrt ist und ihre Sachen aus Nächstenliebe tätigt. Da gehts knallhart um Business und nichts anderes. Also ist auch dort nach Absetzen der Brille zu erkennen, dass NV sich einen zeitlichen Vorteil durch eine eigene Implementation der Technik erhofft/erkauft hat. Ist ihnen sogar gelungen... Kann man nun gut finden oder auch nicht. Als Endkunde hast du faktisch den riesigen Vorteil selbst zu entscheiden, was du kaufst und was nicht. ;)
 
machen ja wohl so ziemlich fast alle Firmen, Kunden binden.

- - - Updated - - -

Nvidia ist aber an der Situation Schuld....

is ne Schuldzuweisung bei dem Thema nicht irgendwie kindisch?
"die sind schuld", "das ist unfair", "die wollen doch ausbremsen" - Leute, da is kein Kindergarten, wo geguckt wird, dass jedes Kind gleich viel aufm Teller hat.
das is Marktwirtschaft. da gewinnt der, der am besten durchkommt.
will man da mit moralischer fairness rangehen, dann boykottiert den PC ganz pauschal.
kauf Euch Brettspiele und seht dort, wie auch da die Marktwirtschaft regiert.

wie wärs mit ner Eremitenhütte im Wald?
 
Die VESA ist da um das man sich in der Industrie auf Standarte eignet. Wofür so was gut ist kann man einem Nvidia Fanatiker aber wahrscheinlich nicht erklären den alles was Nvidia macht ist gut und klasse. Sonst hat man so ein Wirwar wie bei den DXVA geeigneteten DVD Playern früher wo jeder Hersteller meinte der DXVA Standart wer was anderes ...

Nomalerweisse solte man Nvidia aus der VESA rausschemissen und kein Monitor Herstller der mit in der Vesa sitzt ihren Standart unterstüzen.
 
Zuletzt bearbeitet:
Die VESA ist da um sich in der Industrie auf Standarte zu eignen. Wofür so was gut ist kann man einem Nvidia Fanatiker aber wahrscheinlich nicht erklären. Sonst hat man so ein Wirwar wie bei den DXVA geeigneteten DVD Playern fürhern wo jeder Hersteller meinte der DXVA Standart wer was anderes ...

wo genau siehste denn was "fanatisches"?
 
Das du nicht mal raffen willst ein Standart der About VESA | VESA und wofür der gut ist und Nvidia als Mitgleid mit G-Sync für nen Ding abgezogen hat. Das du deine GTX 970 als Endkunde immer noch hoch jubbelst obwohl du nicht das bekommen hast womit sie beworben wurde. Auch wen sie gut performance liefert, wer ich sauer wen ich nicht das kriege was ich glaube zu erwerben.

machen ja wohl so ziemlich fast alle Firmen, Kunden binden.

Die Meisten versuchen Kunden durch die Qualität des Produkts, über den Preis, Freundlichkeit, Zuverlässigkeit, oder gar Kulanz zu binden. Nvidia versucht durch das nicht einhalten eines Standarts Kunden zu binden. Aber vermutlich liegen den CEOs von Nvidia sogar richtig mit den ganzen NV Fanatikern kann Nvidia echt machen was sie wollen. Die jubbeln noch drüber und verteidigen das bis aufs Blut.
 
Zuletzt bearbeitet:
mir sind die ROPs, das SI und andere technische Details komplett egal.
mir gings um nicht überteuert und Leistung. ich seh nich, dass ich bei den beiden Punkten beschissen worden bin.

VESA is mir auch egal. muss ich mich für VESA interessieren, damit du mich nicht als Fanatiker siehst?
das würde ich wiederrum fanatisch finden.

G-Sync (free-Sync) sind mir auch total wumpe.

ich zock um Spaß zu habgen und nicht um fanatisch/unfanatisch oder gar moralisch fair oder unfair zu sein.
sondern nur, weil ich gerne zock.
ist das schlimm? verwerflich?
ist das nich alles etwas extrem für das Thema?
 
Sieht hier in dem Thread aber nicht so aus. Deine Beiträge lesen sich anders. Ich zocke auch zum spass b aber deswegen bin ich aber auf Hardware angewissen. Das was Nvidia grade treibt erschreckt mich aber als Endkunde sehr. Und ich hab keine Lust mich jetzt nach über 20 Jahren (hier nur PC) von einem möglichen Monopolisten, mit dieser Einstellung zu Endkunden, aus dem Hobby treiben zu lassen. Wen Nvidia es wirklich schafft den PC Markt zwei zu spalten leiden wir als Endkunden. Und es sieht ständig so aus als wollten sie das.
 
Zuletzt bearbeitet:
ich finds nur heftig unangebracht wie extrem deswegen abgegangen wird. deswegen poste ich.

hab auch keine Lust auf Shadow Run. ne Welt regiert von wenigen Monopol-Firmen.
aber ändern werd ichs nich, wenn ich NV boykottier.
wo soll man denn da die Grenzen ziehen?
ne, ne. lass mal.

ich glaub auch nicht, dass AMD es anders machen würde, hätten die NVs Position.
auch AMD hat keinen moralischen Kodex. die müssen ihre Leute genauso bezahlen wie NV.
 
ich glaub auch nicht, dass AMD es anders machen würde, hätten die NVs Position.
auch AMD hat keinen moralischen Kodex. die müssen ihre Leute genauso bezahlen wie NV.

Das mit AMD glaube ich auch nicht. Für uns als Endkunde wer aber eine größere Konkurenz auf dem Markt wünschens Wert. Mehr Hersteller, der Marktanteil besser aufgeteilt, vermutlich müssten die sich den sogar auf Standarts einigen um das es überhaupt laufen kann.
 
Zuletzt bearbeitet:
dem stimm ich uneingeschränkt zu.
nur befürchte ich, wird es sich nicht so entwickeln.
 
Warum fährst du alle Nase lang in deinen Aussagen diese unsinnige NV vs. AMD Kampfansagen?

Welche Kampfansagen?

Erst sagst du Dragon, die Settings wurden vom Entwickler so gewählt und mir willst du hier erzählen, man würde AMD ausbremsen wollen?? Ja wer denn nun? (zumal "man" dabei wohl klar auch NV meint, da es völlig unlogisch wäre, wenn ein Entwickler eines Titels ganz paar Prozent des Absatzmarktes gezielt benachteiligen würde)

Der Entwickler in Zusammenarbeit mit Nvidia, Nvidia alleine, oder der Entwickler.
Ersteres wohl wahrscheinlicher.
Inwiefern ist das jetzt für die Diskussion relevant?

PS: und ob du einen Unterschied zwischen 64x und 16x oder 8x siehst, ist doch völlig nebensächlich. Ich schrieb nichts von sichtbarer BQ, sondern ich schrieb beste BQ.

Dein Niveau und deine Argumente sind wiedermal unter aller Kanone.
Ist natürlich völlig nebensächlich ob diese Settings Sinn ergeben, ist ja schließlich von Nvidia die einem auf Samariterart maximale BQ "schenken".
Völlig absurd.

Aber ganz ehrlich, selbst die InGame default Einstellungen, die dich 20% kosten mit deiner TitanX sind doch lachhaft niedrig...

Teilweise kostet es deutlich mehr!
Zudem 20% sind 20%. Nvidia hätte sicherlich die Einstellungen so wählen können, dass es nur 5 oder 10% kostet.

Wenn man von FHD auf UHD schaltet kostet einen das 50-70%. Wenn du SGSSAA 4x einstellst, kostet dich das grob 50% usw. usf.

Wir stellen hier aber keine Auflösung ein, oder SGSAA, sondern Tesselation, also vergleiche doch nicht Äpfel mit birnen.

Kannst du sehen wie du willst, ist mir persönlich ziemlich egal

Ja, das wundert mich, vor allem weil man eine solche Ansicht argumentativ genau gar nicht verteidigen kann.
Das geht höchstens mit Polemik, die du ja oben schon wunderbar angewandt hast. ;)

"Ich schrieb nichts von sichtbarer BQ, sondern ich schrieb beste BQ."

ich sagte bereits, ich wundere mich, dass diese Hairworks Geschichte nicht entgegen der ursprünglichen Annahme NV only ist/wurde...

Nvidia hat vor ca einem Jahr gesagt, dass die ihr Programm öffnen werden.
Diesbezüglich kann es für NV auch noch besser sein, als es nicht zu öffnen, so werden die AMD Karten schön langsam in den Benchmarks gezeigt, was vorher ja nicht funktioniert, da NVidia only.;)
Im Endeffekt besseres Marketing.

Von daher wurde doch den Kritikern genüge getan, das Feature auch für AMD zu öffnen.

Den Kritikern die auf einem Auge blind sind?

Aber was wäre die Welt, wenn es nix zu meckern gäbe, nicht oder?

Was heißt denn meckern? Du meckerst erstma gegen die Leute die völlig sinnlose Settings kritisieren und sagst dann Nvidia sei so toll, weil sie es offenlegen?
Und meinst dann die Kritiker sollen jetzt erstmal still sein?

Wenn du nicht merkst, dass lediglich eine Baustelle geschlossen wurde, eine andere mit ( aus meiner Sicht ) größerem Marketingpotenzial aber wieder geöffnet wurde, dann stellst du dich in irgeneiner Form hier quer.

Willst es nicht verstehen, oder vielmehr absichtlich nicht verstehen, denn den hint mit dem "Das ist mir auch jetzt völlig egal" hab ich schon gelesen. ;)

Sondern ich sagte, dass andere Sachen ebenso Tesselation nutzen und das globale Deckeln diese mit Sicherheit ebenso beeinflussen. Ob da 64x in Nutzung ist oder nicht? Spielt das eine Rolle?

Ich find schon. Denn das zeigt prima, dass der Spielehersteller selbst in der Lage ist vernünftige Einstellungen zu wählen und nur Nvidia in diesem Falle auf 64x aufdreht und der Entwickler offenbar wenig zu sagen hat. Schade!

Was sinnvoll ist oder nicht, ist doch eines Jedem selbst zu entscheiden...

DU verteidigst jetzt ernsthaft diese Grundeinstellung die Nvidia voreinstellt?
Damit entfachst du wirklich Glaubenskriege, wie du es mir wieder vorwirfst.:rofl:

Sondern ich sagte, dass andere Sachen ebenso Tesselation nutzen und das globale Deckeln diese mit Sicherheit ebenso beeinflussen.

Ja Tesselation wohl nutzen, aber nicht mit x64, wahrscheinlich nicht mal mit x32, sondern eher mit x8/x4/x16, wie üblich.

Denn schließlich sollen doch gerade diese bewegten Haare nicht in einer Flimmerorgie enden.

Hast du dir in Spielen schonmal den Unterschied zwischen 4xMSAA und 8xMSAA angesehen?:rolleyes:
Hierfür müsste es mindestens auch einen Schalter geben.

Und ob ein niedrigere Tesselation Faktor es nicht auch getan hätte? Vielleicht...

Ach ne? Dauert es so lange bis du mal vage diese Erkenntnis mit einem vielleicht äußerst?:fresse:

Allerdings gibt es in keinem mir bekannten Spiel einen Regler um das Level variabel zu skalieren. Das du sowas forderst, zeigt mir, dass es dir in keinster Weise um die Einstellungen selbst geht, sondern du einfach mal nur Kritik äußerst, weil?

Ganz ehrlich fdsonne. Mit deiner Polemik beißt du bei mir auf Granit.
Wenn es dir darum geht sinvolle Kritik für sinvolle Einstellungen mit Nullargumenten und Nvidiaprogetrolle zu zerreden, dann ist die Diskussion hiermit zu ende.

Wie dir vielleicht aufgefallen ist, gibt es in anderen Spielen auch keine Regler dafür, weil kein Bedarf besteht.:rolleyes:

Wenn du keine Argumente hast, dann würde ich vorschlagen, dass du die Polemikschiene verlässt.:shake:

- - - Updated - - -

Schaffe: Ihr wollt Argumente, logische gerne, sinnvoll und so?
wie soll das gehen? es ist in jedem thread offensichtlich, indem es um NV vs AMD geht, dass gerade Ihr keinem einzigen Argument zugänglich seid.

Welche Argumente wurden denn für Nvidias Vorgehen was die Settings betrifft genannt?
Ich habe von dir bisher nur Geschwurbel gelesen und von fdsonne kommt auch nur Unsinn.
Also wo sind die Argumente gegen die ich mich wehre versteckt?

Es wäre schön, wenn du diese zitieren könntest! Und zwar welche die lediglich aus deiner Sicht als Argumente dienen.

Fdsonne hat sich mit "maximaler BQ die man nicht sehen kann" ja schon genug blamiert.

Die ganzen Einstellungen von Gameworks sind genau so gewählt um AMD Karten zu benachteiligen und eigene auch zu bremsen, aber halt mit vertretbaren Leistungseinbrüchen.
Spielehersteller sollten sowas schlicht und einfach nicht unterstützen.
 
Zuletzt bearbeitet:
@Schaffe: weißte doch, ich geh nich mehr richtig auf dich ein. da kann ich auch mit ner Wand reden. die wird nich mal so ausfallend wie du ;)
 
Welche Kampfansagen?
Bspw. diese da:
"ist ja schließlich von Nvidia die einem auf Samariterart maximale BQ "schenken"."
Komm doch einfach mal von diesem Tripp runter, hier irgendeine Herstellergebundenheit erkennen zu wollen... Das ist doch nicht mehr auszuhalten.

Der Entwickler in Zusammenarbeit mit Nvidia, Nvidia alleine, oder der Entwickler.
Ersteres wohl wahrscheinlicher.
Inwiefern ist das jetzt für die Diskussion relevant?
Wenn du Kritik übst und einer Partei vorwirst, eine andere zu benachteiligen, dann sollte schon klar sein, wem du das vorwirfst...
Warum, wenn ich fragen darf, nimmst du ersteres an? Gibt es dazu irgendwelche Belege oder wenigstens Indizien, die das auch nur glaubhaft annehmen lassen?
Wir wissen einzig und allein von der Tatsache, das der AA Level und der Tesselation Faktor aktuell AMD Hardware beschleunigen. Wie ich dir oben allerdings bereits mitzuteilen versuchte, Maxwell profitiert trotz überproportional mehr Tesselation Performance nicht davon -> es liegt also die Vermutung nahe, dass dies nicht das Problem ist.
Und AA? Laufen nicht gerade hohe AA Settings auf AMD Hardware gut/besser?

Für mich schaut das wieder mal so aus, als wird hier aus einem Umstand, den du (und Andere) nicht gut finden, was euer gutes Recht ist, einfach mal eine Hasspropaganda ggü. NV (und gleichsam CDP, wie du selbst annimmst) getätigt.
Wir diskutieren doch nun schon so viele Monate miteinander, da sollte dir doch einfach langsam mal aufgefallen sein, dass mir NV als Firma völlig am Hintern vorbei geht, sondern es mir einfach um den Umstand ankommt, hier eine sachliche Diskusion mit nachvollziehbaren Argumenten zu führen. Anstatt alle Nase lang diese AMD ist die Wohlfahrt und NV ist der Buhman Scheiße zu tätigen.

Dein Niveau und deine Argumente sind wiedermal unter aller Kanone.
Ist natürlich völlig nebensächlich ob diese Settings Sinn ergeben, ist ja schließlich von Nvidia die einem auf Samariterart maximale BQ "schenken".
Völlig absurd.
Dann ließ halt richtig... Wenn ich was nicht so geschrieben habe, wie du es interprätierst, bin ich bestimmt nicht schuld... Wähle deine Worte mit Bedacht, hat mal ein weiser Mann gesagt ;) Hätte ich etwas über die Sinnhaftigkeit im Bezug auf die Sichtbarkeit des 64x Tesselation Levels schreiben wollen, hätte ich nicht mit bester BQ argumentiert.

Was heißt denn meckern? Du meckerst erstma gegen die Leute die völlig sinnlose Settings kritisieren und sagst dann Nvidia sei so toll, weil sie es offenlegen?
Und meinst dann die Kritiker sollen jetzt erstmal still sein?

Wenn du nicht merkst, dass lediglich eine Baustelle geschlossen wurde, eine andere mit ( aus meiner Sicht ) größerem Marketingpotenzial aber wieder geöffnet wurde, dann stellst du dich in irgeneiner Form hier quer.

Willst es nicht verstehen, oder vielmehr absichtlich nicht verstehen, denn den hint mit dem "Das ist mir auch jetzt völlig egal" hab ich schon gelesen. ;)

Also zuerst einmal, ich sagte keineswegs, NV sei toll -> Interprätation deinerseits und wieder mal unwahr.
Zweitens, ich sagte ebenso wenig, dass die Kritier still sein sollen -> Interprätation deinerseits und wieder unwahr
Drittens, ich sehe auch nicht primär, dass hier unsinnige Settings kritisiert werden, sondern in erster Linie sehe ich hier die üblichen Verdächtigen, die sich über NV und ihre Politik aufregen.

Ich find schon. Denn das zeigt prima, dass der Spielehersteller selbst in der Lage ist vernünftige Einstellungen zu wählen und nur Nvidia in diesem Falle auf 64x aufdreht und der Entwickler offenbar wenig zu sagen hat. Schade!

DU verteidigst jetzt ernsthaft diese Grundeinstellung die Nvidia voreinstellt?
Damit entfachst du wirklich Glaubenskriege, wie du es mir wieder vorwirfst.:rofl:

Frage, wo steht denn bitte, dass es NV war???

Ganz ehrlich fdsonne. Mit deiner Polemik beißt du bei mir auf Granit.
Wenn es dir darum geht sinvolle Kritik für sinvolle Einstellungen mit Nullargumenten und Nvidiaprogetrolle zu zerreden, dann ist die Diskussion hiermit zu ende.

Hör doch endlich mal mit dieser NV Scheiße auf... Wie oft willst du das noch vors Loch schieben???
NOCHMAL: Es geht mir nicht um NV!
 
Ich finds Haarspalterei....Es wird erst gemault, weil die Haare mit NV nur schöner sind und AMD nicht machen darf Haare seidig glänzend. Dann darf und kann es AMD doch. Nun wird aber wegen dem starken Leistungseinbruch geweint, der aber bei rot und grün vorhanden ist, wenn die die machen Haare seidig glänzend.....Versteh ich nich.
 
Ich wunderte mich, dass das Feature überhaupt auf nicht NV Hardware läuft. Denn entgegen der ursprünglichen Annahme ging man Jahre lang davon aus, dass diese Haarsimulation analog bspw. der in CoD:Ghosts auf GPU PhysX setzt. Hairworks ist quasi GPU PhysX für Haare/Fell und Grass, allerdings ohne die Beschränkung auf NV only. Es verwundert halt, dass NV dieses Feature, was sie Jahre lang unter Verschluss gehalten haben und welches (PhysX aka Physikberechnungen per GPU) somit in nur einer Hand voll Titeln überhaupt eingesetzt wurde... :wink: NV hat PhysX seit ~9 Jahren im Programm. Und Hairworks scheint das erste echte Physik per GPU Feature zu sein, was nicht auf NV Hardware angewiesen ist!
-> entwegen der üblichen NV Politik ist das durchaus begrüßenswert. Wo doch die große Masse der Leute sich immer darüber beklagt hatte, das NV dies nicht für andere Hardware öffnet ;)

Finde ich auch einen guten Schritt und kann daher das Gemecker aus dem AMD Lager nicht nachvollziehen.
Laufen denn neben Hairworks auch die anderen PhysX features (Clothing, Destruction) auf AMD Karten und werden diese überhaupt über die GPU berechnet?


Gibt es überhaupt irgendwo schon einen Test mit einer dedizierten PhysX Karte?
 
Ich finds Haarspalterei....Es wird erst gemault, weil die Haare mit NV nur schöner sind und AMD nicht machen darf Haare seidig glänzend. Dann darf und kann es AMD doch. Nun wird aber wegen dem starken Leistungseinbruch geweint, der aber bei rot und grün vorhanden ist, wenn die die machen Haare seidig glänzend.....Versteh ich nich.
Das ist nicht so schwer zu verstehen... die leute regen sich auf, weil es Hinweise darauf gibt, dass NV, AMD absichtlich stärker benachteiligt (indem man die tesselation unsinnig stark hochgeschraubt hat und man dies nicht mal im Game reduzieren kann (ohne an der Ini rumzuwerkeln)).
So hat es den Anschein als ob die auf dem schmalen grad wnader zwischen AMD User völlig ausschließen und AMD User gleich behandeln.
Das mag wirtschaftlicher Konkurenzkampf sein, aber aufregen darf man sich trotzdem - besonders da die Studios unnötigerweise für den "Kampf" missbraucht werden.
 
Ich sehe die 290(X) gleichauf mit der GTX 970 und vor der GTX 780ti in Benchmarks. Voll benachteiligt die AMD Karten......
 
Zuletzt bearbeitet:
Es ist mal wieder wie immer! nVidia vs. AMD endet darin, dass nVidia - sie haben ja jedes Recht dazu da sie auch Ressourcen investieren, Stichwort Gameworks - ein Feature einsetzt welches für AMD-Karten einen Nachteil bringt.
Zu vergleichen ist die Situation mMn mit Metro:2033 - in Gewisser Art und Weise.

Es gibt eine Option, namentlich Hairworks - im Vergleich dazu Advanced PhysX bei Metro:2033 - welche auch mit AMD-Hardware genutzt werden kann. Erstmal ist das ja durchweg positiv.

Jetzt kommt das große ABER. Denn der durchschnittliche Nutzer wird erstmal schön alle Regler aufs Maximum knallen und dort mit 'nem Hammer im Bildschirm festnageln. Ob jetzt Hairworks bei Witcher 3 oder Advanced PhysX bei Metro:2033.
Auf der AMD-Hardware läuft das Spiel dann, im Schnitt, sehr bescheiden bzw. ist unspielbar. Der Nutzer kauft sich ne neue - völlig überteuerte, aber darum gehts hier nicht - nVidia-Grafikkarte und es läuft super. Bäms, AMD ist mal wieder der Buhmann, nVidia der strahlende Ritter in weißer Rüstung... zumindest wenn man das Loch im Girokonto ignoriert.

Würde jetzt allerdings im Menü eine GROßE Warnmeldung auftauchen "Achtung, lieber AMD-Grafikkarten-Nutzer. Aktivierst du diese Funktion kann es zu hohem Leistungsverlust kommen und die Spiel-Erfahrung negativ beeinflussen!" weiß der durchschnittliche Nutzer dass es daher kommt, deaktiviert die Scheiße und spielt zufrieden mit Geralt in Milfgaard, erm... Nilfgaard, fangen! Weil es, wenn man es nicht weiß, eh nicht auffällt.

Allerdings ist der durchschnittliche User nicht dazu in der Lage sowas zu lösen. Das schlimmste daran ist aber wieder, dass genau diese armen Wesen dann hier im Luxx einen Thread eröffnen "Witcher 3 läuft scheiße" und 15 Minuten später im Saturn eine Titan X erwerben. Aua!

Lange Rede, kurzer Sinn. Nichts passiert aus Zufall, nVidia kalkuliert alles. So auch, diese Funktion "netterweise :d:d:d:d" AMD-Nutzern zur Verfügung zu stellen.

P.S. Bei mir performt The Witcher 3 ganz nett, Hairworks stellt für mich keinen Mehrwert dar, wenn CF mit Catalyst 15.5 funktioniert wird aber auch das machbar sein.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh