„TressFX“: AMD-Technik für mehr Realismus

Status
Für weitere Antworten geschlossen.
Computerbase hat was Interessantes veröffentlicht AMD TressFX Technick.

Quelle: „TressFX“: Neue AMD-Technik für mehr Realismus (Update 2) - ComputerBase

Im Game-Blog von AMD macht der CPU- und GPU-Spezialist mit einer humorvollen Ankündigung auf sich aufmerksam. Im Stile einer „waschechten“ Werbung für ein Haarpflegeprodukt kündigt AMD „TressFX“ an. Dahinter verbirgt sich offenbar eine neue Technologie für mehr Realismus in Spielen.

Der Blog trägt den Titel „TressFX: A new frontier of realism in PC Gaming“. In welcher Form neue Grenzen im Bereich des Realismus bei Spielen gesteckt werden sollen, bleibt zunächst aber unklar. Mit dem Slogan „Render. Rinse. Repeat.“, also soviel wie „Rendern. Ausspülen. Wiederholen.“, verweist AMD auf mehr Details am morgigen Dienstag, den 26.02.2013.



Die Vermutung liegt nahe, dass sich hinter „TressFX“ eine Technik für AMDs Radeon-Grafikkarten verbirgt, mittels welcher Elemente – wie zum Beispiel Haare – im Spiel realistischer gerendert werden. Wie die Kollegen von TechPowerUp berichten, hatte AMD im Rahmen einer jüngsten Telefonkonferenz ein neues Feature grob angesprochen, welches man in Kooperation mit der Spieleschmiede Square Enix entwickelt habe und welches in dem in wenigen Tagen erscheinenden neuen „Tomb Raider“ bereits enthalten sein soll.




„TressFX“ in Game Video



 
Zuletzt bearbeitet:
@fdsonne
ich habe grade erst einen bericht gelesen im bezug auf die neuen Konsolen ( komenden Spiel ) wo AMD was über die PS4 hardware gesagt hat und meinte das grade User mit AMD hardware (CPU wohl auch) einen nicht zu unterschätzenden vorteil bekommen werden und das sie noch sehr viel trümpfe auf der hand haben und nun nach und nach ausspielen.
Daher thema Titan--> Die HD7970 hat ja enorm viel GPGPU power und wie sieht das den im vergleich zum Titan aus? weil angenommen die ganzen spiel kommen mit viel GPGPU auf uns zu sollte der Titan da nicht schneller sein und grade bei GPGPU deutlich loslegen können?

Tahiti kommt mit 2048 ALUs als Ghz Edition auf ~4300 GFlop/s. Titan kommt im default Boost mit 2688 ALUs und 876MHz auf ~4700 GFlop/s theoretische Leistung.
Gemessen daran, hat Titan durchaus die Nase vorn.

Nur wie so oft in Sachen Zusatzeffekten zählt immer das, was noch an Luft vorhanden ist. Fahr ich eine GPU an die Brechgrenze der Auslastung, was durchaus vorkommt, auch aktuell, drückt jede Zusatzberechnung die FPS Rate.
Der Potentielle Vorteil, den AMD mit Tahiti gegen GK104 680 GTX hat, ist, das dort mehr Rohpower zum quasi direkten Konkurenten vorhanden ist, die man mit sowas ausnutzen könnte.
Da aber Titan ~45-50% Rohpower auf die GK104 GPU drauf legt, aber in Games teils nur um die 30-35% drauf haut, steigt deren Möglichkeit natürlich ebenso. Anders schauts halt in Volllastszenarien aus. Aber da setzt sich Titan auch weiter ab ;) Was aber genau so für die Tahiti GPU gilt.

Laut einigen Benches sind es ~25% Leistungsunterschied zwischen Tahiti XT als GHz Edition. Egal was man macht.
Das Verhältnis könnte also durchaus weiter in Richtung AMD rutschen, wenn GCN als Architektur in den Konsolen Einzug erhält. Ich denke aber, das wird noch gut und gerne 2-3 Jahre dauern.
Und ob wir in der übernächsten Generation noch bei GCN sind, oder vllt gar schon nen Schritt weiter... Wer weis ;)
Der Xenos der XBox360 basiert ja auf nem Zwitter zwischen R580 und R600. Obwohl man mit R600 seitens AMD nen ganz anderen Weg gegangen ist. Und mit Cayman, später Tahiti die Technik noch zweimal umgebogen hat.
Könnte also sein, das der GCN Vorteil gar nicht all zu lange zutrifft...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja ok das dann andere GPUs seitens AMD und NV am start sein werden wenn die neuen konsolen dann voll verfügbar sind ist klar!
Bin mal gespannt was AMD dann mit der HD8000 geplant hat und wie NV ihre GTX780 auslegen wird!

@sonnyboy
über die GPU Physik zu berechnen finde ich eh nicht so gut weil wozu hat man 8Threads und mehr wenn man diese nicht sinnvoll nutzt weil ich sehe das eher so das GPU schon genug zu tun hat wenn sie nur das Bild berechnen soll und dann noch Physik zu berechnen finde ich blödsinn!
 
Zuletzt bearbeitet:
@ Powerplay, leider bin ich da nicht deiner Meinung, wie oft ist es so das die Grafikkarte nicht zu 100% ausgelastet werden kann...
Für was gibt es SGSSAA? Für was gibt es SBAO für was gibt es DS? Nur um die aktuellen Grafikkarten auch mal ans Limit zu kitzeln.

Ich persönlich habe nur Performance-Probleme, weil ich mit 2560x1440 "arbeite" und da reicht KEINE Grafikkarte aktuell je aus....
Und bei 2560x1440 brauch ich dann auch kein DS anschalten oder SGSSAA oder sonstige Verbesserungen, es tut ein 2xMSAA oder ein 4x MSAA dicke aus.... und dann hat die Karte nun mal restliche Ressourcen übrig bei einem FPS Limit von 60-75 FPS.... und wieso sollte dann der total ineffiziente Prozessor die Rechnung machen? Wenn es die mega effiziente Grafikkarte tut?
 
Ich habe auch 2560x1440 :wink:
Ja die CPU ist na klar nicht so effizient wie ein GPU das ist klar aber schau dir doch mal SweetFX an weil wenn du da Bloom und HDR zuschaltest kostet meistens so gut wie nix an leistung wärend das die GPU dann wieder gut drückt bei der leistung und grade bei hohen auflösungen brauchste jedes FPS.

Spiel mal Crysis 3 mit max settings und 4xMSAA bei 2560x1440 da hast dann absolut keine luft für irgendwelche berechnungen ;)
 
Zuletzt bearbeitet:
Und bei 2560x1440 brauch ich dann auch kein DS anschalten oder SGSSAA oder sonstige Verbesserungen, es tut ein 2xMSAA oder ein 4x MSAA dicke aus.... und dann hat die Karte nun mal restliche Ressourcen übrig bei einem FPS Limit von 60-75 FPS.... und wieso sollte dann der total ineffiziente Prozessor die Rechnung machen? Wenn es die mega effiziente Grafikkarte tut?

Du hast den Sinn von SGSSAA und/oder Downsampling nicht verstanden.
SGSSAA und/oder Downsampling allein mit 2xMSAA oder 4xMSAA zu vergleichen, geht einzig und allein auf Aliasing betrachtet. Nicht mehr und nicht weniger.

Nur bietet das genannte noch viel mehr, was es viel eher lohnt, einzuschalten.
SGSSAA bietet eine Bildruhe, die dir weder Downsampling noch MSAA noch riesige Auflösungen native am Monitor inkl. hoher Pixeldichte bringen kann. -> Fakt
Dazu glättet SGSSAA idR das gesamte Bild, je nachdem, wie man es erzwingen kann. MSAA hingegen nicht. -> Fakt
Downsampling bietet dir dazu ein gesteigerten Detailreichtung zum jeweiligen nativ Setting, was du weder durch MSAA noch durch SGSSAA oder sonstige andere Methodiken bekommst -> Fakt

Der einzig richtige Schluss, wenn es um BQ geht, ist also, SGSSAA + DS ;)


Aber darum gehts ja auch gar nicht... Nicht jeder gibt 400€+ für GPUs aus. Schau dich in der Mittelklasse um. Auch ältere Titel laufen teils gar nicht mit max. Details ohne! AA auf Mittelklassekarten.
Ein weiteres Zuladen der Last durch weitere Berechnungen ist grundsätzlich also nur mit FPS Einbußen zu haben.
Wärend eine CPU selbst im Mittelklassebereich oftmals nichmal Ansatzweise ausgelastet wird. Und Quadcores sind mittlerweile sehr sehr weit verbreitet.


Thema Effizient und Ineffizient.
Das kann man nur beurteilen, wenn man es dediziert gegeneinander hält anhand von Umsetzungen. Eine GPU kann zwar viel berechnen, aber ist nur in wenigen Sachen auch wirklich schnell. Eine CPU kann vergleichsweise wenig berechnen, dafür aber fast alles irgendwie in ihrem Speed erzeugen.
Beispielsweise GPU PhysX von NV. Schau dir Benches an, ala Fluidmark. Ne anstänidge Quadcore CPU ist vllt ca. 1/4-1/3 so schnell wie ne halbwegs aktuelle Grafikkarte. Braucht dafür aber auch nur (i7 Intel) unter 100W.
Ich hatte seinerzeit mal Messungen mit meinem 2600K und ner GTX 470 gemacht. Letztere war wenn ich das recht in Erinnerung habe ca. doppelt so schnell. Dafür aber weit mehr als doppelt so verbrauchend ;)
Und sie führte die Berechnung dediziert allein aus. Zusammen mit der sehr simplen Grafikberechnung des Benches, war die Leistung ungleich schlechter...
 
Zuletzt bearbeitet:
ja genau das ist es was ich auch meine weil wenn die GPU eh schon zu 95% ausgelastet ist was soll sie dann noch an Physik berechnen wenn von 4 Cpu kernen nur 3 rechnen? Da würde die CPU mit einem Kern noch richtig gut die Physik berechnen ohne das man ein FPS verliert.
 
Tahiti kommt mit 2048 ALUs als Ghz Edition auf ~4300 GFlop/s. Titan kommt im default Boost mit 2688 ALUs und 876MHz auf ~4700 GFlop/s theoretische Leistung.
Gemessen daran, hat Titan durchaus die Nase vorn.
Titan ist 51% größer als Tahiti XT, ich wüsste jetzt nicht was am Ergebniss so besonders sein soll :stupid:
 
Dir ist aber schon klar, dass AMD sicherlich dafür gesorgt hat, dass solche Geschichten besonders gut auf ihren eigenen GPUs bzw. besonderes beschissen auf den GPUs der Konkurrenz laufen, oder?
Nichts als haltlose und provokative Unterstellungen. AMD wird mitnichten Ressourcen darin verschwenden, dass solche Geschichten besch***** auf den GPUs der Konkurrenz laufen. Diesen Luxus können sie sich im Moment gar nicht leisten. Nvidia hat hingegen mit voller Absicht dafür gesorgt, dass PhysX nicht auf den GPUs der Konkurrenz läuft. Bei Prozessoren ist Softwareoptimierung für dich nie ein Thema. Obwohl die meisten Windows Programme durch MSC und ICC sehr stark auf Intel optimiert sind und dementsprechend AMD benachteiligen. Da kommen dann immer solche oberklugen Sprüche wie "es interessiert nur was hinten rauskommt". Hier plötzlich regst du dich aber künstlich darüber auf, weil Nvidia womöglich zu kurz kommen könnte. Schon interessant, wenn auch nicht wirklich überraschend.

Ob man jetzt PhysX nicht nutzen kann, weil es nicht geht bzw. zu langsam ist (CPU) oder ob man Global Illumination in Dirt Showdown oder das Haar in Tomb Raider nicht nutzen kann, weil es nur auf Radeons schnell genug läuft, ist für den Endnutzer belanglos. Das Resultat ist dasselbe - Marktsegmentierung. Es ist exakt dasselbe Spiel wie bei Tessellation, wo man so schön drüber gemeckert hat die ganze Zeit.
Etwas auf eine proprietäre Hardware zu beschränken, ist Wettbewerbsverhinderung, nicht Marktsegmentierung. PhysX ist durch CUDA an Nvidia gebunden, DirectCompute oder OpenCL sind hingegen nicht an AMD gebunden. Es sollte keine Neuigkeit sein, dass AMD auf hardwareunabhängige Standards und offenen Wettbewerb setzt, während Nvidia wenig Interesse daran hat. Was leider viele nicht kapieren oder wahrhaben wollen, dem Endverbraucher kommt auf lange Sicht letzteres nicht zugute. TressFX hat mit PhysX übrigens so wenig zu tun wie PhysX mit Tessellation.


Die Neuerungen werden immer sinnloser...
So wie vor über anderthalb Jahrzehnten die Verbesserung von klobigen Polygonen sinnlos war? Ich hoffe, DAS war jetzt ironisch gemeint.


Solange AMD Tessellation aktiv verhindern und Firmen sogar dafür bezahlt, dass sie es wieder ausbauen (Ja, ich meine dich Crysis 3), braucht man auch kein realistisches Haar.
Aha, jetzt verhindert AMD schon aktiv Tessellation. :stupid: Fakt ist, dass es einen Unterschied zwischen sinnvoller Tessellation und aktiver Verhinderung gibt. AMD macht ersteres, Nvidia hat viele Jahre lang letzteres gemacht. Falls du das vergessen haben solltest, AMD hat hardwareseitig schon vor über 10 Jahren Tessellation unterstützt. Laaaaange vor Nvidia. Eine realistische Simulation von Details wie Haaren ist immer nur bis zu einem gewissen Grad sinnvoll. Das gleiche gilt für Tessellation.
 
Das sieht einfach richtig gut aus m. einem deutlichen Unterschied. Wie einige die sich selber als PC-Gamer bezeichen würden das jetzt schon wieder schlechtreden wollen, nur (u. das ist eindeutig das einzige Motiv) weil es nicht vom eigenen Lieblingshersteller kommt, ist unbegreiflich. Im Gegensatz zu PhysX wird es nämlich auch auf NV Hardware laufen u. das ein Hersteller die Stärken der eigenen Produkte nutzt wird ja wohl noch erlaubt sein. Es ist jedenfalls nicht AMDs Aufgabe dafür zu sorgen, dass das Ganze m. maximaler Performance auf NV Karten läuft.

Allgemein kann man auch mal sagen, dass AMD in letzter Zeit wesentlich mehr f. den PC-Gaming Markt gemacht hat als NV. Manchmal habe ich schon das Gefühl das gar kein Top-Titel mehr erscheint der nicht das Gaming Evolved Logo trägt.
 
boxleitnerb; schrieb:
Dir ist aber schon klar, dass AMD sicherlich dafür gesorgt hat, dass solche Geschichten besonders gut auf ihren eigenen GPUs bzw. besonderes beschissen auf den GPUs der Konkurrenz laufen, oder?

Mit Verlaub, man sorgt dafür dass diese Technik auf der eigenen Hardware schneller läuft. Von mir aus.
Wahscheinlich liegts daran dass selbst Titan über Directx11 Compute kaum flotter ist. Open CL seitig ist er sogar langsamer und stürzt bisher teils ab.
Ich möchte aber gerne dass es auf meiner GTX 670 auch demenstrechend läuft und ich es flüssig nutzen kann.
Wenn AMD schon sagt, man will auch die Gamer der anderen Seite an diesem Feature teilhaben, wirds auf Nvidia wahrscheinlich wohl nicht absucken.
Ich glaube nicht, dass AMD sich auf das Niveau von Nvidia gibt und Features mit so lächerlichen Restriktionen ( Lässt sich nur über CPu madig berechnen, weil sich der code gegen multitreading sperrt, bzw nicht geupdatet wird, oder Nvidia Treiber funktioniert bei Einbau einer AMD Karte nicht mehr für GPU Physx)

boxleitnerb schrieb:
Ob man jetzt PhysX nicht nutzen kann, weil es nicht geht bzw. zu langsam ist (CPU) oder ob man Global Illumination in Dirt Showdown oder das Haar in Tomb Raider nicht nutzen kann, weil es nur auf Radeons schnell genug läuft, ist für den Endnutzer belanglos. Das Resultat ist dasselbe - Marktsegmentierung.

Nur dass Dirt Showdown mit Global Illumination auf Nvidia Hardware problemlos läuft und du ziemlich übertreibst.
Sofort wenn eine derartige News kommt, gibt es von dir nur Kritik, kommt es von Nvidia bist du begeistert, das ist wohl dein Problem.
Und wenn dann mal jemand deine Doppelmoral anspricht, rufst du gleich Fanboy und jetzt komm bitte nicht damit, ich hätte jemals eine Entwicklung von Nvidia kritisch gesehen, das habe ich nämlich außer proprietäre Entwickungen nie getan.

sontin; schrieb:
Du kannst Tessellation nicht optimieren. Die einzige Optimierung ist die Verringerung der Last.
Siehe Crysis 3: Weniger Tessellation von Objekten und Objektflächen.

Logisch dass so jemand wie du das sagt.
Optimierungsbedarf an zu hoher Tesselation die optisch nichts half, gab es definitiv in Crysis 2, aber solche Tatsachen, werden von dir wohl ausgeblendet um die Lüge aufrechtzuerhalten, man würde mit jedem mehr an Polygonen eine bessere Optik erhalten.

sontin schrieb:
Solange AMD Tessellation aktiv verhindern und Firmen sogar dafür bezahlt, dass sie es wieder ausbauen (Ja, ich meine dich Crysis 3), braucht man auch kein realistisches Haar. Schaut euch doch mal den Köcher an. Vollkommen Low-Poly. Aber wenigsten das Haar sitzt.

Bring bitte erstmal beweise, dass man Tesselation aktiv verhindert. Es gibt nämlich dazu gar keinen Grund, AMD kann bis 12/13 Fach Tesselation auf gleichem Niveau mithalten, es gibt gar keinen Grund das ganz zu streichen. Ist es ja auch gar nicht. lol

Bingo. Dirt:Showdown läuft auf nVidia Hardware wie mist.

Titan ist laut CB etwas schneller als ne Radeon 7970 ghz. Wie Mist ist völlig übertrieben( was war anderes zu erwarten als eine Übertreibung?), sogar auf meiner GTX 670 läufts auf max. Settings sehr gut. ;)

fdsonne; schrieb:
Es macht viel eher den Eindruck, als will man den CPU Part gar nicht supporten, weil man ggf. Gefahr läuft, das gerade Mittelklasse GPUs so ihren Stellenwert einbüßen.

Sie bremsen die CPU nicht direkt aus, sondern ändern schlichtweg den uralten Code nicht auf multithreading und moderneren Code um.
Dazu gibt es übrigens auch Artikel.

Bremse kann man natürlich darin auch sehen.

boxleitnerb schrieb:
Nicht idR kontra AMD, aber in dem Fall muss man schon ziemlich naiv sein, um da keine Verbindung zu sehen.

Ist ja auch kein Wunder, wenn sofort bei der Erwähnung das das Feature positiv für alle sein könnte, mal wieder unterstellt wird man würde naiv sein.
Insofern verstehe ich fdsonne ganz gut, wenn er sagt es wird generell kontra AMD argumentiert.

Bzgl. Crysis 3 hat sontin schon Recht. Ich habe kürzlich gelesen, dass Tessellation zwar eingesetzt wird, aber in der Nutzung zurückgefahren wurde

Er hat eigentlich nur in einem begrenzten Rahmen recht, weil er gerne anderen ohne konkretes Wissen den Miesepeter in die Schuhe schiebt.
War es denn nicht so, dass die Entwickler gesagt haben, man würde sich bei Crysis 3 weniger auf heavy Tesselation konzentrieren und dass man bei Crysis 2 ein Fehler gemacht habe? Ich erinner mich noch gut an das Interview.

Zudem war es so, dass es auf AMD Hardware auch nicht unterirdisch lief, in den Benchmaks die ich kenne liegt die HD 7970 ghz kaum unter ner GTX 680.

Obwohl die meisten Windows Programme durch MSC und ICC sehr stark auf Intel optimiert sind und dementsprechend AMD benachteiligen. Da kommen dann immer solche oberklugen Sprüche wie "es interessiert nur was hinten rauskommt". Hier plötzlich regst du dich aber künstlich darüber auf, weil Nvidia womöglich zu kurz kommen könnte. Schon interessant, wenn auch nicht wirklich überraschend.

Volle Zustimmung.
 
Zuletzt bearbeitet:
Aber wie du sehen kannst sehen einige NV User nicht so :)

oh mann wenn das NV mit der Titan eingeführt hätte WoW TITAN NV TressFX . Alter dan wäre die Titan wahrscheinlich 2000€ Wert :lol:
 
ja normal ne!
 
Schade das da nicht auch noch DX11.1 Funktionen benötigt werden ^^
 
Das was an 11.1 bei Nvidia fehlt ist Entwickler-Kram, das sind keinerlei visuelle Effekte.

@p1skop4T: Es gibt immer Leute die meckern. ;) Mir ist eigentlich ziemlich egal, wer sich was neues einfallen lässt. :) Und seien wir mal ehrlich, wenn es erfolgreich ist, kopiert die Konkurrenz den Spaß doch eh..: :d
 
Ich hoffe das frisst nicht mehr wie 1-2 FPS, sonst können sie es behalten und ich spiele mit normalen Haar.

Grüße
Sharie
 
Wie kommst Du denn auf diesen Holzweg?
AMD hat als erster Tessalation integriert als es noch gar nicht via DX vorgesehen war, lange vor nVidia.
Erstmals zu sehen in der Toyshop Demo ( Ziegel an der Wand ).

Das war doch parallax mapping?

Dampfkanes schrieb:
Bei TressFX geh ich davon aus, AMD hat dafür gesorgt, dass ihre Hardware optimal genutzt wird. Das ist ihr gutes Recht.
Wenns dann bei nVidia nicht so gut läuft, dann bin ich AMD deswegen auch nicht böse.
Auch würde ich direkt zu Beginn nicht unbedingt Absicht vermuten. Wenn auch weiterhin die Möglichkeit gegeben ist, dass einer von beiden so etwas absichtlich machen könnte.

Ihr müsst daran denken, was wäre wenn AMD sich nicht mehr ausreichend verkauft. Nvidea Monopol -> steigende Preise bei weniger Leistung. Super was AMD macht, viele gute Spiele verschenken, Crysis 3 ins boot holen. Das könnte auch ruhig alles nur mit AMD laufen, damit sich die Marktanteile wieder angleichen.


Häää hat Lara kleinere Brüste bekommen da soll schleunigst wieder Silikon dran aber Flot :bigok:

Scheint so gewollt zu sein - Nora Tschirner spricht die deutsche Lokalisierung ...
 
@ Powerplay, leider bin ich da nicht deiner Meinung, wie oft ist es so das die Grafikkarte nicht zu 100% ausgelastet werden kann...
Für was gibt es SGSSAA? Für was gibt es SBAO für was gibt es DS? Nur um die aktuellen Grafikkarten auch mal ans Limit zu kitzeln.

Ich persönlich habe nur Performance-Probleme, weil ich mit 2560x1440 "arbeite" und da reicht KEINE Grafikkarte aktuell je aus....
Und bei 2560x1440 brauch ich dann auch kein DS anschalten oder SGSSAA oder sonstige Verbesserungen, es tut ein 2xMSAA oder ein 4x MSAA dicke aus.... und dann hat die Karte nun mal restliche Ressourcen übrig bei einem FPS Limit von 60-75 FPS.... und wieso sollte dann der total ineffiziente Prozessor die Rechnung machen? Wenn es die mega effiziente Grafikkarte tut?



Ich unterschreibe Alle Punkte - ausser einen - teile hier die Ansicht von Powerplay - hier ging es im Einzelnen von PhysX auf GPU. PhysX hat Darstellungsstufen - ganz verschiedene Effekte. Batman AC - volles PhysX drückt die Karte
richtig in den Keller - über 1/3 Leistung war futsch bei mir. Aus Frust habe ich mir ne 550Ti nur für PhysX dazugetan. Spassiger Weise wurden die AVG FPS nicht viel besser ... nur die Min FPS.

Ich spiele sonst x1,5 DS und sehe das wie Du - 2xAA oder 4xAA kombiniert sieht besser aus als 1080p und sich einen Wolf filtern.

Irgendwie ist das was AMD macht der selbige gewollte Effekt wie PhysX "mehr Realismus" INGAME zumindest 1 der 3 Stufen / Effekte von PhysX.
Und ich finde es grundsätzlich sehr gut und werde es interessiert verfolgen !

Und wenn es nur auf AMD Karten zugänglich ist (was ich nicht glaube) sehe das Engine bezogen , oder auf NV Karten mehr Performance zieht (gehe ich von aus) - ist das eben so !

Besser ich habe zusätzliche Effekte - wenn es die Möglichkeit gibt - als garkeine ;)
 
Zuletzt bearbeitet:
TressFX, PhysX für arme xD

Ich hier sehe hier das AMD nur wieder von Nvidia Kopiert und das am ende doch wieder nach hinten los geht.
 
TressFX, PhysX für arme xD

Ich hier sehe hier das AMD nur wieder von Nvidia Kopiert und das am ende doch wieder nach hinten los geht.


Auch wenn ich PhysX Fan bin - Du schiesst viel zu schnell. Wenn TressFX Engine bezogen ist , und sich überall gut einbauen lässt - sehe ich da in der Verfügbarkeit
grosse Vorteile. Ich bin gespannt.
 
Selbst PhysX ist Brühe, gibt nur ne Hand voll Games die das vernünftig nutzen und man auch wirklich einen unterscheid sieht.
 
Selbst PhysX ist Brühe, gibt nur ne Hand voll Games die das vernünftig nutzen und man auch wirklich einen unterscheid sieht.

Für Dich Brühe - für mich zum Beispiel bei Boderlands 2 und vor allem Batman AC feinster zusätzlicher Realism Stuff. So unterschiedlich kann das sein.

Und "Unterschied sieht" - entweder sind 1 - 2 oder 3 Effekte AN - oder AUS.
 
Zuletzt bearbeitet:
War fast klar - Engine bezogen. Netter Seitenhieb und sehr spät , und Performance technisch aktuell via AMD.

Da es schon in Post 46 gebracht wurde, habe ich meinen Beitrag wieder gelöscht.

Mal schauen, was von der Technik in der Praxis übrig bleibt.
 
Zuletzt bearbeitet:
Oh man da hat man es nur angekündigt und bäm schon sieht man nur Böses, @ UHJJ36 wenn das alles ja nix ist für dich spielst du bestimmt auch alles auf low Details ingame, da kann man dann natürlich auch auf sowas und Physix gut verzischten.
Alle anderen die Grafikschlampen sind werden sich aber vielleicht darüber freuen da das Ganze auf einer offenen Schnittstelle basiert dürfte es für NV auch kein Problem sein das so hinzubiegen das ihre und damit auch mein HW gut läuft. Und ein Titan sollte aufgrund der reinen Rohleistung schon mal gar keine
Problem bekommen ebenso wenig wie die High-End Riege 680 und 670, vielleicht aber die kleinen Kepler, aber die haben ja auch schon so ihre Probleme bei Crysis 3 wenn man Kantenglättung haben will ;-)

Ich werde das Spiel kaufen und freue mich auf die neuen Haare der Lara:)
 
Ich hier sehe hier das AMD nur wieder von Nvidia Kopiert und das am ende doch wieder nach hinten los geht.

Wo kopieren sie denn konkret? Weil es von Nvidia schonmal eine Haar Tech Demo gab? Oder von wie weit muss ich die Beispiele herholen, um mir deine Aussage irgendwie begreiflich zu machen? ;) Du weißt es sicherlich bessser und kannst es uns erklären.

Ich denke nicht dass das nach hinten los geht, wenn überhaupt wird das Projekt eingestellt, und? Wo ist selbst da was nach hinten los gegangen?
Immerhin werden alle Grafikkarten das Feature darstellen können, freu dich doch, dass es was neues für alle gibt.

UHJJ36 schrieb:
Selbst PhysX ist Brühe,

Selten dass ich mit dir mal einer Meinung bin. Ich finde die Effekte in einem realistischen Maß allerdings nicht schlecht.

Nvidia sollte sich bewegen das per Open CL oder Direct Compute für den Markt freizugeben.
Ansonsten ist es nur ein Feature was so nebebei mal hin und wieder eingesetzt wird.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh