„TressFX“: AMD-Technik für mehr Realismus

Status
Für weitere Antworten geschlossen.
Computerbase hat was Interessantes veröffentlicht AMD TressFX Technick.

Quelle: „TressFX“: Neue AMD-Technik für mehr Realismus (Update 2) - ComputerBase

Im Game-Blog von AMD macht der CPU- und GPU-Spezialist mit einer humorvollen Ankündigung auf sich aufmerksam. Im Stile einer „waschechten“ Werbung für ein Haarpflegeprodukt kündigt AMD „TressFX“ an. Dahinter verbirgt sich offenbar eine neue Technologie für mehr Realismus in Spielen.

Der Blog trägt den Titel „TressFX: A new frontier of realism in PC Gaming“. In welcher Form neue Grenzen im Bereich des Realismus bei Spielen gesteckt werden sollen, bleibt zunächst aber unklar. Mit dem Slogan „Render. Rinse. Repeat.“, also soviel wie „Rendern. Ausspülen. Wiederholen.“, verweist AMD auf mehr Details am morgigen Dienstag, den 26.02.2013.



Die Vermutung liegt nahe, dass sich hinter „TressFX“ eine Technik für AMDs Radeon-Grafikkarten verbirgt, mittels welcher Elemente – wie zum Beispiel Haare – im Spiel realistischer gerendert werden. Wie die Kollegen von TechPowerUp berichten, hatte AMD im Rahmen einer jüngsten Telefonkonferenz ein neues Feature grob angesprochen, welches man in Kooperation mit der Spieleschmiede Square Enix entwickelt habe und welches in dem in wenigen Tagen erscheinenden neuen „Tomb Raider“ bereits enthalten sein soll.




„TressFX“ in Game Video



 
Zuletzt bearbeitet:
Hat Jemand Benchmarks zu OpenCL und Shader Compute Dx11 mit einfacher Genauigkeit?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Games ;)
Gibts wie Sand am Meer...
Auch PhysX als Umsetzung auf Cuda wäre ein Beispiel. Fluidmark ein Benchtool um die Leistungsfähigkeit zu ermitteln.

Aber was versprichst du dir aus diesen Werten?
Wie so oft ist es so, dass es massivst von der Optimierung der Software abhängt, ob der Spaß sauber mit der Rohleistung skaliert.
Heist, entgegen trivialer Benches auf Gamebasis nutzen dir diese Werte für GPGPU Geschichten leider nichtmal für nen pauschalvergleich.

Es gibt Software, die skliert auf AMD GPUs genau so gut wie auf NV GPUs, dann gibts Software, die skaliert fast nur auf NV, auf AMD läuft es grotting. Auch der umgekehrte Fall ist anzutreffen. Ja selbst Umsetzungen wo beide Hersteller im Vergleich grottig performen zur Rohleistung gibts.


PS: wie gesagt, ich denke es ist sinnvoller nicht zwischen Games und GPGPU strikt zu trennen. Im Grunde ist das alles das gleiche, nämlich simple Berechnungen auf der GPU, die oftmals von den ALUs (deren Leistung) limitiert werden. Und ob du nun "Shadercode" eines 3D Games berechnen lässt, oder aber ne Anwendung dir ne sagen wir mal Wettersimulation durchrechnet -> wurscht egal. Unter der Decke sind es Berechnungen mit Int/Float "Zahlen"...
 
Weil ihre beide keine Ahnung habt, mir wurde das erklärt. läuft frei nach dem Motto: "Its not a bug, its a Feature!"
 
Tomb Raider haut gewaltig rein, spielerisch 1a und die Haare mit TressFX sind auch nicht außer Acht zu lassen.
Hoffe auf einen baldigen 2-ten Teil von Lara!
 
Berni gehe auf die erste Seite ich habe in Game Video gemacht TressFX on und alles auf anschlag + Supersampling
 
Gut gemacht, mit einer (Meiner HD7950) geht es bei mir im Level vor der Brücke zum Kloster schon gerne auf recht magere 20 bis25 fps zu, mit TressFX und dem schlechteren FXAA.
 
Jupp, daher wird es wohl FX 8350 , oder Haswell werden.
Doch in Zukunft könnte der FX gar einiges Reißen und die AMD Kiste könnte/ Sollte somit gewaltig abgehen.


AMD´s FX wäre doch weitasu günstiger, nur das AM3+ Board bereitet mir etwas Sorgen, ebenso die Neuen Haswell Boards, da eben USB 3.0 Bug vorhanden.

NB:
Zusammen mit AMD Grafikkarte FX Prozessor und in Zukunft weitere TressFX KÖNNTE ES ECHT INTERESSANT werden.
 
Alter 2300MB schluckt Supersampling und 4xSSAA und das in Full HD in Downsampling kracht es :lol:
Kann einer mit GTX680 ein Video machen mit 4xSSAA + Supersampling in Full HD.
 
Zuletzt bearbeitet:
GK104 hat somit praktisch keinen Nachteil, außer vllt im wissenschaftlichen Bereich.
Genau das bzw semi Wissenschaftlich.
Für Games an sich sehe ich es genau wie du, ist eher irrelevant. Aber es gibt sehr viele Nutzer die so eine Desktop Karte für andere Sachen nutzen möchten, Boinc, B-mining zB.
Und genau da ist oft doppelte Genauigkeit gefragt, nicht immer, oft. Zumindest bei boinc war es mal so.
Ich finde es halt Schade das nVidia genau da ihren GK104 so kastriert hat, das selbst GF110 teils deutlich besser abschnitt.
 
So schauts aus, nur die Rechenleistung an sich könnte man schon noch steigern, da ist AMD noch 30% voraus (bis auf Titan).
 
Genau das bzw semi Wissenschaftlich.
Für Games an sich sehe ich es genau wie du, ist eher irrelevant. Aber es gibt sehr viele Nutzer die so eine Desktop Karte für andere Sachen nutzen möchten, Boinc, B-mining zB.
Und genau da ist oft doppelte Genauigkeit gefragt, nicht immer, oft. Zumindest bei boinc war es mal so.
Ich finde es halt Schade das nVidia genau da ihren GK104 so kastriert hat, das selbst GF110 teils deutlich besser abschnitt.

Es war ja die Antwort auf die Pauschalaussage von gekürzten GPGPU Fähigkeiten. Und das NV hier immer! das Nachsehen hätte... Ohne dedizierte Betrachtung, das DP nur in wenigen spezielleren Sachen überhaupt angewandt wird.
Für diese speziellen Bereiche ist das halt einfach nix... :wayne:

Ich verstehe sowieso die Leute nicht, die ihre Büchsen da 24/7 Volllast laufen lassen. Für nix und wieder nix. Aber das soll hier nicht Thema sein. ;)

So schauts aus, nur die Rechenleistung an sich könnte man schon noch steigern, da ist AMD noch 30% voraus (bis auf Titan).

Müsste man denke ich aber auch nicht primär...
Es scheint ja aktuell so, das die Gamer GK GPUs aktuell sich etwas besser hinstellen, als die Rohleistung zeigen würde im Vergleich zu AMD.
Die Frage ist nun, hat NV einfach hier den Vorteil, besser mit den ALUs zu skalieren? Oder hat AMD den Vorteil, für derartige Sachen wie GPGPU Parts in Games mehr Luft zu bieten...

Sicher könnte man die reine Rohleistung auf AMD Niveau prügeln. Nach üblicher Skalierung (unter Berücksichtigung der Bandbreite) dürfte das Teil dann aber auch entsprechend schneller sein. Die Luft für Spielereien hätte man damit aber immernoch nicht... Zwar mehr FPS in Summe, aber bei Zuschaltung dann wiederum auch entsprechend hohe Einbrüche... Wo AMD GPUs potentiell von der ungenutzten Rohpower profitieren können/würden.
 
AMDs GPUs können durchaus von der Rohleistung profitieren, es braucht halt besondere Anwendungsfälle und/oder hohe Auflösungen. Was meinst du, warum AMD z.B. das ineffiziente (BQ/fps) OGSSAA forciert (Tomb Raider, Sleeping Dogs) und nicht etwa SGSSAA? Weil sie bei ersterem eine Stärke und bei letzterem eine Schwäche haben und bei vielen Pixeln pro Dreieck ihre Leistung besser ausspielen können als bei wenigen Pixeln pro Dreieck. Um aber generell profitieren zu können, müsste an der GPU selbst was gemacht werden, Frontend, was weiß ich. Nvidia sollte sich eben nur nicht zu lange ausruhen, denn WENN AMD das mal auf die Reihe kriegt, sei es durch Gaming Evolved oder Verbesserungen an der Hardware, ist man abgeschlagen.
 
Jo und das wurde schon mit dem aktuellem Patch getestet.
Die min FPS sind auch ne ganze ecke besser als die vom Titan.
Bin mal gespannt ob sich das so bei kommenden games vortsetzen wird weil der nächste AMD titel ist auch ein kracher --->Bioshock infinity und da bin ich auch scharf drauf :d
 
WTF und ich wurde hier Ausgelacht zweck 300€ vs 1000€. :d

Ja Ja NV hat viel zu späht den Final Code bekommen auch wenn Sie früher bekommen hätten wäre die Leistung auch nicht besser.

Dann bin ich mit meinen beiden Karten besser dran wie mit eine TITAN lül.
Zum Glück hat wirklich keiner meine beiden Karten gekauft sonst hätte ich mich Tot geärgert.

In Game verbrauche ich wenn ich alles hochschraube 4600MB das sind Pro Karte 2300MB ist ja kein Wunder das die GTX680 zum schwitzen kommt zweck vram.
Jetzt sind wir wieder an einen Punkt gekommen das 2 GB definitiv nicht mehr ausreicht für Next Game Spiele.

Wer jetzt noch GPU Kaufen möchte und für lange Zeit investieren möchte kommt nicht an eine 7970GE vorbei das ist Fakt. Powerplay das wäre natürlich der Kracher hin wen bei Bioshoke wieder das gleiche Szenario wäre.
Bioshoke ist oder war NV Titel.
 
Zuletzt bearbeitet:
Nun ja, immerhin ist die letztes Jahr auf den Markt gekommen, die ist alt! :haha:
 
Das sich manche nicht freuen können das eine gut aussehende Haarsimulation die auf beiden Karten läuft am Markt ist. Oo

Noch ein paar Wochen dann läuft sie auch auf Nvidia top und fertig... Gibt immer wieder mal spiele die zu release bescheiden laufen.
 
Ne ist klar ein Titan genau so lahm in den min fps wie ne GTX680 lol wer hat den den Dreck gebencht.
 
Zuletzt bearbeitet:
ich hab gerade mal gebencht, bei den min. FPS erreich ich keine 21 Frames, sondern nur 2 :d (7970ghz)
 
AMDs GPUs können durchaus von der Rohleistung profitieren, es braucht halt besondere Anwendungsfälle und/oder hohe Auflösungen. Was meinst du, warum AMD z.B. das ineffiziente (BQ/fps) OGSSAA forciert (Tomb Raider, Sleeping Dogs) und nicht etwa SGSSAA? Weil sie bei ersterem eine Stärke und bei letzterem eine Schwäche haben und bei vielen Pixeln pro Dreieck ihre Leistung besser ausspielen können als bei wenigen Pixeln pro Dreieck. Um aber generell profitieren zu können, müsste an der GPU selbst was gemacht werden, Frontend, was weiß ich. Nvidia sollte sich eben nur nicht zu lange ausruhen, denn WENN AMD das mal auf die Reihe kriegt, sei es durch Gaming Evolved oder Verbesserungen an der Hardware, ist man abgeschlagen.

Wie schon damals würde ich es Schwäche nennen... Denn es hängt von vielen Faktoren ab. Und davon ist leider einiges nicht ganz so trivial vergleichbar, meine ich.
AMD setzt aktuell ja auf 32ROPs. Gleichviel wie GK104. Dafür aber mehr ALUs und mehr SI. Dafür das mehr oder weniger starre und weniger flexible Frontend bzw. dessen Umsetzung.

Auch ist meine ich noch nicht 100% klar, ob sich die beiden Umsetzungen auch wirklich 100% vergleichen lassen. Bei NV gibts zumindest ja Möglichkeiten via AA Bits ganz andere Umsetzungen in Sachen Optik und Leistungsanforderungen anzuwenden.
Du erinnerst dich vllt noch an meine Frage beim Testen, ob simples SGSSAA Erweitern im Inspector reicht. Hintergrund war nämlich, das die resultierende Optik irgendwie nicht dem entsprach, was ich eigentlich erwartete. Oftmals hatte ich den Eindruck, als greift das SGSSAA nicht richtig oder nur an bestimmten Stellen.

Dabei wäre auch interessant zu wissen, wie sich das auf AMD GPUs verhält. Speziell im direkten 1:1 BQ Vergleich. Damalige AMD Treibermaßnahmen wirkten meine ich immer vollumfänglich aufs Bild. Oder eben gar nicht. Sprich ging, oder ging nicht. Die SSAA "Erweiterung" via Inspector wirkt ja nach den Definitionen vom InGame AA. -> keine Ahnung, ob das 100% gleiche Anforderungen sind.
 
Da du immer noch nicht einsehen willst das man proprietären Mist nicht gleichsetzen kann mit normalen Spielcode noch dazu wenn eine Partei nichtmal rechtzeitig darauf ihre Treiber anpassen konnte u Einblick hatte in den finalen Code

Wie oft traf diese These denn bei NV sponsored Games und AMD als Treiberlieferant zu? ;)
Ihr drehts euch auch immer, wie ihrs braucht.
Wo ist denn das Problem, das NV den Code erst spät erhalten hat? Na und. Dann gehts halt eben erst später... Ist doch auch :wayne:

Und man sieht wunderschön, das NV Treiber auch nicht per se nur perfekt sind :fresse:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh