AMD spricht zu FCAT und der Radeon HD 7990

Na dann versuch das mal einem Liga-Gamer zu erklären. ;) Der findet es ziemlich bescheiden, wenn er die Bildausgabe auch nur einen ticken später bekommt. Und das kommt nicht von mir, konnte ich mir aber sehr gut vorstellen, deswegen habe ich das Thema auch mit eingebracht. Es ist eben nicht so, das man pauschal sagen kann, dass ein kleine Delay egal ist. In Single-Player ja, aber in MP-Ego-Shootern sicherlich nicht ;)
Du bist ein intelligenter Mensch sonst hättest Du nicht den Job den du hast, leider Verständnis und Lernresistent, dass was du zur Zeit abziehst ist einfach ohne Worte und mit viel gutem Willen noch als Polemik abzuhandeln. Du baust viele deiner Aussagen nur auf Vermutungen auf wo ich nicht ein noch so kleinen Beweis finden konnte der deine Thesen stützt, für einen Wissenschaftler nicht sehr akkurat. Da hilft es auch nicht wenn du die Zitate anderer User hier außerhalb des ursprünglichen Zusammenhangs zitierst und dann schon auf die Randgruppe der Profigamer verweisen musst.Weiteres dazu habe ich in der Antwort für fdsonne geschrieben.

Das fand ich auch sehr komisch denn ich hatte in CF schon alles von 2 bis 4 gpu-s und wenn es kein generelles CF Skalierungsproblem gab empfand ich nie dass die zusätzliche GPU-s nicht oder so gut wie gar nicht dazu beigetragen haben dass das Spiel subjektiv besser läuft.

Das ist ja vollkommen normal und belegt nur genau das was Skysnake momentan schon krampfhaft versucht zu widerlegen, es wird 95% der Spieler nie auffallen ob nur 2 oder 3 GPUs arbeiten nicht am Spielgefühl. Es wird alles an FPS festgemacht. Und die sind ja da, wir Menschen leiden halt darunter noch flüssiger wie flüssig nicht festzustellen deshalb bedinen wir uns ja so Tools wie Fraps. Ich habe neulich eine GTX 660 eigebaut die ich für den Mini-Rechner gekauft habe, das ist ein riesen Unterschied auf dem Papier zu meiner GTX 690, bei Bioshock invinite konnte ich ingame keinen Unterschied feststellen. Ich habe da selbst mal geschmunzelt denn die kleine würde in 90% der Fälle mich wohl genau so zufrieden stellen wie die Große::)

Über das erhöhte Inputlag bei MGPU wird sich schon seit Jahr und Tag beschwert ;)
Wie schon gesagt, messen dürfte schwer werden ;) Denn du kannst es schlicht nicht auftrennen. Mir wäre sozusagen keine Möglichkeit bekannt, die reine Zeit in ms durch das Metering zu messen, wärend man die Zeit durch AFR bei zwei GPUs im SLI eben gänzlich eliminiert.


Mal als anschauliches Beispiel:
Raum mit 2 Fenstern. Machst du beide auf, wirds kalt. Das eine Fenster steht für MGPU und AFR, das andere für das Metering.
Es geht aber nur! entweder beide auf (MGPU im AFR + Metering bei NV) oder eben beide zu (SGPU quasi ohne Metering, aber auch kein AFR!)
Oben wurde aber gesagt, das das zweite Fenster allein geöffnet eben nichts ausmachen würde, sprich Raum wird nicht kalt.
Ich sage, doch, es macht was aus, weil es schon vom logischen Denken her so sein muss... ;)

Und das sich niemand direkt über das Metering beschwert, ist auch logisch... Wenn man es nicht dediziert alleine messen kann.
Es sei denn, du kennst ne Methode, immer raus damit ;)
Denn man beschwert sich (und das weist du auch) über MGPU und Inputlag. Was das Metering inkludiert. Man beschwert sich also über das greifbare.
Das einzige, was wir aktuell dazu haben, ist die Aussage von AMD, welche meint, das diese Verzögerung eben das Inputlag erhöht. Und in der Theorie unter logischer Denkweise ist das auch so, wie ich oben schrieb. Oder kannst du gegenteiliges belegen!? Kann ja sein, ich hab nen Denkfehler... ;)

Abgesehen das dein Beispiel hinkt und das gewaltig, ist das Messen durchaus möglich. Und der Vergleich zumindest subjektiv ist ja noch viel einfacher SLI an und aus und dann gespielt, Das was die meisten hier spüren ist das Prerenderlimit von 1 das automatisch bei Sli aber auch CF aktiv sein muss! Der Ansatz den Skysnake hatte ist durchaus brauchbar und ich hoffe für Ihn und uns, dass er jemanden findet der dies mit FCAT und seinem Verfahren vermessen wird, dann hört endlich dieses Geschwätz auf das zur Zeit nur auf Vermutungen und einer Aussage von AMD beruht. Wobei es ja durchaus möglich sein kann, dass AMD keine andere Lösung in der heutigen Generation anbieten kann, da die HW nicht darauf ausgelegt ist.
Um es noch mal deutlich zu sagen, ich habe noch nie gehört, dass jemand sagte der Outputlag von CF ist niedriger wie der von SLI, Du? Ich habe aber schon viele gehört die sagen MGPU nein Danke aber da sowohl CF wie SLI, zu der Sorte habe ich im übrigen auch gehört!
Jetzt ist MP für mich aber eher Nebensache geworden. Im Profibereich ist mit auch nicht ein Spieler bekannt der ein MGPU System für FPS in Ligaspielen einsetzt, weil er da immer, egal bei welchem Hersteller mindestens ein 16 ms höheren Outputlag gegenüber einer SGPU haben wird technisch bedingt eben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Soviel Text obwohl man einfach sagen könnte:
Gaming evolved - Frametime unsolved - AMD - advanced microstuttering devices

Oder wieso plärren die nun rum und versprechen auf einmal Besserung PER Treiber
Wenns per Treiber ging wäre das schon längst geschehen

Statt TressFX hätten sie mal lieber an der richtigen Stelle entwickelt. Mal ehrlich, wen interessieren Haare?
Kann einfach nicht angehen das es Multigpu Probleme (bei beiden) seit Ewigkeiten gibt und die einfach ignoriert oder totgeschwiegen werden.

Ist auch egal das es da mal funzt oder dort der eine besser als der andere ist.
Die Lösung kann nicht sein das ich VSync oder Framemetering oder sonstwas einstellen muss, denn wenn ich 2-3 GPUs kaufe, dann möchte ich auch die FPS von 2-3 GPUs und nicht nur 60 mit Eyecandy oder AA bis unter die Dachkante.

Damit meine ich beide Hersteller, wobei FCAT die Frametimeschwäche von AMD gnadenlos aufdeckt und daher weht der Wind bzw. die Antwort von AMD.
 
Soviel Text obwohl man einfach sagen könnte:
Gaming evolved - Frametime unsolved - AMD - advanced microstuttering devices

Oder wieso plärren die nun rum und versprechen auf einmal Besserung PER Treiber
Wenns per Treiber ging wäre das schon längst geschehen
Da wird sicher was kommen, wenn es schon Unterschiede zwischen den Spiele selbst gibt. :)


Lagged Framediff: [1,09 ms 0,63 ms]

Das sind free ouput Werte, ohne vsync oder Limiter.
 
Soviel Text obwohl man einfach sagen könnte:
Gaming evolved - Frametime unsolved - AMD - advanced microstuttering devices

Oder wieso plärren die nun rum und versprechen auf einmal Besserung PER Treiber
Wenns per Treiber ging wäre das schon längst geschehen

Statt TressFX hätten sie mal lieber an der richtigen Stelle entwickelt. Mal ehrlich, wen interessieren Haare?
Kann einfach nicht angehen das es Multigpu Probleme (bei beiden) seit Ewigkeiten gibt und die einfach ignoriert oder totgeschwiegen werden.

Ist auch egal das es da mal funzt oder dort der eine besser als der andere ist.
Die Lösung kann nicht sein das ich VSync oder Framemetering oder sonstwas einstellen muss, denn wenn ich 2-3 GPUs kaufe, dann möchte ich auch die FPS von 2-3 GPUs und nicht nur 60 mit Eyecandy oder AA bis unter die Dachkante.

Damit meine ich beide Hersteller, wobei FCAT die Frametimeschwäche von AMD gnadenlos aufdeckt und daher weht der Wind bzw. die Antwort von AMD.

So einfach ist es aber nicht denn wie gesagt handelst du dir mehr input lag ein mit frame smoothing.Es ist also nicht so dass frame smoothing immer besser ist. Deswegen wird es bei amd die Methode ohne frame smoothing weiterhin standard bleiben und eine user Option geben womit man frame smoothing aktivieren kann.
 
Alle reden von diesem Inputlag durch das framemetering, aber dabei weiß keiner so recht, ob das überhaupt spürbar ggü. z.B. dem "normalen" AFR-Inputlag oder ggü. VSync ist. VSync ist eigentlich immer viel viel schlimmer, während ohne (aber mit SLI) die Steuerung immer noch sehr direkt ist, solange die fps passen (diese Bedingung gilt aber genauso für Single-GPU). Es kommt mir vor, als wenn hier krampfhaft nach Nachteilen gesucht wird. Und das von Leuten, die in ihrem Leben noch nie was mit AFR oder mit SLI was zu tun hatten.
 
Und von dir wird krampfhaft versucht darzustellen, dass es eben keine Probleme geben kann. Dabei zeigen alle Tests, das auch SLI kein sauberes Spielgefühl bringt, und dabei auch von dem, was FCAT suggeriert auch abweichen kann. GENAU die Stellen werden wohl die sein, in denen man eben doch diesen Zusätzlichen Lag spürt. Man kann es eben nur noch nicht beweisen.
 
Nein, du lügst. Derjenige, der mit der Behauptung von Inputlag durch Framemetering ankommt und so ein Trara drum macht, muss diese Behauptung auch belegen. Die Bringschuld liegt in diesem Fall bei dir und nicht bei den anderen. Und es ist ebenso eine Lüge, dass SLI kein sauberes Spielgefühl bringt, denn das kann man pauschal überhaupt nicht sagen, denn es kommt auf die fps und auf die Engine an. Also hör auf zu lügen und überlasse die Beurteilung von solchen Dingen den Leuten, die sich tagtäglich damit auseinandersetzen. Theorie ist eine Sache, Praxis eine andere. Und Praxiserfahrung mit SLI hast du vermutlich überhaupt keine.
 
Es darf aber nicht auf die Engine oder das Spiel oder VSync oder sonstwas ankommen!!!

Kauf ich 2 GPUs muss es gehen: reinstecken, fertig und 2 mal Leistung in JEDER Situation rauskommen, sonst ist es Käse

Gibt echt Leute die sich an angezeigten FPS ergötzen, aber Inputlag und Frametimes nicht wahrnehmen? Aber in 2560x1440 wird der Unterschied zwischen 8xMSAA 2x FXAA wahrgenommen

Is klar ;)
 
Ist das grad Ironie oder nicht?

Wenn nicht:
Ja AFR ist halt kein Wunschkonzert, Plug&Play ist das prinzipbedingt nicht. Wer das denkt, sollte sich auch kein AFR zulegen.
Und ich kann sehr wohl Inputlag (z.B. durch VSync, der wie gesagt meiner Erfahrung nach viel größer ist als alles, was mit AFR zu tun hat) und Mikroruckeln unter entsprechenden Bedingungen wahrnehmen. Verstehe den Satz nicht, denn der fps-Counter kann beides eh nicht vermitteln.
 
Und von dir wird krampfhaft versucht darzustellen, dass es eben keine Probleme geben kann. Dabei zeigen alle Tests, das auch SLI kein sauberes Spielgefühl bringt, und dabei auch von dem, was FCAT suggeriert auch abweichen kann. GENAU die Stellen werden wohl die sein, in denen man eben doch diesen Zusätzlichen Lag spürt. Man kann es eben nur noch nicht beweisen.

Skytroll, hallo? Habe ich nicht schonmal erwähnt, du sollst dich nicht zu Themen äußern, die du nicht verstanden hast? :heul:

Zeige doch mal die Tests, wo das Spielgefühl von SLI von FCAT abweicht. Solltest du das nicht können, bist du nichts weiteres als ein Lügner und anscheinend ein Mitarbeiter von AMD. Anders kann man sich diese penetrante Beweihräucherung von AMD und das Lügen über nVidia nicht mehr interpretieren.
 
Dann erleuchte uns mal bitte, was die Ursache für die Berichte über ein nicht rundes Spielgefühl sind, obwohl FCAT bescheinigt alles SupiDupi bei SLI.

Ich bin mal gespannt....

Das Problem ist, du erkennst nicht an, das alle nur mit Wasser kochen.
 
Wie wäre es, wenn du den Anfang machst und mal diese Berichte verlinkst? Oder findest du "Beweis durch Behauptung" toll? Abgesehen davon: Du unterstellst den Seiten Inkompetenz bzgl. FCAT und der Testmethodik und weißt ja alles besser - aber wenn es um deren subjektive Wahrnehmungen geht, sind die Seiten dann wieder vertrauenswürdig und kompetent? Ah ja.

Und außerdem: Zeige doch mal auf, wo genau bei diesen Berichten eines "unrunden Spielgefühls" differenziert wird zwischen Ruckeln und Inputlag. Denn auf letzterem reitest du ja rum, also kannst du sicher auch eine Betrachtung präsentieren, die explizit darauf eingeht statt schwammig zu formulieren. Da sind wir mal gespannt...
 
Zuletzt bearbeitet:
Er ist ein Troll. Da geht es nicht um die Erbringung von Beweisen, sondern einzig seine Trollbehauptung mit Alienentführungsverschwörungstheorien zu verkaufen.

Ist das noch nicht aufgefallen?
 
Warten wir erstmal, was er dazu zu sagen hat. Dass Skysnake sich gern künstlich aufregt und zu Nvidia fast nur Schlechtes zu sagen hat, wirft zwar kein gutes Bild auf seine Glaubwürdigkeit, aber mal sehen ob er seine Theorien denn konkret belegen kann. Wobei ich ja immer der Meinung bin, dass eigentlich nur solche Leute einen Platz in so einer Diskussion haben, die ausführliche Erfahrung mit diesen Dingen haben. Ich habe 2-way SLI seit 2010 und benutze es praktisch täglich. Theorie ist schön und gut, aber man kann sich da auch total drin verrennen und die Realität gar nicht wahrnehmen, weil man sie nicht kennt.
 
Und außerdem: Zeige doch mal auf, wo genau bei diesen Berichten eines "unrunden Spielgefühls" differenziert wird zwischen Ruckeln und Inputlag. ...

Eigentlich erwartet man nur auf die Inputlag These mal was handfestes,es könnte,möglicherweiße,vielleicht usw usv sind nicht das gleiche was man auf anderer Seite bereits auf technischer Ebene misst u zudem bekämpft

Wenn das eine "Übel" dem anderen ebenbürtig wäre wüsste ich nicht wieso da ein Konzern Geld rein investiert um sich das andere mit seinem Vorgehen einzufangen
 
Zuletzt bearbeitet:
Habe grade projekt cars gezockt mit allem auf max mit Downsampling und hatte dabei 55FPS laut fraps aber das lief so dermaßen unrund als ob ich 15-20FPS gehabt habe und das kann nur dadran liegen das die fps nicht am monitor ankommen!
Wenn ich aber nen limiter setze bei 40FPS rennt es dagegen traumhaft...
Also da ist 100% was dran das die AMD CF systeme teilweise vergessen die Frames auch aus zu geben
 
Sky****, hallo? Habe ich nicht schonmal erwähnt, du sollst dich nicht zu Themen äußern, die du nicht verstanden hast? :heul:

Zeige doch mal die Tests, wo das Spielgefühl von SLI von FCAT abweicht. Solltest du das nicht können, bist du nichts weiteres als ein Lügner und anscheinend ein Mitarbeiter von AMD. Anders kann man sich diese penetrante Beweihräucherung von AMD und das Lügen über nVidia nicht mehr interpretieren.

Hier:

Subjectively, the animation didn't seem entirely smooth to us on any of the cards, but I'd like to spend more time with the captured video before drawing any conclusions.
Inside the second with Nvidia's frame capture tools - The Tech Report - Page 8

Und noch was für dich, weil du ja immer abstreitest, das Framemetering einen zusätzlich lag verursachen kann:

The FCAT analysis has shown us that Nvidia's frame metering tech for SLI does seem to work as advertised. Frame metering isn't necessarily a perfect solution, because it does insert some tiny delays into the rendering-and-display pipeline. Those delays may create timing discontinuities between the game simulation time—and thus frame content—and the display time. They also add a minuscule bit to the lag between user input and visual response
Inside the second with Nvidia's frame capture tools - The Tech Report - Page 11

Aber mehr als Leute diffamieren kannst du ja nicht, und schreist immer nach "Belegen", aber selbst bringst du NULL Inhalt, sondern machst Leute nur dumm von der Seite an, weil du eben absolut keine Argumente hast, und daher immer auf die persönliche Ebene zurückfällst, weil du dir anders nicht zu helfen weißt.

Ich sags daher nur noch einmal. Unterlasse in Zukunft gefälligst, mich als Troll zu bezeichnen, oder leb mit den Konsequenzen.
 
Zuletzt bearbeitet:
@Skysnake
Mit sontin brauchste auf jedenfall nicht zu diskutieren das bringt nix!
 
Abgesehen das dein Beispiel hinkt und das gewaltig, ist das Messen durchaus möglich. Und der Vergleich zumindest subjektiv ist ja noch viel einfacher SLI an und aus und dann gespielt
Ich wäre dir sehr verbunden, anstatt pauschal abzulehnen, auch zu schreiben, was am Beispiel "gewaltig hinkt". Denn so ist keine sachliche Argumentation möglich. Dein Standpunkt ist genau welcher? Du lehnst alles ab... Mit welcher Begründung?
Und mach mir das mal vor, wie das gehen soll... SLI aus heist SGPU und ohne! Metering. SLI an heist MGPU mit! Metering.
Woran unterscheidest du nun die Zeit, die durch MGPU im AFR Verfahren verzögert wird und die, welche allein durch das Metering kommt.
Im übrigen prädige ich das erhöhte Inputlag schon seit Jahr und Tag. Selbst zu G80 Zeiten schon... Glaubst du nicht? Bemüh die Sufu hier im Forum ;)

Um es noch mal deutlich zu sagen, ich habe noch nie gehört, dass jemand sagte der Outputlag von CF ist niedriger wie der von SLI, Du? Ich habe aber schon viele gehört die sagen MGPU nein Danke aber da sowohl CF wie SLI, zu der Sorte habe ich im übrigen auch gehört!

Woran wird das wohl liegen?
Vllt weil man das Metering nicht ausschalten kann? Denk mal drüber nach...
Nimms mir nicht übel, aber du scheinst MGPU nichtmal im Ansatz selbst "in der Hand" gehabt zu haben.

Alle reden von diesem Inputlag durch das framemetering, aber dabei weiß keiner so recht, ob das überhaupt spürbar ggü. z.B. dem "normalen" AFR-Inputlag oder ggü. VSync ist.

Es gibt doch gar nicht ein Inputlag vom Matering, eins vom AFR und eins von VSync... Es gibt nur EIN! Inputlag. Und das zieht sich vom Eingabegerät bis zum Monitor.
Wie stark welcher Part davon nun negativen Einfluss drauf hat, ist doch erstmal vollkommen Banane.
Und mir wäre aktuell keine Trennungsmöglichkeit bekannt, sprich MGPU im AFR Modus ohne Metering ist aktuell schlicht nicht... Somit kann man auch nicht messen, wie sich das Ergebnis verändert. Oder kennst du ne Möglichkeit?

Es bliebt also eine theoretische Betrachtung. Und in der Theorie erzeugt ein Verzögern von Frames schlicht eine Erhöhung des Inputlags. Falls du gegenteilige Argumente hast oder ich dabei nen Denkfehler hab, immer raus damit ;) Genau so wie in der Theorie eben der AFR Modus das Inputlag erhöhen muss. Weil schlicht zur gleichen Zeit zwei Frames berechnet werden. Die Eingabe somit vereinfacht gesagt quasi nur in jedem zweiten Bild sichtbar sein kann!

Dass Skysnake sich gern künstlich aufregt und zu Nvidia fast nur Schlechtes zu sagen hat, wirft zwar kein gutes Bild auf seine Glaubwürdigkeit, aber mal sehen ob er seine Theorien denn konkret belegen kann. Wobei ich ja immer der Meinung bin, dass eigentlich nur solche Leute einen Platz in so einer Diskussion haben, die ausführliche Erfahrung mit diesen Dingen haben. Ich habe 2-way SLI seit 2010 und benutze es praktisch täglich. Theorie ist schön und gut, aber man kann sich da auch total drin verrennen und die Realität gar nicht wahrnehmen, weil man sie nicht kennt.

Was hat denn nun wieder NV damit zu tun?
Es geht doch überhaupt nicht um NV gut oder schlecht, genau so wie es nicht um AMD gut oder schlecht geht...
Wieso kommt alle Nase lang dieser Bullshit (sorry) ins Gespräch?
 
Was hat denn nun wieder NV damit zu tun?
Es geht doch überhaupt nicht um NV gut oder schlecht, genau so wie es nicht um AMD gut oder schlecht geht...
Wieso kommt alle Nase lang dieser Bullshit (sorry) ins Gespräch?

Weil Skysnake durch schlechtreden von Framemetering, der neuen Messmethode und unterstellen einer Manipulation dieser durch Nvidia versucht AMD gut und Nvidia schlecht darzustellen.
 
Was hat ein eher skeptisches Betrachten der Messmethode sowie dem Metering gegenüber (und da stimme ich mit ihm voll überein!, sprich der Skepsis) mit NV/AMD gut oder schlecht zu tun?

Deswegen verwende ich heute trotzdem NV und! AMD GPUs. Und deswegen wird sich meine Vorliebe für MGPU Gespanne auch nicht ändern. Andere mögen das anhand der Werte anders sehen. Aber ich sage dennoch. MGPU gibts seit Jahren. Und Probleme mit MGPU gibts seit Anfang an. Dennoch packen sich die Leute sowas in den PC. Und es gibt genügend, die damit simpel einfach nur zufrieden sind.

Ich finde die Spritpreise beispielsweise auch scheiße. Ja und? Deswegen muss ich dennoch tanken, denn sonst komm ich nicht auf Arbeit um meine Kohle zu verdienen.
Muss ich also, nur weil ich MGPU User bin, die Sachen gut finden, die da aktuell laufen? Und das bei beiden Herstellern? -> Bestimmt nicht...
 
They also add a minuscule bit to the lag between user input and visual response

.soll ichs übersetzen


dagegen die ehrliche zwar subjektive Empfindung von Powerplay wo jemand ja gar nen Placeboeffekt unterstellt nur ergeben die Messungen eben das selbe Bild auf grafischer Ebene

und hatte dabei 55FPS laut fraps aber das lief so dermaßen unrund als ob ich 15-20FPS gehabt habe und das kann nur dadran liegen das die fps nicht am monitor ankommen

Jeder darf sich jetzt mal ne Meinung bilden
 
Zuletzt bearbeitet:
Es gibt doch gar nicht ein Inputlag vom Matering, eins vom AFR und eins von VSync... Es gibt nur EIN! Inputlag. Und das zieht sich vom Eingabegerät bis zum Monitor.
Wie stark welcher Part davon nun negativen Einfluss drauf hat, ist doch erstmal vollkommen Banane.
Und mir wäre aktuell keine Trennungsmöglichkeit bekannt, sprich MGPU im AFR Modus ohne Metering ist aktuell schlicht nicht... Somit kann man auch nicht messen, wie sich das Ergebnis verändert. Oder kennst du ne Möglichkeit?

Es bliebt also eine theoretische Betrachtung. Und in der Theorie erzeugt ein Verzögern von Frames schlicht eine Erhöhung des Inputlags. Falls du gegenteilige Argumente hast oder ich dabei nen Denkfehler hab, immer raus damit ;) Genau so wie in der Theorie eben der AFR Modus das Inputlag erhöhen muss. Weil schlicht zur gleichen Zeit zwei Frames berechnet werden. Die Eingabe somit vereinfacht gesagt quasi nur in jedem zweiten Bild sichtbar sein kann!

Du hast vollkommen Recht, und ich kenne keine Möglichkeit, den Einfluss von Framemetering auf den Inputlag zu messen. Das ist aber nicht der Punkt. Der Punkt ist, dass Skysnake auf dem zusätzlichen Inputlag durch Framemetering als Nachteil rumreitet wie beim Bullenreiten, aber nicht belegen kann, dass es überhaupt ein relevanter Nachteil ist - eben, weil man es nicht trennen kann. Darum geht es mir, und um nichts anderes.

Was hat denn nun wieder NV damit zu tun?
Es geht doch überhaupt nicht um NV gut oder schlecht, genau so wie es nicht um AMD gut oder schlecht geht...
Wieso kommt alle Nase lang dieser Bullshit (sorry) ins Gespräch?

Das kannst du nur schreiben, weil Skysnake hier im Luxx recht neu ist. In anderen Foren gibt es von ihm am laufenden Band NV-Bashing, Häme, Spott usw. Und da passt eben dieses Herumreiten auf vermeintlich relevanten Nachteilen halt wunderbar rein. Ich versuche gewöhnlich, schon die Posts von den Usern getrennt zu betrachten, aber bei so einem Verhaltensmuster geht das einfach nicht mehr. Das wirft nämlich dann die Frage auf, ob es nicht einfach darum geht, etwas schlechtzureden, obwohl man keine Praxiserfahrung damit hat.
 
Zuletzt bearbeitet:
Vorteil für mich, ich bin idR nur im Luxx aktiv :fresse: Kenne sozusagen den Rest nicht... Aber das soll mir an der Stelle auch wurscht sein.

Ich für meinen Teil heiße das Metering auch nicht primär gut. Da eben ein Negativ Aspekt (unrunde Frameausgabe) durch einen anderen Negativ Aspekt "ersetzt" wird. Dazu kommt, beides ist Subjektiv.
Wie stark man das für sich wichtet, muss doch dann jeder selbst entscheiden. Mir ists primär egal. Ich verwende MGPU seit Jahren schon, auch im Wechsel mit SGPU. Und kann mich nicht beschweren. Zumindest nicht grundlegend.
Nur bin ich dieser ständigen Glaubenskriege so langsam überdrüssig... Weil es einfach nur noch nervt.

Anstatt das die Leute mit ihrer Hardware sinnvolle Sachen anstellen, wird sich hier auf die Rübe gekloppt, bis die Balken zersplittern. Und das ist der Punkt... Man wird aktuell scheinbar förmlich auf die Meinung gedrengt. Und das mit Nachdruck. Nur weil man etwas nicht gut findet, sieht man nicht auch gleich das Konkurzprodukt oder die Konkurenzumsetzung als gut an. Und genau das wird einem hier primär unterstellt.

PS: seine Beiträge hier im Luxx sind aber aktuell eher sachlich ;) Darin gibts nicht primär was auszusetzen. Ob man die Denkweise nun gut findet, spielt aber meine ich auch keine Rolle.
 
Zuletzt bearbeitet:
.

Ich für meinen Teil heiße das Metering auch nicht primär gut. Da eben ein Negativ Aspekt (unrunde Frameausgabe) durch einen anderen Negativ Aspekt "ersetzt" wird. .

Also negativ ist ja etwas wenn es störend ist,und das eine hat bisher jedenfalls keinen wirklich großartig gestört,naja zumindestens bis zu dem Punkt wo man nun aktiv das Störende nachweißen kann;)


Während man an den Symptomen der ungleichmäßigen Frameausgabe schon seit Myriaden rumdoktort ist der zusätzliche Inputlag durchs Einmessen bisher noch nie so in Erscheinung getreten wie das mancher hier gerne darstellen möchte

Irgendwas scheint da an der Gewichtung wohl nicht gleichermaßen schlimm zu sein,denn im allgemeinen weiß ein Hersteller wo er seine Gelder sinnvoll verpulvert
 
Zuletzt bearbeitet:
Ich für meinen Teil heiße das Metering auch nicht primär gut. Da eben ein Negativ Aspekt (unrunde Frameausgabe) durch einen anderen Negativ Aspekt "ersetzt" wird. Dazu kommt, beides ist Subjektiv.
Wie stark man das für sich wichtet, muss doch dann jeder selbst entscheiden.

Jein. In der Theorie mag das so sein, in der Praxis scheint Framemetering mehr zu bringen als dass es Schaden anrichtet. Dass SLI mit Framemetering (auch vor Kepler) einen gewissen Vorteil bei der "Smoothness" ggü. CF hat (den ich nicht quantifizieren möchte oder kann), kann man ja recht häufig in Tests und auch von Usern, die beides hatten, lesen. Von einem störenden Lag, der bei SLI vorhanden ist, bei CF aber nicht, habe ich hingegen noch nie etwas gelesen.

Man wird aktuell scheinbar förmlich auf die Meinung gedrengt. Und das mit Nachdruck. Nur weil man etwas nicht gut findet, sieht man nicht auch gleich das Konkurzprodukt oder die Konkurenzumsetzung als gut an. Und genau das wird einem hier primär unterstellt.

Nein, das stimmt doch überhaupt nicht. Um AMDs CF ging es doch in dieser Diskussion gar nicht, nur um das Schlechtreden vom Framemetering, obwohl es nicht abschalten und testen kann, wie groß/störend denn jetzt der zusätzliche Lag wirklich ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh