AMD spricht zu FCAT und der Radeon HD 7990

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.137
<p><img src="/images/stories/logos/amd_radeon_neu.jpg" width="99" height="91" alt="amd radeon neu" style="margin: 10px; float: left;" />Wir hatten die Gelegenheit ein kurzes Gespräch mit Roy Taylor, dem World Wide Channel Sales Manager von AMD, zu führen. Neben der <a href="index.php/news/hardware/prozessoren/25946-amd-spielebundles-zukuenftig-auch-zu-apus.html" target="_blank">Ankündigung von Spielebundles im Zusammenspiel mit den eigenen APUs</a>, brannten uns allerdings zwei aktuelle Themen aus dem GPU-Segment unter den Nägeln. Zunächst einmal zeigte man sich reserviert, wenn es um das <a href="index.php/news/hardware/grafikkarten/25906-benchmarking-was-hinter-fcat-steckt-und-die-konsequenzen-fuer-hardwareluxx.html" target="_blank">Thema FCAT (Frame Capture Analysis Tool)</a>...<br /><br /><a href="/index.php/news/hardware/grafikkarten/25947-amd-spricht-zu-fcat-und-der-radeon-hd-7990.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"... , die Unterschiede sehen aber nur sehr gering, so dass sich der Aufwand wohl kaum lohnen würde. ..."
brauchen die Unterschiede ne Sehhilfe oder ein "seien" statt des "sehen"s?
 
Angesprochen auf die größere Unterschiede in Multi-GPU-Systemen sowie der Tatsache, dass es auch unter Verwendung nur einer GPU zu Ausreißern in den Frametimes kommen kann, versprach man mit zukünftigen Treiber-Releases deutliche Verbesserungen in diesem Bereich.

Soso....... Allerdings dürfen die AMD-Anhänger auch weiterhin die glaubwürdigkeit von FCAT anzweifeln, dingdong, round two :fresse:
 
Man kann µruckler genausogut mit Fraps messen, ich kann deren Aussage schon verstehen.
Der Frappo Entwickler aus dem 3D Center ist da auch der Meinung.

dochurt schrieb:
Soso....... Allerdings dürfen die AMD-Anhänger auch weiterhin die glaubwürdigkeit von FCAT anzweifeln, dingdong, round two

Jaja, das kann man immer als Ausrede benutzen wenn der eigene Skill nicht ausreicht, bei der technischen Diskussion hier im HWL irgendetwas sinnvolles beizutragen, und ich kenne mich auch nicht gut aus, andere aber scheinbar schon.

Nur für dich reichts halt nur für irgendwelche haltlosen Anschuldigungen, wa snatürlich niemanden weiterbringt.
 
Zuletzt bearbeitet:
Wow, das wäre ja mal klasse, wenn AMD die Probleme mit den Mikrorucklern angehen würde, das ist bis jetzt zu kurz gekommen! :-)Mich als FPS ESL Liga Zocker haben die Mikroruckler bis jetzt immer abgeschreckt.
 
Wenn sie das problem über die Hardware lösen könnten wäre das schon top. Dann könnte man auf einen Framelimiter verzichten. Na ja mal sehen.
 
Auch über die Software wird was gemacht. Zum Sommer hin sollen entsprechende MGPU Treiber releast werden ... schauen mer mal.
 
Wow, das wäre ja mal klasse, wenn AMD die Probleme mit den Mikrorucklern angehen würde, das ist bis jetzt zu kurz gekommen! :-)Mich als FPS ESL Liga Zocker haben die Mikroruckler bis jetzt immer abgeschreckt.

Naja die andere Methode hat aber einen etwas höheren input lag was dich abschrecken könnte. Du kannst also einfach bei single Karten bleiben dann hast du die Probleme nicht
 
Hardwarebasierend? Hm könnte ja vielleicht was werden.^^
Hardwarebasierende? Pft...

Das schöne an solchen Aussagen ist, das es NIEMAND nachvollziehen kann. Und was ist überhaupt hardwarebasierend? Ich brauch ja immer Hardware, die den Code ausführt, also ich alles "hardwarebasierend" :fresse:

Ob jetzt Software oder Hardware ist doch echt kack egal, hauptsache es macht das was man will und zwar performant!

Wow, das wäre ja mal klasse, wenn AMD die Probleme mit den Mikrorucklern angehen würde, das ist bis jetzt zu kurz gekommen! :-)Mich als FPS ESL Liga Zocker haben die Mikroruckler bis jetzt immer abgeschreckt.
Ah Super!

Dann mal eine Frage an dich:
Hättest du damit eine Problem, wenn einzelne Frames bis zu einen Frame später angezeigt, also verzögert. würden, um ein gleichmäßigen Frameverlauf zu erhalten?
 
Kannst du diese Aussage durch Messungen/Tests belegen?

Messungen gibt es keine davon aber AMD sprach davon dass sie aus dem Grund nicht komplett auf frametime Optimierung umstellen wollen sondern die Option im Treiber wählbar machen weil es einen höheren input lag ergibt. Es ist auch logisch wenn man überlegt dass für Frametime Optimierung erstmal ein paar Frametimes bekannt sein müssen damit man weiß wie sie verzögert werden sollen komplett ohne verzögerung kann es nicht geschehen.
 
Ah Super!

Dann mal eine Frage an dich:
Hättest du damit eine Problem, wenn einzelne Frames bis zu einen Frame später angezeigt, also verzögert. würden, um ein gleichmäßigen Frameverlauf zu erhalten?

Ich lass mich sicher nicht auf eine Mikroruckler Diskussion ein mit dir. Einige merken es einige nicht und fertig! Da gibt es x Threads zu dem Thema.
 
Messungen gibt es keine davon aber AMD sprach davon dass sie aus dem Grund nicht komplett auf frametime Optimierung umstellen wollen sondern die Option im Treiber wählbar machen weil es einen höheren input lag ergibt. Es ist auch logisch wenn man überlegt dass für Frametime Optimierung erstmal ein paar Frametimes bekannt sein müssen damit man weiß wie sie verzögert werden sollen komplett ohne verzögerung kann es nicht geschehen.

Auch wenn ich auf Aussagen von AMD nichts gebe, die Techniken von Nvidia betreffen ... davon ausgehend, dass es einen höheren Inputlag gibt stellt sich automatisch die Frage ob dieser in der Praxis in irgendeiner Weise relevant bzw. spürbar ist. Ich denke nicht, sonst hätte man irgendwann schonmal was davon gehört wie von den massiven Mikrorucklerproblemen von AMD und zum Teil Nvidia.

Bin ja schon gespannt auf die "Wundertreiber" im Sommer. Ich ahne allerdings eine bittere Enttäuschung.
 
Kannst du diese Aussage durch Messungen/Tests belegen?
Sag mir ob OpenGL auch geht, dann kann ich mich, wenn ich Zeit finde, an einen synthetischen Test dazu machen. Das entsprechende Testsystem zum Debuggen usw wäre natürlich auch toll, geht aber zur Not wohl auch ersmtal ohne.

Aktuell legen alle Indizien den SChluss aber nahe, dass es so ist, und man wird ja bewusst dumm gehalten, damit man es weder belegen noch widerlegen kann. Daher muss man sich auf die Indizien verlassen.

Ich lass mich sicher nicht auf eine Mikroruckler Diskussion ein mit dir. Einige merken es einige nicht und fertig! Da gibt es x Threads zu dem Thema.
Sag ich was von Mikrorucklern?

Nö.

Also nochmal, rein prinzipiell, was würdest du vorziehen als "Profi"Gamer. Einen gleichmäßigen Frameverlauf, und dafür eventuell eine verzögerte Ausgabe um bis zu einen Frame, oder doch lieber ungleichmäßige Frametimes, wo man auch mal ganze Frames praktisch "verliert", dafür aber kein zusätzlicher Lag bei der Ausgabe.

Das ist wirklich eine ernstgemeinte Frage! Und mich interessiert auch gar nichts prinzipielles, sondern einfach nur, was für DICH "besser" wäre.

Für mich ist beides wahrscheinlich Jacke wie Hose, oder gleich schlimm, je nach Sichtweise. Ich werds meist wohl eh nicht merken, ich Glücklicher :d

Deswegen interessiert mich ja die Meinung eines Menschen, der in ner Liga spielt. Manche Leute sehen ja sogar Unterschiede zwischen nem 60 und 120 Hz Monitor, und empfingen alls was nicht 120Hz ist nur noch als "Dreck" und "unspielbar" :ugly:

Daher auch die wirklich ernst gemeinte Frage, zur persönlichen! Meinung.
 
Skysnake, was versuchst Du denn jetzt schon wieder?
Die Idee die Du hattest ist doch gut, mach es doch einfach mal.
Es wird sich sicherlich eine Redaktion finden die die Idee gern aufgreift und nachprüft.
Aber lass doch bitte jetzt das Gebetsmühlenartige Penetrieren mit erhöhtem Outputlag.
Dadurch wird es ja nun mal nicht wahr oder bewiesen.

Was mich in dem Zusammenhang aber interessiert, wenn ich ein Bild erst überhaupt nicht sehe als
Spieler bei CF weil es verworfen wird, wie kann ich dann darauf reagieren, oder haben die Profispieler jetzt schon ein Neurales Interface und
müssen das Geschehen überhaupt nicht mehr auf dem Bildschirm sehen sondern reagieren schon wenn die Grafikkarte fertig ist mit Rendern
oder eben auch nicht :) und ein Bild das nur ein paar Zeilen hoch ist wird dann interpoliert und rekonstruiert in Echtzeit und erstrahlt vor dem Gamerauge
in voller Pracht und Auflösung:rofl: Denk doch mal darüber nach.

Das MGPU aufgrund der verwendeten Technik immer mindestens 1 Bild hintendran ist gegenüber einer SGPU ist nicht neu und auch nicht geheim oder nur auf SLI beschränkt
diese Einschränkung hat auch CF.
 
Zuletzt bearbeitet:
Das streitet ja auch keiner ab, das es prinzipielle Unterschiede gibt. Mich interessiert nur, wie Leute in ner Liga, die meist dazu tendieren SEHR empfindlich zu sein (und selbst wenns nur rein Plazebo wäre), und daher was Sie davon halten. Aktuell wird ja eine Glorifizierung der gleichmäßigen Frametimes vorgenommen, ohne die Sache mal zu reflektieren, und in Ihrer Gesamtheit zu sehen. Daher interessiert es mich einfach wirklich. Gerade wenn man an den angeblichen Schieberegler von AMD denkt, gibts dann ja noch mehr Probleme. Was ist denn dann DAS bessere?

Oder kann man das nicht eventuell mit einem guten Algorithmus direkt in Hardware oder auch in Software packen, so das man eben keinen Schieberegler braucht? Es weiß ja auch keiner, ob die Mikroruckler, die man auch bei SLI sieht, nicht teilweise eben genau von dieser vermutlichen Verzögerung herrühren. Dafür fehlen ja einfach die Daten, weil FCAT hier einfach gewisse Unzulänglichkeiten hat.

Und wahr oder unwahr wird nichts dadurch, das man es wiederholt, es zeigt aber eben sehr deutlich das Problem auf. WIR WISSEN ES SCHLICHT NICHT, und nichts anderes sage ich auch. Ich verwende immer den Konjunktiv, zumindest versuche ich es bewusst immer zu tun. Man muss hier einfach mit offenen Karten spielen!

Und nur zur Info, ich habe mich bereits an eine Redaktion deswegen gewendet, und warte auf Antwort. Wenn ich nen direkten Kontakt zu nVidia hätte, würde ich mich auch da melden. So kannstes aber knicken. Das geht einfach unter bei den 0815 Mailadressen.

Mir kann ja aber bisher nichtmal einer sagen, ob es auch mit OpenGL funktioniert -.- Da wüsste ich nämlich wie ich vorgehen würde. In DX müsste ich mich erstmal einarbeiten, was natürlich richtig kacke ist...
 
Also nochmal, rein prinzipiell, was würdest du vorziehen als "Profi"Gamer. Einen gleichmäßigen Frameverlauf, und dafür eventuell eine verzögerte Ausgabe um bis zu einen Frame, oder doch lieber ungleichmäßige Frametimes, wo man auch mal ganze Frames praktisch "verliert", dafür aber kein zusätzlicher Lag bei der Ausgabe.

Das ist wirklich eine ernstgemeinte Frage! Und mich interessiert auch gar nichts prinzipielles, sondern einfach nur, was für DICH "besser" wäre.

Für mich ist beides wahrscheinlich Jacke wie Hose, oder gleich schlimm, je nach Sichtweise. Ich werds meist wohl eh nicht merken, ich Glücklicher :d

Deswegen interessiert mich ja die Meinung eines Menschen, der in ner Liga spielt. Manche Leute sehen ja sogar Unterschiede zwischen nem 60 und 120 Hz Monitor, und empfingen alls was nicht 120Hz ist nur noch als "Dreck" und "unspielbar" :ugly:

Daher auch die wirklich ernst gemeinte Frage, zur persönlichen! Meinung.

Ich brauch beides! :-) Ich habe einen 120Hz Monitor daher sollte wenn möglich die FPS nicht unter 120 fallen und eine verzögerte Ausgabe ist genauso schlimm, da ich ja im dümmsten Moment einen Gegner nicht sofort sehe, er mich aber evtl. schon. Heisst er hat "die Verzögerung" mehr Zeit als ich um zu visieren. Bei mir ist es aber nicht ganz so,(je nach Map)schlimm, da ich für Fahrzeuge zuständig bin und daher nicht jedes Frame sehen muss, wenn ein Inf vor mir rumturnt. Wenn aber etwas schnelleres Jet, Heli vor mir rumfliegt und dann noch eine gewisse Distanz dazu kommt die ich ja noch "berechnen" muss beim Schuss, dann ist es auch wieder wichtig, dass beides stimmt. :-)
 
Zuletzt bearbeitet:
Jaja, das kann man immer als Ausrede benutzen wenn der eigene Skill nicht ausreicht, bei der technischen Diskussion hier im HWL irgendetwas sinnvolles beizutragen, und ich kenne mich auch nicht gut aus, andere aber scheinbar schon.

Nur für dich reichts halt nur für irgendwelche haltlosen Anschuldigungen, wa snatürlich niemanden weiterbringt.

Schaffe dein rumgepöbel nervt und bringt auch niemanden weiter... Mal davon ab, dass du dich damit jedes mal dezent lächerlich machst...^^

@News: Naja eigentlich ist das nur eine offizielle Bestätigung, dass AMD an seinen bekannten Schwächen arbeitet...
 
Ich brauch beides! :-) Ich habe einen 120Hz Monitor daher sollte wenn möglich die FPS nicht unter 120 fallen und eine verzögerte Ausgabe ist genauso schlimm, da ich ja im dümmsten Moment einen Gegner nicht sofort sehe, er mich aber evtl. schon. Heisst er hat "die Verzögerung" mehr Zeit als ich um zu visieren. Bei mir ist es aber nicht ganz so,(je nach Map)schlimm, da ich für Fahrzeuge zuständig bin und daher nicht jedes Frame sehen muss, wenn ein Inf vor mir rumturnt. Wenn aber etwas schnelleres Jet, Heli vor mir rumfliegt und dann noch eine gewisse Distanz dazu kommt die ich ja noch "berechnen" muss beim Schuss, dann ist es auch wieder wichtig, dass beides stimmt. :-)
Dann trifft es, wenn ich zusammenfasse, das es die "Wahl zwischen Pest und Cholera" treffen würde, und man sich die Ressourcen im Prinzip auch hätte sparen können, und lieber in ne richtige Lösung, wie Anbindung per Interposer inkl der sehr fetten Datenpfade, die am Kern des Problems ansetzt investieren hätte sollen?
 
Dann mal eine Frage an dich:
Hättest du damit eine Problem, wenn einzelne Frames bis zu einen Frame später angezeigt, also verzögert. würden, um ein gleichmäßigen Frameverlauf zu erhalten?

Ich kann mich nicht erinnern das sich Hardcoregamer angesiedelt in asiatischen Ligen mal nachteilig über Nvidias Hard/Softwaremetering geäußert hätten,oder zu Myriaden jetzt ausschließlich mit Radeon Karten unterwegs wären,weil der enstehende Lag unvorteilhaft wäre für ein Meisterschaftsmatch

Du etwa?

Wenn da was dran wäre wären die Konsequenzen schon ne Weile sichtbar da man nicht erst seit gestern an der Unterdrückung ungleichmäsßger Frames arbeitet
 
Zuletzt bearbeitet:
Das streitet ja auch keiner ab, das es prinzipielle Unterschiede gibt. Mich interessiert nur, wie Leute in ner Liga, die meist dazu tendieren SEHR empfindlich zu sein (und selbst wenns nur rein Plazebo wäre), und daher was Sie davon halten. Aktuell wird ja eine Glorifizierung der gleichmäßigen Frametimes vorgenommen, ohne die Sache mal zu reflektieren, und in Ihrer Gesamtheit zu sehen. Daher interessiert es mich einfach wirklich. Gerade wenn man an den angeblichen Schieberegler von AMD denkt, gibts dann ja noch mehr Probleme. Was ist denn dann DAS bessere?

Oder kann man das nicht eventuell mit einem guten Algorithmus direkt in Hardware oder auch in Software packen, so das man eben keinen Schieberegler braucht? Es weiß ja auch keiner, ob die Mikroruckler, die man auch bei SLI sieht, nicht teilweise eben genau von dieser vermutlichen Verzögerung herrühren. Dafür fehlen ja einfach die Daten, weil FCAT hier einfach gewisse Unzulänglichkeiten hat.

Und wahr oder unwahr wird nichts dadurch, das man es wiederholt, es zeigt aber eben sehr deutlich das Problem auf. WIR WISSEN ES SCHLICHT NICHT, und nichts anderes sage ich auch. Ich verwende immer den Konjunktiv, zumindest versuche ich es bewusst immer zu tun. Man muss hier einfach mit offenen Karten spielen!

Und nur zur Info, ich habe mich bereits an eine Redaktion deswegen gewendet, und warte auf Antwort. Wenn ich nen direkten Kontakt zu nVidia hätte, würde ich mich auch da melden. So kannstes aber knicken. Das geht einfach unter bei den 0815 Mailadressen.

Mir kann ja aber bisher nichtmal einer sagen, ob es auch mit OpenGL funktioniert -.- Da wüsste ich nämlich wie ich vorgehen würde. In DX müsste ich mich erstmal einarbeiten, was natürlich richtig kacke ist...

Ich darf da auch mal meine Erfahrungen dann dazu beitragen, ich habe über Jahre sehr ambitioniert gespielt und die letzte aktive Zeit W@W und dort zum Schluß nur Boltrifle, da kommt es extrem auf Lag Freiheit an, ich habe Auflösung Nativ gewählt nachdem ich von der guten alten Röhre auf TFT gewechselt habe und war nie so wirklich glücklich! Ich habe dann mal rumexperimentiert auch mit SLi ....unbrauchbar zumindest zum damaligen Zeitpunkt, eine schnelle SGPU und gut war es.
Wenn du mal bei 3DC guckst habe ich schon vor Jahren die Frage aufgeworfen, ob es Unterschiede beim Outputlag zwischen NV und AMD gibt ich habe mir da eingebildet selbst im SGPU Bereich Unterschiede zu spüren, wenn auch damals pro NV ,belegen konnte ich das nie und heute bin ich eh zu alt und mir fehlt die Zeit und das Interesse ;-)

Ich finde das gut das Du da schon aktiv geworden bist, auch wenn die neuen Test bei THG schon ein deutlich abgeschwächtes Bild der Problematik aufzeigen, aber auf der anderen Seite doch belegen, dass das Problem vorhanden ist.

Edit: wende dich mal an Blaire vielleicht kann er vermitteln.
Edit,Edit: Du solltest auch bedenken das die Egine´s die heute Verwendung finden von sich aus wohl schon Lag anfälliger sind zumindest ist es mir niemals auch nur Ansatzweise gelungen egal auf welcher GPU oder sonstigem Unterbau ein ähnlich direktes Spielgefühl mit BF3 zu erlangen wie z.B. mit Cod 4 oder 5 geschweige den CS ich habe das nie verstanden, da spielen wohl auch andere Sachen rein.
 
Zuletzt bearbeitet:
Mich kotzt einfach nur die Blauäugigkeit an. Selbst wenn alles 100% korrekt ist, ist es einfach so wie es abgehandelt wird einfach unbrauchbar. Man weiß einfach gar nichts, und den Leuten wird suggeriert, dass das alles super schnike und super toll ist, und wenn Sies nicht verstehen, dann liegt das halt nur daran, dass es halt kompliziert ist...

Vor allem steht man halt wie der Ochs vorm Trog und bekommt nicht die Informationen, die man wirklich braucht, um sich ein Bild zu machen, und alle Welt meint den heiligen Gral gefunden zu haben...

Wenn nVidia jetzt z.B. herausgefunden hätte, das Menschen/Gamer bei einem delta_t von X zwischen zwei Frames und einem delta_t von Y zwischen ingame_time und display_time kein Ruckeln wahrnehmen können, dann wäre das toll! Auf den Wert hin könnte man dann nämlich Algorithmen entwickeln, von denen dann alle! Profitieren. Ist ja wie mit den Studien zum Farbsehen und Hören. Das hat die Wissenschaft und Technik extrem weiter gebracht. Wenn man sowas für die Abfolge von Darstellungen ermittelt hätte, dann müsste man sich vor nVidia bis zum Erdbode verbeugen! Das wäre nämlich sehr nützlich! So wie es aktuell aber ist, ist es einfach nur unbrauchbar, weil man schilcht die Werte nicht interpretieren kann, da man dumm gehalten wird durch entzug von Information.

Ich bin ja mal gespannt, ob man den Quellcode noch einsehen wird können. Dann wäre die Frage wohl auch geklärt, ob es nur bei DX oder auch bei OpenGL funktioniert. Bei nVidias Firmenpolitik glaube ich aber leider nicht wirklich daran. Es ist teils wirklich ein Krampf mit Ihnen auf Softwarebasis zu arbeiten, wobei das bei Intel und AMD teils auch nicht besser ist...

PS:
Das mit Blaire musst du mir mal in ner PM erläutern. Danke
 
Ich Teste gerade Titan vs CF und der Unterschied ist Hammer um genau zu Sagen 0 :bigok:
Ja doch, ein unterschied gibt es zwischen der Titan und zwei 7950 CF das der Titan deutlich Teuere ist.

Von FPS her sind die zwei 7950 schneller und deutlich Günstiger, sichtbare Microruckler Fehlanzeige.
 
Zuletzt bearbeitet:
_______________________________________________________________________________________________________________

Ich hab für die Moderation mal einen Strich gezogen, damit sie leichter wissen, ab wo es wieder eskalierte... :d
 
Wusste nicht das Du ein Stricher bist ... :d

(sorry, die Steilvorlage war zu gut um zu widerstehen)
 
Kaum zu glauben das es tatsächlich mehr Stricher als Bordsteinschwalben gibt - PKKK.. die blöden siiiind wir :rofl:

Btw: Hab heute mal 2x7950 gegen 1xGT610 getestet, was soll ich sagen, die 610er hat eindeutig weniger geruckelt und das für weniger Penunsen ^^
 
Zuletzt bearbeitet:
[QUOTE=
Btw: Hab heute mal 2x7950 gegen 1xGT610 getestet, was soll ich sagen, die 610er hat eindeutig weniger geruckelt und das für weniger Penunsen

Und die 610 er war dann auch noch schneller als der Titan so wie 2x 7950 :)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh