Den einzigen Vorteil den Amd gegenüber Nvidia hat ist das man derzeit keine Karte im Highend bereich hat somit ist der Sprung von rx 580 zu Vega vielleicht doch nen ganzes Stückchen Wenn dann noch der Preis stimmt warum nicht.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Man darf bei 4K aber auch nicht immer vom Grafikkracher des letzten Woche ausgehen. Ich spiele z.B. einige Spiele, die a) nicht erst letzte Woche rausgekommen sind, sondern schon älter sind, bei denen das Gameplay aber einfach sau gut ist und b) auch Spiele, die einfach nicht so mega anspruchsvoll sind, wie man es von den üblichen AAA Trash-Titeln kennt. Man kann auch einfach die Details verringern, denn 4K sind immer noch geiler, als 1080/1440, auch wenn man von Ultra auf High zurück gehen muss. Das ist weder unsinnig noch zeugt es von "recht seltsamen Vorstellungen".
Es ist also sehr wohl möglich mit aktuellen Karten in 4K deutlich mehr als 60 zu erzielen.
und weil es keine gpu schafft, ist es also deiner meinung eh egal, ob du eine schnell nv oder eine langsame amd kaufst? DAS ist meiner meinung nach eine verdrehte logik. gut, du gehst nach budget, ich geh nach leistung.
denn eingangs ging es darum, dass einer sagt, wenn man leistung für 4k mit vielen fps will, MUSS man zu TEUREN nv karten greifen, weil amd da nichts hat. du sagst dann, dass auch die teuren karten das in 4k nicht schaffen.
Nein, ich meine dass 4k total sinnlos ist, weil das einer Diagonale von 60 Zoll oder mehr entspricht und alles darunter nicht mehr wahrnehmbar ist.
2k Bereich hast du auf einmal:
- maximale Bildqualität
biggest bullshit
selbst bei gleicher pixel auf meinem monitor (3440x1440) nehme ich zwischen 1.2 fachem DSR je nach spiel einen deutlichen unterschied in der bildqualität wahr.
Erzähl mir doch mal bitte, wo deine persönliche Wahrnehmungsgrenze bei Pixeldichtenunterschieden liegt.im prinzip sagst du, auflösung bringt keinen vorteil und deshalb langt eine amd und deshalb braucht man nicht über die nv preise weinen. was einfach bullshit ist.
Erzähl mir doch mal bitte, wo deine persönliche Wahrnehmungsgrenze bei Pixeldichtenunterschieden liegt.
du versteifst dich da auf irgendwelche richtwerte wie dpi anhand derer du mir irgenwie weismachen willst, auflösung bringt nichts bzw erst was, wenn ich von 30 auf 60 zoll gehe. größer quark ever.
Nicht mal ne 1080 Ti kann 4k auf über 60-80 Hz ordentlich darstellen - oder du reduzierst die Details, was natürlich ziemlich unsinnig klingt, wenn man sich schon einen 4k Monitor besorgt hat.
Was zur Zeit also bleibt: 4k mit 60 Hz. 2k mit 120+ Hz. Wer 4k mit 120+ Hz haben will, dem hilft nicht mal ne Xp. Ist natürlich ein Problem, wenn man sich erst nen 4k Monitor kauft, weil man dem ganzen Marketing aufgesessen ist und dann erst feststellt, dass es noch gar keine GPU gibt, die das flüssig darstellen kann.
Der Bildschirm ist das Ziel der gesamten Verarbeitungskette. Ich bastle mein System darauf, dass es am Ende auf genau diesem Output-Gerät passt. Wer was anderes macht, hat ne recht seltsame Vorstellung einer Signalkette. Aber anscheinend ist Geld ja kein Problem für diese Käuferschicht. Sitzt ja locker. ^^
edit: Bei all dem Sarkasmus... bitte erklär mir doch mal, wie man darauf kommt sich einen 4k Monitor zuzulegen, wenn keine GPU das ordentlich über ~60 Hz schafft und man aber 120 Hz erwartet. Was geht da bei den Leuten ab? Keinen Bock sich nen Benchmark anzugucken oder wo liegt der Hund begraben? Die Industrie fängt schon an von 8k zu faseln. Intel propagiert sogar 12k (was auch immer die graucht haben).
Ab 130 DPI sieht man doch sowieso keine Unterschiede mehr mit dem Auge - es sei denn man sitzt 15 cm dicht vor der Röhre.
desweiteren ich hab mich auf die Aussagen von Amd verlassen als ich mir den 4K Monitor gekauft habe - von Amd hies es nämlich "AMD Fury das perfekte 4K Gaming Erlebnis" aber da wurde mir ja scheinbar von Amd die Hucke vollgelogen
Mein 40" 4K monitor widerspricht dir.Nein, ich meine dass 4k total sinnlos ist, weil das einer Diagonale von 60 Zoll oder mehr entspricht und alles darunter nicht mehr wahrnehmbar ist. Und wenn wir uns mal die Monitore für PCs angucken, gehen die bis ungefähr 34" hoch, wo wir im 2k Bereich sind.
Und im 2k Bereich hast du auf einmal:
- maximale Bildqualität
- maximale Widerholfrequenz
- Super dpi-Auflösung, weil die Pixellücken immer noch unter deiner Wahrnehmungsschwelle liegen
Und in diesem - sinnvollen - Bereich, gibts auf einmal wieder AMD. Und hossa - zu nicht-Mondpreisen. Krass.
Nö, vor 2 Jahren war das vielleicht so, meine 980ti ist mittlerweile genausowenig 4k fähig wie deine Fury...
Wenn du derzeit so unter der Fury leidest, kauf dir doch ne Nvidia oder warte bis Vega :/
Die Fury ist wirklich keine gute Karte, aber immerhin gibt das der Chef der RTG zu, was Unternehmen so gut wie nie machen (Fehler eingestehen)
Bei AMD gabs nunmal ne komplette Umstrukturierung, also erwarte keine Wunder denn die gibts nicht :P
man soll nicht einfach von sich auf andere schliessen, wie es leider viele zu gern tun die 4K am Pc Monitor noch nie selbst zuhause hatten - ich hab hier einen 27" 4K Monitor stehen und daneben einen 24" FHD und das Bild auf dem FHD das ich früher als immer sehr gut und scharf empfand - ist für mich seit ich den 4K Monitor habe nur noch maschtig egal ob Gaming oder Arbeiten und das wird dir jeder bestätigen der selbst einen 4K Monitor hat, aber hauptsache ohne eigene Erfahrungen hier große Reden schwingen und 4K auf 27" als Bullenscheisse bezeichnen.
Wie du bereits gesagt hast, nicht von sich auf andere schließen.wer erwartet denn 120 FPS ? Ich hab nicht geschrieben das ich in 4K 100FPS brauche, mir ist schon klar das bei 4K aktuell meist bei maximal 60Fps im Schnitt Schluss ist und mehr brauche ich auch nicht und mehr habe ich mir auch nie erwartet. die 100Hz+ bzw. 100fps+ meiner Aussage bezogen sich auf FHD und 1440p denn da gibt es ja die 144Hz Panels die viele haben und für die eben FPS 100+ nötig sind und für all die Fälle ist ne Fury einfach murks und mehr Power gibt es seit über nehm Jahr bei Amd nicht und das ist einfach Fakt.
Marketingrotz halt. 4k auf geringen Details geht bestimmt. ^^ AMD hat da also nicht per se gelogen, aber deswegen würde ich ja auch Benchmarks abwarten bevor ich mir was kaufe. Oder gabs da noch keine 4k Benches?desweiteren ich hab mich auf die Aussagen von Amd verlassen als ich mir den 4K Monitor gekauft habe - von Amd hies es nämlich "AMD Fury das perfekte 4K Gaming Erlebnis" aber da wurde mir ja scheinbar von Amd die Hucke vollgelogen
Du kannst jetzt nicht AMD für jedes nicht-optimierte Spiel den Hasen zuschieben. Der Game-Code mancher Spiele ist einfach nur grottig. Es ist ein Unding, dass AMD überhaupt Treiberoptimierungen rausbringt, denn das ist ja eigentlich nicht deren Bier - trotzdem tun sie es und die Entwickler vertrauen darauf, dass der "Treiber das schon richten wird".und das Ziel war es auch nicht wie gesagt über 100 FPS auf 4K zu bekommen sondern maximal 60 wobei ich extra einen freesync 4K Monitor gekauft habe damit mir auch schon zwischen 31 und 45 FPS locker reichen um in 4K ein smoothes Gaming Erlebnis zu bekommen und genau dafür bekam Amd mein Geld und was bekam ich dafür - ein paar Monate, nämlich solange wie Amd sich wirklich Mühe mit der speziellen Treiberoptimierung hin auf die 4GB der Fury gegeben hat, konnte man einige Spiele (Farcry Primal, Dirt Rally) halbwegs smooth in 4K spielen - seit das nicht mehr passiert kommt man kaum auf 25 Fps in 4K selbst mit teils extrem reduzierten Details.
Ich warte auch auf Vega. Nur ich kauf mir vorher keinen 4k Monitor. Signalkette! Das Ding, was die Vorstadt-Halbstarken um den Hals tragen und in der Sonne glitzert! ;-PUnd genau die 40-60 Fps die man für ein Smoothes Gaming Erlebnis mit einem 4K freesync/Gsync Monitor braucht schafft je nach Spiel sogar ne 1080 und eine 1080TI sogut wie immer - und auf diese Leistung warte ich bei Amd nun über ein Jahr und kein Ende in Sicht - naja vielleicht verstehst du den Sarkasmus ja nun aber ich will mal nicht zuviel erwarten
du scheinst nicht zu verstehen dass sich die resu auf aliasing auswirkt. also auch nach deinen 130 dpi noch einfluss auf schaerfe bzw flimmern hat. probier es aus und stelle mal 4k dsr auf deiner 11080p muehle ein. und sag mir nicht du siehst da keinen unterschied.
Alles verständlich, aber warum solltest du dich bei AMD für die Fury bedanken wo wurde das behauptet?
Den Gedankengang bzgl. G-sync hab ich auch ab und zu, geh dann auf Geizhals und seh warum es ein schlechter Gedanke ist
Wie du bereits gesagt hast, nicht von sich auf andere schließen.
Ich habe bereits geschrieben, dass 4k @ 120 Hz auf maximalen Details nicht geht - schafft keine GPU. Auf was du von diesen Dingen verzichtest, ist deine persönliche Entscheidung. Bevor ich aber einen neuen Monitor kaufe, mache ich einen persönlichen Vergleichstest. Der involviert Vergleich 60 FPS vs. 120 und 2k vs 4k. Je nachdem, was ich davon vertretbarer finde, lasse ich das andere fallen. Hast du dir aber einen 4k Bildschirm zugelegt, erübrigt sich die Wahl und du bist gezwungen auf 60 FPS rumzuspielen.
Marketingrotz halt. 4k auf geringen Details geht bestimmt. ^^ AMD hat da also nicht per se gelogen, aber deswegen würde ich ja auch Benchmarks abwarten bevor ich mir was kaufe. Oder gabs da noch keine 4k Benches?
Ich hab mir die Dinger im Laden angeguckt (gut - mag jetzt kein astreiner Vergleich sein) und ich war von 4k nicht gerade sehr beeindruckt. Ist vllt. dein Bildschirm nicht ordentlich kalibriert?
Hätte, hätte, FahrradketteHätten wir ordentlich optimierte spiele, würden 8 GB mehr als locker reichen.
Hätte, hätte, Fahrradkette
Die HW muss mit den Anforderungen an sie zurecht kommen, es bringt wenig immer zu sagen dass andere etwas ändern müssen damit eine HW gut läuft.
Bei 4k sind nicht unbedingt die Texturen maßgebend, da sie meistens nicht für 4K ausgelegt sind. Es ist eher die Tiefenschärfe, die bei 4K richtig punkten kann, wenn Texturen und Objekte in der Ferne noch richtig knackig aussehen und man dadurch eine deutlich bessere Tiefenwahrnehmung erfährt.
Ist natürlich erst im richtigen Spielbetrieb zu erfahren.
Ich hab mir die Dinger im Laden angeguckt (gut - mag jetzt kein astreiner Vergleich sein) und ich war von 4k nicht gerade sehr beeindruckt. Ist vllt. dein Bildschirm nicht ordentlich kalibriert?
Ich habe bereits geschrieben, dass 4k @ 120 Hz auf maximalen Details nicht geht - schafft keine GPU
AMD ist an den Erlösen seiner Produkte interessiert und die kommen dann wenn die Leistung in realen Szenarien, bei Consumer-Grafikkarten sind das eben Spiele, passt.Basisanforderung - ja. Ne Krüppel-code performant machen ist definitiv nicht AMDs Aufgabe, oder sind die an den Verkaufserlösen beteiligt?