AMD wird die Radeon RX Vega Ende Juli auf der Siggraph 2017 vorstellen

Den einzigen Vorteil den Amd gegenüber Nvidia hat ist das man derzeit keine Karte im Highend bereich hat somit ist der Sprung von rx 580 zu Vega vielleicht doch nen ganzes Stückchen ;) Wenn dann noch der Preis stimmt warum nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man darf bei 4K aber auch nicht immer vom Grafikkracher des letzten Woche ausgehen. Ich spiele z.B. einige Spiele, die a) nicht erst letzte Woche rausgekommen sind, sondern schon älter sind, bei denen das Gameplay aber einfach sau gut ist und b) auch Spiele, die einfach nicht so mega anspruchsvoll sind, wie man es von den üblichen AAA Trash-Titeln kennt. Man kann auch einfach die Details verringern, denn 4K sind immer noch geiler, als 1080/1440, auch wenn man von Ultra auf High zurück gehen muss. Das ist weder unsinnig noch zeugt es von "recht seltsamen Vorstellungen".

Es ist also sehr wohl möglich mit aktuellen Karten in 4K deutlich mehr als 60 zu erzielen.
 
Zuletzt bearbeitet:
Man darf bei 4K aber auch nicht immer vom Grafikkracher des letzten Woche ausgehen. Ich spiele z.B. einige Spiele, die a) nicht erst letzte Woche rausgekommen sind, sondern schon älter sind, bei denen das Gameplay aber einfach sau gut ist und b) auch Spiele, die einfach nicht so mega anspruchsvoll sind, wie man es von den üblichen AAA Trash-Titeln kennt. Man kann auch einfach die Details verringern, denn 4K sind immer noch geiler, als 1080/1440, auch wenn man von Ultra auf High zurück gehen muss. Das ist weder unsinnig noch zeugt es von "recht seltsamen Vorstellungen".

Es ist also sehr wohl möglich mit aktuellen Karten in 4K deutlich mehr als 60 zu erzielen.

Gut, dann gehen unsere subjektiven Ansprüche halt auseinander - was okay ist, denn es ist ja subjektiv. Ich würde mir aber niemals einen 4k Monitor zulegen, wenn ich diese Pixelpracht nicht auch durch eine entsprechende Qualität der Darstellung unterstützen könnte.

Aber bevor ich hier hundert Hypothesen poste - nehmen wir doch mal ein... Beispiel:

Wenn ich mir jetzt ein System zusammenstellen wollte - rein hypothetisch - würde ich mir die Benchmarks für mich relevante Titel der einzelnen GPUs bei unterschiedlichen Auflösungen und Qualitätseinstellungen angucken, in meine Geldbörse gucken und mich dann entscheiden nach:

- Bildqualität (von min zu max)
- Wiederholfrequenz (von 60 bis 144 Hz)
- Auflösung (von 1080p bis 4k)

Alle 3 Sachen zusammen auf Maximum gehen nicht, weil keine GPU das bei modernen Titeln schafft und wohl auch die nächsten Generationen von GPUs das kaum schaffen werden. Für ältere Titel (das ist dein Gegenargument) brauche ich aber kein neues System. Nun ging es darum, sich ne 1080 Ti oder *noch* größer (hier sind wir schon im 1k Bereich bei den Preisen) für 4k zuzulegen. Dann passiert, dass jemand ~1.000 € für ne Graka ausgibt, um dann meine Spiele auf mittleren Details zu spielen oder Abstriche bei der Widerholfrequenz zu machen. In jedem Fall hat man dann mehrere hundert oder auch schon tausend Euro für den Bildschirm ausgegeben, 1.000 € für die GPU und man ist immer noch nicht zufrieden, weil es halt an einer Stelle hapert.

Wo würdest du, wenn du 2.000 € für Grafikpracht übrig hast (GPU + Monitor) einen Abstrich machen wollen? Bei mir wäre Bildqualität das letzte, vorher kommt Widerholfrequenz und ganz oben komme Auflösung. Die wäre ich am ehesten bereit aufzugeben, denn der Unterschied zwischen 1440p und 3840p bedeutet für mich, dass ich bei ~130 dpi mich zwischen einem 30 und einem 60 Zoller entscheiden könnte, den es im Gaming-Bereich gar nicht gibt. Wir sprechen hier also schon von TV-Gerät-Größe im sinnvollen dpi Bereich. Wir können natürlich auch unsinnvolle dpi-Auflösungen nehmen, dann ist der Kunde aber einem Bären aufgesessen.

Ich halte diese Variante als wahrscheinlichste:
Jemand hat sich auf Grund von Werbung und glitzernden Anzeigen einen 4k Monitor zugelegt, brummt sich damit eine enorme Rechenleistungsbürde auf, findet in dem Bereich nur noch Nvidia und ist dann entsetzt über die Preise.
 
und weil es keine gpu schafft, ist es also deiner meinung eh egal, ob du eine schnell nv oder eine langsame amd kaufst? DAS ist meiner meinung nach eine verdrehte logik. gut, du gehst nach budget, ich geh nach leistung.

denn eingangs ging es darum, dass einer sagt, wenn man leistung für 4k mit vielen fps will, MUSS man zu TEUREN nv karten greifen, weil amd da nichts hat. du sagst dann, dass auch die teuren karten das in 4k nicht schaffen.

dein 30 zoll, 60 zoll vergleich hinkt auch. denn es macht einen unterschied, ob ich 1080p auf 27" oder 4k auf 27" habe. ich finde einfach einen kompromiss aus guter bildqualität (settings und auflösung) zu für mich für das jeweilige spiel noch akzeptablen fps. overwatch sind mit fps wichtiger, als bildquaität. bei rising storm ist mir bq wichtiger.

das beste ist also ein 4k 120hz monitor, den ich sowohl mit hohen fps bei weniger qualität als auch mit hoher qualitä mit weniger fps befeuern kann. umgekehrt gehts bei einem 1080p schirm nicht, denn mehr als 1080 pixel hat der nicht.
 
Zuletzt bearbeitet:
und weil es keine gpu schafft, ist es also deiner meinung eh egal, ob du eine schnell nv oder eine langsame amd kaufst? DAS ist meiner meinung nach eine verdrehte logik. gut, du gehst nach budget, ich geh nach leistung.

denn eingangs ging es darum, dass einer sagt, wenn man leistung für 4k mit vielen fps will, MUSS man zu TEUREN nv karten greifen, weil amd da nichts hat. du sagst dann, dass auch die teuren karten das in 4k nicht schaffen.

Nein, ich meine dass 4k total sinnlos ist, weil das einer Diagonale von 60 Zoll oder mehr entspricht und alles darunter nicht mehr wahrnehmbar ist. Und wenn wir uns mal die Monitore für PCs angucken, gehen die bis ungefähr 34" hoch, wo wir im 2k Bereich sind.

Und im 2k Bereich hast du auf einmal:
- maximale Bildqualität
- maximale Widerholfrequenz
- Super dpi-Auflösung, weil die Pixellücken immer noch unter deiner Wahrnehmungsschwelle liegen

Und in diesem - sinnvollen - Bereich, gibts auf einmal wieder AMD. Und hossa - zu nicht-Mondpreisen. Krass.
 
Nein, ich meine dass 4k total sinnlos ist, weil das einer Diagonale von 60 Zoll oder mehr entspricht und alles darunter nicht mehr wahrnehmbar ist.

biggest bullshit

selbst bei gleicher pixel auf meinem monitor (3440x1440) nehme ich zwischen 1.2 fachem DSR je nach spiel einen deutlichen unterschied in der bildqualität wahr.

2k Bereich hast du auf einmal:
- maximale Bildqualität

bei 2k gegenüber 4k von maximaler bildqualität zu sprechen, ist doch bullshit

im prinzip sagst du, auflösung bringt keinen vorteil und deshalb langt eine amd und deshalb braucht man nicht über die nv preise weinen. was einfach bullshit ist.
 
Zuletzt bearbeitet:
biggest bullshit

selbst bei gleicher pixel auf meinem monitor (3440x1440) nehme ich zwischen 1.2 fachem DSR je nach spiel einen deutlichen unterschied in der bildqualität wahr.

Dir ist schon klar, dass du grad Äpfel mit Birnen vergleichst?

im prinzip sagst du, auflösung bringt keinen vorteil und deshalb langt eine amd und deshalb braucht man nicht über die nv preise weinen. was einfach bullshit ist.
Erzähl mir doch mal bitte, wo deine persönliche Wahrnehmungsgrenze bei Pixeldichtenunterschieden liegt.
 
Zuletzt bearbeitet:
nein, tue ich nicht, denn die bildqualität steigt deutlich mit der auflösung und diese zu befeuern kostet leistung und die gibts nur bei nv und die kostet geld. punkt.

- - - Updated - - -

Erzähl mir doch mal bitte, wo deine persönliche Wahrnehmungsgrenze bei Pixeldichtenunterschieden liegt.

du versteifst dich da auf irgendwelche richtwerte wie dpi anhand derer du mir irgenwie weismachen willst, auflösung bringt nichts bzw erst was, wenn ich von 30 auf 60 zoll gehe. größer quark ever.
 
du versteifst dich da auf irgendwelche richtwerte wie dpi anhand derer du mir irgenwie weismachen willst, auflösung bringt nichts bzw erst was, wenn ich von 30 auf 60 zoll gehe. größer quark ever.

"Irgendwelche dpi Richtwerte"... is klar... viel Spaß mit 8k bei der nächsten Generation Mr. Hyper-Falkenauge.
 
da muss jeder selbst die erfahrung machen und jeder hier mit einem 1440p 27" zoll monitor wird dir sagen, dass die bildqualität zu seinem alten 1080p 27" monitor deutlich besser ist. und so ist das auch mit 4k auf diesen 27". die bildqualität steigt. wenn ich dir erst erklären muss, was auflösung hier genau mit der BQ macht, ist mir klar, warum du auf deinem standpunkt bestehst, einfach weil dir eben diese information/erfahrung fehlt.

dass du aber mit "viel spaß bei 8k mr. falkenauge" argumentierst, disqualifiziert dich dann endgültig.
 
4K ist mMn. noch nicht wirklich relevant, ältere Spiele/Programme, teilweise auch Windows skalieren einfach (noch) nicht das UI...

1440p @144hz ist für mich jedenfalls der Sweetspot.

4K ist doch genauso ein Marketinggeschwurbel wie damals 3D... einfach um die Produkte besser zu verkaufen.
Wobei ich das bei 40"+ TVs noch verstehen kann.
Bei Monitoren finde ich Ultrawide jedenfalls sinnvoller als 4K zumal meistens! der Sitzabastand unter 1m ist.
 
Zuletzt bearbeitet:
Oh, sicher macht 1440p bei 27" einen Unterschied zu 1080p, weils ÜBER der Wahrnehmungsschwelle ist.

Etwas Mathe:
27 Zoll bei 1080p:

62 cm Breite sind 24,4 Zoll. 1920/24,4 =78 DPI. DEUTLICH unter 130 dpi.
34,5 cm Höhe sind 13,58 Zoll. 1080/13,58 = 79,5 DPI. DEUTLICH unter 130 dpi.

Mit entsprechender Kalibrierung den Monitors sind 27 Zoll hier "okay".

27 Zoll bei 1440p:
2560/24,4 = 104 dpi
1440/13,58 = 106 dpi

Bei ordentlicher Kalibrierung ist die Pixeldichte "sehr gut"

27" auf 4k:
3840/24,4 = 157 dpi
2160/13,58 = 159 dpi

Ordentlich kalibriert ist es dann... erm... was sagen die Marketingexperten? Ultra-mega-hyper-gut? So gut, dass es Grafikeinstellungen auf "mittel" rechtfertigt? Vielleicht finden Menschen die Unterschied auch so gering, dass der Qualitätsunterschied von 60 auf 144 Hz sichtbarer ist als von 1440p auf 2160p?

Hast du mehr Pixel auf dem Monitor? Jupp. Passt dadurch mehr rauf? Jupp. Wird das Bild dadurch besser? Marketing sagt ja.

Ich hab mal ein paar quellen im Netz ausgegraben, weil die 130 dpi für mich nur ein Richtwert waren den ich mir mal gemerkt habe.

Human Eyesight & 4K Viewing (gilt für Kinos - also das ganz große dicke Ding... da scheint 4k okay zu sein... aber für 27" reichts nicht?)

Eine andere Quelle ist die hier:
https://o.aolcdn.com/images/dims?quality=100&image_uri=http%3A%2F%2Fwww.blogcdn.com%2Fwww.engadget.com%2Fmedia%2F2006%2F12%2Fresolution_chart.jpg&client=cbc79c14efcebee57402&signature=41f8ee1cc2056958af325f7877186880c8211ed2

Ist schwer abzulesen, aber bei meinem 27" Monitor sitze ich ~65 cm entfernt (macht rund 2 Fuß) und wir bewegen und bei 27 - 30 Zoll bei einer auflösung von run 1440p... alles mit höherer auflösung soll nicht mehr wahrnehmbar sein.

Grob gesetzt, kommt das mit den 130 dpi also ungefähr hin. Ich bleib dabei, 4k auf 27" ist Bullenscheiße. Ab 34" macht das vielleicht irgendwann Sinn, dann sitzt man aber auch weiter entfernt von dem Ding und schon fliegt einem das wieder um die Ohren.
 
Nicht mal ne 1080 Ti kann 4k auf über 60-80 Hz ordentlich darstellen - oder du reduzierst die Details, was natürlich ziemlich unsinnig klingt, wenn man sich schon einen 4k Monitor besorgt hat.

Was zur Zeit also bleibt: 4k mit 60 Hz. 2k mit 120+ Hz. Wer 4k mit 120+ Hz haben will, dem hilft nicht mal ne Xp. Ist natürlich ein Problem, wenn man sich erst nen 4k Monitor kauft, weil man dem ganzen Marketing aufgesessen ist und dann erst feststellt, dass es noch gar keine GPU gibt, die das flüssig darstellen kann.

Der Bildschirm ist das Ziel der gesamten Verarbeitungskette. Ich bastle mein System darauf, dass es am Ende auf genau diesem Output-Gerät passt. Wer was anderes macht, hat ne recht seltsame Vorstellung einer Signalkette. Aber anscheinend ist Geld ja kein Problem für diese Käuferschicht. Sitzt ja locker. ^^

edit: Bei all dem Sarkasmus... bitte erklär mir doch mal, wie man darauf kommt sich einen 4k Monitor zuzulegen, wenn keine GPU das ordentlich über ~60 Hz schafft und man aber 120 Hz erwartet. Was geht da bei den Leuten ab? Keinen Bock sich nen Benchmark anzugucken oder wo liegt der Hund begraben? Die Industrie fängt schon an von 8k zu faseln. Intel propagiert sogar 12k (was auch immer die graucht haben).

Ab 130 DPI sieht man doch sowieso keine Unterschiede mehr mit dem Auge - es sei denn man sitzt 15 cm dicht vor der Röhre.


man soll nicht einfach von sich auf andere schliessen, wie es leider viele zu gern tun die 4K am Pc Monitor noch nie selbst zuhause hatten - ich hab hier einen 27" 4K Monitor stehen und daneben einen 24" FHD und das Bild auf dem FHD das ich früher als immer sehr gut und scharf empfand - ist für mich seit ich den 4K Monitor habe nur noch maschtig egal ob Gaming oder Arbeiten und das wird dir jeder bestätigen der selbst einen 4K Monitor hat, aber hauptsache ohne eigene Erfahrungen hier große Reden schwingen und 4K auf 27" als Bullenscheisse bezeichnen.

wer erwartet denn 120 FPS ? Ich hab nicht geschrieben das ich in 4K 100FPS brauche, mir ist schon klar das bei 4K aktuell meist bei maximal 60Fps im Schnitt Schluss ist und mehr brauche ich auch nicht und mehr habe ich mir auch nie erwartet. die 100Hz+ bzw. 100fps+ meiner Aussage bezogen sich auf FHD und 1440p denn da gibt es ja die 144Hz Panels die viele haben und für die eben FPS 100+ nötig sind und für all die Fälle ist ne Fury einfach murks und mehr Power gibt es seit über nehm Jahr bei Amd nicht und das ist einfach Fakt.

desweiteren ich hab mich auf die Aussagen von Amd verlassen als ich mir den 4K Monitor gekauft habe - von Amd hies es nämlich "AMD Fury das perfekte 4K Gaming Erlebnis" aber da wurde mir ja scheinbar von Amd die Hucke vollgelogen :d

und das Ziel war es auch nicht wie gesagt über 100 FPS auf 4K zu bekommen sondern maximal 60 wobei ich extra einen freesync 4K Monitor gekauft habe damit mir auch schon zwischen 31 und 45 FPS locker reichen um in 4K ein smoothes Gaming Erlebnis zu bekommen und genau dafür bekam Amd mein Geld und was bekam ich dafür - ein paar Monate, nämlich solange wie Amd sich wirklich Mühe mit der speziellen Treiberoptimierung hin auf die 4GB der Fury gegeben hat, konnte man einige Spiele (Farcry Primal, Dirt Rally) halbwegs smooth in 4K spielen - seit das nicht mehr passiert kommt man kaum auf 25 Fps in 4K selbst mit teils extrem reduzierten Details.

Und genau die 40-60 Fps die man für ein Smoothes Gaming Erlebnis mit einem 4K freesync/Gsync Monitor braucht schafft je nach Spiel sogar ne 1080 und eine 1080TI sogut wie immer - und auf diese Leistung warte ich bei Amd nun über ein Jahr und kein Ende in Sicht - naja vielleicht verstehst du den Sarkasmus ja nun aber ich will mal nicht zuviel erwarten :)
 
Zuletzt bearbeitet:
du scheinst nicht zu verstehen dass sich die resu auf aliasing auswirkt. also auch nach deinen 130 dpi noch einfluss auf schaerfe bzw flimmern hat. probier es aus und stelle mal 4k dsr auf deiner 11080p muehle ein. und sag mir nicht du siehst da keinen unterschied.
 
desweiteren ich hab mich auf die Aussagen von Amd verlassen als ich mir den 4K Monitor gekauft habe - von Amd hies es nämlich "AMD Fury das perfekte 4K Gaming Erlebnis" aber da wurde mir ja scheinbar von Amd die Hucke vollgelogen :d

Nö, vor 2 Jahren war das vielleicht so, meine 980ti ist mittlerweile genausowenig 4k fähig wie deine Fury...
Wenn du derzeit so unter der Fury leidest, kauf dir doch ne Nvidia oder warte bis Vega :/
Die Fury ist wirklich keine gute Karte, aber immerhin gibt das der Chef der RTG zu, was Unternehmen so gut wie nie machen (Fehler eingestehen)
Bei AMD gabs nunmal ne komplette Umstrukturierung, also erwarte keine Wunder denn die gibts nicht :P
 
Zuletzt bearbeitet:
Nein, ich meine dass 4k total sinnlos ist, weil das einer Diagonale von 60 Zoll oder mehr entspricht und alles darunter nicht mehr wahrnehmbar ist. Und wenn wir uns mal die Monitore für PCs angucken, gehen die bis ungefähr 34" hoch, wo wir im 2k Bereich sind.

Und im 2k Bereich hast du auf einmal:
- maximale Bildqualität
- maximale Widerholfrequenz
- Super dpi-Auflösung, weil die Pixellücken immer noch unter deiner Wahrnehmungsschwelle liegen

Und in diesem - sinnvollen - Bereich, gibts auf einmal wieder AMD. Und hossa - zu nicht-Mondpreisen. Krass.
Mein 40" 4K monitor widerspricht dir.

Wahrnehmbar ist das allemal, weil das dpi ähnlich zu einem 1440p 27" ist, und da redet doch auch keiner von "sinnlos".

Und wenn wir von Bildqualität reden, da gehört auflösung mit rein.

Ich hab lieber 4K mit high settings statt 2K mit ultra. Ersteres sieht besser aus, trotz etwas weniger detail settings.
Mag paradox klingen, ist aber so. Durch weniger auflösung verliert man oft mehr detail, als man mit höheren settings gewinnt.

Sent from OP3T
 
Nö, vor 2 Jahren war das vielleicht so, meine 980ti ist mittlerweile genausowenig 4k fähig wie deine Fury...
Wenn du derzeit so unter der Fury leidest, kauf dir doch ne Nvidia oder warte bis Vega :/
Die Fury ist wirklich keine gute Karte, aber immerhin gibt das der Chef der RTG zu, was Unternehmen so gut wie nie machen (Fehler eingestehen)
Bei AMD gabs nunmal ne komplette Umstrukturierung, also erwarte keine Wunder denn die gibts nicht :P

nein denn die ti hat zumindest 6GB Vram und wenn der Fury der Ram ausgeht gehts mit der TI zumindest noch ein bisschen weiter und in Verbindung mit nem Gsync Monitor geht das in 4K mit etwas reduzierten Bildverbesserenr (also weniger Antialiasing usw.) - dafür hat man ja 4K - doch noch relativ smooth mit 30-40 fps selbst bei vielen neuen Spielen zb Dishonored 2, Andromeda usw. bei der Fury geht da eben gar nichts - darum habe ich ja geschrieben wofür soll ich mich bei Amd als Fury Käufer den bedanken :wall:

und ja seit dieser Woche werkelt eine gebrauchte 1080 in meinem Rechner und die zieht zb in 4K in Sniper Ghost Warrior 3 Kreise um mein Fury zuvor mit knapp 20 Fps zu nun zwischen 35 undf 45 fps - ich hab mich lange gewehrt aber Amd will es ja nicht anders haben - mit der 1080 warte ich nun bis Vega kommt und wenn das nix wird fliegt schweren Herzens auch der Freesync 4K Monitor raus und ich switche komplett zu Nvidia inklusive Gsync - egal was es kostet - irgendwann ist die Geduld einfach am Ende da halten mich dann auch Nvidias Geschäftsgebahren und die hohen Preise nicht mehr ab- ich betreibe ja mein Hobby aus Spass an der Freude und nicht aus Spass am Warten :fresse:
 
Alles verständlich, aber warum solltest du dich bei AMD für die Fury bedanken wo wurde das behauptet?
Den Gedankengang bzgl. G-sync hab ich auch ab und zu, geh dann auf Geizhals und seh warum es ein schlechter Gedanke ist :shot:
 
Zuletzt bearbeitet:
man soll nicht einfach von sich auf andere schliessen, wie es leider viele zu gern tun die 4K am Pc Monitor noch nie selbst zuhause hatten - ich hab hier einen 27" 4K Monitor stehen und daneben einen 24" FHD und das Bild auf dem FHD das ich früher als immer sehr gut und scharf empfand - ist für mich seit ich den 4K Monitor habe nur noch maschtig egal ob Gaming oder Arbeiten und das wird dir jeder bestätigen der selbst einen 4K Monitor hat, aber hauptsache ohne eigene Erfahrungen hier große Reden schwingen und 4K auf 27" als Bullenscheisse bezeichnen.

Ich hab mir die Dinger im Laden angeguckt (gut - mag jetzt kein astreiner Vergleich sein) und ich war von 4k nicht gerade sehr beeindruckt. Ist vllt. dein Bildschirm nicht ordentlich kalibriert?

wer erwartet denn 120 FPS ? Ich hab nicht geschrieben das ich in 4K 100FPS brauche, mir ist schon klar das bei 4K aktuell meist bei maximal 60Fps im Schnitt Schluss ist und mehr brauche ich auch nicht und mehr habe ich mir auch nie erwartet. die 100Hz+ bzw. 100fps+ meiner Aussage bezogen sich auf FHD und 1440p denn da gibt es ja die 144Hz Panels die viele haben und für die eben FPS 100+ nötig sind und für all die Fälle ist ne Fury einfach murks und mehr Power gibt es seit über nehm Jahr bei Amd nicht und das ist einfach Fakt.
Wie du bereits gesagt hast, nicht von sich auf andere schließen. ;)

Ich habe bereits geschrieben, dass 4k @ 120 Hz auf maximalen Details nicht geht - schafft keine GPU. Auf was du von diesen Dingen verzichtest, ist deine persönliche Entscheidung. Bevor ich aber einen neuen Monitor kaufe, mache ich einen persönlichen Vergleichstest. Der involviert Vergleich 60 FPS vs. 120 und 2k vs 4k. Je nachdem, was ich davon vertretbarer finde, lasse ich das andere fallen. Hast du dir aber einen 4k Bildschirm zugelegt, erübrigt sich die Wahl und du bist gezwungen auf 60 FPS rumzuspielen.


desweiteren ich hab mich auf die Aussagen von Amd verlassen als ich mir den 4K Monitor gekauft habe - von Amd hies es nämlich "AMD Fury das perfekte 4K Gaming Erlebnis" aber da wurde mir ja scheinbar von Amd die Hucke vollgelogen :d
Marketingrotz halt. 4k auf geringen Details geht bestimmt. ^^ AMD hat da also nicht per se gelogen, aber deswegen würde ich ja auch Benchmarks abwarten bevor ich mir was kaufe. Oder gabs da noch keine 4k Benches?


und das Ziel war es auch nicht wie gesagt über 100 FPS auf 4K zu bekommen sondern maximal 60 wobei ich extra einen freesync 4K Monitor gekauft habe damit mir auch schon zwischen 31 und 45 FPS locker reichen um in 4K ein smoothes Gaming Erlebnis zu bekommen und genau dafür bekam Amd mein Geld und was bekam ich dafür - ein paar Monate, nämlich solange wie Amd sich wirklich Mühe mit der speziellen Treiberoptimierung hin auf die 4GB der Fury gegeben hat, konnte man einige Spiele (Farcry Primal, Dirt Rally) halbwegs smooth in 4K spielen - seit das nicht mehr passiert kommt man kaum auf 25 Fps in 4K selbst mit teils extrem reduzierten Details.
Du kannst jetzt nicht AMD für jedes nicht-optimierte Spiel den Hasen zuschieben. Der Game-Code mancher Spiele ist einfach nur grottig. Es ist ein Unding, dass AMD überhaupt Treiberoptimierungen rausbringt, denn das ist ja eigentlich nicht deren Bier - trotzdem tun sie es und die Entwickler vertrauen darauf, dass der "Treiber das schon richten wird".

Kauf einfach nicht das Spiel, wenns unoptimiert nicht rennt und lass den Entwicklern nen 3 Zeiler stehen "Ich hätte euch gerne 50 Flocken dafür gegeben, aber so nicht." Wie viele Spiele haben nach Performance-Kritik nen Patch bekommen, welcher die Leistung dann auf magische Weise gesteigert hat? Was ein ordentlich programmiertes Spiel kann zeigen ja deine Beispiele, oder Doom.



Und genau die 40-60 Fps die man für ein Smoothes Gaming Erlebnis mit einem 4K freesync/Gsync Monitor braucht schafft je nach Spiel sogar ne 1080 und eine 1080TI sogut wie immer - und auf diese Leistung warte ich bei Amd nun über ein Jahr und kein Ende in Sicht - naja vielleicht verstehst du den Sarkasmus ja nun aber ich will mal nicht zuviel erwarten :)
Ich warte auch auf Vega. Nur ich kauf mir vorher keinen 4k Monitor. ;) Signalkette! Das Ding, was die Vorstadt-Halbstarken um den Hals tragen und in der Sonne glitzert! ;-P


du scheinst nicht zu verstehen dass sich die resu auf aliasing auswirkt. also auch nach deinen 130 dpi noch einfluss auf schaerfe bzw flimmern hat. probier es aus und stelle mal 4k dsr auf deiner 11080p muehle ein. und sag mir nicht du siehst da keinen unterschied.

Wenn ich eine Billionen Pixel auf einen 27" Bildschirm presse hast du mehr Pixel da drin, die du trotzdem nicht voneinander unterscheiden kannst. Das ist wie mp3. Ab einer bestimmten Auflösung hörst du keinen Unterschied mehr! Ab einer bestimmten Pixeldichte kannst du die Pixel nicht mehr unterscheiden!

Du redest hier von AA, oversampling und sonstigen Softwaremethoden Artefakte zu unterdrücken und mehr subpixelinfos zwischen die Pixel zu drücken. Das eine ist ein Apfel, das andere eine Birne!

Aber weißt du was? Ich machs einfach. Ich gehe in den nächsten Laden, knall mir ein 2k Display und ein 4k Display vor die Augen und betrachte nachdem ich beide 5 Minuten selbst kalibriert habe die unterschiedliche Bildqualität bei nativer Auflösung.

edit: Ich bezweifle aber, dass die entsprechendes Quellmaterial haben ums korrekt evaluieren zu können. Wenn die so einen bunten Papageien auf 2 Monitoren abbilden, ist das immernoch ein voller Papagei in unterschiedlichen Auflösungen - also nicht nativ dargestellt. Ich besorg mir mal entsprechendes Quellmaterial, frag höflich ob ich das angucken darf. Vielleicht hab ich ja Glück.
 
Zuletzt bearbeitet:
Alles verständlich, aber warum solltest du dich bei AMD für die Fury bedanken wo wurde das behauptet?
Den Gedankengang bzgl. G-sync hab ich auch ab und zu, geh dann auf Geizhals und seh warum es ein schlechter Gedanke ist :shot:

liest den die Antworten hier den wirklich wer auch mal genau :d - Shevchen meinte in einem Beitrag man muß sich bei Amd dafür bedanken das Nvidia Preise nicht komplett abheben (womit er bis zu einen bestimmten Grad ja auch recht hat und ich bin durchaus froh das Amd zumindest im Einsteigerbereich ein bisschen eine Alternative bietet) aber in meinem aktuellen Ärger über diese dauernde Hinausschieberei hab ich dann eben als (seit dieser Woche ehemaliger) Fury Besitzer sarkastisch gefragt wofür ich mich dafür bei Amd bedanken soll .. ;)

Wie du bereits gesagt hast, nicht von sich auf andere schließen. ;)

Ich habe bereits geschrieben, dass 4k @ 120 Hz auf maximalen Details nicht geht - schafft keine GPU. Auf was du von diesen Dingen verzichtest, ist deine persönliche Entscheidung. Bevor ich aber einen neuen Monitor kaufe, mache ich einen persönlichen Vergleichstest. Der involviert Vergleich 60 FPS vs. 120 und 2k vs 4k. Je nachdem, was ich davon vertretbarer finde, lasse ich das andere fallen. Hast du dir aber einen 4k Bildschirm zugelegt, erübrigt sich die Wahl und du bist gezwungen auf 60 FPS rumzuspielen.

Mir war von Anfang an klar das mit der Fury nicht mehr als maximal 60 fps in 4K gehen und selbst das nicht immer - ich wollte auch nie mehr als maximal 60 Fps - mit freesync reichen mir auch zwischen 35 und 40 fps damit für mich ein smoothes ergebnis in Verbindung mit meinem 4K freesync Monitor rauskommt, nur konnte ich selbst das nur etwa 1 halbes Jahr bis 1 Jahr lang mit der Fury bekommen und seitem schafft man kaum 20 bis 25 Fps weil eben leider auch der Vram immer öfter limitiert und das durch gesonderte Treiberpflege von Amd nicht mehr verbessert wird - also ähnlich der 970 von Nvidia solange opimiert wurde alles ok - danach Ende im Gelände. (nur das Nvidia dann halt noch bei der Hardware selbst gelogen hat - aber das wurde ja schon zur Genüge druchgekaut und war mit ein Grund warum ich zur Fury statt zur 980ti griff)

Marketingrotz halt. 4k auf geringen Details geht bestimmt. ^^ AMD hat da also nicht per se gelogen, aber deswegen würde ich ja auch Benchmarks abwarten bevor ich mir was kaufe. Oder gabs da noch keine 4k Benches?

natürlich gab es Benches und die sahen ganz am Anfang (als eben die Treiber perfekt auf Fury getrimmt waren und der Vram Hunger der Spiele zumindest ein bisschen geringer) auch durchaus gut aus und das war neben einigen anderen Gründen (Verhalten von Nvidia rund um die 970er ist ein anderer) eben ausschlaggebend um zur Fury zu greifen. Aber das bereute man eben spätestens nach einem Jahr denn dann wurden die Spiele anspruchsvoller und die 980Ti sowie die Fury (nur die durch den geringeren Vram noch früher) bekamen Probleme und ab da fing mir an Amd leicht auf die Nerven zu gehen - denn bei Nvidia bekam man dann in Form der 1080 schon massig mehr Leistung und kann heute eben mit Gsync problemlos mit 40-60 Fps auf 4K spielen und bei Amd bekommt man heute immer noch nichts um die neuerern Games in 4K zu spielen...

wer keinen 4K Monitor hat sieht das natürlich anders trotzdem kann ich jedem nur sagen wer einmal in 4K mit min 60 fps bzw mit sync (von wem auch immer ) und ca 40 fps unterwegs war der erfährt einen wahren Augenöffner :d Für mich kann Amd das nur noch rumreißen wenn die Leistung der größten rx vega Karte mindestens auf TI Niveau ist alles andere ist für mich nach der langen Zeit uninteressant und wie gesagt dann endgültig ein Grund zu Nvidia zu wechseln inklusive Monitor

so das war aber mein letztes Fury Geflamme ( es brodelt halt in mir da diese Grafikkarte wirkliche meine schlechteste Kaufentscheidung im Bereich Hardware der letzten 10 Jahre war :d und ich gezwungen war sie weit länger zu benutzen als gewollt einzig in 1440p würde ich Fury als halbwegs brauchbar in Verbindung mit freesync sehen ) nun bin ich mit Nvidia unterwegs und muß mich erstmal wieder schlau lesen was es da alles zu beachten gibt auch bezüglich Treiber Eigenheiten und so weiter ...
 
Zuletzt bearbeitet:
Bewegte Bilder sehen mit einer höheren Auflösung einfach schärfer aus, ich selber habe bei einem FHD-Monitor immer 8xS Comined genutzt
 
Zuletzt bearbeitet:
@ilovebytes
Okay, ich kann deinen Standpunkt verstehen. Aber ich hätte mit 4 GB VRam eine Graka niemalsnicht auf 4k laufen lassen. Auf 2k läuft das Teil ja auch schnuckelig und bringt da die Performance einer 980, aber wie du bereits gesagt hast, hat wohl auch AMD keine Lust mehr da Optimierungen nachzuschieben. Statt dessen gießen sie das jetzt in Hardware und es fühlt sich so an, als hätte AMD die Hoffnung aufgegeben, dass die großen Spielestudios irgendwas drauf geben, was in der Doku für gute Entwicklung steht.

Hier muss man aber auch ehrlich sein und die Spiele selbst betrachten. Dieser "fast food" AAA-Zirkus ist halt nicht darauf ausgelegt super toll zu laufen. Doof nur, dass Spieler halt auf Spiele stehen und die Industrie so weit fett gefüttert haben, dass wir jetzt sowas schönes wie Mikro-Transaktionen, Sason-Passes um das komplette Spiel freizuschalten und mindestens 3 DLCs für den gesamten Inhalt brauchen, um das "volle Erlebnis" zu haben.

Wenn du sowas als Vermarkter hast, erwartest du da qualitativ hochwertigen und optimierten Code?

Ich seh da schlichtweg nix, wofür man AMD da großartig haftbar machen kann, aber eine Menge, wofür ich den AAA-Giganten gerne in den Allerwertesten treten möchte. Aber das Pressen der Lösungen in Hardware hat auch einen Vorteil: Da sowohl Team grün als auch Team rot jetzt ähnliche Methoden zur Grafikverarbeitung benutzen, kommen die Entwickler nicht mehr drumherum für beide zu "optimieren". Was auf der 1080 Ti doof läuft, wird auch auf Vega doof laufen und umgekehrt. Es gibt zwar noch ein paar Kleinigkeiten bezüglich Vulkan, die interessiert aber nur eine handvoll Spiele.

Egal - Fury ist gegessen, 4 GB waren nie genug für ihre Rohleistung und AMD hat lieber die Mannstuden benutzt Vega zu entwickeln, als per Software noch irgendwelche fixes für Fury zu basteln.

Für Vega dürften 8 GB bei 4k aber so langsam ordentlich werden, auch wenn es hier und da mal knapp werden könnte. Hätten wir ordentlich optimierte spiele, würden 8 GB mehr als locker reichen.

Zum Thema Bildqualität bei 4k hab ich ja schon gesagt, dass ich mir das mit entsprechend validem Quellmaterial mal angucken will. ^^
Für meine persönlichen Ansprüche sind 120+ Hz aber schon etwas, dass ich gebrauchen kann, da Sachen wie Star Citizen auch einen FPS-Anteil haben. Aber ich kaufe mir eh keinen neuen Monitor, bevor da nicht Freesync 2 drauf steht. Rest entscheidet dann die Benchmarkübersicht, nachdem Vega draussen ist.
 
Ich hab mir die Dinger im Laden angeguckt (gut - mag jetzt kein astreiner Vergleich sein) und ich war von 4k nicht gerade sehr beeindruckt. Ist vllt. dein Bildschirm nicht ordentlich kalibriert?

Bei 4k sind nicht unbedingt die Texturen maßgebend, da sie meistens nicht für 4K ausgelegt sind. Es ist eher die Tiefenschärfe, die bei 4K richtig punkten kann, wenn Texturen und Objekte in der Ferne noch richtig knackig aussehen und man dadurch eine deutlich bessere Tiefenwahrnehmung erfährt.
Ist natürlich erst im richtigen Spielbetrieb zu erfahren. :)
 
Hätten wir ordentlich optimierte spiele, würden 8 GB mehr als locker reichen.
Hätte, hätte, Fahrradkette
Die HW muss mit den Anforderungen an sie zurecht kommen, es bringt wenig immer zu sagen dass andere etwas ändern müssen damit eine HW gut läuft.
 
Hätte, hätte, Fahrradkette
Die HW muss mit den Anforderungen an sie zurecht kommen, es bringt wenig immer zu sagen dass andere etwas ändern müssen damit eine HW gut läuft.

Basisanforderung - ja. Ne Krüppel-code performant machen ist definitiv nicht AMDs Aufgabe, oder sind die an den Verkaufserlösen beteiligt?

Bei 4k sind nicht unbedingt die Texturen maßgebend, da sie meistens nicht für 4K ausgelegt sind. Es ist eher die Tiefenschärfe, die bei 4K richtig punkten kann, wenn Texturen und Objekte in der Ferne noch richtig knackig aussehen und man dadurch eine deutlich bessere Tiefenwahrnehmung erfährt.
Ist natürlich erst im richtigen Spielbetrieb zu erfahren. :)

Okay, ich werd mal drauf achten.
 
Zuletzt bearbeitet:
Ich hab mir die Dinger im Laden angeguckt (gut - mag jetzt kein astreiner Vergleich sein) und ich war von 4k nicht gerade sehr beeindruckt. Ist vllt. dein Bildschirm nicht ordentlich kalibriert?

Ich habe bereits geschrieben, dass 4k @ 120 Hz auf maximalen Details nicht geht - schafft keine GPU

Boah wenn ich nochmal kalibiriert lese, drehe ich durch. Farben kalibriert man, nicht Auflösungen! Und natürlich steigt die Bildqualität. Aufgrund Deiner Matheaufgaben sieht man ja auch, das man Deinen gegebenen 130DPI+ DPI lieber erreicht als nicht, darum sind 27"4K natürlich besser als 27"2K. Wenn Du das nicht siehst, ist doch super, kannst Dir das Geld sparen. Bloß weil Du nach Deiner Matheaufgabe 20-30DPI verschenkst, weil Du es dann nicht siehst, so what? Ziel erfüllt ist besser als nicht erfüllt.

Natürlich gehen auch 4k@120hz/fps, kommt halt auf das Spiel an, nur Monitore mit GSync/Fressync gibt es NOCH nicht, aber sind ja immerhin angekündigt.
 
Zuletzt bearbeitet:
Basisanforderung - ja. Ne Krüppel-code performant machen ist definitiv nicht AMDs Aufgabe, oder sind die an den Verkaufserlösen beteiligt?
AMD ist an den Erlösen seiner Produkte interessiert und die kommen dann wenn die Leistung in realen Szenarien, bei Consumer-Grafikkarten sind das eben Spiele, passt.
Ist ja nicht so dass der andere große Hersteller etwas anderes machen müsste, nämlich seine HW so performant wie möglich machen.
Krüppel-Code wird nie perfekt laufen, da geht es dann darum welcher der beiden Chiphersteller besser damit zurecht kommt.

Und zwecks 4k:
Sobald AMD eine Karte hat um 4k ordentlich zu befeuern wirst Du Feuer und Flamme für 4k sein, da wette ich jetzt schon.
Deinen Augen werden sich plötzlich neu kalibrieren :haha:
 
Zuletzt bearbeitet:
1440p, 27", IPS und144hz finde ich jetzt auch sehr angenehm.
Der "Wow-Effekt" von 60hz auf 144hz war bei mir aber größer als der von 1080p zu 1440p.

Eine etwas höhere Pixeldichte könnte ich noch vertragen bei 70cm sitzabstand.
Irgendwas zwischen 2160p und 1440p vielleicht ^^
4k 27" wäre da glaub ich schon in nem Bereich wo ich's nicht mehr merken würde was da so viel Grafikleistung frisst :p
 
Was bei der Diskussion um 4k-Monitore vergessen wird: zocken ist nicht für jedermann alles. Ich habe jetzt fast 1 Jahr lang einen 4k Monitor mit einer RX480 befeuert... beim zocken ist das nicht optimal, nein, auch wenn mir z.B. Overwatch auf 4k mit hohen Details und 60 FPS lieber ist als auf 1080p (bzw. 1920*1200 bei mir) mit Ultra und 100+ FPS (auf einem 60hz Monitor, wohlgemerkt). Wahrscheinlich wäre was mit 1440p und höherer Frequenz der bessere Sweetspot für Gaming und sonstiges.. aber bei mir ist Gaming eher so 25% der Zeit, die ich vorm Rechner verbringe, und davon ist dann nochmal ein nicht ganz zu vernachlässigender Teil Overwatch, Hearthstone oder andere weniger anspruchsvolle Spiele.

Aber, klar, für AAA-Titel wie The Witcher etc etc hätte ich auch gerne mehr Grafikpower und warte deshalb sehnsüchtig auf Vega. 1080p auf nem 4k Monitor sieht halt scheiße aus, auch wenn einige anderes behaupten ^^

tl;dr: 4k für Gaming-Enthusiasten macht tatsächlich nur begrenzt sinn, aber wer an seinem Rechner primär arbeitet, surft etc, der kann von 4k enorm profitieren und mit gewissen Kompromissen auch gut zocken.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh