AMD wird die Radeon RX Vega Ende Juli auf der Siggraph 2017 vorstellen

Boah wenn ich nochmal kalibiriert lese, drehe ich durch. Farben kalibriert man, nicht Auflösungen!

Ich kann diese "Diskussion" hier eh nicht ernst nehmen, aber bei sowas kann man schon mal schmunzeln.
Setz dich zunächst mal auseinander mit dem Wort, welches du nicht so gerne magst. Nimm dazu vielleicht andere Quellen als Wikipedia, Galileo oder den nächsten Youtuber. Stell dann mal neben nen sauber kalibrierten TXP65VT50 so eine 4K Quarkschüssel, am besten von Samsung (die haben so schönes Hochglanzplastik) und natürlich auch in gleicher Größe!
Wenn wir dann das identische Quellmaterial ansehen, aus einem normalen Sitzabstand von ~ 4 Metern und du mir dann erzählst dass 4K krass schärfer ist und das Bild viel plastischer und lebhafter dann kann ich dir a) in die Augen sehen und gucken ob sich da Rädchen drehen und b) gegebenenfalls ne Schelle verpassen ;) Nichts für ungut, dieses Thema triggert mich von Anfang an und trotzdem les ich solche Threads dann doch und ärger mich anschließend ^^

Viele holen sich einen runter auf 400Hz motion blur bullshit, mit diesem Käse haben sie damals schon bei FHD rumgenervt, genau wie mit all den anderen "Bildverbesserern". Einfach mal alles aus machen und das Quellmaterial so ansehen wie es gedacht ist.
Gut, es gibt Leute die schauen sich wirklich den ganzen Tag irgendwelche Demovideos an, die auf 4K abzielen. Schöne bewegungs(geschwindigkeits)arme Bilder, unterstützt von allem was an Farbe und Kontur rummogelt. Aber davon rede ich nicht, denn auch diesen Käse gab es bereits für FHD.
Blockbuster in dem von mir genannten Szenario, einmal 2K einmal 4K, 65". Unterschied nein, nein.
Bei 80" und unverändertem Sitzabstand können wir anfangen zu reden (sinnbefreite Theorie, keiner hat seine Eckcouch so dicht an nem 80" TV) und derjenige, der halt seine 180" Leinwand inkl optimiertem Raum sein Eigen nennt, ja bitte, der möge zu 4K greifen und davon profitieren, denn der hat seine Einzelsessel sicherlich recht dicht an der LW. Ist aber ne andere Fraktion Mensch, weil bei denen steckt 50% des Geldes im Raum selber (Farbe, Holz, Absorber, ...) und dann nochmal AVR, Endstufen, Lautsprecher, LW und Beamer. Ist man schnell mal 60k los.

Natürlich sieht es bei Briefmarken Panels ganz anders aus. Bei winzigen 27" macht 4K, ja besser 8K natürlich absolut Sinn! Wenn man diese mit Tape vor seine Augen schnallt :d
FHD reicht völlig aus. Farben Schärfe Kontrast alles vernünftig einstellen und fertig. Dann sieht der 4K Monitor daneben auch nicht besser aus. Man kann diesen natürlich aggressiver einstellen, so wie halt die TVs im Blödmarkt, das gefällt vielen Menschen ja ganz gut (ich persönlich bekomme Krebs davon wenn ich zu lange hinsehe), man darf dann auch sagen 'mir gefällt das so besser'. Es wird dadurch aber nicht das bessere Bild ;)

Ich bin übrigens nicht halb blind oder so, laut ärztlicher Untersuchung sehe und höre ich sehr gut, dicht am Limit des Möglichen optisch und im Limit des Möglichen akustisch.
Wer tiefer in das Thema einsteigen möchte kommt um die Auseinandersetzung mit sehr trockenen Physikbüchern nicht herum. Erstmal Wellen begreifen und vielleicht wie man die Auflösung des menschlichen Auges misst. Tut man dies nicht, dann kommt so ein Hin und Her zustande wie man es überall in Foren verfolgen kann.
Aber einige zanken sich ja sicher auch um des zanken Willens ;)

Ich schließe ab mit dem Fazit: Jeder wie er mag. Man muss niemanden missionieren, dafür haben wir Religionen und Veganer. Ich habe im Laufe meines Lebens viele viele Menschen und deren HiFi Equipment kennengelernt..bei neun von zehn Menschen ist das alles Wurstsalat. Und das hat leider nichts mit Bildungsstand zu tun, sondern mit der Zufriedenheit des Endverbrauchers. Ich kenne Leute die sind mit nem 5.1 T...el Set zufrieden an nem Unter(st)klasse Receiver. Ich kenne Leute, die machen sich keinen Stress und stecken FR an C, RL an FR und so weiter. Ohne mich zu warnen. Und dann kommt da Ton raus und mir fallen die Ohren einfach ab (bei sowas helfe ich natürlich sofort aus, schon aus Selbstschutz ^^). Oder ein HDReady Beamer auf Raufasertapete, 3 Meter Diagonale bei 4,5 Meter Sitzabstand. Darf ja jeder mit seiner Meinung zufrieden sein, aber bitte nicht die Veganertour aka "ich brabbel was was ich irgendwo aufgeschnappt habe und habe das Bedürfnis dich und jeden anderen zu überzeugen dass ich recht habe von etwas was ich nicht verstehe"
Und nicht immer alles so verbissen ernst nehmen. Life is fun =)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
4K Gaming ist sowieso der größte Witz weil 30FPS auf 60Hz ohne Sync aussehen wie eine Bildstörung.

Wer auf 60fps und ruhige Frametimes optimiert, hat dein Problem da nicht ;)

Aber gut, deiner Ansicht nach ist ja auch 144Hz das Minimum für alles und jeden. Jemand der 60Hz als absolut flüssig genug ansieht, kanns ja garnicht geben, richtig? 99% der Spieler wissen garnicht, was ihnen gefällt, nur du weißt es besser.
 
Wie kann man wissen was Einem gefällt wenn man es nicht kennt !? 60Hz ist Minimum, 120/144Hz ist Medium und 240Hz ist Maximum.
Für 30-60FPS kann man sich auch eine Konsole kaufen. Der TV macht sogar kostenlos 4K Upscaling. Kostet nur 200€ und sieht gut aus.
Die Bewegtbilddarstellung von 60FPS@60Hz ist einfach veraltet aber Gewohnheitstiere und Fortschrittsverweigerer gibt es ja immer. :p

man kanns testen und dann merken, dass einem mehr Pixel und Details und Eye Candy wichtiger sind als von 60 auf 144fps zu gehen.

mit fortschrittsverweigerung hat das nichts zu tun, sondern mit persönlichen präferenzen. aber wenn man natürlich nur die eigene wahrheit als die einzig wahre akzeptiert und zulässt, wirds schwer...
 
Wer sich für 4K entscheidet der begrenzt sich auf 60Hz und wer kein G-Sync hat der muss Tearing oder Input Lag ertragen, das hat nichts mit gutem Gaming zu tun.
Also entweder jetzt WQHD/144Hz/G-Sync bzw. UWQHD/100Hz/G-Sync oder noch 2-3 Jahre warten bis 4K 144Hz G-Sync/FreeSync für Jedermann erschwinglich wird.

lol. Sorry aber ne. WQHD und auch UWQHD sind mir zu wenig Pixel. Hab mich an 4K gewöhnt. Und selbst die größten Ultrawides sind mir iwie noch zu klein.

muss aber sowieso lachen bei der Aussage "kein gutes Gaming". Komm von deinem hohen Ross mal runter. Deine Meinung ist nicht die Meinung aller. Es geht hier durchaus stark um subjektive Eindrücke. Du düdelst mir nur wegen hohen Hz und Sync vor, ich will aber lieber mehr Details und größeres Bild. Das gibts mit 144Hz noch nicht, also geht - nach MEINEN Prioritäten - 4K vor. Versuch du mir doch nicht zu erzählen, was mir am besten gefällt.

Ja, ich beschränke mich auf 60Hz und habe manchmal Tearing (was mir aber eigentlich auch hart egal ist, soferns nicht krass in der Mitte des Screens ist. Hat mich über 10 Jahre auf LCDs nicht arg gestört. Wenns sehr aus dem Ruder läuft, nehm ich vlt VSync, oder spiel das Spiel einfach nicht viel. Wobei das eher selten ist.). Aber FÜR MICH ist (U)WQHD halt kein genügender Ersatz.


Lern das doch bitte endlich: jeder hat seine Präferenzen und Prioritäten. Du versuchst jedes mal bei diesem Thema allen Leuten vorzuschreiben, was denn nun als gutes Gaming durchgeht und was nicht, und dass doch jeder ohne 144Hz Sync Monitor nur Grütze hat und ist und nicht weiß was gut ist. Das ist Blödsinn. Punkt.
 
... muss letztendlich jeder selber entscheiden, ich bevorzuge aber auch eher ein flüssigeres Bild jenseits der 100fps und geringen Inputlag. Ich spiele aber auch Multiplayershooter, wenn ich anderer Singleplayerspiele zocken würde, wäre es mir wahrscheinlich auch nicht so wichtig.

Aber worum ging es hier in dem Thread überhaubt?
 
"wer nicht in 1080p @60Hz zockt, ist kein Zocker. Punkt."
das war Ironie.

ging hier im thread darum, dass AMD die Radeon RX Vega Ende Juli auf der Siggraph 2017 vorstellen will ...
wir werdens sehen. ob wir dann auch benches zu sehen bekommen?
 
"wer nicht in 1080p @60Hz zockt, ist kein Zocker. Punkt."
das war Ironie.

ging hier im thread darum, dass AMD die Radeon RX Vega Ende Juli auf der Siggraph 2017 vorstellen will ...
wir werdens sehen. ob wir dann auch benches zu sehen bekommen?

Nein AMD wird diesmal vollständig auf "benches" respektive Balken verzichten. ;)
 
Natürlich sieht es bei Briefmarken Panels ganz anders aus. Bei winzigen 27" macht 4K, ja besser 8K natürlich absolut Sinn! Wenn man diese mit Tape vor seine Augen schnallt :d
FHD reicht völlig aus. Farben Schärfe Kontrast alles vernünftig einstellen und fertig. Dann sieht der 4K Monitor daneben auch nicht besser aus.

Ich habe hier einen 27" 4k-Monitor und einen 24" 1920*1200-Monitor. Beides gute IPS-Panels. Ersterer liefert das deutlich bessere Bild. Gerade die Schriftdarstellung ist ein deutlicher Unterschied. Und auch spiele in 4k sehen fantastisch aus. Für mich war das ein veritabler Aha-Moment, als ich das erste Mal den 4k-Monitor live gesehen habe. Und es liegt auch garantiert nicht dran, dass ich mir den Preis schönreden will, immerhin habe ich ihn umsonst bekommen und hatte eher das Problem, das meine ursprünglich gerade erst gekaufte (gebrauchte) Grafikkarte die 4k überhaupt nicht liefern konnte :d
 
Mimimi, dann muss ich doch eine geforce kaufen, mimimi da dauert noch ure lang, mimimi, das ist nicht so uber mega super, wie ich erwartet habe. Meine Güte, man könnte meinen, AMD arbeitet nur für euch und macht seine Arbeit nicht gut. Kommt mal runter, von eurem hohen HW Ross und akzeptiert, dass nicht immer Alles so läuft, wie ihr es gern hättet. Kauft eure Intel und Geforce und heult dann im nächsten Thread rum, weil ihr 5 FPS zu wenig habt.

Man vertröstet die Kunden jetzt seit einem Jahr. Das ist kein mimimi. Das nenne ich schlechte Arbeit. Des weiteren gibt es bis jetzt immer noch 0 Infos. Prey in 4K schafft auch eine 1080 Ti flüssig. Und die ist verfügbar.

Gibt es überhaupt mehrere Modelle zum Start? Wie hoch soll der Preis sein? All das wissen wir immer noch nicht. Nur in 1 1/2 Monaten soll wohl was kommen.
 
AMD Radeon Vega: Mit zwei GPUs schneller als Geforce 1080 Ti


Auffällig bei diesen Einträgen in der Liste sind die Device-IDs. Allem Anschein nach bereitet der Hersteller jeweils zwei Modelle vor, die technisch auf der gleichen Basis aufbauen. Trotz der ähnlichen Bezeichnung, die zumeist bei grundsätzlich ähnlichen Modellen gewählt wird, unterscheiden sich 6863:00 und die 6861:00 an einem entscheidenden Punkt: Sie besitzen Grafikspeicher mit Größen von acht bzw. 16 Gigabyte. Dies könnte ein Hinweis darauf sein, dass der Hersteller von Beginn an auf eine Grafikkarte mit zwei GPUs setzt, bei denen im Inneren ein jeweils acht Gigabyte großer HBM2-Speicher integriert wird.


Interessant, na hoffentlich stimmt das nicht... auf dual GPU als TI Gegner kann ich wirklich verzichten... und das würde auch zeigen, dass VEGA im Highend Segment ein Griff ins Klo wäre
 
Die 6863:00 und 6861:00 werden entweder Prototypen oder Nanos gewesen sein - wie man unschwer am Takt sehen kann - was da steht ist wieder purer BS.
Die 687f werden die Finalkarten sein.
687f:c3 -> Core
687f:c1 -> Eclipse
687f:c0 -> Nova (fehlt in der Liste)
 
Zuletzt bearbeitet:
Man vertröstet die Kunden jetzt seit einem Jahr. Das ist kein mimimi. Das nenne ich schlechte Arbeit. Des weiteren gibt es bis jetzt immer noch 0 Infos. Prey in 4K schafft auch eine 1080 Ti flüssig. Und die ist verfügbar.

Gibt es überhaupt mehrere Modelle zum Start? Wie hoch soll der Preis sein? All das wissen wir immer noch nicht. Nur in 1 1/2 Monaten soll wohl was kommen.

Für den Kunden mag das stimmen, für die Konkurrenz bleibt bei Erscheinen allerdings weniger Zeit zu reagieren.
 
Zuletzt bearbeitet:
Welche Konkurrenz soll worauf reagieren? Mit 8GB HBM & schneller als eine 1080 ? Da gibt es schon was seit geraumer Zeit ....
 
Hast ne Quelle die zu 100% belegt wie schnell Vega ist bzw. wie teuer?
Oder hast du ne Glaskugel?

Ich meine, dass bisher sogut wie alles auf Spekulationen beruht.
Finde es selber scheiße, dass es nix Konkretes gibt, aber entweder wartet man oder kauft Nvidia, so einfach ist das und Letzteres kommt für mich erstmal nicht mehr in Frage.
 
Zuletzt bearbeitet:
und am Ende hat die kleine Vega nur soviel Power wie ne r9 nano und wird mit 8GB vollvermarktet...

nutzt die Zeit um Geld zu sparen. Anthem kommt
 
Was soll Anthem sein?
 
Für den Kunden mag das stimmen(...)

... und der soll das Produkt ja kaufen. Es sei denn, ich haette die Wertschoepfungskette irgendwie nicht verstanden.

(...)für die Konkurrenz bleibt bei Erscheinen allerdings weniger Zeit zu reagieren.

Also ist es AMD, die NVIDIA vor sich her treiben? Dein Ernst?

AMD muss (!) reagieren. Je laenger sie warten, um so schwerer wird das. Noch ist die Messlatte gruen und heisst GTX 1080 Ti. Und die ist verdammt hoch.
 
Und dann muss man dem Kunden nach klar machen, wieso man für ein Produkt, was 1 Jahr Verspätung hat, noch den preis der Konkurrenz zahlen soll.
 
Wie gesagt, einige warten, andere die das nicht wollen/können sollen einfach zu NV greifen, ganz easy ;)
Ich für meinen Teil, werde NV so schnell kein Geld mehr zuschieben, haben sie selber verbockt.
 
Zuletzt bearbeitet:
Dann darf AMD aber jetzt auch nicht jammern, falls der Marktanteil wieder fällt.
 
Wie gesagt, einige warten, andere die das nicht wollen/können sollen einfach zu NV greifen, ganz easy ;)
Ich für meinen Teil, werde NV so schnell kein Geld mehr zuschieben, haben sie selber verbockt.

ich hab mir nach der 970 Aktion geschworen sicher keine Grüne Karte in den nächsten Jahren aber irgendwann möchte man seine Games halt auch mal spielen und nicht nur warten und das geht bei etwas gehobenen Ansprüchen (FHD, 1440p mit 100 fps+ oder 4K mit 50fps+) seit geraumer Zeit leider nur noch mit Nvidia, dazu noch der üble fury flop - hmm Vega muß schon wirklich gut werden damit ich nicht auch noch meinen freesync monitor gegen einen mit gsync tausche
 
Wenn es wenigstens eine Fury mit 8 GB gegeben hätte, die wäre ja noch gegangen. Aber so.
 
wem sagst du das - darum flog meine fury auch raus - aber eines muß man einfach wertfrei sagen- vom Kühler her war die Sapphire Tri-X das beste (leiseste) her was ich ab Werk jemals im Pc hatte und das trotz den über 300 Watt die sich die Fury übertaktet an Strom genehmigte ich hoffe das wir bei Vega wieder einen solchen Kühler von Sapphire sehen werden - dagegen wirkt der Kühler meiner 1080 gerade sehr filigran und klein :d
 
Und wieso soll ich dann die Konkurrenz nehmen? Die sich ein Jahr Zeit gelassen hat? Wo ist für mich der Vorteil?
 
wo ist denn dein nachteil? und vor allem warum solltest du einen vorteil haben?
warum sollte man ein vergleichbares produkt unter wert verkaufen, wo ist da der sinn?

nur weil ein produkt verfügbar ist, heißt das ja noch lange nicht, dass der markt gesättigt ist.
sonst könnte man die produkte ja noch 4 wochen wieder aus den regalen holen.
 
ob Vorteil oder Nachteil - Fakt ist auch das man mit einem gleichstarken und gleichteuren Produkt wenn man 1 Jahr später damit auf den Markt kommt, einen wesentlich kleineren Käuferkreis hat....


@unl34shed
naja wenn vega dann endlich mal für consumer kommt gibt es die 1080 seit über 1 Jahr die TI seit nem halben und bei Amd gibt es seit 2 Jahren Fury als das leistungstärkste Produkt....
 
Zuletzt bearbeitet:
wobei die frage bleibt wie relevant das für den hersteller ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh