- Mitglied seit
- 15.11.2002
- Beiträge
- 27.146
Kann man das irgendwie auf Nvidia übertragen? Gibt es da Daten?
Noch nicht wirklich nein. Jemand hat die gleiche Anwendung wohl mit einer GeForce RTX 3080 ausgeführt und kommt auf 630 FPS.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Kann man das irgendwie auf Nvidia übertragen? Gibt es da Daten?
Gibt's schon, bringt einem aber nix wenn man noch n gsync Monitor hat, und ich bin nicht gewillt, den zu wechselnUnd ein gsync equivalent gibt es bei AMD oder besser gesagt im Standard natürlich nicht...
naja, gsync jetzt als pluspunkt für nv hinzuschreiben, finde ich doch etwas speziel...Ahh okay
Dann hat AMD das ja wirklich geschafft. Mal besser als die 3080, mal schlechter, insgesamt also ziemlich exakt die selbe Performance.
Zumindest in WQHD, außer ich hab mich wieder verguckt und die Balken waren für 4k
Edit,
Nope WQHD.
Gut, ist eh meine Auflösung, dann stellt sich mir jetzt nur die Frage, 3080 oder 6800XT
AMD hat mehr VRAM, Nvidia hat dafür Gsync (und vermutlich stärkeres RTX)
Was davon ist am Ende besser für mich... Ich hasse solche Entscheidungen...
Ja, böses AMD, dass es nicht Nvidias proprietäre Technologie unterstützt, während die offene Version nicht von Nvidia unterstützt wird.Gibt's schon, bringt einem aber nix wenn man noch n gsync Monitor hat, und ich bin nicht gewillt, den zu wechseln
Naja klar, aber für mich selbst ist es halt ein Vorteil, da ich mir vor etwas über einem Jahr einen gsync Monitor gekauft habe.naja, gsync jetzt als pluspunkt für nv hinzuschreiben, finde ich doch etwas speziel...
monitore kosten deutlich mehr und amd hat mit freesync nicht wirklich einen grossen nachteil.
ja, leider sieht es wohl so aus. aber seien wir mal ehrlich. wenn dann nur noch das der unterschied ist, ist es doch eigentlich egal. auch wenn es 10% leistungsunterschied sein sollten, wirklich merken wird das keiner. finde diese ganzen %-schwanzvergleiche lenken nur vom wichtigen ab. nähmlich die klasse, in der die karte spielt.Sollte AMD echt einen messbaren Performance-Vorteil haben durch AMD CPU + AMD GPU, dann ist das ganz klar ein gravierender Vorteil.
Da kann NVidia erst mal nix gegen machen. Wäre super!
Die Frage wird dann aber sein: Ist das echt ein Vorteil, oder "nur" ein Ausgleich gegenüber Intel?
Da bin ich auf die Tests der Chips gespannt. Aktuell sieht ja alles so aus, als ob Zen 3 schneller ist in Gaming als Intel, aber verifiziert ist es ja nun nicht bisher.
Wenn man nun mit nem 10900K, oder von mir aus bald 11900K trotzdem mehr FPS hat, als mit Zen 3 + 6900XT, dann relativiert sich der Vorteil irgendwie wieder. Dann ist das echt wirr in Reviews:
"Wenn Du eine AMD CPU hast, dann ist die neue 6900XT so schnell wie eine 3090! - Hast Du einen Intel Chip, ist sie 7% langsamer!"
analog:
"Wenn Du eine Intel CPU hast, dann ist die 3090 ti schneller als die 6900XTX, aber bei einer AMD CPU fällt sie hinter AMD zurück!"
Befürchte so ähnlich werden Reviews in naher Zukunft werden, vor allem bei Raytracing.
Beide Teams bieten ähnliche, aber doch unterschiedliche Systeme an. Nicht jeder Entwickler wird beide Dinger einbauen, oder wenn doch, gleich gut hinbekommen.
Da wird es ne Menge Einschränkungen und Relationen geben.
Aufregend!
Was geht denn jetzt ab, Kreide ich hier irgendwo AMD an das die kein gsync können?Ja, böses AMD, dass es nicht Nvidias proprietäre Technologie unterstützt, während die offene Version nicht von Nvidia unterstützt wird.
Nvidia könnte doch einfach GSync für AMD Karten freigeben - hmm? So wie es AMD für Nvidia gemacht hat.
welchen du ja auch mit freesync füttern kannst. sehe da das problem nicht wirklich.Naja klar, aber für mich selbst ist es halt ein Vorteil, da ich mir vor etwas über einem Jahr einen gsync Monitor gekauft habe.
Öhm, hab ich was verpasst ? NVIDIA unterstützt afaik seit Anfang 2019 und ab der GTX 1050 Freesync.Ja, böses AMD, dass es nicht Nvidias proprietäre Technologie unterstützt, während die offene Version nicht von Nvidia unterstützt wird.
Nvidia könnte doch einfach GSync für AMD Karten freigeben - hmm? So wie es AMD für Nvidia gemacht hat.
Da biste aber nicht ganz auf dem neusten Stand: https://www.pcgameshardware.de/Nvid...it-AMD-Grafikkarten-verwendet-werden-1337776/Ja, böses AMD, dass es nicht Nvidias proprietäre Technologie unterstützt, während die offene Version nicht von Nvidia unterstützt wird.
Nvidia könnte doch einfach GSync für AMD Karten freigeben - hmm? So wie es AMD für Nvidia gemacht hat.
Kann ich halt nicht, kann der nämlich nicht.welchen du ja auch mit freesync füttern kannst. sehe da das problem nicht wirklich.
wenn ich mich nicht täusche, hat amd genau garnichts freigegeben, sondern einen freien standard (adaptive sync) genutzt. oder? Und gsync hat soviel ich weiss schon noch kleine vorteile gegenüber freesync. nur halt nicht mehr soooo grosse, wie zu beginn, als freesync nach unten hin nicht wirklich flexibel war.Ja, böses AMD, dass es nicht Nvidias proprietäre Technologie unterstützt, während die offene Version nicht von Nvidia unterstützt wird.
Nvidia könnte doch einfach GSync für AMD Karten freigeben - hmm? So wie es AMD für Nvidia gemacht hat.
ok, dann ists klar. ging eigentlich davon aus, dass die neueren geräte, beides können. aber so, ist dein gsync argument natürlich völlig logisch und richtig. sorry.Kann ich halt nicht, kann der nämlich nicht.
Der kann entweder gsync, oder halt vsync, das wars
Nein - dein Problem ist, dass du jetzt im Vendor-Lock-in festsitzt und gar keine andere Wahl mehr hast - es sei denn, du kaufst dir nen neuen Bildschirm. Das willst du nicht und somit wars das.Was geht denn jetzt ab, Kreide ich hier irgendwo AMD an das die kein gsync können?
Ich hab gsync bei der Karte nur als für mich wirkenden Vorteil genannt, da ich halt gsync habe.
Sehe jetzt keinen Grund das mir hier die Worte umgedreht werden um irgendeine Marke zu bashen.
Ja - ganz genau hingucken: "Die neuen G-Sync Monitore"Da biste aber nicht ganz auf dem neusten Stand: https://www.pcgameshardware.de/Nvid...it-AMD-Grafikkarten-verwendet-werden-1337776/
Und Nvidia nutzt Adaptive Sync und nicht Freesync..
Dann liege ich mit meinen 65% ja gar nicht so schlecht.Noch nicht wirklich nein. Jemand hat die gleiche Anwendung wohl mit einer GeForce RTX 3080 ausgeführt und kommt auf 630 FPS.
^^ok, dann ists klar. ging eigentlich davon aus, dass die neueren geräte, beides können. aber so, ist dein gsync argument natürlich völlig logisch und richtig. sorry.
Nicht zwangsläufig, meine Entscheidung ist eigentlich eher, nehme ich entweder mehr VRAM, verzichte dabei völlig auf Sync, oder aber nehme ich weniger vram, hab dafür aber einen gesyncten Monitor.Nein - dein Problem ist, dass du jetzt im Vendor-Lock-in festsitzt und gar keine andere Wahl mehr hast - es sei denn, du kaufst dir nen neuen Bildschirm. Das willst du nicht und somit wars das.
Oder du gehst einen Mittelweg und hoffst, dass Enhanced-Sync bei AMD "gut genug" ist. Wäre natürlich trotzdem schöner nicht wäheln zu müssen.^^
Nicht zwangsläufig, meine Entscheidung ist eigentlich eher, nehme ich entweder mehr VRAM, verzichte dabei völlig auf Sync, oder aber nehme ich weniger vram, hab dafür aber einen gesyncten Monitor.
Offener Standard ist offener Standard - Nvidia hätte den genauso nutzen können. Haben sie aber zu Beginn nicht und sich eingemauert. Entsprechend sind die Monitore der ersten G-Sync Iteration auch nicht kompatibel.wenn ich mich nicht täusche, hat amd genau garnichts freigegeben, sondern einen freien standard (adaptive sync) genutzt. oder? Und gsync hat soviel ich weiss schon noch kleine vorteile gegenüber freesync. nur halt nicht mehr soooo grosse, wie zu beginn, als freesync nach unten hin nicht wirklich flexibel war.
hast ja schon recht, aber du hast geschrieben, dass amd das freigegeben hat. und das stimmt halt nicht. amd kann ja nichts freigeben, was bereits frei ist...Offener Standard ist offener Standard - Nvidia hätte den genauso nutzen können. Haben sie aber zu Beginn nicht und sich eingemauert. Entsprechend sind die Monitore der ersten G-Sync Iteration auch nicht kompatibel.
Der Nachteil der G-Sync Monitore: Teurer, da Modul drin + etwas mehr Input Lag
Vorteil: Sync-Bandbreite geht tiefer runter. Freesnc ist sowas wie 48Hz-144Hz, G-Sync geht bei 24Hz oder so los (wenn ich mich nicht irre)
Die neuen Module sind kompatibel - aber halt immer noch teurer, weil Modul.
Nein kann er nicht, genau so wenig wie ich es kann, aufgrund von Halbwissen andere User anzugreifen ist echt mal lächerlich. G-Synch Monitor die auch Freesnych können sind erst in den letzte Monaten auf dem Markt gekommen, alle älteren Modele können nur G-Synch. Und wer jetzt schon einige Jahre irgend ein Adaptives Synch hat will nicht mehr drauf verzichten. Ein Monitor wechsel auf der selben Qualitäts Stufe kostet bei mir noch mal mehre 100 Teuronen oben drauf. Bin aber auch selber Schuld den Nvidia Properitär Mist mitgemacht zu haben ... Wobei mein Monitor auch ein Austelungsstück war und damit richtig günstig.welchen du ja auch mit freesync füttern kannst. sehe da das problem nicht wirklich.
Jau. Amds Freesync, also als Endprodukt, ist genauso proprietär wie g-sync.wenn ich mich nicht täusche, hat amd genau garnichts freigegeben, sondern einen freien standard (adaptive sync) genutzt. oder?
Das ist mir bewusst. Aber das liegt auch eher daran, dass dafür eine neue Firmware benötigt wird. Ändert aber nichts daran, dass deine Aussage - Nvidia könnte doch einfach GSync für AMD Karten freigeben - hmm? So wie es AMD für Nvidia gemacht hat - schlicht falsch ist, da Nvidia dies freigegeben hat und AMD nichts für Nvidia freigegeben hat.Ja - ganz genau hingucken: "Die neuen G-Sync Monitore"