GTX 1060 GB oder RX 480 8GB?

Dokter

Neuling
Thread Starter
Mitglied seit
26.09.2016
Beiträge
10
Soll ich die GIGABYTE Geforce GTX 1060 WINDFORCE OC 6144MB oder die XFX Radeon RX 480 GTR Black 8192MB kaufen? Was ist eure Meinung? Danke schon einmal im Voraus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Geschmacksache, die eine ist grün, die andere rot. Leistungstechnisch nur kleine Unterschiede. Die GTX ist wesentlich effizienter, die RX480 hat dafür mehr VRAM. Auflösung FHD / WQHD?
 
Hatte mal die RX480 und muss ehrlich sagen fande die GK für 280€ ziemlich schwach daher dann zu einer 980ti ( gebraucht ) gegriffen
 
Ich persönlich würde eher zur 1060 greifen, ist für mich das rundere Produkt.
 
ich würde andere partnerkarten wählen:
1060: https://geizhals.de/inno3d-geforce-gtx-1060-6gb-gaming-oc-n1060-1sdn-n5gnx-a1479074.html?hloc=de
480: https://geizhals.de/?cmp=1480295&cmp=1473074

die amd dürfte sich zukünftig leistungsmäßig etwas von der geforce absetzen, vor allem wenn im laufe von 2017 mehr und mehr dx12 titel auf den markt kommen. dazu unterstützt die karte freesync.
an der geforce gefällt mir, dass man eine niedrigere lautstärke erwarten kann, selbst wenn man das oc-potential ausnutzt (bei der amd gehen die käufer eher etwas runter mit spannung bzw takt).
 
Zuletzt bearbeitet:
Dieses dürfte sich absetzen etc pp wäre mir zu vage^^
Man will ja die Leistung jetzt und all zu oft haben sich Prognosen zu eventuellen optimierungen etc nicht bewahrheitet.
Beides ordentliche Karten, ich finde die 1060 6gb aber runder im Gesamten
 
wie stark und wie schnell die entwicklung voran schreitet, kann natürlich niemand sagen. ich nehme nicht an, dass sich irgendwann riesige gräben zwischen den karten auf tun.
allerdings sprechen mmn alle zeichen dafür, dass die zeit eher für die amd arbeitet. oder rechnest du noch mit dem geforce async compute wundertreiber? :p

man kann auf jeden sagen, dass die low level apis bisher der polaris zu gute kamen. teilweise marginal, teilweise ziemlich deutlich.
und es sind eine ganze menge dx12 titel für das nächste jahr angekündigt.
 
Zuletzt bearbeitet:
Wenn du nicht rätseln willst und auch keine Glaskugel hast nimm doch einfach die letzten Generationen zur Hand und vergleiche früher und heute. Natürlich gleicher Preisbereich:

Gtx670 vs 7970
Gtx780 vs 290
Gtx970 vs 390
 
könnte mir auch vorstellen dass die 480 irgendwann in den meisten Spielen vorne liegt, aber mehr als 10% kann ich mir nicht vorstellen

habe mich trotzdem für die 1060 entschieden weil sie einfach kühler läuft und weniger stromhungrig ist
 
Wenn du nicht rätseln willst und auch keine Glaskugel hast nimm doch einfach die letzten Generationen zur Hand und vergleiche früher und heute. Natürlich gleicher Preisbereich:

Gtx670 vs 7970
Gtx780 vs 290
Gtx970 vs 390

Und was sagt uns das nun? Nichts. AMD wurde nicht schneller, die haben nur damals ein kleines Leistungsproblem mit Directx11 gehabt und hamm sich n bisschen verbessert, das ist lange her, das gilt für heute nicht mehr.

Es gibt keinen Grund wieso die rx480 vorne liegen soll.

Die GTX 1060 ist leiser und hat deutlich weniger Strombedarf und ist 10% schneller, die RX480 hat 2GB mehr Ram und ist in neueren Titeln gleichschnell wie sich das entwickelt weiß niemand, entscheide selbst.
 
Zuletzt bearbeitet:
lang leben die fanboy trolle. sogar extra n account dafür angelegt. respekt!
 
Wenn du nicht rätseln willst und auch keine Glaskugel hast nimm doch einfach die letzten Generationen zur Hand und vergleiche früher und heute. Natürlich gleicher Preisbereich:

Gtx670 vs 7970
Gtx780 vs 290
Gtx970 vs 390

müsste man nicht eher 680/770 mit der 7970 und 780ti mit der 290 vergleichen?
grundlegend erkenne ich aber ebenfalls diese tendenz in den letzten jahren. der größere vram hat sich rückblickend immer als hilfreich herausgestellt und aus den amd karten konnte im laufe der zeit durch treiberverbesserungen noch etwas leistung heraus geholt werden. teilweise sogar lange zeit nach release.
zu einem gewissen grad sieht man das jetzt schon bei polaris, ca ein halbes jahr nach release.

dazu kommt halt noch die low level api geschichte. da sehe ich bisher nur vorteile für die amd karten (async compute, verminderter treiberoverhead). zumidnest können die karten immer mal wieder zugewinne verzeichnen, wogegen ich bei den geforce karten das gefühl habe, dass man sich glücklich schätzen kann, wenn die dx11 performance beibehalten wird.

wir werden sehen. die wahrheit ist die tochter der zeit :d
ich denke, in 12 monaten ergibt sich ein deutlich klareres bild.
 
Solange der Preisunterschied zwischen Freesync und Gsync so hoch ist (Monitore mit Gsync kosten ca. 150,- Euro mehr), würde ich rein aus Prinzip schon zur Radeon greifen. Wenn eine 1070er nicht im Budget liegt, dann würde ich mir auf jeden Fall die RX480 holen.
Vielleicht auch noch ein paar Tage warten um zu schauen, was Radeon hinsichtlich der RX490 bringt, aber die wird wohl deutlich außerhalb deines Budgets liegen.
 
oder rechnest du noch mit dem geforce async compute wundertreiber? :p

:confused:

dewb2m7mzfohrhrw2.jpg

http://www.eurogamer.net/articles/d...-new-dx12-benchmark-tested-gtx-1060-vs-rx-480

@Dokter
prinzipiell ist es egal ob du eine 480 oder 1060 kaufst, wie schaut denn das restliche system aus?
 
Man sollte aber bedenken das bei dem genannten Freesync Protestkauf, die Syncrange öfter erst ab 45fps anfängt und nur bis 144fps reicht, dieses Problem hast du bei G-Sync nicht.

Habe gerade welche gesehen die erst bei 75fps anfangen :fresse2:
 
Zuletzt bearbeitet:

das soll uns was genau sagen? :d

bei hitman und aots gab es leichte zugewinne bei dx11 auf dx12 bei der 1060 iirc. aber die tendenz bei den bisher erschienenen low level api titeln ist schon ziemlich eindeutig (im bezug auf pascal vs polaris).



Man sollte aber bedenken das bei dem genannten Freesync Protestkauf, die Syncrange öfter erst ab 45fps anfängt und nur bis 144fps reicht, dieses Problem hast du bei G-Sync nicht.

Habe gerade welche gesehen die erst bei 75fps anfangen :fresse2:

auf jeden. gerade in dem niedrigen fps-bereich sehe ich den großen vorteil von adaptive sync. bis zu 40fps sollte es mmn mindestens herunter reichen.
hiernach kann man den bereich von hand vergrößern: 3DCenter Forum - G-/Free-/A-Sync: framesynchronisierter Displayrefresh per variablem vblank-Intervall - Seite 193
 
Zuletzt bearbeitet:
Man sollte aber bedenken das bei dem genannten Freesync Protestkauf, die Syncrange öfter erst ab 45fps anfängt und nur bis 144fps reicht, dieses Problem hast du bei G-Sync nicht.

Habe gerade welche gesehen die erst bei 75fps anfangen :fresse2:

AFAIK können beide in den unteren Bereichen framedoubling, weswegen das egal ist, solange die maximal refreshrate doppelt so groß ist wie das minimum.
 
GTX 1060 6GB: Weniger Stromverbrauch, kühler , Vorteile bei kleinen CPUs
RX480 8GB: 2gb Mehr Speicher , möglich das sie besser altert -->Erfahrungen mit GNC GFX der letzten Generationen, muss aber nicht übetragbar sein wenn Vega wirklich eine neue Architektur hat, könnte es zu einem Bruch wie seinerzeit von VLIW4/5 zu GCN kommen
Preis vergleichbar
Freesync vs.Gsync kann ich nichts zu beitragen , beide noch nicht in Aktion gesehen.
Was auf der GTX1060 ruckelt ruckelt imn ormal Fall auch auf der RX480 und anders herum

Was dir wichtiger ist entscheide selbst .
 
Man sollte aber bedenken das bei dem genannten Freesync Protestkauf, die Syncrange öfter erst ab 45fps anfängt und nur bis 144fps reicht, dieses Problem hast du bei G-Sync nicht.

Das ist falsch! Fallen die FPS unter die minimale Bildwiederholfrequenz das Bildschirms, werden die FPS automatisch verdoppelt, verdrei- oder vervierfacht. Das wurde schon vor über einem Jahr in der Radeon Sofware eingeführt und die Behauptung, es könne nur G-Sync wird trotzdem ständig weiter verbreitet. Ich bin wirklich enttäuscht, dass man sich nicht vorher informieren kann.

Mittlerweile ist FreeSync zudem im randlosen Fenstermodus nutzbar, sodass G- Sync keinen einzigen Vorteil mehr zu bieten hat. Es ist teuer, benötigt ein Modul im Bildschirm, was einiges an Strom verbraucht(Da wird das bisschen Strom, was man zur RX 480 spart, quasi direkt wieder verbraten), und hat tendenziell höhere Latenzen, weil eben das Sync- Modul noch dazwischenhängt, und es ist im Gegensatz zu FreeSync nicht VESA- standardisiert, sodass ausschließlich Nvidia- GPUs damit laufen.

Insofern kann man kaum von Protestkauf sprechen, sondern nur von G-Sync-ProtestNICHTkauf.
 
Zuletzt bearbeitet:
Also wenn der PC nicht mal 45FPS schafft dann baucht man keinen 144Hz Monitor und erst recht kein G-Sync für 150€ Aufpreis.
Dann lieber eine neue Grafikkarte kaufen damit es nie weniger als 60 oder sogar 100FPS sind um die 144Hz sinnvoll zu nutzen.

AMD FreeSync mit RX480 und AOC G2460PF kostet ca. 500€ vs. Nvidia G-Sync mit GTX1060 und AOC G2460PG kostet ca. 650€
Man sieht also in der Klasse bietet AMD das deutlich bessere Preis/Leistungs Verhältnis. Ohne Monitor spielt das aber keine Rolle.

Sind wir wieder bei dem Thema ja? Hatten wir schon durchgekaut.

Gehe auf die Nvidia Homepage da steht G-Sync macht games die sich unter 60HZ schwammig anfühlen besser spielbar.
Das habe ich bei Witcher 3 auch gemerkt 4K und 30 - 45 FPS und dank G-Sync wars spielbar also erzähle nicht wieder son mist.

Das ist falsch! Fallen die FPS unter die minimale Bildwiederholfrequenz das Bildschirms, werden die FPS automatisch verdoppelt, verdrei- oder vervierfacht. Das wurde schon vor über einem Jahr in der Radeon Sofware eingeführt und die Behauptung, es könne nur G-Sync wird trotzdem ständig weiter verbreitet. Ich bin wirklich enttäuscht, dass man sich nicht vorher informieren kann.

Mittlerweile ist FreeSync zudem im randlosen Fenstermodus nutzbar, sodass G- Sync keinen einzigen Vorteil mehr zu bieten hat. Es ist teuer, benötigt ein Modul im Bildschirm, was einiges an Strom verbraucht(Da wird das bisschen Strom, was man zur RX 480 spart, quasi direkt wieder verbraten), und hat tendenziell höhere Latenzen, weil eben das Sync- Modul noch dazwischenhängt, und es ist im Gegensatz zu FreeSync nicht VESA- standardisiert, sodass ausschließlich Nvidia- GPUs damit laufen.

Insofern kann man kaum von Protestkauf sprechen, sondern nur von G-Sync-ProtestNICHTkauf.

Wurde ja schon gesagt ;) da ich ne Nvidia hatte habe ich mich da nicht weiter mit befasst. Hatte nur gesehen ab 45fps.
Aber wenn ich mir das jetzt so überlege was brings wenn ich vervierfachte fps habe statt echte fps???
 
Zuletzt bearbeitet:
Wurde ja schon gesagt
Muss ich übersehen haben, sorry.
was brings wenn ich vervierfachte fps habe statt echte fps???
Dass der Pixeltakt höher bleiben kann, sodass die Pixel ihre Reaktionsfähigkeit behalten können. Ich gehe mal schwer davon aus, dass das G-Sync- Modul genau das gleiche macht, weil es sonst sicherlich äußerst hässlich aussehen würde - schon die Farbgebung beim ändern des Pixeltakts ist normalerweise problematisch - ich denke also, dass in den Sync- Monitoren auch entsprechende Profile drin sind, die jeweils einen Farbausgleich beim Ändern der Schaltgeschwindigkeit machen... Das ist relativ komplex. Deshalb habe ich auch immer die höhere Range(56-144Hz) ausgewählt, sodass unter 56Hz verdoppelt werden kann, weil sonst die Darstellungsqualität wegen den verschlechterten Monitoreigenschaften ungünstig wird, zumindest um ca. 40Hz herum.
 
Zuletzt bearbeitet:
Dass der Pixeltakt höher bleiben kann, sodass die Pixel ihre Reaktionsfähigkeit behalten können. Ich gehe mal schwer davon aus, dass das G-Sync- Modul genau das gleiche macht, weil es sonst sicherlich äußerst hässlich aussehen würde - alleine die Farbgebung beim ändern des Pixeltakts ist normalerweise problematisch - ich denke also, dass in den Sync- Monitoren auch entsprechende Profile drin sind, die jeweils einen Farbausgleich beim Ändern der Schaltgeschwindigkeit machen... Das ist relativ komplex. Deshalb habe ich auch immer die höhere Range(56-144Hz) ausgewählt, sodass unter 56Hz verdoppelt werden kann, weil sonst die Darstellungsqualität wegen den verschlechterten Monitoreigenschaften ungünstig wird, zumindest um ca. 40Hz herum.

Verstehe ich nicht ganz, aber ich habe keinen unterschied zwischen 30, 45, 100 oder 200fps mit aktiviertem gsync bemerkt.

@ Performer
Nur Müll kommt da rum hauptsache rum Trollen, die 1080 Phoenix GLH ist auf dem Weg und trotzdem hat das 0 damit zutun, bei G-Sync haste eben ab 30fps nen gefühlt schnelleres Bild und fertig.
 
Wurde ja schon gesagt ;) da ich ne Nvidia hatte habe ich mich da nicht weiter mit befasst. Hatte nur gesehen ab 45fps.
Aber wenn ich mir das jetzt so überlege was brings wenn ich vervierfachte fps habe statt echte fps???

Die Panels sind nicht in der Lage das Bild permanent anzuzeigen, die Pixel werden ohne Ansteuerung weiß, gerade bei den schnellen Displays ist das ein Problem, die die Pixel nicht so träge sind, wie bei einem 60Hz Panel und das ganze recht schnell passiert.
Deswegen gibt es eine minimal Refreshrate bei den Monitoren und niedriger ist hier nicht unbedingt besser. Prinzipiell kann es bei FPS am unteren Limit zu Flackern kommen, das empfindliche Menschen wahrnehmen können und hier ist die Wahrscheinlichkeit bei weniger Hz höher.

Und zur Verdopplung:
Am Ende besteht kein Unterschied ob ein Bild mit 40Hz oder 80Hz und jedes zweite Bild ändert sich erst angezeigt wird, sind beides Effektiv 40Hz/FPS.
Solange der Frequenzbereich des Freesync / G-Sync Monitors groß genug ist, dass die minimal Frequenz <= die halbe max. Frequenz ist, ist das kein Problem.
 
bla bla bla ... ich habe bei CS-Go über 300 bis 500 FPS also erzähle hier nicht son mist, Doom läuft auch mit 120-140.
BF1 ist auch über 100 und das mit ner 1070, also wenn du kein Plan hast dann sei still.

Und pass auf ... SCHOCK meiner kann sogar 165Hz ...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh