Zeitpunkt für GTX1080 TI gekommen?

koboltzz

Neuling
Thread Starter
Mitglied seit
27.12.2012
Beiträge
48
Hallo Leute :)

Zur Zeit fahre ich einen i7-4770K @3,9Ghz, Turbo 4,6Ghz, 16Gb DDR3-1867 und eine GTX980 @1266Mhz, Boost @1481Mhz.

Inzwischen kann ich aber leider nicht mehr alle Spiele in voller Pracht genießen und ich überlege aufzurüsten.
Da ich gerne wieder ~ 4 Jahre "Ruhe" haben will, ist die Frage, wo angreifen?

Da ich hier im Grafikkarten Unterforum bin, speziell die Frage nach der Sinnhaftigkeit eines Upgrades. Ist der Flaschenhals eher der Prozessor?
Ist der einzige Weg in der nächsten Zeit die 800 Ocken für eine GTX1080 TI hinzublättern, um Ruhe zu haben?

Ich habe versucht einen schönen Vergleichsbenchmark zwischen der GTX980 und der GTX1080 TI zu finden, aber auf den einschlägigen Seiten holt man meist die GTX980 TI zum Vergleich heran. Kann jemand ungefähr prozentual beziffern, wie hoch der Performance Schub der GTX1080 TI im Vergleich zum jetzigen Setup wäre?

Vielen Dank für eure Mühe schon mal :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vieeeel Schneller.... aber egal warte die paar Tage bis Vega rauskommt (zu kaufen gibt).
 
Die 1080 Ti ist bestimmt drei mal so stark. Für 60 FPS reicht dein Prozessor. Allerdings würde ich es mir gut überlegen. 800 € ist eine Menge Geld und wenn du nicht gerade 8 x MSAA in jedem Spiel brauchst würde eine 1070 oder 1080 schon reichen.

Für mich würde es durchaus Sinn machen, wenn direkt ein vernünftiger Monitor nachgekauft wird. Außer er ist schon vorhanden - 1080p mit 60 FHz sehe ich 2017 als 'Low-End' an, eine Grafikkarte die die 1080 Ti wird teilweise nicht einmal mehr in 1080p getestet, weil die Karte das sowieso schafft. Wenn du 1440p mit 144 Hz oder gar auf 4K gehen möchtest wäre die Grafikkarte natürlich ideal.
 
@butcher1de
Realistisch ist aber "erst" Dezember nehme ich an, oder? Und AMD ist mangels Spieleentwickler-Kooperationen eher uninteressant.

@DivineLight
Das "Problem" ist, ich möchte nicht jährlich upgraden. Würde ich jetzt ne GTX1080 (keine TI) und einen 1440p Monitor kaufen, dann glaube ich,dass Ende 1018 irgendein Spiel ala "Wildlands" raus kommt und ich schon nach nur einem Jahr nicht mehr alles in voller Pracht genießen kann.
Du schlägst wahrscheinlich die Hände über den Kopf zusammen, aber mein jetziger Monitor hat absichtlich immer noch 1280x1024, um den Upgrade Intervalle in die Länge zu ziehen.
Ja, in der Tat beim Monitor ist jetzt die Zeit zum Upgrade gekommen, macht selbst mir keinen Spass mehr. Aber "low-end" FullHD reicht mir wieder vollkommen und eine 1080 TI kann ein paar Jahre alles bedienen.
 
Das "Problem" ist, ich möchte nicht jährlich upgraden. Würde ich jetzt ne GTX1080 (keine TI) und einen 1440p Monitor kaufen, dann glaube ich,dass Ende 1018 irgendein Spiel ala "Wildlands" raus kommt und ich schon nach nur einem Jahr nicht mehr alles in voller Pracht genießen kann.

dafür in 1440p. auflösung gehört auch zu "guter grafik"
 
Stimmt, aber 1280x1024 mit 4xDSR hat mich jahrelang zufrieden gestellt. Der Sprung nach FHD ist aus meiner Sicht daher schon echt groß.
 
@butcher1de
Realistisch ist aber "erst" Dezember nehme ich an, oder? Und AMD ist mangels Spieleentwickler-Kooperationen eher uninteressant.

@DivineLight
Das "Problem" ist, ich möchte nicht jährlich upgraden. Würde ich jetzt ne GTX1080 (keine TI) und einen 1440p Monitor kaufen, dann glaube ich,dass Ende 1018 irgendein Spiel ala "Wildlands" raus kommt und ich schon nach nur einem Jahr nicht mehr alles in voller Pracht genießen kann.
Du schlägst wahrscheinlich die Hände über den Kopf zusammen, aber mein jetziger Monitor hat absichtlich immer noch 1280x1024, um den Upgrade Intervalle in die Länge zu ziehen.
Ja, in der Tat beim Monitor ist jetzt die Zeit zum Upgrade gekommen, macht selbst mir keinen Spass mehr. Aber "low-end" FullHD reicht mir wieder vollkommen und eine 1080 TI kann ein paar Jahre alles bedienen.

In "voller Pracht" ist auch immer so eine Sache. Das geht sicher nur mit jährlichem Upgrade. 1280 x 1024, das ist heftig, da reicht ja eigentlich eine GT 530... Die Ti ist ziemlich overkill für 1080p60.

Du solltest dir auch überlegen, ob du alle 6 Jahre 800 € ausgibst oder alle 2-3 200 €. Mit einer 1070 hättest du schon eine Menge Spaß in 1080p, derzeit schafft sie alles, in zwei Jahren musst du dann das ein oder andere Detail auf "Hoch" stellen. Es gibt doch schlimmeres...

Stimmt, aber 1280x1024 mit 4xDSR hat mich jahrelang zufrieden gestellt. Der Sprung nach FHD ist aus meiner Sicht daher schon echt groß.

Das macht für mich kaum Sinn, dann lieber nativ spielen. Gibt es heute überhaupt noch Monitore unter 1080p zu kaufen (Ich habe selbst bis 2013 meinen Acer AL1716 an einer HD 2400 benutzt...)?
 
Kurz zum Verständnis: Du spielst absichtlich auf 1280x1024p damit du die Spiele solange wie möglich auf Ultra spielen kannst? naja ob man da noch von Grafikpracht sprechen kann ist wohl Ansichtssache^^ Ich denke mal das so gut wie jedes Game in 1440p auf "Mittel" besser aussehen wird als in 1080p auf "Ultra".

:btt2:
Mit ner 1080ti landest du in Full HD wohl eher ins Cpu Limit, da die Karte eher für höhere Auflösungen gedacht ist und sich in Full HD langweilt.
Für Full HD sehe ich höchstens die 1070 noch als angemessen an, alles andere wäre meiner Meinung nach overkill. Selbst für 144hz reicht da noch ne 1060/480 bei Multiplayer-Shooter aus.

Sehe es da auch so wie DivineLight: Lieber alle zwei Jahre 200€ ausgeben als alle 6 Jahre 800€, weil so nimmst du immer den aktuellen Stand der Technik mit (kleinere Fertigung, Effizienz, usw.) In 3-4 Jahren bekommst vllt schon die Leistung einer 1080 ti für 250€

Bei den aktuellen Preisen haste dir ja ne gute Zeit zum aufrüsten ausgesucht, aber naja was soll man machen :fresse:
 
Zuletzt bearbeitet:
Also ich bekomme meine 1080TI in 1080p klein, man muss nur die Regler bedienen können...
 
Stimmt, aber 1280x1024 mit 4xDSR hat mich jahrelang zufrieden gestellt. Der Sprung nach FHD ist aus meiner Sicht daher schon echt groß.

Du hast also lieber 4x DSR auf 1280x1024 gespielt was real dann 2560*2048 entspricht als das auf einem modernen Monitor nativ anzeigen zu lassen? Du verschenkst damit einfach unnötig Bildqualität und die Leistung forderst du trotzdem von der GPU. Du forderst also schon länger von deiner Grafikkarte eine Auflösung über 2k zu berechnen. Warum dann nicht direkt auf einen 2560x1440p Bildschirm gehen anstatt wieder künstliche über DSR die Auflösung hoch zu drehen. Das sieht außerdem eh um Welten besser aus.

Aber "low-end" FullHD reicht mir wieder vollkommen und eine 1080 TI kann ein paar Jahre alles bedienen.

Ebenso wieder eine falsche Annahme. Auch der Monitor hat einen großen Einfluss auf das Bild. Gerade die Low-End Modelle haben eben keine so gute Farbtreue und auch die Schwarzwerte sind teils sehr schlecht.

Also ich bekomme meine 1080TI in 1080p klein, man muss nur die Regler bedienen können...

Ja wenn man es drauf anlegt bekommt man jede GPU klein. Auf der anderen Seite könnte man aber auch sagen wenn man die Regler bedienen kann reicht eine 1080 ganz easy für 1080p und hohe FPS ohne das man einen Qualitätsunterschied sieht.
 
Zuletzt bearbeitet:
Ich habe den gleichen Prozzi wie Du allerdings einen 144hz Monitor und ich bin froh mir eine 1080ti gekauft zu haben.
Ich werde aber auch bald auf einen besseren Monitor umsteigen.
 
Hallo Leute :)

Zur Zeit fahre ich einen i7-4770K @3,9Ghz, Turbo 4,6Ghz, 16Gb DDR3-1867 und eine GTX980 @1266Mhz, Boost @1481Mhz.

Inzwischen kann ich aber leider nicht mehr alle Spiele in voller Pracht genießen und ich überlege aufzurüsten.
Da ich gerne wieder ~ 4 Jahre "Ruhe" haben will, ist die Frage, wo angreifen?

Da ich hier im Grafikkarten Unterforum bin, speziell die Frage nach der Sinnhaftigkeit eines Upgrades. Ist der Flaschenhals eher der Prozessor?
Ist der einzige Weg in der nächsten Zeit die 800 Ocken für eine GTX1080 TI hinzublättern, um Ruhe zu haben?

Ich habe versucht einen schönen Vergleichsbenchmark zwischen der GTX980 und der GTX1080 TI zu finden, aber auf den einschlägigen Seiten holt man meist die GTX980 TI zum Vergleich heran. Kann jemand ungefähr prozentual beziffern, wie hoch der Performance Schub der GTX1080 TI im Vergleich zum jetzigen Setup wäre?

Vielen Dank für eure Mühe schon mal :)

Ich komme mit der GTX 1080 @1080P 144HZ gut zurecht.

Spiele aber Hauptsächlich BF1 und dann Titel die weniger Leistung brauchen.
Allerdings hätte ich auch ne TI gekauft , wenn ich nicht zu release zur 1080 gegriffen hätte ;)

Bei Watch Dogs 2 braucht man schon ne TI auch bei 1080P mit 4K Texturen.
Zudem kann eine stärkere Karte nie schaden , weil Hauptsache man bekommt seine FPS .
Ob die nun voll ausgelastet ist oder nicht ist ja erstmal egal...

Wenn du dann noch ein FPS Limit reinmachst verbraucht deine Karte auch weniger Strom und ist nicht so laut beim zocken.
Ansosnten immer wichtig , wenn die Karte zu geringfügig von einem game belastet wird im Nvidia Treiber unter Programm Einstellungen
die Exe des Spiels suchen und die Energie Einstellung für das jeweilige game auf max. Leistung stellen , weil sonst kann es passieren,
dass die Karte runtertaktet und das führt unter anderem zu FPS Drops.

Hatte das zb. bei Alan Wake oder CS GO etc...

So hier paar gute Karten ASUS ROG Strix GeForce GTX 1080 Ti Preisvergleich Geizhals Deutschland

Gigabyte Aorus GeForce GTX 1080 Ti Xtreme Edition 11G Preisvergleich Geizhals Deutschland

EVGA GeForce GTX 1080 Ti FTW3 Gaming Preisvergleich Geizhals Deutschland

Zotac GeForce GTX 1080 Ti AMP Extreme Preisvergleich Geizhals Deutschland



Denke die Asus Strix kann man mit guten gewissen nehmen
 
Zuletzt bearbeitet:
Die letzten Wochen gab es die 1080 Ti für <600 bzw 600 Euro mit Spiel (Mindfactory) als einfache Custom Version bzw. 650 Euro für eine Aorus Extreme. Und aktuell gehen die 1070er Karten gebraucht für 400 Euro und mehr weg.

Wenn man aktuell etwas kaufen will, dann bleibt nur eine 1080 bzw. 1080 Ti. Falls Vega kommt, so kann die Lieferbarkeit + Preis eine große Rolle spielen.
 
In "voller Pracht" ist auch immer so eine Sache. Das geht sicher nur mit jährlichem Upgrade. 1280 x 1024, das ist heftig, da reicht ja eigentlich eine GT 530... Die Ti ist ziemlich overkill für 1080p60
[...].
Du solltest dir auch überlegen, ob du alle 6 Jahre 800 € ausgibst oder alle 2-3 200 €. Mit einer 1070 hättest du schon eine Menge Spaß in 1080p, derzeit schafft sie alles, in zwei Jahren musst du dann das ein oder andere Detail auf "Hoch" stellen. Es gibt doch schlimmeres...
[...]
Das macht für mich kaum Sinn, dann lieber nativ spielen. Gibt es heute überhaupt noch Monitore unter 1080p zu kaufen (Ich habe selbst bis 2013 meinen Acer AL1716 an einer HD 2400 benutzt...)?
Ich praktiziere seit etlichen Jahren ~5 Jahres Upgrade und kann innerhalb dieser Zeit alles auf voll Pulle zocken :d
1280x1024 in Wildlands mit ner GT530? Ist klar ;) Was für Spiele spielst du, dass du das glaubst?
Vor 4-5 Jahren hat das Nvidia Flaggschiff auch noch nicht 800€ gekostet (SingleGPU GTXbeliebige Zahl80), sodass das schon sehr sparsam war im Vergleich zu jährlichen Upgrades.
Kurz zum Verständnis: Du spielst absichtlich auf 1280x1024p damit du die Spiele solange wie möglich auf Ultra spielen kannst? naja ob man da noch von Grafikpracht sprechen kann ist wohl Ansichtssache^^ Ich denke mal das so gut wie jedes Game in 1440p auf "Mittel" besser aussehen wird als in 1080p auf "Ultra".
[...]
:btt2:
Mit ner 1080ti landest du in Full HD wohl eher ins Cpu Limit, da die Karte eher für höhere Auflösungen gedacht ist und sich in Full HD langweilt.
Für Full HD sehe ich höchstens die 1070 noch als angemessen an, alles andere wäre meiner Meinung nach overkill. Selbst für 144hz reicht da noch ne 1060/480 bei Multiplayer-Shooter aus.
[...]
Sehe es da auch so wie DivineLight: Lieber alle zwei Jahre 200€ ausgeben als alle 6 Jahre 800€, weil so nimmst du immer den aktuellen Stand der Technik mit (kleinere Fertigung, Effizienz, usw.) In 3-4 Jahren bekommst vllt schon die Leistung einer 1080 ti für 250€
[...]
Bei den aktuellen Preisen haste dir ja ne gute Zeit zum aufrüsten ausgesucht, aber naja was soll man machen :fresse:
Nein, ich habe absichtlich lange nicht einen neuen Monitor gekauft, damit der, zu diesem Zeitpunkt verbauten GPU, nicht schneller die Puste ausgeht, als es sein müsste.
Du bist im Irrglauben, dass mehr Pixelfläche auf "Mittel" besser aussieht als "Ultra" auf weniger Pixelfläche :) Polygonarm bleibt polygonarm, Texturen bleiben matschig, selbst auf 8K Auflösung.
Die 1070 schafft Wildlands und andere, in naher Zukunft erscheinende Blockbuster sehr bald kaum/nicht mehr in FullHD.
Das Argument mit den 800€ alle 6 Jahre ist wie gesagt nichtig, weder meine 580, noch die 780, noch die 980 haben 800€ gekostet.
Genau, das macht AMD nämlich beim Ryzen auch weil sie wollen, daß ihre Produkte absichtlich langsamer sind damit sie niemand kauft weil der Besitzer so sehr daran hängt. :fresse:
Wenn zu Beginn des Spiels eine Nvidia Logo kommt bedeutet das nicht Kooperation sondern Sponsoring und das Geld holt man sich durch höhere Preise von den Kunden wieder.
Eine echte Kooperation ist AMD FreeSync und nicht Abzocke durch Nvidia G-Sync. Wenn dir eine Ti zu teuer ist dann nimm die normale 1080. Reicht für 60FPS@60Hz dicke aus.
Komisch, warum laufen in 8 von 10 Spielen Nvidia GPUs schneller und bugfreier als ihre AMD Pendants? In den jeweiligen Spiele-Foren hört man die AMD Besitzer immer am lautesten schreien: "MSAA geht nicht!" "Ich habe nur einen schwarzen Bilschirm!" "Läuft mit 20FPS max, euer ernst?!" etc.
Mag sein, dass AMD "fairer" und theoretisch gute Grafikkarten baut, praktisch sind die kacke. Hatte selbst mal ne HD4850 und war schockiert.
Du hast also lieber 4x DSR auf 1280x1024 gespielt was real dann 2560*2048 entspricht als das auf einem modernen Monitor nativ anzeigen zu lassen? Du verschenkst damit einfach unnötig Bildqualität und die Leistung forderst du trotzdem von der GPU. Du forderst also schon länger von deiner Grafikkarte eine Auflösung über 2k zu berechnen. Warum dann nicht direkt auf einen 2560x1440p Bildschirm gehen anstatt wieder künstliche über DSR die Auflösung hoch zu drehen. Das sieht außerdem eh um Welten besser aus.
[...]
Ebenso wieder eine falsche Annahme. Auch der Monitor hat einen großen Einfluss auf das Bild. Gerade die Low-End Modelle haben eben keine so gute Farbtreue und auch die Schwarzwerte sind teils sehr schlecht.
[...]
Ja wenn man es drauf anlegt bekommt man jede GPU klein. Auf der anderen Seite könnte man aber auch sagen wenn man die Regler bedienen kann reicht eine 1080 ganz easy für 1080p und hohe FPS ohne das man einen Qualitätsunterschied sieht.
Natürlich habe ich auf selber Fläche lieber 1280x1024 4xDSR als 2560x2048 nativ, schließlich gibt es keine bessere Kantenglättung/Flimmerbeseitigung. Das ist der Sinn von DSR und die Bildqualität leidet unter DSR natürlich nicht (man muss im Treiber die "Glättung" deaktivieren".
Das ist keine falsche Annahme, du hast die Aussage falsch verstanden. Es ging darum, dass 2019 GTA7 für den PC mit einem FHD Monitor und einer 1080TI eher auf maximalen Einstellungen nativ geschmeidig läuft, als natürlich auf einem 1440p oder noch schlimmer 4K Monitor nativ.
Ich habe den gleichen Prozzi wie Du allerdings einen 144hz Monitor und ich bin froh mir eine 1080ti gekauft zu haben.
Ich werde aber auch bald auf einen besseren Monitor umsteigen.
Ja die Preise sind abartig, aber meine Interesse wächst von Tag zu Tag... :haha:

Danke @Low und Godfather88 für die Tipps :)
 
Zuletzt bearbeitet:
Komisch, warum laufen in 8 von 10 Spielen Nvidia GPUs schneller und bugfreier als ihre AMD Pendants? In den jeweiligen Spiele-Foren hört man die AMD Besitzer immer am lautesten schreien: "MSAA geht nicht!" "Ich habe nur einen schwarzen Bilschirm!" "Läuft mit 20FPS max, euer ernst?!" etc.
In welchen Foren soll das denn bitte so sein? Wieso sollte MSAA nicht gehen? Ich habe die letzten Jahre immer wieder GPU´s aus beiden Lagern gehabt und hatte mit beiden genau gleich viele Probleme.

Mag sein, dass AMD "fairer" und theoretisch gute Grafikkarten baut, praktisch sind die kacke. Hatte selbst mal ne HD4850 und war schockiert.
Praktisch sind die alles andere als Kacke. Die 4850 ist ja schon gut 10 Jahre her. Alle guten Karten der letzten Jahre hast du da einfach mal gekonnt ignoriert. Gerade du als derjenige der seine GPU 5 Jahre nutzen will solltest dir AMD mal stark überlegen.

Natürlich habe ich auf selber Fläche lieber 1280x1024 4xDSR als 2560x2048 nativ, schließlich gibt es keine bessere Kantenglättung/Flimmerbeseitigung. Das ist der Sinn von DSR und die Bildqualität leidet unter DSR natürlich nicht (man muss im Treiber die "Glättung" deaktivieren".
Das ist keine falsche Annahme, du hast die Aussage falsch verstanden. Es ging darum, dass 2019 GTA7 für den PC mit einem FHD Monitor und einer 1080TI eher auf maximalen Einstellungen nativ geschmeidig läuft, als natürlich auf einem 1440p oder noch schlimmer 4K Monitor nativ.

Ich merke schon, dass dir einzig wichtig ist alle Einstellungen auf Ultra zu stellen. Was am Ende an sichtbarer Bildqualität raus kommt ist dir zwar nicht egal aber du hast keine Ahnung wie sich was auswirkt. Du magst zwar schön geglättete Kanten haben wenn du 1280x1024 mit 4x DSR spielst aber das das Bild allgemein matschiger aussieht und Detail besondern auf Entfernung wesentlich schlechter rüber kommen lässt du bei deiner Betrachtung außer acht.

Nein, ich habe absichtlich lange nicht einen neuen Monitor gekauft, damit der, zu diesem Zeitpunkt verbauten GPU, nicht schneller die Puste ausgeht, als es sein müsste.
Du bist im Irrglauben, dass mehr Pixelfläche auf "Mittel" besser aussieht als "Ultra" auf weniger Pixelfläche :) Polygonarm bleibt polygonarm, Texturen bleiben matschig, selbst auf 8K Auflösung.
Die 1070 schafft Wildlands und andere, in naher Zukunft erscheinende Blockbuster sehr bald kaum/nicht mehr in FullHD.
Das Argument mit den 800€ alle 6 Jahre ist wie gesagt nichtig, weder meine 580, noch die 780, noch die 980 haben 800€ gekostet.
Danke @Low und Godfather88 für die Tipps :)

Stimmt so ebenfalls nicht. Texturen verbrauchen so gut wie keine Leistung sondern gehen rein auf den Speicher. Die kannst du insofern du genug davon hast immer so weit hoch drehen wie du willst.
Das Argument Pixelfläche "Mittel" vs. weniger Pixelfläche "Ultra" zählt ebenso nicht denn du machst genau das Gegenteil. Du nimmst eine kleinere Auflösung und schraubst die berechneten Pixel mit DSR hoch. Das heißt du zeigst auf einer geringeren Pixeldichte (das ist btw. der richtige Ausdruck dafür) Pixel an die mit höherem Aufwand bzw. Genauigkeit berechnet wurden anstatt einfach mehr Pixel direkt anzuzeigen. Höhere Pixeldichte resultiert direkt in einem schärferen Bild. Außerdem ist der Bedarf an Antialiasing geringer und die Tiefendarstellung wesentlich präziser.
 
Zuletzt bearbeitet:
Vielleicht wäre ein FreeSync + Vega eine Überlegung für den TE?
 
Ja wenn man es drauf anlegt bekommt man jede GPU klein. Auf der anderen Seite könnte man aber auch sagen wenn man die Regler bedienen kann reicht eine 1080 ganz easy für 1080p und hohe FPS ohne das man einen Qualitätsunterschied sieht.

Naja, ich kaufe mir keine TI um um auf Mittel zu orgeln... Ich stelle das so ein, das de GPU immer 99-100% Last hat, sodass ich nicht ins CPU Limmit laufe. Da gibt es einige Games die auf 1080P selbst mit der TI nur 30-50FPS liefern. Gerade mit Downsampling iss da ganz schnell Schicht im Schacht und meine läuft auf 2,1Ghz...
 
du spielst doch nicht absichtlich mit 30-50 fps wenn du mit lockeren settings die 60fps@60hz halten kannst oder doch?
 
Naja, ich kaufe mir keine TI um um auf Mittel zu orgeln... Ich stelle das so ein, das de GPU immer 99-100% Last hat, sodass ich nicht ins CPU Limmit laufe. Da gibt es einige Games die auf 1080P selbst mit der TI nur 30-50FPS liefern. Gerade mit Downsampling iss da ganz schnell Schicht im Schacht und meine läuft auf 2,1Ghz...

Mag sein aber insofern du Downsampling benutzt ist es ja kein Wunder da du nicht mehr in nativen 1080p berechnest. Es war schon immer so, dass manche Spiele einfach unglaublich mies mit Leistung skalieren bzw. unproportional viel brauchten.

Gegenfrage:
Würdest du dir eine TI holen um dann mit einem Low End 1080p Monitor zu spielen? Der Monitor ist das Gerät an einem PC welches einen normal am längsten begleitet. Da sollte man nicht zu sparsam sein und zumindest etwas zum Kaufzeitpunkt solides holen und nicht Low End.
 
Zuletzt bearbeitet:
In welchen Foren soll das denn bitte so sein? Wieso sollte MSAA nicht gehen? Ich habe die letzten Jahre immer wieder GPU´s aus beiden Lagern gehabt und hatte mit beiden genau gleich viele Probleme.
[...]
Praktisch sind die alles andere als Kacke. Die 4850 ist ja schon gut 10 Jahre her. Alle guten Karten der letzten Jahre hast du da einfach mal gekonnt ignoriert. Gerade du als derjenige der seine GPU 5 Jahre nutzen will solltest dir AMD mal stark überlegen.
[...]
Ich merke schon, dass dir einzig wichtig ist alle Einstellungen auf Ultra zu stellen. Was am Ende an sichtbarer Bildqualität raus kommt ist dir zwar nicht egal aber du hast keine Ahnung wie sich was auswirkt. Du magst zwar schön geglättete Kanten haben wenn du 1280x1024 mit 4x DSR spielst aber das das Bild allgemein matschiger aussieht und Detail besondern auf Entfernung wesentlich schlechter rüber kommen lässt du bei deiner Betrachtung außer acht.
[...]
Stimmt so ebenfalls nicht. Texturen verbrauchen so gut wie keine Leistung sondern gehen rein auf den Speicher. Die kannst du insofern du genug davon hast immer so weit hoch drehen wie du willst.
Das Argument Pixelfläche "Mittel" vs. weniger Pixelfläche "Ultra" zählt ebenso nicht denn du machst genau das Gegenteil. Du nimmst eine kleinere Auflösung und schraubst die berechneten Pixel mit DSR hoch. Das heißt du zeigst auf einer geringeren Pixeldichte (das ist btw. der richtige Ausdruck dafür) Pixel an die mit höherem Aufwand bzw. Genauigkeit berechnet wurden anstatt einfach mehr Pixel direkt anzuzeigen. Höhere Pixeldichte resultiert direkt in einem schärferen Bild. Außerdem ist der Bedarf an Antialiasing geringer und die Tiefendarstellung wesentlich präziser.
Ich bin mir nicht sicher, ob du "low end 1080p" genauso meinst wie ich. Ich meine damit, dass 1080p im Prinzip die geringste Pixeldichte (danke für den Hinweis ;) ) ist, die man kaufen kann (low end), dennoch das Panel in Punkten Helligkeit, Kontrast, Blickwinkel etc. high end sein kann/soll. SO einen Monitor suche ich übrigens in dem Monitor Unterforum hier :d
Nvidia ist sicherlich nicht fehlerfrei, aber AMD ist allein schon durch die Treiber berühmt, die (für einen Treiber) irrsinnig viel CPU Leistung fressen, damit die GPU erst ihren Dienst verrichten kann. MSAA und andere diverse Modis sind von Spieleengine zu Spieleengine anders umgesetzt und meistens verkackt AMD, diese richtig umzusetzen. Gab es früher bei Crysis und gibt/gab es heute noch bei Wildlands.
Okay, ich bin aber ganz Ohr für deinen Tipp, dass ein "Seltenupgrader" wie ich lieber zu AMD greifen sollte :) Welche AMD Karte hält eher 5 Jahre "Ultra Settings" aus als die 1080TI?
4xDSR frisst weniger Details in der Entfernung als irgendein AA Modus über die native Auflösung geklatscht. Bei den Texturen hast du recht, ging mir um die allgemeine Optik. Lieber 22-24 Zoll FHD auf Ultra als 22-24 Zoll 4K auf Mittel. Was nützt mir die Schärfe, wenn das Spiel dann aussieht wie Age of Empires.
 
1.310.720 Pixel 5:4
2.073.600 Pixel 16:9
2.764.800 Pixel 21:9

Aber hauptsache der Unterschied liegt nur in den Bildzeilen :d
Nach deiner Logik würde ein 3440x1440p genau so viel GPU Leistung benötigen wie ein 2560x1440p Display ... BS Güteklasse 1a
 
Zuletzt bearbeitet:
Die letzten Wochen gab es die 1080 Ti für <600 bzw 600 Euro mit Spiel (Mindfactory) als einfache Custom Version bzw. 650 Euro für eine Aorus Extreme.
Gabs dafür nen Grund - 1000 Jahr Mindfactory-Jubiläum, oder Nvidea-Happy-Days ? ...immerhin 150-200 Euro weniger als zur Zeit.

Und aktuell gehen die 1070er Karten gebraucht für 400 Euro und mehr weg.
Sind die auch wegen dem Mining-Scheiß aktuell noch gebraucht so teuer?

Wenn man aktuell etwas kaufen will, dann bleibt nur eine 1080 bzw. 1080 Ti. Falls Vega kommt, so kann die Lieferbarkeit + Preis eine große Rolle spielen.
Spiele auch mit dem Gedanken an eine 1080Ti - Auf dem 38" LG (38UC99) zappelt meine 1070 doch ab und an am Limit. Warte auch darauf das VEGA sich lichtet...Vermutlich gehts dann auch mit dem Preis für die 1080Ti noch etwas runter...(sofern AMD was gescheites rüber bringt)
 
Na dann sind nach deiner Logik alle 16:9 Monitore Mist seitdem es 21:9 gibt !? :rolleyes:

Wo steht das? Deine Aussage war mehr Bildzeilen = mehr GPU Leistung ... das ist totaler Quatsch denn mehr Pixel brauchen mehr Leistung scheiß egal auf wie viele Zeilen du die aufteilst ...
 
SGSSAA ist noch einen Tick besser bei Bewegung aber jedes mal per Nvidia Inspector rumfummeln um die passenden Settings zu finden nervt und seit DX10 ist es eh vorbei.
Zudem werden durch DSR die Texturen schärfer. Ich zocke älteres Zeug auch mit 4x DSR auf FHD also Fake 4K aber dafür mit 144Hz statt 60Hz wie bei nativen 4K Monitoren.

Wer meint 1280x1024 wäre eine niedrige Auflösung der liegt falsch:

4:3 == 1280 x 1024p
16:9 = 1920 x 1080p
21:9 = 2560 x 1080p

Es ist nur ein anderes Bildformat aber fast genauso viele Bildzeilen.

Ihr habt Performer da falsch verstanden. Er wollte glaube ich darauf hinaus das bei gleicher Höhe des Monitors also 30cm eine 1280x1024p Auflösung eine recht ähnliche Pixeldichte hat wie ein Monitor mit 1080p auf der gleichen Höhe. Es fehlt einfach nur die Breite.

Ich bin mir nicht sicher, ob du "low end 1080p" genauso meinst wie ich. Ich meine damit, dass 1080p im Prinzip die geringste Pixeldichte (danke für den Hinweis ;) ) ist, die man kaufen kann (low end), dennoch das Panel in Punkten Helligkeit, Kontrast, Blickwinkel etc. high end sein kann/soll. SO einen Monitor suche ich übrigens in dem Monitor Unterforum hier :d
Nvidia ist sicherlich nicht fehlerfrei, aber AMD ist allein schon durch die Treiber berühmt, die (für einen Treiber) irrsinnig viel CPU Leistung fressen, damit die GPU erst ihren Dienst verrichten kann. MSAA und andere diverse Modis sind von Spieleengine zu Spieleengine anders umgesetzt und meistens verkackt AMD, diese richtig umzusetzen. Gab es früher bei Crysis und gibt/gab es heute noch bei Wildlands.
Okay, ich bin aber ganz Ohr für deinen Tipp, dass ein "Seltenupgrader" wie ich lieber zu AMD greifen sollte :) Welche AMD Karte hält eher 5 Jahre "Ultra Settings" aus als die 1080TI?
4xDSR frisst weniger Details in der Entfernung als irgendein AA Modus über die native Auflösung geklatscht. Bei den Texturen hast du recht, ging mir um die allgemeine Optik. Lieber 22-24 Zoll FHD auf Ultra als 22-24 Zoll 4K auf Mittel. Was nützt mir die Schärfe, wenn das Spiel dann aussieht wie Age of Empires.

Dann drück dich doch bitte mal vernünftig aus. Low End 1080p heißt eben nicht den besten 1080p Monitor.
Behalt ruhig deine Vorurteile gegenüber AMD bei. Ist besser so wenn du dann Nvidia kaufst. Würdest eh nicht damit Glücklich werden da du das Haar in der Suppe suchen würdest um ein Problem zu finden. Wenn du seit der 4850 keine AMD mehr hattest woher willst du denn wissen was AMD verkackt?

Warum sollte 4xDSR Details fressen? Ich glaube du hast da was grundlegend falsch verstanden. Ich versteh auch nicht warum du dich hier so auf 4k einschießt. Es gibt dazwischen doch auch noch eine verbreitete Auflösung.
 
Zuletzt bearbeitet:
Du drehst dir auch alles passend was nirgends steht ne? Sieh es ein das deine Aussage Mist war - mehr habe ich nicht geschrieben.

Ich selbst bevorzuge 16:9 und meine "Logik" hat nur vorgerechnet, das ein deutlicher Unterschied in der Zahl der Pixel besteht bei "gleicher Auflösung" und du 4:3 nicht mal vernünftig zusammen bekommst ...
 
Da ich hier im Grafikkarten Unterforum bin, speziell die Frage nach der Sinnhaftigkeit eines Upgrades. Ist der Flaschenhals eher der Prozessor?

Schau doch einfach beim zocken hin.
Graka voll ausgelastet: Graka am Ende, neue Graka kaufen.
Graka nicht voll ausgelastet: CPU am Ende oder RAM/VRAM voll

JA, es ist so einfach. Und zu 100% von Dir und Deiner Software/Settings abhängig. Hier raten doch nur alle. Du kannst nachschauen.
 
Dann drück dich doch bitte mal vernünftig aus. Low End 1080p heißt eben nicht den besten 1080p Monitor.
Behalt ruhig deine Vorurteile gegenüber AMD bei. Ist besser so wenn du dann Nvidia kaufst. Würdest eh nicht damit Glücklich werden da du das Haar in der Suppe suchen würdest um ein Problem zu finden. Wenn du seit der 4850 keine AMD mehr hattest woher willst du denn wissen was AMD verkackt?
Warum sollte 4xDSR Details fressen? Ich glaube du hast da was grundlegend falsch verstanden. Ich versteh auch nicht warum du dich hier so auf 4k einschießt. Es gibt dazwischen doch auch noch eine verbreitete Auflösung.
Keine Ahnung was dir für eine Laus über die Leber gelaufen ist. Ich habe versucht meinen Text an dich mit Smileys zu entschärfen. Aber sei's drum:
1. Lies bitte genauer, der Erfinder des Wortgeflechtes "Low end 1080p" bist du, nicht ich.
2. Du hast es nicht definiert, was du meinst, ich schon.
Wieso Vorurteile, zeig mir zwei, drei Ubisoft Foren (oder Publisher deiner Wahl), wo nicht AMD ganz vorne bei den Fehlermeldungen der User dabei ist.
Ich weiß, dass AMD im Durchschnitt öfter verkackt, weil ich lesen kann. Übrigens Definition verkackt = Bereitet Probleme im Bereich Leistung/Grafikfehler und dergleichen ;)
Wieso antwortest du nicht auf meine Frage, welche AMD GPU du einem Seltenupgrader, also mir, empfiehlst?
Schau doch einfach beim zocken hin.
Graka voll ausgelastet: Graka am Ende, neue Graka kaufen.
Graka nicht voll ausgelastet: CPU am Ende oder RAM/VRAM voll

JA, es ist so einfach. Und zu 100% von Dir und Deiner Software/Settings abhängig. Hier raten doch nur alle. Du kannst nachschauen.
Das stimmt, die Frage war aber noch allgemeiner gemeint. Und zwar, falls ich jetzt die CPU auf "6 Kerne+" (ob Skylake X oder Ryzen mal dahin gestellt) upgrade, die GTX980 noch ausreicht oder umgekehrt, falls ich jetzt eine 1080TI kaufe, der 4770K noch ausreicht.
Ausreicht= Spiele wie Wildlands in voller Pracht
 
Zuletzt bearbeitet:
Aber "low-end" FullHD reicht mir wieder vollkommen und eine 1080 TI kann ein paar Jahre alles bedienen.
Ich sehe grade das du dich damit auf den Beitrag vor dir beziehst. Dort wurde die Auflösung als Low-End also unterste sinnvolle Auflösung bezeichnet woraus du dann "Low-End" FullHD gemacht hast was ich dann auch den Monitor als gesamtes bezogen habe.
Sprache ist manchmal ein ********* ;)

Zu Ubisoft: Ich hab selber ne Zeit mit der 480 gespielt und hatte keine Probleme. Sowohl Rainbow Six als auch Wildlands Beta liefen soweit gut (Wildlands in der Beta lief ja generell eher mies). Um deiner Aussage mal auf die Spur zu gehen habe ich mal im Technical Support Forum von Wildlands vorbei geschaut. ist ja das letzte große Game von denen. Ergebnis:

Code:
1. Game Freeze at 95% Load - GTX 1070
2. Cant run at Medium Settings - GTX 750ti
3. Game Freeze open the TACMAP - Keine Gpu angegeben
4. Savegame timing - Keine Gpu angegeben
5. CPU Usage while savin - Keine Gpu angegeben
6. Ingame Kram
7. Persistent Bugs, CTD und BSOD - GTX 1080 TI
8. Cursor no longer visible - GTX 1060
9. Low FPS Stuttering - Opener nennt keine GPU aber im Thread werden gleiche Probleme von Personen mit GTX 970 und mit Nvidia Treiber 382.33 berichtet
10. Solved why 100% disc use, game freezes for 5+ seconds at points & on auto save - GTX 980ti
11. Stupid FOV mit NVSurround
12. Mission not unlocking
13. Game won´t launch - Lösung: If you have nVidia, try to uninstall NVidia GeForce Experience ... this works for me.
14. Crash to Desktop a lot since patch 4.0 - Sapphire RX470
	-Confirming that the problem lies in the city of Libertad and surrounding areas. So it's impossible to play there
	Answer: Have the eksact same problem here after update 4, game CTD frequently, so now i have given up on this game. - GTX 1080

Auf der ersten Seite wird ein einziges mal AMD genannt und im gleichen Thread berichtet ein anderer User mit einer GTX 1080 von den gleichen Problemen.

Wie gesagt nutze ich beide Hersteller regelmäßig und wenn es zu einem Problem kommt ist es in den allermeisten Fällen nicht der Treiber sondern das Spiel. Ubisoft ist nicht sonderlich bekannt dafür Bugfreie Spiele auf den Markt zu werden.
Derzeit gibt es nichts passendes von AMD. Die Karten sind dank des Mininghype eh alle vergriffen. Vega kommt Ende des Monats für den Profimarkt raus. Dann kann die Leistung davon einschätzen. Die Karte wäre derzeit Interessant für dich. Leistung müssen wir abwarten. Erwartung ist derzeit etwas 1080ti. Mal besser mal schlechter.

Zu CPU. Ich würde den 4770k noch behalten. Amd gerade erst ihre neuen raus gebracht und Intel bringt im Mainstream bald den 6 Kerner. Die X299er Plattform würde ich dir nur bedingt empfehlen wegen den sehr hohen Kosten. Noch dürfte der 4770k mit OC ausreichen. Willst du allerdings auf 144hz wechseln müsste man das nochmal im Detail gucken.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh