Von nVidia zu AMD

Ich habe einfach die Erfahrung gemacht, dass ich mit ATi Karten immer was zu basteln hatte... sei es an Treibern oder an der Lüftung... Mit nVidia hat man einfach weniger Stress...
Angefangen hat der "Vorteil" bei BF2, Crysis, etc.

Profile konnt eman als erstes bei nVidia erstellen etc. Ist für mich einfach alles in allem "durchdachter"... Bin aber auch Apple-Fan... Vielleicht hängt das zusammen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ach ja? Warum lese ich dann in diversen Foren noch immer von dauernden Treiberresets obwohl das Problem doch behoben sein soll?

Da muss man etwas differenzieren.
Viele bügeln den Omega Treiber einfach drüber und haben eben dann Probleme. Sauber de und installiert läuft der wirklich gut, sofern das System stabil ist.


Habe ich nicht gehabt (mein System hatte eine 480 und das Zweitsys eine GTS 450).

Es waren auch nur die GTX 460 und GTX 560 Karten davon betroffen und ja es waren sehr viele die davon betroffen waren.
Nicht umsonst hat Nvidia dazu aufgerufen dass sich betroffene User melden und die genau Konfiguration + dem Problem durchgeben sollen. Die 330 Treiber waren für die beiden Karten einige Monate nicht zu gebrauchen.


Wo denn?

Ins Games sicher nimmer mehr.

Und ja, in Games ist die 780 TI gleich auf mit der 980.
Selbst bei max. OC ist die 780 TI gleich auf oder sogar vorn und wirklich sparsamer ist die 980 auch nicht. Einzig der 1GB mehr VRAM macht sich bei 4K bemerkbar, das war es aber dann auch schon.
 
Vergleiche ich dort ref gtx980 vs ref gtx780ti so ist die gtx980 doch flotter?
Letztendlich hat man mit beiden Karten gefühlt die gleiche Leistung
 
Zuletzt bearbeitet:
Mein Thread ist zur Normandie geworden :O
 
Am meisten nervt das Fanboygelaber.
Ich habe in den letzten 15 Jahren immer wieder beide Hersteller gehabt und mit beiden auch mal Probleme gehabt, aber gelaufen habe sie im Endeffekt alle.
Viele Probleme beim Treiber sitzen auch zwischen Stuhl und Tastatur. ;)
 
Am meisten nervt das Fanboygelaber.
Ich habe in den letzten 15 Jahren immer wieder beide Hersteller gehabt und mit beiden auch mal Probleme gehabt, aber gelaufen habe sie im Endeffekt alle.
Viele Probleme beim Treiber sitzen auch zwischen Stuhl und Tastatur. ;)

Bei mir genauso. +1
 
Da muss man etwas differenzieren.
Viele bügeln den Omega Treiber einfach drüber und haben eben dann Probleme. Sauber de und installiert läuft der wirklich gut, sofern das System stabil ist.




Es waren auch nur die GTX 460 und GTX 560 Karten davon betroffen und ja es waren sehr viele die davon betroffen waren.
Nicht umsonst hat Nvidia dazu aufgerufen dass sich betroffene User melden und die genau Konfiguration + dem Problem durchgeben sollen. Die 330 Treiber waren für die beiden Karten einige Monate nicht zu gebrauchen.




Und ja, in Games ist die 780 TI gleich auf mit der 980.
Selbst bei max. OC ist die 780 TI gleich auf oder sogar vorn und wirklich sparsamer ist die 980 auch nicht. Einzig der 1GB mehr VRAM macht sich bei 4K bemerkbar, das war es aber dann auch schon.

Die TI hat definitv zu wenig VRAM

- - - Updated - - -

Bei mir genauso. +1

Bei mir genauso+
Aber habe halt gerne immer da Optimum

- - - Updated - - -

was ein blödsinn

jedesmal das gleiche bei den Nvidia JNungs. AMD hat gute arbeitet geleistet, aber wird nicht anerkannt
Was Nvidia für krasse Treiberprobs hatte ist egal was. sage nur die 460 und 560er mit den Bluescreens ab 330er Treiber
Das hat ewig gedauert bis ees behoben wirde.
BF2 lief am Anfang sowas von grottenschlecht auf den Fermis. Das hat auch fast halbes Jahr gedauert bis es mal ohne
lags lief


ich kaufe beide Seiten. aber zu der 900er Serie würde ich niemals greifen. Da würde ich mir eher ne 780er holen

So ein Schwachsinn, die TI sind doch bzgl VRAM keine Option.
 
Bei mir genauso+
Aber habe halt gerne immer da Optimimum

Ich muss auch sagen das die 980 derzeit das Optimum ist.
Die 780 Ti hat zu wenig VRAM und die Titan Black ist preislich einfach keine Option.

Ich bin mit meiner 290X auch sehr zufrieden, obwohl ich die Jahre davor nur Nvidia Karten hatte.
 
Vram soll ich lachen. Jetzt auf einmal kommen die nvidia user. Vorher aber lachen bei AMD und sagen die 3gb vram braucht man nicht. 2gb würden reichen.
Und die 700er Serie sind von der Qualität der verbauten Teile der 900er Serie deutlich überlegen
 
Zuletzt bearbeitet von einem Moderator:
Uhh. Die Gigabyte 970 ist mit 2% vorne in 1920x1080 verbraucht weniger Strom und erzeugt weniger Hitze.

In Full-HD sind die NVIDIA-Karten stark. Das Stimmt, aber darüber wird es dann deutlich dünner. Ab 4k ist die R9 290X schon fast an der OC-GTX 980 dran. Sind eben nicht fürs richtige Gamen geeignet. :d
Und du weißt hoffentlich, das die MSI(nicht Gigabyte) nur schneller ist, weil es sich hierbei um ein OC-Modell handelt. Die R9 290X ist es nicht ! Die ist Referenz.
 
Mir gefällt es, vor allem da ich grade wieder sabbernd auf mein CrossFire-Gespann geschaut habe (verdammt sind die Vapor-X sexy!). Bin jetzt echt zufrieden. In Games performen die beiden wie die Seuche. Macht richtig Laune :P
Treiberprobleme habe ich übrigens keine und von meiner GTX770 ist es natürlich gefühlt ein Quantensprung :)
 
In Full-HD sind die NVIDIA-Karten stark. Das Stimmt, aber darüber wird es dann deutlich dünner. Ab 4k ist die R9 290X schon fast an der OC-GTX 980 dran. Sind eben nicht fürs richtige Gamen geeignet. :d
Und du weißt hoffentlich, das die MSI(nicht Gigabyte) nur schneller ist, weil es sich hierbei um ein OC-Modell handelt. Die R9 290X ist es nicht ! Die ist Referenz.

Ach Du :wall: . WQHD ist angesagt. Und da ist NVIDIA auch sehr stark. 4K Gameing erst vernünftig möglich mit der nächsten oder übernächsten Generation.


Und für echtes anspruchsvolles Gameing hat NVIDIA mit GSync einen Hammer rausgelassen.
Da kommt man momentan als Gamer nicht vorbei
 
Zuletzt bearbeitet:

Also es sollte doch nun hinlänglich bekannt sein, dass ht4u bei ihren Tests den Boost ausknipst und die Karten auf einen Taktwert festzutackern scheint!? Zumindest haben die das eine ganze Zeit lang so gemacht.
Meine Ref. Zotac 780TI läuft bei entsprechend kühlem System mit Strich 1006MHz ohne irgendwelches Zutun meinerseits. Die 780TI DC2 von Asus macht immerhin noch 993MHz strich. Nix mit 928MHz, wie es ht4u angibt. Das sind allein gute 7%.

Das gilt zwar auch für die anderen Modelle, dennoch sollte man bedenken, dass bei der TI da ne ganze Menge mehr Luft vorhanden ist... So eine 1150-1200MHz Werks OC TI macht mit ihrem Standard Boost mal gute 20% über der Ref. Ich sehe keine 980er oder 970er Karte, die das schafft... Obenrum scheint die Skalierung nicht gerade rosig mit dem Takt, wie Vergleiche diverser Modelle mittlerweile zeigen gehts da um 5-10% rauf und runter... Je nach Modell und Spiel. Schau dir dazu alte Tests der 780TI Modelle an. Da gehts bis knapp 15% über der 780TI MAX. Also 15% über ~1000MHz default Boost bei maximierten PT/TT einer Ref. Karte drüber hinaus.

Zähle dann 1 und 1 zusammen und stelle fast, das die TI, wenn auch nur sehr knapp idR die Nase vorn hat. Was ihr in den nächsten Jahren allerdings auf die Füße fallen kann bzw. wird ist der 3GB VRAM. Heute aber reicht das für gut 99% aller Spiele aus... Gibt bestenfalls ein paar wenige, die das Limit sprengen ;) Und ja, ich war selbst erstaunt, dass dies so gut zu funktionieren scheint. Mit den 2GB der 680er war ich auch alle Nase lang mal drüber inkl. Ruckelorgie.

In Full-HD sind die NVIDIA-Karten stark. Das Stimmt, aber darüber wird es dann deutlich dünner. Ab 4k ist die R9 290X schon fast an der OC-GTX 980 dran. Sind eben nicht fürs richtige Gamen geeignet. :d

Schon wieder dieser Sülz... Zeig uns doch einfach den Benchmark, wo die NV GPUs in "ab 4k" verlieren und die 290er Karten deutlich näher ran rücken... Weiter oben habe ich dir schon Werte benannt das im Schnitt auch bei UHD in etwa 20% Leistungsunterschied zu Hawaii über bleiben. Bei FHD sinds 25%, wow... Das reißt es definitiv raus. Aber ja, du wirst mit beiden Karten kein UHD flüssig in neueren Titeln hinbekommen... Es sei denn du stehst auf Ruckelorgien. Aber dann ists auch scheiß egal ob die 290X schneller ist als die NV Modelle, selbst wenn sie 100% schneller wäre. Aus 5 FPS dann halt 10 gemacht -> beides unspielbar, also :wayne:
 
Es war auf die 970 und 980 bezogen... An vram scheitert es nicht, aber das hatten wir schon so oft

4K ist mit den derzeitigen Karten nicht wirklich spielbar also kaum relevant. Komme übrigens bei FarCry 4 in Ultrasettings schon auf 3,5 GByte vram Auslastung. Von Watchdoges will ich erst gar nicht reden.

- - - Updated - - -

Also es sollte doch nun hinlänglich bekannt sein, dass ht4u bei ihren Tests den Boost ausknipst und die Karten auf einen Taktwert festzutackern scheint!? Zumindest haben die das eine ganze Zeit lang so gemacht.
Meine Ref. Zotac 780TI läuft bei entsprechend kühlem System mit Strich 1006MHz ohne irgendwelches Zutun meinerseits. Die 780TI DC2 von Asus macht immerhin noch 993MHz strich. Nix mit 928MHz, wie es ht4u angibt. Das sind allein gute 7%.

Das gilt zwar auch für die anderen Modelle, dennoch sollte man bedenken, dass bei der TI da ne ganze Menge mehr Luft vorhanden ist... So eine 1150-1200MHz Werks OC TI macht mit ihrem Standard Boost mal gute 20% über der Ref. Ich sehe keine 980er oder 970er Karte, die das schafft... Obenrum scheint die Skalierung nicht gerade rosig mit dem Takt, wie Vergleiche diverser Modelle mittlerweile zeigen gehts da um 5-10% rauf und runter... Je nach Modell und Spiel. Schau dir dazu alte Tests der 780TI Modelle an. Da gehts bis knapp 15% über der 780TI MAX. Also 15% über ~1000MHz default Boost bei maximierten PT/TT einer Ref. Karte drüber hinaus.

Zähle dann 1 und 1 zusammen und stelle fast, das die TI, wenn auch nur sehr knapp idR die Nase vorn hat. Was ihr in den nächsten Jahren allerdings auf die Füße fallen kann bzw. wird ist der 3GB VRAM. Heute aber reicht das für gut 99% aller Spiele aus... Gibt bestenfalls ein paar wenige, die das Limit sprengen ;) Und ja, ich war selbst erstaunt, dass dies so gut zu funktionieren scheint. Mit den 2GB der 680er war ich auch alle Nase lang mal drüber inkl. Ruckelorgie.



Schon wieder dieser Sülz... Zeig uns doch einfach den Benchmark, wo die NV GPUs in "ab 4k" verlieren und die 290er Karten deutlich näher ran rücken... Weiter oben habe ich dir schon Werte benannt das im Schnitt auch bei UHD in etwa 20% Leistungsunterschied zu Hawaii über bleiben. Bei FHD sinds 25%, wow... Das reißt es definitiv raus. Aber ja, du wirst mit beiden Karten kein UHD flüssig in neueren Titeln hinbekommen... Es sei denn du stehst auf Ruckelorgien. Aber dann ists auch scheiß egal ob die 290X schneller ist als die NV Modelle, selbst wenn sie 100% schneller wäre. Aus 5 FPS dann halt 10 gemacht -> beides unspielbar, also :wayne:

+1 Endlich. Sehr vernünftig.
 
Ich hab jetzt auf jeden Fall genug Dampf vom Netzteil her, also auch für die nächste Generation von AMD ausreichend Power (sollen ja sparsamer werden) und für nVidia sowieso. Bin mit den beiden 290ern sehr zufrieden, wenn man den Preis dafür sieht kann man nicht meckern. Je nachdem ob ich dann z.B auf nen FreeSync 4K Monitor umsteige, werde ich vielleicht auf die nächste Generation wechseln, aber vielleicht packen die 290er im CrossFire ja auch 4K.
 
FreeSync kannst du dir sowieso abschminken, dann dafür wird DP1.3 notwendig sein, wenn ich das richtig sehe... Das ist wie HDMI 2.0 im entfernteren Sinne. Schön das der Anschluss irgendwelche Features inkludiert hat, aber du brauchst auch die Hardwar dafür ;)
Wann Karten mit DP1.3 erscheinen, steht aktuell in den Sternen... Würde mich nichtmal wundern, wenn die nächste Generation, also die 390(X) AMD Karten oder die GM200 based NV Karten da bestenfalls HDMI 2.0 bieten und DP 1.3 noch nicht drin ist...

+1 Endlich. Sehr vernünftig.

Was meinst du?
Im konkreten Zusammenhang beim TE sind die beiden 290er für die Situation heute und auf absehbare Zeit immernoch eine gute Wahl. Das heist aber nicht, dass man mit mehr Budget und weniger Bedacht auf die absolute FPS pro Euro Leistung nicht mit anderer Hardware ebenso glücklich sein kann...
Es nerven einfach solche unsinnigen Aussagen wie oben, wo man sich wegen 5% in Grabenkämpfe verwickelt und A) nichtmal in der Lage ist, die Benchmarks richtig zu lesen (siehe ht4u.net Takt der GPUs) oder B) irgendwelche völlig an der Realität vorbei getätigten Aussagen als Fakt hinstellt ohne ansatzweise einen Beleg dazu zu liefern, siehe Pickebuhs Quatsch von wegen NV taugt nur für FHD.
 
Glaub ich Dir gerne, ist auch ein nettes Gespann. Ein bisschen schade nur da Dein Monitor ja GSync beherrscht. Hast das mal getestet?
 
G-Sync kostet ihn wohl 200€ für das Umbaukit, wenn ich das oben richtig gelesen habe...
 
FreeSync kannst du dir sowieso abschminken, dann dafür wird DP1.3 notwendig sein, wenn ich das richtig sehe... Das ist wie HDMI 2.0 im entfernteren Sinne. Schön das der Anschluss irgendwelche Features inkludiert hat, aber du brauchst auch die Hardwar dafür ;)
Wann Karten mit DP1.3 erscheinen, steht aktuell in den Sternen... Würde mich nichtmal wundern, wenn die nächste Generation, also die 390(X) AMD Karten oder die GM200 based NV Karten da bestenfalls HDMI 2.0 bieten und DP 1.3 noch nicht drin ist...



Was meinst du?
Im konkreten Zusammenhang beim TE sind die beiden 290er für die Situation heute und auf absehbare Zeit immernoch eine gute Wahl. Das heist aber nicht, dass man mit mehr Budget und weniger Bedacht auf die absolute FPS pro Euro Leistung nicht mit anderer Hardware ebenso glücklich sein kann...
Es nerven einfach solche unsinnigen Aussagen wie oben, wo man sich wegen 5% in Grabenkämpfe verwickelt und A) nichtmal in der Lage ist, die Benchmarks richtig zu lesen (siehe ht4u.net Takt der GPUs) oder B) irgendwelche völlig an der Realität vorbei getätigten Aussagen als Fakt hinstellt ohne ansatzweise einen Beleg dazu zu liefern, siehe Pickebuhs Quatsch von wegen NV taugt nur für FHD.

Gebe Dir total recht. Meinte Deine guten aussagen zu FreeSync und Spielbarkeit 4K ;-)
Und zum Sülzer hier: Gott weis alles, Pi..... weis alles besser. (Billig will ich).

- - - Updated - - -

G-Sync kostet ihn wohl 200€ für das Umbaukit, wenn ich das oben richtig gelesen habe...

Das ist heftig, ok wenn der Monitor kein GSync kann dann relativiert sich der Vorteil von NV natürlich.
 
Genau, es gibt ein Kit (muss man auch noch importieren) um den VG24QE auf GSync umzubauen. Einfach nur krank. Würde ich nicht ausgeben um dann von nVidia abhängig zu sein!
 
Teuer, zu teuer ist es da hast Du recht. Krank aber nicht sondern das feature ist nur geil.
 
kurze frage. was hab ich von gsync?

unter 60fps ist die steuerung träge. mit gsync auch oder nicht?
 
4K ist mit den derzeitigen Karten nicht wirklich spielbar also kaum relevant. Komme übrigens bei FarCry 4 in Ultrasettings schon auf 3,5 GByte vram Auslastung. Von Watchdoges will ich erst gar nicht reden.

- - - Updated - - -



+1 Endlich. Sehr vernünftig.


Naja ich hatte vor ein paar Wochen ein sli ti gespann und bei mir waren auf ultra 2,6gb belegt... Nur weil 5000000gb belegt sind heißt das noch lange nicht, dass sie benötigt werden..., Wann schnallt das mal einer... Spielst du fc4 mit einer Titan werden Vmtl 5 gb belegt sein...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh