NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Stell die Info mal zur Diskussion:
Nvidia P100 GPU update - Steppings step out - SemiAccurate

davon ist nur GP100 mit HBM2 betroffen ...

Mir viel dazu nur ein : RIP NV ;)

Weil das auch so eine wahnsinnig seriöse Quelle ist. Wie oft ich den Hampelmann in seinem eigenen Forum schon genüsslich vorgeführt habe. Dem fiel dann auch nichts mehr anderes ein als mich zu bannen. Bei Beyond3D wurde er vor Jahren auch schon mal komplett zerpflückt und lässt sich seit dem dort nicht mehr blicken. Der bekommt von Nvidia seit Jahren keinerlei Infos mehr und haut seit dem, übrigens mit viel AMD Werbung der der Seite, mit irgendwelchen Phantasiestories auf Nvidia drauf. Aber dem steht das Wasser mittlerweile bis zum Hals. Das Forum ist nur noch wenig aktiv und er muss mittlerweile für seine Phantasiestories Geld verlangen weil über die Werbung nicht mehr genug geht. Es gibt aber einige Asiaten die machen es für diese Lügenseite genau richtig. Die kopieren die Texte und veröffentlichen sie selber. Das schadet dem Hampelmann schön weil es Clicks für seine unseriösen Berichte abzieht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was will man denn auch erwarten wenn die Seite semiaccurate heißt? Das steckt der Fail doch schon im Namen :fresse: :shot:
 
Interessant, aber betrifft das dann nicht alle, die metal layer bei hohen clock speeds verwenden wollen? Kann mir nicht vorstellen, dass allein NVidia in ein physikalisches Problem rennt, das sonst keinen tangiert...

Das frage ich mich auch. Es würde zwar erklären warum Nvidia beim GP102 wohl auf GDDR setzen wird, aber wird AMD davon ebenso betroffen sein. Vor kurzem las ich etwas von 16 GB HBM2 am Vega im Oktober - Das kann ich mir kaum vorstellen. Eher einen Paperlaunch, Verfügbarkeit dann ab Neujahr. Dafür müsste aber sehr viel HBM2 verfügbar sein.
 
wofür brauch man 16gb? Man kann es auch übertreiben. Die meisten spiele die sogar 8GB ausnutzen sind einfach mies programmert und nehmen halt was da ist. Tomb Raider ist da son gutes Beispiel. Läuft auf 6GB Vram nicht mit weniger FPS als auf 8GB. Aber nimmt auch gerne mal 8GB.
 
Da ist nichts mies programmiert. Die Konsole hat soviel Speicher und der wird in den Ports genutzt. Warum sollte die Welt Rücksicht nehmen wenn eine Konsole für die Hälfte einer nvidia Karte über den Tisch geht und dennoch mehr Speicher bietet?

Der kleine Vega kommt mit 8gb hbm2 im Oktober. Der große mit 16gb Anfang 2017.

Und was soll das gemekere mit dem VRAM? Texturen kosten keine Leistung nur VRAM. Mehr ist immer besser und erhöht die langlebigkeit der Karte. Kepler und tahiti lassen grüßen .
 
Zuletzt bearbeitet:
Ist doch gut wenn der RAM Geburt wird. Umso weniger muss nachgeladen werden. Oder ist Windows auch schlecht programmiert weil das system mit mehr RAM auch mehr RAM belegt? Klar läuft Windows 10 auch mit 4 GB RAM. Es belegt dann auch nicht alles. Es läuft aber eben besser mit 8 GB RAM und verbraucht dann auch mehr als mit 4 Gb. RAM kann man eigentlich nie genug haben. Egal ob nun bei der GPU oder für das system.

Gesendet von meinem Nexus 4 mit Tapatalk
 
Da ist nichts mies programmiert. Die Konsole hat soviel Speicher und der wird in den Ports genutzt. Warum sollte die Welt Rücksicht nehmen wenn eine Konsole für die Hälfte einer nvidia Karte über den Tisch und dennoch mehr Speicher bietet?

Die Konsolen nutzen also die vorhandenen 8GB als VRAM. Aber ok, die RAM Nutzung des Betriebssystems selbst bzw. des jeweiligen Spiels, kann man ja auch auf die Festplatte auslagern.
 
Zuletzt bearbeitet:
Die GPU und CPU der konsole schreiben in einen gemeinsamen 8gb großen adressbereich (huma). Auf den pc wird daher keine Rücksicht genommen und es wird soviel wie möglich in den VRAM geschoben. Das der VRAM daher rapide Anstieg war vorhersehbar und war seit Jahren klar. Den hype um die GTX970 könnte ich nicht nachvollziehen. Bereits 2012 waren 2 gb für mich auf lange Sicht zu wenig und 3gb gerade so ok, was sich auch so bewahrheitet hat.

Keine Ahnung wie viel Speicher die Konsolen 2017 haben, aber 8GB sind stand heute Minimum was eine graka haben sollte.

Ein Auslagern auf die Festplatte oder in den RAM hätte Performance-Nachteile. Immerhin benötigt die Konsole dank human diesen extra Schritt nicht damit GPU und CPU auf die selben Daten zugreifen können. Die Spiele Entwickler werden für den pc keine extrawurst programmieren. Genauso ist AS ein gesetztes Feature, da alles was mehr Performance verspricht auch für die Konsolen umgesetzt wird.
 
Zuletzt bearbeitet:
Und mehr als 8GB sind eigentlich von wenig Effekt geprägt
 
Noch ja. Kommt halt drauf an wie lange du die neue Karte behalten willst. Bei einer absoluten High end Karte wie Vega im vollausbau für teuer Geld sind 12-16gb schon wünschenswert. Auch werden die Konsolen 8gb als Maximum nutzen, aber das heißt ja nicht, dass man auf dem pc keine höheren Einstellungen nutzt.
 
Vega2 und Titan x sollten schon 12-16gb mitbringen :)
 
wofür brauch man 16gb? Man kann es auch übertreiben. Die meisten spiele die sogar 8GB ausnutzen sind einfach mies programmert und nehmen halt was da ist. Tomb Raider ist da son gutes Beispiel. Läuft auf 6GB Vram nicht mit weniger FPS als auf 8GB. Aber nimmt auch gerne mal 8GB.

Für 4K. Mir sind da 6 schon nicht genug, 12 sind sehr gut, 16 sind aber sehr zukunftssicher.

wofür brauch man 16gb? Man kann es auch übertreiben. Die meisten spiele die sogar 8GB ausnutzen sind einfach mies programmert und nehmen halt was da ist. Tomb Raider ist da son gutes Beispiel. Läuft auf 6GB Vram nicht mit weniger FPS als auf 8GB. Aber nimmt auch gerne mal 8GB.

Die sind stark optimiert und das meiste dieser 8 GB steht als VRAM zur Verfügung. Zudem sind das noch volle 8 GB GDDR5 mit 192 GB/s.
 
Ich mache wphl was falsch. Ich zocke mit einer fury X und muss details runterdrehen bevor ich jemals in eine RAM Problematik laufe. Ihr träumt von Vram wenn die GPUs viel zu schwach sind. Und ja da zähle ich die 1080 GTX explizit dazu!

Eventuell liegt es daran, dass ich den entsprechenden Monitor bzw VR Brille verwende? Oder weil ich mehr spiele als Forum theoretisiere?

Aber kauft euch ruhig eine 16GB Vram Karte um dann von 8k auf 1080p downzusampeln, dann bringt ihr den schon voll.
 
Ich mache wphl was falsch. Ich zocke mit einer fury X und muss details runterdrehen bevor ich jemals in eine RAM Problematik laufe. Ihr träumt von Vram wenn die GPUs viel zu schwach sind. Und ja da zähle ich die 1080 GTX explizit dazu! ...

+1
 
Für 4K. Mir sind da 6 schon nicht genug, 12 sind sehr gut, 16 sind aber sehr zukunftssicher.

The Division auf 4k mit sehr hohen Einstellungen:

Division Ende.jpg

Divisin Mitte.jpg

Division Anfang.jpg

wieviel Vram werden so benötigt? Kannst du es erkennen ?
 
Alot... (rund 4GB)


Mal ne doofe Frage, lohnen sich 150€ Aufpreis, für einen durchschnittlichen Leistungszuwachs von 15 FPS, von einer GTX1070 FE zu einer GTX1080 KFA non FE im ref. Blowerdesign? Also auf dem Papier sieht das ja nach knapp 30% Mehrleistung aus (CC's und TMU's), dann aber mal so auf den Reviewseiten nachgeschaut, macht das dann die besagten 10 bis 15 FPS Mehrwert. Habe nicht vor, die Karten zu übertakten, also beide werde ich stock fahren. Das ganze mit FullHD Gaming für knapp 3 Jahre bei der GTX1080, etwas weniger bei der GTX1070, je nachdem, was Nvidia als nächstes herausbringt.

GTX1070 ist schon bestellt und noch nicht versendet, also bis Sonntag Abend Zeit, sie wieder zu stornieren. Die GTX1080 soll Ende kommender Woche herauskommen: KFA² GeForce GTX 1080 Preisvergleich | geizhals.eu EU
 
Zuletzt bearbeitet:
The Division auf 4k mit sehr hohen Einstellungen:

...

wieviel Vram werden so benötigt? Kannst du es erkennen ?

es wird immer leute geben, die brainless erstmal alle Regler nach rechts schieben und dann auf ihrem 25" 4K moni noch denken Unterschiede zu sehen ^^

andere haben selbst mit ner GTX 960 schon auf 4K 40" gespielt ^^
 
Zuletzt bearbeitet:
es wird immer leute geben, die brainless erstmal alle Regler nach rechts schieben und dann auf ihrem 25" 4K moni noch denken Unterschiede zu sehen ^^

andere haben selbst mit ner GTX 960 schon auf 4K 40" gespielt ^^

ich wollte eigentlich darauf hinaus das 16 GB Grafikspeicher quatsch und auch wenig mit zukunftssicherheit zutun haben.

Alot... (rund 4GB)


Mal ne doofe Frage, lohnen sich 150€ Aufpreis, für einen durchschnittlichen Leistungszuwachs von 15 FPS, von einer GTX1070 FE zu einer GTX1080 KFA non FE im ref. Blowerdesign? Also auf dem Papier sieht das ja nach knapp 30% Mehrleistung aus (CC's und TMU's), dann aber mal so auf den Reviewseiten nachgeschaut, macht das dann die besagten 10 bis 15 FPS Mehrwert. Habe nicht vor, die Karten zu übertakten, also beide werde ich stock fahren. Das ganze mit FullHD Gaming für knapp 3 Jahre bei der GTX1080, etwas weniger bei der GTX1070, je nachdem, was Nvidia als nächstes herausbringt.

GTX1070 ist schon bestellt und noch nicht versendet, also bis Sonntag Abend Zeit, sie wieder zu stornieren. Die GTX1080 soll Ende kommender Woche herauskommen: KFA² GeForce GTX 1080 Preisvergleich | geizhals.eu EU

was spricht denn dagegen das du dir z.b. die EVGA GTX 1070 FE kaufst und wenn du merkst das dir die Leistung doch nicht reicht gehst du auf Stepup zur 1080 SC ACX 2.0 und zahlst die 179€ drauf. Dann hast du ne gute Karte die knapp bei 2 Ghz taktet und hast sinnvoll dein Geld ausgegeben. So würde ich es machen wenn ich glaube die 1070 reicht mir aber es dann doch nicht so ist.
 
Zuletzt bearbeitet:
wieviel Vram werden so benötigt? Kannst du es erkennen ?

Och, ich hab die 12GB meiner Titan in schon in FHD gefüllt. Ist doch alle eine Frage der eigenen Software, und nicht die der anderen.



Gleich alles was man selbst nicht hat als Quatsch abtun? Echt jetzt? 8GB jedenfalls ist nicht umbedingt das Gelbe vom Ei.
Mit dem RAM ist doch immer das gleiche Spiel.
Die einen erzählen: Mehr als XXX (beliebige Menge hier einsetzen) sind Quatsch.
Und die anderen wissen: Alles was im RAM gelagert werden kann, das muss in kritischen Situationen nicht von anderer Stelle (z.b. der SSD) geholt werden.
Welches System wird also am Ende glatter laufen, und eventuell länger durchhalten?


Und mehr als 8GB sind eigentlich von wenig Effekt geprägt


Mit sowas kann ich mich ja gerade noch anfreunden^^
Aber wer weiß schon wie das nächste Game, dass ich mir kaufe mit dem VRAM umgehen wird, wenn es schon zig Jahre alte Games locker füllen können?
 
Zuletzt bearbeitet:
Ich hab mich schon gefragt wo du bleibst, normal bist du schneller bei Grafikspeicherdiskussionen :) Wie du schon richtig sagtest, ist jedem seine Sache. Wenn einer meint er brauch 16 gb soll er halt 16gb kaufen, muss jeder selbst wissen. Wie alles andere im Leben halt auch.

Im Normalfall reicht die Leistung der Karte aber nicht aus bis die 16 GB voll sein werden, deshalb sehe ich es als Quatsch.
 
Was hat das eine mit dem anderen zu tun?
Die Hautp-Last im VRAM sind Texturen meiner Meinung nach.
Und weißt Du was Texturen an Rohleistung kosten? Ich sage es Dir: FAST GAR NIX.

D.h. Du bekommst Bildqualität zum Nulltarif. Aber das versteht irgendwie niemand.
Die erzählen dann immer: Aber ich hab keinen Bock auf 4K, weil ich dann die Texturen runterdrehen darf, weil die Karte es nicht packt.
Genau andersrum ist es. Solange das VRAM ausreicht bekommt man Bildqualität fast zum Nulltarif. Denn besser aufgelöstet Texturen produzieren einen besseren Schärfe-Eindruck und mehr Details.

Hier das ganze mal in FPS auf einer 12GB-Karte. Unterschied Rohleistung Ultra und High.


Schau Dir doch mal z.b. Star Citizen an oder Kingdom Come: Deliverance. An der Cry-Engine sieht man das (langsame) Textur-Streaming total gut. Da kann man sehr gut sehen was Texturen alleine für Details schaffen. Die Entwickler bauen gar nicht mehr Polys in ihre Szene (die kosten ja Rohleistung), sondern sie schaffen Details nur über die Texturen-Auflösung und die lustigen Mapping-Methoden.
 
Zuletzt bearbeitet:
Ich mache wphl was falsch. Ich zocke mit einer fury X und muss details runterdrehen bevor ich jemals in eine RAM Problematik laufe. Ihr träumt von Vram wenn die GPUs viel zu schwach sind. Und ja da zähle ich die 1080 GTX explizit dazu!

Eventuell liegt es daran, dass ich den entsprechenden Monitor bzw VR Brille verwende? Oder weil ich mehr spiele als Forum theoretisiere?

Aber kauft euch ruhig eine 16GB Vram Karte um dann von 8k auf 1080p downzusampeln, dann bringt ihr den schon voll.

Hast du einen 4K-Monitor und spielst nativ in Ultra-HD oder nutzt DSR/VSR um von dieser Auflösung downzusamplen? Falls nicht, solltest du deine Aussage revidieren. 4 GB reichen in den meisten Fällen noch knapp bei einer Karte. Bei zwei wird es kritisch, siehe Benchmarks der Radeon Pro Duo. Die bricht teils brachial zusammen. Ähnlich ist es mit meiner 780Ti, teils reicht der VRAM nur noch für mittlere Details. Sonst hänge ich sofort auf 10-20 FPS und habe Texturfehler (Beziehungsweise Matsch). Die 4 GB der Fury kann man nicht schönreden. Ich verkaufte meine 980 als ich auf 4K umstieg weil mir klar war dass bei einer zweiten Karte der VRAM nicht reichen würde.

es wird immer leute geben, die brainless erstmal alle Regler nach rechts schieben und dann auf ihrem 25" 4K moni noch denken Unterschiede zu sehen ^^

andere haben selbst mit ner GTX 960 schon auf 4K 40" gespielt ^^

Textureinstellungen erkennt man immer. Bei MSAA, Umgebungsverdeckung und Postprocessing kann man oft sparen. Das VRAM-Problem bei der 780Ti tritt komischerweise in nahezu allen modernen Spielen auf. Ich hatte auch eine 680, diese hatte bei BF4 bereits auf Mittel starke Framedrops, die sich nicht mit der Rohleistung erklären ließen.

Auf Dauer will ich aber auch keinen 4K-Monitor um dann alles auf Low spielen zu müssen. Die 780Ti ist eine Übergangslösung, in kürze wird sie bei entsprechender Preisgestaltung gegen eine 1070 getauscht. Damit sollte alles auf hohen Details in 60 FPS laufen.

@Hisn: COD würde ich nicht gerade als Referenz angeben. Watchdogs brauchte auf der Titan X bei mir ebenso 12 GB, aber die braucht es nicht wirklich.

Was du danach sagtest kann ich so unterstreichen. Wenn man in einem Spiel keine Ultra-Texturen verwenden kann (Selbst wenn man den Rest auf Low stehen hat) sollte man immer darüber nachdenken zu wechseln, egal welche Auflösung.

Was mich nun wundert ist dass AMD-Leute ihre Fury weiter verteidigen, wo doch gerade AMD gezeigt hat warum zuviel VRAM sinnvoll ist. Die 7970 kam mit unglaublichen 3 GB, die 680 nur mit 2, genau wie die 690 sind die Karten heute teils in 1080p nicht mehr verwendbar weil sie am VRAM verhungern (Gerade 690). Die 7970 profitiert extrem vom zusätzlichen VRAM. Bei der Fury ist das gegenteilig der Effekt, es ist eine Enthusiast-GPU der man viel zu wenig verpasst hat, nur um HBM implementieren zu können. Ein fettes 512-bit GDDR5 mit 8 GB wäre sogar besser als eine 980Ti gewesen.

8 GB für Vega wären OK, 16 aber deutlich besser. Die 1080Ti wird sehr wahrscheinlich 384-bit 12 GB besitzen, die Titan 24, sollte sie nicht auf HBM2 setzen (Was unwahrscheinlicher wird).
 
@Hisn: COD würde ich nicht gerade als Referenz angeben. Watchdogs brauchte auf der Titan X bei mir ebenso 12 GB, aber die braucht es nicht wirklich.

Definiere "brauchen"
Bei einem Open-World-Game, wo man ständig an den gleichen Stellen vorbeikommt, da wünsche ich mir doch dass das VRAM immer voll ist, damit die Daten nicht ständig von der HDD/SSD nachgeladen werden müssen, und dabei eventuell Streaming-Ruckler produzieren.
Mehr Daten die im VRAM gehalten werden können: Weniger Daten die von den Datenträgern gestreamt werden müssen: Weniger Streaming-Ruckler.
Und wenn das VRAM dabei nur als erweiterter Cache genutzt wird .... nicht nötig, aber auch nicht unnötig.
 
Definiere "brauchen"
Bei einem Open-World-Game, wo man ständig an den gleichen Stellen vorbeikommt, da wünsche ich mir doch dass das VRAM immer voll ist, damit die Daten nicht ständig von der HDD/SSD nachgeladen werden müssen, und dabei eventuell Streaming-Ruckler produzieren.
Mehr Daten die im VRAM gehalten werden können: Weniger Daten die von den Datenträgern gestreamt werden müssen: Weniger Streaming-Ruckler.
Und wenn das VRAM dabei nur als erweiterter Cache genutzt wird .... nicht nötig, aber auch nicht unnötig.

COD ist doch nicht Open World? Bei Watchdogs könnte es sein, aber 12 sind da nicht nötig um es flüssig wiederzugeben. Sie zu haben ist aber nicht schlecht. Für mich wären 8 die Untergrenze für eine neue Grafikkarte, 12 wären sicherer und mit 16 könnte ich sorglos sein.
 
Auf Dauer will ich aber auch keinen 4K-Monitor um dann alles auf Low spielen zu müssen. Die 780Ti ist eine Übergangslösung, in kürze wird sie bei entsprechender Preisgestaltung gegen eine 1070 getauscht. Damit sollte alles auf hohen Details in 60 FPS laufen.

ich werde nicht schlau aus dir, in einem anderen beitrag sagst du die 1070 ist zu teuer und du zahlst nicht mehr als 419€ dafür (gibt es nicht, ergo keine 1070 dann) und da es sowieso nur übergang wäre bis zur 1080ti für die du bereit wärst dann nen 1000er hinzulegen. Und da sganze obwohl du nur mit 4K @ 60 FPS spielen willst. Aber eine 1080 kommt da auch nicht in Frage obwohl die das bieten würde.

Keine Ahnung was du willst, weist es überhaupt selbst ? .. am besten ne 1080 Leistung für 300€ rum oder ?
 
Was mich nun wundert ist dass AMD-Leute ihre Fury weiter verteidigen, wo doch gerade AMD gezeigt hat warum zuviel VRAM sinnvoll ist. Die 7970 kam mit unglaublichen 3 GB, die 680 nur mit 2, genau wie die 690 sind die Karten heute teils in 1080p nicht mehr verwendbar weil sie am VRAM verhungern (Gerade 690). Die 7970 profitiert extrem vom zusätzlichen VRAM. Bei der Fury ist das gegenteilig der Effekt, es ist eine Enthusiast-GPU der man viel zu wenig verpasst hat, nur um HBM implementieren zu können.

Fury war eben ein testbalon für HBM1. Die Erfahrung wird man mit Vega ausspielen. Ich glaube auch nicht das man mit der fury überhaupt Gewinn gemacht hat. Die rohleistung ist aber da und sofern der Speicher nicht vollläuft positioniert sich die Karte zB in AoS zwischen 1070 und 1080. Bei der 980ti oder titanx sieht es mit dem VRAM etwas besser aus aber vermutlich werden diese an der Performance und treibersupport verhungern.

Am Ende haben beide Karten eine ähnliche nutzungsdauer. Wobei man klar sagen muss das die fury aus technischer Sicht dem Enthusiasten Anspruch eher gerecht wird.

Eventuell lässt sich die fury als dx12 Multi GPU Adapter weiterverwenden. Genug rohleistung ist vorhanden, das featureset passt, VRAM wird addiert und zero Core kann sie auch. Dies ist natürlich Zukunftsmusik.

Mir persönlich wären 4GB auch zu wenig aber dank 7970 steige ich dann auf Vega um.
 
Hast du einen 4K-Monitor und spielst nativ in Ultra-HD oder nutzt DSR/VSR um von dieser Auflösung downzusamplen? Falls nicht, solltest du deine Aussage revidieren. 4 GB reichen in den meisten Fällen noch knapp bei einer Karte. Bei zwei wird es kritisch, siehe Benchmarks der Radeon Pro Duo. Die bricht teils brachial zusammen. Ähnlich ist es mit meiner 780Ti, teils reicht der VRAM nur noch für mittlere Details. Sonst hänge ich sofort auf 10-20 FPS und habe Texturfehler (Beziehungsweise Matsch). Die 4 GB der Fury kann man nicht schönreden. Ich verkaufte meine 980 als ich auf 4K umstieg weil mir klar war dass bei einer zweiten Karte der VRAM nicht reichen würde.



Textureinstellungen erkennt man immer. Bei MSAA, Umgebungsverdeckung und Postprocessing kann man oft sparen. Das VRAM-Problem bei der 780Ti tritt komischerweise in nahezu allen modernen Spielen auf. Ich hatte auch eine 680, diese hatte bei BF4 bereits auf Mittel starke Framedrops, die sich nicht mit der Rohleistung erklären ließen.

Auf Dauer will ich aber auch keinen 4K-Monitor um dann alles auf Low spielen zu müssen. Die 780Ti ist eine Übergangslösung, in kürze wird sie bei entsprechender Preisgestaltung gegen eine 1070 getauscht. Damit sollte alles auf hohen Details in 60 FPS laufen.

@Hisn: COD würde ich nicht gerade als Referenz angeben. Watchdogs brauchte auf der Titan X bei mir ebenso 12 GB, aber die braucht es nicht wirklich.

Was du danach sagtest kann ich so unterstreichen. Wenn man in einem Spiel keine Ultra-Texturen verwenden kann (Selbst wenn man den Rest auf Low stehen hat) sollte man immer darüber nachdenken zu wechseln, egal welche Auflösung.

Was mich nun wundert ist dass AMD-Leute ihre Fury weiter verteidigen, wo doch gerade AMD gezeigt hat warum zuviel VRAM sinnvoll ist. Die 7970 kam mit unglaublichen 3 GB, die 680 nur mit 2, genau wie die 690 sind die Karten heute teils in 1080p nicht mehr verwendbar weil sie am VRAM verhungern (Gerade 690). Die 7970 profitiert extrem vom zusätzlichen VRAM. Bei der Fury ist das gegenteilig der Effekt, es ist eine Enthusiast-GPU der man viel zu wenig verpasst hat, nur um HBM implementieren zu können. Ein fettes 512-bit GDDR5 mit 8 GB wäre sogar besser als eine 980Ti gewesen.

8 GB für Vega wären OK, 16 aber deutlich besser. Die 1080Ti wird sehr wahrscheinlich 384-bit 12 GB besitzen, die Titan 24, sollte sie nicht auf HBM2 setzen (Was unwahrscheinlicher wird).

Ich spiele mit drei 1080p Monitoren. Das resultiert in 6 mio Pixeln. 4K sind 8mio. Nein Vram ist kein Thema!
Zu wenig GPU Leistung aber schon. Die GtX 1080 hat ca. 30% mehr Leistung. Das reich noch lange nicht für max Detail bei meiner Auflösung. Ob die dann 4 oder 32GB Vram hat ist völlig uninteressant.

Mit der VR Brille ist das noch extremer wobei der Focus auf Rechenleistung noch stärker ist.

Was auffällt: Die Vram Jünger haben alle keine Fury. Hier wird nur theoretisiert. Ich hätte lieber 2 fache Leistung und 4GB anstatt 30% mehr und 8GB.

Edit: Ich sehe mich nicht als Fury Verteidiger. Sie hat mir zu wenig Leistung. Ich habe nur was gegen diese sinnlose VRAM Diskussion. Jetzt werden schon 16GB eingefordert!
Das erinnert mich an diese sinnlosen Midrangekarten mit Riesenspeicher von vor ein paar Jahren. Wir brauchen Leistung und da enttäuscht mich Pascal und Polaris. Ich hätte mir mehr erwartet. Texturfehler hatte ich noch nie, bitte nicht von einer 780Ti auf eine Fury schließen.
 
Zuletzt bearbeitet:
Treibersupport? Du meinst, so wie bei AMD? Wo 5xxx/6xxx nur noch mit Legacy Treiber "versorgt" werden, während Karten von Nvidia aus dem gleichen Zeitraum auch mit aktuellen Treiben versorgt werden?
Oder sprichst du von von der angeblichen absichtlichen Verlangsamung älterer Generationen, der dir aber schon widerlegt wurde? Also lass es doch, dein haltloses Zusammengereime als Fakt zu verkaufen. Es langweilt langsam.

vom Z5 unterwegs
 
Treibersupport? Du meinst, so wie bei AMD? Wo 5xxx/6xxx nur noch mit Legacy Treiber "versorgt" werden, während Karten von Nvidia aus dem gleichen Zeitraum auch mit aktuellen Treiben versorgt werden?
Oder sprichst du von von der angeblichen absichtlichen Verlangsamung älterer Generationen, der dir aber schon widerlegt wurde? Also lass es doch, dein haltloses Zusammengereime als Fakt zu verkaufen. Es langweilt langsam


Na du bist aber auch keinen deut besser...

Uralt grakas kriegen "nur" noch legacytreiber. Das ist halt schon ein super argument... 😜👍
Das grenzt ja schon an kundenverarsche, wenn 6jährige grakas nicht mehr aktiv mit treibern unterstützt werden.
Da macht es NV ja viel besser. Die geben treiber raus, die dann sogar mit halbwegs aktuellen probleme bereiten (780ti vor ca. Einem monat).

Schlussendlich sind wohl beide hersteller keine heiligen wenns um treiber geht, aber die 5\6xxxer sind mal ein echt lahmes argument.
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh