ich habe jetzt auch seit über fünf Jahren nvidia grakas, aber in wiefern hat nvidia den grakamarkt weiter gebracht als amd? Inwiefern ist nvidia innovativer?
Auch wenn das ganz sicher gleich in die Schlüpper geht, es gibt schon ein paar Sachen, wo NV der jenige Hersteller war, der die Features brachte oder zumindest state of the art darin ist.
- Downsampling geht bei NV seit mindestens dem G200 -> das ist 2008/2009
- Frame Metering seit dem G80
- HQAF seit dem G80 (hier hat AMD erst mit GCN annähernd gleich gezogen!)
- SLI/AA Bit Möglichkeiten durch die offen ansprechbare API im Treiber -> geht bis heute bei AMD nicht
- 3D Vision -> auch hier ist AMD weit hinten dran
- Dann noch so näckische Sachen wie Ansel -> kann man mögen, muss man aber nicht
Guckt man auch auf die Software, dann kommen da sogar noch andere Baustellen. Bis heute gibt es keine Physikbibliothek, die im allgemeinen auch nur ansatzweise an den Featureumfang von der Gameworks Palette ran kommt. Wobei man das nicht einem GPU Hersteller wie AMD ankreiden sollte, das ist eher ein Thema der Software Instustrie!
Mittlerweile ist der Spaß in Teilen auch OpenSource -> und damit meine ich nicht Hairworks und/oder PhysX als Teile der Palette, sondern die komplette Bibliothek (was aber eher für Entwickler interessant ist)
Oder auch Cuda -> ewig lange (seit dem G80) allein auf weiter Flur, das AMD Gegenstück in Form von AMDs Stream fristete eher ein kümmerliches Dasein. Mittlerweile (OpenCL und DirectCompute) geht es besser -> und die Software zieht auch nach. Aber das ist eben erst heute und nicht vor 10 Jahren.
Oder so Themen wie der Anschlussvielfalt. Erst Polaris brachte HDMI 2.0 und HDCP Support, die 960/950 konnte das schon eher. Verzichtet man auf HDCP, ging HDMI 2.0 schon seit den ersten 900er Karten usw.
Aber das hat zweifelsfrei auch seine Kehrseite... VRAM bei NV ist immer so ein Thema, denn idR/meist eher knapp
Auch AMD hat eigene Features, TrueAudio, Eyefinite (funktioniert aus meiner Sicht etwas problemfreier als NVs Lösung), FreeSync als offener Standard usw.
Muss halt am Ende selbst Jeder für sich entscheiden, was er braucht/will und was er dafür bereit ist zu zahlen. Das pro AMD Argument schlechthin ist hier immer P/L -> nur "L" ist halt nicht nur FPS, so gilt es zumindest für mich. Hardware, die gewollte/benötigte/brauchbare Features nicht kann, fällt aus dem Raster.
ich fahr seit Jahren Multi-Monitor und hab dein beschriebens Problem noch nie gehabt ...
Es gab mindestens mal einen Treiber, wo das beschriebene Problem auftritt... Mittlerweile ist/sollte das aber gefixt sein.
Die GTX1080Ti wird höchst wahrscheinlich 10GB GDDR5 @ 320Bit haben.
Eine verkrüpelte Anbindung ala GTX970 würde NV bei eine High-End Karte
nie wagen. Ausserdem bezweifle ich dass GDDR5X verbaut wird.
Da wäre ich mir gar nicht mal so sicher... Die Frage ist, wie lässt sich eine auf den ersten Blick verkrüppelte Anbindung sinnvoll nutzen?
Es ist weiterhin so, dass A) der Chip für recht geringe Mengen sehr hohe Bandbreite braucht um zu performen und B) die Masse der Daten im VRAM aber von recht wenig Bandbreite benötigenden Texturen kommt... Sowas wie ein Texturpool und ein Datenpool wäre also denkbar... Der Spaß durchläuft so oder so den Treiber, die GPU ist schlussendlich für die Speicheradressierung verantwortlich, weis damit potentiell also auch, was da wo im Speicher liegt. Damit ist es also nicht ausgeschlossen, Texturen einfach für den/die Entwickler unsichtbar im lahmeren Pool zu legen, den Rest halt im schnelleren unteren Bereich.
Wie gut das klappt und wie viel Aufwand das in Sachen Optimierung erzeugt, müsste man sich detailiert mal ansehen. Grundsätzlich machbar wäre sowas aber zweifelsfrei... Spart halt etwas Geld. Ob diese Art Lösung am Ende aber aufgeht? Abwarten... 8GB der 1070/1080 vs. spekulierte 10GB der TI wären nur poplige 25% mehr. -> dafür so nen Aufwand betreiben???
Könnte aber schlicht auch einfach nur ein "Fehler" sein. Keine Ahnung, auf was die Angaben sich dort genau beziehen. Vllt ist das auch ein TitanX PCB, voll verlötet aber teildeaktiviert? Oder vollverdrahtet aber mit weggelassenen 2x Speicherbausteinen? Wer weis das schon genau??
Irgendwie ist die 1000er Serie bisher nur eine Enttäuschung (hätte die Titan X Pascall 24 GB vRam gehabt, hätte ich die gekauft (nicht wegen zocken), aber so meh), dann noch eine hochverkrüppelte Ti.
Naja, mal abwarten, kann sein das wie bei der 700er Serie noch eine weitere Titan nachgeschoben wird (je nach Leistung von Vega, also hopp AMD
)
Das Problem ist, mit maximal 512Bit SI und GDDR5(X) Anbindung sind aktuell maximal 32GB RAM möglich. Auch HBM ist in Form der "v2" nicht für mehr angekündigt im Moment...
Die Gamerkarte mit 24GB zu liefern gräbt also den Profimarkt das Wasser ab -> die Quadros und Tesla Modelle waren schon immer eine Stufe höher im VRAM angesiedelt. Das interessiert den Gamer genau gar nicht, keine Frage... Aus Konzernsicht ist das aber relevant. Bei AMD im übrigen exakt das gleiche
Die FireGL/FirePro/FireStream Modelle haben auch idR mindestens eine Stufe mehr VRAM als die Gamer-Ableger.
Man kann es dir ja irgendwie nicht verübeln, bei dem Namens-Schema Seitens NVidia. Wobei das ja gewählt wurde um Verwirrungen auszuschließen. Hat ja gut geklappt
Genau genommen ist das Namensschema eineindeutig... Man darf halt nicht die Hälfte weglassen.
Die Maxwell based TitanX schimpft sich eigentlich "Nvidia Geforce GTX TitanX". Die Pascal based TitanX heist einfach nur noch "Nvidia TitanX"... Das ist eineindeutig eine Trennung und auch für jeden klar ein Unterschied. Nach offizieller Angabe soll das der Unterschied sein und die neue TitanX eben soll offiziell keine Geforce mehr sein. -> Aber: NV hat es mit dem Kühler verkackt, denn da steht Geforce GTX in leuchtent grün drauf
Soll sich jeder selbst überlegen ob er damit klar kommt oder nicht
Die TX wird dann wieder n bissl günstiger und die TX ler fühlen sich wieder verarscht...aber wer nicht aus der Vergangenheit lernen kann ist selbst Schuld
ist ja nicht s erste mal, auch nicht das zweite mal....nein sogar das dritte mal :-P
Wieso sollte sich der Titan Käufer, heute wie damals verarscht vorkommen??? Sowas kommt idR von den Leuten, die niemals nie selbst derartige Hardware ihr Eigen nannten/nennen konnten...
DAS PRO Argument für die Titan based Modelle ist der Zeitfaktor. Willst du HEUTE diese Leistungsklasse, kaufst du Titan. Willst du HEUTE eben (noch) nicht, wartest du halt und bekommst irgendwann mal das, was Andere seit Monaten oder Jahren nutzen für nen schmalen Taler... Das gilt für alle fünf bis dato erhältlichen Titan Modelle ausnahmslos. Genau genommen aber auch für JEDE andere Hardware bzw. allgemein Verbrauchsgüter am Markt. Du kannst dir heute den größer 100" TV für läppische 100.000$ ins Wohnzimmer hängen, in ein paar Jahren wird das Ding nix mehr wert sein, du kannst dir heute die Luxus Premium Autoschleuder in die Garange stellen -> in ein paar Jahren hast du nen extremen Wertverlust usw.
Derartige Argumentationen wären dann nachvollziehbar, wenn es einen Zwang für diese Modelle geben würde, den gibts aber nicht. Soll doch jeder selbst entscheiden. Wer das Ding unbedingt will, soll es kaufen. Wer die teils nur sehr wenigen Vorteile in Sachen reiner Hardware nicht schätzt und wem der Preis für diese zeitlich exklusive Hardware zu hoch ist, wird aber eben warten müssen. Warten KANN man aber immer. Wenn du nur lange genug wartest, bekommst du irgendwann mal Hardware vom Schrott, die schneller ist als ne Titan -> und das für Umme.
Die eigentliche Frage lautet also, wann lohnt ein Kauf und zu welchen Konditionen?? DAS ist aber subjektiv und jeder muss das mit sich und seinem Geldbeutel allein ausmachen.