Grafikkarte ist Schrott -> GTX960 oder trotz des Ram-Gates doch eine GTX970?

Status
Für weitere Antworten geschlossen.
Das Anliegen ist, dass es genauso wie vor 3 Jahren abläuft. Es wird zu einer GTX670 oder nun eben GTX970 geraten OBWOHL es offensichtlich ist, dass diese Karte extreme Probleme haben wird und/oder der Wettbewerb deutlich mehr Leistung/Austattung bietet zu einem fast identischen Preispunkt. In den Konsolen steckt GCN, 95% aller PC Spiele sind Ports. Natürlich werden fast alle Engine Features nutzen welche die Konsole beherschen, wie eben Asyncron Shader. Da wird sich bei Nvidia totgeschiegen, wie bei jedem Marketing Bock den man in den letzten Jahren geschossen hat. Wobei es hat ja funktioniet, also zumindest marketing technisch. Zudem hat eben die AMD390 ein gutes Stück mehr Rohleistung, welche wie die aktuellsten Engines zeigen immer mehr auf die Straße gebracht wird. Warum sollte man auch nicht die Stärken einer Konsolenengine dahin anpassen, wo auch die Stärken der verbauten Chips sind. Genauso mit den 8Gb unified RAM. Jeder der glaubt es wird was für den PC optimiert möge den Finger heben.

Normalerweise müsste man bei diesem Ausblick und bei dieser Empfehlung euch die Berechtigung für den Kaufberatungsbereich enziehen. Meine Meinung.

Vor allem es läuft alles auf einer 390. Selbst im bösen bösen DX11. Nur eben in einem Jahr nicht mehr alles auf einer GTX970, oder eben mit deutlich weniger Performance und oder großen Einschränkungen.
mittlerweile kann ich deinen Denkansatz schon verstehen und in sich ist der auch schlüssig.
doch reden wir hier von anderen Karten. von 4-8GB Modellen, keine 2-4GB. andere Treiber, mehr Spiele. mit und ohne OC. welche Karten wurden da verglichen, 2GB Modelle oder 4GB? RefTakt?ist die 7970 GHz nicht schon per GHz-Bezeichnung OC? und die 670, 680 nicht OC? mit 2GB? gibt es fairere Vergleiche? 680 4GB OC vs 7970 GHz OC?
ob es sich bei denen genauso entwickelt, wie bei den davor, ist durchaus möglich, aber kein Muss. für mich sind da viel zu viele Unklarheiten und ehrlich gesagt, empfinde ich diese Art von Vergleich recht ... parteiisch.

ich mime mal den typischen AMD-Ankläger:
da hat mein Hersteller schon gleich 2 Varianten seiner Modelle, nämlich 2 und 4GB und Ihr lasst Euch mit einheitlichen 3GB abspeisen. und wenn Ihr benchs postet, nehmt Ihr immer nur unsere 2GB Ref-Modelle gegen Euer ab Hersteller offiziell übertaktetes Modell, der GHz. ich find das echt ganz unfair! sowas macht man ja wohl nicht.
so kann mans nämlich auch sehen.

ich weiß es nicht. kann da nicht in die Zukunft schauen. für mich zählt der Ist-Zustand und daher rate ich dem TE von ner 390(x) und ner Fury ab.
will er nicht ganz so viel Leistung (390/970), ist ne Titan, 780Ti oder auch ne 7970GHz ne gute Wahl, in der Reihenfolge.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was G3cko da schreibt stimmt doch.

Vor drei Jahren waren 2-4GB Normal, heute sind es eben 4-8GB. Damals gabs es genau die gleiche Diskussion wie heute, so viel VRAM braucht man nie... und wie sieht es ein paar Jahre später aus?
Soll man jede Generation auf die beschnittenen Karten von Nvidia reinfallen, weil sie ja aktuell gut sind? Ich meine, wie blöd kann man sein und mit voller Überzeugung eine 970 empfehlen, die ein bekanntes Problem hat, das man mit einer min. gleichwertigen 390 umgehen kann.

Aber bringt ja alles nichts, lauf weiter über eure grüne Wiese und blökt von morgens bis abends den selben quatsch.... mäh ihr Schafe.
 
Eine 680 mit 4GB und OC hat locker 200€ mehr gekostet zu Release. Siehe Preise zum Titanrelease (Link oben). Da war die GTX680 auch immernoch spürbar teurer. In Tombraider wird der VRAM bis auf 8GB vollgemacht weil die Konsolen einen unified Speicher haben. -> PC Ports schreiben den VRAM voll, da alle Daten der Graka wie auf der Konsole zur Verfügung stehen müssen.

Im übrigen der damalige Release:
Launch-Analyse: AMD Radeon HD 7970 "GHz Edition" (Seite 2) | 3DCenter.org
Die Meinungen ähnlich zu heute: "Ich spiele eh nur in FullHD. Brauche keine 3GB. Zudem ist die GTX670 in FullHD kaum langsamer (10%)"

Man muss schon immer auch den jeweiligen Preispunkt berücksichtigen. Für eine GTX680 mit OC und 4GB gab es auch eine 7970 mit 6GB VRAM.

Vielleicht auch ganz interessant ist rückblickend folgender Artikel:
Sapphire Radeon R9 290X mit 8 GB abgesagt - ComputerBase

Ich würde auch immer folgende herangehensweise empfehlen. Benchmarks in utopischen Einstellungen (= kein CPU Limit, realistischere Leistung am Ende der Nutzungsdauer). Zudem war GCN neu, Treiber unoptimiert. Nvidia seit G80 mit 1D-Architektur unterweg. Die Rohleistung die ja vorhanden war liegt teilweise brach. Das sollte man zumindest immer mit Berücksichtigen. 8GB VRAM der Konsolen standen Ende 2013 zu meinem Kaufzeitpunkt fest. => 3GB. Zudem wenn der VRAM in FullHD nicht steigen würde, würden alle noch mit 512MB rumkrebsen und die Welt wäre in Ordnung. So ist es nun mal nicht.
 
Zuletzt bearbeitet:
G3cko hat völlig recht. Ich habe ja selbst die besagte (angeblich abgesagte) Grafikkarte ;). Ich glaube es hieß dann später im Jahr, dass schon einige Karten produziert wurden und Sapphire die abverkaufen darf.
Warum habe ich die Karte gekauft, obwohl die 980Ti ein dreiviertel Jahr danach rauskam(War auch bekannt, dass beide Hersteller was neues bringen)?
1. Es war ca. 1/3 mehr Leistung von der Karte erwartbar, mit dem kann ich leben.(Diese Erwartung hat sich auch bewahrheitet;))
2. Anders als andere Leute, die damals der Ansicht waren, 2 GiB VRAM würden für dieses und jenes reichen, war ich mit meiner 7970 ein gebranntes Kind, weil ich da schon in 1440p zockte und die 3GiB öfter mal ein Problem wurden. Zudem wollte ich ein CrossfireX- System aufziehen, was damals gut lief(mindestens schon in allen Mantle- Games)
3. Damals war Mantle gerade richtig gut vertreten und die Games liefen damit butterweich. Nach einer Durststrecke der Entscheidungsfindung ist nun DX12/Vulkan im Kommen, was wiederum für die 390 spricht, da es die performante Hardware effizienter ansprechen kann.
4. Wie G3cko erwähnte, ging ich auch damals davon aus, dass die 8GiB geteilten RAMs der Konsolen sich darin auswirken würden, dass mindestens 6GiB VRAM bei normalen Settings auf dem PC nötig wären. Tatsächlich hat es ein wenig länger gedauert, als ich dachte, bis nun einige Games mit einer einzelnen GPU über 8GiB VRAM bei spielbaren FPS auslasten(Mods ausgenommen - da ging es schon deutlich früher).
5. Das proprietäre Abkapseln von Nvidia hat mir nicht gefallen, aber diese Gründe sind eher nebensächlicher Natur gewesen.

Insgesamt habe ich schon meine Lehren daraus gezogen und bin heute auch bereit, für mehr VRAM sogar einen guten Aufpreis zu zahlen. Und eines muss ich auch noch loswerden: Zu meiner Schulzeit lachte ich mal einen Schulfreund aus, weil er seinen Grafikkartenkauf (ATI- Karte) mit dem größeren VRAM begründete. Mittlerweile ist mir klar, dass ich mich selbst hätte auslachen sollen, weil ich so ein unwissendes PC- Hefte- Kid war, was nur AVG- FPS verglichen hat und nicht in der Lage war, in die Zukunft zu blicken.
 
Kleiner Hinweis, die HD7950 stand als preislicher Gegner, der GTX670 gegenüber. Bitte nicht nur 3 Monate aus knapp 2 Jahren laufzeit rauspicken. ;)

Die VRAM diskussionen sind alle zwei Jahre die gleichen. Aber hier auch nicht allein festzuhalten.
Das Problem GTX970, das aktuell noch selten auftritt, ist nicht zu wenig Speicher, sondern die langsame Anbindung der letzten 512 MB. Als echte 3,5GB Karte wäre die Karte nach wie vor uneingeschränkt eine super Empfehlung
 
Was G3cko da schreibt stimmt doch.

Vor drei Jahren waren 2-4GB Normal, heute sind es eben 4-8GB. Damals gabs es genau die gleiche Diskussion wie heute, so viel VRAM braucht man nie... und wie sieht es ein paar Jahre später aus?
Soll man jede Generation auf die beschnittenen Karten von Nvidia reinfallen, weil sie ja aktuell gut sind? Ich meine, wie blöd kann man sein und mit voller Überzeugung eine 970 empfehlen, die ein bekanntes Problem hat, das man mit einer min. gleichwertigen 390 umgehen kann.

Aber bringt ja alles nichts, lauf weiter über eure grüne Wiese und blökt von morgens bis abends den selben quatsch.... mäh ihr Schafe.

@Why_me

Komm schon, Sachlich ist da ja was dran und auch nachvollziebar, aber geschmückt mit Beleidigungen verliert es einfach an Wirkung.
 
Zuletzt bearbeitet:
Wie oft willst du diesen bullshit noch runterbeten? Dadurch wird es auch nicht wahr. Das ist in Hardware gegossen, da gib es kein fix für!

Einzig ein workaround den RAM auf 3,5GB zu begrenzen und das funzt halt nicht immer.
 
Das stimmt nicht, Nvidia hat das per Treiber gefixt.
Es gibt keine Probleme mehr.

Ist nicht dein Ernst, oder? ;)
Sachlich geblieben ! Nvidia kann für Spiele individuell ein Treiberupdate liefern und darüber versuchen, den Speicher nicht über 3,5GB zu füllen. Aber wie toll das funzt kannst du auch ganz aktuell im Test zu the Division, bei PCGH anschauen ;)
 
Darum hoffe ich auf Vulkan, plattformübergreifende Performance auf jeder Grafikkarte, am Besten unter Linux. Dann bin ich von Microsoft endgültig weg.
Nur weil Vulkan die gleiche Leistung unter Linux wie unter Windows bringt heißt es leider noch lange nicht, dass es auch wirklich im großen Stil eingesetzt wird. Momentan wird OpenGL unter Windows stiefmütterlich behandelt. Entsprechend schlecht ist die Leistung auch. OpenGL hätte sich unter Windows optimieren lassen. Man hätte alle D3DX-Effekte auch in OpenGL nutzen können. Der Willen fehlte. Aufgrund von Unwissenheit, mangelnden Fähigkeiten einiger Entwickler und voralledem dem Willen, alle Systeme zu unterstützen. Und sei es nur wegen des Supports...

Aus meiner Sicht ist D3DX12 gänzlich überflüssig: Vulkan ist ebenfalls eine LowLevel-Api, kann so ziemlich das Gleiche wie D3DX12, die Performance ist ebenso gut und sogar die Syntax und der Stil im Programmieren sind ähnlich. Da Vulkan aber flexibel für alle Platformen einsatzfähig ist, vom Telefon über eine Konsole bis zum HighEnd-PC, müsste man dem eigentlich immer den Vortritt geben. Zwei Renderpfade (D3DX und Vulkan) in einem Spiel, halte ich für absolut schwachsinnig.


...

Das sind so die letzten Benches von CB zu aktuellen Games. Hitman ist hier die einzige Ausnahme wo R9 390 und 980 Ti gleich auf sind.

EDIT: Die 4500 anderen Games, wo die Fury X nicht mal in die Nähe der 980 Ti kommt, werden übrigens ab morgen nicht mehr gespielt!!! Verkauft alle eure 980 Ti und greift zur R9 390! Das ist ein ernst gemeinter Aufruf an alle nVidia-Sündiger!!

...



1. Die GTX 970 konkurriert mit einer 390. Die 390 muss gar nicht so schnell wie eine 980ti sein. Wenn sie das doch mal ist: Super für deren Besitzer!
2. Natürlich mag die 390 in vergangenen Spielen (alte Engine) nicht oder nur kaum an besagte Karten herrankommen. Trotzdem reicht die Performance dort locker aus. Engpässe sind nicht zu erwarten, mehr Performance wird dort nicht nötig sein. Bei kommenden Spielen wird die 390 auf jeden Fall dank mehr DirectX 12 eine gute Performance liefern. Alleine deswegen ist sie gegenüber einer 970 eine gute Idee: Solide D3DX12 Performance, vermutlich eben so solide bei Vulkan, mehr VRAM und kein Speicherbug.

Wenn sie gelegentlich an eine 980 herranreicht, umso besser. Muss sie wie gesagt nicht, die kostet nämlich auch wesentlich mehr. ;)
 
Zuletzt bearbeitet:
Bitte nenn das nicht einen Bug, denn ein Bug ist es nicht!
Der Speicher wurde von Nvidia absichtlich beschnitten, indem man aus irgendeinem Grund Teile des L2 Caches deaktiviert hat.
Ohne es zu kommunizieren. Okay, sorry, Speicher-B.etrug - gefällt dir das besser?
 
B.e.t.r.u.g ist besser als bug. denn nvidia wusste was sie machen und sie wussten auch dass man die leute verarschen kann. warum man das gemacht hat? ka
 
Es ging vermutlich darum einen künstlich, deutlichen Unterschied zur 980 zu schaffen. Aus meiner Sicht hätte man das auch über Shader oder Takt lösen können....
 
Takt kommt nicht in Frage denke ich. Die Partnerkarten würden das übrige tun und den Leistungsunterschied wet machen.

Shader wäre die bessere Lösung gewesen in dem Falle...
 
Unterscheidet sich die Shader-Anzahl der 970 zur 980?
 
Nun ja, dann hätte man auch einfach noch eine handvoll Shader entfernen können. Vermutlich wäre die Karte dann wieder zu langsam. So läuft die Karte fix, aber ab einem bestimmten Zeitpunkt erzwingt man einen GPU-Wechsel wegen Mikrorucklern.
 
oder wegen Nachladerucklern oder wegen dann zu wenig Leistung oder oder oder ...
 
oder wegen Nachladerucklern oder wegen dann zu wenig Leistung oder oder oder ...
Ich rede von einem Fall, wo die rohe Performance noch reicht. Und den wird es geben. Die Probleme kann man jetzt gelegentlich schon beobachten.
 
Haha du bist echt ein herrlicher Troll, pendalf! Das glaubst du doch nicht selbst?


Das sie funktioniert wie sie soll, stimmt. Trotzdem hat nVidia seine Käufer und die Presse belogen was die Spezifikationen betrifft.
 
Nein haben sie nicht, der Chef hat doch gesagt es gab ein Kommunikationsproblem.
Von Lüge steht nirgends etwas und wurde auch nicht bewiesen.
...und im Himmel ist Jahmark! nVidia wusste natürlich nicht vorher, dass sie 0,5 GB verkrüppelt anbinden werden. Der CEO hat das hinterher zugegeben. Und? Was ändert das? Richtig: Nichts! nVidia hat seine Kunden und die Presse vorgeführt.

Man soll Trolle zwar nicht füttern - in deinem Fall ist das aber amüsant. ;)
 
ich würd Euch gerne alle wegen OT melden
Nur zu - die Posts können gerne alle gelöscht werden. Alles wissenswerte zur Frage des TE wurde bereits gesagt. Auf weitere Rückfragen müssten wir sowieso warten.
 
sorry. ich finds immer sehr unhöflich das Thema des TEs so komplett zu mißachten. ich laber auch gerne mal. und evtl hab ich auch Stöcklein wo drin, aber ich finds daneben. ohne wen pers angreifen zu wollen. Peace!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh