Schlechtester Zeitpunkt für eine neue Grafikkarte - aller Zeiten?

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Klingt alles irgendwie nach Schaffe....

Schaffe?Schaffe häusle baue....Robbenbrot statt Bretze kaue?:rofl: Wer soll das sein?

tanuki schrieb:
nö hat sie nicht da 0,5 nicht nutzbar sind hat sie nur 3,5 was ja nicht das problem wäre aber die langsam angebundenen 0,5 schon

Es gibt langsame Datenfürze die von Nvidias Treiberteem da reingeschrieben werdn.
Kann man genausogut in sistemram schreiben, also 4GB hat die Karte niemals als nutzbaren Speicher!!
 
Zuletzt bearbeitet:
nö hat sie nicht da 0,5 nicht nutzbar sind hat sie nur 3,5 was ja nicht das problem wäre aber die langsam angebundenen 0,5 schon
Trotzdem hat sie 4gb. Nutzbar sind 3,5. Was anderes habe ich nicht behauptet. Oder klingen 3,5+0,5 besser? Du hast doch gerade selbst gesagt sie hat nur 3,5 gb und 0,5 langsam angebundene. Für mich sind das dann doch 4,0gb insgesamt :d

Edit: Gings hier darum wieviel nutzbar sind oder wieviel sie hat? Ich glaube wir reden hier alle aneinander vorbei.
 
Zuletzt bearbeitet:
Dark Session schrieb:
Was anderes habe ich nicht behauptet.

Du hattest jesagt dass die 0,5GB lediglich langsamer angebunden sind, was dank der Partitionlösung auch falsch ist.
Artikel LEsen!:bigok:

Ein Auto mit vier Reifen auf dem ein Reifen zu klein ist dattet die STraße berührt.. sind auch 4 Reifen... Waaah...:d
Ich mach mir jetzt nen strammen Max und genieße eure Unwisenheit!
 
Zuletzt bearbeitet:
Wie viel zahlt dir AMD eigentlich? :xmas: /s

Achja, deine komplette Theorie mit einem einzigen Video widerlegt :
 
Zuletzt bearbeitet:
300€ alle 3 Jahre für eine graka ist doch super!

Man muss halt den Wiederverkauf rechnen (für eine "alte" funktionierende " Karte (ca 100€)) dann ist man doch auf einer ganz anderen Spur.
 
Achja, deine komplette Theorie mit einem einzigen Video widerlegt :

Welche Thoorie? denn? Du drückst dich in Hiroglyphen aus... buddy..
Wenn die RAM Auslastung höher als 38584 oder so MB ist, dann liegts an den Fürzen von denen ich sprach.
 
Zuletzt bearbeitet:
@lovehurts .... sag mal wie alt bist du noch gleich? die Diskussion fand ich eig. bis zur aussage "blablabla langweiler, low res zocker" ziemlich amüsant.

du musst jetzt nich hergehen und einfach mal quer durchs forum leuten damit ans bein pissen ;) ...
 
Kann man genausogut in sistemram schreiben, also 4GB hat die Karte niemals als nutzbaren Speicher!!

Ich glaube wir reden nach wie vor aneinander vorbei... Es geht doch überhaupt nicht um nutzbar oder effektive Menge oder wie du es hier noch so schön geschimpft hast.
Es ging (mir zumindest) um das vorhandensein und die Möglichkeit, die volle Datenmenge auch addressieren und damit ansprechen zu können. Dieser Umstand ist gesetzt... Selbst in den von dir genannten Presseeinrichtungen ist dieser Umstand mehrfach aufgetaucht. Noch dazu gibt es Möglichkeiten außerhalb von Spielen, den VRAM mit Daten zu befüllen. Nämlich sogar welchen wo du direkt Kontrolle über die Daten hast anstatt in Games auf die Treiber des Herstellers zu "vertrauen". Du kannst dich ja mal mit Cuda beschäftigen. Oder nimm gleichen OpenCL oder Direct Compute, das geht auch auf AMD, da musst du dann nicht umlernen ;)

Das ändert alles nix am Verhalten der Karte und an der Separierung des Speichers. Das stimmt wohl. Aber ganz ehrlich, worauf willst du denn mit dieser Argumentation überhaupt hinaus? Was ist der Kernpunkt deiner Aussage? Das die Karte nicht so funktioniert, wie man es vorher gedacht hat? In der Tat, da bekommst du volle Zustimmung von mir -> aber das sagte ich bereits im ersten Post. Aber was noch? Wohin soll die Diskusion nun führen?
Wie ich merke, wirst du es der Karte nicht eingestehen, dass sie A) ein 256Bit breites Speicherinterface hat, wenn auch es nicht effektiv gleichzeitig Daten durchlassen kann -> aufgrund der beschnittenen Anbindung bei der Crossbar. Und B) das daraus auch das Ansprechverhalten der oberen 1GB Speicher ein anderes sein muss... Nämlich das nur die halbe Datenmenge absolut gesehen in der gleichen Zeit dank des gekürzten Crossbarbeinchens übertragen werden kann.
Aber irgendwie drehen wir uns hier im Kreis...

PS: dass du immer 0,5GB erwähnst, finde ich übrigens auch witzig. Es ist das ganze letzte eine Gigabyte betroffen. Nur so zur Info... Zu entnehmen im offiziellen Statement seitens NV zu dem Thema. Und warum ist das so? Weil bei der Karte sich die oberen 1GB, aufgeteilt auf zwei VRAM Chips über zwei dedizierte Controller des Speicherinterfaces, einen einzigen Port an der Crossbar teilen müssen. -> und genau dieser Umstand macht die Karte zu einer Karte, welche ein 256Bit SI verbaut hat. Wäre das nicht der Fall, hätte man (Aussage NV) entweder auf 3GB mit 192Bit SI (und damit folgerichtig 3/4 Anbindung zur Crossbar) oder auf volle 4GB mit voller Crossbaranbindung gehen müssen. Letzteres war offenbar nicht gewünscht für die 970er Modelle... Also hat man sich für den Mittelweg entschieden. Mehr Bandbreite nutzbar, mehr Speicher, dafür zusätzlicher Aufwand -> und ne tobende Community ;)
EDIT: ob es überhaupt möglich gewesen wäre, eine Karte in der Konstellation mit 7/8 Speicherchips, sprich 224Bit nativem SI mit vollem Crossbarconnect zu bauen, ist ebenso technisch fraglich. Normal werden dort 32Bit Speicherchips verbaut aber 64Bit Interfaces verwendet. Im Falle von GM204 ist ein 64Bit SI Controller teilbar und arbeitet damit als 32/32Bit Controller. Weswegen es idR die doppelte Menge an Speicherbausteinen sind. Ich müsste lügen, aber mir fällt spontan keine GPU mit einer derartigen Anbindung in der Vergangenheit ein. Alle Karten, wo man das SI "krumm" gebaut hat, hatten Speicherchips paarweise verbaut. -> was den Schluss zulässt, dass es (mit Ausnahme von keiner Kürzung an der Stelle) gar keine andere Möglichkeit für NV hätte gegeben...
 
Zuletzt bearbeitet:
Ich glaube wir reden nach wie vor aneinander vorbei... Es geht doch überhaupt nicht um nutzbar oder effektive Menge oder wie du es hier noch so schön geschimpft hast.

Okai.. dann bestätige doch einfach die 224bit und die 196gb/s und das Thema ist vom Tisch!

Es ging (mir zumindest) um das vorhandensein und die Möglichkeit, die volle Datenmenge auch addressieren und damit ansprechen zu können.

Kann man, wenn man es möchte! Aber ich kann net 4GB auf die Verpackung schreiben wenn die ma so teilweise genutzt werden, dann in irgendwelchen Ausnahmen ganz und dann wieder gar nicht!
DAs nennt sich Betrrug.

Du kannst dich ja mal mit Cuda beschäftigen. Oder nimm gleichen OpenCL oder Direct Compute, das geht auch auf AMD, da musst du dann nicht umlernen

Ich kenne mich damit nicht aus, noch weiß ich was das ist.

Was ist der Kernpunkt deiner Aussage?

Mit professoraler Sprache: Der Kernpunkt ist, dass deine Aussagen zur Interfacegröße, zur genutzten Bandbreite falsch sind, wie es in der PCGH und auf Toms Hardware illustriert ist!
Alslo einfach mal diese lustigen Illustrationen zur Gemüte füren.

Wie ich merke, wirst du es der Karte nicht eingestehen, dass sie A) ein 256Bit breites Speicherinterface hat, wenn auch es nicht effektiv gleichzeitig Daten durchlassen kann

Hat sie nicht, weil der Zugriff auf die Partitionen nicht mit 256bit Bandbreite erfolgt, sondern mit 224bit und separiert 32bit und nicht im gleichen Takt, sondern nacheinander versetzt.
Das ist auch ein Teil von der Begründung weswegen das so ruckelt.

Und B) das daraus auch das Ansprechverhalten der oberen 1GB Speicher ein anderes sein muss...

Das obere Gigabyte wäre ein anderes Ansprechverhalten, wenn die Architektur noch Käpler heißt, auch wieder falsch von dir!
DAs war doch was der Speichellecker ala Hueng oder so auf der Konverenz gesagt hatte!

Es ist das ganze letzte eine Gigabyte betroffen. Nur so zur Info..

Tolle Info, die ist falsch, das geht auch aus dem Artikel von PCGH 032015 hervor und von Igor Wallosekk.
Es sind nur die letzten 512mb betroffen, die 3072 bis 3584 mb funktionieren bestens und werden mit der vollen Leistung angesprochen.
DAs ist ja der super Vorteil und das Feeture von Maxwell!
 
Zuletzt bearbeitet:
Nur weil die Karte sich nicht so verhält, wie du es gern hättest, heist das lange nicht, dass es so nicht gewollt wäre.

Its a Feature Not a Bug.
Ja das Statement von nvidia kennen wir.

Setz mal die grüne Brille ab. Wenn auf der Netzteil Verpackung 400 Watt steht aber bei 350 Watt Probleme auftauchen so kann man das eben nicht so verkaufen. Niemand hatte gemeckert wenn das ding mit 3.5GB beworben worden wäre, aber man hat bewusst diesen weg gewählt. Und falls dir das nicht bewusst ist (Sarkasmus), das Problem der Anbindung ist User aufgefallen und keiner internationalen Hardware testseite. Zumal der nvidia treiberworkaround ja folgendermaßen aussieht -> bloß nicht mehr als 3.5GB verwenden.

Und man muss nicht allzuweit in die Vergangenheit schauen um ähnliche Vorfälle zu finden. Ich sag nur fallsches DirectX Level bei kepler. Aber mit der Grünen Brille ist das alles im grünen Bereich. ;)
 
Zuletzt bearbeitet:
Moment, du sagst wenn mit 3,5GB geworben wäre, würde niemand meckern. Was ist dann mit Dual GPU Karten die mit 8GB werben aber nur 4GB wirklich für den Endverbraucher in Spielen nutzbar ist? Da schreit niemand auf und boykottiert den Hersteller.
 
Das ist nicht ideal aber korrekt, da die renderingmethode bestimmt ob der VRAM gespielt oder additiv voll nutzbar ist.
 
Okai.. dann bestätige doch einfach die 224bit und die 196gb/s und das Thema ist vom Tisch!
Das würde sich nicht mit meiner Auffassung decken. Schon gleich gar nicht werde ich irgendjemanden zu Liebe irgendetwas behaupten, was ich gar nicht behaupten will? Du hast ne komische Diskusionskultur...

Kann man, wenn man es möchte! Aber ich kann net 4GB auf die Verpackung schreiben wenn die ma so teilweise genutzt werden, dann in irgendwelchen Ausnahmen ganz und dann wieder gar nicht!
DAs nennt sich Betrrug.
Jetzt bist du schön in der Rechtlichen Schiene, wenn du von Betru.g schreibst. Dann wären doch mal die Gesetztestexte, gegen die man verstoßen würde, angebracht, nicht oder? Ich kann da nix finden... Und offenbar auch bis dato kein Anwalt in DE respektive Europa. Einzig bei den Amis versucht man es. Aber die versuchen auch alles... Siehe der Spaß mit der Coreanzahl bei Bulldozer -> gleiches Prinzip, fehlende Definition gepaart mit eigener Interprätation des Klägers. Geht halt in den USA sowas vor Gericht zu schleppen...

Ich kenne mich damit nicht aus, noch weiß ich was das ist.
Kann ich dir wärmstens empfehlen... Dann wird dir das Speicherverhalten von Grafikkarten mal selbst bewusst und du musst nicht PCGH oder THG bzw. eines Herrn Igor Wallosekk (wer auch immer das ist, ich hab es mit Namen nicht so) ranziehen um dir im Klaren darüber zu sein, wie viel Speicher man bei einer Grafikkarte mit welchen Mitteln und Wie ansprechen kann ;)

Das obere Gigabyte wäre ein anderes Ansprechverhalten, wenn die Architektur noch Käpler heißt, auch wieder falsch von dir!
Das sieht NV aber anders... Auch spricht das Statement seitens NV da eine andere Sprache... Ich frage mich gerade ob du die Artikel der Redaktionen über das Thema überhaupt gelesen hast oder diese falsch das Statement interprätiert haben!? Aber da ich hier mit sachlicher vorgetragenen Argumenten nicht weiter komme, so scheint es mir, bitte, da hast du nen Link, kannst du lesen. Ist auch nicht von mir gefakt oder getürkt:
nVidia räumt das "3,5-GB-Problem" der GeForce GTX 970 ein | 3DCenter.org
Interessant lächelt dich da bspw. so eine Ansammlung von Wörtern an:
"Rein technisch ist es dagegen schwer, der Karte das 256 Bit DDR Speicherinterface und die 4 GB Speicher abzusprechend – auf der Verpackung sowie bei nVidia steht nun einmal genau dies, und technisch ist es schließlich auch wirklich vorhanden."
Mhh. Wer hat nun recht? Die Jungs ausm 3dc, die das schreiben, was offiziell von NV kommt -> gepaart mit dem kopierten Satz eigener "Meinung"? Oder PCGH/THG?

Tolle Info, die ist falsch, das geht auch aus dem Artikel von PCGH 032015 hervor und von Igor Wallosekk.
Es sind nur die letzten 512mb betroffen, die 3072 bis 3584 mb funktionieren bestens und werden mit der vollen Leistung angesprochen.
DAs ist ja der super Vorteil und das Feeture von Maxwell!

Nimms mir bitte nicht übel, aber du scheinst mir echt eine Leuchte zu sein... ;)
Was meinst du, warum auf dem Bildchen im Statement, die Speichercontroller immer schön paarweise zusammen gemalt sind? Kann nicht etwa daran liegen, wie ich es dir sagte... Ne. Falschinfo...
Natürlich gehören die Controller zusammen. Es ist eine 32/32Bit Konstellation. Diese bleibt weiterhin aktiv. Allerdings nur ein Bein zur Crossbar. Damit ergibt sich eine Funktionsänderung für das letzte eine Gigabyte an Daten. Was meint, dass die Daten entweder alle samt in einem Chip liegen können, oder verteilt -> was eher warscheinlich ist. Die Segmentierung wird technisch gesehen auf die Speicheraddressen vollzogen. Denn der das ist das, was die Software anspricht -> wie oben erwähnt, etwas Programmierwissen wäre hier gut. Der Treiber macht effektiv nix anderes, als die Belegung anhand der Speicheraddressen zu bestimmen und (wenn möglich) dies zu verhindern. Das klappt in Games gut. Und macht genau den Unterschied zwischen den Titeln vor einem und nach einem Treiberupdate aus... Warscheinlich könnte man sogar mit einer Infrarottermomenteraufnahme die Arbeitsweise BEIDER Speicherchips des letzten GB gleichsam nachweisen, nämlich weil beide wohl recht gleich "warm" werden sollten unter Last -> Verteilung der auf beide Chips. Wo die Daten liegen, ist auch wenig entscheidend. Es gehen so oder so nur schnell 512MB rein. Alles was danach kommt, braucht länger...

Its a Feature Not a Bug.
Ja das Statement von nvidia kennen wir.

Setz mal die grüne Brille ab. Wenn auf der Netzteil Verpackung 400 Watt steht aber bei 350 Watt Probleme auftauchen so kann man das eben nicht so verkaufen. Niemand hatte gemeckert wenn das ding mit 3.5GB beworben worden wäre, aber man hat bewusst diesen weg gewählt. Und falls dir das nicht bewusst ist (Sarkasmus), das Problem der Anbindung ist User aufgefallen und keiner internationalen Hardware testseite. Zumal der nvidia treiberworkaround ja folgendermaßen aussieht -> bloß nicht mehr als 3.5GB verwenden.

Keine Angst, meine Sicht ist ziemlich klar ;) Da ist auch kein Grünstich drin.
Dein Vergleich mit dem Netzteil hinkt. Genau an der Stelle, den ihr einfach mal nicht verstehen wollt. Es gibt keine Definition über die Funktionsweise. Wie oft muss man das denn noch runterbeten?
Wenn ein NT 400W liefern soll, dann erwarte ich, dass bei 400W auch 400W rauskommen. Da steht nämlich idR drauf, die 12V Leitung soll xxA abdecken. Genau das muss da raus kommen. -> das Beispiel passt dahingehend nicht, weil 4GB Speicher drauf stehen und 4GB Speicher auch nutzbar sind. Allerdings nicht so, wie es andere Karten tätigen. Aber auch nicht so, wie es noch nie vorher zu sehen war. Das ist ein Fakt, denn man hier gerne ausblendet.

Aber spinn doch dein Beispiel mal weiter. NT ist gar nicht so schlecht... Du kaufst ein Multirail NT mit 400W und willst einen single Verbraucher dran klemmen, der 400W zieht. (oder sagen wir, fast 400W, wollen das NT ja nicht auf Volllast fahren) -> das wird idR nicht laufen. Denn Multirail heist hier, das da zwar 400W rauskommen, aber du auch entsprechend die Last über verteilte Abgänge abnehmen solltest. Überlastest du nun eine der Rails, ist auch Ende. und das schon bei weit vor 400W. -> gehst du dann hin und ziehst über den Hersteller des NTs, weil das NT nicht so funktioniert (SingleRail) wie du es gern hättest? Nein, bestimmt machst du das nicht -> du gehst dich vorher informieren. Und wenn niemand die Infos hat, kaufst du und testest oder kaufst was anderes...
Warum kann man so eine simple und nüchterne Betrachtungsweise nicht einfach auf so ein verkacktest Stück Hardware, wie eine Grafikkarte anwenden? Ich kapier es einfach nicht, wie man sich so derart an dem Thema aufziehen kann.
 
Zuletzt bearbeitet:
630x354_
 
Macht keinen Sinn. Wenn du dir ein Auto kaufst dass 3 montierte Reifen hat und ein Reifen im Kofferraum liegt der aber nicht aufs Auto passt, hast du trotzdem VIER reifen. Ausserdem warum soll der Ram nicht nutzbar sein, du kannst über 3,5gb in spielen auslasten.
 
nö hat sie nicht wenn 3,5 nutzbar sind hat sie nur 3,5

Du kannst doch aber mehr wie 3,5GB Daten da rein kippen... Wenn du es nicht glaubst, probier es doch einfach selbst aus. Irgend so nem Hansel wie mir in Foren muss man sicher nicht alles glauben. Auch NV muss man das nicht (definitiv sogar!), aber wenn sich die "Fachpresse" effektiv darüber einig ist, dass dort mehr wie 3,5GB rein gehen, dann wird da schon was dran sein... ;)

Macht keinen Sinn. Wenn du dir ein Auto kaufst dass 3 montierte Reifen hat und ein Reifen im Kofferraum liegt der aber nicht aufs Auto passt, hast du trotzdem VIER reifen. Ausserdem warum soll der Ram nicht nutzbar sein, du kannst über 3,5gb in spielen auslasten.

Wenn das der Fall wäre, würde ich die Karre reklamieren... :fresse:
 
Sind wir nach 4 Seiten jetzt bei der Ram Diskusion angekommen? -_-'
Nein, in den allermeisten Anwendungsfällen, hat die GTX 970 keine 4 GB RAM, denn der Treiber vermeidet es explizit, die letzten, verbauten 512MB anzusprechen, es sei denn, es ist zwingend notwendig (worauf hin es zu Rucklern kommen kann).
Jedenfalls hat NV diese "Feature" mal so beworben und das wird ja auch immer als Argument gebracht.
Zudem würde ich sagen man kann "hat" und "nutzen" in diesem Fall nunmal gleichsetzen denn was zählt ist das Resultat und nicht die Materie.

Zum Thema - wobei darauf ja eigentlich schon genug Antworten gegeben wurden - es gibt 5 Möglichkeiten:
1. Alte Karte gebraucht kaufen und eventuell im Sommer auf die neue Generation umsteigen.
2. R9 380X kaufen und dann mit ~10% Steigerung eine längere Weile leben
3. R9 290(x) gebraucht oder 390 kaufen (und leicht übertakten) und mit ~30% Leistungssteigerung leben.
4. GTX 970 kaufen und verhältnismässig stärker übertakten um mit ~40% Leistungssteigerung, aber dafür der Ram Problematik leben
5. Richtig Geld in die Hand nehmen und ne 980Ti oder Fury X kaufen.. wobei ich beides nicht tun würde, wenn ich bisher mit der Leistung 7950 zufrieden war...

@Doomchen: Denke nur du kannst sagen, welche dieser Varianten dir am sinnvollsten erscheint denn das hängt schlicht davon ab, was einem Gamingleistung "wert" ist...

EDIT: Die Leistungssteigerung bezieht sich jeweils grob auf die alte Karte.
EDIT2: Blöder vertipper korigiert...
 
Zuletzt bearbeitet:
2. R9 380X kaufen und dann mit ~10% Steigerung eine längere Weile leben
3. R9 290(x) gebraucht oder 390 kaufen (und leicht übertakten) und mit ~30% Leistungssteigerung leben.
4. GTX 970 kaufen und verhältnismässig stärker übertakten um mit ~40% Leistungssteigerung, aber dafür der Ram Problematik leben

kommt mir bald etwas niedrig vor?
Also vor allem die 30/40%... Bedenke, es ist nicht die 1000MHz+ volle Tahiti GPU die Basis, sondern die 800MHz "schmale" HD7950, die dazu noch leicht gekürzt in den Ausführungseinheiten ist. Das macht auf Tahiti Vollausbau als GHz Edition alleine schon fast 25%. Hawaii respektive GM204 ist da nochmal ne andere Ausnummer. Inkl. OC (als Werks OC Modell, also seicht ;)) dürfte bei bei einer 390 non X schon die 50%+ fallen...





PS: die vorhandene Speichermenge ist übrigens NICHT von den Anwendungsfällen abhängig... Auch ist eine Grafikkarte nicht NUR fürs Spielen zuständig. Sprich wenn der Treiber den Texturcache künstig einbremst, weil NV das so für richtig hält, ändert das doch an der verbauten Hardware auch nix?
Aber ich versteh die Diskusion immernoch nicht... Lasst uns einfach mal 2-3 Jahre warten. Dann ist die Karte so alt, wie bspw. zum 970er Release eine 1,25GB GTX 570 und eine 1,5GB GTX 580. Das waren ebenso absolute 5/6tel Unterschied in der VRAM Menge und damit MEHR als 7/8tel bei der GM204 GPU. Heute ists total wurscht, ob man A) oder B) hat. GPU Power kann man dort mit SLI "erkaufen", zwei Stück davon ergeben immernoch in etwa Mittelklasse Performance von heute. Der VRAM geht BEIDEN Modellen trotzdem aus. Kurzum, wenn die neuen GPUs mit 14/16nm die nächsten Monate eintrudeln, die Mittelklasse wohl durchgehend minimum 4GB Speicher haben wird, die größeren Modelle eher 6-8GB, vielleicht noch mehr, dann wird sich zeigen, wie "gut" eine "echte" 4GB GM204 aka 980er Karte im VRAM Limit funktioniert und wie viel Unterschied dann noch zu einer 970er über bleibt. -> Meine Prognose, beides unspielbar ;) Vor allem im nächsten VRAM Fresser Abklatsch ala CoD:Black Opts 4 oder 5 oder was auch immer dann aktuell ist aus der CoD Reihe ;)
 
Was lernen wir daraus? Immer schön die Grafikkarten innerhalb des Gewährleistungszeitraums abstoßen. Dann fehlt dir Differenz aus dem Wiederverkaufserlös auch nicht und der Grund für solche Posts :)
Ich sage max. 1 Jahr, danach muss sie weg. Man bekommt einen guten Preis mit Restgarantie und kann u.U. auf dem Markplatz hier auf ne bessere gegen einen geringen Aufpreis aufsteigen
 
Was lernen wir daraus? Immer schön die Grafikkarten innerhalb des Gewährleistungszeitraums abstoßen. Dann fehlt dir Differenz aus dem Wiederverkaufserlös auch nicht und der Grund für solche Posts :)
Ich sage max. 1 Jahr, danach muss sie weg. Man bekommt einen guten Preis mit Restgarantie und kann u.U. auf dem Markplatz hier auf ne bessere gegen einen geringen Aufpreis aufsteigen

Ja, das habe ich mittlerweile auch gelernt. Werde ich auch jetzt immer machen, aber eher so maximal nach 2 Jahren. Meine 970 wird abgestoßen, wenn Pascal kommt, und da ich sie eh sehr viel billiger bekommen habe, werde ich da wohl nicht viel verlieren.
Persönlich würde ich aber zur Zeit keine neue Grafikkarte kaufen, es sei denn man braucht unbedingt eine. Die neuen Generationen sind einfach zu nah.
 
Das würde sich nicht mit meiner Auffassung decken. Schon gleich gar nicht werde ich irgendjemanden zu Liebe irgendetwas behaupten, was ich gar nicht behaupten will? Du hast ne komische Diskusionskultur...

Lool... du stellst deine Auffassung also über Elektrotechniker wie Igor Wallosek die das auf Tomshardware Seitenweise erklärt haben?
Ich kringel mich.:rofl:
Auffassung hat hier nix zu tun mit der Realitäten wie es nunmal ist. Du zählst in Mathe wohl auch keine Rüben mit Essiggurken zusammen wah?

Jetzt bist du schön in der Rechtlichen Schiene, wenn du von Betru.g schreibst.

Ey ich weiß ja nicht wie das vor Gericht aussieht, aber ein Produkt mit falschen Spezzis zu bewerben und zu verkaufen ist immer nah am Vergehen.
Wo kein Kläger, da kein Richter... sagt unsere Rechtslehre Lehrerin...

Ich kann da nix finden...

Wenn es nach so Fanboys wie dir geht, dann sollte Nvidia noch nen Orden für bekommen... nich wahr.:cool:
Ist doch allet in bester Ordnung, auch mit dem V-ram, der zum Teilen teilweise gar net genutzt wird, aber hauptsache 4GB auf die Verpackung schreiben.
Dat Problem ist, dass du keine Ahnung von dem hast über was du schreibst.

Speicherinterface, ROPs, L2 Cache, Bandbreite hat direkten Einfluss auf die effektive Menge des V-rams, da wie du richtig erkannt hast die besagte Crossbar mit dem Laser durchgeschnibbelt isch.
Du willst mir doch net erzähln, dat die GTX 970 in der Praxis volle 4GB bietet.... Lügenmaul und so.. ganz gefährlich.

Und aneinander vorbeireden tust du, Herr Moderatore.

Kann ich dir wärmstens empfehlen... Dann wird dir das Speicherverhalten von Grafikkarten mal selbst bewusst und du musst nicht PCGH oder THG bzw. eines Herrn Igor Wallosekk (wer auch immer das ist, ich hab es mit Namen nicht so) ranziehen um dir im Klaren darüber zu sein, wie viel Speicher man bei einer Grafikkarte mit welchen Mitteln und Wie ansprechen kann

Du hast keine Ahnung Meister, ich spiele mit meiner Grafikkarte, gottseidank nicht die GTX 970, die hätte ich fast gekauft.
Ich mache keine Berechnungen und auch in den Tests der PCGH03/15. Man kann jede Ausgabe nachbestellen, genau diese habe ich mir bestellt.

"Rein technisch ist es dagegen schwer, der Karte das 256 Bit DDR Speicherinterface und die 4 GB Speicher abzusprechend – auf der Verpackung sowie bei nVidia steht nun einmal genau dies, und technisch ist es schließlich auch wirklich vorhanden."

Natürlich is dat vorhanden, ist ja nicht per godmode gelöscht worden.
Jetzt sage ich es ein letztes mal, die Karte hat ein 256bit Interface, 64 ROPS, 224GB/S Bandbreite, 4GB Speicher und 2MB Caiche.
Durch den Nvidia Fail den sie gemacht hatten hat die Karte nun folgende Spezifikationen:

224bit Interface Partitionsmodus, nicht gleichzeitig nutzbar und ein 32bit Interface keine 256bit insgesamt, auch wenn technisch vorhanden.
196 GB/s die zu keiner Zeit übertroffen werden, schau doch die Messungen an du Wichtigtuer 1,7MB L2 Caiche, 56 ROPs, weiterhin 4GB ansprechbar, ind er Praxis wegen der Schnibbelei nicht!!

Mhh. Wer hat nun recht? Die Jungs ausm 3dc, die das schreiben, was offiziell von NV kommt -> gepaart mit dem kopierten Satz eigener "Meinung"? Oder PCGH/THG?

Du kapiersch gar net was die da schreiben, die schreiben nix andres wat icke hier mache!! Außerdem was interessiert das, ich halte mich an Magazine und an Topleute von Tomshardware.

Es ist eine 32/32Bit Konstellation. Diese bleibt weiterhin aktiv. Allerdings nur ein Bein zur Crossbar. Damit ergibt sich eine Funktionsänderung für das letzte eine Gigabyte an Daten.

Jetz haste aber was geschrieben und damit erklärt wat die 2 unterschiedlichen Partitionen betrifft.
Es ergibt sich überhaupt keine Funktionsänderung für das letzte Gigabyte, sondern nur für die letzten 512mb.

diagram2rysp6.png


Das zeigt dir jede Folie zu diesem Thema und ist der Vorteil der MAxwell Architakltur.
Kepler kann 3072MB mit 164GB/S anbinden und den Rest 1GB mit 64bit, Maxwell kann 3584MB mit 196GB/S anbinden, den magere Reste mit 32bits.

Kapissche?:bigok:

Oder für Blödhaimer erklärt.

Ziehe mal ein Lineal und schau bei welchem DRAM Chip du das Lineal grade durchziehen kannst und bei welchem nicht!
Das dürfte net so schwer sein, brauchst halt Stift und Lineal und wohl nen neuen Monitor, so wie du dich anstellen tust.

Keine Angst, meine Sicht ist ziemlich klar Da ist auch kein Grünstich drin.

DAs wabbert direkt vor meinen Glubschern, dieser Grünstich in jedem deiner Worte und jetz bin ich Nvidia Fan.
Aber du hasse ma gar nix gecheckt. Einen auf Professor machen und dann Karotten mit Erbsen zusammenrechnen wollen und von 4GB 256bit, 224GB/s faseln.
Das ist keine 4GB Karte und das WARUM siehst du auf dem Bild da obben und wat muss der Treiber da machen, damit dat net ruckelt?
Begrenzen oder Fürze in den lagsamen RAM schieben die man genauso in den Rechenspeicher schieben kann.

Von Neumann Modell, Informatik 1te Klasse!

Oder Video watchen... kann dir net helfen Buddy.


2:30

3:20

"Doesn´t slow down the other 3,5 gigs"

Also hat es auch keinen Effect und es gibt auch keine Betroffenheit der letzten 1GB, sondern nur der 512MB!

TRololololooo du kapische nich mal das was der Huenger Typ gesprochen hat.

PS: die vorhandene Speichermenge ist übrigens NICHT von den Anwendungsfällen abhängig...

Haaaalooo jemand zuhause? :d

Du hast keine Ahnugn Buddy, Meister oder was wese ich.

DAs kommt auf das Spiel drauf an, manchmal schafft es Nvidia sogar 4GB zu belegen, ob sie diese nutzen ist was anderes, nutzen tun sie sowieso nix, da zu langsam.
MAnchmal kommt man auch mit aller Kraft nicht über 3,5GB, das ist doch Grundwissen über das Thema...steht alles in einem einzigen Artikel PCGH03/15

Also ne 4GB Karte? Nö

Dann ist die Karte so alt, wie bspw. zum 970er Release eine 1,25GB GTX 570 und eine 1,5GB GTX 580. Das waren ebenso absolute 5/6tel Unterschied in der VRAM Menge und damit MEHR als 7/8tel bei der GM204 GPU.

Abschalten gegen drannlassen und Probleme machen!!

Meine Prognose, beides unspielbar Vor allem im nächsten VRAM Fresser Abklatsch ala CoD:Black Opts 4 oder 5 oder was auch immer dann aktuell ist aus der CoD Reihe

Loool du bist ein Moderationslügenmaul. Beispiel gefällig?


Vier Gigabyte müssen es dann schon sein. Auch dann läuft das Spiel zwar nicht durchweg perfekt, aber durchaus gut. Das gilt jedoch nicht für die GeForce GTX 970, die sofort die langsamen, letzten 512 Megabyte belegt und dann unrund läuft.

http://www.computerbase.de/2015-11/benchmarks-call-of-duty-black-ops-iii/#abschnitt_der_vramkiller_und_der_fijitod

Findet man hier in den den alden Threads von deinen Geschreibsele noch mehr, einfach L...E..S..E..N!!

TRollalaaaarm.:heuldoch:

Meine Prognose, beides unspielbar Vor allem im nächsten VRAM Fresser Abklatsch ala CoD:Black Opts 4 oder 5 oder was auch immer dann aktuell ist aus der CoD Reihe

Deine Prognose für den Allerwertesten von Angela Ferkel!
 
Zuletzt bearbeitet:
Man kann die einzelnen schienen eines multirail netzteils auch kombinieren. Ging mir aber eher auf das was auf der Verpackung steht und der Käufer am Ende tatsächlich bekommt.

Das ist nämlich ein guter stichpunkt. Nvidia ist so dreist, das selbst die eigenen Partner falsche Daten (dx Level, Hardware Einheiten) auf verpakungen druckt und das ganze nicht korrigiert/klargestellt wird.am Ende wird alles ausgessen und wie bisher weitergemacht.

Und was am Ende mit dem speicherkruppel passier kannst du an kepler sehen. GCN zieht große Kreise, da nvidia kein Interesse mehr an den alten Karten hat.

Nvidia baut Karten für das hier und jetzt. Zukunfts Fähigkeit sabotiert man bewusst. Das ist schon seit Jahren die Produkt Philosophie.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh