Limitierte Speichergeschwindigkeit bei der GeForce GTX 970 (5. Update)

Ob Gsync, nach den Meldungen in den letzten Tagen dazu, noch ein gewichtiges Kaufargument darstellt darf durchaus bezweifelt werden.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nvidia hat sich doch damit ein Eigentor geschossen und man wird sich in Zukunft fragen,ob deren viel versprechenden Ankündungen,auch der Wahrheit entsprechen.
 
Mutio schrieb:
Ich finde auch, dass NVidia belangt werden sollte, befürchte aber negative Auswirkungen auf die Firma, wenn auf einmal riesen Summen eingeklagt werden. Letzten Endes brauchen wir NVidia denn sonst hätten wir auf einmal nur noch AMD im Grafikkarten Markt und damit wäre keiner glücklich auf die Dauer.
Daher: Strafe ja, aber in Maßen bitte!

Nix in Maßen. - Deftig! - Du glaubst doch nicht allen ernstes, dass ein Unternehmen mit 70% Marktanteil durch so ein Verfahren Bankrott geht. - Und wenn doch, selbst Schuld.

Und wieso brauchen wir NVIDIA? - Wenn die weg wären, würde sich ein anderer Hersteller hervortun. Die Annahme, dass es sowohl AMD als auch NVIDIA auf unbegrenzte Zeit geben wird ist doch schon leicht borniert.

°^°M-Power°^° schrieb:
ausser vielleicht 8gb 290er die dann aber kein gsync haben

Ach der nächste Marketing-Gau den man unbedingt haben muss. .... An dieser Stelle die Empfehlung an NVIDIA: Macht weiter wie bisher! - Die Leute brauchen und wollen das so.
 
Zuletzt bearbeitet:
wie wärs mit Warten?

auf was? ich will jetzt zocken und nicht erst in paar monaten

die erste gtx 980 rennt schonmal brachial bei nur 1500/2000 schon 14300 im firestrike (970er bei 1590/2050 nur 12200), die zweite kommt von der8auer und wird als SLI ergänzt
das der unterschied so enorm ist hätte ich nicht erwartet, ich bin sehr guter dinge es reicht jetzt locker für 4K ohne lästige ruckler

- - - Updated - - -

Ach der nächste Marketing-Gau den man unbedingt haben muss. .... An dieser Stelle die Empfehlung an NVIDIA: Macht weiter wie bisher! - Die Leute brauchen und wollen das so.

ich sehe live den unterschied zwischen 4k gsync 4k vsync und 4k ohne alles, und das ist bei weiten kein marketing sondern sichtbar
weiterhin war der bildschirm trotz 4k auf gleichen preisniveau wie alle anderen 4k ohne gsync, es war somit kein kaufargument ansich

somit keine nachteile sondern nur vorteile ;)
 
Genau auf Adptive-Sync oder Free-Sync zu setzen also nicht auf DRM-Implementierung via Hardware, wäre natürlich ein bomben Nachteil. Denn nichts anders ist gsync, Adptive-Sync, was nur dann eingeschaltet wird, wenn die entsprechende Hardware vorhanden ist, kannst ja mal nach der Geschichte mit Gsync und den Notebooks suchen, wo sich KEIN Gsync-Modul finden lies. ... Nein komisch aber auch.
 
Zuletzt bearbeitet:
3DCenter sieht das übrigens genauso wie ich, wie ich gerade lese bei denen im Artikel.
Sind aber sicher auch Lobbyisten.

Und nicht Leute die über das eigentliche Problem nach denken - in wie fern es wirklich zum Tragen kommt. Und Trotzdem einen Hersteller verurteilen können. (So wie ich es ebenso getan habe)

An der Karten-Performance der GeForce GTX 970 ändert sich mit diesen Korrekturen natürlich überhaupt nichts, die Karte wird nicht schlechter, langsamer oder weniger nutzbar dadurch. Selbst der geringere performant nutzbare Speicher dürfte letztlich kaum jemals wirklich relevant werden: Ein paar Jahre in der Zukunft dürfte es den dann existierenden speicherfressenden Spielen wohl egal sein, ob sie nur 3,5 oder 4 GB Speicher vorgesetzt bekommen – wenn von diesen Spielen dann 8 GB oder mehr Grafikkartenspeicher benötigt werden, macht dies keinen Unterschied.

Der eigentliche Lapsus liegt darin, daß nVidia hier fehlerhafte Spezifikationen an die Presse und die Kunden gegeben hat und dies dann monatelang nicht bemerkt haben will, es erst durch energisches Nachforschen von Foren-User zu einer Situation kam, wo nVidia endlich einmal Farbe bekennen musste. Ohne diese engagierte Arbeit in den Foren wäre dieses "3,5-GB-Problem" der GeForce GTX 970 womöglich niemals entdeckt worden und die Karte mit blitzsauberer Weste irgendwann in den Ruhestand gegangen. Nun aber hat nVidia das Problem, daß die meister User & Leser recht bissig auf diese Enthüllungen reagieren – wobei nicht abstreitbar ist, daß nachträglich korrigierte Spezifikationen (nur 56 anstatt 64 ROPs, nur 1,8 anstatt 2 MB Level2-Cache) heutzutage einfach keine gangbare Sache mehr sind, der Ärger für nVidia also wohlverdient ist (bei AMD rennen sie jetzt wahrscheinlich alle w.o. um den Tisch – Insidergag).

Wir halten es für sehr enttäuschend, was nVidia hier den Nutzern an Fehlinformationen über viele Monate vorgesetzt hat, obwohl es nVidia-intern sicherlich ziemlich schnell aufgefallen sein dürfte, daß die Spezifikationen nicht korrekt angegeben waren. Das Argument einer "fehlerhaften Kommunikation" mag für ein paar Tage gelten, aber nicht dauerhaft – und daß keiner der nVidia-Techniker irgendwann einmal die nVidia- oder Hersteller-Webseiten nachschlägt, darf nVidia dem Osterhasen erzählen. Genauso enttäuschend ist, daß man schon fast zwanghaft die 4 GB Speicher als Ausstattungsmerkmal erreichen wollte, obwohl aufgrund der angesetzten Limitierungen klar sein musste, daß alles oberhalb von 3,5 nur noch scherzhaft langsam angesprochen werden kann. Daß Produktspezifikationen immer ein Kompromiß zwischen Technik und Marketing sind, ist schon klar – aber hier ist kein Kompromiß erkennbar, sondern eher ein Plattwalzen der Technik- durch die Marketing-Abteilung mit am Ende nachteiligen Folgen für alle, die Konsumenten zuallererst.

Auch interessant das dass nicht das erste mal in dieser Art gemacht wurde, nur das es weniger aufgefallen ist. Wusste ich z.B. bis heute nicht. Und noch ein Punkt mehr NV richtig in den hintern zu treten.

PS:
In gewisser Weise ist jenes Speicherproblem der GeForce GTX 970 eine halbe Fortschreibung dessen, was nVidia bei der GeForce GTX 660 gemacht hat: Die Karte hat ein 192 Bit DDR Speicherinterface, an welchem aber 2 GB Speicher hängen – eigentlich nicht machbar, aber nVidia hat hier einfach die letzten 512 MB Speicher an nur einen der drei Speichercontroller drangehängt. Damit sind 1,5 GB Speicher dieser Karte mit dem vollen 192 Bit DDR Speicherinterface ansprechbar, die letzten 512 MB Speicher nur mit einem 64 Bit DDR Speicherinterface, ergo mit gedrittelter Kraft. Dies ist bei weitem noch nicht so stark wie bei der GeForce GTX 970, wo die letzten 512 MB Speicher nur mit einer ins bodenlose fallenden Performance ansprechbar sind. Auch spricht nVidia bei der GeForce GTX 660 nicht über ein zu großes Speicherinterface, die 192 Bit DDR sind real und auch (auf 1,5 GB Speicher) absolut voll performant ansprechbar.

nVidia räumt das "3,5-GB-Problem" der GeForce GTX 970 ein | 3DCenter.org
 
Zuletzt bearbeitet:
Genau auf Adptive-Sync oder Free-Sync zu setzen also nicht auf DRM-Implementierung via Hardware, wäre natürlich ein bomben Nachteil. Denn nichts anders ist gsync, Adptive-Sync, was nur dann eingeschaltet wird, wenn die entsprechende Hardware vorhanden ist, kannst ja mal nach der Geschichte mit Gsync und den Notebooks suchen, wo sich KEIN Gsync-Modul finden lies. ... Nein komisch aber auch.

lass es, manche sind unbelehrbar und wollen viel Geld ausgeben (bestes Beispiel Apple Kunden)
 
nochmal, jeder zu der zeit verfügbare 4k monitor war zu der zeit teurer oder gleich teuer, wo ist hier also ein nachteil?

an freesync oder adaptivesync war zu der zeit nichtmal zu denken und es gibt AKTUELL nicht einen 4K monitor damit
und ATI hat nichtmal entsprechende grafikkarten am markt aktuell

also wieder monate warten? dann warte du mal schön und ich daddel in der zeit :bigok:
 
@MT_RAZORLIGHT: Wahrscheinlich hast du recht. Dennoch sollte jemand der diesen Thread tatsächlich mal liest nicht darüber im Dunkeln stehen gelassen werden, was gsync ist und was nicht: Nämlich kein Supi-Dupi-NV-Only-Must-Have-Feature, sondern der gleiche Bullshit wie auch die Sache mit der 970er d.h. Verarsche am Kunden. Eine wesentlich besser Alternative bietet der DP-Standard, weil ihn jeder nutzen kann.

@Back2Soul: Ein Problem, welches mit der 970er aber immer bestehen bleiben wird, ist dass es irgendwann eine Phase geben wird, in der Spiele eben zwischen 3,5 und 4 GB brauchen werden. Vermutlich wäre es besser gewesen die Karte nur mit 3,5 GB auszuliefern, da dann gar nicht die Möglichkeit bestünde in die letzte 0,5 GB - Performance-Lücke zu fallen. Sicher werden in ein paar Jahren die Spiele mehr als 4GB brauchen, aber was ist denn mit dem Zeitraum 1, 2 oder 3 Jahre, für den man so keine Karte eigentlich kauft. Das Problem würde mit doch immer virulenter und ist jetzt schon aufgefallen.

°^°M-Power°^° schrieb:
also wieder monate warten?

Ja besser als NVIDIA für ihren B E T R U G noch mehr Geld in den Rachen zu werfen.

@Naennon: Lies meinen letzten Beitrag doch evtl. nochmal mit etwas mehr Aufmerksamkeit.

AMD als CPU-Hersteller ... jaja... schau dir mal die Preise an, welche Intel nimmt, das ist quasi-Monopol, ob es AMD da noch gibt oder nicht, tut nicht viel zur Sache. Allein der "Sprung" von Ivy-E auf Haswell-E ist doch nicht der Rede wert, das kleinste Modell mit weniger PCI-E-Lanes. Die Vorgängergeneration hatte das noch nicht. -> Kleinstmögliche Schritte, man kann es machen, denn die (ernstzunehmende) Konkurrenz fehlt (leider).
 
Zuletzt bearbeitet:
Was mich jatzt aber wundert,haben die Hersteller ob nun Asus,MSI und so weiter nix davon mit bekommen.Oder liefern die Ware aus,ohne sie jemals getestet zu haben?
 
@Back2Soul: Ein Problem, welches mit der 970er aber immer bestehen bleiben wird, ist dass es irgendwann eine Phase geben wird, in der Spiele eben zwischen 3,5 und 4 GB brauchen werden. Vermutlich wäre es besser gewesen die Karte nur mit 3,5 GB auszuliefern, da dann gar nicht die Möglichkeit bestünde in die letzte 0,5 GB - Performance-Lücke zu fallen. Sicher werden in ein paar Jahren die Spiele mehr als 4GB brauchen, aber was ist denn mit dem Zeitraum 1, 2 oder 3 Jahre, für den man so keine Karte eigentlich kauft. Das Problem würde mit doch immer virulenter und ist jetzt schon aufgefallen.

Da gebe ich dir auch recht. Daher fragte ich hier und im OC Thread bereits ob es nicht eine Möglichkeit gebe per Bios Mod der Karte zu sagen sie hätte nur 3,5. Damit wäre das angesprochene Problem aus der Welt und würde sich nur noch dem fehlen von 512MB entgegen sehen.

Ebenfalls Suboptimal aber dann hat man wenigstens nicht die Gefahr in diesen Grenz bereich zu kommen.

NV hat beschissen, daran gibs nicht´s schön zu reden und das mache auch ich nicht. Daher hat der Versuch mir die FanBoy Brille aufzusetzen ja nicht geklappt .
 
@Detti, was meinst du mit Hersteller? - Chiphersteller ist und bleibt (im Fall der 970er) NVIDIA, in Extension dann ggf. noch TSMC oder GloFo. Asus, MSI etc. sind lediglich AIB (Add In Boardpartner). Die bekommen den Chip geliefert und dürfen ihn nach vorgegebenen Spezifikationen (Referenzdesign) auf ein PCB (Printed Circuit Board) löten und ihren Firmenaufkleber drauf machen. Die könnten wenn dann auch nur die gleichen Tests anstellen wie wir Endkunden auch. - Und selbst wenn denen was auffallen sollte, was wollen die machen? Bei NVIDIA anrufen:

AIB: "Ey mit dem Chip stimmt was nicht"

NVIDIA: "Wissen wir doch"

AIB: "Und jetzt?"

NVIDIA: "Maul halten!"

AIB: "Aber..."

NVIDIA: "Wollte ihr an den nächsten Karten noch mitbeteiltigt werden?"

AIB: "..."

NVIDIA: "Na also."

So oder so ähnlich würde es laufen. Von daher würde ich die AIBs nicht in die Pflicht nehmen wollen, das sind viele die können es sich nicht erlauben nicht mehr Vertragspartner zu sein. - ASUS MSI und Gigabyte evtl. scho noch, weil die Grakas nur ein Teil des Geschäfts ausmachen, was ist mit den anderen wie Galax, Pallit, und wie sie nicht alle heißen?

@Back2Soul: Die wollte ich dir auch nie aufsetzen, aber das bezog sich (nehme ich mal an) wohl auch nicht auf mich.
 
Zuletzt bearbeitet:
Dying Light schluckt bei mir auch schon 3,8 GB VRam. Also glaube ich nicht, dass es noch weit hin ist damit.

Das Problem sind die Konsolen und ihr Unified RAM. Aktuelle Spiele werden hauptsächlich für Konsolen hergestellt und dann auf den PC portiert. Daher laufen aktuelle Titel häufig jetzt schon in die 4 GB Grenze.

Wie z.B Watch Dogs, Titanfall oder Dying Light.

Natürlich kann man sagen, dass das Spiel die 4GB nur belegt, weil es das kann, weil sie eben da sind.
Aber das sind sie bei der 970 auch. Also entweder legt Nvidia einen Treiber oder ein BIOS nach, das die letzten 500MB blockt, oder ich sehe in naher Zukunft Probleme auftauchen.
 
Man kann mit neuen Bios diesen Problem nicht beheben sowie mit neuen Treiber nicht.
 
Ich weiß nicht, ob es geht, oder nicht. Da war für die Betroffenen halt der Wunsch Vater des Gedanken.
 
Natürlich kann man per Treiber oder Bios die 512MB blocken.

Das wär aber Quatsch... Der Treiber priorisiert ja die schnelle 3.5Gb bereits, so dass man bei unter 3.5Gb keinen zusätzlichen nachteil hat und darüber sind diese 512Mb immernoch (etwas) besser als wennd ie Daten vom Systemram oder der Festplatte nachgeladen werden müssten.

Das Problem aus der Welt schaffen lässt sich mittels Treiber/Bios definitiv nicht - es liegt an der Architektur dass NV dies so aussehen lassen "musste" (alternative wäre halt wirklich eine 3.5Gb Karte gewesen).
 
Zuletzt bearbeitet:
Es ging nur um die Machbarkeit und dass Sharif mal wieder Unfug erzählt.
 
Das wär aber Quatsch... Der Treiber priorisiert ja die schnelle 3.5Gb bereits, so dass man bei unter 3.5Gb keinen zusätzlichen nachteil hat und darüber sind diese 512Mb immernoch (etwas) besser als wennd ie Daten vom Systemram oder der Festplatte nachgeladen werden müssten.

Das Problem aus der Welt schaffen lässt sich mittels Treiber/Bios definitiv nicht - es liegt an der Architektur dass NV dies so aussehen lassen "musste" (alternative wäre halt wirklich eine 3.5Gb Karte gewesen).

Ja und nein. Gewisse programme bekommen 4GB gemeldet und versuchen die, abzüglich Framebuffer wenn nicht headless betrieben, so zu verwenden als wäre gleichmässig schneller Zugriff überall darauf möglich. Die Resultate sind dann schon nicht so toll. Gerade bei Raytracern und ähnlichem. Da wäre es wünschenswerter, würden nur 3.5GB statt 4GB berichtet werden. Ob ein Spiel sein verhalten ändert, wenn 4GB oder 3.5GB gemeldet werden, weiss ich nicht, könnte aber auch dort einen Effekt haben.
Schlussendlich ist es je nach Game und App unterschiedlich, welches Verhalten (3.5GB melden, 0.5GB komplett blockieren oder 4GB melden, 3.5GB priorisiert und 0.5GB am Ende des Adressraumes) besser abschneidet...
So oder so ärgerlich. Keine gute Memory-Architektur.
 
Es ging nur um die Machbarkeit und dass Sharif mal wieder Unfug erzählt.

Wieso? Sharif hat doch recht (und ich habe seinen Beitrag bejaht).

"Unfug" hat Jogi5 gesagt bezüglich dass das Blockeiren der 512Mb sinnvoll wäre. @Jogi5: Natürlich konntest du das nicht wissen :)


@naibaf7 NV hat gesagt dass die Vram intern im Treiber (oder Bios) priorisiert wird! Häuf genutzte Daten kommen eher in die 3.5Gb als in den Rest. Wie gut das läuft, kann ich nicht beurteilen.
Raytracer und ähnliche synthetische Anwendungen könnten vieleicht ein Nachteil haben, da hast du recht...
 
Zuletzt bearbeitet:
>>
Der Treiber priorisiert ja die schnelle 3.5Gb bereits, so dass man bei unter 3.5Gb keinen zusätzlichen nachteil hat und darüber sind diese 512Mb immernoch (etwas) besser als wennd ie Daten vom Systemram oder der Festplatte nachgeladen werden müssten.
>>

Blah, und blah und blah...

Warum? Weil dies der selbe Krampf ist den Nvidia offiziell sagt, "Treiber Optimierung" My A$$, ausser dass in der Realität davon nix zu sehen ist!

FAKT:

Leute sehen keine 4GB Speicherallozierung, das Teil verhält sich in der Tat so als wären nur 3.5GB vorhanden!
Tools and games SEHEN auch nur die 3.5GB - warum ist das denn so?
Erinnere Dich dass das ganze Debakel darin seinen Ursprung hat das User beobachteten dass die 970 KEINE 4GB alloziert in Situationen wo's die 980 sehr wohl tut! Warum wohl?

Bis heute würde ich doch gerne einen Beweis sehen dass die Karte (wie NV behauptet) 4GB alloziert bzw. "wie die 980" auch 4GB hat und benutzt allerdings nur "langsamer" sobald diese Schwelle übertreten wird - nur ALLES deutet darauf hin dies ist gar nicht der Fall ist! Merke: Es nimmt sich nix ob die Karte wirklich nur 3.5GB hat, oder 4GB, davon aber nur 3.5GB benutzt werden: Es kommt im Endeffekt aufs selbe raus dass die Karte IM PRINZIP keine 4GB Speicher zur verfügung hat.

Der Rest ist Geschwafel und ändert daran nix.

Besser sogar: Marketinggeschwafel weil uns NV weissmachen will die 512MB Speicher wären "ja immer noch besser als Systemram" - quasi den Kram als tolles feature anpreist. (Hier ist die Realität auch anders weil Leute sehen dass ab 3.5GB pagefile Zugriffe stattfinden. Wenn die Karte denn volle 4GB hätte, warum wird dann Systemram ab 3.5GB benutzt?)

**

>>
Da wäre es wünschenswerter, würden nur 3.5GB statt 4GB berichtet werden.
>>

MÖGLICH, glaube ich aber nicht. Das käme wohl eher drauf an ob eine Game/App dieses dann erkennt und automatisch Settings für diese 3.5GB einstellt. (Und nicht 4GB). ABER: Die Karte meldet ja SO ODER SO nicht dass sie 4GB hat, die 4GB sieht doch kein Game und keine Anwendung, zumindest meines Wissens nach nicht. Wir hätten wohl die ganze Diskussion nicht wäre dies der Fall?
 
Zuletzt bearbeitet:
@naibaf7 NV hat gesagt dass die Vram intern im Treiber (oder Bios) priorisiert wird! Häuf genutzte Daten kommen eher in die 3.5Gb als in den Rest. Wie gut das läuft, kann ich nicht beurteilen.
Raytracer und ähnliche synthetische Anwendungen könnten vieleicht ein Nachteil haben, da hast du recht...

Ja leider, darum hab ich mir die Karte gekauft gehabt. Dort kann der Treiber nichts machen. Der problematische Teil ist zwar am Ende des Adressbereichs angesiedelt, macht aber bei einigen Programmen trotzdem mächtig Ärger und dagegen kann man nun echt nichts tun.

Priorisiert kann man eigentlich nicht sagen. Die Heuristik funktioniert eigentlich wie folgt. Gegeben Speicherblöcke 0 bis 7:
Zuerst stride access 0,1,2,3,4,5,6;0,1,2,3,4,5,6 bis 3.5GB Adressraum voll, bei 224bit. Die ersten 3.5GB Adressen erreichen den Chip 7 nie. Dann wird versucht zu swappen, damit der Speicher 3.5GB nicht überstiegen wird. Teils wird gar System-RAM vorgezogen, damit nicht der L2-Block von Memory Chip 6 und 7 (geteilt) zu viel thrashing bekommt und keine RMW-Blockade für Chips 0 bis 6 entsteht. Dies wäre auch problematisch weil zum Beispiel Texturen kontinuierlich auf 0 bis 6 gespeichert wurden (1 Stride über die Blocks hinweg ist dann 224bit lange). Wenn dann dazwischen eine Operation auf Block 7 kommt, ist das Caching der Textur bei Block 6 verloren und damit auch nutzlos, Teile der Textur noch auf 0 bis 5 gecacht zu haben, da die "Cache miss penalty time" trotzdem ausgesitzt werden muss, bis die Textur wieder von Block 6 gecacht ist.
Danach versucht der Treiber wie es scheint, weniger priorisierte Daten auf Block 7 zu schreiben (access pattern ist dann 7;7;7;7 transfer max. 32bit/clock). Dies scheint aber teils die letzte Option noch nach System-RAM zu sein, wegen oben genannten Caching-Effekten.
Dazu muss man noch wissen, dass die GPU entweder System-RAM direkt über Pointer lesen kann, oder ein Block System-RAM per DMA Tansfer in den eigenen RAM zu übernehmen. Das wird dann aber kompliziert dort weiter nach Erklärungen für spezielles Verhalten zu suchen.

Also so toll ist das nicht ;)

Edit: @GeorgR. Die Erklärung oben sollte auch auf deine letzte Frage antwort geben.
 
Zuletzt bearbeitet:
naibaf7,

sehr gute Erklärung..interpretiere ich mal als "kleineres Übel" im Vergleich zu nur 3.5GB...aber immer noch "übel", bin ich hier richtig?
 
Natürlich kann man per Treiber oder Bios die 512MB blocken.

Doch am Treiber kann man schon was machen.

Spiele Details runterschrauben damit Spiele nicht so schnell auf die 3.5GB kommen. Eventuell wird dann NV neue Wunder Treiber von Haus aus bestimmte Texturen Blocken :d
Du hast Recht mit Treiber kann man diesen Problem beheben auf Kosten User :lol:
 
lol@GTX 970 für €350 kaufen um "Spiele Details runterschrauben"...

NV wird schon eine Wunder Treiber bringen wo dann Bäume oder Effekte Fehlen in bestimmte Games hrhr.
Ihr müsst selber Wissen was ihr wollt. Die GTX970 ist eine sehr schöne Karte mich Ärgert das so sehr das ich meinen beiden FTW+ Verkauft habe.

Wer seine GPU behalten will ist seine Sache. Wer NV bestrafen will für die abzocke dann macht das richtige und schmeißt die Karten zurück.
Für 370€ gibt es sehr schöne 290X Karten. Die meisten haben den GTX970 gekauft zweck 4GB Ram und P/L gegen über GTX980.

Hätte NV gleich mit 3.5GB die Karten Erworben dann hätten viele eine 290 oder 290X gekauft alleine wegen den RAM.

Ich sag mal so:

Wenn das nur ein Kommunikationsfehler war, wieso zeigen dann GPU-z Werte an die gar nicht den Tatsachen entsprechen?


Übernimmt die Marketingabteilung denn das Bios zu pflegen?
Ist doch ein eindeutiger Beweis, dass man es von Anfang an geplant hat und vertuscht und auch im Bios es so auslesen lässt.
 
Zuletzt bearbeitet:
naibaf7,

sehr gute Erklärung..interpretiere ich mal als "kleineres Übel" im Vergleich zu nur 3.5GB...aber immer noch "übel", bin ich hier richtig?

Naaja... so wie der Treiber es handhabt, sind es eigentlich nur 3.5GB... von den 512MB mehr kriegt man meist gar nichts mit. Könnten genau so gut nicht da sein. Und wenn er verwendet wird, dann besteht die Gefahr von Cache-Thrashing und Blockade für den Rest des Speichers. Dies muss der Treiber damit abwägen, dass System-RAM halt nochmals langsamer ist als der 512MB Block alleine.
Wie der Treiber im Detail zwischen System-RAM und 512MB Block entscheidet ist proprietär, da weiss ich auch nichts genaues darüber. Je nach dem welchen Penalty (PCIe Bus Transfer, nur 16GB/s oder Cache-Thrashing und nur 28GB/s) als für den Moment schlimmer eingeschätzt wird, so entscheidet der Treiber wahrscheinlich.
 
Das Stimmt auch wieder, aber ich glaube nicht das die Damen in Marketingabteilung noch Bios geschrieben haben und dazu passende Software.

Das wäre so wenn ich unsere Sekretärin sagen würde Schreibe mal Java Scribt die würden blöd schauen.
NV kann mir alles erzählen das war 100% geplant bin nicht gelernteFriseure
;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh