Gerücht: GeForce RTX 3080 Ti mit Mining-Nerf und nur 12 GB VRAM

würde nicht gehen, da der Arbeitsspeicher ja nicht sequentiell gefült wird, sondern gleichmäßig parallel. Dadurch könnten die größeren chips garnicht mehr angesprochen werden wenn da noch ein paar kleinere drauf sind
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Beschnittene Hardware kaufe ich garantiert nicht.Was weiss ich denn für was ich die irgendwann mal verwenden möchte...und der Wiederverkaufswert wird auch geschmälert. Mir ist es rotzegal für was die Hardware mal gedacht war oder bzw. für was nicht.
Ist ja eher die Frage ob Nvidia nicht lieber selber nochmal extra verdienen möchte an den Minern. Da bin ich wirklich mal gespannt.
Ich warte jetzt seit der 2080Ti ob mal DLSS oder RT irgendwie mal bei nem Spiel zu tragen kommt, in meiner gigantischen Spielebibliothek ist bis heute keins dabei aus TR...und da auch nur per Patch, Monate später nachdem ichs durchgezockt habe.
Wenn AMD nicht so einen Blödsinn wie Nvidia abzieht in Bezug auf Beschneidung, kaufe ich die nächste Karte in Rot. Die letzte rote Karte war ne ATI.
Der Blödsinn den Nvidia da gerade abzieht, geht echt überhaupt nicht.
Grün verliert bei mir gerade echt hart an Glaubwürdigkeit.
 
4x 2GB Chips für 8GB
8x 1GB Chips für 8GB
-----------------------------------
Gesamt 16GB

Oder spricht technisch etwas dagegen? DualChanel Betrieb von Arbeitsspeicher ist doch auch möglich mit Mischbetrieb wenn in beiden Kanäle die Speichergröße gleich ist.
In diesen Fall wären halt nur die ersten 12GB mit voller Speicherbandbreite ansprechbar, die letzten 4GB aber nur mit einen Drittel der Bandbreite.
 
Beschnittene Hardware kaufe ich garantiert nicht.Was weiss ich denn für was ich die irgendwann mal verwenden möchte...und der Wiederverkaufswert wird auch geschmälert. Mir ist es rotzegal für was die Hardware mal gedacht war oder bzw. für was nicht.
Ist ja eher die Frage ob Nvidia nicht lieber selber nochmal extra verdienen möchte an den Minern. Da bin ich wirklich mal gespannt.
Ich warte jetzt seit der 2080Ti ob mal DLSS oder RT irgendwie mal bei nem Spiel zu tragen kommt, in meiner gigantischen Spielebibliothek ist bis heute keins dabei aus TR...und da auch nur per Patch, Monate später nachdem ichs durchgezockt habe.
Wenn AMD nicht so einen Blödsinn wie Nvidia abzieht in Bezug auf Beschneidung, kaufe ich die nächste Karte in Rot. Die letzte rote Karte war ne ATI.
Der Blödsinn den Nvidia da gerade abzieht, geht echt überhaupt nicht.
Grün verliert bei mir gerade echt hart an Glaubwürdigkeit.

Ja, dies ist in der Tat eine riesen Sauerei.
Ich versteh auch nicht warum dies so ertragen wird.
Dlss ist gut aber zb in bFV bei mir nicht nutzbar mit der 3080. Also RT ausgeschaltet und das Spiel läuft.
Es ist ein riesen Witz und im Grunde sichert sich Nvidia mit RTbnur die Zukunft. Die aktuelle Generation ist nicht in der Lage RT ohne DLSS sinnvoll umzusetzen.
Hätten wir kein RT bräuchte ich für die nächsten Jahre keine andere GPU. Denn für nicht RT ist Ampere und bignavi für Jahre ausreichend schnell bis 1440p U 4k.
 
Hätten wir kein RT bräuchte ich für die nächsten Jahre keine andere GPU. Denn für nicht RT ist Ampere und bignavi für Jahre ausreichend schnell bis 1440p U 4k.
Hätten wir immer den Stand von vor 10 Jaren also max. Auflösung von 1024*768 bei maximal 30 FPS bräuchten wir gar keine Neuen GPU's mehr, aber wollen wir das ?


RT zieht natürlich Leistung sieht aber auch wenn es gut umgesetzt wird sehr gut aus, und Natürlich immer wenn was neues eingeführt wird wird die Anforderungsspirale weiter hochgeschraubt.
 
Eine technische Frage:

Es gibt bei 384bit Speicheranbindung 12 Lötplätze (384 / 32 = 12) für den VRAM.

Daraus ergibt sich dann

12 GB mit 12x 1GB Chips oder
24 GB mit 12x 2GB Chips

Ist es nicht möglich Mischbetrieb zu fahren?

Beispiel:

4x 2GB Chips für 8GB
8x 1GB Chips für 8GB
-----------------------------------
Gesamt 16GB

Oder spricht technisch etwas dagegen? DualChanel Betrieb von Arbeitsspeicher ist doch auch möglich mit Mischbetrieb wenn in beiden Kanäle die Speichergröße gleich ist.

2x2GB + 4x1GB jeweils in einen Kanal und Dualbetrieb wäre über die gesamte Größe des Speicher verwendbar.

Oder kommt dann sowas wie bei der GTX 970 raus?
Das hat Nvidia bei der GTX 550Ti, der GTX 560SE und der GTX 650Ti Boost, GTX 660 und GTX 660Ti gemacht, damals 4x128MB+2x256MB bei Fermi bzw. jeweils das doppelte bei Kepler. Wie Falo999 geschrieben hat, bewirkt das aber, dass die extra Kapazität der größten Speicherchips nur mit verminderter Bandbreite angesprochen werden kann, also bei der GTX 550Ti nur 768MB, bei den 660ern nur 1,5GB mit den vollen 192Bit, der Rest dann nur mit 64Bit.
Bei der GTX 970 hatte das etwas andere Ursachen, aber den gleichen Effekt.
Von der GTX 660 und Ti gab es einige wenige Versionen mit 3GB (6x512MB), die dann die volle Bandbreite hatten, von der GTX 550Ti sowohl solche mit 1,5GB (6x256MB), als auch 2GB (wie bei Kepler).

Es gibt aber bei der 3090 eben nicht nur 12, sondern 24 Lotplätze für Speicher, je 12 auf der Vorder- und Rückseite. Das ist auch der einzig wesentliche Unterschied zwischen dem PCB der 3080 und der 3090.
Es wurde auch "krummer" GDDR5X- und GDDR6-Speicher mit 768MB bzw. 1,5GB entwickelt, der allerdings nie eingesetzt worden zu sein scheint.

Das Problem scheint aber eher zu sein, dass 2GB-Module bei GDDR6 noch selten und teuer, bei GDDR6X noch nicht verfügbar sind, daher ist auch diese Lösung keine Option. Natürlich wären zusätzliche 3/4/5/6GB mit halber Geschwindigkeit bei Karten mit 6/8/10/12GB VRAM besser als ein unbezahlbarer Aufpreis für eine Speicherverdopplung, aber im Endeffekt hat es schon seinen Grund, warum Nvidia das nach der GTX 970 nie wieder gemacht hat.

Dein Vergleich mit dem Dualchannel ist übrigens nicht ganz richtig, vergleichbar wäre eben, wenn in einem Kanal z.B. 8GB, im anderen aber 16GB stecken. Dann hättest Du auch nur über 2x8GB Dualchannel, die zusätzlichen 8GB im zweiten Kanal, egal ob im gleichen oder einem dritten Modul, würden nur mit 64Bit angesprochen. Das hatte man ganz oft, als z.B. vor der Umstellung auf 64Bit Notebooks mit 3GB oder später mit 6GB verkauft wurden und hat es jetzt oft, wenn als Speicher für einen Kanal 8-16GB fest verlötet sind, aber für den anderen Kanal ein Slot vorhanden ist, wo dann auch Module mit 16-64GB reingehen - was ich übrigens eine Sauerei finde.


@Topic: Echt keine Karte, die mich interessiert. Natürlich kann man erwarten, dass sie aktuell 3090-Leistung zu einem deutlich niedrigeren Preis bringt und anders als die Meisten erwarte ich auch, dass der Mining-Nerf die Karte deutlich uninteressanter für Miner macht, da man heute so ein gelocktes vBIOS kaum noch umgehen kann und solche Leute sich den Aufwand kaum machen werden. Trotzdem wird die Verfügbarkeit aus anderen Gründen schlecht sein.
Da ich aber nun gesehen habe, dass nicht nur die 2080Ti und 3080 in 5K und 8K die Texturauflösung reduzieren, die 3090 aber nicht, sondern auch, dass die 3060 mit 12GB sich bei RTX in manchen Games vor 3060Ti und 3070 mit 8GB setzt, meine ich auch, dass man keine Karte mit so wenig Speicher mehr kaufen sollte. 12GB bei einer 3080Ti wären dann natürlich noch genug, aber gerade so und nicht unbedingt so lange, wie die Rohleistung erlauben würde.
Ich hätte lieber eine GA104-basierte Karte mit 16GB als eine GA103/102 basierte mit 10-12GB. Die 3070Ti mit GA103 und 58SM, aber auch wieder nur 10GB könnte z.B. vom reinen P/L-Verhältnis her eine tolle Karte werden, die aber in naher Zukunft schon zu wenig Speicher für RTX in WQHD oder UHD haben könnte.
 
Zuletzt bearbeitet:
Wird ne schöne Ravencoin Karte. Wenn die ganzen Gamer nicht die Preise in die Höhe treiben :fresse:
 
Bei der GTX 970 hatte das etwas andere Ursachen, aber den gleichen Effekt.
Bei der GTX970 war der Cache zu klein für die vollen 4GB:
GM204_arch.jpg

Quelle: golem.de
 
@3-De-Ef-Iks : Nein, das war AFAIR nicht der Grund, sondern eine Folge der Deaktivierung einer ROP-Partition. Ich meine, Ursache war, das die ROP-Partitionen an irgendwas anderes gebunden waren, anders als bei Kepler und Pascal, aber ich weiss nicht mehr was. Ich dachte es wäre ein GPC oder die SMM, aber dein Schaltbild zeigt ja, dass die drei deaktivierten SMM schön auf drei GPC verteilt wurden.
Jedenfalls hat NV bei der 970 nicht einfach aus Lust und Laune einen Cache-Block deaktiviert, sie waren aus irgendeinem Grund dazu gezwungen.

Übrigens hat Nvidia es später immer wieder vermieden, ganze GPC zu deaktivieren und lieber die deaktivierten SM(X) über mehrere GPC verteilt, z.B. bei der 3080. Seit Ampere sind die Speichercontroller und die ROPs auch nicht mehr voneinander abhängig, die ROPs sind nun Teil der GPC.

EDIT: @3-De-Ef-Iks : Ok, der einzige Grund, den ich finde, war die Möglichkeit, ROP-Partitionen teilweise deaktivieren zu können, um auch teildefekte Chips nutzen zu können, während man bei Kepler nur die ganze ROP-Partition deaktivieren konnte. Ein GK104 konnte also nur 32 oder 24 und damit 256Bit oder 192Bit haben, war also direkt mit einem Defekt in einer ROP-Partition nurnoch als GTX 660Ti zu gebrauchen (die AFAIR unbeliebt und kurzlebig war), bei einem GM204 musste man aber nicht direkt von 64 auf 48 ROPs gehen, sondern nur auf 56, und musste auch nicht direkt auf einen der 32Bit-Speichercontroller verzichten, sondern konnte ihn extrem langsam mitnutzen.
Im Endeffekt hätte man aber auch das Gleiche erreicht, wenn man nicht die Anzahl der ROPs pro Partition verdoppelt hätte, sondern die Anzahl der Partitionen. Auf den langsamen Speichercontroller kann man auch verzichten.

Grafikkarten mit deaktivierten ROP-Partitionen waren, solange diese nicht irgendwie von den Shaderclustern abhängig waren, so selten, dass ich garnicht daran gedacht hatte, dass da großartig die Yields schmälernde Defekte auftreten können.
 
Zuletzt bearbeitet:
@Tigerfox

Ich zitiere mal aus dem Artikel:

Die Speichermenge setzt sich aus acht 512 MByte großen GDDR5-Bausteinen zusammen, wovon zumindest bei der Geforce GTX 980 jeder durch 256 KByte L2-Cache gepuffert wird. Bei der Geforce GTX 970 hat Nvidia diesen schnellen Zwischenspeicher bei einem Speicherbaustein deaktiviert, es sind also nur 1.792 statt 2.048 KByte L2-Cache vorhanden.

Effektiv verfügt die Geforce GTX 970 somit über nur sieben GDDR5-Bausteine, die mit voller Geschwindigkeit angesprochen werden können. Daher versucht der Treiber, möglichst nur diese sieben Speicherchips zu nutzen, was einem 224-Bit-Interface mit 196 GByte pro Sekunde und 3.584 MByte Videospeicher entspricht. Auf dem Papier spricht Nvidia aber von einem 256-Bit-Interface mit 224 GByte pro Sekunde und 4.096 MByte Videospeicher.


Benötigt eine Anwendung oder ein Spiel mehr als 3.584 MByte Speicher, muss der Treiber (auch wenn er es zu vermeiden versucht) den letzten 512-MByte-Baustein adressieren. Da hier der L2-Cache fehlt, stauen sich die Daten und sie gelangen mit Verzögerung zu den Recheneinheiten - die Leistung sinkt.

Das passt soweit zu der Grafik weiter oben. :)
 
Und die erste Karte geht direkt trotzdem an Miner, einen Tag später sitzt auf der Karte ein modifiziertes Bios aus der eigenen Werkstatt und Pustekuchen ist mit "Miningbremse"^^
 
Man kann das vBIOS schon seit Jahren nicht mehr modifizieren.
 
Für die die wissen wollen warum sich Mining so extrem lohnt sollten sich den Char anschauen:

Das ist der Profit den man pro Tag für 1GH/s bekommt in $. 1GH/S entspricht etwa der Leistung von 10 * 3080.

Also vor einen Jahr hätte man mit einer 3080 1,6$ pro Tag bekommen heute sind es 8,6$ und von beiden muß man ca 2$ an Stromkosten abziehen (bei den teuren Deutschen Strom).

Und die Investition rechnet man nicht mit rein ??
 
Und die Investition rechnet man nicht mit rein ??
Wie dir vielleicht aufgefallen ist habe ich nur geschrieben 'bekommt man' und kein 'Gewinn erziehlt'.
Natürlich muß man dann auch die restlichen Kosten wie Investitionen, Raummieten, Internetkosten, Bankgebühren und auch die Steuern einberechnen nur würde das hier den Rahmen sprengen.
 
Wird halt dann per Programmer gemacht und nicht per Nvflash

Auch das geht nicht. Du kannst es zwar modifizieren und flashen, danach bleibt aber das Bild schwarz und bootet nicht.
Seit der 2000 Serie ist das nicht mehr so einfach, bei Pascal ging das noch mit Programmer.
 
Auch das geht nicht. Du kannst es zwar modifizieren und flashen, danach bleibt aber das Bild schwarz und bootet nicht.
Seit der 2000 Serie ist das nicht mehr so einfach, bei Pascal ging das noch mit Programmer.
Dann muss man entweder den zweiten versteckten Firmware IC auch noch umflashen. Oder aus dem BIOS den Code rausnehmen der mittels Signatur sich selbst überprüft. Wäre ziemlich gelacht, wenn sich da niemand rein hacken könnte.
 
Denke auch, bei den Geldern um die das hier geht dauert das nicht lange.
 
Ich denke eher nicht, aber mal sehen.
 
Selbst wenn man das Flashen hinbekommt, spielt mit einem "falschen" vBIOS dann aber der Treiber wieder nicht mit.

Ich hatte schon bei der 1080 das Problem, dass ich nach meiner Bastelei den Treiber nicht mehr installieren konnte. Da hat Nvidia einen ziemlichen Riegel vorgeschoben.
 
Ich hab irgendwie das Gefühl dass NV im Panikmodus ist und dass es nicht an den Gerüchten liegt.
1) Wissen wir nicht genau wie es um die GDDR6X Supplychain steht
2) Wissen wir, dass es um Yield geht, also wieviele (Teil)Defekte GA102 zu welchen Karten werden
3) Hat NV mit Sicherheit einige Kartendesigns und Specs in der Schublade, die wissen nur nicht welche Karte wie benannt wird und wann sie Released wird..
 
Beschnittene Hardware kaufe ich garantiert nicht.Was weiss ich denn für was ich die irgendwann mal verwenden möchte...und der Wiederverkaufswert wird auch geschmälert. Mir ist es rotzegal für was die Hardware mal gedacht war oder bzw. für was nicht.
Ist ja eher die Frage ob Nvidia nicht lieber selber nochmal extra verdienen möchte an den Minern. Da bin ich wirklich mal gespannt.
Ich warte jetzt seit der 2080Ti ob mal DLSS oder RT irgendwie mal bei nem Spiel zu tragen kommt, in meiner gigantischen Spielebibliothek ist bis heute keins dabei aus TR...und da auch nur per Patch, Monate später nachdem ichs durchgezockt habe.
Wenn AMD nicht so einen Blödsinn wie Nvidia abzieht in Bezug auf Beschneidung, kaufe ich die nächste Karte in Rot. Die letzte rote Karte war ne ATI.
Der Blödsinn den Nvidia da gerade abzieht, geht echt überhaupt nicht.
Grün verliert bei mir gerade echt hart an Glaubwürdigkeit.
Die 2080 Ti ist auch beschnitten. Selbst die 3090 ist es. Mit 12 GB ist die Karte aber dann auch bei mir raus. Ich kann mir nämlich denken dass die am Ende wieder 2080-Ti-Bepreisung haben wird (was mit Scalper-Steuer dann locker 2 K wären, die 3090 kostet ja mittlerweile teilweise 3 K). Man kann nach wie vor nur hoffen dass ein Refresh kommt und ein Ende dieser Krise, um die 6000er-Radeons wieder auf Normalniveau zu drücken. Zum UVP würde ich sofort eine nehmen.

Ich rechne auch damit dass NVIDIA bald eine Karte mit 16 GB GDDR6 raushaut. Die 6700 XT wird ein sehr harter Gegner, vermutlich könnte es gar wieder eine 3070 Ti geben wie 2017.
 
Mich wundert es schon lange, das es anscheinend nicht mehr gelingt das vBios zu verändern, liegt bestimmt nicht dran, das es keiner versucht.
Normalerweise gibts doch immer irgendwelche Cracks die es in ihren dunklen Kellern irgendwie schaffen alles zu cracken:wut::LOL:
Oder hat Nvidia hat alle angestellt, um ihre Software sicherzumachen.
 
Die 2080 Ti ist auch beschnitten. Selbst die 3090 ist es. Mit 12 GB ist die Karte aber dann auch bei mir raus. Ich kann mir nämlich denken dass die am Ende wieder 2080-Ti-Bepreisung haben wird (was mit Scalper-Steuer dann locker 2 K wären, die 3090 kostet ja mittlerweile teilweise 3 K). Man kann nach wie vor nur hoffen dass ein Refresh kommt und ein Ende dieser Krise, um die 6000er-Radeons wieder auf Normalniveau zu drücken. Zum UVP würde ich sofort eine nehmen.

Ich rechne auch damit dass NVIDIA bald eine Karte mit 16 GB GDDR6 raushaut. Die 6700 XT wird ein sehr harter Gegner, vermutlich könnte es gar wieder eine 3070 Ti geben wie 2017.
Nachdem bei Ethereum jetzt EIP 1559 beschlossene Sache ist, planen die ersten Miner bereits Karten abzustossen solange die Preise dafür noch oben sind. Im Sommer dürften sich die Einnahmen beim ETH-Mining deutlich reduzieren. Ausserdem drücken wohl ASICs bereits deutlich auf die Erträge.
Andere Coins werden ebenfalls nicht die Erträge liefern wenn zahlreiche Miner von ETH dorthin switchen.
Klar wenn der Bullrun bei den Kryptos jetzt schnell weiter geht, bleibt die Lage angespannt. Wenn die momentane Konsolidierung auf dem jetzigen Niveau anhält oder es sogar nochmal tiefere Kurse gibt, dürfte das schon für Entspannung auf dem Grafikkartenmarkt sorgen. Denn wer jetzt noch zu diesen Preisen (damit meine ich das Preisgefüge Kryptos vs GPUs) in neue Grafikkarten fürs Mining investiert, wird damit keinen Gewinn mehr erwirtschaften.
 
Wenn das Stimmt, liegt der Preis bei über 1000€ MRSP/UVP wird eher 1199,- =>Straßenpreis von 1700€-2000€ xD
 
Mich wundert es schon lange, das es anscheinend nicht mehr gelingt das vBios zu verändern, liegt bestimmt nicht dran, das es keiner versucht.
Normalerweise gibts doch immer irgendwelche Cracks die es in ihren dunklen Kellern irgendwie schaffen alles zu cracken:wut::LOL:
Oder hat Nvidia hat alle angestellt, um ihre Software sicherzumachen.
Ist BIOS-Modding nicht seit Pascal unmöglich? Eine biosseitige Miningsperre erwarte ich erst bei der RTX 4000. NVIDIA wird sicher nicht schlafen wenn es ums Melken geht, das können die doch sonst auch so gut. Ich kann mir kaum vorstellen dass sie die Miner nicht auch gern mal schröpfen würden. Dass es wieder so extrem wird konnte keiner ahnen.
Nachdem bei Ethereum jetzt EIP 1559 beschlossene Sache ist, planen die ersten Miner bereits Karten abzustossen solange die Preise dafür noch oben sind. Im Sommer dürften sich die Einnahmen beim ETH-Mining deutlich reduzieren. Ausserdem drücken wohl ASICs bereits deutlich auf die Erträge.
Andere Coins werden ebenfalls nicht die Erträge liefern wenn zahlreiche Miner von ETH dorthin switchen.
Klar wenn der Bullrun bei den Kryptos jetzt schnell weiter geht, bleibt die Lage angespannt. Wenn die momentane Konsolidierung auf dem jetzigen Niveau anhält oder es sogar nochmal tiefere Kurse gibt, dürfte das schon für Entspannung auf dem Grafikkartenmarkt sorgen. Denn wer jetzt noch zu diesen Preisen (damit meine ich das Preisgefüge Kryptos vs GPUs) in neue Grafikkarten fürs Mining investiert, wird damit keinen Gewinn mehr erwirtschaften.
Das ist meine Hoffnung, eine Schwemme an billigen Radeons. Diese Mininghypes sind immer nur kurzzeitig, manche steigen dann auch zu spät ein. Das Problem ist aber wohl dass so manche Karten dann schon im Ausland sind und wir die hier nicht mehr wiedersehen werden. Ich würde eine Miningkarte auch nur mit Rechnung zu einem attraktiven Preis kaufen.
Wenn das Stimmt, liegt der Preis bei über 1000€ MRSP/UVP wird eher 1199,- =>Straßenpreis von 1700€-2000€ xD
Das ist es eben, da ist die 6900 XT dann ein Schnapper gegen. Für 800 € könnte ich die 12 GB noch verschmerzen, die Zeiten sind aber wohl nun endgültig vorbei. Selbst eine 6800 XT wäre für 800 € gut, derzeit kosten solche Karten aber eher 1100+, also 2x UVP. Bei der nächsten Generation müssen die Hersteller definitiv was machen.
 
Hätten wir immer den Stand von vor 10 Jaren also max. Auflösung von 1024*768 bei maximal 30 FPS bräuchten wir gar keine Neuen GPU's mehr, aber wollen wir das ?


RT zieht natürlich Leistung sieht aber auch wenn es gut umgesetzt wird sehr gut aus, und Natürlich immer wenn was neues eingeführt wird wird die Anforderungsspirale weiter hochgeschraubt.
Das ist mir schon klar.
nein soviel besser sieht es nicht aus.
Zumindest nicht das ich eher bereit bei nativ zu spielen ohne RT als die massiven FPS Reduzierung zu haben.
Nur weil alles spiegelt ist es nicht besser.
Und je nach Spiel eher hinderlich.
 
Das ist mir schon klar.
nein soviel besser sieht es nicht aus.
Zumindest nicht das ich eher bereit bei nativ zu spielen ohne RT als die massiven FPS Reduzierung zu haben.
Nur weil alles spiegelt ist es nicht besser.
Und je nach Spiel eher hinderlich.
RT bezieht sich nur auf die Reflektionen. Jetzt wo ich wieder BF1 spiele merke ich, dass man da kaum was vermisst. Die Reflektionen in BFV sehen zwar detaillierter aus als screen_space_reflections, aber wer achtet da schon dauernd drauf im Gefecht? Dazu kommt, dass je nach Map starke FPS-Drops auftreten, auch ohne RT in DX12, während ich in DX11 80 - 120 FPS habe in 4K. RT als Verkaufsargument kann ich auch nach Testen einer RTX-Karte nicht ernst nehmen. Zumal bei Launch BFV das einzige Spiel war wo RT aktivierbar war, das läuft auch nach dem Patch nicht wirklich gut, vor dem Patch war es wohl katastrophal.

Beim VRAM sehe ich bei diesen Spielen aber konstant 8-10 GB in Benutzung. 11 GB mögen zwar dafür noch reichen, was ist aber mit BF6 oder anderen Spielen die kommen? Eine überteuerte High-End-Karte mit 12 GB muss nun wirklich nicht mehr sein.
 
Ist BIOS-Modding nicht seit Pascal unmöglich?
Ja, ist ja nicht so das die Miner Szene es nicht versucht hat. Das Endergebnis war die eth pill für 1070/1080. Ein "script" welches mittels "Injektion" die Verhaltensweise des Speichers ändert, ähnlich dem timing strap modding bei AMD Karten. Nur ist die eth pill kein VBios modding. Es ist vorstellbar das man sowas für die eth Bremse entwickelt. Aber VBios knacken ist unwahrscheinlich.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh