Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Locker ich hab nur 750w und auch den 13700k und die RTX3080, maximale Datenträger Bestückung.Ich werde die für nächsten Monat definitiv im Hinterkopf behalten. Danke für die Tipps!
XFX und Sapphire kenne ich noch von früher, zu AMD und ATI Zeiten. Die Karten waren sehr pflegeleicht und robust.
..sollte ja mit der georderten 13700k auch fluffig laufen denke ich mal.
ps: Für beides, also die RX6800 + 13700k dürfte das DPP10 850W. reichen? Weil möchte das ungerne wechseln.
Mülltonne. Alleine der Stromverbrauch der alten Komponenten amortisiert sich nicht.Moin Leute...
ich hab hier noch alte Hardware rumliegen und wollte mal nachfragen, ob speziell für die GPU SLI aktuell noch sinnvoll nutzbar ist mit aktuellen Treibern? Wäre Schade wenn es verstaubt. Damals lief auch Destiny 2 in FHD mit einer 980Ti ohne Probleme ...
Ich hab hier noch folgendes liegen:
Danke für eure Meinungen
- Asrock Z87 Extreme 4
- 4790k
- Corsair Dominator DDR3
- 2x EVGA 980 Ti Hydro Copper
- EVGA Supernova G2 850W ATX 2.3
- 3x SSD
- Gehäuse
- Lüfter und WaKükram natürlich
Graphics Card | Lowest Price | 1080p Ultra | 1080p Medium | 1440p Ultra |
---|
GeForce GTX 1080 Ti | 43.1% (66.4fps) | 56.3% (110.2fps) | 34.4% (50.2fps) | 25.8% (29.5fps) |
Radeon RX 6600 | $199 | 42.3% (65.2fps) | 59.3% (116.2fps) | 30.6% (44.8fps) |
GeForce GTX 980 Ti | 23.3% (35.9fps) | 32.0% (62.6fps) | 18.2% (26.6fps) |
Ja und Nvidia ist auch ein Software Unternehmen...Ein freund von mir glaubt, AMD könnte in Zukunft aufhören GPU,s zu produzieren, weil es sich für AMD nicht mehr lohnt.
Er fühlt sich dadurch bestätigt, dass AMD sich mehr auf Software und Ki spezialisieren will.
Mein Kumpel denkt sogar, AMD wird sogar aufhören CPU,s zu entwickeln. Er sagte: "Sie werden sich zu einem reinen Software unternehmen entwickeln."
Was haltet ihr davon ? Ich denke nicht dass AMD aufhören wird als CPU & GPU Hersteller.
CUDA ist beim Gaming wohl so ziemlich irrelevant. DLSS ist besser als FSR, aber AMD holt immerhin auf. Was mich an DLSS eher stört ist dass nur die neueste Gen das das bekommt.
Dass AMD keine CPUs mehr baut halte ich aber für Schwachsinn. Vor 2017 hätte das vielleicht passieren können, aber mit Ryzen haben sie mehr als einen Standfuß. Zeitweise waren sie sogar vor Intel und halten problemlos mit. Warum sollte man dann den Markt aufgeben?
Sollte gehen, kann aber von der Übertragungen zu langsam sein.Kann ich ne GPU in ein PCIe 2.0 x1 Slot Packen zum
Bin noch ein Alt Kunde, hab also Lifetime und da war es noch nicht so teuer.Unraid ist doch gottlos teuer, giobt doch zahlreiche kostenfreie Optionen, wenngleich nicht immer so einfach.
Denke ich auch deswegen bestell ich sie heute abend bei Mindfactory sobald die Versandkosten weg fallen.Denke als Budgetlösung ist die Arc 380 perfect.
Ich kann nur sagen meine Polaris von HIS (RX470 von 2016) hatte ein sehr schlechtes Wärmeleitpad. Das war nach 6 Jahren totel eingetrocknet und die Karte lief selbst mit starkem Undervolt + Underclock Heiß (90C°+)Bzw. imho Nexus und noch jemand sprachen das auch schon an. Hab das auch schon einige Male im Umfeld gemacht, war immer ein Win. Immer. Prob jetzt ist aber, daß so einige (Hersteller, Modelle) schon brauchbare phase change pads nutzen. Wenn man das auseinanderrupft ist es kein Win mehr
Gibt es eine Art Liste wer wobei ab Werk brauchbare phase change pads benutzt? als Ausschusskriterium, sozusagen, um davon die Finger zu lassen. Bei allen anderen Modellen wo eine welche auch immer WLP benutzt wird, lohnt es sich (nach einer Weile).
ich denke die zukunft der Hardware entwicklung wird sich nicht mehr so Rapide weiter Entwickeln
ab dann werden ati und NV eigentlich nur 2 dinge optimieren können.
1. architektur.
2. treiber
vorallem in der software steckt noch sehr viel potential.
Bitte konkret werden.
Wenn du behauptest, dass in der Software noch viel Potential steckt, dann wäre es doch günstig, das auch mal konkret zu erläutern.
Ich weiß nicht ob ihr beide noch lebt, aber unser Gespräch war 2008, jetzt ist es 2025, und ich hatte rechtIch würde es für ziemlich kurzsichtig halten so zu denken. Ich kann nicht das Gegenteil behaupten, aber ich weiß das es bestimmt mehr möglichkeiten gibt Mikrochips in Zukunft schneller zu machen als sie jetzt sind ohne einfach nur die Struktur zu verkleinern.