Katzenjoghurt
Enthusiast
Thread Starter
- Mitglied seit
- 26.01.2006
- Beiträge
- 307
Ein kleiner Poll, da ich neugierig bin.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Auf welchen Preis hoffst Du?4090 aber es kommt auf die Verfügbarkeit und den Straßen Preis an.
Ich hab das mal gegooglet, werde aber nicht wirklich schlau daraus, was das überhaupt ist. Könntest du das mal kurz beschreiben?...Stable Diffusion...
Warum muss es eine 4080 sein? Wie wärs mit einer gebrauchten 3090 demnächst für 400€?Geplant war dann diesmal eine 4080, aber bei einem Preisjump von 679€ auf 1459€, ne da bin ich raus. Völlig irre.
In eine neue Gen steig ich in den ersten 6 Monaten ein oder gar nicht mehr. Gebraucht kaufe ich so Sachen wie Kühlkörper, Radiatoren, Gehäuse etc also wo es quasi egal ist ob es gealtert ist, bei einer Grafikkarte hätte ich Vorbehalte, vor allem nach den Horromeldungen über die GDDR6X Chips von Miningkarten.Warum muss es eine 4080 sein? Wie wärs mit einer gebrauchten 3090 demnächst für 400€?
War bei mir der gleiche Fall.Ich schwanke zwischen beiden Optionen und gurke noch mit einer 1070 rum.
Ich versteh ja auch nicht so wirklich, warum es von einer 1070 ausgehend auch gleich eine 3090 sein muss. Die 3090 war doch schon von Anfang an absoluter Irrsinn.Hatte im Dezember kurz mal zwei 3090er da… am Ende gingen sie zurück.
War mit keiner so recht zufrieden (Lüfter) und irgendwann kam auch die Vernunft, dass mir der Spaß keine 2.500€ wert ist.
Ich finde Raytracing absolut überbewertet. Um nicht zu sagen überflüssig... zumindest beim aktuellen Entwicklungsstand.Aber klar, im Endeffekt alles eine Abwägungssache und damit eine Frage des Preises in Kombination mit meinem Leidens(=haben wollen) Druck. Ich habe Cyberpunk bis heute nicht fertig da ic h auf eine Karte mit RayTracing Unterstützung warte.
- Neuen Rechner gekauft (von 4. Generation Intel zu High-End 12. Generation). Die 1070 zu behalten war‘n Downer.Ich versteh ja auch nicht so wirklich, warum es von einer 1070 ausgehend auch gleich eine 3090 sein muss. Die 3090 war doch schon von Anfang an absoluter Irrsinn.
Finde den Fehler.- Hatte vor, nebenbei Cryptos zu schürfen, um die Kosten wieder etwas rauszuholen - die 3090 war unberührt von LHR.
+50%?- Zu dem Zeitpunkt löste der Aufpreis von der 3080 zur 3090 bei mir auch nur mehr ein Schulterzucken aus
Ausser der Preis, vorallem weil der hauptsächlich durch die 24GB zustande kam, die aber absolut (selbst heute noch) nix bringen. Wenn man sie nicht gerade für Computing-Zeug benutzt, das halt eben vom VRAM profitiert.Damals, im Dezember, sprach vieles für die 3090.
Im Monat wären‘s nach Stromkosten glaub so 80€ gewesen.Finde den Fehler.
Ich erinnere mich so grob an 1900€ für die 3080 (TI?) gegen 2400€ für die 3090.
Das Ding ist ja eher der etwas knausrige Speicher der 3070er/3080er als der überdimensionierte der 3090er.Ausser der Preis, vorallem weil der hauptsächlich durch die 24GB zustande kam, die aber absolut (selbst heute noch) nix bringen. Wenn man sie nicht gerade für Computing-Zeug benutzt, das halt eben vom VRAM profitiert.
Näh.alle anderen wieder zu CB
Und hat dein Markettiming gestimmt und du hast es raus, oder hast du jetzt 0,03 Bitcoins die jetzt nichtmehr 60k pro ganzem Bitcoin wert sind?Im Monat wären‘s nach Stromkosten glaub so 80€ gewesen.
Die 3080ti gabs da noch gar nicht.Ich erinnere mich so grob an 1900€ für die 3080 (TI?) gegen 2400€ für die 3090.
Jo, die Zweifel hatte ich auch, unter anderem deswegen wurds am Ende eine AMD.Das Ding ist ja eher der etwas knausrige Speicher der 3070er/3080er als der überdimensionierte der 3090er.
Gab ja damals genug Artikel mit Zweifeln, ob das so zukunftsfähig sei.
Da habe ich ja die Hoffnung das der fps Verlust mit verbesserten RTX Cores geringer wird. ansonsten stimme ich dir voll zu. Es gibt hier einfach einen starken Haben Will Komplex, der aber noch nicht so groß ist als das ich dafür bereit wäre Jensens erhoffte RTX Tax zu zahlern.Wenn ich mir Vergleiche zu so machen Spielen mit RTX angucke, ist das wie ein Suchbild, finde überhaupt erstmal die Unterschiede. Und das in einem Standbild. Von bewegten Bildern brauch ich dann gar nicht erst reden. Noch dazu dann der immernoch drastische FPS-Verlust mit aktivem Raytracing.
Da kann ich dir nicht widersprechenDu hast CP sogar schon angefangen, aber nicht fertig gespielt, weil du kein RTX kriegst? Kann ich absolut nicht nachvollziehen. Du hättest längst zig Stunden Spielspass damit haben können und in einem Blindtest womöglich nichtmal gemerkt, das du kein RTX gehabt hättest.
KorrektUnd so weis aktuell ausschaut, kriegst du jetzt auch wieder kein RTX, weil es dir jetzt zu teuer ist. Und wenn du in 2 Jahren dann doch irgendeine GPU mit RTX kriegst, dann willst du vermutlich auch kein CP mehr spielen, weil es bis dahin ja schon veraltet ist.
Beides! Und als ich seinerzeit stoppte sollte die Karte ja eigentlich in der kommenden Woche kommen, ich hatte 20 Modelle bei verschiedenen Distributoren (arbeite in einem Systemhaus) bestellt, aber nix kam an. Noch ne Woche warten, noch ne Woche warten etc pp. Irgendwann einfach keinen Bock mehr.Ich kenne ja sogar Leute die CP in auf einer 1660 mit 30fps gespielt haben und es toll fanden. Das finde ich schon schmerzhaft. Aber das Spiel nicht zu spielen, nur weil Super-Duper-Ultra-RTX-Plus nicht mit rock solid 60fps läuft? WTF?
Willst du ein Spiel spielen oder eine Grafikdemo bewundern?
Geht das wieder loswir sind im luxx
strixx 4090 oder nix
alle anderen wieder zu CB
Auf nem HDR Monitor merkt man den Unterschied zu RTX/non-RTX auch noch eher.Kann ich so überhaupt nicht bestätigen für CP mit/ohne RTX. Wenn man das mal wirklich anhand von einzelnen Szenerien vergleicht sieht man den Unterschied schon deutlich. RTX bockt schon. Dass man das im laufenden Spiel kaum oder garnicht wahr nimmt ist klar. Aber es steigert schon deutlich den Realismusgrad der Beleuchtung im Gesamten. Eben deswegen nimmt man das auch nicht wahr. Das Gehirn kennt es, es ist keine Anomalie.
Da stechen Beleuchtungsdetails aufgrund des erweiterten Helligkeitspektrums mehr heraus. Setzt natürlich nen ordentlichen HDR Monitor mit Full Array Local Dimming oder OLED vorraus, dieses "HDR Lite" aka. HDR400 kann man sich hingegen sparen.
Schon bissl absurd.
Hab doch geschrieben, dass ich die 3090 zurückgegeben habe und wieder meine 1070 weiternutzte.Und hat dein Markettiming gestimmt und du hast es raus, oder hast du jetzt 0,03 Bitcoins die jetzt nichtmehr 60k pro ganzem Bitcoin wert sind?
Die 3080ti gabs da noch gar nicht.
Sind immernoch ~25% mehr für 3% mehr Leistung.
[…] Die 5% die das dank einer 3090 nutzen könnten, interessieren halt ungefähr niemanden.