"Heisst also, eine 4070 Ti ist zwar schneller, kann allerdings nur kleinere Auflösungen als die 4060 Ti 16 gb machen"
Das ist Blödsinn pur!
Wir reden hier von stable diffusion image generation, nicht vom Zocken.
Wenns kein Blödsinn ist, teach me how.
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
huggingface.co
Sieht für mich jetzt nicht so aus als gäbe es da ein festes Limit. Mit zusätzlicher Rechenleistung kann man fehlenden Ram wohl mehr als kompensieren. Ganz abgesehen davon, dass es ein arges Nischenthema für eine mainstream-GPU ist.
Aber nicht beliebig, diese -lowvram geschichten etc. haben andere Nachteile und gehen auch nicht "unendlich"...
Das Thema Auflösung ist so ne Sache, gibt diverse Workarounds, die alle nicht gut sind. Man kann das Bild z.b. in 4/9/16/25 teile Teilen die überlappen, und diese einzeln "intelligent" upsizen, die KI "denkt" dann aber ggf nicht bei allen Teilen genau das gleiche, und gibt komische Dinge aus...
Insofern gilt hier vram>alles, ist mit der 4070 Ti eine leidliche Erfahrung (aber mehr als 1000€ wollt ich einfach nicht für ne Graka ausgeben).
Klar isses ein Nieschenthema, aber für die 100€ Aufpreis für ein bissl damit rumspielen ganz nett. Zumindest netter als sich fürn bissl rumspielen eine 4080-4090 zu kaufen fürs 4-5 fache, die im Prinzip das gleiche kann.
Und eines sag ich euch, so ein Nieschenthema (für den privaten Kunden schon, läuft ja alles auf Cloud) ist das nicht, das ist der Hauptzweck für die 40er Generation Chips. Der Kunde ist eben diesmal nicht der Zocker.
Da werden viele hier noch ordentlich Augen machen, wenn das Cloud-Windows dann ihre ganzen Daten ungefragt auf "unerwünschte" und "verdächtige" Dateien scannt.
Wenn man sich bissl mit (lokaler) KI beschäftigt, ist wohl die 4060 Ti 16gb ein preiswertes Spielzeug.