Ab 18. Juli im Handel: GeForce RTX 4060 Ti mit 16 GB

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.174
Aus der Reihe der GeForce-RTX-4060-Familie steht uns ein Modell noch aus, denn es soll auch eine GeForce RTX 4060 Ti mit doppeltem Grafikspeicher und demzufolge 16 GB erscheinen. Bisher war nur bekannt, dass diese im Juli auf den Markt kommen soll, nun der Twitterer @MEGAsizeGPU das Startdatum veröffentlicht: Ab dem 18. Juli soll das Modell im Handel verfügbar sein.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die 16GB sind trotzdem nur mit dem Pups-Interface angebunden. Würde mich arg wundern wenn die Karte in Auflösungen >= WQHD (wo die 16GB an Bedeutung gewinnen) gegen 'richtige' Karten Land sieht.

Die 4060TI ist an sich schon ein hundsmisearbler Deal und die 16gb-Variante macht es nur noch schlimmer.

Im Prinzip wie die 3060-12 im Vergleich zur 3060TI, da haben die 4GB extra in der Praxis auch keinen Vorteil gebracht.
 
Zuletzt bearbeitet:
Knapp 100 EUR mehr für weitere 8GB, schon schlechtere Angebote gesehen.
Hört sich vielleicht teuer an, aber mal ehrlich, dadurch hält die Karte einfach 3-4 Jahre länger und viele werden eine Nvidia Karte weniger kaufen müssen.
 
Zuletzt bearbeitet:
Ja hat ja nun jeder verstanden.

Selbst wenn die Karte keiner kauft freue ich mich auf 8GB vs 16GB 1080p Benchmarks.
 


Das sind 100€ für ungefähr genau nix (außer mehr Strom zu ziehen!) und das werden die Tests auch beweisen!

Wer das bei der RTX 3060 nicht mitbekommen hat, der hat quasi nix mitbekommen...
 
Wo? Bei Apple? Sonst würde mir nichts einfallen, wo man weniger für sein Geld bekommt...
Ohne ein Holzi Follower zu sein, hat er in dem Fall schon recht.

Gerade wenn man bissl KI-Zeug spielen will, ist die Karte eigentlich super. Ist zwar nicht sonderlich schnell, aber die Rechenleistung bedeutet z.B. bei stable diffusion nur, wie lang es dauert. Die RAM-Größe ist die maximale Auflösung die du rendern kannst, da gibts nix zu rütteln. Heisst also, eine 4070 Ti ist zwar schneller, kann allerdings nur kleinere Auflösungen als die 4060 Ti 16 gb machen.
Mit der 4060 Ti kannst das gleiche machen wie mit der 4080, nur halt um den Faktor 2-3 langsamer (brauchst halt 30s statt 10s pro Bild, wennst nebei im Hintergrund einen Batch von 40 Stück machst, ist das halb so wild, Leistungsaufnahme/Lautstärke/Hitzeentwicklung unterm Schrebtisch dürfte auch ok sein).

Hätte es diese Karte vor 4-5 Monaten schon gegeben, hätte ich sie wsl. statt der 4070 Ti (immer noch ein mieser Deal, eigenltich...) gekauft.


Mit der Karte haben sie sich halt das ganze Lineup zerfickt, die macht die 4070 +/-Ti in gewisser Weise zur Nonsensekarte.
Sauber wäre 4090 24gb, 4080 20gb, 4070 ti 16gb, 4070 12gb, 4060 ti 12gb, 4060 8gb gewesen.
Aber dann kann man mit der 50er Serie die Kunden nicht nochmal schröpfen, wenn sie dann schon ein gutes Produkt hätten.

nGreedia.
 
"Heisst also, eine 4070 Ti ist zwar schneller, kann allerdings nur kleinere Auflösungen als die 4060 Ti 16 gb machen"

Das ist Blödsinn pur!
 
Am Ende wird es der Preis richten, die 4060 ist noch keine Woche auf dem Markt und schon deutlich unter UVP zu bekommen.
 
Die RAM-Größe ist die maximale Auflösung die du rendern kannst, da gibts nix zu rütteln.

Sieht für mich jetzt nicht so aus als gäbe es da ein festes Limit. Mit zusätzlicher Rechenleistung kann man fehlenden Ram wohl mehr als kompensieren. Ganz abgesehen davon, dass es ein arges Nischenthema für eine mainstream-GPU ist.
 
Vielleicht später mal ne gute Karte wen die Preise sacken sollten.
Schau mich gerade bissel für meine Tochter um .
 
"Heisst also, eine 4070 Ti ist zwar schneller, kann allerdings nur kleinere Auflösungen als die 4060 Ti 16 gb machen"

Das ist Blödsinn pur!
Wir reden hier von stable diffusion image generation, nicht vom Zocken.
Wenns kein Blödsinn ist, teach me how.

Sieht für mich jetzt nicht so aus als gäbe es da ein festes Limit. Mit zusätzlicher Rechenleistung kann man fehlenden Ram wohl mehr als kompensieren. Ganz abgesehen davon, dass es ein arges Nischenthema für eine mainstream-GPU ist.
Aber nicht beliebig, diese -lowvram geschichten etc. haben andere Nachteile und gehen auch nicht "unendlich"...
Das Thema Auflösung ist so ne Sache, gibt diverse Workarounds, die alle nicht gut sind. Man kann das Bild z.b. in 4/9/16/25 teile Teilen die überlappen, und diese einzeln "intelligent" upsizen, die KI "denkt" dann aber ggf nicht bei allen Teilen genau das gleiche, und gibt komische Dinge aus...

Insofern gilt hier vram>alles, ist mit der 4070 Ti eine leidliche Erfahrung (aber mehr als 1000€ wollt ich einfach nicht für ne Graka ausgeben).

Klar isses ein Nieschenthema, aber für die 100€ Aufpreis für ein bissl damit rumspielen ganz nett. Zumindest netter als sich fürn bissl rumspielen eine 4080-4090 zu kaufen fürs 4-5 fache, die im Prinzip das gleiche kann.



Und eines sag ich euch, so ein Nieschenthema (für den privaten Kunden schon, läuft ja alles auf Cloud) ist das nicht, das ist der Hauptzweck für die 40er Generation Chips. Der Kunde ist eben diesmal nicht der Zocker.
Da werden viele hier noch ordentlich Augen machen, wenn das Cloud-Windows dann ihre ganzen Daten ungefragt auf "unerwünschte" und "verdächtige" Dateien scannt.
Wenn man sich bissl mit (lokaler) KI beschäftigt, ist wohl die 4060 Ti 16gb ein preiswertes Spielzeug.
 
Richtig, inferenz im privaten Umfeld ist ein absolutes Nischenthema. Und für mehr ist die 4060ti auch nicht zu gebrauchen. :)
 
AMD soll besser den Arsch hoch bekommen und dieses unwürdige Treiben um die goldene Gurke 2023 beenden.
 
AMD CEO is die Nichte vom nGreedia CEO. Fragen?

Bei der RX6000 vs NV3000 war AMD der Good Cop, jetzt darf NV der Good Cop sein.
 
wow das wusste ich nicht :fresse:

Ich würde mich über ne RTX4080TI mit 20GB+ mehr freuen tbh.
 
Richtig, inferenz im privaten Umfeld ist ein absolutes Nischenthema. Und für mehr ist die 4060ti auch nicht zu gebrauchen. :)
Das ist richtig, aber wenn das Budget nicht 4-stellig ist, kannst sonst eigentlich nix kaufen.

Eine 4070 12gb? Is doch bäh. Die 4070 Ti ist sowiso ein Witz um das Geld, Rechenleistung okay, VRAM nicht, 4080 koset halt deutlich 4-stellig und wird auch so bleiben.

Ich würde mich über ne RTX4080TI mit 20GB+ mehr freuen tbh.
Kauf halt 4090, bei dem Preis dann auch schon egal?
wow das wusste ich nicht :fresse:
Ich auch nicht, vor einigen Wochen aufgeschnappt und überprüft.

Ich find äußerst interessant, dass das überhaupt nicht thematisiert wird. Aber wahrscheinlich wird das auf YT als "Fake News" sofort gelöscht, weils nicht direkt die Nichte ist sondern so irgendwie... halb?
Cancel Culture halt.

"Corpos"... Cyberpunk hat das schon ganz gut getroffen imho.
 
Wer das bei der RTX 3060 nicht mitbekommen hat, der hat quasi nix mitbekommen...
Komisch, die 3060 mit 12GB vRam war der Geheimtipp in allen möglichen Render Foren, es gibt schließlich noch mehr auf der Welt als Spiele... Ich würde glatt darauf wetten, dass die 4060 mit 16GB vRam dann der neue Geheimtipp wird. Es geht doch nichts über Speicher beim Rendern :d

Und die Anbindung beim Rendern dürfte wohl auch relativ egal sein. Dann dauert es halt ein paar Sekunden mehr, bis die Daten reingeschaufelt wurden und die Karte anfängt. Am Ende dürfte sie trotzdem jede CPU beim Rendern im Schatten stellen.
 
Komisch, die 3060 mit 12GB vRam war der Geheimtipp in allen möglichen Render Foren, es gibt schließlich noch mehr auf der Welt als Spiele... Ich würde glatt darauf wetten, dass die 4060 mit 16GB vRam dann der neue Geheimtipp wird. Es geht doch nichts über Speicher beim Rendern :d
Nicht wirklich, für die 550€ bekommt man fast 2 3060, da hat man 24GB VRAM & mehr Cuda Cores. Auch wenn SLI tot ist hat Blender kein Problem damit die Tasks zu splitten.

Der Witz war ja, dass die Karte trotz 12gb VRAM relativ günstig ist, das ist bei der 4060-16 nicht der Fall.
 
Nicht wirklich, für die 550€ bekommt man fast 2 3060, da hat man 24GB VRAM & mehr Cuda Cores. Auch wenn SLI tot ist hat Blender kein Problem damit die Tasks zu splitten.

Der Witz war ja, dass die Karte trotz 12gb VRAM relativ günstig ist, das ist bei der 4060-16 nicht der Fall.
Der Ansatz braucht allerdings ein board das 2x 8lanes kann. Ist das nicht teurer?
 
Dann zeig mir mal eine Quelle, wo das geht. Ich hatte nämlich damals darüber gelesen, weil ich überlegte mir eine zweite 3070 zu holen. Und genau das Ram Stacking geht nicht. Bzw. damals hieß es für Ram stacking braucht es zwingend NVLINK. Und eine 3060 hat kein NVLINK. Damals war die nächste Einschränkung auch noch, dass der Renderer, dass explizit unterstützen musste. Und das konnte damals nur Octane render. Damit habe ich meine Idee damals begraben.

Ich nutze nämlich auch kein Blender, sondern DAZ-Studio zusammen mit IRAY als Renderer :)

Kann natürlich sein, dass es sich mittlerweile geändert hat. Ich hatte damals vor ~1 Jahr danach gesucht. Deswegen wurde und wird eigentlich auch immer noch die 3060 mit 12GB in den Foren empfohlen.

Nachtrag: Es sind wirklich viele "damals" im Text :shot:
 
Dann zeig mir mal eine Quelle, wo das geht.

Also zumindest bei Blender scheint es zu funktionieren (ob mit oder ohne Ram Stacking kA) 🤷‍♂️

Wenn es nicht praxistauglich ist, wäre das natürlich blöde. Leider wird die 4060-16 dadurch trotzdem nicht attraktiver. Der witz war ja, dass man für damals ~350€ 12GB bekommen hat. Im Vergleich von der 3060 zur 4060 bekommt man 33% mehr Ram für einen Aufpreis von 60%. Ein Geheimtip geht anders...
 
Zuletzt bearbeitet:
Also mein Englisch ist beim Hören sehr schlecht. Wenn dann müsste ich es lesen können, um es wirklich gut zu verstehen. Aber in dem Video wird doch auch nichts davon gesagt, dass sich der Speicher verdoppelt. Sondern nur, dass das Rendern mit zwei GPUs schneller geht. Aber das ist nichts neues, dass mehr GPUs beim Rendern gut skalieren weiß ich. Es nützt mir aber nichts beim Speicherproblem. Vor ~1 Jahr hatte ich mich damit intensivbeschäftigt, weil mir die 8GB meiner 3070 einfach nicht mehr gereicht haben. Und aus zwei 3070 Karten wurden keine 16GB vRam.

Ich habe jetzt auch nochmal kurz gegoogelt und auf die Schnelle heißt es da auch, es gibt zwei Lösungen für Speicherprobleme unter Blender.
1. Texturen mit kleinerer Auflösung benutzen.
2. NVLINK benutzten, weil sich damit wirklich der Speicher verdoppelt. Ram stacking nennt es NVIDIA. Geht aber nur mit Karten, die diesen Anschluss oben haben.

Ich würde mich auch wundern, wenn es einfach so möglich wäre. Dann würde doch NVIDIA ihre Profikarten nicht mehr loswerden. Ich hatte mir deswegen z.B. im Januar extra eine 4090 gekauft. Eben weil ich mehr vRam zum Rendern wollte :)

Und ob es ein Geheimtip sein kann? Wenn ich wirklich Rendern möchte und das nach Möglichkeit nicht mit der CPU, denn die ist wirklich grottig lahm. Dann bleibt mir doch kaum etwas anderes übrig. Die nächste Karte wäre dann die 4080 mit 16GB vRam. Oder man überlegt sich auf eine ältere Generation zu gehen. Die Fressen aber wiederum mehr Strom, müsste man ausrechnen, was sich am Ende mehr lohnt. Ich möchte die 24GB meiner 4090 zumindest nicht mehr aufgeben :)
 
2. NVLINK benutzten, weil sich damit wirklich der Speicher verdoppelt. Ram stacking nennt es NVIDIA. Geht aber nur mit Karten, die diesen Anschluss oben haben.
Joa schade, aber die wissen schon weshalb der Anschluss auf fast allen Modellen gestrichen wurde.
Die nächste Karte wäre dann die 4080 mit 16GB vRam. Oder man überlegt sich auf eine ältere Generation zu gehen. Die Fressen aber wiederum mehr Strom, müsste man ausrechnen, was sich am Ende mehr lohnt.
Da könnte eine 3090 mit 24GB interessant sein, gibts aktuell für 600-700€. Zur 4080 hat man da ein paar hundert € Puffer für den Extraverbrauch.
 
Zuletzt bearbeitet:
Oder man überlegt sich auf eine ältere Generation zu gehen.
Geht nicht, also je nach Anwendung, unter stable diffusion ist die 40er Reihe deutlich schneller als die 30er Reihe, da ist die 4060 ti 16 der 3090 vmtl. wirklich überlegen von der Sinnhaftigkeit her (zwar nicht ganz so viel Vram, aber immer noch mehr als eine teurere 4070...).

Ne 3090 musst halt mal auf Volllast ertragen eine Zeit lang, im Winter mit Abwärmesekundärnutzung ja nett, im Sommer... :rolleyes2:

Muss nichts bedeuten. Gibt genug Beispiele wo 2 Familienmitglieder mit eigenen Firmen knallharte Konkurrenten waren.
... wenn du dann besser schlafen kannst.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh