GeForce RTX 4060 Ti und 4060: NVIDIA kündigt neue Mittelklasse-Karten an

Einfach aktuell 6950 XT für 599€ kaufen und fertig, da hast du 4070ti / 7900x Leistung für 599€ mehr geht nicht und der Preis ist schon fast geschenkt für die Karte aktuell.
Unter 16GB braucht Nvidia nix bringen, die haben eh erstmal verkackt mit ihrer Preispolitik die letzte Zeit. :coffee:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nie im Leben glaube ich nvidia die Pressebenchmarks, dass eine 4060 ti mit den Leistungsdaten doppelt so schnell wie eine 3060 ti ist.
Klar, mit den Herstellereigenen Benchmarks wäre ich auch vorsichtig aber wie kommst du auf doppelt so schnell?
Wenn ich mir die Games ohne Framegen anschaue, dann seh ich da geschätzt irgendwo vielleicht um die 10-15% mehr Leistung als bei der 3060ti.
Dass die Games mit Framegen deutlich schneller laufen, halte ich aber für durchaus glaubwürdig, das Feature gibt ja tatsächlich einen ordentlichen FPS-Boost.
 
@brometheus
Das mit den Lagerbeständen wird von vielen Seiten so eingeschätzt und hatte ich auch nach der Coronazeit schon mitbekommen. Die Menge an Karten ist höher als jede Einschätzung und ebenso die Kosten dafür. Ebenso die Einbußen wegen dem Kryptohype Rückgang.
Gibt genug Artikel und Marktanalysen dazu. Jo klar dass Nvidia hier Maßnahmen trifft, genauso wie die den Aktienkurs künstlich hoch zu pushen durch Bilanzierungspraktiken. Alles verständlich, aber die Zeiten wo man das unbemerkt im stillen Kämmerlein machen kann sind vorbei.
 
Die Frage ist eher ob NV die Preise halten kann. Der Verkausstop bei den Chips wird sich irgendwann auch richtig in den Umsätzen bemerkbar machen.
Noch spannender wird wie AMD dieses mal bei der 7600 verkackt. 8GB sollten eigentlich unverkäuflich sein, gerade gegen die Karten im eigenen Haus.
 
Die Frage ist eher ob NV die Preise halten kann. Der Verkausstop bei den Chips wird sich irgendwann auch richtig in den Umsätzen bemerkbar machen.
Noch spannender wird wie AMD dieses mal bei der 7600 verkackt. 8GB sollten eigentlich unverkäuflich sein, gerade gegen die Karten im eigenen Haus.
Werden Sie nicht halten, die 4090 verramschen einige Läden inzwischen schon für 1500€ und die 4080 für 1100€ was immer noch deutlich zuviel ist.
7900XTX bekommst für 950€ inzwischen und das sag ich als NVIDIA fanboy. :bigok:
 
Ich hab da zu wenig vertrauen in unsere Konsumlemminge. Eigentlich haben wir hier eine 4050 für den 250€ Bereich. Polaris aka die 480er gingen mit 8GB und 256 Bit Interface vor dem Miningwahn in den Bereich von 140€. Was uns AMD aktuell mit der 7600 verspricht klingt vom Preis exakt so abenteuerlich wie die 4060. Marktanteile scheint man da nicht mehr nötig zu haben. Die Kohle wird vermutlich bei den Konsolen gemacht. Ohne Konkurrenz sind keine Änderungen nötig. Mal sehe ob die 7900XT/XTX ihre Spitzenposition bei Frame/€ behalten werden. Das P/ L Verhältnis wird bei den angepeilten Preisen der kleine Karten nicht gut.
 
AMD macht mi ihren RDNA3 Grafikkarten eine schlechte Figur und deswegen kann Nvidia diesen Mist auf den Markt bringen.
Eine Arc mit 40W IDLE will man auch nicht wirklich haben.
 
Zuletzt bearbeitet:
Wenn man die Preise einhält wird die 4060ti sicherlich ziemlich beliebt.

AMD macht mir ihren RDNA3 Grafikkarten eine schlechte Figur und deswegen kann Nvidia diesen Mist auf den Markt bringen.
Eine Arc mit 40W IDLE will man auch nicht wirklich haben.

7900 XT und XTX bei 144Hz, the Radeon clown enters the stage :ROFLMAO:.
 
Wenn man die Preise einhält wird die 4060ti sicherlich ziemlich beliebt.



7900 XT und XTX bei 144Hz, the Radeon clown enters the stage :ROFLMAO:.
...sprach der Fanboy, weil AMD jetzt mal die Effizienz nicht perfekt hinbekommen hat :LOL:
 
Bin selber kein Fanboy, aber ich finde es witzig, dass je nach Generation und Fehler der jeweiligen Hersteller direkt bei manchen eben solche Kommentare kommen, egal ob ernst oder witzig/ironisch 8-)
 
Bei der Gen könnten doch die Fanboys beider Lager übereinkommen, dass beide Hersteller ins Klo gegriffen haben. NV vorallem preislich, AMD technisch als auch preislich. :poop:
Preislich geht AMD doch klar, bekommst ne 7900XTX für unter 1000€ und hast die Leistung zwischen einer einer 4090 und 4080
 
Solange die Ihre Traum Preise Fahren 399,- aufwärts für eine 60 Karte bleib ich vorerst bei amd
 
...sprach der Fanboy, weil AMD jetzt mal die Effizienz nicht perfekt hinbekommen hat :LOL:
Bin selber kein Fanboy, aber ich finde es witzig, dass je nach Generation und Fehler der jeweiligen Hersteller direkt bei manchen eben solche Kommentare kommen, egal ob ernst oder witzig/ironisch 8-)
Meintetwegen kann der AMD Konsument den Idleverbrauchsrekord brechen in Kombination von CPU und GPU, dabei auf die vermeintliche Effizienz zu pochen macht ihn ja eben zum Clown.
 
Das Geheule wieder… Newsflash: Die Preise werden nie wieder so sein wie früher. Gewöhnt euch dran oder macht ne Konkurrenzbude zu TSMC auf.
 
Zum Glück hat nvidia dlss 3.0 nur für die 4000 Karten freigegeben sonst gäbe es ja kein Kaufgrund außer die gute Effizienz
 
UVP bei Release war für die 1070 im Jahr 2016 499€. Der Inflationsrechner gibt mir dafür im Jahr 2023 587€ aus.

Also alles entspannt.
Custom Modelle gab es 2016 ab 379 Euro UVP, das stimmt schon. NV hatte kurz versucht die Founders Edition für 499 Euro an den Mann zu bringen. Damals spielten da aber die Käufer nicht mit. Wenn man die Inflation mit einberechnet dürften die neuen 4070 Karten somit nur 479,34 Euro UVP kosten. 600Euro+ ist da schon ein Aufschlag von 25%+ inflationsbereinigt. Für 499Euro gab es 2016 die 1080. Für 699 Euro UVP gab es die 1080TI, eine 4080TI dürfte ohne Preissteigerung somit ab 884,06 Euro UVP im Handel sein. Bei der 1080 zu der 4080 ist die Preissteigerung bei den aktuellen Preisen inflationsbereinigt, wenn man 1200 Euro im Schnitt nimmt bei einem Preisaufschlag von 115%, irre. Immer schön stumpf die Preise verteitigen da freut sich der Aktionär und der Käufer ist der gearschte. Komisch finde ich bei der Situation nur das das Opfer den Schlächter verteidigt, das macht alles keinen Sinn. 115% Aufschlag, wie kann man sich das schönreden.:fresse:
 
Zuletzt bearbeitet:
Meintetwegen kann der AMD Konsument den Idleverbrauchsrekord brechen in Kombination von CPU und GPU, dabei auf die vermeintliche Effizienz zu pochen macht ihn ja eben zum Clown.
Das Problem bei dir ist nicht die Kritik an den hier gezeigten RDNA3 Karten. Das Problem bei dir ist deine einseitige Kritikfähigkeit. Wird deine Präferenz kritisiert, verfällst du sofort in Missstimmung. Wird dein Feind kritisiert, kommt überschwängliche Freude bei dir auf.

Während ich diesen Link gepostet habe, und Kritik an RDNA3 übe, muss ich mir trotzdem ständig von dir vorwerfen lassen, mit deiner Lebensweise das Fanboy sein, ich sei so wie du. Das ist der Unterschied.
Und weil du schon wieder nicht fähig bist richtig zu kommunizieren, denn im IDLE, also kompletter Leerlauf sind nur 2 Karten die Rekorde brechen, nämlich die Arc Karten, kannst du dies natürlich nicht differenzieren. Es wäre für dich, der sich Intel unterworfen hat, eine Selbstgeißelung. Deswegen wird dir immer jegliche Objektivität niemals möglich sein.

Nun zu meiner Meinung über diese Grafikkarten.
AMDs hier gezeigten RDNA3 Karten wären für mich keine Option. Wenn im Dual-Monitor Betrieb mit 60Hz eine tolle Leistungsaufnahme geboten wird und dem Fanboy @Infi88 sein Favorit 4090 sogar 10-15W (je nach RDNA3 Karte) mehr zieht, explodiert die Leistungsaufnahme mit zwei 144Hz Monitore.
Auch mit YouTube HDR und 60Hz Monitor machen die RDNA3 Karten keine gute Figur, auch wenn dem Fanboy @Infi88 sein Favorit 4090 dort genauso hässlich aussieht. Bei 144Hz explodiert wieder die Leistungsaufnahme.
Auch wenn Arc je nach Konfiguration sich den Titel der höchsten Leistungsaufnahme holt, sind das letztlich Grafikkarten, die ein schreckliches Gesamtbild zeichnen.

Auf der anderen Seite ist man dann mit Nvidia Karten konfrontiert, die mit einer 4070 und Ti schon heute zu wenig Speicher haben und obendrauf dann auch noch viel Geld kosten. Aber will man heute wirklich eine RDNA3 haben, oder eine RDNA2. Aus meiner Sicht nicht. Aber eine teure 4070 und Ti möchte ich auch nicht haben wollen, denn Spreicherknappheit ist ja schon heute eingeplant.
Und wie man sieht, wird eine 4060 gleich mal mit wenig Speicher kommen und die 8GB einer 4060 Ti, ist doch eine Ohrfeige und die nächste Ohrfeige kommt gleich hinterher, wenn man den Aufpreis zu einer 16GB 4060 Ti zahlt. Die dann auch noch mehr Speicher bieten wird, als eine 4070 und Ti. Das klatscht es ja einem nur noch ins Gesicht, wenn man sich bei Nvidia bedient.

Irgendwie eine Schande das alles hier, inkl der Fanboys.
 
1684477587274.png

Das ist die bitterste Grätsche, gerade die Leute die noch auf PCIE3.0 setzten werden hier bestraft mit nur 8x Anbindung.
Wird sich zeigen ob das Impact auf die Performance haben wird, die Speicherbandbreite ist jetzt nicht so dick, ich sehe aber ähnlich bei der RX 6500 von AMD die mit x4 um die Ecke kam.
 
Custom Modelle gab es 2016 ab 379 Euro UVP, das stimmt schon. NV hatte kurz versucht die Founders Edition für 499 Euro an den Mann zu bringen. Damals spielten da aber die Käufer nicht mit.
Und Du meinst wenn die Käufer bei der 4070 nicht mitspielen, bleiben die Preise wie sie sind? Also ich denke im Sommer sehen wir da die 500 vorne.

Komisch finde ich bei der Situation nur das das Opfer den Schlächter verteidigt, das macht alles keinen Sinn. 115% Aufschlag, wie kann man sich das schönreden.:fresse:
Tja, genau da liegt das Problem. Es gibt weder Opfer noch Schlächter. Diese übertriebene Emotionalität ist es doch, die suggerieren soll, dass hier jemand ausgebeutet / verarscht / gezwungen wird.

Es gibt ein Produkt. Es gibt einen Preis. Und es gibt Reviews die zeigen, wie gut oder schlecht das Produkt ist. Wie bei jedem Papiertaschentuch bis zur Solaranlage auch. Diese permanente Aufregerei verhagelt inzwischen jeden Thread und man muss sich die echten Informationen schon mühsam zusammen suchen. Smalltalk Threads haben gar keinen Sinn mehr, wenn jegliche News mit dem Gehate zugespamt werden.

Die wichtigsten Fragen sind doch aktuell nur:

- Wie wirkt sich der größere L2 Cache aus (bzw. kann er die kleinere Bandbreite und evtl. den geringeren VRAM bei der 8GB Variante kompensieren?)
- Wie groß wird der Leistungsunterschied zwischen der 16GB und 8GB Variante sein bzw. wo gibt es einen? Nach all dem VRAM Geheule bekommen wir hier zum ersten mal die Chance, wirklich zu schauen was das ausmacht, da alle anderen Specs gleich sein werden.

Zum Glück gibt es noch ein paar Content Creators, die einfach nur normale Fragen stellen und versuchen Antworten zu liefern. (Dann sei ihnen die zwischenzeitlichen Rant Videos, die ja auch als solche gekennzeichnet sind, gestattet :d ). In diesen Zeiten wo jeder und alles nur noch gehated werden sei die absolut neutrale und unaufgeregte Gestaltung des Thumbnails einmal positiv erwähnt. :)

Beitrag automatisch zusammengeführt:

Anhang anzeigen 888051
Das ist die bitterste Grätsche, gerade die Leute die noch auf PCIE3.0 setzten werden hier bestraft mit nur 8x Anbindung.
Wird sich zeigen ob das Impact auf die Performance haben wird, die Speicherbandbreite ist jetzt nicht so dick, ich sehe aber ähnlich bei der RX 6500 von AMD die mit x4 um die Ecke kam.
Da bin ich auch gespannt. Das Ding läuft momentan ja noch etwas unterm Teppich.
 
Zuletzt bearbeitet:
Da bin ich auch gespannt. Das Ding läuft momentan ja noch etwas unterm Teppich.
Eigentlich is das Einsteiger Segment gerade für die eben interessanter gewesen, da die nicht die entsprechende CPU oder Speicherausstattung haben um sich das neue Zeug zu holen.
Also für die würden sich ne 4090 oder so nicht lohnen weil der Rest nicht mehr auf aktuellstem Stand sind.
 
Und Du meinst wenn die Käufer bei der 4070 nicht mitspielen, bleiben die Preise wie sie sind? Also ich denke im Sommer sehen wir da die 500 vorne.


Tja, genau da liegt das Problem. Es gibt weder Opfer noch Schlächter. Diese übertriebene Emotionalität ist es doch, die suggerieren soll, dass hier jemand ausgebeutet / verarscht / gezwungen wird.

Es gibt ein Produkt. Es gibt einen Preis. Und es gibt Reviews die zeigen, wie gut oder schlecht das Produkt ist. Wie bei jedem Papiertaschentuch bis zur Solaranlage auch. Diese permanente Aufregerei verhagelt inzwischen jeden Thread und man muss sich die echten Informationen schon mühsam zusammen suchen. Smalltalk Threads haben gar keinen Sinn mehr, wenn jegliche News mit dem Gehate zugespamt werden.

Die wichtigsten Fragen sind doch aktuell nur:

- Wie wirkt sich der größere L2 Cache aus (bzw. kann er die kleinere Bandbreite und evtl. den geringeren VRAM bei der 8GB Variante kompensieren?)
- Wie groß wird der Leistungsunterschied zwischen der 16GB und 8GB Variante sein bzw. wo gibt es einen? Nach all dem VRAM Geheule bekommen wir hier zum ersten mal die Chance, wirklich zu schauen was das ausmacht, da alle anderen Specs gleich sein werden.

Zum Glück gibt es noch ein paar Content Creators, die einfach nur normale Fragen stellen und versuchen Antworten zu liefern. (Dann sei ihnen die zwischenzeitlichen Rant Videos, die ja auch als solche gekennzeichnet sind, gestattet :d ). In diesen Zeiten wo jeder und alles nur noch gehated werden sei die absolut neutrale und unaufgeregte Gestaltung des Thumbnails einmal positiv erwähnt. :)

Beitrag automatisch zusammengeführt:


Da bin ich auch gespannt. Das Ding läuft momentan ja noch etwas unterm Teppich.
Man kann es natürlich auch entkoppeln und sagen es gibt ein Produkt und es gibt einen Preis. Der Leitspruch für jeden Händler ist ja, der Preis wird daran festgelegt was der Kunde bereit ist zu zahlen, man muss nur nicht bereit sein ;). Das gute an der beschriebenen Emotionalität ist das die Masse so denkt, die Preise werden schon angepasst. Natürlich langsam um noch so viel wie möglich mitzunehmen. Diese Preisdebatten sind also wichtig und richtig. Eine 4080 zwischen 800 und 900 Euro hätte vielleicht sogar ihre Daseinsberechtigung und immer noch Traum Margen für Handel und Produktion. Bis dahin darf man, nein muss sogar Emotional sein.
 
Da bin ich auch gespannt. Das Ding läuft momentan ja noch etwas unterm Teppich.

Man kann das natürlich medial zum Skandal aufblasen. Letztlich ist der Verschnitt von x16 auf x8 aber mit deutlich weniger, nahezu vernachlässigbarem Performancehit verbunden als der auf x4. Zudem gibt es ja noch ähnlich performante und günstigere Modelle mit x16 aus der Vorgängergeneration. Wer meint unbedingt x16 haben zu müssen, würde also bedient.
 
Man kann das natürlich medial zum Skandal aufblasen. Letztlich ist der Verschnitt von x16 auf x8 aber mit deutlich weniger, nahezu vernachlässigbarem Performancehit verbunden als der auf x4. Zudem gibt es ja noch ähnlich performante und günstigere Modelle mit x16 aus der Vorgängergeneration. Wer meint unbedingt x16 haben zu müssen, würde also bedient.
Da steht ja auch nur "ich bin gespannt". Wenn es keinen Unterschied in den Szenarien macht, in denen die Karte eingesetzt werden kann, super. Wenn doch, blöd. Ganz einfach. Du triffst da vor den Tests schon wieder ne Aussage zu. Warum?
 
Leider kann man es ja auch später nicht wirklich real testen sondern nur ableiten und skalieren auf Basis anderer Daten usw., aber gespannt bin ich da auch....

Abseits davon... und obwohl die 6600XT sicher zu den schwächeren karten zu der Zeit zählte, war diese doch in Sachen Performance in dem Bereich gut positioniert (im Durchschnitt über der 3060er 12G, RT außen vor) und schloss die dementsprechende Lücke trotz x8. Den Preis muss man aber außen vor lassen, sonst würde die Diskussion wieder aus dem Ruder laufen, mittlerweile näherte diese sich ja einem mehr oder weniger vorliegendem optimum an...
 
@Gurkengraeber
Es gibt ja reichlich Tests, die zeigen inwieweit die GPU-Performance mit der Breite des Interface skaliert. Von x8 zu x16 tut sich demnach fast nichts. Auch bei künftigen GPU-Generationen wird sich daran insbesondere bei den höher ausgebauten Varianten wenig ändern. Deren Performance ist in so hohem Maße vom Speicher abhängig, dass alle performancerelevanten Daten im GPU-Speicher vorgehalten werden müssen.
Btw, war mein Beitrag eher als Ergänzung denn als Kritik gemeint. In der Kernaussage bin ich ganz bei dir.
 
Zuletzt bearbeitet:
@Gurkengraeber
Es gibt ja reichlich Tests, die zeigen inwieweit die GPU-Performance mit der Breite des Interface skaliert. Von x8 zu x16 tut sich demnach fast nichts. Auch bei künftigen GPU-Generationen wird sich daran insbesondere bei den höher ausgebauten Varianten wenig ändern. Deren Performance ist in so hohem Maße vom Speicher abhängig, dass alle performancerelevanten Daten im GPU-Speicher vorgehalten werden müssen.
Btw, war mein Beitrag eher als Ergänzung denn als Kritik gemeint. In der Kernaussage bin ich ganz bei dir.
Das Protokoll macht schon den unterschied natürlich ist x8 PCIE Gen4 so schnell wie X16 Gen3 nur jetzt würde man mit bei einer abwärts Konvertierung auf x8 Gen3 zurückfallen.
Wenn das Board kein Gen4 kann und die Karte nur 8 Bahnen hat.
 
Na das ist aber kalkulierbares Risiko, wenn man da noch auf PCIe3 rumgurkt, da geht man solche Kompromisse eigentlich bewusst ein... sagt ein sonst kritischer user :LOL: 8-)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh