Aorus GeForce RTX 4060 Elite 8G im Test: Neuer Anlauf von Gigabyte für die GeForce RTX 4060

Was habt ihr mit rt? rt und 8gb vram wird nicht funktionieren. komplett irrelevant. rt braucht vram. 12gb reichen schon nicht mehr mit rt.
Beitrag automatisch zusammengeführt:

@Infi88 was ist so lustig? :( Du bist echt überall ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1691127166824.png

Was soll man dazu sagen... 380€ schnell erklärt
 
Die 4060 braucht unter Last kaum mehr als eine 6600 XT, ist aber eine ganze Ecke schneller, mit RT sowieso. Ich wette, bei Leuten mit kompakten ITX-Gehäusen ist die gar nicht mal so unbeliebt, allen Unkenrufen zum Trotz und nur 8 GiB VRAM hin oder her. OK, jetzt vielleicht nicht unbedingt dieses Modell, der Kühler ist ja XXL. Entsprechend leise und kühl ist das ganze aber auch. Es wird sicherlich Leute geben, die das zu schätzen wissen. (Offene Kopfhörer neben dem Mesh-Gehäuse?)

Und was soll dieser quer Vergleich? Wieso nimmst Du nicht eine Karte die genau soviel kostet?
Für den Preis einer 4060 (die günstige 4060 wohlgemerkt) bekommt man schon eine 6700 XT. Eine 6700 XT ist aber Leistungsmäßig gleich auf wie eine 4060 Ti... Wenn Du die gegen eine 6650 XT vergleichen willst, in Ordnung. Passt eher von der Leistung her. Da ist die 4060 wirklich etwas schneller, kostet aber auch direkt mindestens 50 Euro mehr.
Also macht dein Vergleich egal wie man ihn dreht einfach wenig Sinn..
 
Ich möchte da jetzt keinen Miesepeter machen, aber aktueller High-End Banger ist:
1691133461347.png
 
Ich finde den Test bzw. die beinhalteten Benchmarks auch überhaupt nicht aussagekräftig.

Diese suggerieren, dass diese Karte ähnlich performt (unter RT) wie eine RX6800XT. Dass man sich mit der 4060 RT eigentlich sparen kann und die z.B. 6800XT eigentlich der bessere Deal wäre, geht daraus überhaupt nicht hervor.

Wichtiger wären zum einen erst einmal die nomale Rasterizing-Leistung aller Karten unterschiedlicher Coleur und dann zusätzlich noch die performancesteigernden Einstellungen wie FG, DLSS, FSR, etc. gegenüberzustellen.

Meinet wegen nimmt man danach noch RT mit rein, aber niemals nur Benchmarks mit dieser Einstellung. Das würde bedeuten, ALLE fragen sich, wie wohl die Leistung der Karten mit RT in den jeweiligen Spielen ist. Das tun denke ich die wenigsten, die meisten werden sich dafür interessieren, wie läuft das Spiel in den normalen (High-)Settings, was können die performancesteigernden Einstellungen noch an Leistung rausholen.
 
Ich möchte da jetzt keinen Miesepeter machen, aber aktueller High-End Banger ist:
Anhang anzeigen 908443
Not gonna happen, ich hab vor 20 Jahren eine FX 5800 Ultra gehabt :d...

Die 4060 ist schon okay, wenn man sie als 4050 verkauft und bepreist. Wie das restliche Lineup. Aber das Thema hatten wir ja schon öfter.

Wenn man sich die verschiedenen ALUs bzw. andere "Cores/Units" auf der Karte ansieht, wird man sehen, wie stark die kleineren Karten im Vergleich zum Topmodell kastriert sind.
Es ist hier nich wie früher, dass der Unterschied gar nicht so groß ist, der Unterschied ist immens. Egal ob Shader Cores, Cuda Units oder sonstwas.
Die kleineren Karten sind nicht nur "kastriert", denen sind Arme und Beine amputiert. Das ist das Problem.


Aber gut, lässt sich alles realistisch erklären, wenn man mal ernsthaft über die reale Inflation und "Teuerung" spricht (an welche die Gehälter nicht angeglichen werden, lange schon nicht).
Dann ist schnell klar, warum eine 500€ High End Karte jetzt eben 1500€ kostet, und eine 150€ Kacknoobkarte 450€, Mainboards ebenso, CPUs sind eigentlich fair.

Aber drüber darf man ja nicht sprechen, da wird sofort geprügelt und gecancelt - auch wenns am Ende die einzige Erklärung für mehrere Fragen ist.
 
Also quasi wie bei Rocket Lake in 14nm++++? Da waren ja auch alle so wahnsinnig begeistert. </ironie>

Was meinst du, was an der Strukturgröße alles dranhängt? Mögliche Cachegrößen zum Beispiel, und die haben Auswirkungen auf die IPC (und damit letztlich auch die Rechenleistung pro Watt) oder die Belastung des Speicherbusses. Man kann den Die auch nicht einfach größer machen... also könnte man vielleicht schon, aber billiger wird es davon auch nicht, weil man dann einfach weniger pro Wafer hat.
Was meinst du in welcher Fertigung wurde die 2000er Generation erzeugt?
https://de.wikipedia.org/wiki/Nvidia-GeForce-20-Serie 12nm
https://de.wikipedia.org/wiki/Nvidia-GeForce-30-Serie 8nm
https://de.wikipedia.org/wiki/Nvidia-GeForce-40-Serie 4nm

Komisch, das die 30-Serie aber sehr knapp hinter der 40er Serie liegt, der einzige Changer ist FGR/DLSS3 & Raytracing und auch nur in Titeln die alles unterstützen, zumindest in der Mittelklasse bis Einstiegsklasse.
Beitrag automatisch zusammengeführt:

Das ist kein High End mehr. 🙈
Dann ist es obere Mittelklasse. Immer noch Mehrwert als eine 4070TI und kleiner, dank 16GB RAM.
Im vergleich zur 3000er Generation und den den noch vorhandene Preisen schlägt die alles.
 
Ich möchte da jetzt keinen Miesepeter machen, aber aktueller High-End Banger ist:
Anhang anzeigen 908443
Geil, 350+ Watt Verbrauch.
Bei Teillast zieht das Ding teilweise 3x so viel wie die Nvidia Karten.

Eine rtx 4070 kostet weniger, gabs vor paar Tagen für effektiv 530€.
Die verbraucht 200 Watt. Ist in WQHD 15 % langsamer.

Hat aber bessere Features aber weniger Vram...

"High-End" ist hier höchstens der Stromverbrauch.
 
Zuletzt bearbeitet:
Geil, 350+ Watt Verbrauch.
Bei Teillast zieht das Ding teilweise 3x so viel wie die Nvidia Karten.

Eine rtx 4070 kostet weniger, gabs vor paar Tagen für effektiv 530€.
Die verbraucht 200 Watt. Ist in WQHD 15 % langsamer.

Hat aber bessere Features. Weniger Vram, okay.

"High-End" ist hier höchstens der Stromverbrauch.
1691135590840.png

Quelle: https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html

Ganz ehrlich, dann ist der Verbrauch halt höher aber es ist kein End of Life Produkt ab kauf Datum.
Wenn ich in 2 Jahren wieder eine Karte kaufen muss weil der RAM nicht reicht, hab ich nicht viel gespart.

16GB wird definitiv auf absehbarer Zeit für WQHD/UWQHD eher ausreichen als 12GB und weniger, zumindest für Hochauflösende Texturen.
Es ist ja nicht so das eine 4070 so viel mehr Performance hat, in Rytracing wahrscheinlich. Aber da müsste man davon ausgehen das jedes Game Raytracing hat was gut umgesetzt hat damit sich das lohnt.
Das ist nach aktuellem Stand nicht immer der Fall.
 
Komisch, das die 30-Serie aber sehr knapp hinter der 40er Serie liegt, der einzige Changer ist FGR/DLSS3 & Raytracing und auch nur in Titeln die alles unterstützen, zumindest in der Mittelklasse bis Einstiegsklasse.
Tut sie nicht, 40er verräumt 30er ordentlich, die 4070Ti die 3090 und so. Dazu schön energieeffizient und leise.
Die 40er Serie selbst ist gut, da passt alles, Ada Lovelace ist ein gutes Produkt, technisch.

Was nicht rund ist, ist die Preispolitik, die VRAM Bestückung und die vorsätzliche Verkrüppelung der kleineren Modelle.
Dann ist es obere Mittelklasse. Immer noch Mehrwert als eine 4070TI und kleiner, dank 16GB RAM.
4070 Ti hat den besseren Kühler (durchs PCB in der hinteren Hälfte), braucht deutlich weniger Strom und ist leiser, im Idle deutlich effizienter und... naja... wenn man mit dem AI Zeug spielen mag, hat sie ohnehin gewonnen, weil AMD gewisse Sachen halt einfach nicht kann.
Eine rtx 4070 kostet weniger, gabs vor paar Tagen für effektiv 530€.
Wenn man diese um so einen Preis bekommt, ist das in der Tat vernünftig.
Beitrag automatisch zusammengeführt:

... man kann eigentlich nur hoffen, dass sich Intel in der nächsten Generation irgendwie sinnvoll einmischen kann, und sich vielleicht doch was bewegt.

Ich glaubs ehrlich gesagt nicht, da ich an die Geschichte des "freien Marktes" nicht so recht glauben kann, aber vielleicht lieg ich ja falsch - schön wäre es.
 
Ganz ehrlich, dann ist der Verbrauch halt höher aber es ist kein End of Life Produkt ab kauf Datum.
Den Verbrauch sieht man ja bei deinem Bild nicht mal. Das sind nur die "Powerlimits"
Wenn ich in 2 Jahren wieder eine Karte kaufen muss weil der RAM nicht reicht, hab ich nicht viel gespart.
Wenn du dann deine aktuelle Karte zu einem guten Preis verkaufen kannst, weil die noch aktuell ist, hast du schon viel gespart.
16GB wird definitiv auf absehbarer Zeit für WQHD/UWQHD eher ausreichen als 12GB und weniger, zumindest für Hochauflösende Texturen.
Dafür braucht man keine Glaskugel.
Es ist ja nicht so das eine 4070 so viel mehr Performance hat, in Rytracing wahrscheinlich.
Es war ja auch nur ein Beispiel.
Eine 4070 ist deutlich günstiger in Anschaffung und Unterhalt.
Weit weg von einer 6950xt ist die definitiv nicht. Und das ist eine Mittelklasse Karte.
Aber da müsste man davon ausgehen das jedes Game Raytracing hat was gut umgesetzt hat damit sich das lohnt.
Das ist nach aktuellem Stand nicht immer der Fall.
Die 6950xt ist jedenfalls meiner Ansicht weder "high-end" noch "Banger".
Das wollte ich mit meinem Post ausdrücken.
Naja Platz 5 in der allgemeinen Mixed Rasterperformance ist für mich noch High End.
Wenn eine rtx 4090 in 4k 80 % schneller ist, dann ist eine 6950x sicherlich vieles, aber nicht mal annährend "high-end".
Mit Raytracing verschiebt sich das Bild noch deutlich weiter.
Da ist dann eine 4090 über 200 % schneller.

Das sind Welten.
 
Aktuell sollte man eigentlich nur diese Karten kaufen:

3060 12GB
6750XT
4070
7900XTX
4080
4090

Alle anderen sind nix halbes und nicht ganzes. Und bei der 4080 muss man eben schon sehr auf RT abzielen, sonst ist die 7900XTX für 200€ weniger einfach die bessere Wahl. Tatsache ist aber auch, dass AMD aktuell nur über den Preis punktet, egal ob RDNA2 oder 3. NVidia scheint das kaum zu kratzen, deren Preise haben sich nicht groß bewegt in den letzten Wochen.
 
Wer aber eine aktuelle GPU sucht für ca. 300 Schleifen ist auch mit einer 4060 nicht so schlecht bedient:
 
Man muss hier unterscheiden. Ich bezog mich auf die Aussage, dass DLSS, FG und RT "Kundenverarsche" und reines Marketing seien. Denn das ist Unsinn.

Natürlich, beide Extreme tragen nichts zur Sache bei, wobei Nvidia allerdings auch mittels Marketing versucht die FG Werte als eine Art Absolute darzustellen, und es würde mich nicht wundern wenn weniger Technikbewandte es auch so gesehen haben.

Die 4060 wird hier aber nur von einer Person verteidigt, alle anderen haben verstanden, dass das Produkt selbst einfach schlecht und in allen Belangen unzureichend ist, insbesondere im Vergleich zum Vorgänger.

Ja, der Rant ging eher mehr übers Luxx hinaus.
Die 6950xt ist jedenfalls meiner Ansicht weder "high-end" noch "Banger".
Das wollte ich mit meinem Post ausdrücken.

Wobei "high end" relativ ist mit den Preisverschiebungen.
 
Cyberport verramscht eine Radeon 6600 für 205€. Finde dies einen relativ guten Preis im Preisspar Segment.

Wir werden sehen wie die 4070 altert und meine Radeon 6800 non xt in 2 Jahre.

Wenn man dies für Österreich betrachtet, ist eine 4070 um 130€ teurer und hat 12GB VRAM anstatt 16GB VRAM.

200Watt vs. 250Watt.
Auf die MaximalLeistung verzichte ich mal als Vergleich.
Wenn man der AMD Software glauben darf, ich bezweifle da einiges, spiele ich derzeit mit 50 bis 100Watt - aufgrund AMD Treiber FRAME Limiter - Freesync - 40 bis 50FPS.

Nicht Meins:
Meins:

Immer diese Vergleiche mit Maximaler Leistung.
Bis auf Control mit der verkauften ASROCK Challenger D 6600XT - habe ich vermutlich nie etwas auf Anschlag gespielt.

--

Der nächste interessante Punkt ist der Wertverfall bei Wiederverkauf.
Bei 605€ Nvidia 4070 wird man vermutlich mehr Geld verlieren bei Weiterverkauf als bei 475€ Radeon 6800 non XT.
 
Zuletzt bearbeitet:
Wer aber eine aktuelle GPU sucht für ca. 300 Schleifen ist auch mit einer 4060 nicht so schlecht bedient:
dann lieber eine 3060 12gib.
 
Eins fällt mir noch auf... für eine 1337 Karte fehlt einiges an RGB.
 
Was für eine dumme Karte... wer den Platz hat kann auch eine 6700XT nehmen. Oder bei dem Preis fast eine 6800XT.

4060 muss <18cm... single-fan (Zotac RTX 4060 Solo). Gigabyte bringt hoffentlich bald die 4060 LP! Das wird wahrscheinlich die begehrteste 4060,...
 
Bei Teillast zieht das Ding teilweise 3x so viel wie die Nvidia Karten.
Da verwechselst du die 6950 mit den 7000er-Karten. Die 6000er sind im Teillastbereich und mit Undervolting ziemlich genügsam. 10% untervoltet ist die Karte trotzdem noch etwas schneller als die 4070 und braucht nur noch 250-260w. Für so eine alte Karte ist das ok.

Mit framecap in WQHD gönnt sich meine 6900XT oftmals nur 150-170w, was echt in Ordnung für so eine Karte ist.
 
Da verwechselst du die 6950 mit den 7000er-Karten. Die 6000er sind im Teillastbereich und mit Undervolting ziemlich genügsam. 10% untervoltet ist die Karte trotzdem noch etwas schneller als die 4070 und braucht nur noch 250-260w. Für so eine alte Karte ist das ok.

Mit framecap in WQHD gönnt sich meine 6900XT oftmals nur 150-170w, was echt in Ordnung für so eine Karte ist.
Nö. Das ist auch bei Games ohne Cap teilweise der Fall.

1691156754200.png
 
Nö. Das ist auch bei Games ohne Cap teilweise der Fall.

Anhang anzeigen 908572
Kommt drauf an wie lange die Vergleiche her sind, welche Firmware/Treiberstand geherrscht hat etc.

Die wenigsten Fachblätter (Print oder Internet/Influenzer) werden jedes mal alle Karten mit aktuellstem Patch testen. Resultate können teilweise 2 Jahre alt / kurz nach Veröffentlichung sein.
Es ist schwierig immer das repräsentativste Ergebnis zu haben. Deshalb ist auch mal interessant Anwendungen zu testen die keinen Eingebauten Benchmarks haben. Ist ja nicht so das die Treiber von allen Herstellern auf die typischen Benchmark Titel optimiert werden. :rolleyes2:

Und es ist immer das gleiche Rad, wenn eine AMD Karte auf einem Nvidia sponsored Titel schlechter läuft ist es keine Intention es läge am Produkt.
Wenn es umgekehrt ist wäre es Schikane von AMD weil kein DLSS und dadurch keine Nvidia Optimierung stattgefunden hätte...

Schaut man sich die 3090 an hat die auf dem Tech-Blatt brachiale Performance... aber irgendwie scheint sich Nvidia einen Dreck darum zu scheren diese ins Feld zu bringen.
Ich meine Sie hat alles, Masse an Transistoren und viel Speicher. Trotzdem hat man das Gefühl da kommt nichts dabei herum.
 
Zuletzt bearbeitet:
Der Screenshot sagt nur halt überhaupt nichts aus, welches Spiel? Welcher Treiberstand? Dass die 7900XT deutlich unter der 6900 liegt ist schonmal fishy...
Es gibt genug Daten im Internet, wenn man sucht.
Treiberversionen machen da keinen großen Unterschied.

Es kommt auf das Spiel an, logisch.

Wieso ist es fishy?
 
Es gibt genug Daten im Internet, wenn man sucht.
Treiberversionen machen da keinen großen Unterschied.

Es kommt auf das Spiel an, logisch.

Wieso ist es fishy?
Ja schon klar, aber du hast ja auch Custom Modelle mit dual Bios und 2 verschiedene Betriebsprofilen (Performance+Silence)... da gibt's auch Variationen an TDP/FPS.

Es möchte auch keiner die ausgezeichnete Effizienz von Nvidia absprechen, es geht einfach darum das sich bis auf die 4070TI+ eigentlich die neue Generation nur bedingt lohnt gemessen am Preis.
4080/4090 ist natürlich wenn man Raytraceing und DLSS in die Gewichtung nimmt bei der Guten Raster Performance praktisch Konkurrenz los.

Nur die Brot und Butter Karten sind halt Gurken. Weil die Investition in die Karten nur ein kurzweiliger spaß ist, bezüglich RAM Limitierung.
Ein Großteil der Leute möchte einfach nur was Kaufen, das lange hält und zuverlässig Performance abliefert. Nicht jeder Brauch immer 144FPS+, spielt nicht jeder E-Sports.

Viele wollen nur Anno, Rachet & Clank, Baldurs Gate, Starfield etc. vor sich hin daddeln. Man will sich nicht immer mit Settings beschäftigen.
In dem Moment wo der Speicher knapp wird, muss man rumprobieren was gut läuft, mit RTX ohne RTX, mit DLSS ohne DLSS, beides an, FHD oder WQHD, Texturen auf Ultra oder doch nur medium?
etc.
 
Unter High-End versteht man ein Produkt der obersten Preis-, Leistungs- und Qualitätsstufe!

Ich wüsste nicht, warum AMD da nichts zu bieten haben sollte? Eine XTX gehört da definitiv dazu!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh