GeForce RTX 3080 mit 10 GB, GeForce RTX 3090 mit satten 24 GB GDDR6

Von mir gibts auch keine 900, außer die hat 20 GB. Für eine weitere Übergangskarte mit mickrigen 10 GB wird kein Vollpreis gezahlt. Mir wäre eine (vorläufige) Endkarte viel lieber. Also eine wie damals die 1080 Ti, wo man zwei oder drei Jahre komplett Ruhe und Leistung an der Spitze des aktuell möglichen hat.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei 20GB sehe es bei mir auch anders aus, aber wenn dann wird NV 1200€ ansetzen ^^
 
Und da liegt das Problem. Ob ich bereit wäre 1200 auszugeben hängt auch vom Gebotenen ab, bei einer schönen leckeren FTW oder ähnlicher Karte (Top-End-Custom) ließe ich mich vielleicht noch überzeugen wenn die Leistung wirklich 50 - 60 % über der 2080 Ti läge. Für mich würde das ein Leistungszuwachs von mehr als 100 % und damit die Möglichkeit neue Spiele endlich mal auszuprobieren bedeuten. Andererseits will man sich auch keine Hoffnungen machen, ich kenne NVIDIA zu gut, Selbiges auch bei AMD - Dort sind gehypte Releases in der Regel mit Enttäuschung verbunden.

RDNA kam für mich wie aus heiterem Himmel, da ich bereits seit Jahren eine RX 480 hatte habe ich sie gekauft, aber erst hinterher festgestellt was das Teil dann am Ende leistete - Genug um meine langgediente 1080 Ti zeitweise zu ersetzen. Das in groß würde ich mir wünschen, trotzdem hält AMD sich bedeckt, offenbar gibt es nach wie vor absolut keine Hinweise auf die Leistungsfähigkeit von RDNA2, abgesehen von den offiziellen Folien.
 
Eine 2080Ti kostet ~ 1100€. 50-60%+ Leistung, warum sollte man das zum gleichen Preisverscherbeln.
Das meinte ich mit, klar die neuen Karten werden schneller, aber sicherlich auch teurer^^
 
Eine 2080Ti kostet ~ 1100€. 50-60%+ Leistung, warum sollte man das zum gleichen Preisverscherbeln.
Das meinte ich mit, klar die neuen Karten werden schneller, aber sicherlich auch teurer^^
Und wo soll das dann enden? In 5 Jahren kostet dann ne "RTX7070" dann 1000€ oder wie?
Wenn man mehr Leistung immer mit mehr Geld bezahlen muss...
 
Man kann nur hoffen dass die Verkäufe sich dann schmälern oder AMD endlich mal einspringt und die Leute dort kaufen. Das wird aber so schnell auch nicht passieren, selbst bei einem konkurrenzfähigen Produkt würden Viele NVIDIA bevorzugen.
 
Und das ist auch gut so, sonst würde AMD die Preise anheben können^^.

Aber Spaß zur Seite, Konkurrenz ist bitter nötig.
Gerne dürfte intel ausm Quark kommen und auch noch mit machen.
 
Kann ich mir nicht so recht vorstellen. NVIDIA kann sich das erlauben, denn die haben einen guten Ruf und ihr neues "Premium"-Image sowie die Marktanteile. AMD hat sie nicht, hätte sie aber sicher gern. Da kann man nur über den Preis verkaufen. Was so eine Firma aber auch problemlos hinbekommen könnte, selbst wenn man eine gewisse Gewinnmarge auf die Produktions- und Entwicklungskosten einberechnet - Ein günstigeres Produkt verkauft sich immer besser (öfters), gerade wenn die Leistung gut ist. Gut ist wenigstens, dass AMD nun anscheinend für Spieler eine eigene Grafikkartensparte hat, während die professionellen Karten ihre eigenen Entwicklungen bekommen.
 
Genau dann gibs Grafikkarten ohne VRAM :fresse2:
HBM 2 High Bandwidth Memory 2
Ich versteh eh nicht wenn es so Problem gibt mit GDDRX 6 warum man nicht HBM2 verbaut teuer werden die Karten so oder so.
 
Und das ist der perfekte Grund um sie noch teurer zu machen. Die Logik verstehe ich nicht.

Was die Preise der 3060 und 3070 angeht:
Ist da wieder mal nur der Name relevant, oder geht es um Leistung auch ein wenig?
Es wird so oft pauschal gesagt: "Für ne xx80 zahle ich nicht mehr als YYY!" - "Für ne xx60 zahle ich nicht mehr als ZZZ!"... das ergibt für mich keinen Sinn.
Da bescheißt man sich doch selber.

Es sollte doch normal heißen: Ich erwarte für XXX Euro mind. 35% mehr Leistung als eine 2060 aktuell hat.
Wie das Produkt dann heißt, ist doch komplett irrelevant, oder nicht?

Man liest das sogar bei der 3090 jetzt, obwohl die gar keinen Vorgänger hat, sondern alle nur wild raten was der Vorgänger sein könnte,... und evtl. ist es einfach nur ein neues Produkt, ohne Vorgänger.
Warum dieser mega Fokus auf nichts bedeutende Namen?
 
Man kann nur hoffen dass die Verkäufe sich dann schmälern oder AMD endlich mal einspringt und die Leute dort kaufen. Das wird aber so schnell auch nicht passieren, selbst bei einem konkurrenzfähigen Produkt würden Viele NVIDIA bevorzugen.
Überlege grad wie der Markt so reagieren würde, wenn AMD mit RDNA2 erstmal nur die Leistung der jeweiligen 2000er bieten würde, aber:
mit nur 70% TDP/TGP der 2000er, mit nur ~60% des RT fps-impacts der 2000er, und zu 70% der Preise der 2000er (als deren Preise sich halbwegs eingependelt haben)

Wäre das WIRTSCHAFTLICH, also außerhalb all der Nerd-Forenblasen, ein Fettnäpfchen?
 
Zuletzt bearbeitet:
Ich glaube TDP ist für die meisten Leute einfach kein Thema. Das ist ein netter Bonus, bzw. ein Grund WENN zur gleichen zeit beide Anbieter die gleiche Leistung liefern. Hat dann einer ne bessere Effizienz, gewinnt der natürlich, weil Lärm, Wärme und so.

Sollte AMD aber einfach nur ne effiziente Turing anbieten, dann zieht das nicht, weil Ampere ja auch effizienter ist.
Realistisch gesehen wird Ampere einfach dieselbe Leistung von Turing zu einem geringeren Preispunkt haben und das mit weniger Strom packen. Zumindest im Low-Mid Bereich. Im High-End stellt man dadurch halt automatisch den neuen King.

Also nein, ich glaube nicht, dass AMD mit so einem Lineup erfolgreich wäre. Zumindest nicht NACHDEM Ampere launched. Wäre das 6 Monate DAVOR, wäre das eine komplett andere Sache. Sie werden sich aber immer mit der aktuellen Generation vergleichen müssen, nicht mit einer Alten, da NVidia immer ein komplettes Lineup launched, von 200-2000 Euro in jeder Leistungsklasse. Da ist keine Lücke für AMD.
 
Ampere ist effizienter, aber das rechnet oft genug auch keiner. Weil das imho außerhalb der Forenblasen auch nur wenige interesseirt. Die meisten - gewöhnliche Gamer, das sind die, die keine Zeit auch noch für Foren haben - schauen einfach was die Graka/GPU aus dem Netzteil zieht. Oder, wie laut ist das und/oder wie riesig die Karte/Kühler ist. Im RL jedenfalls hab ich noch nie jemanden gehabt der mir erzählte, die neue zieht zwar 10% mehr aus dem Netzteil, liefert dabei aber 15% mehr FPS.
Real, interessiert dieses Verhältnis eigentlich niemanden, draußen.

Also nein, ich glaube nicht, dass AMD mit so einem Lineup erfolgreich wäre. Zumindest nicht NACHDEM Ampere launched. Wäre das 6 Monate DAVOR, wäre das eine komplett andere Sache.
Eigentlich kam ich erst auf die Idee das zu fragen, weil mir vorher wieder auffiel wie imho extrem erfolgreich die 1660S geworden ist... 😶

Sie werden sich aber immer mit der aktuellen Generation vergleichen müssen, nicht mit einer Alten.
Man kann immer vergleichen. Die jeweilige Krone ist für Leute interessant die sich für Kronen interessieren und nicht für das Zocken (jedenfalls quantitativ gesehen).
Und mit dem gleichen Gedankengang hätte man damals eigentlich auch sagen können, das wird nie zum größeren Erfolg führen, als man Zen1 gesehen hat. Hmm.
 
Real, interessiert dieses Verhältnis eigentlich niemanden, draußen.
Das Verhältnis nicht. Also nicht aufs Prozent. Aber das Resultat aus diesem... Denn die ineffizientere Karte kommt weder in den Empfehlungen noch in den Reviews gut weg. Meist wird versucht das zu kompensieren. Indem dann Partner ihre Designs entsprechend ausladend bauen um eben leise und kühl zu bleiben. Das ist auf dem Papier zwar gut, praktisch bleibt in den Reviews und Tests die Kritik aber seeehr häufig vorhanden. Noch bescheidener liefen/laufen Generationen wo auch das nicht passierte, weil die Ref. Modelle dann im Test quasi "zerrissen" wurden. Schau mal bspw. auf die Tests zur 5700XT -> zu laut, zu heiß. Radeon VII das gleiche. 7970/7970GHz/290(X) davor auch schon usw.
> bei den kleinen ist das jetzt nicht sooo viel anders bzw. die kommen nicht minder gut/schlecht weg dabei. Siehe Polaris damals ;) Das Ding ist halt, man vergleicht es immer mit dem direkten Vergleichspartner. Sodass sich die Basis jedesmal verschiebt. Da können auch mal 150W schlecht sein, wenn die Konkurrenz es für 120 macht. Oder auch mal 275W gut, wenn die Konkurrenz eben 300+ braucht.

Und mit dem gleichen Gedankengang hätte man damals eigentlich auch sagen können, das wird nie zum größeren Erfolg führen, als man Zen1 gesehen hat. Hmm.
Tja das ist das Problem - wer definiert "Erfolg"?
Marktanteile bei GPUs hat AMD jüngst erst wieder seeeehr viel verloren. Marktanteile bei CPUs krebsen sie auch nach 3 Jahren Zen im sehr niedrigen Bereich.
Das Ding ist auch hier meist bisschen anders als es dargelegt wird. Bei CPUs zählt bspw. der Mobilemarkt sehr stark. Und das beliefert AMD überzeugend eben erst seit diesem Jahr. Desktop war ein viel kleinerer Bereich. Erfolg bei ein paar Desktop Schraubern ist halt dann die eine Sache - das im großen und ganzen auf den gesamten Client x86 Markt auszuweiten aber ne ganz andere Nummer.

Um auf die GPUs zurück zu kommen -> Mobile Gaming bedient AMD aktuell quasi gar nicht. In fast jedem "H" Modell Book steckt aber ne NV GPU ;)
 
Zwischendurch: Ich hab zwar auch absolut keine Ahnung warum und weswegen, aber man wird aktuell eine RadeonVII für 700-750€ los (?!) Ich weiß nicht wer das aufkauft (Strohmänner der Nordkoreaner?? :d) aber wer den vermeindlichen Fehler machte, der kann es aktuell komplett egalisieren :) Es gibt im Netz schon Threads genau darüber.

(ausgebieges Gelästere über RDNA/AMD)
Bist du auch in der Forenblase gefangen? Die Zocker interessieren sich nicht für PR-Reviews irgendwelcher... Portale...
 
Zuletzt bearbeitet:
Man kann immer vergleichen. Die jeweilige Krone ist für Leute interessant die sich für Kronen interessieren und nicht für das Zocken (jedenfalls quantitativ gesehen).
Und mit dem gleichen Gedankengang hätte man damals eigentlich auch sagen können, das wird nie zum größeren Erfolg führen, als man Zen1 gesehen hat. Hmm.

Es geht dabei aber nicht um die Kronen, sondern alle Bereiche.

Wenn eine unbenannte Turing GPU für 300 Euro 100 FPS erzeugt und dabei 200 Watt benötigt,...
... dann kann eine AMD GPU, die 250 kostet, auch 100 FPS erzeugt und nur 150 Watt benötigt NATÜRLICH punkten.
Ist vor dieser AMD GPU aber eine Ampere GPU herausgekommen, die für 200 Euro die 100 FPS erzeugt und das auch mit 150 Watt schafft.... dann juckt niemanden die Turing GPU und niemanden die AMD GPU. Keiner wird die Turing GPUs empfehlen, sobald die Ampere da sind, weil man die gleiche Leistung einfach für weniger Geld bekommen wird. (Gut, die Leute, die den Namen kaufen, statt die Leistung evtl. Die kaufen dann lieber ne halb so schnelle 2060, als ne 3050, weil die 2060 billiger sein könnte als ne 3060.... wirres Folk an Leuten ist das).

Der Vergleich mit alten Generationen macht einfach keinen Sinn, solange die neuen Generationen alle Leistungsbereiche abdecken.
AMD kann für solche Rechnungen nur zwei Zeitfenster nutzen: Vor einer neuen Nvidia Generation, oder bevor Nvidia eine Leistungsklasse auf den Markt bringt. Die 3060, 3050, 3030 usw. kommen ja verzögert erst.
Das erste Zeitfenster ist durch. Das Zweite wäre noch offen,... die Frage ist dann aber auch: Wie stark können sie es nutzen, wenn kurz darauf NVidia eine bessere Alternative hat?
 
Absolut gesehen (schreib ich das nicht schon?) bist du technisch auf der sicheren seite.
Allerdings gibt es da noch die sogenannten Aspekte ;) Wie solche, daß die Leute sich schlicht Limits setzen was Preis und auch mal die TGP angeht.
Und das perfide daran ist, daß damit all das was du davor richtig und vernünftig ausgeführt hast, nicht ansatzweise greift. Es spielt einfach keine Geige. Interessiert bei Limits keine Sau. Und Limits sind andererseits auch nicht etwas sehr seltenes.

Preislimits wie TGPs, werden mit der 3000er imho wichtiger als je zuvor. Daher fragte ich jetzt erst und diesmal, was ich fragte :)
Und anschliessend frage ich mich, inwiefern das in rein durchtechnisierten Foren überhaupt vernünftig eingeschätzt werden kann...
 
- Neuregistrierter User
- Posts sind ausschließlich über AMD Gedöns
- Stellt Suggestivfragen

Nachtigall, ick hör dir trapsen.

Bin zwar nicht fdsonne, aber egal:
 
Ich hab zwar nur die ersten paar Seiten gelesen, aber du schreibst da, wenn denn IT, nur über NV Gedöns. Was soll mir das sagen?

Kurzer Realitätsabgleich zur Stärkung deiner Auffassungsgabe:

Die Leute fingen an über die erwarteten Preise zu mosern uind daß es endlich mal an der Zeit wäre, daß AMD da endlich mal ernsthafte Konkurrenz wird. Worauf ich im bezug auf Konkurrenz das schrieb, was ich schrieb. Das war eigentlich alles. Bzw. dann haben wir uns mit Tech Enthusiast (dem dann nicht mehr übrig bleib als sich über deinen Beitrag zu freuen), darüber unterhalten. So weit, so gut.

Dann tauchte plötzlich fdsonne auf und machte irgendwie quasi alles schlecht wo irgendwo ein AMD-Logo draufpappt. U.a. die 5700XT. Worauf ich auch nur 1x antwortete mit einem Link der imho zu der Tirade passte. Fertig.
Imho war das mit Tech wie beschrieben noch halbwegs OnT. Das von fdsonne eher nicht, daher faßte ich mich auch recht kurz ohne auf das gesamte Zeug einzugehen.

Solange du also nur die Nachtigall hörst, und keinen weißen Mäuse siehst, gibt es noch keinen Grund zur Sorge. Denn das wäre dann sozusagen, egal...
 
Weil ich das Thema hier nicht nochmal aufmachen will, aber gerne mal selber Recherchieren würde,...

Kann mir jemand paar Links empfehlen, die aufzeigen, was bei vollem VRAM einbricht? All die Ruckler und unspielbaren Games und so?
Ich habe über zehn Jahre mit viel zu wenig VRAM gezockt, der immer voll war... und nie sind mir Ruckler aufgefallen, mal von der fehlenden Rohleistung abgesehen.

Es fällt mir schwer zu verstehen, wieso GPUs die nicht das ganze Game in den VRAM packen können, angeblich nicht nutzbar sind. Dafür muss es ja irgendwo Belege geben, wenn so viele davon so fest überzeug sind.
Also, bin dankbar für Links, ansonsten mache ich mich auch selber mal auf die Suche (auf die Schnelle dazu aber nix Aussagekräftiges gefunden leider).

Die Frage ist ähnlich der Frage "Was passiert wenn die hdd/Sdd zu langsam lädt?"

In der Reihenfolger treten auf:
- Framerate sinkt
- Framerate sinkt und Frametime erhöht sich
- Texturen, Mesh/Models werden spät oder unvollständig (nach)geladen
- Das Spiel - Video und/oder Audio - fängt an zu stottern (freezes); erst für wenige Mikrosekunden, im schlimmsten Fall halt länger

In dem Video sieht man es
Oder hier im Abschnitt "Hdd + 8 GB Ram"

Mit vollem VRAM sind die auftretenden Effekte aber meist deutlich geringer, befinden sich die meisten Daten doch schon bereits im Vram.

Weshalb die Effekte die in den letzen Jahren am Desktop nur so selten auftreten (Im Vergleich zu vor 15 - 20 Jahren), liegt an der Leistung der Entwickler.
PS4/Xbone one krebsen schon lange mit langsamen Hdds herum, dennoch wurden Wege gefunden diesen Flaschenhals zu umgehen.
Belegt (allokiert) ein Spiel also mehr Vram als momentan eig. wirklich benötigt, sichert es sich einfach nur gegen alle möglichen auftretenden Eventualitäten ab.
 
Mit vollem VRAM sind die auftretenden Effekte aber meist deutlich geringer, befinden sich die meisten Daten doch schon bereits im Vram.

Danke für die Links.
Hab beide mal durchgeschaut.
Wirkt leider nicht wie ein sehr kontrollierter Test, aber zeigt halt wie Spikes aussehen würden, wenn man die hat.

Das belegt mir aber eigentlich eine einzige Sache: Ich hatte solche Spikes nie mit einer GTX 970. Zumindest wären sie mir nie so extrem aufgefallen.

Das 3 GB zu wenig ist, halte ich aber auch für gesichert und da sagt sicher keiner mehr was dagegen.
Die Frage ist eher: Verarscht uns NVidia mit ihren 8-11 GB Flagships, oder denken wir nur mehr zu brauchen?
Der Test von HardwareUnboxed war vom Aufbau sehr gut und kontrolliert und hat bei 6 GB -> 8GB keine Probleme gefunden in 4k.
Es wird im Forum ja behauptet, dass 8 Gb auch für 1440p schon "unspielbar" wären, aber 37 getestete Games sollten doch wirklich alle Genres und big Names abdecken.

Wäre einfacher, wenn NVidia nicht gleich so hart übertreiben würde mit 24 GB. Das wird sau teuer deswegen und ist definitiv ein haushoher Overkill.
 
Die 3090 wird ohnehin maßlos überteuert. 16 GB würden völlig langen. 8 GB wären mir aber definitiv nicht ausreichend. Das haben wir seit zwei Generationen und 4K ist gewiss nicht anspruchsloser geworden, sonst würde ich mich der Leistung einer 1080 Ti kaum über ein Upgrade nachdenken.
 
Warten wir mal die offiziellen Preise ab. Aber eine 3090 mit nur 11 oder 12 GB würde ich für über 1k nicht mehr kaufen wollen. Ich meine die 11 GB gibt es schon seit der 1080 Ti, welche 2016 mit einer 699,- $ UVP startete.
 
Wäre einfacher, wenn NVidia nicht gleich so hart übertreiben würde mit 24 GB. Das wird sau teuer deswegen und ist definitiv ein haushoher Overkill.
Meine Meinung. Da wo man es nicht mehr wirklich braucht, bekommt man noch eine ganze Schubkarre dazu, da wo man es gerne hätte, fehlt es.

Ob es aber wirklich fehlt? Niemand sagt wie es wirklich ist, also, daß es ein Refresh ist mit dem sich RT da überall brauchbar spielen lassen soll wo es mit der 2000er noch bisschen an Leistung fehlte. Sind die FPS-Einbrüche mit RT eine Frage des Vrams gewesen?
 
gut das ich nur wqhd spiele
ich warte die erste runde mal ab bis sie ne Ti /Super /3085 /was auch immer für ne Version nachschieben
 
Zuletzt bearbeitet:
Geht das nur mir so oder empfinden noch andere die 3080 und die 3090 als maximal uninteressant weil oversized? 😂 Leaks zur 3070 würden mich ernsthafter interessieren.
 
3070 Leistung gibt's halt schon darum ists eher uninteressant
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh