Das ist die GeForce RTX 3080 in der Founders Edition

Mit 20GB defintiv, mit 10GB ist die für mich Dead on Arrival..

Niemand redet die 3080 schön aber ich bin der Meinung, dass wir die Tests abwarten müssen, um letztlich zu sehen oder auch beurteilen zu können, ob die 10 GB nicht ausreichen.
So fair kann man doch sein, denn immerhin ist Nvidia der Ansicht, dass es sich um eine vollwertige 4K Karte handelt.

Was brauch ich dazu TEsts wenn ich und andere es selbst schon bei 11GB Karten bemerkt haben das der Vram Eng wird ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Glaube NVidia kennt sich aus mit diesem Grafikkartenzeug.

NVidia kennt sich in erster Linie damit aus, wie man eine stete Nachfrage nach deren Produkten erzeugt.

Bei Grafikspeicher war NVidia schon immer knauserig. Ich erinnere an die 9800GX2, die schon neu zu wenig davon hatte.
Die seltene GTX580 3GB war deutlich länger nutzbar, ebenso wie die GTX780 mit 6GB. Wer "genug" haben wollte, der durfte zur Titan
greifen und entsprechend dafür zahlen (wie die 3090 heute)

Je länger die Karte genutzt werden soll, desto schlechter wird die Prognose hinsichtlich optimaler Nutzbarkeit des Grafikspeichers.
Für viele hier nicht so wichtig, da die Karte entweder gewechselt oder zeitig durch die Nachfolgegeneration ersetzt wird.

Es bleibt halt ein fader Beigeschmack...
 
Gut gemeint THK aber bringt nix, die möchten keine Fakten sondern sich nur die 3080 schönreden.
Ich werd evtl bald ganz im 3090 Sammler verschwinden, braucht man sich nicht geben..

Stay tuned. :giggle: Wir alten Säcke haben das doch schon lange durch. Früher hat NVidia gerne mal die Karten mit mehr Speicher gebracht (z.B. GTX 670 2/4 GB). Zukunftssicherer bei angestrebter 4 Jähriger Nutzung war die 4GB. Lernen durch Schmerzen hilft am meisten.

Im 3090er Sammler erklären Dir aber nicht so viele wie schlau Sie sind, das Sie nicht aufgerüstet haben. Man bekäme die Leistung jetzt viel billiger. Mein Tip: Noch 2 Jahre warten, es wird immer günstiger. Man kauft dann, wenn man die Leistung braucht und das Geld oder Bock hat.

Also bleib noch ein bisschen :bigok:
 
Was brauch ich dazu TEsts wenn ich und andere es selbst schon bei 11GB Karten bemerkt haben das der Vram Eng wird ?

Ja, nur nicht jeder hat auch das Geld für die 3090...die sind doch jetzt nicht alle Abschaum, weil sie nicht genug Kohle in der Tasche haben, oder?
Manche müssen halt mit der 3080 leben und das werden sie gar nicht mal schlecht.

Ich will nur sagen, dass das alles relativ ist.....UND sich deswegen doch das Herumdiskutieren gar nicht lohnt. Man kann doch auch niemand bekehren doch die 3090 als wahre Karte zu kaufen, wenn er das Geld gar nicht hat. Dazu wäre es ein bisschen vermessen, wenn man jeden der das Geld zwar hat, aber nicht für 3090 ausgibt, als Deppen abzustempeln.
 
Das waren aber nicht seine Worte. Das sind Worte, die du ihm in den Mund legst. Er hat einfach nur geschrieben, dass die vermeintliche Titan, wenn man die 3090 als Titan ansehen will, mit der aktuellen Generation wieder etwas günstiger geworden ist. Das bedeutet aber noch lange nicht, dass diese günstiger ist als alle Titans zuvor.




Bitte eine Quelle für diese Behauptung. Aber nicht nur von Szenarien, wo mal mehr als 10GB belegt wurden, da eh genug VRAM vorhanden war, sondern wo diese wirklich benötigt werden. Denn beim VRAM gilt immer noch belegt != benötigt.




Eigentlich versuchst du uns allen hier nur deine persönliche Meinung aufzudrücken und hast dir dazu alibimäßig paar Sachen zusammengesucht, wo du dir irgendetwas zusammen reimst und die gerade irgendwie passen könnten. Dabei verstehst du teils deine eigenen Quellen nicht bzw. fehlinterpretierst diese und belegst nicht einmal alle deiner Behauptungen, sondern nur vereinzelte...

Ich muss zugeben, dass ich ihn falsch zitiert habe (günstige Titan überhaupt) und möchte mich dafür entschuldigen!

Das jeder seine persönliche Meinung äußern kann ist und soll so sein.

Aber wenn die persönliche Meinung von jemanden behauptet, dass in jeder Nvidia Generation untereinander eine Leistungssteigerung von 50 % besaß, ist dass dann eine Meinung oder doch eher faktisch falsch?!

Wenn ich finde, dass 10 GB einfach nicht mehr in 2021 reichen werden, dann kann man das so stehen lassen. Vor allem, da ich den Vergleich zu einer über 4 Jahren alten 1080 TI angegeben habe!
Wenn man das nicht kritisch sieht, dann ist das auch Okay. 😉

Wenn es gewünscht ist, der realen Verbrauch von VRam zu belegen, dann kann ich dazu gerne mal Quellen / Beispiele raussuchen. Soviel ich weiß, ist Division 2 so ein Kandidat, was ich aber selbst nicht besitze.

Ich glaube bisher, gab es nur eine Person außer mir welche auch mal eine Quelle angeben hat, zu Leistungssteigerung zwischen Generationen.

Bis auf das VRam Thema (reicht oder reicht nicht), habe ich jede Behauptung von mir mit externen Quellen belegt.
Wie soll ich mir die Bitte zurecht legen?!

Wenn du anscheinend mehr weißt, dann kläre mich bitte auf... Wo sind denn deine Quellen?
Fangen wir doch mal mit 50 % Leistungssteigerung zwischen jeder Nvidia Generation an...

Danach kannst du gerne weiterhin anmerken, dass meine Kritik nur den Zweck erfüllen soll, dass ich meine Meinung anderen aufdrücken möchte.

Wenn du mal genau hinsiehst, schreibe ich immer "meiner persönlichen Meinung" oder ich "schätze oder vermute".
 
Was brauch ich dazu TEsts wenn ich und andere es selbst schon bei 11GB Karten bemerkt haben das der Vram Eng wird ?

Ich frage ernsthaft, kann man das den so 1:1 vergleichen, ich meine hinsichtlich neuer Architektur und Speichermanagement?
 
Ich glaube auch nicht, dass man von heute an in zwei Jahren keine 24GB VRAM als Gamer benötigen wird. Ultra 4K.

In zwei Jahren würde ich mir lieber eine schnellere Grafikkarte kaufen, als heute eine mit 24GB, die dann aber in 2Jahren doch wieder langsamer ist. Ich bin nur immer dafür alle Verhältnismäßigkeiten anzusehen und mich nicht so früh festzulegen, dass es ohne 24GB nicht gehen würde.
 
Stay tuned. :giggle: Wir alten Säcke haben das doch schon lange durch. Früher hat NVidia gerne mal die Karten mit mehr Speicher gebracht (z.B. GTX 670 2/4 GB). Zukunftssicherer bei angestrebter 4 Jähriger Nutzung war die 4GB. Lernen durch Schmerzen hilft am meisten.

Im 3090er Sammler erklären Dir aber nicht so viele wie schlau Sie sind, das Sie nicht aufgerüstet haben. Man bekäme die Leistung jetzt viel billiger. Mein Tip: Noch 2 Jahre warten, es wird immer günstiger. Man kauft dann, wenn man die Leistung braucht und das Geld oder Bock hat.

Also bleib noch ein bisschen :bigok:


Die Diskussionen gibt's jede Gen und n paar Jahre später stellt sich immer raus das der Vram eng wird, das ist doch Nvidia Masche.. Bei der GTX 580 1,5GB dasselbe, viele leistung, zu wenig Vram, die 3GB Version alterte deutlcih besser (das ist nur EIN Beispiel).
Wer das wie wir schon ne weile mitmacht lernt dadraus, meistens..

Ja und mir hat im 3090 Sammler auch noch keiner erklärt das es viel schlauer ist jetzt ne 3080 zu kaufen und dann wieder die 4080 fürs selbe Geld wie einmal 3090, was mach ich jetzt nur ? :eek:

Ok überredet ich bleib noch :bigok:
 
Mit 20GB defintiv, mit 10GB ist die für mich Dead on Arrival..



Was brauch ich dazu TEsts wenn ich und andere es selbst schon bei 11GB Karten bemerkt haben das der Vram Eng wird ?

Das ist absoluter Bullshit. Weil dir dein RTSS Overlay anzeigt das 11GB voll sind heißt das nicht das auch 11GB gebraucht werden. Nvidia hat die Frage zum Release beantwortet and in ihren tests haben nahezu alle neuen Spiele in 4K maximal so 5-6GB verbraucht.

Und Hardware zu kaufen um für die Zukunft gerüstet zu sein ist hart dumm. Da kauft man lieber jetzt ne 3080 für 750 und in 2 Jahren ne 4080 für 750.
 
WEnn Nvidia (die ja keine 3080er verkaufen wollen) das sagt muss es wohl stimmen ! Entschuldige meine Unwissenheit :heul:


Ich glaube auch nicht, dass man von heute an in zwei Jahren keine 24GB VRAM als Gamer benötigen wird. Ultra 4K.

In zwei Jahren würde ich mir lieber eine schnellere Grafikkarte kaufen, als heute eine mit 24GB, die dann aber in 2Jahren doch wieder langsamer ist. Ich bin nur immer dafür alle Verhältnismäßigkeiten anzusehen und mich nicht so früh festzulegen, dass es ohne 24GB nicht gehen würde.

16GB wären ja auch ideal, gehtja nicht wegen dem SI, auch eine 3080 20GB wäre gut, aber kein Bock zu warten. Natürlich brauchts keine 24GB, ABER 10GB bei einer Upper Midrange Karte wie der 3080 brauchts Ende 2020 eben auch nichtmehr..
 
Gut gemeint THK aber bringt nix, die möchten keine Fakten sondern sich nur die 3080 schönreden.
Ich werd evtl bald ganz im 3090 Sammler verschwinden, braucht man sich nicht geben..
ach ja, das ist der Thrawn wie wir ihn aus dem Auto-Thread kennen.
Jetzt mal im Ernst, wer redet sich hier im Thread den was schön? Brauchst Du so dringend eine Rechtfertigung für Deine 1.5k Investition? :)
 
Ich brauch garnix, ich kaufe einfach. sich Ende 2020 aber immernoch die 3. Gen in Folge stagnierenden Vram schönreden hat auch was von apple Jüngern.


2080Ti ist 1200€ Wert mit 11GB, Leistung kostet halt^^
3080 mir 10GB ist ihr Geld nicht wert und VRAM reicht vorne und hinten nicht.

Wir sind eine Gen weiter, es kauft ja auch keiner nen neuen Golf der immernoch so klein ist wie der Golf 1..
Nennt sich Evolution..
Beitrag automatisch zusammengeführt:

Ich frage ernsthaft, kann man das den so 1:1 vergleichen, ich meine hinsichtlich neuer Architektur und Speichermanagement?

Etwa wie bei der Fury ?
 
Es isch doch so, damals vor etwas 2 Jahren als die Radeon7 raus kam mit 16GB war ich auch der Meinung, das es der heilige Gral ist und das man die 16GB sehr gut brauchen könne, tatsächlich konnte ich selber zb den Speicher jedoch nie auslasten, über ca. 7GB waren zumindest in meinen Anwendungen kaum möglich.
Und ob das in Zukunft mal so kommen sollte, ist für diese Karte mangels Leistung schon nicht mehr relevant, ähnlich würde ich das auch für eine 3090 einschätzen.
 
Also ich denke jetzt nicht, dass man in absehbarer Zeit Probleme mit den 10GB der 3080 bekommen wird... zumindest nicht unterhalb von 4k/UHD. Für mich persönlich möchte ich aber trotzdem kein Downgrade. 24GB müssen ehrlich gesagt aber auch nicht zwingend sein. 12-16GB hätten mir gereicht um rein psychologisch damit ok zu sein aber solche Karten gibt es seitens nV ja aktuell nicht.

Zudem nehme ich deshalb meistens den Top Dog um einfach jedes Prozentbröckchen an Rohleistung zu bekommen. Ich spiele übrigens überwiegend @1080p und gestern in The Outer Worlds erst wieder bestätigt worden, dass high Frames > hohe Auflösungen sind, zumindest für mein Auge! Bin Mal gespannt ob die 3090 das Game @4k dann in eine akzeptable Frames Situation anheben kann.
 
  • Danke
Reaktionen: THK
Man ist mit den 3070/80 Karten bestimmt mehr im finanziellen sweet spot und bekommt sicher eine geile Karte für das Geld! Wer nicht mehr als WQHD in den nächsten 2 Jahren möchte kann damit nichts verkehrt machen. Dann kann man die Lage neu bewerten.
 
Das ist absoluter Bullshit. Weil dir dein RTSS Overlay anzeigt das 11GB voll sind heißt das nicht das auch 11GB gebraucht werden. Nvidia hat die Frage zum Release beantwortet and in ihren tests haben nahezu alle neuen Spiele in 4K maximal so 5-6GB verbraucht.

Und Hardware zu kaufen um für die Zukunft gerüstet zu sein ist hart dumm. Da kauft man lieber jetzt ne 3080 für 750 und in 2 Jahren ne 4080 für 750.

Dumm ist nur, alles hier geschriebene zu ignorieren, längst bekannte Sachen zu wiederholen und erfahrene User anzugehen. Kleiner Sparfuchs. Kaum angemeldet und schon den Proll raushängen lassen. :kotz:
 
Man ist mit den 3070/80 Karten bestimmt mehr im finanziellen sweet spot und bekommt sicher eine geile Karte für das Geld! Wer nicht mehr als WQHD in den nächsten 2 Jahren möchte kann damit nichts verkehrt machen. Dann kann man die Lage neu bewerten.

Ganz so einfach ist es natürlich nicht! Es hängt davon ab, von welcher Karte man jetzt kommt.
 
Niemand redet die 3080 schön aber ich bin der Meinung, dass wir die Tests abwarten müssen, um letztlich zu sehen oder auch beurteilen zu können, ob die 10 GB nicht ausreichen.
So fair kann man doch sein, denn immerhin ist Nvidia der Ansicht, dass es sich um eine vollwertige 4K Karte handelt.

So ist es. Erst an Erfahrungen aus der Praxis sieht man, ob nv es verkackt hat mit dem RAM, oder eben doch recht hatte. Aber jetzt schon streiten wie im Kindergarten finde manche halt besser 🙊
 
So ist es. Erst an Erfahrungen aus der Praxis sieht man, ob nv es verkackt hat mit dem RAM, oder eben doch recht hatte. Aber jetzt schon streiten wie im Kindergarten finde manche halt besser 🙊

Wie stellst Du Dir Tests für die erscheinenden Titel bis einschließlich 2022 vor?
 
Gar nicht, die Praxis wird es zeigen.
 
Autovergleiche 4TW :banana:

Also hat diese Aussage wohl niemand getätigt der jetzt sagt die Karte ist nichts^^ OK ;) Thema erledigt.
 
Finde es immer wieder lustig, wie in der Beratung dauerhaft heruntergebetet wird, dass Ansprüche von Spieler zu Spieler bzw. von Nutzer zu Nutzer verschieden sind und damit einhergehend Kosten / Nutzen / Effekte von stärkeren Systemkomponenten (in unserem Fall eben die GPU und speziell deren VRAM-Menge) von Spiel / Programm zu Spiel / Programm und innerhalb dessen nochmals von Setting zu Setting komplett unterschiedlich ausfallen können.

Dennoch wird hier munter schwarz/weiß gezeichnet und entweder gehen 10 GB komplett gar nicht und sind in 4 Wochen eigentlich schon deutlich zu wenig und die 3080 plötzlich der Flaschenhals oder sie reichen über die angestrebten 2 Jahre locker hinaus und man daddelt auch noch in 2026 glücklich und absolut problemlos damit in 4k^^
 
Ganz so einfach ist es natürlich nicht! Es hängt davon ab, von welcher Karte man jetzt kommt.

Natürlich. Ich sehe für mich z.B. von der 2080TI kommend und WHQD nutzend und der von mir genutzten Software bisher keinen Sinn in irgend einer Aufrüstung. Sollte ich auf UHD (was ich gern würde) umsteigen benötige ich mehr Leistung. Mehr als + 30%. Bekomme ich weniger als 50% zur 2080TI, brauche ich auch keinen neuen Monitor. So hängt alles zusammen.
 
Wenn ich finde, dass 10 GB einfach nicht mehr in 2021 reichen werden, dann kann man das so stehen lassen. Vor allem, da ich den Vergleich zu einer über 4 Jahren alten 1080 TI angegeben habe!
Wenn man das nicht kritisch sieht, dann ist das auch Okay.

Es geht mir gar nicht darum, ob du 10GB VRAM bei einer GPU als ausreichend oder zu wenig empfindest. Das ist mir vollkommen egal. Ebenso geht es mir auch nicht darum zu beurteilen, ob 10GB ausreichend sind. Ich möchte einfach nur einen Beleg für deine Aussage, dass die 10GB bekanntermaßen jetzt schon nicht mehr ausreichen.

Bei dem Vergleich zu einer 1080ti sollte man aber bedenken, dass die non-tis nicht deren Nachfolger sind. Der Nachfolger einer 1080ti ist die 2080ti und die wurde nicht im VRAM reduziert. Genauso wurde die 2080(s) gegenüber einer 1080 nicht im VRAM beschnitten. Jetzt mit der 3080 wurde der Speicher erhöht. Ob diese Erhöhung ausreichend ist oder doch zu gering, wird die Zukunft zeigen.

Btw. sind die 10GB auch der größte Kritikpunkt von mir an der 3080. Ich glaube immer noch an eine 20GB Version oder eine mögliche 3080ti, welche evtl. kurz vor oder nach Big navi released werden, einfach nur um AMD in die Parade zu fahren.


Wie soll ich mir die Bitte zurecht legen?!

Indem du irgendetwas verlinkst und dazu die Standard AMD Fanboy Buzzwords nutzt: "mimimi melken, mimimi Marktmacht ausnutzten, mimimi Gameworks, mimimi Leute kaufen eh Nvidia"

Irgendwann wird AMD wieder bessere GPUs bauen (HD 7900 oder HD 5700 Zeiten) und niemand wird sie kaufen, da Nvidia die Preise senkt und dann erst recht wieder Nvidia gekauft wird.

Nein, hat keiner gekauft :rolleyes:
AMD-Radeon-and-NVIDIA-GeForce-GPU-Market-Share.png



Aber hey, da soll mal einer sagen, dass die Marketingausgaben von Nvidia nichts bringen sollen, hat doch schon zu 2080 Zeiten richtig gut funktioniert: https://www.heise.de/newsticker/mel...eForce-RTX-2080-Der-grosse-Bluff-4169328.html

Seit wann und für was ist die unbedeutende Meinung eines Redakteurs eine Quelle?
Ach stimmt, weil diese in zu dem eignen Bias passt. :d


Wer hat denn nochmal mit Mantle dafür gesorgt, dass Microsoft sich zu DirectX 12 bewegt oder wir endlich eine OpenSource Alternative mit Namen Vulkan nutzen können?
Komischerweise, sind dort AMD und Nvidia Vergleichbar in der Leistung...
Aber da das ganze Arbeit ist für Entwickler, nimmt man halt lieber DirectX 12, Nvidia Bibliotheken, da man viel schneller zum Ziel gelangt und ggfls. noch finanzielle Unterstützung erhält.
Bis auf für die Kunden, eine Win / Win Situation.

Dir ist aber schon geläufig, dass es Gameworks auch für Vulkan gibt oder?


- Die Geschäftspraktiken regen mich einfach auf. Ein NDA an sich ist nicht verwerflich, aber Redaktionen im Detail vorzugeben, dass nur Spiele mit RTX / DLSS und nur mit Prozentangaben vor NDA Schluss zugelassen werden, zeigt deutlich, das da etwas "riecht". Das nennt man agressives Marketing in Asien. Hier sollte es unter ****** fallen & Mißbrauch von Marktbeherrschender Stellung!

Es ist völlig normal den NDA Unterzeichnern vorzugeben, was diese in der Zeit des NDAs veröffentlichen dürfen. Denn genau dafür sind NDAs da...
Ich sehe nicht, wo du hier Machtmissbrauch siehst..


Nur mal so auf die Schnelle, weil ich wichtigere Dinge zu tun habe.


Wenn du anscheinend mehr weißt, dann kläre mich bitte auf... Wo sind denn deine Quellen?
Fangen wir doch mal mit 50 % Leistungssteigerung zwischen jeder Nvidia Generation an...

Warum genau soll ich jetzt die Behauptung einer anderen Person belegen, obwohl ich nirgendwo geschrieben habe, dass ich mit dieser konform bin?!
 
Zuletzt bearbeitet:

Oh lese gerade die Comments, kann hier gerne vom Mod gelöscht werden wenn nicht gewollt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh