Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

Ich warte bis es eine AORUS RTX 3080 WATERFORCE WB gib auch wenn es noch Monate dauert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich seh die 10GB Vram der 3080 mittlerweile locker, soferne ansonsten die Mehrleistung im Vergleich zu den alten Gens passt, klar mit zumindest 12GB wäre das wesentlich ausgewogener, optimal und wahrscheinlich am besten zur Leistung passend (wenn sie den annähernd so kommt wie spekuliert) wären 16GB aber das ist halt aufgrund der Busbreite nicht möglich.

aber aktuell reichen die 10 GB noch schön aus um alle Games die mich interessieren locker in 4K zu genießen und ich glaube nicht das sich das in den nächsten 1-2 Jahren wesentlich ändern wird und selbst wenn, dann kann ich nach eben diesen 2 Jahre die nächste Gen der xx80 Serie um das jetzt im Vergleich zur 3090 gesparte Geld kaufen, die dann wieder Kreise auch um die 3090 zieht...

von dem her wenn die Leistung in 4K der 3080 einigermassen passt verschwende ich auch nicht nur noch einen weiteren Gedanken an die 3090 - trotz der "nur" 10GB Vram :d - der einzige Grund für mich den Mehrpreis der 3090 in Kauf zu nehmen wäre das die 380 doch nicht soviel Performance in 4K liefert wie erhofft und erwartet.

aber vielleicht überrascht ja doch noch Amd mit ner neuen Karte auf 3080 Niveau (soferne die Leistung hier auch wirklich schon so gut ist wie erhofft) und 16GB Vram - dann müßte ich ebenfalls nicht lange überlegen und mich wieder von Team Gründ verabschieden :shot:
 
Bei mir nicht :d

Läuft bei beiden ^^
 
same here

wer auf das proprietäre Gsync gesetzt hat, bzw setzen will hat da halt leider Pech gehabt - für mich kam immer nur freesync/adaptive Sync in Frage beim Monitorkauf - selbst als die Nvidia Karten das noch nicht unterstützt haben...

das soll aber jetzt hier keine Diskussion über Vor und Nachteile beider Systeme werden, mir ist klar das Nvidia ein paar Sachen noch etwas besser kann als das offenen adaptive Sync und das darauf aufbauende Freesync, aber dafür ist der Preis der Monitore entsprechend und es ist eben proprietär, was mir immer ein Dorn im Auge ist, weshalb ich es vermeide wenn das ohne gröbere Einbussen möglich ist...
 
warum hast du mit gsync pech? aktuell gibts keine AMD karte die was reißt. erst wenn das passiert hätte man ein problem^^
 
so meinte ich das auch :d

also falls Amd doch auch im High End mal wieder was brauchbares bringt und soferne man Sync weiterverwenden möchte, man dann eben auch den Monitor tauschen müßte, wenn man aktuell einen Gsync Monitor einsetzt

vielleicht etwas unglücklich formuliert, wenn man weiterhin auf Team Grün setzt, weil man es möchte oder eben Amd wieder nicht aus dem Quark kommt mit der neuen Gen, hat man natürlich alles richtig gemacht mit Gsync (bis eben auf das, das man ein proprietäres System unterstützt...)
 
ist nun nicht so, dass man mit Gsync ganz arm dran ist :d
Die meisten werden mit 60fps auf nem 60hz fHD zocken und glücklich sein
 
Welche der Konsolen hat den 16 GB VRAM?
Du meinst Shared Memory? Schonmal geschaut wie viel RAM ein Spiel so belegt? Zieh das von den 16 GB ab, dann hast den "VRAM" der verfügbar ist. Relativiert die Menge dramatisch.

Das Argument: "Mehr ist aber mehr!" ist ja valide. Mehr ist immer besser, solange man den Preis damit nicht erhöht.
Aber es hilft nix, wenn man sich Gründe erfindet. Wer ne 3090 kauft, muss sich einfach bewusst sein, dass der VRAM vor allem für starkes Modding und profesionelle Anwendungen da ist und die Mehrleistung mit 15-20% alles andere als proportional zum Preis ist.
Ich kauf sie ja auch, aber deswegen muss ich mir keine Geschichten einfallen lassen, nur um sie zu rechtfertigen.

Ich will sie halt haben, weil die 15-20% mit 800 Euro wert sind. Das bedeutet aber mitnichten, dass es jedem wert sein sollte.

Vermutlich wird die 3090 deutlich kühler im Vergleich zur 3080. Die Mehrleistung bei 4K Gaming dürfte im Schnitt bei etwa 20-25 % liegen. Hier müssen wir einfach die Tests abwarten. Wer kein 4K zum zocken nutzt und auch nicht mehrere Monitore betreibt, braucht auch keine 3090.
 
  • Danke
Reaktionen: THK
Vermutlich wird die 3090 deutlich kühler. Die Mehrleistung bei 4K Gaming dürfte im Schnitt bei etwa 20-25 % liegen. Hier müssen wir einfach die Tests abwarten. Wer kein 4K zum zocken nutzt und auch nicht mehrere Monitore betreibt braucht keine 3090.

Ketzerei!
 
Also auf meinen Systemen mit 1070TI und das Andere mit 1080 läuft alles was "ich" bzw. "Frauchen" spielen wunderbar auf 4K max. Was man am Ende wirklich benötigt, muss jeder selbst wissen. Ob jemanden eine 3090 das Geld am Ende wert sein werden, ist auch demjenigen überlassen. Das ist so ein Punkt, bei dem ich nie verstehen werde, warum man darüber disskutiert.
 
Das ist so ein Punkt, bei dem ich nie verstehen werde, warum man darüber disskutiert.

Na hoffentlich geben sich immer beide Seiten immer besonders große Mühe, die andere Seite noch besser zu verstehen, was deren Beweggründe angeht. Obwohl die Gründe immer die gleichen sein dürften, nur das Portemonnaie und die Prioritäten nicht.
 
Vermutlich wird die 3090 deutlich kühler im Vergleich zur 3080. Die Mehrleistung bei 4K Gaming dürfte im Schnitt bei etwa 20-25 % liegen.

Das ist ein guter Punkt, den ich vergessen hatte einzubeziehen.
Der Kühler ist schon ne DICKE Ecke größer und hat 120mm Fans glaube.

Je nach Boostverhalten könnte die 3090 dann doch mehr als 20% extra liefern, weil die GPU besser gekühlt wird.
Oder sie ist einfach nur leiser bei selber Kühlung,... beides gute und valide Punkte.
 
Und laut Evga sollen es Ref Boards sein. Wenn wir uns die Bilder anschauen sind wir genau so schlau wie vorher auch^^keiner weiß wie das Ref Board aussieht ;)

Nope, Evga hat nicht gesagt, das es Ref ist.

Schau Dir das Video nochmal genau an:

Es ist bei ca. 15:00:
Die Frage lautet: Which one are reference pcbs?

Hier die Antwort:
Regarding reference pcbs. There is some confusion about this.
There kind of is no reference pcb (<- Kommentar meinerseits: Es ist schon vor Wochen geleakt worden, dass es das PG133 und das PG132 von nVidia gibt)
If you're thinking of reference pcb in the terms of the way the nvidia founders edition is. There is no evga card, that is like the founders card. That card is quite unique.... (Kommentar meinerseits: ja, es gibt
von keinem Hersteller eine Karte, die dieses PCB verwendet)

There is no evga card like that. Howewer.
There is a card, that we would call a reference design. And that would be the xc3-models.

Wieso muss er sagen: Da gibt es eine Karte, die wir als Referenzdesign bezeichnen würden?

+ Jacob hatte an anderer Stelle geschrieben:
"It is concidered ref"
Er hat nicht geschrieben "It is ref"

Und doch, es ist bekannt was das Ref von nVidia für die Boardpartner ist.
Und ja, es gibt viele Karten die diesem Ref eindeutig zugeordnet werden können.

Und die Kühler von Bykski passen ebenfalls zu diesem Ref.
Und nein, die Evga-Karten passen eindeutig nicht dazu.

Aber wieso mache ich mir die Mühe überhaupt?

Liest doch eh keiner oder es passt nicht in die eigene Welt, in der man gerne eine Evga-Karte mit einem Wasserkühler möglichst zeitnah zum Verkaufsstart haben möchte.
 
Bei Caseking steht aber der 17te nach wie vor??
 
joa, playcentral gibt halt keine Quelle an und nix... erstmal abwarten würde ich sagen
 
Gier und Haben will...bin noch am Planen wie ich die 1.500€ an meiner Frau vorbeischleuse.

Wenn jemand noch Tipps hat, Feuer frei.
 
Sag ihr einfach, dass es eine bombensichere Anlagestrategie ist, so wie Wirecard Aktien :bigok:
 
Hab die Tage ein Bild von nem Shop gesehen, da gab es die Option sich nen Zettel reinlegen zu lassen, dass das ein Gewinn ist :LOL:
Die 1500€ weiniger aufem Konto sind dann halt noch nicht geklärt.
 
Gier und Haben will...bin noch am Planen wie ich die 1.500€ an meiner Frau vorbeischleuse.

Wenn jemand noch Tipps hat, Feuer frei.
Kauf ih Schmuck für 10.000€, falls sie fragen sollte, sag ihr er hätte 11500€ gekostet.
Kleiner Tip - je teurer der Schmuck um so kleiner wird der prozentuale Anteil für die GPU. Also geh in die vollen.
 
Wie schätzt ihr eigentlich UltraWide QHD+ (3840 x 1600) ein? Geht das für euch mehr in Richtung 4K oder fallen die ~35% weniger Pixel so stark ins Gewicht?
Ich schwanke aktuell noch zwischen der 3080 und der 3090 als Upgrade zu meiner 1080TI.
 
Wie schätzt ihr eigentlich UltraWide QHD+ (3840 x 1600) ein? Geht das für euch mehr in Richtung 4K oder fallen die ~35% weniger Pixel so stark ins Gewicht?

Das hängt davon ab.
Habe von 3440x1440 (35") auf 3840x1600 (38") gewechselt. Aber der größte Unterschied kommt immer dadurch zustande, was für ein Panel, was für ein Coating, welche Schaltzeiten, wie viel Ghosting, etc etc.
Größe ist der Auflösung ist das eine, aber in Verbindung mit der Diagonale wird es erst richtig interessant. Dann musst Du nämlich nach der Punktdichte fragen und nicht nach der Pixelanzahl.
Bei 27" zum Beispiel sollte es etwas um die 157 bis 163dpi sein. Und je größer die Diagonale wird (>27"), umso seltener sind Bildschirme mit genügend Punktdichte. Dann muss man sich mit knapp über 100dpi bei 4K zufrieden geben.
Deine Ausgangsfrage war also schon von einer gewissen Unkenntnis geprägt. Ich hoffe ich konnte etwas Licht ins Dunkle bringen?
 
Gier und Haben will...bin noch am Planen wie ich die 1.500€ an meiner Frau vorbeischleuse.

Wenn jemand noch Tipps hat, Feuer frei.

Kauf ihr auch eine?
Verstehe nie wieso man da was "schleusen" muss. Das sagen viele... ist mein Geld. Da fragt meine Frau nicht nach. Sie kauft ja auch von ihrem Geld was sie will. ;-)
 
Wir reden besser nicht über Beziehungen zwischen Mann und Frau^^ Das soll besser Mario Barth machen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh