NVIDIA dreht an der Ampere-Schraube: Die GeForce RTX 3080 Founders Edition im Test

Mal Öl ins Feuer gegossen (Popcorn habe ich hier ;)):

Der relativ günstige Preis der 3080... könnte der dafür sprechen, dass Nvidia irgendwie eine kleine Idee von der Leistungsfähigkeit der kommenden AMD GPU hat und deswegen den Preis gesenkt hat, um schon vorher ordentlich abzugreifen oder ist das Quatsch, weil Nvidia sowieso den übergroßen Marktanteil hat und dazu recht treue Stammkunden?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich warte dann doch auf AMD was die bringen bevor ich was bestelle. Die 320 Watt schrecken mich dann doch etwas ab
 
@Nelen

Sie wissen es ganz genau. Schon mal was von Industriespionage gehört. Unschön, aber gang und gäbe
 
Mal Öl ins Feuer gegossen (Popcorn habe ich hier ;)):

Der relativ günstige Preis der 3080... könnte der dafür sprechen, dass Nvidia irgendwie eine kleine Idee von der Leistungsfähigkeit der kommenden AMD GPU hat und deswegen den Preis gesenkt hat, um schon vorher ordentlich abzugreifen oder ist das Quatsch, weil Nvidia sowieso den übergroßen Marktanteil hat und dazu recht treue Stammkunden?
Aus Gutherzigkeit werden sie nicht 100€ runter gegangen sein zur 2080.
 
Das war auch sofort meine Spekulation zum Preis.
 
Was sehe ich hier? Die damals geleakte Übersicht war überraschend zutreffend:

+35-40% mehr Effizienz gegenüber Pascal... das ist für 4 Jahre und 2 Node Shrinks (!) echt vernichtend schlecht. Damit hat sich Ampere wohl für mich erledigt, so gut kann der Preis gar nicht werden. Bühne frei für AMD/Hopper.

Nvidia macht wohl einen auf Intel :hmm:

Aber ich muss zugeben, ich bin NVs Marketing echt auf den Leim gegangen und hatte AMD schon abgeschrieben gehabt, nun sehe ich wieder eine ernsthafte Chance für AMD, die sie hoffentlich nutzen werden.

Aber echt schade um die Zeit die ich mit Ampere Leaks usw. verschwendet habe, hätte ich mir lieber gespart (konnte jedoch nicht anders, ihr kennt das :P )
Die werden gleich dich vernichten die Fanboys hier :d

Sehe das aber ähnlich.
 
Buuuuh, raus hier :fresse2:

Naja, zum Glück sind die Erwartungen an AMD ja flächendeckend nicht so hoch.
 
Irgendwie war der haben-will-Faktor vor dem Test deutlich höher.

Die Karten sind gut und haben ihre Berechtigung.
So wirklich einen Grund zu wechseln sehe ich gemessen am Verbrauch jetzt aber deutlich weniger als noch vor einem Tag.

Da kann ich guten Gewissens auf AMD warten und dann entscheiden.

Irgendwie hatte ich mir mehr erhofft...
 
Ob mein 600 Watt Staight Power reicht mit all meinen Festplatten, einer aio wk auf dem 7700k und dem sonstigen kram?
 
Gott! Juckt es mich in den Fingern............:d
Jetzt muss ich nur noch meinen Persönlichen Finanzminister ,von dem Investment überzeugen.:fresse2:
 
Hm, PCI-e 4.0 hat also absolut NULL Vorteile, hatte ich mir zwar schon gedacht, aber gut zu sehen. Bei Gaming in 4K gegenüber ner 2080Ti mit OC Richtung 2085MHz und Speicher auf 16GBit/s bleiben ohne RTX /DLSS je nach Game gerade mal 10 bis max 20 % Vorsprung übrig, statt 50 dann 60 Frames, ist dann doch etwas dürftig für 2080Ti Besitzer. Das Leistungsplus wird auch schön mit mehr Watt erkauft, OC auf Speicher kaum möglich, GPU OC wird auch nur unter Wasser nennenswert besser gehen. Titel mit RTX, jau gerade mal so 50 Prozent besser, kann man also immer noch vergessen. Tja, haut mich nicht so doll um. Wenn ich nicht HDMI 2.1 für den TV brauchen würde, würde ich keine kaufen und die 2080Ti behalten. Aber gut, hatte es so erwartet - wer in Kürze ne gut gehende GAINWARD GeForce RTX 2080 Ti Phoenix GS mit Samsung Speicher, Fullcover Watercool Wasserkühler und über 1 Jahr Restgarantie für 480 Euro braucht, bitte PN. ;)
 
Zuletzt bearbeitet:
Ich frage mich wie viele User hier ausgerechnet haben, was der jährliche Kostenunterschied für sie zwischen 250W zu 320W sein wird?

Aber der Verbrauch ist so hoch....wird gejammert!
 
Irgendwie war der haben-will-Faktor vor dem Test deutlich höher.

Die Karten sind gut und haben ihre Berechtigung.
So wirklich einen Grund zu wechseln sehe ich gemessen am Verbrauch jetzt aber deutlich weniger als noch vor einem Tag.

Da kann ich guten Gewissens auf AMD warten und dann entscheiden.

Irgendwie hatte ich mir mehr erhofft...
Hehe, genauso geht es mir auch gerade. War bis eben noch fest entschlossen morgen zuzuschlagen, jedoch öffnen die Tests einem dann doch die Augen.
Ich finde auch die Tatsache ausschlaggebend, dass diese Karte noch viel mehr Potenzial hätte, wenn die CPU nicht in manchen Spielen so bremsen würde. Aus diesem Grund finde ich ein Upgrade momentan nur in Verbindung mit einer neuen CPU-Generation (die es ja leider noch nicht gibt) sinnvoll.
 
Tja, haut mich nicht so doll um. Wenn ich nicht HDMI 2.1 für den TV brauchen würde, würde ich keine kaufen und die 2080Ti behalten.

keiner braucht HDMI 2.1....anständiger Monitor und DP 1.4 und gut ist ^^
 
Ich habe ein BeQuiet Pure Power 11 600 Watt Gold, Ryzen 2700 und 16Gb Ram. Wird das Netzteil es packen? Zocke übriegens 3440x1440 mit 100Hz Gsync. Daher sollte der Ryzen 2700 noch passen.
könnte passen - das Testsystem von Hardwareunboxed hat ~530W gesamtpower gezogen und das hatte n 3950X drin
 
+35-40% mehr Effizienz gegenüber Pascal... das ist für 4 Jahre und 2 Node Shrinks (!) echt vernichtend schlecht. Damit hat sich Ampere wohl für mich erledigt, so gut kann der Preis gar nicht werden. Bühne frei für AMD/Hopper.
Hä?

Pascal -> Ampere ist effektiv als 16nm -> 10nm anzusehen (und Turing war kein echter Shrink). Dafür ist das doch völlig im erwartbaren Bereich.

Ampere hat halt von Haus aus mehr Powertarget, was der User sonst per BIOS Flash erledigt hat 🤷‍♂️
 
Puh - 20-30% Mehrleistung in purer Rasterperformance... dat ist bei ner "Verdopplung der Kerne" irgendwie... meh. Dat war wohl nix mit dem +80%. (Und nö, DLSS zähle ich hier nicht als Apfel vs Apfel - das sind dann Betrachtungen die man sich bei nem feinen Wein antun kann - nüchtern ist aber anders)

Und das bei ner Leistungsaufnahme von >30%? Rieche ich da etwa AMD Treiber-Niveau, oder gibts da einen Flaschenhals wie bei Polaris, wo ab einer gewissen Kernanzahl halt nix mehr skaliert oder oder oder? Die ganzen Argumente, die ich bei Vega lesen durfte kann ich jetzt gegen Ampere werfen. Nun ja, ich warte mal gespannt auf die RX6900 Serie + 2 Wochen für den erwarteten initialen Treiber-Fuckup von AMD (dat kennen wa ja scho') und guck dann mal, wie dann das Bild aussieht. :d
 
Ob mein 600 Watt Staight Power reicht mit all meinen Festplatten, einer aio wk auf dem 7700k und dem sonstigen kram?
Schau mal hier:
 
keiner braucht HDMI 2.1....anständiger Monitor und DP 1.4 und gut ist ^^
Na, ich denke ich weiß schon selber was ich brauche und was nicht! Mein LG C9er Oled hat HDMI 2.1 und damit ich ihn mit 120Hz betreiben kann, brauche ich HDMI 2.1, ansonsten ist bei 60HZ Ende, auch auf dem Desktop, also falls das jetzt verstanden wird.
 
Ich weiß schon....ich mag nur keine TVs für PC-Gaming...Aber natürlich jeder wie er will ^^
 
War das bei euch nicht der Fall und fällt unter den Bereich GPU-Lotterie oder sind die FE-Modelle da deiner Meinung nach eher "gefährdet"?

Doch, das müsste auch im Artike stehen. Ich schaue gleich noch einmal. Hier unser Sample bei High-FPS im Video:

 
Hehe, genauso geht es mir auch gerade. War bis eben noch fest entschlossen morgen zuzuschlagen, jedoch öffnen die Tests einem dann doch die Augen.
Ich finde auch die Tatsache ausschlaggebend, dass diese Karte noch viel mehr Potenzial hätte, wenn die CPU nicht in manchen Spielen so bremsen würde. Aus diesem Grund finde ich ein Upgrade momentan nur in Verbindung mit einer neuen CPU-Generation (die es ja leider noch nicht gibt) sinnvoll.
die frage ist, stört dich das cpu limit oder willst du einfach nur die karte mehr auslasten? letzteres ist ja ohne neue cpu möglich > auflösung, eyecadny etc..
 
Aus Gutherzigkeit werden sie nicht 100€ runter gegangen sein zur 2080.
Und mit dem Verbrauch 50W über der 2080Ti. Wie auch CB anmerkt, die Krone ist teilweise mit der Brechstange erkauft. Bei 270W macht die Karte immer noch +25% zur 2080Ti in 4K und ist dabei 11% effizienter als Stock.
 
Und mit dem Verbrauch 50W über der 2080Ti. Wie auch CB anmerkt, die Krone ist teilweise mit der Brechstange erkauft. Bei 270W macht die Karte immer noch +25% zur 2080Ti in 4K und ist dabei 11% effizienter als Stock.
joa, das is grad der punkt warum ich überlege meien strix order zu canceln... wenn die karte so schlecht mit mehr strom skaliert isses das eigentlich 0 wert... und soweit ich seh hat noch kein reviewer gesagt, dass er ne strix schon hat und morgen n review liefert...
 
Meine Glaskugel sagt mir dass nach Oktober vielleicht anfang 21 eine ti oder super vorgestellt wird und alle 2080 ti besitzer welche sich die 3080 gekauft haben nicht so glücklich darüber sein werden 😂
 
Ich frage mich wie viele User hier ausgerechnet haben, was der jährliche Kostenunterschied für sie zwischen 250W zu 320W sein wird?

Aber der Verbrauch ist so hoch....wird gejammert!

Geht ja nicht nur um den Verbrauch sondern auch die entsprechenden Folgen. Höhere Hitzeentwicklung in Case und Zimmer, höhere Anforderung an Kühllösung, Netzteil, etc.
Und vielleicht will der ein oder andere auch einfach nicht unnötig Strom verballern, aus Umweltgründen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh