GeForce Special Event: NVIDIA stellt am 1. September die Ampere-Grafikkarten vor

vielleicht reicht ja die 3080 bzw BN auch um 4K einigermassen brauchbar mit 60fps im Schnitt spielen zu können, ohne massiv Abstriche bei der Qualität machen zu müßen.

Ne 3080 für 1800 Euro um gerade so 60 fps in 4Kzu haben?
Was wird denn ab Ende des Jahres die Mittelklasse sein? Ne 3060 für unschlagbare 999 Euro?
Da würd ich auch keine vernünftigen Spiele mehr programmieren, kann ja eh keiner spielen ausser den vier Streamern mit gesponserter Hardware. Twitch verdient sich dumm - verkaufte Spiele Keys: 4
:d
Und wenn AMD schlau ist, dann ziehen sie die Preise Team grün entsprechend an.
Aber da hört es für mich dann auch auf und ich schliesse mich den "kann ich mir leisten - sehe ich jedoch nicht ein" Menschen an.
PS5 an 65"OLED und abwarten.

Aber ich würde ja nicht heimlich mitlesen wenn ich nicht heimlich auch noch auf irgendein Wunder hoffte..
(aber ich scheine ja mit meinen "2K für 4K" ziemlich richtig gelegen zu haben. Hab auch schon den nächsten Geniestreich. Nächste Generation bekommt 48GB Speicher weil wegen "8K ready" und kostet dann? Genau, 3K. Danach dann "4K für 8K". Mindblowing!)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
naja 2500-3000 is ok, dann hat nicht jeder Hinz und Kunz das Ding :d
 
Joa wenn sie es wie Apple schaffen vermeintliche Exklusivität zu verkaufen indem sie eine Luxuspauschale erheben. Könnte klappen, dann bin ich aber da auch raus.
 
Was die Karten angeblich fressen und was sie wirklich fressen geht übrigens auch deutlich auseinander.
Nicht, dass es mir wichtig wäre, dass die besonders wenig Strom nehmen,... aber so ganz kommentarlos will ich das hier nicht stehen lassen.

Nen 350 Watt BIOS hat meine 2080ti auch.
Der 9900K ist auf 5.1 OCed.
Nun habe ich aber auch ein Asus Thor Netzteil, was mir den genauen Strom anzeigt, der gezogen wird.

Idle bin ich 2 stellig.
Unter normalem Office Betrieb mit YouTube und co so bei 130-140 watt.
Gaming am Anschlag, ohne V-Sync ziehtr der Gesamt PC selten mehr als 270 Watt. Das schwankt je nach Game etwas, aber 270 ist so das Mittel. Manche leichte Games sind kaum über 150, und der "worst-case" war bisher 337 Watt für das Gesamtsystem. Als PEAK, nicht als dauerhafter Verbrauch.
Selbst beim Worst-Case geht nicht mal der Lüfter vom Netzteil an.

Edit:
Und echt nette Klimaanlage.
Muss meine auch mal aus dem Keller holen, aber es ist zu warm zum schleppen! ;-)
Hmm ich hab das gleiche Netzteil, allerdings eine schwächere GPU und kann idle und Youtube und Co. Werte bestätigen. Beim Zocken komme ich aber regelmäßig über 300W und zwar nicht nur selten, sondern fast dauerhaft.
Laut HWiNFO hat die GPU Peak so um die 220W und CPU Peak bei 110W (wie gesagt Max-Werte in HWiNFO und nie gleichzeitig). Dann noch der Rest mit mehreren Lüfter, 3 SSDs, D5 Pumpe, Quadro und bisschen RGB Blingbling.
 
Uhm, 1999 ist weniger als erwartet eigentlich.
Ich bin bisher immer davon ausgegangen, dass die 3090 einfach die Titan ersetzt. Und die Titan war ja immer deppert teuer für die Leistung.
Oft waren custom xx80ti sogar schneller, weil es keine customs von Titans gab.

Das suggeriert eher eine Zwischenstufe in meinen Augen. Sonst wäre das zu billig für nen Titanersatz. 3080ti -> 3090 -> Titan.
Wobei sie evtl. 3080ti == 3090 machen, nur dass die 3090 dann die allseits geforderten VRAM-Zahlen hat, die nicht jeder bezahlen will, wenn sie nie benutzt werden.
Wäre so gesehen also nicht dumm und für uns als Kunden einfach nur mehr Auswahl.

Natürlich erstmal nur Vermutungen.

An der Stelle meine übliche Warnung: Nicht die Namen machen die Preise, sondern die Leistung. Es wird sich viel zu sehr an Namen aufgehängt, die sich ja nun offensichtlich eh ändern. Ne xx90 gab es ewig nimmer. Wie sich die Namen in Leistungsklassen positionieren, wird sich zu 99% auch wieder ändern dadurch. Also bitte hört auf die Namen mit Vorgänger Generationen zu vergleichen. Das hilft niemandem.

Wenn eine neue GPU 30% mehr Leistung als ne 2080ti hat und denselben Preis, dann ist es komplett egal, ob sie das Ding 3060, 3090, Titan oder Heinzelmännchen nennen. Es wäre eine gute GPU.
Wenn eine neue GPU die gleiche Leistung wie eine 2080 Super hat, aber teurer ist, dann ist es komplett egal, ob sie das Ding 3060, 3090, Titan oder Heinzelmännchen nennen. Es wäre eine beschissene GPU.


Laut HWiNFO hat die GPU Peak so um die 220W und CPU Peak bei 110W (wie gesagt Max-Werte in HWiNFO und nie gleichzeitig). Dann noch der Rest mit mehreren Lüfter, 3 SSDs, D5 Pumpe, Quadro und bisschen RGB Blingbling.

HWInfo kann Strom nur abschätzen, nicht messen.
Was den Unterschied bei Gaming angeht, würde ich spontan auf Effizienz und Auslastung tippen.
Nicht jedes Spiel braucht 100% der 2080ti. Einige laufen mit 30-50%. Was dann natürlich das Ergebnis verfälscht und meinen Ursprünglichen Punkt relativiert.
Kann mir aber sehr gut vorstellen, dass eine 2080ti weniger Strom braucht als z.B. ne 1070, um im selben Spiel dieselbe FPS zu liefern.

Ansonsten kein Plan woran die Diskrepanz noch liegen kann.
 
Zuletzt bearbeitet:
An der Stelle meine übliche Warnung: Nicht die Namen machen die Preise, sondern die Leistung. [...]
Wenn eine neue GPU 30% mehr Leistung als ne 2080ti hat und denselben Preis, dann ist es komplett egal, ob sie das Ding 3060, 3090, Titan oder Heinzelmännchen nennen. Es wäre eine gute GPU.

Ich gebe Dir Brief und Siegel, dass das nicht passieren wird.

Das wie auch immer gelabelte Ampere-2080Ti-Pendant oder von mir aus die niederklassigere aber 30% leistungsfähigere GPU wird niemals nicht und auf gar keinen Fall für die 999 $ (1259 €) Releasepreis der 2080 Ti FE über die Ladentheke gehen. Die wird mindestens meinen aktuellen Beitragscounter in €uronen kosten.
 
theoretisch! kann die ominöse 3090 auch ne Dual GPU sein mit 2 mal 3080/3070 und 2 mal 10/12 GB und die "3080ti" die 12/24 GB Karte sein

die 24/20GB lesen sich arg nach Titan/Dual GPU

aber wenn das Single GPU Board ist mit den 20/24GB, dann sind auf alle Fälle 1999,- Startpreis
 
Ich gebe Dir Brief und Siegel, dass das nicht passieren wird.

Das wie auch immer gelabelte Ampere-2080Ti-Pendant oder von mir aus die niederklassigere aber 30% leistungsfähigere GPU wird niemals nicht und auf gar keinen Fall für die 999 $ (1259 €) Releasepreis der 2080 Ti FE über die Ladentheke gehen. Die wird mindestens meinen aktuellen Beitragscounter in €uronen kosten.

Möglich.
Solange mehr Leistung hergeht, würde mich das zwar nicht happy machen, aber wäre mir egal.
Ich vermute aber eigentlich keine weiter steigenden Preise.

theoretisch! kann die ominöse 3090 auch ne Dual GPU sein mit 2 mal 3080/3070 und 2 mal 10/12 GB und die "3080ti" die 12/24 GB Karte sein

die 24/20GB lesen sich arg nach Titan/Dual GPU

aber wenn das Single GPU Board ist mit den 20/24GB, dann sind auf alle Fälle 1999,- Startpreis

Die 3090 wirkt ohne Frage ominös.
Mein erster Tipp war ja ein Titanersatz, damit man da evtl. mehr Leute zum Kauf bewegt... weil... Name halt. Titan war immer deppert teuer und nicht schneller. Eine Stufe nach einer 80ti, wäre sicher interessanter als etwas mit dem Namen Titan. Leider fallen Leute da auf die Namensgebung in beide Richtungen rein. Sowohl beim Meckern, als auch beim Kauf.

Eine Dual GPU fände ich jetzt aber irgendwie sehr komisch und unerwartet.
Ausgeschlossen ist das sicher nicht, aber warum würden sie?
 
ich bin bei solchen Dingen immer eher vorsichtig, aber hier getraue selbst ich mich zu wetten, dass die 3090, wenn sie unter der Bezeichnung kommt, sicher keine Dual Gpu Karte sein wird :d
 
ich meins nicht wegen der 90 an sich

aber das was Nvidia da an Marketing abzieht, Countdown, etwas großes blabla, dann 24 GB etc

das riecht nach nem Titan Ersatz oder einer Titan selbst oder DualGPU

wieso sollte er von 8/11GB auf 20/24 gehen, zumal der Ram teuer ist - das riecht nach 2 x 10/12GB und entsprechend Dual

zumal das seltsame Design mit 2 Lüfter auf jeder Seite auch irgendwie in die Richtung zeigt und Dual GPU kann er ja via NV-Link onboard realisieren, ohne externen Connector

aber wir werden sehen, es wird Zeit
 
Zuletzt bearbeitet:
nachdem weder Treiber noch Spiele in den letzten Jahren für Dual Gpu optimiert wurden bzw eigentlich genau das Gegenteil der Fall ist, kann ich mir das beim besten Willen nicht vorstellen, selbst wenn bestimmte spekulierte Specs (auch) in diese Richtung interpretiert werden könnten ...
 
darfst nicht an klassisches SLI/CF denken bei einer 2020 Gual GPU on Board/ on Die Lösung

er kann ja was besonderes gestrickt haben, mit dem Extra Chip auf der Rückseite oder oder oder
 
die entsprechenden Treiber und Optimierungen in den Spielen braucht man aber trotzdem bei 2 Chips auf einer Gpu wenn die Last auf diese verteilt werden soll, ansonsten wird das nicht viel bringen, einzig die Nachteile die direkt aus SLI/CF kommen wie die Microruckler würden erstmal wegfallen

bzw auch beim Vram - das der von 2 Gpus addiert werden kann, ist zwar wenn ich mich recht erinner alles im DX12 Standard definiert ,aber muß eben von den Spieleentwicklern explizit auch eingebaut werden im Code - oder hab ich das falsch in Erinnerung ?
 
Ich hoffe weiter auf @fdsonne seine spekulierten 999$
Die 70-90 Leistungszuwachs von Tweaktown klingen ja auch irgendwie nach1.April
 
Zuletzt bearbeitet:
die entsprechenden Treiber und Optimierungen in den Spielen braucht man aber trotzdem bei 2 Chips auf einer Gpu wenn die Last auf diese verteilt werden soll, ansonsten wird das nicht viel bringen, einzig die Nachteile die direkt aus SLI/CF kommen wie die Microruckler würden erstmal wegfallen

bzw auch beim Vram - das der von 2 Gpus addiert werden kann, ist zwar wenn ich mich recht erinner alles im DX12 Standard definiert ,aber muß eben von den Spieleentwicklern explizit auch eingebaut werden im Code - oder hab ich das falsch in Erinnerung ?


vergiss einfach mal AFR/SFR und klassisches SLI und die Notwendigkeit SLI Funktionalität im Code zu verankern, weil es die nie gab und nie geben wird...
aber so wie immer irgendeiner eine Innovation bringt kann auch er mit einem Zusatzchip einen schnellen interconnect herzaubern, der jenseits der Bildberechnung nicht als AFR/SLI NV Link zählt sondern einfach als eine GPU
 
und wie soll dieser Wunderzusatzschip wissen, wie er ingame die Last und den Speicher auf 2 Chips verteilen soll ohne dafür optimierte Spiele und Treiber ? aber is ja im Grunde eh egal, in 2 Wochen wissen wir ja hoffentlich was die ominöse 3090 ist ...

Ich hoffe weiter auf @fdsonne seine spekulierten 999$
für den 2080ti Nachfolger ? die Hoffnung stirbt zwar zuletzt (und ich würde mich sehr darüber freuen) aber im Leben nicht :lol:
 
Zuletzt bearbeitet:
in 99% der games sind aber selbst 8gb bis jetzt ausreichend. das Problem ist die massiv fehlende rohleistung. da können die noch 20 gb mehr draufballern das würde nichts bringen

Verstehe die Aufregung nicht, musst ja keine Version mit mehr Vram kaufen.
Habe das damals schon gerne getan als es das noch gab und fuhr damit auf lange Sicht und beim Wiederverkauf immer besser..
 
Darf ich fragen welcher Helpdesk in DE 4000 Euro Brutto zahlt?
3666 sind es brutto im monat bzw 44k im jahr

und pro bereitschaftswoche 500 on top. erst dadurch käme ich auf 4166. :)
 
Zuletzt bearbeitet:
Die 3090 soll ja ein 360Watt Board haben@24Gb laut igor und da wäre 400Watt dann wohl echt knapp um mehr als 2Ghz zu nutzen
Aber das ist doch gut, deutet dann drauf hin das sie den Verbrauch hochgezogen haben weil BigN dann etwas besser wird als man denkt
 
3666 sind es brutto im monat bzw 44k im jahr

und pro bereitschaftswoche 500 on top. erst dadurch käme ich auf 4166. :)

bereitschaft ist 17-21 uhr irgendwas "arbeiten" > kunden sind größtenteils auch im feierabend ergo nichts.

ab da bis morgens 8 auf abruf prio 1 sachen bearbeiten.

heist ich bin in der woche komplett daheim
Hör mal endlich auf keinen interessieren deine Einkünfte hier.
 
ich würd auch immer zur Version mit mehr Vram greifen, das Problem daran ist nur wenn die Preise extrem höher sind für die Version mit mehr Vram, hört der Spass halt irgendwo auch mal auf, weil soviel kann man beim Wiederverkauf nie reinholen...

@PauLPanZer
könnte es nicht einfach auch bedeuten, das sie die ganzen Cores (RT,Tensor, und normal) und dazu massig Vram einfach ordentlich Saft ziehen - egal was Big Navi im Vergleich dazu kann ?
 
ich würd auch immer zur Version mit mehr Vram greifen, das Problem daran ist nur wenn die Preise extrem höher sind für die Version mit mehr Vram, hört der Spass halt irgendwo auch mal auf, weil soviel kann man beim Wiederverkauf nie reinholen...

ich finde die preisentwicklung nicht gut. wenn es so kommt wie befürchtet dann wird pc gaming richtig richtig teuer werden oberhalb von full hd.

ich hab dazu auch nicht das gefühl als würde mir eine karte mit mehr vram später mehr geld wieder zurückbringen als die version mit weniger.

erst wenn die karte mit mehr vram ein problem löst welches man mit der karte, die weniger vram hat, hat.
 
Ich kann es mir irgendwie nicht vorstellen, dass nVidia eine Consumer/Gaming-Karte für 2000,- Euro auf den Markt loslässt. Aber vielleicht waren die Absatzzahlen der 2080 Ti wirklich so gut, dass man dieses Experiment wagen will. Man muss es ja so sehen, je höher der Preis, desto weniger Absatz. Die meiste Kohle macht man wenn man den Schnittpunkt aus Absatz und VK-Preis ideal erwischt. Geht man mit den Preis zu hoch besteht das Risiko insgesamt weniger Umsatz zu machen, da der höhere Preis den niedrigeren Absatz nicht mehr auffangen kann. Ich denke bei 2000,- Euro schießt man über dieses Ziel hinaus, auch wenn natürlich die kleineren Modelle zur Querfinanzierung beitragen würden. Gefühlt wäre m.M.n. bei 1500,- Euro Schluss...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh