GeForce Special Event: NVIDIA stellt am 1. September die Ampere-Grafikkarten vor

Doch Holzi McHolz Holz kann das aus dem Video ableiten. Ihm hat garantiert sein Insider wieder frische Infos rüber geschoben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dass die extrem viel verbrauchen, steht dort aber nicht. Es wird lediglich über die TGP spekuliert. Dass ein entsprechender Verbrauch bei Games einstellt und für alle Modelle und für typische Settings gilt, lässt sich daraus nicht schlussfolgern.
Etwa seit Pascal ist das doch genau so? Die Karten verbrauchen unter Volllast genau das was in den Specs steht, weil sie darauf gedrosselt werden.
 
zb hier TDP 320 Watt

Finde ich toll!
So kann ich vor mir selber rechtfertigen warum unbedingt doch noch zwei 560er Radiatoren ins Gehäuse müssen. :d Danke Nvidia! :)

Die ganze TDP wird sich wohl weniger stark auswirken als man meint, man lässt die Karten ja nicht zu 100% mit allem was sie hat rechnen, vieleicht beim Rendering in bestimmten Anwendungsfällen, aber der Otto Normaluser wird wohl wenig bis gra nichts merken. Dann taktet sie halt etwas runter und keiner merkts.
 
Gebt doch mal bei Google "ampere nvidia 350w" ... da braucht man kein Insider für ...

Bin jedenfalls schon gespant, wenn der erste user hier mit einem 500 Watt oc Bios auftaucht :d
 
Zumal Igor auch immer für ein wenig Aluhut zu haben ist, dass dann aber total "wissenschaftlich" verpackt und kein Wort mehr darüber verliert, wenn es total anders kommt.

Rein von den BEKANNTEN Infos, würde ein hoher Verbrauch keinen Sinn ergeben.
Wir wissen im Endeffekt nur, dass es keine 12nm mehr sind und deswegen der Verbrauch eigentlich fallen sollte, oder die Leistung dramatisch ansteigen wird.

Alles darüber hinaus ist aktuell nur wilde Spekulation, ohne Grundlage. Können wir uns also erstmal sparen, bis wir zumindest eine Grundlage haben. :-)
Aktuell kann ich von meiner Seite nur sagen: Wenn sie keine neuen Stromfresser haben, sondern den angeblich erhöhten Stromverbrauch nur aufgrund von steigender Leistung haben (trotz kleinerem Prozess), dann bin ich definitiv hyped für die Leistung. ;-)
 
Alles darüber hinaus ist aktuell nur wilde Spekulation, ohne Grundlage. Können wir uns also erstmal sparen, bis wir zumindest eine Grundlage haben.

Liegt daran weil ja bald wieder Weihnachten ist und jetzt schon die Spekulatius im Laden liegen. ;)

Aktuell kann ich von meiner Seite nur sagen: Wenn sie keine neuen Stromfresser haben, sondern den angeblich erhöhten Stromverbrauch nur aufgrund von steigender Leistung haben (trotz kleinerem Prozess), dann bin ich definitiv hyped für die Leistung. ;-)

Worauf ich gespannt bin, wann wir das Ende der Spirale erreicht haben. Die jetzigen Steigerungen gehen in der Entwicklung definitiv ins Geld, größere Chips = höhere Einzelkosten und mehr Ausschuß. was man wieder auf die Käufer umlegen wird. Diese Preisspirale wird man nicht mehr ewig mitmachen können, weil dann sind wir in 2 oder 3 Generationen vieleicht bei 700€ für das Einsteigermodell, das zahlt keiner mehr. Und von den paar Enthusiasten die auch 2.500€ für eine GraKa auf den Tisch legen, von denen wird man nicht leben können. Da kommen spannende Jahre auf uns zu.
 
20 spulen heißt erstmal noch nix weiter. Ich vermute mal, dass die spulen einfach deutlich kleiner sind weil die noch hochfrequenter angetastet werden um die Effizienz noch weiter zu steigern, allerdings sinkt dadurch aber auch der maximal mögliche stromfluss - macht aber nix, da man ja mehr drqufpacken kann, wodurch die wärmeabstrahlung besser aufgeteilt werden kann.
Bin da echt gespannt - austechnischer Sicht - wie die Stromversorgung auf der Karte aufgebaut sein wird... Was die Karte am Ende an nutz-Leistung raushaut ist mir egal - ich will ein total verrücktes Synchronwandler-konzept sehen :d :fresse:
 
Ja, ich habe einige Zeit ja befürchtet, dass es wieder so wird, wie ca. Anfang der 90er, als man für einen PC auf dem man aktuelle Spiele optimal zocken konnte ca. 6000DM hinlegen musste. Aber wie es aussieht wird es noch schlimmer werden :(
Naja damals war die Preisverteilung aber auch ganz anders. Sehr teuer waren damals Monitore, vor allem wenn man "gute" haben wollte. Normale VGA Monitore kosteten so ab 500 DM und gute ab 1000DM. Heute bekommst Du gute (24", 1080p mit 144Hz) bereits ab ca. 160 EUR.
Speicher, sowohl RAM als auch Festspreicher (HDDs), waren auch sehr teuer. Wollte man etwas mehr RAM bzw. eine etwas größere Festplatte als das Minimum musste man jeweils auch einige hundert Mark hinlegen.
Heute bekommt man 16GB RAM um 50 EUR und analog dazu 32GB um 100 EUR etc. was mehr als genug für ziemlich jeden ist. SSDs und HDDs gibt's auch schon sehr günstig.
Grafikkarten waren damals für Spiele relativ egal, da generell die günstigen VGA Karten für die Spiele (welche ja meist in DOS mit MCGA/VGA = 320x200 und 256 Farben liefen) alle ausreichend schnell waren. Teuer waren nur die Profikarten für hohe Auflösungen für Grafiker/Publisher und sehr teuer CAD/Workstation Grafikkarten.
Für Spieler hat sich das erst später mit SVGA, 3D etc. geändert.

...
Zur Einführung war die 2080 bereits ~6% schneller als eine 1080ti. Wenn man diesen Leistungsunterschied auf den UVP (819) der 1080ti addiert, dann landet man bei ca. 870€. Demnach hat eine 2080 mit einer UVP von 849 bei Betrachtung des UVPs ein besseres P/L-Verhältnis als eine 1080ti. Dabei ignoriert man noch die kompletten Verbesserungen, wie eine bessere Effizienz, oder neue Funktionen, wie RT, DLSS, usw...
...
Das ist ja das Problem ... nur ca. 6% schneller bei gleichem Preis. Abgesehen davon vergleicht man den UVP (zum Release) zum UVP (zum Release) ja nur um in etwa zu sehen ob der Hersteller Modelle teurer gemacht hat oder nicht.

Zum Release der RTX Serie hatte eine 1080Ti in etwa einen Strassenpreis von 750 EUR, die 2080 von etwa 850 EUR. Also darf ich jetzt etwas mehr zahlen für 6% mehr Leistung, sprich ich blättere nochmal etwas mehr Geld für etwas mehr Leistung hin. Gratuliere - das nennt sich nicht Fortschritt.
Und neue Features, schön und gut, aber nichts was den Umstieg wirklich rechtfertigt. Wären zum Launch schon verbreitet Anwendungen und Spiele rausgewesen die das nutzen bzw. auch performant nutzen, okay. Aber den RT Launch kennen wir alle ... verspätet ... zu wenige Spiele ... zu niedrige Leistung.

Tja - ich hoffe auch. Rein strategisch ist die einzig sinnvolle Gegenmaßnahme entweder Team rot zu kaufen, damit Nvidia den Denkzettel nicht nur in Foren liest, sondern auch mal in der Kasse merkt - oder gar nix kaufen. Wie die Masse sich verhalten wird, wissen wir aber beide. Ich mach mir da keine Hoffnungen. Außerdem: AMD zieht auch kräftig an. die lassen sich von Nvidia nicht mehr vor den Karren spannen. Es wird keine 200€ Mittelklasse GPU mehr geben.
...
Das ist ja das Problem, wenn es gute Alternativen gibt funktioniert der Plan mit nicht nV kaufen. Allerdings war die Vega Serie nicht ganz so leistungsfähig wie erhofft und preislich (dank dem Mining Boom) auch eine Katastrophe.
Navi macht das jetzt schon deutlich besser, allerdings mischen die da auch nur im MIttelfeld bis Performance herum.
Wer wirklich Leistung will greift halt zu nV - da muss AMD nachlegen, sonst wird sich an den Preise im High End nicht viel ändern. Und wie Du schon schreibst wird sich AMD mit BigNavi wohl auch eher den High End Preisen von nV anpassen, je nach Leistung. Warum auch nicht?


Lol ... wenn ich anders sortiere kann ich eine RX5700XT mit 650 EUR gegen eine 2080S mit 670 EUR stellen.
 
Lol ... wenn ich anders sortiere kann ich eine RX5700XT mit 650 EUR gegen eine 2080S mit 670 EUR stellen.
Da hat einer aufgepasst. :d Ich beziehe das aber eher Richtung Big Navi vs 3080Ti oder was auch immer dann der Gegenspieler sein wird. Wenn AMD - sagen wir mal 800€ für BN verlangt, wird Nvidia da nicht mit 850€ gegensteuern, sondern bei 1.000+ anlegen. Da aber niemand in diesem Preisbereich das "Zweitbeste" nimmt, wird es ein Kampf Krone vs. Krone. Aber wir können uns ja dann beim Release die Preisunterschiede angucken und dann wissen wir, wie viel teurer das Gegenstück bei gleicher Leistung ist.
 
Naja damals war die Preisverteilung aber auch ganz anders. Sehr teuer waren damals Monitore, vor allem wenn man "gute" haben wollte. Normale VGA Monitore kosteten so ab 500 DM und gute ab 1000DM.

Mein Eizo 17" CRT hat Ende der 90er über 2200 DM gekostet. :fresse:
Für meine erste Power Maschine (auf der OS halbe oder MS Dos oder Desqview X lief) habe ich Anfang der 90er etwa 6000-7000 DM ausgegeben.
Die Local Bus (nicht Vesa) Grafikkarte hat auch an die 1200 DM gekostet, war ein sagenhafter Windows GUI/CAD Beschleuniger. (2D Vektoren)
Damals standen aber auch in nicht mal 10 Prozent der privaten Haushalte PCs, heute in DE in über 80 Prozent.

In der Bucht gehen die RTX2080Ti teilweise schon ab ~650€ weg, die Verkäufer werden das genau so bereuen wie jene, die GTX1080 Tis voreilig wegen des anstehenden Turing Release verschleudert haben.

(hallo m@tti :d )
 
Zuletzt bearbeitet:
Da hat einer aufgepasst. :d Ich beziehe das aber eher Richtung Big Navi vs 3080Ti oder was auch immer dann der Gegenspieler sein wird. Wenn AMD - sagen wir mal 800€ für BN verlangt, wird Nvidia da nicht mit 850€ gegensteuern, sondern bei 1.000+ anlegen. Da aber niemand in diesem Preisbereich das "Zweitbeste" nimmt, wird es ein Kampf Krone vs. Krone. Aber wir können uns ja dann beim Release die Preisunterschiede angucken und dann wissen wir, wie viel teurer das Gegenstück bei gleicher Leistung ist.

Also ich hole mir dann ganz entspannt BN denn such im High End Bereich werden einige aufs P/L gucken.
 
In der Bucht gehen die RTX2080Ti teilweise schon ab ~650€ weg, die Verkäufer werden das genau so bereuen wie jene, die GTX1080 Tis voreilig wegen des anstehenden Turing Release verschleudert haben.

Für 650 EUR würde ich sogar eine 2080 Ti nehmen. Das dürfte der Preis der normalen 3070 sein. Denke nicht, dass die, da vermutlich nur die 4. stärkste Karte von Ampere, der 2080 Ti das Wasser reichen kann.
 
Ja, zu dem Preis gibts bei Kleinanzeigen sehr viele und das ohne PReisverhandlung. Denke die Preise werden da von Woche zu Woche sinken. Ich hab's nicht eilig :d
 
Abgesehen davon vergleicht man den UVP (zum Release) zum UVP (zum Release) ja nur um in etwa zu sehen ob der Hersteller Modelle teurer gemacht hat oder nicht.

Und genau deswegen habe ich mich doch auch auf den UVP bezogen und dies in einem weiteren Posting sogar erläutert ;)


Gratuliere - das nennt sich nicht Fortschritt.

Wo genau habe ich denn behauptet, dass dies ein Fortschritt sei?
Ich habe lediglich die Aussage von Shevchen widerlegt, wo es hieß 2080 teurer bei gleicher Leistung. Die 2080 hat zwar einen etwas höheren UVP, bringt dafür aber auch entsprechend Mehrleistung und bringt dazu noch weitere Verbesserungen. Jeder kann diese Verbesserungen für sich selber bewerten...
 
Wenn jemand Hardware kauft für ~1200€ und nach 2 Jahren verkauft, ist die Hardware nie und nimmer 800€ wert. Beim Auto kannst du teile tauschen und reparieren bei der Grafikkarte so gut wie gar nicht!

Für mich ist alles was nicht oder nur schwer reparabel ist ein Wegwerfartikel und dieser ist niemals soviel wert. Wieviel schneller ist eine 2080TI vs einer vergleichbaren Grafikkarte bei 600€?
 
Naja solange man noch innerhalb der Garantiezeit ist haut das schon hin, gab ja von der 2080ti auch einige Modelle die neu deutlich über 1200 lagen.
 
Nicht alle Ti sind bereits 2 Jahre alt, etwas ist so viel wert wie jemand anderes dafür zu zahlen bereit ist. Oder anders ausgerückt: der Markt macht den Preis,

Außerdem können auch Grafikkarten repariert werden. Selbst die oft über drei Jahre alten 1080 Ti werden noch für ~450-500€ gehandelt..

Wie viele aktuelle GPUs mit 11GB VRAM oder mehr gibt es den aktuell ? ;)

Ja, zu dem Preis gibts bei Kleinanzeigen sehr viele und das ohne PReisverhandlung. Denke die Preise werden da von Woche zu Woche sinken. Ich hab's nicht eilig :d

Wenn Du Pech hast werden die Turing Karten (vor allem die Ti) wieder höher bewertet wenn die Ampere Preise bekannt sind.

Genau so war es vor dem Release von Turing. Vereinzelte Panikverkäufe als noch nicht mal die Preise standen und anschließend war das Preisniveau der gebrauchten 1080Ti wieder höher.

(Hallo m@tti die Zweite. :p)
 
Zuletzt bearbeitet:
habe 900 auf KA für eine 2080ti bekommen das war vor 2 Wochen.
 
Ich habe meine 2080ti im Juni 2019 gekauft. Ich warte mit dem Verkauf definitiv noch ab. Erstmal muss man wissen, wo die sich von der Leistung her einordnet.
 
september 2018 gekauft. die 2. 2080ti kommt in den HTPC
 
habe noch eine gtx 1080 (non ti); Ende des Jahres muss ein neuer Pc mit Zen 3 und 3090 her (für Cyberpunk)
 
habe noch eine gtx 1080 (non ti); Ende des Jahres muss ein neuer Pc mit Zen 3 und 3090 her (für Cyberpunk)

Willkommen im 4950X + 3090 Club.
Cyberpunk mit RTX (hoffentlich echt 4fache RT Leistung), wird sicher ein Traum mit der neuen Hardware.

Aber evtl. grätscht AMD ja noch mit BigNavi rein und liefert ein GPU Zen ab. Das wäre natürlich noch geiler. Will aber nicht gierig werden. CPU + GPU Upgrades so kurz aufeinander sind eh schon sehr nice.
 
habe 900 auf KA für eine 2080ti bekommen das war vor 2 Wochen.

Ja, ich finde meinen SQ7 als Drittauto auch ganz ok.

Wow ... wenn man natürlich solch Luxus hat, dann störts einem auch nicht, wenn Nvidia für die 3090 oder 3080 Ti knappe 2k möchte.
 
das is doch aber dein Problem? was soll er machen? 2080 für 499€ und 2080ti für 502€?

er ist Geschäftsmann und du würdest das doch auch nicht anders machen?

Nein, für mich ist das überhaupt kein Problem. Ich sehe das völlig nüchtern und drücke meine Meinung außer hier im Forum gegenüber dem Geschäftsmann auch dadurch aus, wie weit ich mein Portmonee öffne. Sagen wir mal ich finde ~700€ für eine 2080 Super angemessen (kann man wieder drüber streiten). Gäbe es die 2080 Ti für ~850 würde ich sofort bestellen. Aber nicht für 1200+ weil ich mich durch diese Preisgestaltung verarscht und ausgenommen fühle. Da lade ich lieber meine besten Kumpels zu einem Wagyu Steak mit Trüffelsoße ein als mich von NVidia so ausnehmen zu lassen. Rein aus Prinzip. Würde es mehr Leute geben, die den Preis nicht bezahlen wären die Dinge mit Sicherheit erschwinglicher und dann könnten auch ein paar Leute in den Genuss kommen, die finanziell nicht ganz so gut aufgestellt sind.... das betrifft dann z.B. auch iPads, iPhones, Fahrzeuge von VW und allen anderen schlichtweg überteuerten Kram wenn man das Preis/Leistungsverhältnis NÜCHTERN und unvoreingenommen betrachtet.
 
Zuletzt bearbeitet:
2080S für 700 € ist aber auch kein echter Fortschritt, da es bereits 2017 eine bessere Karte mit mehr VRAM (!) fürs gleiche Geld gab. Kein Wunder dass NVIDIA die damals gleich eingestellt hat. Für 850 wäre die Ti noch halbwegs preiswert.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh