Ich sehe - ganz neutral - bei Ampere folgendes:
- Die Leistung wurde mit Strom erkauft, die Architektur skaliert praktisch null
- Die Speicherchips laufen so heiß, dass man mittelfristig mit Defekten rechnen könnte (Die >100°C zu ignorieren ist fahrlässig, da wird ja bereits bei Vorgänger-Generationen sehen konnten, dass der thermische Hub langfristig Defekte verursacht. Warum das bei Ampere per Magie nicht passieren soll, hat noch niemand erklären können)
- 800€ ist nicht "günstig"
- Verfügbarkeit praktisch nicht existent
- Auf Grund mangelnder Kommunikation zum PCB-Design und dem Drang einiger Hersteller bei >800€ GPUs noch ein paar Cent zu sparen, crashen einige Partnerkarten ab bestimmten Taktfrequenzen
- DLSS hat in der Nvidia-Demo Artefakte gezeigt
- Es wurde 16k Trainingsdaten vs 2k Nativ Auflösung Gegenübergestellt (und die Leute feiern diese Verarsche auch noch)
- Die Raytracing-Performance liegt auf dem gleichen Niveau wie Turing (Verlustbetrachtung)
Und was lese ich von den Trollen? AMD Argumente! Als wenn AMD diese Karte versaut hat. Das ganze Teil kann man mit einem Wort zusammenfassen: Kindergarten
Jaaaa, genauuu, der forenweit als völlig neutral bekannte Shevchen
Wen willst du eigentlich noch verkaspern hier?
Wenn man spricht wie ein AMD Troll, dann wird man halt auch behandelt wie ein AMD Troll. So ist das eben, die Welt ist hart nicht wahr 🤷♂️
- Nicht, dass das bei einer High-End Karte in meinen Augen überhaupt relevant wäre, aber Tatsache ist: Ampere IST effizienter als Turing. Wenn man auf die absolute Leistungsmaximierung verzichten will, gibt es sogar viel mehr FPS/Watt.
- Das ist einfach Bullshit. Es gibt keine bekannten Probleme mit älteren Turing Karten! Wenn überhaupt gab es bei ganz neuen Karten häufiger Defekte, aber ob das wirklich statistisch relevant war oder eher nur ein Sturm im Wasserglas, lässt sich mangels empirischer Untersuchungen bis heute nicht sagen. Dinge werden nicht zum Fakt, nur weil man sie gebetsmühlenartig wiederholt. Und nochmal: Die Teile sind spezifiziert um bei 100°C zu arbeiten. So laufen Chips tagtäglich hunderttausendfach in den Notebooks dieser Welt und das ist überhaupt kein Problem. Da sinkt die theoretische Lebenserwartung des Siliziums von mehreren Jahrzehnten halt auf weniger als mehrere Jahrzehnte. Wow, krass.
- Was du persönlich als günstig empfindest, ist hier mal überhaupt nicht relevant. Tatsache ist, die 3080 ist zum Nvidia Preispunkt sogar günstiger als der namentliche Vorgänger und bietet statt dem kleinen 104 Chip diesmal den größeren 102 Chip, somit ist sie ein gutes Angebot, da gibt es überhaupt nichts zu diskutieren. Die 3090 ist unvernünftig, wie andere Karte davor auch schon. Manche möchten sie trotzdem kaufen, nicht jeder muss jeden Euro zweimal umdrehen, so what?
- Offensichtlich übersteigt die Nachfrage massiv das Angebot, dennoch ist es kein "Paperlaunch", es wurden ja Karten geliefert. Allein hier im Forum ist gestern ja doch der ein oder andere glücklich geworden. Nachdem AMDs Boardpartner ihre Karten gerade erst zusammenstricken und AMD dieses Jahr wohl auch kaum noch riesige Stückzahlen aus der 7nm Fertigung bekommen wird, sollte man sich mit der Häme vielleicht auch erstmal zurückhalten - das könnte nach hinten losgehen.
- Nur weil Igor das jetzt mal in den Raum gestellt hat, ist das noch kein Fakt. Hier sind auch Leute im Forum, die gar keine Probleme mit solchen Karten haben. Wenn es stimmt, ist es vielleicht ein Grund die günstigen Modelle zu meiden. Eine Garantie auf 2GHz hat es aber so oder so niemals gegeben, weder von Nvidia noch von den Boardpartnern!
- Den Rest spar ich mir, ich geh jetzt zocken