NVIDIA macht die GeForce RTX 2080 Ti, RTX 2080 und RTX 2070 offiziell

Und am Ende jammern sie dann alle, wenn AMD den Anschluss verliert und NVIDIA sich das absolute Monopol sichert.


AMD diktiert indirekt was an features kommen wird, und was bleibt bzw. grad wieder im erdboden verschwindet.... weil AMD beliefert sony & MS mit den konsolenchips, und die konsolen diktieren den grafikmarkt indirekt, da spiele zu 99% erst für konsole programmiert werden, und dann erst umgenudelt auf PC... fazit: wenn AMD nicht will das RT sich durchsetzt(wirds die kommenden 6 jahre eh nix, weil vor PS6 passiert auf konsolen diesbezüglich nämlich garnix), passiert mit RT das gleiche wie mit PhysX :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich halte es außerdem für Wunschdenken, dass Turing bei der Effizienz der ALUs deutlich zugelegt hat und diese sind nun mal für FP32 Berechnungen ausschlaggebend. Der größte Performance Sprung von Maxwell zu Pascal gelang hauptsächlich auch nur über die Taktfrequenz. Was für diese Theorie spricht ist, dass nVidia die Generationen selbst ausschließlich anhand der RT Performance verglichen hat. Sonst gab es immer tolle FP32 Charts.

Vielleicht will man auch nur den Abverkauf der Pascal Karten nicht im Wege stehen. Es wurde definitiv an den Shadern gearbeitet. Ich gehe davon aus, dass vieles davon noch gar nicht gezeigt wurde oder irgendwo in Form eines Whitepapers einsehbar ist. Das dies nun für dramatische Leistungssprünge sorgt, daran glaube auch ich nicht, aber erwarten könnte man hier schon 5-10%. Zusammen mit der Erhöhung der Anzahl an Shadern (3584 zu 4352 --> ca. 22% mehr) könnte man hier schon von rund 30% ausgehen. Es ist jedenfalls im Bereich des Möglichen und kein Wunschdenken.

NVIDIA Reveals Next-Gen Turing GPU Architecture: NVIDIA Doubles-Down on Ray Tracing, GDDR6, More
 
OK es wäre halt schön, wenn AMD dazu mal was offizielles sagen würde ...
NVIDIA macht die GeForce RTX 2080 Ti, RTX 2080 und RTX 2070 offiziell - Seite 16

In meinem Post findest du die Aussage von AMD bezüglich DXR (und die ist bereits vom März) inkl. Link zu Tweak Town
AMD hat nur keine speziellen HW-Einheiten für RT wie die TensorCores bei den neuen RTX

Ich bin mir sicher, NV bringt alles unterhalb der 2070 als GTX ohne die TensorCores um Geld zu sparen bei der Fertigung.

AMD diktiert indirekt was an features kommen wird, und was bleibt bzw. grad wieder im erdboden verschwindet.... weil AMD beliefert sony & MS mit den konsolenchips, und die konsolen diktieren den grafikmarkt indirekt, da spiele zu 99% erst für konsole programmiert werden, und dann erst umgenudelt auf PC... fazit: wenn AMD nicht will das RT sich durchsetzt(wirds die kommenden 6 jahre eh nix, weil vor PS6 passiert auf konsolen diesbezüglich nämlich garnix), passiert mit RT das gleiche wie mit PhysX :d
Ja, merkt man richtig sehr sich die Konsolenprogrammierung in den letzten Jahren positiv für AMD ausgewirkt :wall:
 
Zuletzt bearbeitet:
Naja bis jetzt tut sich ja noch nichts. :d

Die Vega 64 mit 525€ ist auch nicht übel.

Ich will einfach upgraden. :d
 
Im Endeffekt zählt weiterhin die FP32 Performance, bei Spielen so wie wir sie Heute spielen. RT jetzt schon als DAS Feature anzupreisen, wo 99% der Käufer noch keinen (preislichen) Zugang zu dieser Technologie haben, ist Naiv. Ich halte es außerdem für Wunschdenken, dass Turing bei der Effizienz der ALUs deutlich zugelegt hat und diese sind nun mal für FP32 Berechnungen ausschlaggebend. Der größte Performance Sprung von Maxwell zu Pascal gelang hauptsächlich auch nur über die Taktfrequenz. Was für diese Theorie spricht ist, dass nVidia die Generationen selbst ausschließlich anhand der RT Performance verglichen hat. Sonst gab es immer tolle FP32 Charts.

Das sehe ich ähnlich.

Pascal ist eigentlich weitesgehend ein geshrinkter Maxwell. Die Takterhöhung ist verantwortlich für den Leistungsgewinn.
Bei Turing ist der Schwerpunkt zumindest aus Sicht der Präsentation von der Gamescom RT. Es war nix von der FP32 Performance zu sehen.

Könnte es sein das Nvidia den Turing Release deswegen so sehr verzögerte (Ursprünlicher Start war April 2018 angesetzt), weil die in der Präsentation angepriesene Games mit Raytracing einfach noch nicht fertig waren?
Was nützt eine GPU mit RT wenn es keine Games gibt? Das Killer-Feature RT wäre vorerst verpufft.

Aber so erscheinen nun die neuen RTX Karten fast zeitlich mit einigen Blockbustern mit fertiger RT-Unterstützung zu einem Preis der es wirklich in sich hat.
 
Zuletzt bearbeitet:
Wenns nur das wäre, wären die Karten nicht erst in einem Monat verfügbar.
 
Aber nur durch Unterstützung der SW Entwickler ist einigermaßen sicher gestellt, das die RT Bombe maximalen Schaden anrichtet, daher glaube ich schon daran eine Verzögerung von Turing bewusst eingesetzt wurde.
 
Ohne Takterhöhung erwarte ich keine nennenswerte Steigerung bei FP32. 2,5 GHz sind da schon Pflicht. Zwischen 1080 und 1080 Ti waren immerhin 40 % mehr Shader (1024). Jetzt sind es noch 30 %, die müssen aber auf 2 GHz laufen um mitzuhalten. Auf 2,5 GHz ginge es dann auch eher Richtung 50-60 % was für mich Mindestanforderung für einen Wechsel wäre. Dafür sind die Karten viel zu teuer.
 
Jeder kann die neue Generation kaufen wenn er will. Jedoch unterstützt man damit halt auch direkt diese Preispolitik. Wo das endet steht dann in den Sternen. Eine 7 nm 3080ti wird dann aber sicher nicht unter 1500€ kosten wobei es dann irgendwann interessant wird, welche Karten man dann noch für 250-350 anbieten wird.

Das sehe ich auch so.

Zu den Preisen der Karten möchte ich noch folgendes anfügen:
Wenn es sich nicht lohnen würde einen Mittelklasse Chip zusätzlich zu entwickeln, würde NVidia es nicht machen. Verkauft wird der sowohl im Spieler-Bereich als auch im Profisegment.
Es werden also unabhängig vom anderen Bereich Gewinne eingefahren.
Es gibt dazu nur eine Richtung und die lautet Kosten runter, Kosten runter, Kosten runter. Egal wo.
Dazu werden immer mehr Chips verkauft, sowohl wegen Mining, als auch im Profi Segment.
Wenn man sich mal vor Augen hält:
Der GT200 wurde durch den Preiskampf mit Atis 4870 als 260er in der Schlussphase für unter 150 Euro verkauft (großer Die beschnitten)
und die 280er für um die 300 Euro.
Erst bei diesen Preisen wollten die Partner nicht mehr verkaufen, weil der Verkauf nicht mehr genügend abwerfen würde und das bezog sich eher auf die 260er.
Da kann man sehen, wo die ungefähre Grenze nach unten damals lag.
Die PCB waren 14 lagig und deutlich unaufgeräumter, als es die heutigen PCB sind.
Wenn man dann mal dort fortsetzt, fällt auf, dass die Referenz-PCB die letzten Jahre fast alle komplett gleich blieben. Da ist also nie in dem Bereich großer Entwicklungsaufwand betrieben worden.
Die Adaption eines neuen Chips/DDR Version darauf, kann keine riesigen Kosten nach sich gezogen haben. Im Einkauf (bzw. Produktion) mögen Chip und RAM etwas teurer geworden sein, aber sicherlich nicht gigantisch.
Der Kühler wurde auch über Jahre mal optisch modifiziert, aber im wesentlichen beibehalten (erst jetzt mit Turing erfolgte wieder ein großer Umbau)
Dazu die o.g. Absatzsteigerung in allen Bereichen. 12nm statt 16nm, sind kaum ein Unterschied, durch den bekannte Prozess hat man trotzdem bessere Yields, trotz größerer Chips. Durch den Verkauf beschnittener Chips werden die Yields weiter erhöht.
Das alles lässt eher den Schluss zu, dass die neueren Karten, auch Turing, mehr Gewinn abwerfen, als noch als vor 10 Jahren.
Ich kenne die reinen Kosten nicht, die wird NVidia auch niemals auf dem Silbertablett liefern, aber in meinen Augen könnte die 2080ti auch problemlos, nach dem erst recht Schluss, für 500-600 Euro verkauft werden, ohne das NVidia in Bedrängnis käme.
Das es nun 1260 Euro sind, ist den bekannten Gründen geschuldet. Es kann ja jeder selbst beurteilen, ob es einem das wert ist, wobei ich meine Meinung hier mal für mich behalte.
Das Argument mit den Entwicklungskosten zieht auch nur sehr begrenzt. Würde die Hardware nur extrem langsam fortentwickelt werden, wären zu einen die Softwareentwickler mehr gefragt. Zum anderen würden die Käufer noch seltener Ersatz beschaffen bzw. Anreiz dazu sehen, es besteht ja erst recht keine Grund dazu, es sei denn eine Karte geht kaputt. Natürlich kommen auch noch ganz andere Faktoren dazu, wie Konsolenentwicklung, TFT-Entwicklung, Forschung etc...weshalb es stete Entwicklung bzw. "Leistungsbedarf" gibt.
 
Zuletzt bearbeitet:
NV dürfte es jedenfalls geschafft haben, den Gegner stark zu verunsichern, wenn nicht sogar total in die Irre geführt zu haben.
Denn stellt euch eine neue Midrange von AMD vor die kein RT unterstützt, was dann Frau Merkel :confused:

AMD ist nun maximal unter Druck gesetzt, bin nicht so sicher, ob alles positiv ist.
 
AMD juckt das nicht die Bohne, da RT noch nichtmal da ist, wo nVidia es gern hätte und dies proklamiert.

Erstmal abwarten was offene RT Standards und AMD Karten so für ein Bild abgeben, denn mal Hand aufs Herz - bei DX12 bekleckert sich nVidia nicht gerade mit Ruhm.
 
Warum sollte AMD maximal unter Druck gesetzt sein? Die breite Masse hat und wird auch so schnell keine Hardware besitzen die RT kann. RT wird noch für sehr sehr lange Zeit eine reine Grafik Option bleiben die man AN und AUS schalten kann. NVIDIA PhysX war genau so ein Flop, da haben am Anfang auch alle Panik gemacht das unbedingt zu brauchen. Rasterisierung bei Spielen bleibt uns noch lange erhalten. Aktuelle Konsolen bestimmen wie die Grafik der nächsten Spiele aussieht. Wenn man sich die Steam Statistiken anschaut, was der Durchschnittsgamer so im PC verbaut hat, sollte AMD eher Fokus darauf legen preislich attraktive und konkurrenzfähige Mid-Range Karten zu produzieren.

Für mich ist der ganze RT Hype nichts weiter als eine gute Marketing Kampagne und nicht wenige fallen darauf rein.
 
Zuletzt bearbeitet:
Was man hier in manchen Kommentaren lesen muss, ist erschreckend und spiegelt leider perfekt unsere Gesellschaft wieder, ekelhaft.

Wären alle Nvidia Kunden so wie einige hier würden wir schon längst Quadro/Tesla Preise für Gamingkarten zahlen und genau da scheint die Reise hinzuführen... hoffentlich wirds mit der nächsten Generation wieder anders, ansonsten kann man nur auf Konkurrenzdruck seitens AMD/Intel hoffen, die Käufer scheinen es nicht hinzubekommen (was allerdings auch echt hart ist bei einem Quasi Monopol).

Nun gibt es noch 2 Theorien warum NV jetzt schon ne TI bringt:

1. Die non RTX Performance ist mau
2. Sie wollen nächstes Jahr schon ne Generation in 7nm bringen.

Bis Raytracing sich in Games durchsetzt, wird Turing schon viel zu langsam sein...

Bzgl. der Preisdiskussion scheinen einige hier auch nen fundamentalen Fehler zu machen.

Nur weil die 2080 schneller ist als die 1080 heißt das nicht, dass man da XY% mehr zahlen soll/muss für die gleiche Klasse an Chip.
Eine neue Generation soll dazu anregen wieder ein Produkt der Firma zu kaufen... hier scheinen einige zu jung zu sein um zu wissen wie der Hase läuft bzw. gelaufen ist.
 
Zuletzt bearbeitet:
@Razorlight ich vermute eher das 2.

Gesendet von meinem RNE-L21 mit Tapatalk
 
NV dürfte es jedenfalls geschafft haben, den Gegner stark zu verunsichern, wenn nicht sogar total in die Irre geführt zu haben.
Denn stellt euch eine neue Midrange von AMD vor die kein RT unterstützt, was dann Frau Merkel :confused:

AMD ist nun maximal unter Druck gesetzt, bin nicht so sicher, ob alles positiv ist.
Ja, natürlich. Weil AMD das überhaupt nicht mitbekommen hat. Und auch eine gewisse, auch wenn u.U. nur eine minimale, Flurpost, exisitert dazu bei MS auch nicht. Obwohl das nur mit DirectXR läuft. Und AMD die Chips auch für MS entwickelt.

Ja. NV hat AMD total in die Irre geführt. Sicher... :fresse:
 
Gut aber seit ihr nicht der Meinung, dass AMD auf RT reagieren muss?
 
Nein. Weil 90 - 95 % der Spieler weder 600+ € für eine Mittelklassekarte ausgibt noch wird RT sonderlich breite Unterstützung erlangen.
 
@Performer
Womöglich hast du ganz recht, man muss einfach mal locker bleiben. ;)

@Jon
Das wäre eine Reaktion, keine Frage! :)
 
@Holzmann
Ah sag an? Ich weiß jetzt zum zweiten nicht was du für eine Vorstellung von dem ganzen hast :fresse: Die nächste XBox wird DXR fahren. Und AMD entwickelt die Chips dafür. Und DXR ist auch nicht in paar Monaten entstanden. Meinst du NV hat jetzt 10 Jahre Vorsprung vor AMD oder wie? :)

Alle haben sofort angefangen dadran zu basteln, nachdem Intel vor etlichen etlichen Jahren plötzlich davon sprach. Und Intel kommt ja bald auch mit GPUs. Weil NV im Intels Revier wildert. Also wird das halt gekontert, und der Konter wird DXR können.
Angesichts dessen hat Intel auch aufgehört AMD nieder zu machen und möchte nun nur einen halbwegs gebührenden Abstand wahren. Warum wohl?
Und das hier? ;)
Mini-PC-Test: Intels ziegelsteingroßer Spiele-NUC mit AMD Vega-Grafik | c't Magazin

Was meinst du warum NV plötzlich so Hackengas gibt? Die wissen genau was ihnen blühen kann, wenn sie nur 1x nicht aufpassen.

@Elistaer
DXR ist DX12 mit paar RT-Effekten die in Hardware beschleunigt werden. Wer DXR mit brauchbaren FPS machen will (Engines), der muß erstmal, wie auch endlich ;), brauchbares DX12 bringen.

@Jone
Die integrieren was sie sollen und nciht was sie möchten. MS will das haben, weil sie DXR haben. Also wird die PS5 sowas auch haben. Und Intel bringt es wie gesagt auch. Das Ding ist durch. Nur Vulcan muß noch nachziehen.
 
Zuletzt bearbeitet:
Gut aber seit ihr nicht der Meinung, dass AMD auf RT reagieren muss?
Liest du eigentlich auch was man dir schreibt?
AMD ist nicht überrascht und braucht aktuell auch nicht zu reagieren. Sie arbeiten genauso wie NV gemeinsam mit MS an DXR, das Statement von AMD vom März 2018 hab ich Dir schon verlinkt.
Und schon vorher kam NV mit seinen Tensor Cores auf den Markt, wenn auch nur im Bereich über den "normalen" Gaming-Karten.

Für MidRange hat NV doch auch nichts im Angebot dass auf RT abzielt, ich bezweifle dass sie eine Karte in der Liga einer aktuellen 1050Ti oder 1060 bringen die wirklich Tensor Cores hat.
Die wissen doch genau dass der Bereich extrem preissensitiv ist, daher wird es in Zukunft (die nächsten 2-3 Generationen) für Gamer eben GTX & RTX-Karten geben, RTX im oberen Segment, GTX darunter.

AMD muss sich etwas für sein nächstes Top-Modell einfallen lassen, aber nicht heute und du kannst dir sicher sein dass sie das nicht erst seit der Präsentation vorgestern wissen.
 
Liest du eigentlich auch was man dir schreibt?
AMD ist nicht überrascht und braucht aktuell auch nicht zu reagieren. Sie arbeiten genauso wie NV gemeinsam mit MS an DXR, das Statement von AMD vom März 2018 hab ich Dir schon verlinkt.
Holzmann ist für mich Fanboy in vermeindlich pfiffig. Der versucht es fortlaufend möglichst unschuldig und möglichst weit hintenrum :) Ich lach jedes Mal auf, wenn ich was von ihm lese. Sehr pfiffiges Kerlchen ;) -> Der Vega Sammelthread wäre fast ein Geniestreich gewesen...
 
Zuletzt bearbeitet:
Gut aber seit ihr nicht der Meinung, dass AMD auf RT reagieren muss?

Nö wieso?

Ist doch wie PhysX und wenn sich nicht plötzlich ein Loch auftut aus dem 400-500% mehr Performance mit dem bisschen RT kommen, dann ist RT schneller weg als es da war.

Ich kann dir die Antwort seitens AMD jetzt schon nennen, denn die Jungs sind nicht blöd nur weil sie keinen 1080 Ti Gegner haben.

Die AMDler werden DX12 RT nutzen und für sich in den Treibern optimieren. DAS gepaart mit der aktuellen und kommenden Konsolen-Gen, welche ja immernoch komplett in AMD Hand sind und noch bleiben werden, wird nVidia schon vom hohen Ross holen.

Es bringt dir nichts große Titel mit "nVidia Gameworks" zu versorgen, wenn der große Absatz auf den Konsolen das eh nicht nutzt und ebenso ein großer Teil der aktuellen Gamer auf Grund perversen Preise nVidias eh nicht in den Genuss kommt.

AMD hat doch irgendwie immer den offenen Gegenpart zu Gameworks Spielereien geboten, sei es Tesselation, Hairworks-Krempel oder oder oder.

Allein das Debakel um ARK vs Maxwell vs Pascal vs DX12 Patch war eigentlich offensichtlich genug um zu zeigen, wieviel Macht ein GPU Entwickler hat. TWIMTBP Game goes DX12 ... NOT. Kein Wunder bei den Leistungswerten unter DX12...
 
Der Vega Sammelthread wäre fast ein Geniestreich gewesen...
Mich würde interessieren, wie dieser Satz weiter geht und endet. ;)

@Topic
Das AMD Einfluss durch die Konsolen auf RT hat sehe ich ein und auch das sie wohl nicht überrascht sein dürften von dieser Entwicklung.
 
@BessereHälfte

Genau das habe ich auch die ganze Zeit geschrieben, und indirekt wird das AMD helfen schaut man sich bei besserer DX12 Leistung in spielen den Sprung der AMD GPU an. Ich würde jetzt nicht mit 40 - 50% daher kommen aber 30% wäre gut möglich was vor allem Vega hilft dann wäre diese im Niveau der GTX 1080TI/rtx 2080 eventuell sogar je nach Spiel drüber.

@Holzmann

AMD wird auch noch mit DXR kommen aber nicht bei Navi oder Vega 20(sollte diese je den Endkunden [Gamer] erreichen) Ich würde eher davon ausgehen das sie schon an einer Lösung arbeiten wurde ja bestätigt das es keine konkreten Pläne für high end GPUs gibt. Bei Navi könnte ich mir vorstellen das diese noch besser mit DX12 arbeiten werden als noch die rx480 (Polaris).

Gesendet von meinem RNE-L21 mit Tapatalk
 
AMD wird auch noch mit DXR kommen aber nicht bei Navi oder Vega 20(sollte diese je den Endkunden [Gamer] erreichen) Ich würde eher davon ausgehen das sie schon an einer Lösung arbeiten wurde ja bestätigt das es keine konkreten Pläne für high end GPUs gibt.
Weil Nvidia JETZT die ersten DirectXR Karten vorstellt und die Schweinegeld kosten, sagt überhaupt nichts darüber aus, daß RT etwas mit "high end GPUs" zu tun hat. Navi kann das ohne weiteres haben. Auch als zum Zeitpunkt keine highend GPU (gegenüber RTX 2080 oder was auch immer).

Das ist einfach nur DirectXR. Schnallt das mal endlich ;) NV kann eine weitere Version von DirectX nicht mehr ausbremsen. Der Trick gelang nur 1x mit bzw. gegen DX12. Nochmal geht das nicht, weil sie das R in DirectXR brauchen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh