Kommen die GeForce-RTX-Karten zu früh?

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.636
geforcertx2080ti.jpg
Die Veröffentlichung der Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 jeweils in der Founders Edition hat einige Fragen aufgeworfen. Die wichtigste Frage ist dabei, ob NVIDIA die neuen RTX- und NGX-Funktionen einfach zu früh angepriesen hat, oder ob man sich hätte später mehr darauf konzentrieren sollen, anstatt die Werbetrommel schon zum Start derart stark zu rühren.NVIDIA sieht in weiteren Effekten für die Beleuchtung, Verschattung und für Reflexionen eine Möglichkeit, die...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da bin ich der gleichen Meinung. Ich denke nicht, dass es zu früh vorgestellt wurde, aber man darf im Vorfeld nicht so mit den Werbetrommeln spielen und hoch jauchzend in den Himmel loben (siehe AMD RX-Serie). Die Enttäuschung überwiegt, nicht nur wegen den Preis. Gut, für mich wären diese Karten eine Bereicherung, schon wegen den Potentialen die in dieser Technik drin stecken. Jetzt liegt es an den Softwareentwickler diese Möglichkeiten auszuschöpfen und Kinderkrankheiten im Treiber auszumerzen.
 
Noch steckt das ganze in den Kinderschuhen.... Erst wenn im Oktober Redstone 5 kommt für Windows 10 wird RTX doch erst unterstützt. Ich glaube mit RS4 ist es
nur über umwegen möglich. Deswegen gibts ja auch noch keinen RTX Patch für Tombraider.
 
Scheinbar ist aber DLSS recht einfach zu implementieren und bringt gegenüber anderen AA Modi doch ansehnlich weniger Leistungsabfall.
So werden auch Spiele wie Hellblade: Senua's Sacrifice wohl DLSS bekommen obwohl das Spiel selbst doch eigentlich schon "durch" ist Releasetechnisch.

RTX wird da wohl mehr Aufwand machen ABER die Streubreite der Auflösung ist extrem und somit die Anforderungen. Nichts ist ärgerlicher als eine Potente Grafikkarte die Grafikfehler produziert oder nicht kompatibel ist obwohl die Rohleistung vorhanden wäre. Die 2080 von Heute ist eben die FullHD Grafikakrte von morgen, aber das klappt nur wenn das Featureset mitspielt.
 
Zuletzt bearbeitet:
Rund wäre für mich die RT Geschichte gewesen, wenn Karten im mittleren Leistungsbereich auch davon profitieren würden, so ist es ja zunächst zur der Highendklasse vorbehalten. Ok mag derzeit leistungstechnisch nicht anders gehen aber welcher Softwareentwickler macht sowas nur für den kleinsten Anteil von Karten am Markt, wenn er nicht massiv von NV subventioniert wird?

Denn eins sollte bereits jetzt klar sein, flächendeckend kann sich sowas nur durchsetzen wenn der gesamte Markt davon profitieren kann, das ist ein marktwirtschaftliches Gesetzt.

Ich sehe dort eine Parallel zu AMD Vega und den versprochenen Features, bei AMD hat es auf Grund von fehlenden Mitteln nicht geklappt bei NV sind die Chancen aber sehr gut. Ich hätte es besser gefunden, wenn RT mit den RTX Karten auch ein Softwareangebot zeitgleich zur Seite gestanden hätte. Die Frage, ob zu früh oder nicht, kann derzeit eher also nicht eindeutig beantwortet werden. Diese Frage stellt sich also zu früh. ;)

@Luxx

Eine Umfrage mit dem Titel wäre vielleicht noch eine tolle Ergänzung. :)
 
Zuletzt bearbeitet:
Nvidia muss aber irgendwas neues bringen damit die Aktionäre wieder mehr Geld verdienen.

Ob zu früh oder nicht vieles kommt von den Aktionären die erwarten jedes mal ein Plus auf dem Konto.

Gesendet von meinem GT-I9305 mit Tapatalk
 
@Dragon

die shareholder wären aber sich auch zufrieden gewesen, wenn NV neue Karten gebracht hätte, die einfach ohne Vorbehalt in Masse verkauft würden, weil sie einfach für die breite Masse mehr Leistung geboten hätten.

So ist erstmal ein Invest in eine potentielle Stärke, die noch entwickelt werden muss, die zb erfordert dass RT auch der breiten Masse zur Verfügung gestellt muss und da fehlen die Produkte noch.

Daraus könnte sich aber auch noch ein interessanter Wettbewerb ergeben zw. NV u. AMD, wer bringt die besten Mittelklasse Karten in Zukunft, spannend oder?
 
Die Karten haben aber für Gamer kaum was zu bieten. Die Mehrleistung ist mickrig verglichen mit dem was sonst üblich ist. Das muss man sich nicht schönreden. Die Chips sind riesig und teuer, da sie offenbar auch nicht für die Gamer gemacht wurden, sondern für die Quadros, die RTX sind nur die Ausschlachtung teildefekter Chips. Leute die Nutzen von Tensor Cores ziehen haben es jetzt wirklich gut, da man jetzt keine Titan V mehr dafür kaufen muss, für Gaming sind die Turingkarten aber nur bedingt geeignet. Zu dem Preis werden sie sich vorerst nicht durchsetzen.

Ein paar Leute kaufen es immer, aber wie schon gesagt wurde, der Massenmarkt entscheidet ob sich etwas durchsetzt. Und von dem DLSS-Zeug würde ich mir auch nicht zu viel erhoffen, 60 % Leistung in 4K, das glaubt ihr doch selber nicht? Es ist ja toll wenn sie das in einem darauf optimierten Benchmark hinbekommen, ich lebe aber in der realen Welt wo reale Spiele gespielt werden. Und solange das nicht in jedem Titel fehlerfrei nutzbar ist ist es für mich irrelevant.
 
Die Karten haben aber für Gamer kaum was zu bieten. Die Mehrleistung ist mickrig verglichen mit dem was sonst üblich ist. Das muss man sich nicht schönreden. Die Chips sind riesig und teuer, da sie offenbar auch nicht für die Gamer gemacht wurden, sondern für die Quadros, die RTX sind nur die Ausschlachtung teildefekter Chips. Leute die Nutzen von Tensor Cores ziehen haben es jetzt wirklich gut, da man jetzt keine Titan V mehr dafür kaufen muss, für Gaming sind die Turingkarten aber nur bedingt geeignet. Zu dem Preis werden sie sich vorerst nicht durchsetzen.

Ein paar Leute kaufen es immer, aber wie schon gesagt wurde, der Massenmarkt entscheidet ob sich etwas durchsetzt. Und von dem DLSS-Zeug würde ich mir auch nicht zu viel erhoffen, 60 % Leistung in 4K, das glaubt ihr doch selber nicht? Es ist ja toll wenn sie das in einem darauf optimierten Benchmark hinbekommen, ich lebe aber in der realen Welt wo reale Spiele gespielt werden. Und solange das nicht in jedem Titel fehlerfrei nutzbar ist ist es für mich irrelevant.


Das Unterschreibe ich so, dlss wird toll aber ich will damit die Spiele spieln die JETZT Verf sind und nicht erst in MONATEN...da nutzen mir auch max 60 % nichts...für DEN PREIS schon GARNICHT
 
Zuletzt bearbeitet:
Das ist ja die Sache, es sind leere Versprechungen, ob das jemals so eintreten wird ist fraglich, wenn dann nur in AAA-Krachern. Was bringt es mir so eine Karte zu kaufen wenn ich die Extrafunktionen erst in zwei Jahren nutzen kann wenn die Karte schon wieder zu schwach ist? RT ist kein Argument, bleibt nur die DX11-Leistung und da ist sie nunmal überteuert.
 
DLSS ist ja sowas wie Checkerboard Rendering.
Stellt man 4K ein wird nicht mit 2160 gerechnet sondern mit 1440p und dann in 4K hochgerechnet und genau deshalb bekommt man mir DLSS auch mehr Leistung als mit nativem 4K
das ist das Gleiche Prinzip wie es auch bei der PS4 zum Einsatz kommt, das sieht dann zwar gut aus aber in Bewegung kann es zu Artefakten kommen und Texturen sehen weniger Brillant aus als bei nativem 4K


Das schlimme dabei ist einfach das die Entwickler das ins spiel implementieren müssen damit das Läuft und wie viele das wohl machen kann man sich denken.

BF5 z.b. hat sein eigenes Checkerboard eingebaut und so wird das bestimmt auch bei vielen anderen Games laufen weil man somit AMD karten nicht ausschließen würde
 
Zuletzt bearbeitet:
Was wäre die Alternative gewesen? Noch ein halbes Jahr die Hardware zurückhalten, bis im Frühjahr 15 bis 20 Spiele mit RTX-Unterstützung in der Hinterhand liegen und dann die Hardware auf den Markt werfen – eine koordinierte Veröffentlichung von Hard- und Software sozusagen. Schwierig, denn NVIDIA wird langfristige Roadmaps für seine weiteren GPUs und Architekturen haben. Gleichzeitig sind Spieleentwicklungen auf einen bestimmten Launch-Tag ausgelegt, was danach kommt, ist allenfalls Update-Pflege. Ob mit einem zeitlichen Abstand von ein paar Monaten nach dem Release noch ein Spieleentwickler dazu bereit ist, sich noch einmal an grundlegende Grafikeffekte zu setzen, ist eher unwahrscheinlich. Dies muss im besten Fall gleichzeitig mit der Entwicklung des Spiels selbst geschehen.
sie hätten die neuen funktionen einfach nicht derart anpreisen müssen. dann wäre auch nicht so eine erwartungshaltung erzeugt worden.

dann hätte raytracing irgendwann mal langsam und unbemerkt mit irgendeinem blockbuster einsickern können. und in der nächsten generation, wenn dann mehr hardware-basis und vor allem vorzeige-spiele vorhanden sind, hätte man das ganze offensiver bewerben können. hey, rtx v2 ist toll und es gibt auch schon ein paar tolle spiele. und überraschung ... käufern von rtx v1 kommt das auch zu gute. habt ihr nicht mit gerechnet? ja, wir sind schon ein toller konzern und haben nur das wohl unserer kunden im auge.

Die RTX Karten kommen nicht zu früh, sie sind einfach nur zu teuer. Eine 2080 sollte 699€ und eine 2080Ti 999€ kosten und die GTX Serie sollte eingestellt werden !!!
wenn turing in der herstellung evtl. deutlich teurer ist als pascal, dann bedingt sich das ja. nur dass man den mehrpreis für etwas bezahlt, dass man speziell im falle von raytracing eine weile nicht wird nutzen können.
 
Zuletzt bearbeitet:
Die RTX Titan dann für 1150 mit verbesserter Platine und 330Watt PT +20% :bigok:
für 999€ zum start wäre die RTX 2080ti echt schon ok
 
Die Karten haben aber für Gamer kaum was zu bieten. Die Mehrleistung ist mickrig verglichen mit dem was sonst üblich ist. Das muss man sich nicht schönreden. Die Chips sind riesig und teuer, da sie offenbar auch nicht für die Gamer gemacht wurden, sondern für die Quadros, die RTX sind nur die Ausschlachtung teildefekter Chips. Leute die Nutzen von Tensor Cores ziehen haben es jetzt wirklich gut, da man jetzt keine Titan V mehr dafür kaufen muss, für Gaming sind die Turingkarten aber nur bedingt geeignet. Zu dem Preis werden sie sich vorerst nicht durchsetzen.

Ein paar Leute kaufen es immer, aber wie schon gesagt wurde, der Massenmarkt entscheidet ob sich etwas durchsetzt..
Hätte Nvidia diese Karten kleine Quadros genannt, dann wären die gamer auch gar nicht großartig auf die Idee gekommen Vor allem wegen dem Preis.
Wären diese Karten eher im workstation Bereich angesiedelt und würden die auch so aussehen.....

Aber hey, gaming hardware geht immer gut, selbst wenn sie teuer ist!
Titan hat eher weniger den Ruf fürs gaming, Quadro gar nicht. Nehmen wir halt was neues um die Krüppel-Quadro-Chips an den Mann zu bekommen, RTX, um den horrenden Preis gegenüber GTX rechtfertigen zu können. :banana::banana::banana: Ich liebe es!
 
Na für mich sieht das ganze aus wie damals mit dern Phx Karten. Wenn die Spielehersteller nun kein RT verwenden hat man als 2080/Ti Besitzer so ziemlich die A Karte gezogen.
 
Da wir hier in diesen Diskussionen iwi immer wieder auf den Preis kommen, muss da wohl auch was dran sein, vielleicht möchte NVIDIA mit den neuen Karten auch erstmal testen bis zu welcher Grenze die Käufer bereit sind mit zu gehen. Und das macht man besser früh als zu spät.

Der Vorsprung der reinen Spieleleistung ist halt zu gering und die neuen Features lässt sich NV durch die Enthusiasten vorausbezahlen, es ist zu offensichtlich, leider.
 
Das sind Enthusiast-Karten. Das ist nix für den Massenmarkt, von daher sind solche Innovationen dort richtig und wichtig. NV wird schon genug Visionäre haben, um ganz genau zu beurteilen, wo die Zukunft hingehen kann. Unüberlegt ist die Entwicklung nicht. Diese Mehrkosten, die der Chip inne hat, wird man nicht im Massenmarkt sehen, zumindest noch nicht. Ich halte beide Entwicklungen einen interessanten weg, den Gaming-Markt weiter zu bringen. Einfach nur mehr Leistung ist derzeit zwar auch möglich, da Nv die die nächsten Jahren wenig Konkurrenz ganz oben hat, kann man testen und probieren, ohne Geld verbrennen zu müssen.
Ich sehe beispielsweise hohe Auflösungen als absolute Zukunft an, sei es 4K oder 8K. Das vereinfacht zugleich Bildverbesserungen, die neben den Vorteilen auch Nachteile mit sich bringen. DLSS sehe ich, nach bisherigem Kenntnisstand als wirkungsvolle Alternative an, man denke nur an all die Verfahren, die NV schon raus gebracht hat, da wird einem schwindelig.
 
Ganz bestimmt kauft man sich auch eine 1300 € GPU um dann zu upscalen... Da ist eine Konsole billiger.
 
"Innovationen sind nur dann richtig und wichtig, wenn sie es ganz bis nach unten schaffen"

Henry Ford ;)
 
Da wir hier in diesen Diskussionen iwi immer wieder auf den Preis kommen, muss da wohl auch was dran sein, vielleicht möchte NVIDIA mit den neuen Karten auch erstmal testen bis zu welcher Grenze die Käufer bereit sind mit zu gehen. Und das macht man besser früh als zu spät.

Der Vorsprung der reinen Spieleleistung ist halt zu gering und die neuen Features lässt sich NV durch die Enthusiasten vorausbezahlen, es ist zu offensichtlich, leider.

Deswegen heisst es ja auch Turing Test! Das ist kein Zufall
 
Zu früh glaube ich eher nicht, nur sind die RTX-Karten für mich eher Spezial-Hardware für Spezial-Effekte und nichts für den normalen Spieler.
Zum Einen einfach wegen der Preise, >500€ hat bisher aus meinem Bekanntenkreis noch niemand für eine Grafikkarte bezahlt und 1200€ ist dann doch eher das Budget für den gesamten Gaming-Rechner.
Zum Anderen ist für die Meisten eher interessant, ob das gewünschte Spiel in >60 FPS mit nativer Auflösung und entsprechend guten Grafiksettings läuft.
Bei FullHD kein Thema mehr, aber so langsam kommt 1440p und UHD auch bei den "normalen" Gamern an und da ist es mit der aktuellen 300-400€ Klasse noch relativ ruckelig.
Da liegt das Geld in Masse auf der Straße, eine Karte für ~400€ die aktuelle Games flott in UHD rendert wird sich gut verkaufen, egal ob man da ein paar Raytracing Effekte sieht oder nicht.

Ich persönlich würde mit einer RTX2080ti wohl eher die Raytracing Effekte abschalten und herkömmlich auf UHD zocken, als mir mit Raytracing irgendeine Miniauflösung ala 720p auf UHD hochzuskalieren.
Aber dabei stimmt P/L einfach nicht.

Mfg Bimbo385
 
Zu früh sicher nicht. Aber wohl falsch an den Kunden gebracht.

Das NVidia hier in Vorkasse geht mit der Entwicklung von Hardware ohne Software, ist mal etwas Positives, dass die Kunden ihnen aber als Negativ ankreiden. Muss deprimierend sein.
Geht hier immerhin nicht um etwas nach dem niemand gefragt hätte, sondern etwas das seit Jahrzehnten der Traum vieler Entwickler ist. Und ein erklärtes Ziel von AMD, Intel und NVidia.

Irgendwer musste mit der Hardware anfangen und ich bin froh, dass es NVidia ist.
Wäre es Intel gewesen, wäre der Marktstart von Intel evtl. schief gegangen. Was sich wohl niemand im GPU Markt wünscht. Die Kunden als letztes.
Wäre es AMD gewesen, wäre RT relativ sicher gefloppt aufgrund von fehlendem Budget für Vorkasse, Pushen, Entwickeln und schlichtem überleben bis es ankommt.
NVidia hat die Sicherheit im Kapital, im KnowHow, in den Partnern und in der Fanbase. Sie sind also ganz klar der Richtige in dem Trio um RT zu starten.

Und das Timing hätte perfekter auch nicht sein können. Selbst mit all den genannten Punkten ist das ein riesen Risiko für NVidia. Und sicher enorme Kosten die sie da vorstrecken, nur um richtig langfristig für bessere Grafik zu sorgen. Sicher, wenn es klappt... waren sie die Ersten und machen auch Kohle, aber es kann ja auch schief gehen. Sie tragen hier das volle Risiko. Und deswegen ist das Timing so perfekt: Intel ist noch nicht am Markt. AMD ist so weit hinterher, dass sie keine Alternative sind. Die RTX Generation kann zu 100% floppen und die Marktanteile ändern sich trotzdem nicht. Dann ist es "nur" ein Verlust in der Entwicklung von Turing, aber kein bleibender Schaden, oder ein Zurückfallen hinter Konkurrenten.

Also ja, ich glaube das Timing hätte besser nicht sein können. Auch die Firma hätte keine andere sein können.
Aber das Marketing hätten sie definitiv anders auslegen müssen.
 
Ich bin der Meinung das Nvidia bei der ersten Generation der RTX den Preis hätte etwas niedriger ansetzen sollen, damit der kauf einer solchen Karte für
den Käufer eher gerechtfertigt ist.

Derzeit sehe ich es so das ich solange warte bis ich einen Mehrwert sehe eine solche Karte mit RTX Technik zu kaufen und das auch bis zur nächsten Gen. wahrscheinlich warten kann
und ein nochmals besseren Leistungssprung mitkaufen kann und somit eher ein zufriedenes Gefühl einer solchen Karte bekomme.

Wäre ja schon ärgerlich jetzt eine solche Karte zu kaufen und wenn dann mal in einen halben Jahr ein paar gute Games kommen die RTX unterstützen, aber mir nicht die Leistung bietet die
ich gerne hätte, dann wäre es einfach nur ärgerlich .

Daher warte ich auf jedenfall so lange bis mehr kommt.
 
Für mich war Ray-Tracing kein wirkliches Kaufargument der neuen Karten, da es (wie jetzt immer noch nicht) sicher war, in wie weit man davon in den nächsten 1-2 Jahren profitiert.
Der Preis hat dann noch sein letztes dazu beigetragen am 20.09. eine Pascal GPU bestellt zu haben. Bin mal gespannt ob ich es bereue.
 
Ich bin der Meinung das Nvidia bei der ersten Generation der RTX den Preis hätte etwas niedriger ansetzen sollen, damit der kauf einer solchen Karte für
den Käufer eher gerechtfertigt ist.

Derzeit sehe ich es so das ich solange warte bis ich einen Mehrwert sehe eine solche Karte mit RTX Technik zu kaufen und das auch bis zur nächsten Gen. wahrscheinlich warten kann
und ein nochmals besseren Leistungssprung mitkaufen kann und somit eher ein zufriedenes Gefühl einer solchen Karte bekomme.

Wäre ja schon ärgerlich jetzt eine solche Karte zu kaufen und wenn dann mal in einen halben Jahr ein paar gute Games kommen die RTX unterstützen, aber mir nicht die Leistung bietet die
ich gerne hätte, dann wäre es einfach nur ärgerlich .

Daher warte ich auf jedenfall so lange bis mehr kommt.

Warten kannst du aber immer von gen zu gen. Jetzt momentan ist es so das scheinbar einige ihr letztes Hemd für die 800 bis 1100€ für die 1080 Ti ausgegeben haben und es sich schlicht nicht mehr Leisten möchten oder können eine 2080 TI zu kaufen.
Natürlich kann man auf die neue Gen warten, die ist bis jetzt aber nie günstiger geworden als die vor Gen. Sprich die neue gen wird dann wieder 100 bis 300€ mehr kosten, also 1500 bis 1700€. Dann heulen wieder alle rum und man ist wieder eine Gen später schon bei 2000€. Und alle hocken immer noch mit ihrer 1080/ti rum die warscheinlich um welten schlechter Performt. Einige heulen hier doch nur wegen den Preis und würden trotzdem gerne die 25 bis 40% mit nehmen zur 1080 TI.
Meiner Meinung nach sind die RTX karten nicht zu früh gekommen und die neuen Funktionen auch nicht, einer muss halt mal mit anfangen. Wenn man sich eine 2080TI halt nicht mehr leisten kann, kauft man sich halt was anderes, zum Beispiel eine 2080 die so viel kostet wie die 1080ti und und rund 3 bis 14% mehr Leistung hat.
 
Zuletzt bearbeitet:
manchmal wundert es mich. ich sehe das ganze völlig anders. der turing chip ist nicht viel anders als volta. bei volta war jedem klar, dass es viele teile des chips gibt, die kein mensch braucht. auch wurde thematisiert, dass die gpu hersteller immer mehr auf das profi segment/machine learning usw. hin optimieren, weil dort das fette geld und vor allem das grße wachstum winkt.

was macht man also als schlauer hersteller, dessen größter markt noch die grafikkarte ist? genau, man findet für die brachliegenden kerne/performance einen einsatzzweck. siehe da raytracing lässt sich da irgednwie drauf ausführen.
man klope an paar türen und biete paar joinventures an und fertig ist der lack.

es ist ja wohl nicht so als wäre raytracking jetzt DER shit. eigentlich interessiert es kaum jemanden, sondern es wird viel eher zeit mal in 4k/VR usw. ordentliche performance zu bekommen. mit turing wird das aber jedenfalls kaum passieren, es sei denn man ist bei mehr als 1000€ unterwegs...

tl,dr: man hat für einen profi chip einen einsatzzweck gesucht/gefunden und vermakrtet den jetzt. und alle springen drauf. kritische presse ist so 2008.


p.s. vielleicht sollten einige die sich zu preise äußern mal ein grundverständnis in bwl entwickeln. einfach mal bei wikipedia paar einträge lesen und sich mal einen produktlebenszyklus ansehen und mal lesen was eine zielgruppe ist.
nur weil die TI auch TI heißt ist es nicht die gleiche Karte, da sie fast doppelt so viel kostet. dementsprechend kleiner ist der käuferkreis. Grafikkarten werden auch nicht NUR immer teurer, hauptsächlich wird die innovation immer langsamer. Jemand der mittelklasse GPU kauft, gibt nun mal eben nicht mehr als 3-400€ aus. wenn nur die 800€ gpu besser ist, kauf er trotzdem nicht ohne weiteres eine doppelt so teure gpu, und falls doch, dann betrifft das einen gringen prozentsatz dieser käuferschicht. der rest wartet eben bis es für 300€ mehr leistung gibt.
d.h. es dauert eben länger.
zudem muss man die duetlich längeren produktzyklen auch mit in den preis einrechnen. früher war highend 500€ wert, hielt aber im schlechtesten fall kaum ein jahr. heute sind wir bei 2 jahren angekommen.
 
Zuletzt bearbeitet:
Die Frage ist eigentlich gar nicht so pauschal beantwortbar. Es gibt mindestens drei Parteien, die da völlig andere Interessen mit den Turing GPUs haben (werden)

- Die Gamer -> für den Gamer kommt die Karte klar zu früh -> er will eben spielen und es gibt nix, außer den ~30-35% mehr obendrauf zur alten Gen.. Das RT/DLAA Zeugs ist nicht verfügbar, die Preise zudem sehr hoch. Ergo fallen alle Vorteile für den Gamer im Moment runter und es bleibt bei reinem Preis pro FPS
- Die Entwickler -> für diese Personen kommt eine Hardware nie zu früh. Es kann eher sogar noch früher sein. Diese Personen haben meist auch Vorabzugänge zu Entwicklerversionen auf Softwareseite, arbeiten bei genereller Hardwareabwesenheit mit geplanten Leistungsvorgaben der Hersteller usw. -> um so zeitiger die Hardware verfügbar ist, desto besser für den Entwickler um seine Software entsprechend drauf auszulegen
- NV als Hersteller -> für NV kommt die Karte wohl genau richtig (sonst hätten sie diese nicht jetzt gebraucht, sondern eher oder später) -> der Zeitpunkt erscheint für NV auch von außen gesehen recht günstig. Man hat keine Konkurrenz zu befürchten in dieser Leistungsregion, selbst die 2070 hat das Potential schneller als das größte AMD Modell zu sein usw. Mit dieser Maßgabe kann man sich auch jetzt so ein Experiment erlauben und damit vllt auch den absoluten ALU-Rohpowerfortschritt vorerst bisschen einbremsen um über Software in Zukunft noch viel mehr zu erreichen.



Das ganze Geunke ist eigentlich mMn viel zu übertrieben vom eigenen Tellerrand gelenkt. Ich mein, hier gehts um Features, die Software voraus setzen - nichts anderes hat bis dato jede neuere DX Version auch voraus gesetzt. Aber dort wurde idR nicht gemeckert, sondern das einfach hingenommen. Der HD5870 als erste DX11 GPU fand meist ohne DX11 Spiele statt, weil es gab keine. Die ersten 8800 GTXen wurde ohne DX10 Titel gebencht, weil es gab keine, SM3.0 auf den 6800er NV GPUs war ohne Spiele mit SM3 Support, weil es gab keine usw.

Rund wäre für mich die RT Geschichte gewesen, wenn Karten im mittleren Leistungsbereich auch davon profitieren würden, so ist es ja zunächst zur der Highendklasse vorbehalten.

So ein Unsinn... Woher nimmst du das? Auch ne 2070 wird die volle RT-Palette durchführen können. Warum sollte das nur der HighEnd Klasse vorbehalten sein?
Das ist am Ende einfach nur ne Frage zwischen Aufwand und Nutzen. RT punktuell eingesetzt scheint sinniger als das nun mit der Brechstange überall und übertrieben einzusetzen (siehe PhysX - damals meist einfach übertrieben viel und damit aufgesetzt)

Da wir hier in diesen Diskussionen iwi immer wieder auf den Preis kommen, muss da wohl auch was dran sein, vielleicht möchte NVIDIA mit den neuen Karten auch erstmal testen bis zu welcher Grenze die Käufer bereit sind mit zu gehen. Und das macht man besser früh als zu spät.

Zum Testen - möglich, aber unwahrscheinlich. NV hat da nun sonstwie viel Kohle drin versenkt. Das ganze Softwarezeugs, die APIs usw. - alles was unter der Decke eben notwendig ist, um RTX überhaupt fahren zu können ist ja existent. Was im Moment das Problem ist, dass A) Windows noch nicht so weit ist und B) dass es eben keine Software gibt, die im generellen den Spaß nutzt/nutzen kann.

Was den Preis angeht - das liegt einfach daran, dass wir hier in einem Gamerforum sind. Und nicht im Entwicklerforum. Der Gamer misst halt nach anderen Maßstäben. Was in 2018 immer offensichtlicher dazu kommt ist Missgunst und Neid. Da wird schnell über etwas, was man nicht hat/haben wird/haben kann gehatet anstatt das objektiv einfach zu tolerieren oder akzeptieren.

Der Vorsprung der reinen Spieleleistung ist halt zu gering und die neuen Features lässt sich NV durch die Enthusiasten vorausbezahlen, es ist zu offensichtlich, leider.
Sehe ich nicht so. Die reine Spieleleistung liegt mit alter API bei 80-100% mehr als es AMD im quasi gleichen Node zu leisten im Stande ist. Und das ohne Mehrverbrauch. Das lässt man sich auch durch niemanden vorab bezahlen, da es nach wie vor alle alten Modelle offiziell zu kaufen gibt. Wer nicht bereit ist, da das Geld für Turing zu zahlen soll halt Pascal oder auch AMD Zeugs kaufen - ist doch alles OK. Da weis ganz sicher auch NV drum, dass die Preise extrem hoch sind. Der kalkulierte Absatz dürfte deutlich geringer ausfallen als bei Pascal seinerzeit. Möglicherweise WILL man sogar den Absatz künstlich gering halten - Produktionskosten für ne 750mm² GPU und so, teuren GDDR6, generell gestiegene Waferpreise in 2018 usw.

Wenn ich wetten würde - ich würde drauf tippen, dass jeder, der heute Turing überspringt für die Pascal Preisklasse mit dem nächsten Fertigungssprung auf 7nm dann in 2019 (oder 2020, je nachdem) mehr Leistung als bei Pascal bei gesteigerter Effizienz bekommt. Deswegen denke ich auch - jeder, der heute nicht mitspielen will mit den Preisen soll das Zeugs einfach links (oder rechts) liegen lassen und einfach noch die 12+ Monate abwarten. Solange die Fertigung die Geschwindigkeit derart vorgibt, was technisch gehen kann, gibts auch nur noch die Sprünge mit der nächsten Fertigung. Das ist im Endeffekt seit mindestens mal Fermi der Fall (also 40nm)
 
Jetzt liegt es an den Softwareentwickler diese Möglichkeiten auszuschöpfen und Kinderkrankheiten im Treiber auszumerzen.

Softwareentwickler hier. Wieso sollte man Resourcen (Zeit und Geld) für etwas aufwenden, was niemand vor einem halben Jahr vermisst hat und bestenfalls als Nice-to-have Feature abgestempelt werden kann? Noch dazu für einen Kundenkreis der um die Promillegrenze liegt. Resourcen sind endlich, gerade das Budget. Für das selbe Geld gibt es zig andere Sachen wie Fehlerkorrekturen, mehr Inhalt, bessere allgemeine Performance. Ich wüsste nicht wieso man dafür Ressourcen aufwenden sollte. Und es wird sehr schwer BWLer davon zu überzeugen Geld auszugeben, dass sie nie wieder sehen. Nur weil es die Marketingabteilung von nVidia so möchte? Dann sollen sie dafür bezahlen (Ressourcen bereitstellen).

Für mich sind die neuen Karten nichts anderes als der Versuch maximal den Profit auszureizen, getreu dem Motto: Wir erhöhen unsere Gewinnmarge, also liebe Marketingabteilung redet den Käufern irgendwelche Gründe ein, da mitzumachen.
 
Es ist nunmal ein Profiprodukt das als Gamingprodukt vermarket wird. Das gute Jahr für Gamer war 2014-2015 mit Maxwell. Da gab es wirklich gute Leistungszuwächse zu guten Preisen. Heute kauft man einen ganzen Chip von dem man aber nur die Hälfte wirklich nutzen kann. Mir wären 6000 Shader lieber als 4300 Shader und irgendwelche unnötigen RT-Cores, denn die würden mir auch Leistung in Form von FPS bringen.

Und ja, NVIDIA kann es sich leisten. Die Extremisten kaufen sowieso, weil die zu viel Geld haben. Wir reden hier immer noch von einem Luxusprodukt. Keiner braucht eine Ti, genauso wenig wie jemand ein Iphone oder Macbook braucht. Wenn es zu teuer ist wird es ganz einfach nicht gekauft. Ich rechne damit dass der Preis noch sinken wird, das war bisher bei jeder Generation so, bei Launch sind sie sowieso am Teuersten. Dann wenn auch die kleineren Chips auf dem Markt sind regulieren sich langsam die Preise und die Verfügbarkeit wird besser.

Ich bezweifle auch irgendwie dass RT in absehbarer Zeit funktionieren wird, sprich ich bei 4K60+ das einfach hinzuschalte ohne Performanceverluste. Ansonsten ist es für mich der gleiche Schwachsinn wie PhysX und Gameworks, das sind Grafikdemos ohne realen Nutzen. Borderlands 2 mit PhysX maxed dropt selbst auf meiner 1080 Ti auf 25 FPS.
 
naja die ti gabs zum launch als mal für knapp über 600,- genau zu der zeit hab ich ne wakü 1080 hier für 500,- gekauft. im nachinein -mining boom- ein großer fehler.
denn ich hab bf1 in 4k leider weder mit vollen details noch mit immer 60fps fahren können (aber immerhin zu 95%) die ti hätte dafür perfekt hergehalten und sich über die bf1 spielstunden amortisiert.

da ich hier schon ein paar jährchen dabei bin, fällt es mir offensichtlich immer noch schwer mich auf die längeren produktzyklen einzustellen.

eigentlich alles, was ich bei meinem einstieg in die gaming welt mit athlon xp und 4200ti gelernt habe, ist heute nicht mehr.

geht man davon aus, dass man IMMER die neuste gpu gen gekauft hat, ist eine ti heute günstig. ich meine...hätte man bei pascal realease die titan gekauft, sprich titan xp, hätte man trotz des preises doch einen guten deal gemacht.
mit wakü/glück/moderatem oc, bräuchte man jetzt keine neue gpu und wer weiß wann es eine neue generation geben wird...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh