NVIDIA GeForce RTX 2080 mit erstem TimeSpy-Ergebnis

Ich glaub du hast ne völlig falsche Vorstellung wie das Zeugs da funktioniert :fresse:

Zum einen soll doch DLSS/DLAA nur durch explizites Ansprechen der Entwickler funktionieren (also nicht mal eben ein Spiel kaufen und ne KI trainieren) und zum anderen wird da kein Modell vorgerechnet oder ähnliches.

Prinzipiell eine gute Antwort, ich verstehe nur nicht ganz wo Du mich korrigierst in meiner falschen Vorstellung?
Modell wird berechnet (schöne und korrekte Beschreibung wie das geht), Modell wird ausgeführt.

Wo liege ich also falsch darin, dass NVidia das vor Ort macht und nicht per Datenstream mit dem Spieler?
Die Blume muss nicht auf meinem Bildschirm sein damit die KI lernen kann sie zu malen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Cippoli
Ich dachte du meinst die Speicherpreise wären zu wenig :fresse:
Mea culpa...

Zum Anderen, keine Ahnung. Ich denke das ist näher an der Realität als Aussagen, dass NV das alles nur macht um die Kunden zu melken.
Schau dich mal um - AMD verkauft ne gut ineffizientere GPU mit mehr Größe als der alte GP104 bei ähnlicher Leistung, HBMv2 mit ebenso popligen 8GB trotz deutlich späterem Marktstart immernoch für mehr Geld als die alte 1080. Ich mein, irgendwas MUSS doch da dran sein. Wenns nicht absolut die Chip-Fertigungspreise sind, dann sinds eben die Speicherpreise oder was weis ich. Es finden/fanden sich auch Meldungen im Laufe 2018, dass eben die Kosten der Chips steigen und steigen, weil so langsam die Materialien "eng" werden - im Sinne von zu hohe Nachfrage. Da hat man was von 20%+ in den Kosten gesprochen für Halbleiterprodukte.
Ich denke auch nicht dass es von ungefähr kommt, dass ne TitanV auf GV100 Basis eben 3000$ kostet - und nicht nur 2000 oder 2500$.

Vor machen muss man sich da aber nix - mindestens mal die 200$ "FE OC" Aufschlag der 2080TI sind im NV Shop quasi reine Marge. (mMn) Aber ob man so viel unter die 999$ kommen kann? Respektive ob man so ein Produkt dann noch fertigen würde, wenn da eben keine 999$ sondern vllt 700$ hätten gestanden (699 waren ja GP102 UVP)

@Rattenmann
das habe ich dir weiter unten aufgeführt im Versuch einer Erklärung.
Die KI lernt ganz sicher nicht Bild für Bild am konkreten Spiel. Sondern eben wie im Beispiel erwähnt mit den Blumen, wenn du durch die Natur gehst - und dir den Spaß ansiehst. Dann kannst du blumen malen in allen möglichen erdenklichen Farben und Formen. Dafür musst du aber eben nicht jede Blume selbst gesehen haben. Ab einem gewissen Punkt wird möglicherweise deine Creativität ausreichen um Blumen einfach so malen zu können. Und dieses können wird antrainiert.
Da kauft aber keiner Spiele und lässt sie irgendwo bei NV berechnen...
 
Zuletzt bearbeitet:
Was möchtest du uns denn nun damit sagen?
Fermi gibts heute auch hinterher geschmissen. Oder ne 8800GTX oder 8800 Ultra. Ist doch unsinnig so ein Vergleich da Abverkaufspreise ggü. den Vorbesteller Neupreisen der kommenden Generation zu setzen...

Dass es mir schwer fällt zu glauben, dass die aktuelle Preisentwicklung, nicht erst seit Turing, mit den Produktionskosten begründet werden kann.
Die 140€ für die 8800GT war der Preis 5 Monate nach Release.

Wenn man dagegen Pascal sieht, fast 2,5 Jahre nach Release...
 
@fdsonne
Naja, ein nicht unerheblicher Teil ist sicher auf gestiegene Kosten zurückzuführen. Da brauchen wir gar nicht drüber zu diskutieren. Man sieht es wie du sagst recht deutlich an vielen Ecken. Aber das das so extrem sein soll, kann ich irgendwie nicht glauben. Hab mich da aber länger nicht mehr mit auseinandergesetzt. Möglich wäre es. Aber eine Portion "melken" ist sicher auch im Spiel.

Bei den Preisen würde sich der TU102 im Gaming-Segment fast schon nur durch die Quadros dann querfinanzieren. Selbst die 999,- $ UVP wären dann "günstig". Naja, ich weiß auch nicht...
 
Die KI lernt ganz sicher nicht Bild für Bild am konkreten Spiel. Sondern eben wie im Beispiel erwähnt mit den Blumen, wenn du durch die Natur gehst - und dir den Spaß ansiehst.
Da kauft aber keiner Spiele und lässt sie irgendwo bei NV berechnen...

Du sagst also, dass nur wenn ich das Spiel laufen habe, die KI lernt?
Ich bin ernsthaft verwirrt was Du hier versucht zu beschreiben.

In der Firma erstellen wir Modelle immer vor Ort am Server. Auf Userdaten zu warten hat bei uns zwar einen größeren wert als bei Games, aber ein 95% Modell braucht keine Userdaten.
Bei einem Spiel ist das doch noch unwichtiger. Ich meine die KI kann das Spiel selber starten und durch den Garten gehen um bei dem Blumenbeispiel zu bleiben.
Da auf Nutzer zu warten und all die nötigen Bilddaten zu übertragen und dann erst zu berechnen,... woah. Das wäre nicht nur super ineffizient, sondern auch noch technisch unmöglich in den meisten Fällen.
Dazu hätte der Nutzer erst mal eine ganze Weile gar nichts davon außer total hässlichen Bildern die aussehen wie Gülle.

Bin unsicher ob wir so hart aneinander vorbeireden, oder Du echt meinst die Daten kommen vom Nutzer und werden dann erst berechnet? Das wird zu 100% nicht der Fall sein.
Es wird in der Tat bei NVidia vorberechnet, wohl schon lange bevor irgendein Nutzer das Spiel überhaupt kaufen kann.
 
Genau so sehe ich das auch. Keine Ahnung wieso man da Deap Learning gleich mit einer Cloud in Verbindung bringt. NVidia lässt das berechnen und liefert den Spielern lediglich die Ergebnisse, damit damit dann das DLAA besser arbeiten kann. Ist doch nicht so schwer zu verstehen.
 
Oh man so schwer ist das doch auch nicht mit dem DLSS, NVIDIA hat grob die Grundstruktur des Algorithmus fürs Deep Learning, und dieser Algorithmus wird BEI NVIDIA intern weiter entwickelt. Da gibt es bestimmt mehrere Ansätze, an der Architektur des Algorithmus, durch Deep Learning von ähnlichen Szenen, Userdaten etc. Dieser Algorithmus wird dann mittels Treiberupdate/GFE auch auf den RTX Karten geupdatet, um eben mittels Deep Learning Sachen vorhersagen zu können/berechnen zu können.
 
Ist doch das was ich sagte, nur das ich es zum Verständnis halber sehr einfach ausgedrückt habe.
 
Anstatt die alle Threads zu Turing mit zu teuer, zu lahm , zu durstig, böses AA, Treibertelemetrie & Aluhut, AMD over 9000 Carisma ,RT brauch ich nicht ! Zuzumüllen einfach nicht kaufen wems nicht passt , das Rumgeheule bringt nix keinen auch nur einen Schritt weiter !
-Euch nicht weils den Firma und potentiellen Käufern komplett egal ist.
-Den Usern die Informationen suchen aber sich durch die ganzen Post wühlen müssen.
-Der Forumskultur weil man den Eindruck gewinnt hier gehts nicht um Technik sondern darum wer besser mit kacke werfen kan.
 
Also genau um den letzten Punkt geht es in jedem IntelVidiaAMD-Thread.
 

nvidia ist durch das ende des mining booms überrascht worden und hat durch ein falsch einegschätzte nachfrage zuviele Pascals produziert. diese erhalten asus msi und gigabyte im austausch für zugriff auf touring.

mit anderen worten wird erst noch die 10er serie abverkauft. beide serien laufen parallel und das ist auch ein grund für die hohen 20er preise. nvidia will errst die alten gpus verkaufen.

für mich persönlich sind die karten wenig attraktiv. würde mein 980sli zwar gerne gegen eine einzelne karte tauschen allerdings ist maxwell für mich interessanter. die 1080ti reicht für meine games in 1440p mehr als dicke (das sli aber auch).
 
Naja TimeSpy ist DX 12, das können Pascal und Maxwell bekanntlich nicht gut. Der Vergleich von Nvidia ma zwar Zeigen wieviel besser die Karten in DX12 sind, ein Firestrike DX11 Bench wäre aber sehrviel interessanter..
Hier wirds mit Sicherheit deutlich weniger an Vorsprung für die RTXen sein..
 
@Thrawn
Wie meinst Du das? Warum sollten die RTX-Karten in DX11 schlechter performen, als in DX12, obwohl die aktuelle Generation in DX11 besser arbeitet.
 
es gibt Vermutungen, das weil man bei den RTX Karten das Augenmerk mehr auf DX12 gelegt hat um die ganzen RTX Features verwenden zu können eventuell die DX11 Performance gelitten hat, Nahrung erhält diese Vermutung dadurch das es bis jetzt tunlichst vermieden wurde irgendeine Folie bezüglich der Leistung von Turing im Vergleich mit den alten Karten in DX11 zu bringen und weil eben auch die 2080TI gleich zum Start kommt - wodurch man auch vermuten könnte das die 2080 nicht reicht um in DX11 an der "alten" 1080TI vorbeizuziehen...

natürlich bis jetzt alles Spekualtius - wir werden es sehen wenn die Tests kommen :hust:
 
So wie es aber zur Zeit aussieht werden die Reviewer von Nvidia personalisiert und zu ausgewählt, bekommen einen eigenen Login für den Test, auch der Treiber zum testen soll wohl nur direkt an diesen Personenkreis ausgeben werden. [H]ardOCP: NVIDIA Controls AIB Launch and Driver Distribution

Das sind ganz neue Testbedingungen zu ganz neuen Karten, mal sehen, bin gespannt was dabei wirklich rum kommt.
 
Jo bin mal gespannt wenn es so ist, sehen wir Wahrscheinlich auch keine DX11 Test weil dann wird vorgeschrieben was getestet werden darf und wo gegen! GG NDA....
 
Zuletzt bearbeitet:
Aber ist das denn wirklich zulässig, dass NV vorschreibt, was an den Karten getestet werden darf oder was nicht? Hat das NDA wirklich jetzt noch Einfluss auf den Test selber:confused:
 
Ist schon seltsam aber andersrum würde nvidia ja spätestens am release die scheisse um die ohren fliegen... denke die sind nur super vorsichtig wie wann und welche infos vorm release rausgehen um hier keine käufer zu verlieren/verunsichern.
 
Zuzumüllen einfach nicht kaufen wems nicht passt , das Rumgeheule bringt nix keinen auch nur einen Schritt weiter !

Bei dem Rumgeheule der fanbois beider Seiten, welche dies jeweils von sich weisen, stimme ich zu.
Aber wieso du hier irgendwem vorschreiben willst in einem frei zugänglichen Forum gefälligst nicht die Meinung kund zu tun - dem kann ich weder folgen noch zustimmen.

Im vergangenen Jahr, Q3, machte Nvidia 800+ Mio $ Gewinn. Von einem kräftigen Gewinnsprung dank Gaming wird gesprochen(*). Da in diesem Forum ja allumfassende Experten unterwegs sind muss ich sicherlich keinem erklären was Gewinn bedeutet.
Natürlich will jedes Unternehmen Geld für Leistung, aber wer an der Stelle nicht kapiert was Phase ist, der will es halt nicht kapieren. Das ist mir auch vollkommen egal, mit sowas diskutiere ich gar nicht.
Aber wenn ich dann so unglaublich hohle Phrasen lese wie "wer es sich leisten kann der kann es sich leisten", dann kann ich nur für gewisse Zeit stumm bleiben.
Es ist die eine Sache irgendwas nicht zu kapieren, eine andere Sache sich gegen Input zu verweigern. Aber es ist inakzeptabel dann noch in Unwissenheit rumzublöken.
An der Stelle schiebe ich mal ein, dass ich nicht zu denen gehöre, die jeden letzten Cent hin und her schieben. Will ich was haben, dann kaufe ich es. Aber niemals würde ich mir zB ein 135 Euro Smartphone für 1000 Euro kaufen weil da n Apfel drauf ist. Will sagen, dass P/L schon stimmen muss. fdsonne hat schon richtig erkannt: das schwankt von Person zu Person, und jeder Hipster/fanboi wird mit geschwollener Brust erklären, dass der Aufpreis in Einklang mit seiner ray ben oder seinem eifon X steht. Jemand der differenziert und reflektiert wird auf Nachfrage gestehen, dass er viel Geld für Markenfetisch wegwirft.
Das Gute bei Elektronik ist, hier kann man sehr leicht kaufmännisch analysieren. Schade ist, dass niemand Einblick in die Zahlen von Nvidia hat. Woraus sie auf welchem Markt wann die meiste Kohle gequetscht haben.
Wie dem auch sei. Gaming sorgt bei Nvidia nachweislich für Gewinnzuwachs.
Deren meistverkaufte Karte ist weder die Titan noch die größte ti und normalerweise würden sie natürlich NICHT 40% Bauernfängersteuer auf genau jede einzelne Karte aufschlagen (das verteilt man auf seine Produktpalette, Kostenschlüssel, was erzähl ich. Hat ja jeder studiert). Aber sie tun es. Weil die Kunden die Kohle halt haben und weil es keine Alternative gibt.

Und nun zahlen die fanbois und die, die es nicht besser wissen (große Schnittmenge) witzige Zuschläge UND feiern es noch UND blöken diejenigen an, die das mit Verstand betrachten und sagen "Leute, das sind komplette Mondpreise". Das ist eine Aufwärtsspirale die vollkommen wahnsinnig ist und die dafür sorgt, dass in 2019 die midrange Karte 800 $ kostet (bei -wie seit vielen Jahren - ca. 300 $ Gegenwert.
(es ist urkomisch, dass sogar die Kalkulationsfehler von NVidia ungestraft bleiben. Die Kosten dafür zahlt "ihr", freudestrahlend)

Das kann man als Unternehmen mal machen. In EINEM QUARTAL 800 Mio Gewinn. Gibt viele neue Autos, Boote und fette Koks und Nut*** Parties, bei denen man sich über seine treue Kundschaft freut und mal herzlich lacht. Aber dann kann man auch wieder zurückrudern weil der Fisch sonst gewaltig anfängt zu stinken weil den Kunden irgendwann auffällt, dass da was nicht oooh guck ma ne Karte mit LEDs worum ging es? Oh XX% mehr Leistung versprochen ich preordere vier davon!

Ja ich könnt mir auch ne 2080ti kaufen. Lass sie das Doppelte kosten. Aber nicht zu diesem Preis (wer den nicht checkt, der hat so oder so nicht bis hierhin gelesen).

fight on!

(* comments_outline_white)
 
Bin da völlig bei dir. Und meiner Bescheidenen Meinung nach hat man RT für die Industrie entwickelt für Renderfilme etc. der Versuch ist aktuell nur aus dem Bezahlten Produkt den letzten tropfen raus zu pressen. So kann man seine Kunde auch zur Konkurrenz Treiben jetzt nicht AMD aber die Konsolen sind doch plötzlich viel Attraktiver oder?
 
Nach Gamer Nexus hat das NDA eher keinen Einfluss auf die Tests:
Talking to an Actual Lawyer on NVIDIAs NDA - YouTube

Das ist ja schon mal beruhigend, so können wir ja noch darauf hoffen, dass die Tests Aufschluss darüber geben werden, ob die neuen Karten ihren Preis wehrt sind. :)
 
nope. einfach ne billigere karte kaufen und settings runter drehen. sieht immer noch besser aus als konsole und mehr fps :) nur da wollen viele nicht mitpsielen. wenn pc dann full settings oder sterben :fresse:
 
so, bin mal gespannt, in nem amiforum meinte ein recht angesehener user, das die neuen karten in DX11 ohne irgendwelche der neuen zusatzfeatures, sogar langsamer seien als ihre -noch- aktuellen vorgänger...

Das sind alles gute Punkte, die man diskutieren kann und auch sollte, keine Frage.


bitte also auch ausgiebig DX11 ohne HDR, superduperhokuspokus AA oder RT testen, würde das gerne bestätigt/wiederlegt sehen :)

btw. hier in der schweiz kosten die günstigsten customs der 2080 Ti 1040€*umgerechnet(gigabyte windforce) und 1070€(zotac amp), 2080er fangen bei 716€ an(ebenfalls ne windforce)
 
Zuletzt bearbeitet:
@Thrawn
Ich sage (ins Blaue natürlich) der Renderer gibt das erstmal tiefer aus und DLSS macht dann Upscaling (auf nativ). Sonst wüsste ich nicht wie man ohne egal welchen AA 30% langsamer sein soll als mit egal welchen AA. Und auch bei 10% wüsste ich das nicht.

@Holzmann
Das sind ganz neue Testbedingungen zu ganz neuen Karten, mal sehen, bin gespannt was dabei wirklich rum kommt.
Falls es passiert, will man wieder wissen wer den Launch-Schneetreiber in die Umwelt geleakt hat ;)

Was soll daran nicht zulässig sein? Entweder du prostituierst dich halt dafür oder zeigst denen selbst den Stinkefinger und testest es, wenn du im Laden eine bekommst. Den meisten tun aber die so flöten gegangenen Klicks wohl zu sehr weh.
Jedenfalls denen die das Geld erstmal ansammeln, bevor es an die Mitarbeiter verteilt wird. Größere Teile der Redaktionen selbst aber haben auf den Fluren schon eine recht klare Meinung dazu ;)
 
Zuletzt bearbeitet:
... hat Nvidia aber sicherlich wieder ein paar Treiberkniffe in Petto. Wäre ja nicht das erste mal, dass man die ältere Architektur ausbremst damit die neue besser da steht.
Das ist nach wie vor ein Irrglaube. Es gibt keinen Test der belegt daß eine Karte A mit einem älteren Treiber gravierend schneller in einer Anwendung war als mit einem neuen Treiber der zum Release einer Karte B rausgekommen ist. Und falls doch mal Abweichungen sind dann hat das meist einen anderen Grund oder ist ein Bug oder innerhalb Messtoleranzen.
Im Gegenteil, es gibt sogar Tests die bezeugen daß eine alte Karte mit aktuellen Treibern in älteren bis aktuellen Spielen unterm Schnitt sogar minimals in der Leistung zugelegt haben.

Es mag stimmen daß neue Karten mit neuen Treiber mehr optimiert werden und/oder bei neuen Anwendungen/Spielen alte Karten vielleicht nicht mehr sonderlich viel Optimierung erfahren und dadurch langsamer sind als neue sonst auf Augenhöhe liegende Karten. Aber daß absichtlich alte Karten langsamer gemacht werden - nein.

Hier ein paar Beispiele:
Tomshardware
HardOCP
und obwohl ich von YouTube "Tests" nicht viel halte:
Then vs Now Video Card Drivers - YouTube


...
780ti war auch grob 980
980ti war grob 1080
1080ti grob 2080
...
Eher jeweils wie die 70er ... also
780Ti grob 970
980Ti grob 1070
1080Ti sollte demnach grob 2070 sein

Alle natürlich @Stock - klar gibt es von den Ti Custom Modelle welche man auch noch stark übertakten kann wo diese dann an die nächste 80er (non Ti) rankommen, aber auch die 70er kann man übertakten.

was man ganz nüchtern betrachten sollte ist, dass.preid/leistung hier ins gewicht fallen. 50% mehrleistung für 50% mehr preis ist doch ok
...
und
in 5 jahren haben wir etwa 20% inflation(real) und wenn die leistung fast 4 mal so hoch ist im vergleich zu der rtx 2080, klar wieso ned.

solange es die leute kaufen, passt dich alles. dass jeder am liebstem top technik will und noch dabei geld einnehmen ist klar, nur eben dumm.

also wer kaufen will, kann es, wer ned will, muss ned ;)
Nein das passt nicht. Wie es ElMario schon überspitzt ausgedrückt hat würden nach dem Schema (selbst ohne Inflation) die Karten ja immer teurer werden. Das Rechenbeispiel mit der Voodoo ist natürlich etwas übertrieben, aber wenn wir z.B. von einer GeForce 3 oder so ausgehen, wie viel schneller ist nun eine 1080Ti? Und die GF3 hat auch mal umgerechnet gute 450 EUR gekostet.
Rechenbeispiel - 8800 GTX - ca. 350 GFLOPS im Single Precision Bereich zu ca. 10600 GFLOPS (mit Basistakt) der 1080Ti. Rund 30x schneller ... in der Realität kommt das natürlich bei Spielen nicht durch da andere Sachen auch noch mitspielen, aber sie hat auch gut 14x soviel RAM und neue Features und und und. Nagut die 8800 GTX hat zum Release 599 EUR gekostet bzw. kurz danach knappe 500 EUR. Soll ich das jetzt mit 30x multiplizieren? Immerhin hat die 1080Ti ja eine 30x so hohe Rohleistung. In Spielen ist es bestimmt weniger, aber laß es 10-15x sein, dann sollte lt. Deiner Logik die 1080Ti ja 5990 - 8985 EUR kosten. Inflation und schlechter EUR Kurs noch gar nicht berücksichtigt.

Und klar kann jeder kaufen was er will bzw. zu was für einem Preis er will, trotzdem ist es nicht von der Hand zu weisen daß die Grafikkarten von Generation zu Generation teurer werden in den letzten Jahren. Der schlechte EUR Kurs und der Mining Boom haben das in den letzten 2 Jahren halt noch extremer erscheinen lassen.

Meines Erachtens nach war es eigentlich immer so bzw. sollte es immer so sein daß die Technik fortschreitet und mehr Leistung/Effizienz/Features etc. zum gleichen Preis der Vorgängergeneration bietet. Nicht mehr Leistung zu höheren Preisen.

Zunächst verlangt hier Nvidia einen mutmaßlich saftigen Aufpreis für ein neues Feature, welches noch nicht umfänglich in SW zur Verfügung steht, man könnte hier auch von einer Art "Nötigung" sprechen, was aber nicht heißen soll, dass ich das als so negativ ansehe, halte ich das dennoch für einen möglichen Grund, warum hier so kontrovers darüber diskutiert wird und die Akzeptanz für RT noch zu fehlen scheint.
Tja irgendwo muß man mal anfangen. Ich erinnere mich noch gut an T&L welches mit der ersten GeForce 256 eingeführt wurde und es noch keine bis kaum Spiele gab die das nutzten. Eines der ersten war Test Drive 6, und das war leider als Spiel ziemlich mies und T&L zu nicht T&L hat kaum einen Unterschied gemacht.
 
Zuletzt bearbeitet:
Das ist nach wie vor ein Irrglaube. Es gibt keinen Test der belegt daß eine Karte A mit einem älteren Treiber gravierend schneller in einer Anwendung war als mit einem neuen Treiber der zum Release einer Karte B rausgekommen ist. Und falls doch mal Abweichungen sind dann hat das meist einen anderen Grund oder ist ein Bug oder innerhalb Messtoleranzen.
Ich denke mal, da es einfach viel zu einfach wäre, nachzuweisen, dass irgendwo ein neuerer Treiber "beabsichtigt" langsamer läuft, als ein alter Treiber, wäre so ein Vorgehen ein Garant für schlechte Presse und einem gigantischen Shitstorm. Ob ein alter Treiber schneller läuft als ein Neuer, kann ja wirklich jeder problemlos selber testen.
 
Ich denke mal, da es einfach viel zu einfach wäre, nachzuweisen, dass irgendwo ein neuerer Treiber "beabsichtigt" langsamer läuft, als ein alter Treiber, wäre so ein Vorgehen ein Garant für schlechte Presse und einem gigantischen Shitstorm. Ob ein alter Treiber schneller läuft als ein Neuer, kann ja wirklich jeder problemlos selber testen.
Eben.
Das einzige was man kaum/nicht testen oder wissen kann ist ob vielleicht eine ältere Karte bei einem neuen Spiel besser sein könnte, dies aber mangels Optimierung der Treiber für die alte Karte nicht ist. Im Gegenzug könnte jedoch auch eben der neue Treiber die neue Karte einfach besser auslasten weil neue Features bzw. andere (bessere?) Architektur und dadurch mehr Leistung in neuen Spielen erzielt wird.
Viele posaunen aber lieber so einen Blödsinn raus wie "... na dann macht nVidia die alten Karten einfach per Treiber langsamer um die neuen besser aussehen zu lassen, wie schon zuvor".

Generell zur neuen RTX Generation ... ich warte da auch mal lieber erste Reviews und Tests ab bevor ich mir eine Meinung bilde. Auf den ersten Blick erscheinen die Preise natürlich wie Wucher, aber erstens sind das Release Preise und dann noch für die Referenzkarten *hust* ich meine natürlich Founders Edition. Ich denke ein paar Monate nach dem Launch werden die Preise schon deutlich niedriger liegen.
Was mich auch etwas überrascht ist daß es erstens bereits eine Ti zum Launch gibt und anscheinend auch recht zeitnah wieder Partnerkarten. Warum das so ist? Keine Ahnung denn anscheinend ist nV nicht schlecht gefahren zuerst hohe Preise für nur FE Karten zu verlangen (und auch selbst verkaufen) und später Platz zu machen für meist höherwertige, übertaktete Custom Modelle.
Auch erst nur die 80 und 70er Karten zu releasen und später eine neue Titan sowie danach eine Ti war eigentlich in den letzten Generationen so üblich.

Raytracing ist eine sehr interessante Sache, ansich jedoch eine steinalte Technik. Dadurch sollte Licht, Schatten und Reflektionen ein noch nicht da gewesenes Detailreichtum in Echtzeit Spielen erreichen. Allerdings kann ich mir gut vorstellen daß in vielen Spielen diese Effekte nicht sonderlich wichtig sind bzw. kaum zur Geltung kommen. Viele der Sachen werden auch schon im klassischen Renderstil ganz gut emuliert, und das bei guter Leistung. Falls zugeschaltete RT Effekte eine Karte von sagen wir 80-100 FPS auf 40 runterdrückt ist es mir das wohl nicht wert. Zukünftige Generationen können das dann vielleicht besser mit weniger Leistungsverlust. In den Anfangszeiten von 3D Hardwarebeschleunigung Ende der 90er war 16Bit Farbtiefe in 3D üblich (Voodoo 1-3) und Karten die bereits 32Bit (oder 24) konnten verloren oft deutlich an Leistung zu damals eher wenig optischer Verbesserung.

Interessant wird auch sein wie breit das Unterstützung findet und ob es "the next big thing" ist, oder vielleicht ähnlich wie Physik Beschleuniger Karten irgendwann durch Software in Kombination mit potenter Hardware abgelöst wird. Soll heißen falls die klassischen Shader der GPUs vielleicht auch irgendwann für RayTracing optimiert werden wäre das wohl besser als wenn man zusätzliche Einheiten hat die vielleicht nicht immer genutzt werden oder vielleicht zu langsam sind.
Mal sehen was AMD bzw. später auch Intel dagegen halten kann bzw. ob sie da mitziehen und das ganze zum "Standard" machen.

Generell zu der Karten- und Preissituation ... ich bin gespannt ob AMD das nun irgendwie nutzen kann und vielleicht Anfang 2019 mit 7nm Vega Refresh Karten zu kontern. Diese können dann zwar vielleicht noch kein RT in Hardware, könnten jedoch preislich interessant werden.
 
Zuletzt bearbeitet:
Bin da völlig bei dir. Und meiner Bescheidenen Meinung nach hat man RT für die Industrie entwickelt für Renderfilme etc. der Versuch ist aktuell nur aus dem Bezahlten Produkt den letzten tropfen raus zu pressen. So kann man seine Kunde auch zur Konkurrenz Treiben jetzt nicht AMD aber die Konsolen sind doch plötzlich viel Attraktiver oder?

Wieso sollten Konsolen interessanter sein deswegen?
Wenn ich im Markt für eine 1000€ + Karte bin, dann ist doch eine Konsole keine Alternative die in Frage kommt.
Sollte eine Konsole reichen, dann würde ich doch keine GPU für mehr als 200 Euro in Erwägung ziehen. Verstehe den Vergleich also nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh