Turing-Chips und GPU-Binning: NVIDIA selektiert vor

Preorder storniert. Ich zahle doch nicht mehr für ne Custom, deren Binning Grade ich nicht kenne wenn das Ding sowieso unter Wasser soll. Dann wird eben gewartet bis wieder FEs verfügbar sind. Sicher weniger lustig für die Partner wenn das richtig die Runde macht, denn das Spiel will sicher niemand freiwillig mit machen. Und bis die High End Modelle kommen, geht es ja noch ne Weile. Da kannst davon ausgehen, dass auf allen Karten bisher maximal die zweite Stufe verlötet ist und bei den günstigen Einstiegsmodellen dann auch die Gurken Chips. Und das für 1200€+...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wir wissen ja auch nicht wie stark sich die Klassen der Chips unterscheiden und hat NV bei der Produktion da schon Einfluss drauf?

Was macht NV dann mit den ganzen C-Chips, die sie vielleicht nicht verkauft bekommen?

Edit: Ohne eine offizielle Klassifizierung der Chipgüte, wird das auf Daher aber für den Kunden auch nicht einfacher werden, wenn man sicher gehen will was man kauft.

Denn selbst wenn eine Charge eines bestimmten Custom Modells mal A-Chips hat muss das bei der nächsten Charge nicht automatisch auch so sein, oder?

Vielleicht macht es dort Sinn wie bei CPUs eine Batch-Nummer mit anzugeben in Zukunft.

Insgesamt eine Situation, die noch sehr viel Aufmerksamkeit benötigt, glaube ich ...
 
Zuletzt bearbeitet:
Das Hauptproblem in der Generation ist die neue Technik.

Leute vergleichen Leistung und Preis, sehen in Leistung aber nur FPS und nicht Qualität. Das ist halt ungewohnt.
Die "Leistung" steigt weniger stark, aber es steigt eben auch die Qualität. Was bringen mir 400fps, wenn das Bild wie Gülle aussieht? Qualität ist ein Teil der Leistung, blos weniger offensichtlich in eine Metrik zu packen. Und da steigt dann die breite Masse aus und fängt mit flamen an.
Wer keine bessere Bildqualität will, hat diese RTX Generation halt nix was ihn interessiert. Ka wieso das so kompliziert gemacht wird. Nicht jedes produkt auf dem Markt muss für jeden toll sein. Mich jucken die 200 Euro Karten ja auch nicht, weil mir die Qualität wichtiger ist als ein geringer Preis.
Darum ist aber nicht jede 200 Euro Karte schlecht. Sie ist nur für eine andere Zielgruppe gut.

Bitte was?
Meine uralt Karte ist 26% langsamer als eine 580 und hat genausoviel gekostet (250), das Kommentar hatte also nichts mit der Generation zu tun.
Aber da du es ansprichst:
Diese „Qualität“ ist am Ende für Marketing Opfer (Sry aber muss an dieser Stelle mal so deutlich gesagt werden), denn außer im Standbild und im direkten Vergleich wirst du davon nichts sehen da die Leistung zu gering ist (vll noch auf der 2080ti ausreichend wir werden sehen). Einziger Mehrwert ist bisher das dunkle Räume nichtmehr grundsätzlich gänzlich ausgeleuchtet werden müssen. Wie gut das Deep learning am Ende Kanten glättet und in wievielten Games muss sich erst noch zeigen.

Back To Topic:
NVIDIA übernimmt also nur einen weiteren Schritt um mehr Geld zu verdienen und das losglück sinkt, wo liegt das Problem? Leute die haufenweise Karten bestellen und zurückschicken sparen sich Zeit und verdienen weniger Geld beim Weiterverkauf? Ansonsten nur Vorteile für den Kunden, wenn da nicht die Sache mit dem Preise diktieren wäre, aber das machen sie ja eh schon.
 
Zuletzt bearbeitet:
Richtig. Und schwierig vergleichbar ist da auch Nichts. Karten wurden schon immer schneller und ermöglichten dadurch eine bessere Optik als ihre Vorgänger. Einfach nur die Optik zu verbessern, ohne Geschwindigkeitsvorteil, kommt im Endeffekt fast auf das Selbe heraus; nur sogar mit dem kleinen Nachteil, dass man nicht die Wahl hat, die neue Mehrleistung anstatt in schönere Optik stattdessen in mehr FPS umzusetzen. Wie innovativ Echzeitraytracing nun auch sein mag; was für den Käufer zählt ist nur die Verbesserung die es ihm für den vorgesehenen Verwendungszweck (Gaming) bringt. Und das ist eben in diesem Falle nicht mehr als ein paar etwas hübschere Reflexionen und Schatten. Im Vergleich zu vielen vorangegangenen Technologiesprüngen ist es, was das Ergebnis angeht, sogar ein eher kleiner Vorteil.
Wer in die Innovation investieren will, der kauft nvidia Aktien. Aber eine Gaminggrafikkarte ist das, was dafür verlangt wird, schon längst nicht mehr wert.
 
Zuletzt bearbeitet:
Selektion schön und gut, aber wenn das schon bei NV beginnt, wirds noch höhere Preise geben... wenn nicht, sollte alles wie immer sein.
Übertaktbarkeit wird denke mal kaum höher als Pascal sein da es eigentlich nur ein optimierter (wohl auch nur Yields etc.) 16nm FinFET ist.
Dass Nvidia ihre Board"partner" vor den Kopf stößt ist wirklich nichts neues mehr.
 
Zuletzt bearbeitet:
Aber natürlich habe ich das. Die ersten Karten die ich selbst vergleichen konnte waren Geforce 4 Ti und Radeon 9800pro. Sind nicht ganz 20 Jahre, aber fast. Bei den GF4 Ti gabs deutliche Unterschiede zwischen 4200, 4400 und 4600 was die Maximalfrequenz anging. Bei den 9800 Pros ebenfalls. Meine restliche Graka historie schreib ich hier jetzt nicht auf... ;)


sag das meiner 4200Ti die mit 425/835 lief :xmas:
 
Dass Nvidia ihre Board"partner" vor den Kopf stößt ist wirklich nichts neues mehr.

Richtig, von Partnerschaft kann man da wirklich nicht mehr sprechen, das ist kein schöner Move von NV und am Enden werden es wie immer die Kunden bezahlen müssen. ):
 
das gängt davon ab was die kunden machen. wenn den boardpartnern die leute haufenweise abspringen wegen solcher sachen, dann werden die boardpartner ganz schnell druck machen auf nVidia. vor allem wennn sie sich zusammenschliessen. sobald es ans geld geht, werden die partner zu wölfen.
 
Vorher zu wissen was man bekommt, ist nun also ganz "offiziell" auch schlecht für den Kunden und die Boardpartner.
Ich glaube ich gebe es auf diese Logik zu verstehen.
 
Vorher zu wissen was man bekommt, ist nun also ganz "offiziell" auch schlecht für den Kunden und die Boardpartner.
Ich glaube ich gebe es auf diese Logik zu verstehen.
Diese Logik verstehe ich auch nicht,wird aber nicht nur von Nvidia betrieben sondern betrifft sämtliche Firmen in Deutschland.

Profit ist das einzige was heutzutage noch zählt.

Gesendet von meinem GT-I9305 mit Tapatalk
 
Das stimmt allerdings! An OEM hatte ich nicht gedacht. ;)
 
Ich müßte mich ehrlich gesagt grad selbst wundern wie der Botschafter die frühere Marktpolitik Nvidias kritisiert. Hätt ich nicht gedacht, daß der sich das doch so in der Form traut.
 
Zuletzt bearbeitet:
In deiner Welt produziert NV später nicht nur die Chips, sondern auch größtenteils die Karten und verkauft sie zum einen für dich fairen Preis?
Sonst ist mit dir aber alles ok, ja?
Kannst dir ja mal jetzt schon ein Board direkt von Intel kaufen, wenn du sowas ok findest...
1.) unterstellst du mir 2.) ein fiktives Szenario und fragst 3.) ob bei mir sonst alles okay ist? Vielleicht solltest du dir um deinen Gesundheitszustand mehr Sorgen machen.

@all
Wie man immer wieder mal feststellen mußte und muß. Jedesmal wenn AMD bisschen zu lange schwächelt, wird das irgendwann ein Problem für den PC-Markt. Egal ob CPU oder GPU und man ist davon betroffen, egal ob man blau, grün oder rot ist.
Ihr bekommt nun mal die Leistung von AMD geboten, welche die typische AMD 'geiz-ist-geil' Käuferschicht bereit ist zu zahlen. Keine Einnahmen bei der VGA Sparte bedeutet eben auch keine Entwicklungsgelder, das Thema ging erst vor paar Wochen bezugnehmend auf AMD durch die Presse.
 
1.) unterstellst du mir 2.) ein fiktives Szenario und fragst 3.) ob bei mir sonst alles okay ist? Vielleicht solltest du dir um deinen Gesundheitszustand mehr Sorgen machen.

BessereHälfte ist bei jedem und in jedem Topic so. Von oben herab, suggestiv, am Thema vorbei und ein riesen Haufen Unterstellungen und indirekte Beleidigungen.
Ich empfehle einfach die Ignorierfunktion zu nutzen, macht diverse Topics deutlich leserlicher. Und ohne zu wissen was geschrieben wurde ist es sogar amüsant dann Texte wie Deinen zu lesen. Denkt man immer "Aha, wieder einer der genauso denkt!".

Ihr bekommt nun mal die Leistung von AMD geboten, welche die typische AMD 'geiz-ist-geil' Käuferschicht bereit ist zu zahlen. Keine Einnahmen bei der VGA Sparte bedeutet eben auch keine Entwicklungsgelder, das Thema ging erst vor paar Wochen bezugnehmend auf AMD durch die Presse.

Ein Thema dem sich Team rot nicht stellen will.
Auch eines, dass leider zu oft ignoriert wird. Klar macht AMD richtig gute Deals bei den wenigen relevanten Karten die sie haben. Und in manchen Budgetbereichen wäre man dumm nicht die rote Karte zu nehmen.
Aber der Preis den AMD dafür zahlt ist, wie Du sagst, ein reduziertes Budget für weitere Entwicklungen. Gerade im Bereich der ~200 Euro Karten ist die Marge doch recht gering. Da 10 Euro billiger zu sein ist für den Käufer oft der ausschlaggebende Grund, aber je nach Karte sind 10 Euro schon ein Dicker Teil der Marge.

Aber beide Punkte etwas off topic hier, also noch was zum eigentlichen Thema:

Wissen wir wie groß die Unterschiede sind zwischen den Binning Klassen?
Wissen wir wie groß die Preisunterschiede sind?
Wissen wir wie viel sich die Boardpartner sparen, wenn sie z.B. für OEM Karten die geringste Tier kaufen? (Danke für den Hinweis auf OEM @v3nom, hatte ich auch noch nicht bedacht vorher!)
Wissen wir ob ein eigenes binning noch nötig ist?

Alle Antworten sind aktuell glaube ich "nein".
Eine Spekulation ob dies zu Aufpreisen, oder sogar zu sinkenden Preisen (bzw. höheren Margen für die Boardpartner) führt, ist also komplett ohne Grundlage.
Natürlich kann es bedeuten, dass für alle die Kosten steigen und niemand außer bad boy NVidia profitiert. Aber die aktuell vorhandenen Punkte sprechen da eher dagegen.
Immer nur direkt vom schlecht möglichsten auszugehen, OHNE die nötigen Grundlagen an Fakten, hilft doch wirklich niemand weiter. Es schafft nur künstlich schlechte Stimmung, die evtl. eher eine deutlich bessere sein sollte.
Das die Silikonlotterie wegfällt finde ich z.B. extrem positiv. Und ich kann mir nicht vorstellen, dass die Boardpartner das nicht auch so sehen.

Bei mir ist das eine Karte und ein paar % auf die es eh nicht ankommt. Aber für die Boardpartner bedeutet das eine stark vereinfachte Kalkulation, schnellere und berechenbarere Prozesse, evtl. ein Wegfall des eigenen Binnings.
Ohne belastende Belege bin ich nicht gewillt hier die Boardpartner in irgendeiner Opferrolle zu sehen.

Aber um es klarzumachen: Wenn wir Antworten zu den 4 Fragen bekommen und die Zahlen für alle negativ sind, bin ich genauso gewillt Nvidia dafür zu flamen.
 
Zuletzt bearbeitet:
Vorher zu wissen was man bekommt, ist nun also ganz "offiziell" auch schlecht für den Kunden und die Boardpartner.
Ich glaube ich gebe es auf diese Logik zu verstehen.

es KANN schlecht sein für die kunden. denn bisher hatte man ja die chance für "kleines" geld eine perle zu ergattern, dank dem vorgehen von nv kann man das nun aber getrost vergessen. und mit diesem schritt verhindert nv auch, dass die customs von den partnern selektiert werden und allenfalls gute chips günstiger als die FE angeboten werden.
dadurch hat nv halt ein mittel mehr um den preis zu diktieren und so die überteuerten FE's zu verkaufen.


bezüglich bildqualität würd ich mich nicht zu sehr darauf verlassen, dass die 20xx-reihe da viel bewegt. wie gut proprietäre aufhübschtechniken am markt bleiben, kann man ja in der vergangenheit gut beibachten...
hairdings, physix-dings etc....
alles wurde beworben als der gamechanger und sah auch gut aus, aber gebracht hats ausser hübscher schlechter performance nix.

und bei rtx wirds wohl genau so gehen. schlimm genug, dass selbst vorzeigetitel in 1080p gezeigt werden mussten...

ich hoffe rtx wird wirklich standard, den raytracing MUSS den durchbruch schaffen, aber bei der 20xxer reihe ist es einfach nur marketing um den hohen preis zu rechtfertigen.
 
Ihr bekommt nun mal die Leistung von AMD geboten [...]
Weiter hab ich nicht gelesen. Ich weiß nicht wer mit "ihr" gemeint ist. Ich selbst hab für eine mind. Leistung in OpenCL/HSLS auf eine nicht abgerockte gebrauchte gewartet und es wurde halt die Karte aus der Sig. Noch mit Garantie. Und u.a. wegen dem Kühler.
Sich keine gebrauchte 1060/6G für ~90€ mehr geholt zu haben, ebenfalls nicht zum Zocken und wesentlich verbrauchter, macht wohl keinen zum "ihr" oder gar zum Fanboy. Oder was sollte das?

Du hast also keine Boards VON Intel? Warum nicht?

edit:
Oha. Der Botschaft greift nun zum Stilmittel: Rufmord. Klares Zeichen irgendwas richtig zu machen.
 
Zuletzt bearbeitet:
Schlimm nur , wenn Nvidia sich selber bevorzugt und ihre Boardpartner die Chance verwähren gut Geld zu verdienen .
Immerhin waren es eigentlich die Boardpartner die ihre Produkte entsprechend am Markt im Bereich Gaming platziert hat.

Wenn es irgendwann so ist das man gleich nur noch bei Nvidia bestellt und die irgendwann noch bessere Referenzmodelle bringen .
Wo sollen da noch die Boardpartner verdienen ?

Nirgends. Sie werden halt zunehmend zu reinen Bittstellern und Zulieferern degradiert. Das Plattform bzw. Apple und Google Prinzip halt. Der Schritt ist doch naheliegend. Nvidia formt sein Geschäft immer mehr zum Plattformgeschäft und Gesamtpaket. Das ist das Apple Prinzip. 3DFX hatte sich damals mit eigenen Karten verhoben. Sie haben dabei aber einen entscheidenden Fehler gemacht. Sie wollten die Karten selber produzieren und haben sich eine Fabrik gekauft. Nvidia machts wie Apple. Sie nutzen die Fabrikkapazitäten von Foxconn & Co in Asien und lassen günstig fertigen, machen die Vorgaben, kontrollieren und vermarkten das dann selber. So schöpft man den größten Batzen in der Wertschöpfungskette ab und verlagert die Schwankungsrisiken in der Nachfrage auf den Auftragsfertiger. Das ist halt einfach clever. Im Grunde ist es das was die deutsche Automobilindustrie mittlerweile seit über einem Jahrzehnt betreibt und zwar exakt genau so.

In ein paar Jahren werden einige AIBs das zeitliche gesegnet haben. Es sind schlichtweg zu viele und es wird dann nur noch explizite Billig AIBs, AIBs im Mittleren Preissegment und ein paar Hand verlesene für die High End OC Karten geben. Alles andere wird m.E. früher oder später direkt von Nvidia kommen. Im Profi Bereich kommen bereits ganze Server von Nvidia.
 
Zuletzt bearbeitet:
ich hoffe rtx wird wirklich standard, den raytracing MUSS den durchbruch schaffen, aber bei der 20xxer reihe ist es einfach nur marketing um den hohen preis zu rechtfertigen.
Wie kann es reines Marketing sein um hohe Preise zu rechtfertigen, wenn jeder mittlerweile genau weiß, das ein nicht unerheblicher Teil spezieller RT Cores für die hohen Chipflächen verantwortlich ist und gleichzeitig eine kostenintensive Softwareumgebung geboten wird samt Unterstützung der Gameentwickler? Das all diese geleistete Arbeit nun mal irgendwer bezahlen muss, ist doch klar, das dies logischerweise der Hardwarekäufer sein wird ebenso. Das Henne Ei Problem wurde schon an allen Stellen angesprochen. Irgendwer muss irgendwann mal den Anfang machen, sonst tritt man ewig auf der Stelle und nichts entwickelt sich weiter. Soll diese Pioneer Arbeit etwa AMD stemmen die nicht mal ihren letzten Grafikchip vollfunktionsfähig bekommen nach einem Jahr?

Die RTX 2000er Serie von nVidia ist nun mal so ausgefallen wie sie jetzt da ist, punkt, rumzubocken und jammern das man dies und jenes persönlich gern anders gehabt hätte, erinnert doch sehr stark an eine Kleinkinder Grabbelgruppe. Entweder man ist bereit das Geld zu zahlen oder nicht, wenn nicht gibt es genug andere Produkte zu günstigeren Preispunkten und lebt halt mit deren Einschränkungen.


Weiter hab ich nicht gelesen. Ich weiß nicht wer mit "ihr" gemeint ist.
Merke: Du liest nicht einen simplen kompletten Satz und fragst dann unsinnigerweise anschließend nach? Erkennst du dein persönliches Versagen?
Ihr bekommt nun mal die Leistung von AMD geboten, welche die typische AMD 'geiz-ist-geil' Käuferschicht bereit ist zu zahlen. Keine Einnahmen bei der VGA Sparte bedeutet eben auch keine Entwicklungsgelder, das Thema ging erst vor paar Wochen bezugnehmend auf AMD durch die Presse.


Ich selbst hab für eine mind. Leistung in OpenCL/HSLS auf eine nicht abgerockte gebrauchte gewartet und es wurde die Karte aus Sig. Noch mit Garantie. Und u.a. wegen dem Kühler.
Sich keine diese gebraucht für ~90€ mehr als 1060/6G geholt zu haben, ebenfalls nicht zum Zocken und wesentlich verbrauchter, macht wohl keinen zum "ihr" oder gar zum Fanboy. Richtig?
Du kaufst gebrauchte Hardware im unter 100Euro Preisbereich und 'feierst' dein niedrigen ('geiz-ist-geil') Preis wo AMD ja quasi nichts verdient hat dran, erkennst du Parallelen zu meiner Aussage weiter oben? Zumal wieso belehrt so ein 'Pfennigfuchser' wie du überhaupt andere User über >500 Euro High-End und Enthusiasten Grafikkarten? Du bist mehr als offensichtlich nicht die Zielgruppe dieser nVidia RTX Hardware.

Du hast also keine Boards VON Intel? Warum nicht?
Wenn du einmal lesen würdest, würdest du sehen das ich ein High-End Gaming Notebook benutze. Dies hat logischerweise ein Hersteller eigenes angepasstes Board Design. Davon abgesehen ist es ein 'Intel Board' mit Z170 Chipsatz und derzeit noch i7-8700K CPU, welcher auf absehbare Zeit gegen ein 9900K ersetzt wird. Und bevor du mich jetzt irgendwie mit deiner Weltanschauung versuchst zu missionieren: Ich gebe mein erarbeitetes Geld für mein Hobby aus wie ich es will!
 
Zuletzt bearbeitet:
es KANN schlecht sein für die kunden. denn bisher hatte man ja die chance für "kleines" geld eine perle zu ergattern

Richtig, es ist also schlecht für den Glückspilz und für die Leute die gerne Glücksspiel betreiben bei ~1000 Euro GPUS. Würde aber behaupten, dass dies die Minderheit ist.
Genau zu wissen was man kauft ist sicher ansprechender.

alles wurde beworben als der gamechanger und sah auch gut aus, aber gebracht hats ausser hübscher schlechter performance nix.

Zum Beispiel Rasterberechnungen. Bei denen es damals die selbe Diskussion gab.
RT ist kein Hairworks, es ist eine neue Art ein Bild zu berechnen mit deutlich geringerem Produktionsaufwand und verbesserter Grafik.
Wenn schon vergleichen, dann mit dem Vergleichen was das selbe bewirkt und nicht mit kleinen Gimicks die kein Mensch bemerkt.
Wieviele GPUs unterstützen heute die Rasterberechnung (die auch NVidia als erste raus bracht und bei der auch gemeckert wurde)?

und bei rtx wirds wohl genau so gehen. schlimm genug, dass selbst vorzeigetitel in 1080p gezeigt werden mussten...

ich hoffe rtx wird wirklich standard, den raytracing MUSS den durchbruch schaffen, aber bei der 20xxer reihe ist es einfach nur marketing um den hohen preis zu rechtfertigen.

Das Marketing haben sie total verbockt.
So viele falsche Dinge die die Masse verbreitet, gehört das Marketingteam gefeuert.

Vorzeigetitel in 1080p haben RT cores gar nicht benutzt. Darum lief es so müllig. Nur 2 Tage darauf liefen Titel wie Enlisted in 4k 90-130fps mit RT on.
Das sie sowas nicht zur Veröffentlichung gezeigt haben ist echt ein derber Fail gewesen. Das nun aus den Köpfen rauszubekommen wird schwer bis unmöglich, egal wieviele Beispiele und Fakten es gibt.
Was Marketing und Preis angeht: Der Chip hat 752mm², du kannst physisch SEHEN das es kein Marketing ist, sondern vorhandene Hardware. Also keine Marketingworte, sondern schlicht überprüfbare Fakten.
Leider sind Fakten nicht gerade etwas das die Hater gerne sehen, darum wird es zu gerne untern Tisch gekehrt. Auch hier hat das Marketing offensichtlich versagt.
 
Merke: Du liest nicht einen simplen kompletten Satz und fragst dann unsinnigerweise anschließend nach? Erkennst du dein persönliches Versagen?
Ich fürchte da geht es mir genauso wie dir (bin ja auch nur ein Mensch). Ich bemerke sowas immer nur bei den anderen.
Sonst macht es natürlich keinen Sinn in weitere Details zu gehen, wenn das Grundsätzliche worauf eine These aufbaut schon voll daneben ist. Eine Aufklärung bleibst du schuldig. Der Ball war also bisher noch nicht bei mir.

Du kaufst gebrauchte Hardware im unter 100Euro Preisbereich
Ja DAS wäre wirklich schön :d

und 'feierst' dein niedrigen
Deine Denkfehler multiplizieren sich logarithmisch... Ich feier überhaupt nichts. Es war mir ausreichend gut zu dem Preis.

Zumal wieso belehrt so ein 'Pfennigfuchser' wie du überhaupt andere User über >500 Euro High-End und Enthusiasten Grafikkarten?
Sehe oben. Ich belehre?

Und bevor du mich jetzt irgendwie mit deiner Weltanschauung versuchst zu missionieren: Ich gebe mein erarbeitetes Geld für mein Hobby aus wie ich es will!
Du könntest nebenbei auch mal bemerken, daß sich der Thread nicht um dich dreht. D.h. viele versuchen bei dem Thema für sich selbst herauszufinden ab wieviel Triliarden Euronen sie sich eher selbst verarschen als daß sie wirklich was von haben. Deine Meinung dazu sei dir stressfrei überlassen (!), aber das Problem mit dem Missionieren liegt dann wohl eher bei dir als bei mir. Sowas merkst du ab und zu doch auch mal selbst richtig?

Eine kack 2080Ti kann ich mir von dem Geld kaufen was grad in der Patte steckt. Du hast eine sehr rechtwinklige Weltanschaung. Klapp das Highend-Notebook zu und geh auch mal bisschen raus...

Bis denne.
 
Zuletzt bearbeitet:
@Performer
Das nehme ich schwerst an, daß die preislich-A+ Karten auch A-Chips haben werden. Das wird sich keiner anders erlauben. Wäre jetzt meine kleinste Sorge.
 
So wie das bis jetzt aussieht werden sich die pros keine Custom Karten mehr kaufen, sondern auf die FE zurückgreifen.
Obwohl ich nicht glaube, dass NV den Herstellern verbieten kann zu sagen wie es um die Qualität der eigenen Produkte aus sieht.

Solange NV genug FEs liefern kann, werden die Hersteller das Nachsehen haben!

Denke die Hersteller werden so eher wieder interessant bei den noch folgenden Midrange-Karten, die ja noch folgen werden ...
 
Wie kann es reines Marketing sein um hohe Preise zu rechtfertigen, wenn jeder mittlerweile genau weiß, das ein nicht unerheblicher Teil spezieller RT Cores für die hohen Chipflächen verantwortlich ist und gleichzeitig eine kostenintensive Softwareumgebung geboten wird samt Unterstützung der Gameentwickler?
Weil es vorher schon die Möglichkeit gab und auch immer noch gibt Raytracing in Spielen durchzuführen - wenn man es unbedingt will. Die Demos von Nvidia haben mehrere krasse Rahmenbedingungen, die Spieleentwickler kaum oder gar nicht implementieren wollen:
a) Die De-Noiser Funktionen arbeiten nur mit einer Quelle. Sobald du Schatten/Reflektionen entrauschen willst die mehrere Quellen haben ist Ende (eine normale Szene kann heutzutage schon um die 20-30 Lichtquellen haben, mit mono bist du im Jahre 1995) Da sind traditionelle Methoden sowohl performanter als auch qualitativ ebenbürtig. Wenn du trotzdem und ganz ganz bitter Raytracing haben wollen, frage ich dich: Warum auf einmal? Mit AMD Karten konntest du das vorher auch und da wars dann völlig egal. Jetzt wo Team grün ein paar Marketingfolien raushaut isses auf einmal heiße Schokolade. Kapier ich nicht.
b) Gameworks oder nicht - du schließt mit Gameworks automatisch jegliche alternativ-Konzepte aus. Dein Studio hat einen tollen Entwickler für ein spezielles Grafikfeature? Den kannste jetzt entlassen, weil Nvidia dir da schon ne 0815 Lösung gibt. Spieleentwicklung am Fließband mit der Qualität von Burger King. Ich hoffe es schmeckt auf Dauer. Oh, und du bist natürlich ab jetzt von Nvidia abhängig. Denn gefällt denen nicht, dass du auch für AMD optimierst, dann könnte es sein, dass deine schöne Gameworks-Lizens futsch ist. Wäre ja wirklich schade.

Das all diese geleistete Arbeit nun mal irgendwer bezahlen muss, ist doch klar, das dies logischerweise der Hardwarekäufer sein wird ebenso. Das Henne Ei Problem wurde schon an allen Stellen angesprochen. Irgendwer muss irgendwann mal den Anfang machen, sonst tritt man ewig auf der Stelle und nichts entwickelt sich weiter.
Ja, das Problem hatte AMD im Enthusiasten-Lager (vor Vega) und trotz hoher Leistung wurde da nix gekauft, weil high-end eben sehr stark durch Marketing und weniger durch Real-Leistung durch die Geldbörse geht. Hätten die ganzen "Enthusiasten" nach Leistung gekauft, wären Spieleentwickler auch auf AMD eingegangen und wir hätten jetzt optimierte Spiele für beide Firmen, AMD hätte Entwicklungsbudget und der high-end Markt wäre kein reines Monopol. Vega hat gezeigt, dass AMD mit 5% von Nvidias Budget für R&D halt nicht mehr mithalten kann und die Kartoffel fallen gelassen.

Mal ganz ehrlich: Selbst *wenn* AMD eine high-end Karte mit mehr Rohleistung entwickeln würde - was denkst du, wie viele davon werden an Enthusiasten verkauft? Mehr oder weniger also 50% im Vergleich zu Team grün?
Warum soll AMD nochmal für high-end entwicklen? Damit die grünen Fanboys bessere Preise von Nvidia bekommen? Ich find gut, dass sich AMD da komplett raushält und die Leute mal die Preise ernten, die sie gesäht haben. Von mir aus kann das noch 3-4 Jahre so weitergehen, bis Grakas 10.000 € kosten. Vielleicht wacht dann auch der letzte aus seinem Schlaf auf.


Soll diese Pioneer Arbeit etwa AMD stemmen die nicht mal ihren letzten Grafikchip vollfunktionsfähig bekommen nach einem Jahr?
Raytracing gibts schon, da gibts keine Pionier-Arbeit. Das ist komplett erfundenes Marketing. Was sich Nvidia hingegen bezahlen lässt ist das fehlen einer Konkurrenz. Das oben genannte Software-Toolkit für Entwickler ist btw nix anderes als ein trojanisches Pferd. Es gibt auch freie Tools zum Raytracen und wenn ein Unternehmen keinen Grafikprogrammierer einstellen will, der das mal ordentlich programmiert, dann gibts halt nur proprietäre Lösungen. Zu was das am Markt führt siehst du ja selbst.

Die RTX 2000er Serie von nVidia ist nun mal so ausgefallen wie sie jetzt da ist, punkt, rumzubocken und jammern das man dies und jenes persönlich gern anders gehabt hätte, erinnert doch sehr stark an eine Kleinkinder Grabbelgruppe. Entweder man ist bereit das Geld zu zahlen oder nicht, wenn nicht gibt es genug andere Produkte zu günstigeren Preispunkten und lebt halt mit deren Einschränkungen.
Heilige Mutter Maria, du hast dir die Marketing-Folien direkt in die Venen spritzen lassen. Die core-zu-core Leistzung ist identisch mit der vorherigen Generation, es gibt nur mehr Kerne. Architekturtechnisch hat sich kaum bis gar nix für die Spieler geändert. Das ganze Raytracing-Gedöns ist reines Marketing und die Preise sind so hoch weil die Leute halt Monopole lieben.

edit: Wie weit die Shader-per-shader Performance "ansteigt" kannst du dann in den Benchmarks sehen, die nächste Woche rauskommen. Mal sehen, ob irgendein Reviewer den Takt gleichstellt und die Kernanalyse startet. Bisher hat man sowas ja nur bei sehr wenigen, ausgewählten Youtube-Kanälen raussuchen müsen.
 
Zuletzt bearbeitet:
.

Vorzeigetitel in 1080p haben RT cores gar nicht benutzt. Darum lief es so müllig. Nur 2 Tage darauf liefen Titel wie Enlisted in 4k 90-130fps mit RT on.
.

wo bitte steht, dass die bf demo ohne die rt cores lief?

fakt ist doch, dass gerade dice bei bf eingestanden hat, dass sie die gezeigten rt-spiegelungen nicht in dem masse ins game integrieren können da zu fordernd. also wurde sehr wohl mit optischen spielereien werbung betrieben die von echtem rt so weit weg sind wie physix von echter physik.
 
Denke was @Rattenmann zum Ausdruck bringen möchte ist, dass der optische Aspekt war/ist definitiv beeindruckend.

Trotzdem hörte sich das in der Vorstellung nun mal etwas anders an. Keine Tricks mit zig Lichtquellen, keine Lightmaps um den Eindruck eines Realismus zu erwecken, einfach im Raum eine Lichtquelle platzieren und "strahlen" lassen.

Wenn nun selbst die großen Studios nach einem halben Jahr noch nicht wirklich etwas performantes zeigen können und es eine aufwändige Optimierung und viel Arbeit bedeutet, entspricht es nicht ganz der ursprünglichen Aussage.

Klar befindet sich die Technik noch am Anfang und selbst mit DX12 sind noch nicht alle 100% firm. Es bedeutet aber auch, dass man ungefähr mit einer Einführungszeit vergleichbar mit T&L rechnen kann und eigentlich auch erst in einem oder zwei Jahren sich die passende Hardware dafür anschaffen kann.
 
Wenn nun selbst die großen Studios nach einem halben Jahr noch nicht wirklich etwas performantes zeigen können und es eine aufwändige Optimierung und viel Arbeit bedeutet, entspricht es nicht ganz der ursprünglichen Aussage.
Nochmal. Das geht. Man weiß nur noch nicht so genau wie man das Abstufen soll, weil das geht, aber akzeptabel nur imt der Ti.
Und wenigstens die 2080 Käufer wollen aber auch schon was von RT haben. Also sucht man erstmal irgendwelche Mittelwege. Mit RT und[/u] Light&Shadow hat man auch mit der Ti nicht mehr viel zu lachen. Es sei denn man rettet die Fps mit DLSS. Dann wird es wenigstens knapp.

Es ist eben 1st gen... und man macht leider den Fehler alles grundsätzlich mit RT zu bewerben. Obwohl die Leistung dafür nur sehr sehr knapp ist.
 
Die Kosten für das Prozeder sind mit Sicherheit günstiger als bei nvidias Kapitalisten einzukaufen. Wer die Gerätschaften und das Humankapital hat, kann die Preise und Kosten immer selbst kalkulieren und daraus Entscheidungen fällen.
Dieser Freiraum entfällt nun.
Ist garkein so schlechter Punkt.
 
wo bitte steht, dass die bf demo ohne die rt cores lief?

fakt ist doch, dass gerade dice bei bf eingestanden hat, dass sie die gezeigten rt-spiegelungen nicht in dem masse ins game integrieren können da zu fordernd. also wurde sehr wohl mit optischen spielereien werbung betrieben die von echtem rt so weit weg sind wie physix von echter physik.

Dice selber hat gesagt das die Demo auf Tensor Cores lief. Auch TombRaider war nicht auf RT Cores ausgelagert.
Bei Zweifel, einfach mal "Enlisted RTX Demo" auf Youtube eingeben. Lief unter Vulkan, statt auf dx12, aber auch in 4k@90+. Es ist wohl nicht davon auszugehen, dass andere Hersteller sich nur so dumm anstellen. Gerade wenn sie selber sagen es war auf Tensor und nicht auf RT.
Sie hatten halt nur eine Titan V zur Entwicklung und die hatte kein RT. Die finale Hardware kam ne Woche vor der Vorstellung und die hat nicht gereicht um zu lernen wie man alles in RT umbaut. Es ist aber für den Release angedacht.
 
Ich fürchte da geht es mir genauso wie dir (bin ja auch nur ein Mensch). Ich bemerke sowas immer nur bei den anderen.
Sonst macht es natürlich keinen Sinn in weitere Details zu gehen, wenn das Grundsätzliche worauf eine These aufbaut schon voll daneben ist. Eine Aufklärung bleibst du schuldig. Der Ball war also bisher noch nicht bei mir.
Was soll ich aufklären? Dein Unverständnis meiner Aussage weil du nur selektiv lesen und zitieren kannst? Ne sorry, da ist mir die Zeit zu schade das nochmal alles wieder holen.


Ja DAS wäre wirklich schön :d

Deine Denkfehler multiplizieren sich logarithmisch...
Was für ein möchtegern schlaues Geschwafel, habe gerade das Gefühl eines Dejavue, kann es sein das du dieses pseudo intellektuelles Blabla schon mal in meine Richtung abgesondert hast?!


Sehe oben. Ich belehre?
Ja du bist scheinbar die 'bessere Hälfte' und dein Stil hat ein paar Beiträge weiter oben bereits ein anderer User trefflich beschrieben. Er kennt dich deine erlesenen Beiträge offensichtlich schon länger als ich.


Du könntest nebenbei auch mal bemerken, daß sich der Thread nicht um dich dreht. D.h. viele versuchen bei dem Thema für sich selbst herauszufinden ab wieviel Triliarden Euronen sie sich eher selbst verarschen als daß sie wirklich was von haben.
Naja mit einer GeForce RTX muss man sich nicht wirklich mehr verarscht vorkommen als es Vega Käufer wurden, bei denen jetzt doch die Features nicht beim Kunden 'reifen' sondern einfach eingestellt wurden. So wie ich das in Erinnerung habe wurden die Vega Karten auch nicht gratis verteilt sondern war teils über 1000 Euro teuer und bieten doch nur max GTX 1080 Niveau. Wo kann ich deine empörten Beiträge zu diesem Misstand nachlesen?


Deine Meinung dazu sei dir stressfrei überlassen (!), aber das Problem mit dem Missionieren liegt dann wohl eher bei dir als bei mir. Sowas merkst du ab und zu doch auch mal selbst richtig?
Du meinst so wie in diesem Beitrag von dir?
In deiner Welt produziert NV später nicht nur die Chips, sondern auch größtenteils die Karten und verkauft sie zum einen für dich fairen Preis?
Sonst ist mit dir aber alles ok, ja?


Eine kack 2080Ti kann ich mir von dem Geld kaufen was grad in der Patte steckt. Du hast eine sehr rechtwinklige Weltanschaung. Klapp das Highend-Notebook zu und geh auch mal bisschen raus...

Bis denne.
Das du mit unsachlicher Fäkalsprache Hardware abwerten musst, die dich bis dato keine Sekunde persönlich tangiert hat, zeigt doch welch Geistes Kind du bist. Schau mal wer von uns beiden heute mehr Zeit zwischen seinen Beiträgen Mittags bis Abends liegen hat, dann weißt du wer länger draußen unterwegs war.


Weil es vorher schon die Möglichkeit gab und auch immer noch gibt Raytracing in Spielen durchzuführen - wenn man es unbedingt will. [...]
Zeig bitte mal drei bekannte praktische PC Game Beispiele.


Ja, das Problem hatte AMD im Enthusiasten-Lager (vor Vega) und trotz hoher Leistung wurde da nix gekauft, weil high-end eben sehr stark durch Marketing und weniger durch Real-Leistung durch die Geldbörse geht. Hätten die ganzen "Enthusiasten" nach Leistung gekauft, wären Spieleentwickler auch auf AMD eingegangen und wir hätten jetzt optimierte Spiele für beide Firmen, AMD hätte Entwicklungsbudget und der high-end Markt wäre kein reines Monopol. Vega hat gezeigt, dass AMD mit 5% von Nvidias Budget für R&D halt nicht mehr mithalten kann und die Kartoffel fallen gelassen.
Was erzählst du für Märchen? Auf AMD Hardware wird aufgrund der Konsolen Deals, welche gleichermaßen GCN GPU Hardware in Konsolen und PC Grafikkarten verwendet, deutlich mehr optimiert als auf nVidia Karten. AMD hat hier ein wesentlichen Vorteil gegenüber nVidia, da die Konsolenports von Entwicklungsbeginn an an GCN Hardware angepasst wird. Davon abgesehen Enthusiasten wollen Leistung, wo war die 1080Ti Konkurenzlösung von AMD? Wessen Schuld ist es das Vega trotz viel späterer Veröfentlichung nur an eine GTX 1080 ranreicht?


Mal ganz ehrlich: Selbst *wenn* AMD eine high-end Karte mit mehr Rohleistung entwickeln würde - was denkst du, wie viele davon werden an Enthusiasten verkauft? Mehr oder weniger also 50% im Vergleich zu Team grün?
Warum soll AMD nochmal für high-end entwicklen? Damit die grünen Fanboys bessere Preise von Nvidia bekommen? Ich find gut, dass sich AMD da komplett raushält und die Leute mal die Preise ernten, die sie gesäht haben. Von mir aus kann das noch 3-4 Jahre so weitergehen, bis Grakas 10.000 € kosten. Vielleicht wacht dann auch der letzte aus seinem Schlaf auf.
Also auf der einen Seite sind Käufer an den hohen nVidia Preisen Schuld, welche (teilweise gezwungener Maßen alternativlos) nVidia kaufen (müssen) und auf der anderen Seite ist es gut das AMD sich aktiv vom Wettbewerb raushält, konkurrenzfähig ist und so für ein alternativloses nVidia Monopol sorgt?! Ähm ja, dem ist wohl nichts mehr hinzuzufügen.


Raytracing gibts schon, da gibts keine Pionier-Arbeit. Das ist komplett erfundenes Marketing.
Wer sagt das nVidia RT erfunden hat? Sie haben sogar selbst in ihrer RTX Präsentation am Anfang die Entwicklungen bei RT angeführt. Sie bringen mit anderen Partnern als erster Rasterization RT Hybrid in Games, das ist das was auch kommuniziert wurde.


Was sich Nvidia hingegen bezahlen lässt ist das fehlen einer Konkurrenz.
Laut deinen Angaben ist das doch gut, AMD soll doch noch mindestens 3 bis 4 Jahre keine konkurrenzfähigen Produkte bieten. Also dürften dich ja die RTX nVidia Preise freuen.


Das oben genannte Software-Toolkit für Entwickler ist btw nix anderes als ein trojanisches Pferd. Es gibt auch freie Tools zum Raytracen und wenn ein Unternehmen keinen Grafikprogrammierer einstellen will, der das mal ordentlich programmiert, dann gibts halt nur proprietäre Lösungen. Zu was das am Markt führt siehst du ja selbst.
Na wenn es problemlos freie Tools gibt für die Entwickler um RT in Computerspiele zu integrieren und die neue GPU Cores anzusprechen, wie du behauptest, werden die Entwickler sicherlich die für sich beste Lösung wählen können.


Heilige Mutter Maria, du hast dir die Marketing-Folien direkt in die Venen spritzen lassen. Die core-zu-core Leistzung ist identisch mit der vorherigen Generation, es gibt nur mehr Kerne. Architekturtechnisch hat sich kaum bis gar nix für die Spieler geändert. Das ganze Raytracing-Gedöns ist reines Marketing und die Preise sind so hoch weil die Leute halt Monopole lieben.

edit: Wie weit die Shader-per-shader Performance "ansteigt" kannst du dann in den Benchmarks sehen, die nächste Woche rauskommen. Mal sehen, ob irgendein Reviewer den Takt gleichstellt und die Kernanalyse startet. Bisher hat man sowas ja nur bei sehr wenigen, ausgewählten Youtube-Kanälen raussuchen müsen.
Verschone mich bitte mit deinem Glaubenskrieger Geschwafel und ich habe mir rein gar nichts spritzen lassen. Im Gegensatz zu dir unterliege ich diesem künstlichen RTX Histerie Anfall nicht! Was ich von Turing Leistung in herkömmlichen Games oder auch RT Games halten soll, darüber habe ich mir noch keine Meinung gebildet. Weil bis dato viel zu wenige geprüfte Informationen und Leistungsdaten zur Verfügung stehen um dies tun zu können, zu diesem Schluss müsste bis dato eigentlich jeder halbwegs sachliche objektive Beobachter kommen, sind hier offensichtlich die wenigsten. Wenn mir nicht gefällt was ich in den ersten eins zwei Monaten nach Turing Verfügbarkeit lese, dann nutze ich (aus freiem Willen) das neue nVidia Hardware Angebot nicht, so einfach ist das.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh