[News] Nvidia RTX 3090: Neue Hinweise deuten auf riesigen Videospeicher hin

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was Nvidia hier macht ist sich selbst den Arsch retten. Irgendwann hast du eine GPU so effizient dass du sie einfach in die CPU integrierst. Mit RT haben sie nicht nur eine bessere Technologie implementiert, sondern auch dafür gesorgt dass der Chip schön groß und teuer bleibt und schön viel strom frisst, sodass eine effektive Angliederung an eine CPU vorerst unmöglich bleibt.
RT-Stuff kostet nachweislich wenig Chipfläche - der Stromverbrauch ist auch nicht gestiegen, eher im Gegenteil, ohne RTX Load ist die Effizienz trotz quasi ausgebliebenem Prozesswechsel zu Pascal ganz gut gestiegen. Und mit RTX lässt sich das schwer bis unmöglich vergleichen, weil Pascal einfach drastisch langsamer ist - und damit noch deutlich mehr Strom für das bisschen Leistung versäuft...

Wenn Intel und AMD nur genug Zeit haben, würden sie APUs bauen die so Leistungsstark sind, dass nur noch XX70/80 Aufwärts alleine Sinn macht. Du hättest immer noch Abstriche mit geteiltem RAM und langsamerer Anbindung dessen, aber in dem Preissegment geht es um Preis/Leistung. Keiner braucht 16 Kerne in einem Midrange System aber 8 Kerne und eine 1060 in einem? Das wäre was. Und siehe da AMD macht genau das. Es braucht zwar zeit bis du da ne ordentliche Leistung hast, aber in 10 Jahren würde doch keiner mehr eine Budget GPU kaufen. Es sei denn diese budget GPU hätte etwas das die APU (noch) nicht haben kann... ja was könnte das wohl sein? Etwas was viel Strom frisst, Platz braucht und noch möglichst viel VRAM. Etwas das so heiß wird dass du es unmöglich mit der selben Durchschnittskühllösung abspeisen kannst.
APUs unterliegen den selben physischen Beschränkungen wie ne dGPU auch. Woher soll der Effizienzsprung kommen? Wenn es möglich wäre im Powerbudget xyz CPU und GPU zu vereinen - dann geht das im selben Powerbudget auch mit CPU + dGPU. Eher sogar besser, weil die Möglichkeiten zum Wärmeabtransport steigen.
Die Restriktionen um in einer APU entsprechend schnell den GPU Part nutzen zu können, kommen sogar noch OnTop (Speicheranbindung bspw.)

Zumal das APU Argument auch schon wie lange alt ist? 10 Jahre?
Keine Ahnung wie oft man schon erzählt, dass APUs jetzt das Ruder übernehmen werden... Real praktisch hat sich eher gezeigt, wirklich groß GPU Power braucht Otto Normalo im Schnitt nicht. Dort wo es gebraucht wird (Games oder im Compute Bereich), macht man bei der kaufbaren Grenze ner APU nicht halt, sondern es skaliert eben auch weiter über ne dGPU bis teils hin zu MGPU Systemen.
Am Ende schiebt sich nur die Grenze nach oben...

Das heißt nicht, dass APUs generell quatsch sind - eher im Gegenteil. In ner Konsole macht sowas bspw. durchaus Sinn - aber das ist eben dann auch ein relativ klar abgestecktes System - keine Flexibilität, lange Laufzeit und fixe Hardwarebasis. Ob der RAM jetzt gesockelt oder verlötet ist, spielt dort keine Rolle - tauscht eh Keiner.
Aber stell dir die ganzen Fertig PCs vor, wo du nichtmal mehr den Speicher tauschen kannst, weil da ne Hand voll GB HBM oder GDDR irgendwas verlötet sind auf dem Board... Die Leute in den Foren hupen doch schon, wenn alle 2 Jahre Intel einen neuen Sockel bringt :fresse:

Btw. Budget GPU ist immer so ne Sache - der Bedarf an der Basisperformance steigt aktuell seeeehr sehr langsam. Du kannst mit ner IGP von Intel fast jeden 0815 Basisspaß machen, ohne nennenswerte Einschränkungen, wenn überhaupt. Da brauchts halt keine Leistung, weil die Basis diese Anforderungen gar nicht (mehr) hat. Das war aber zu den Anfängen von IGPs bzw. OnBoard GPUs noch anders.
Ob das jemals über den Stand der absoluten Basiseinheit in der Fläche hinaus geht muss sich klar beweisen.

Nur hätte man ähnliche Effekte (physikalisch nicht 100% korrekt, aber wayne?) vermutlich auch faken können, so dass der sichtbare Unterschied sehr gering bis nicht wahrnehmbar ausfällt.
Die Frage ist, wie hoch ist der Aufwand für den Fake?
Das klingt immer so, als fällt ein halbwegs anständiges Beleuchtungskonzept einfach aus der Luft... Dabei ist eben genau dieses Thema einer der größten Pferdefüße von der Rasterisierung - während der Spaß im Raytracing einfach "per Design" abfällt.

Ich sag mal so - die Zukunft wird mMn nicht auf RT only liegen. Btw. ist auch das RTX an der Stelle komplett falsch - das Stichwort ist dort DXR -> RTX ist nur der Part von NV, die Schnittstelle oben ist DXR und hier können/werden/sollten an andere andocken. Unabhängig davon, ich sehe die Zukunft in einem Hybrid Modus, wo eben die Vorzüge von RT und die Vorzüge der Rastergeschichte in einem vereint werden. RT only fürs komplette Bild KANN man machen und das ist auch nicht schlecht, aber es kostet eben extremst viel Performance. Vllt erfindet wer irgendwann mal was, womit der Spaß viel viel effizienter zu berechnen geht als heute. Der Ansatz über den Denoiser die Anforderung massivst senken zu können ist bspw. genau so einer. Aber es ist halt alles noch sehr in den Kinderschuhen... Man sollte sich da keiner Illusion hingeben. RT wird im CGI Umfeld seit sonstwas genutzt - da sind teils riesige Renderfarmen am Strahlenschießen und man sieht dem Spaß an, dass es eben eine Computergrafik ist -> völlig utopisch das in Echtzeit in 250W auf einer Single GPU zu erwarten. Das Rennen wird also der machen, der den effizientesten Kompromiss erschaffen kann... Und der RTX Part bei NV ist da schonmal ein ziemlich guter, weil deutlich besser zu vorher, funktionierender Ansatz ;)
 
Denke auch, wenn jetzt Amd noch kommt mit Karten die entsprechende Leistung bringt bis runter zu den Konsolen wird Rt nicht mehr zu stoppen sein!
Wer weiss schon was passiert!
 
RT-Stuff kostet nachweislich wenig Chipfläche

im vergleich zu was? CPUs sind deutlich kleiner als ein GPU Die.

Ich frag mich halt, wo sich das alles hin entwickelt. Ich sehe fast keinen Vorteil von 1440p zu 4K. und dann 8K... . Klar, wenn es irgendwann so kommt das 8K einfach billig ist kauft es jeder, aber warum soll ich denn die Pixel befeuern die ich gar nicht sehe? Detailgrad wird zwar noch drastisch steigen, aber da ist auch irgendwann Schluss. Was ich meine ist es wird ein Punkt kommen wo die benötigte Leistung stagniert oder? Wir brauchen keine 1000FPS, wir brauchen keine 16K und wir brauchen nicht jedes Sandkorn zu simulieren.

Natürlich lässt sich die frage stellen ob das überhaupt relevant ist. Games streamen wird irgendwann die einzige Möglichkeit sein. 10 Jahre halte ich für quatsch allein schon wegen dem Netzausbau, aber es wird wohl so kommen. Dann hast du sowieso nur noch ein Endgerät was dazu da ist das darzustellen und Eingaben weiterzuleiten. Dann würde es sowieso nicht kommen weil Redundanz, Austauschbarkeit und Skalierbarkeit wichtiger sind.
 
im vergleich zu was? CPUs sind deutlich kleiner als ein GPU Die.
Im Vergleich zu nicht RTX tauglichen Turing GPUs... Es gibt doch da DIE Shots, wo man das nachgewiesen hat... Ggü. Volta GV100 bspw. lässt sich da auch benennen.

Ich frag mich halt, wo sich das alles hin entwickelt. Ich sehe fast keinen Vorteil von 1440p zu 4K. und dann 8K... . Klar, wenn es irgendwann so kommt das 8K einfach billig ist kauft es jeder, aber warum soll ich denn die Pixel befeuern die ich gar nicht sehe? Detailgrad wird zwar noch drastisch steigen, aber da ist auch irgendwann Schluss. Was ich meine ist es wird ein Punkt kommen wo die benötigte Leistung stagniert oder? Wir brauchen keine 1000FPS, wir brauchen keine 16K und wir brauchen nicht jedes Sandkorn zu simulieren.
Das kann man so oder so sehen... meist sieht man den Fortschritt eher weniger stark, rückblickend hingegen fällt das deutlich auf. Wenn du dir in 5 Jahren die ersten RTX Titel ansiehst, bspw. Tomb Raider mit RTX On, dann wirst du wahrscheinlich relativ klar feststellen, dass da ein massiver Unterschied zur non RT Version ist.
Und ja, das mit der Auflösung ist so ne Sache - aber auch da muss mal mMn klar differenzieren. Es wird heute (gerade auf den Konsolen) massivst Kaschiert, wo es nur geht, um Leistung zu sparen. Das fängt bei so ganz banalen Sachen an wie nem Weichzeichner, der da über das Bild geballert wird und alles außerhalb des direkten Sichtfeldes massivst unscharf macht. -> da brauchst du dann halt auch keine Details mehr berechnen. Du brauchst keine CPU Leistung für Objekte in der Ferne und die GPU Performance ebenso nicht - ist eh nur Matsche Batsche. Auf Konsolen kommt bei sowas noch ne dynamische Renderresolution-Reduktion dazu. Zumindest manchmal.
Da Argument - native Auflösung ist lange nicht mehr wirklich zutreffend, weil native ist nur die Pixelanzahl - nicht aber, was man damit darstellen könnte, wenn man es ausfährt. In sofern muss man schauen, wo hin die Reise geht. Ich brauch nicht 4k oder 8k oder sonstwas, wenn ein Mechanismus für knack-scharfe Bilder sorgt im Sichtbereich und alles außerhalb weg geblendet wird. Hier könnte so ein Ansatz wie DLSS ansetzen. Vllt sogar in dynamisch.

Natürlich lässt sich die frage stellen ob das überhaupt relevant ist. Games streamen wird irgendwann die einzige Möglichkeit sein. 10 Jahre halte ich für quatsch allein schon wegen dem Netzausbau, aber es wird wohl so kommen. Dann hast du sowieso nur noch ein Endgerät was dazu da ist das darzustellen und Eingaben weiterzuleiten. Dann würde es sowieso nicht kommen weil Redundanz, Austauschbarkeit und Skalierbarkeit wichtiger sind.
Das sehe ich skeptisch - 10 Jahre sind ne lange Zeit, da kann viel passieren, keine Frage. Aber schau dir mal die Jahr 20xx Vorhersagen aus den 70er oder 80ern an. -> da hat man sonstwas angenommen. Sehe wenig echten Grund zu Cloud-Only Gaming, den man nicht auch Zuhause bekommt. Wie gesagt, das Problem ist ja nicht das Internet - sondern die Leistungsfähigkeit overall der Hardware bzw. die Energieeffizienz dieser. Wenn 100k Leute gleichzeitig zocken, dann erzeugen 100k Leute eben auch gleichzeitig Last. Die muss irgendwo berechnet werden. Heute sind das dann eben 100k dGPUs im heimischen PC. Morgen sind das dann 100k Compute GPUs im Server irgendwo im RZ. -> ob es das besser macht, muss sich zeigen. MMn nicht. Der dezentrale Ansatz hat dort schon Sinn. Einziges Manko, wenn der Spaß unbezahlbar teuer wird, wird man sich andere Optionen einfallen lassen müssen. Wachstum in dem Bereich immer stetig aufrecht zu halten wird nicht -> also steigen die Preise.

Aber am Ende sind steigende Preise auch wieder "nur" eine Herausforderung für die Entwickler und Hersteller ein besseres Konzept zu finden. Effektiv ist das eigentlich schon immer so gewesen in der Geschichte. Ob dieses "andere" oder "neue" dann Cloud Gaming ist, kein Plan... Ich bin wie gesagt skeptisch...
 
Also doch alles nur der Neid der Besitzlosen?

Ja, "Eure" Armut kotzt mich an und ich habe mehr PS als Endgeschwindigkeit 8-)

Aber im Ernst: (da muss ich schon in mich hineinschmunzeln)
Raytracing ist geil und zum Glück sind die Konsolen aufgesprungen, denn sonst könnte das im Sande verlaufen oder weniger schnell vorankommen.
 
@Janchu88 ja war zu offensichtlich. aber lass dich nicht von doofen wie mir abbringen.

@fdsonne es geht ja um non RTX weil du mich ja widerlegen willst was die APUs angeht. Gleiches gilt für die Größe von den RT bereich. Das Argument war ja dass ohne RT die Leitung der GPUs so ansteigen würde, dass eine APU auch die Mittelklasse ersetzen würde und das das mit RT nicht geht. Was wir jetzt haben reicht aus um ein paar Fützen gut aussehen zu lassen wenn du verstehst was ich meine. Nicht jede Kante. Mal abgesehen davon wie genau das noch wird mit der Anzahl der Rays und Reflexionen. Wie du bereits sagtest ist eine GPU nicht nur zum Spielen da sondern auch für andere Berechnungen. Es würde demnach nur was dazu kommen und nichts wirklich wegfallen oder?

Zukunft kann niemand voraussagen. Ein guter PC kostet aber schon ordentlich. Dafür dass du alle 5 Jahre oder so im vierstelligen Bereich investieren musst, kann man durch ein Streamabo schon einiges Sparen. Klar du hast welche die länger brauchen aber für die die immer das Neuste spielen wollen. Du lastest halt deine GPU nicht 24/7 aus sondern nur sagen wir 2 Stunden am Tag. Sprich du verschwendest ziemlich viel Zeit der Lebensdauer, womit ich die Leistungsrelevanz für aktuelle Spiele meine, damit dass sie nur rumliegt. Du kannst also die Kosten der Karte auf die Anwender aufteilen. Wenn du 12 Leute hättest die sich eine Karte teilen und du alle 2 Jahre aufrüsten würdest wäre das für alle günstiger und du hättest immer die beste Performance.

Ob die Leute dann auch dafür das Geld hinlegen und wie du das ganze managen willst mal dahingestellt. Ich sehe sowas aber ganz klar für Konsolen. Die haben sowieso alle die gleiche Performance. Und da überwiegt halt der Kostenfaktor enorm. Wenn du die Leute dazu bekommst keine Spiele zu besitzen sondern nur noch zu Leihen dann bekommst du die auch dazu sowas zu abonnieren. Rechnerisch macht es sinn. Die Box können sie ja trotzdem kaufen.
 
5-10 Jahren, vorher ist RT ein Witz.
Ich sehe aber nicht ein, dass ich
für die Banane zahle.
 

Anhänge

  • rtx-off-rtx-on-dem-graphics-62899252.png
    rtx-off-rtx-on-dem-graphics-62899252.png
    124,2 KB · Aufrufe: 96
Mir war als ob ich vor kurzem Metro Exodus, sowie control mit RT Support gespielt hatte. Mehr als nur paar reflektionen, sondern auch global Illumination, etc. Witzig war das garnicht, dafür ziemlich beeindruckend und das ganze in den heutigen Tagen. Nicht erst in 5-10 Jahren. Gerne mehr davon.

Aber: zwingt einen ja keiner das Feature zu nutzen. Man kanns ja auch deaktivieren, wenn es so mies ist

Und bitte mal sachlich bleiben, wer mit Kot um sich werfen will soll das bitte auf reddit tun
 
Das mit der Banane ist evolutionsbedingt so. Manche Dinge bleiben im Auge des Betrachters aber einfach auch krumm. Dann geh halt nicht mir der Zeit.
 
@MENCHI Dann bleibt dir wohl nur übrig keine zu kaufen. Ich finds auch dumm, aber wie aus verschiedenen Gründen hervorgeht wirst du wohl so oder so kaum einen Vorteil haben selbst wenn es nicht da wäre. Ob Nvidia dir die gleiche Karte ohne RT für den Preis verkauft hätte oder der Leistungszuwachs nicht da ist spielt letzten Endes keine Rolle. Es ist da und es bleibt da. Das ist halt Angebot und Nachfrage mal ganz anders. Und ich schätze wenn AMD die letzten Jahre nicht geschwächelt hätte würdest du auch wirklich nicht draufzahlen. Also beschwere dich eher bei denen und nicht bei Nvidia. So oder so haben die bisher nichts damit falsch gemacht denn irgendwann werden auch die letzten eine neue Karte kaufen müssen. Und die wird RT haben. Von wem auch immer.
 
was halt wirklich schei*e wird ist, wenn du es benutzen kannst aber deine Karte nicht reicht. eine 2060 ist lachhaft. selbst die 3090 wird da wohl wieder schnell altern. Es wäre sinnvoller sie würden den ersten Karten so viel wie möglich geben damit du später überhaupt was damit anfangen kannst. keiner kauft sich die unteren Karten wegen RT. Aber kostet halt in der Herstellung. Und es ist sogar fast besser für die weil du dann auf den Geschmack kommen könntest und dir deswegen schneller ne neue holst bzw ne teurere. Ich mein wenn du dir ne 1080ti geholt hast hältst auch noch bis Hopper oder so durch. Damit könnte man dann vlt. schon was anfangen. Aber jetzt noch zu wechseln halte ich für quatsch. Das hätte man zum Turing Launch machen müssen.
 
Noch scheisser ist, wenn du es benutzen möchtest aber deine Karte es überhaupt nicht kann.
Was ich sagen will, man klagt mit Nividia was rt angeht letztlich auf hohem Niveau, so fair muss man sein. :)
 
@Holzmann Ja gut man kann auch kein Geld ausgeben was man nicht hat, dass ist allg. so. Aber wenn ich schon für etwas zahle will ich auch dass es zumindest funktioniert und das tut es bisher eher schlecht. Du hast die Karte ja mit dem Wissen gekauft dass sie es nicht kann und dafür auch kein Geld gezahlt. Ich erwarte ja auch nicht dass ein i5 8600 plötzlich HT bekommt nur weil der 10 gen das hat. Zumal deine Karte es ja theoretisch kann. Nur nicht gut und von den Spielen unterstützt.
Beitrag automatisch zusammengeführt:

nichts hält dich davon ab jetzt eine RT fähige GPU zu kaufen außer dein Geldbeutel und Verstand. Aber du kannst nichts dagegen tun, dass RT auf deiner Karte ist wenn du mehr Leistung haben willst als eine 5700XT hergibt oder das es funktioniert.
Beitrag automatisch zusammengeführt:

Wenn du dich auf ein Lager beschränkst dann ist das dein Recht aber du musst mit den Konsequenzen leben. Ich beschwere mich auch nicht dass mein 9900KS keine 16 Kerne hat und eine ordentliche Wasserkühlung braucht.
 
Zuletzt bearbeitet:

Naja Fps fallen nur dadurch von über 100fps auf 60fps. Die Karte ist in FullHD mit RT on am glühen und völlig ausgelastet.
Sieht aber endgeil aus. Das was gespiegelt, wird ist genau so vorhanden.

rt.jpg


rt2.jpg
 
Zuletzt bearbeitet:
Mit einem rt fähigen game kann ich im game Menü rt auf jeder dx12 fähigen karte rt aktivieren?
 
Könnte man mich bitte noch meine Frage aus #320 beantworten, danke!
 
Oder wie wäre es wenn du selbst schaust? Ist es in den Einstellung und anklickbar gehts, wenn nicht, tja dann halt nicht.
 
Raytracing läuft auch unter Windows 7, soweit vom Spieleentwickler umgesetzt.
Eine DX11 fähige Grafikkarte kann auch raytracing Berechnungen durchführen, siehe Intel mit World of Warcraft.
Kombinationsmöglichkeiten gibt es einige.
 
Solange die Karte nicht alle RT-Features @4k @VeryHigh mit min. 60FPS konstant und bei allen und zukünftigen Spielen (die nexten 2 Jahre) schaft,
ohne das die GPU am Anschlag ist, werde ich keine 1300€+ ausgeben. So einfach. NVIDIA / GPU Hersteller bieten zur Zeit keine High End GPU die
mich "anlacht" Hab die RTX20xx ausgelassen und werde es auch mit RTX30xx machen. Dieses Spiel treibe ich solange, bis die Leistung den Preis wert ist.
Aber lächerliche Preise und Kompromisse bei Zocken geht nicht. Deshalb schiebe ich auch seit min. 3 Jahren den Monitor-Kauf. 4k Gaming, nein danke.

Hab es nicht eilig. Der Scheiß wird mit der Zeit von alleine günstiger. Ich persönlich bin grad in der Lage, wo ich warten kann / muss. Die nächsten 2-3
Jahre kann ich entspannt zuschauen und mich dann entscheiden. Mit mir wird NV kein Geld verdienen und AMD ... was soll ich sagen ... *hust*
 
Ich schätze mit gddr7 und 5nm gpus wird es wieder nen ordentlichen Schub geben
 
Es gab schon einen ordentlichen Leistungs Schub, aber nicht so für die Gamer interessant.
Wenn ihr euch mal die Leistung von Optix anguckt was, im Vergleich zu Cuda, ist es schon ein beachtlicher Leistungsanstieg.

Dafür das es die erste RTX Gen ist, haben sie das brauchbar umgesetzt.Zum zocken mehr ein Blick in die Zukunft.
Was ich aber wirklich gut finde, das man die Karten quasi auch professionell nutzen kann und ne RTX 2080 mal "einfach" z.B. bei Blender die Leistung eines AMD 64 Kerner stemmt.

Raytracing galt schon früher als die Zukunft, da glaubte man noch die CPU alleine packt das irgendwann, das war aber noch zu Zeiten, wo man (Intel) dachte das alle paar Jahre die Taktraten verdoppelt werden können.
Ein Blick in die Filmindustrie zeigt ja was geht, wenn genug Power da ist.
 
Ich mein ich hab ja auch meine Bedenken mit first gen RTX auf den midrange karten. Aber ehrlich gesagt wenn ich mir das anschaue muss ich eventuell auch das überdenken.


In 1080p kann man die Features auch auf einer 2060(S) vollumfänglich nutzen. Viel mehr kann man wohl nicht erwarten denke ich. Wer meint, er braucht 4k mit RT auf Ultra und kann keinen Frame unter 60 fps zocken muss halt tiefer in die Tasche greifen. Die grundsätzlich Preispolitik heutzutage ist natürlich ein anderes Thema.

Ja in einigen Spielen ist die implementierung nicht so beeindruckend, idR die Titel wo nur ein Teil der Features genutzt wird. Ich kann jedem wirklich nur dringend Metro Exodus und control als paradebeispiele nennen. Und damit meine ich nicht 3 min Youtube Video und 2 schäbige Screenshot Vergleiche. Wenn man es mehrere Stunden live erlebt hat kommt der Effekt und seine Natürlichkeit viel beeindruckender rüber. Dann will man nicht mehr zurück, da einem dann - insbesondere in Gebäuden - die miese Beleuchtung auffällt. Nebenbei haben die beiden Titel auch spielerisch jede Menge zu bieten haben, sind also nicht nur nett anzuschauen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh