Alle Details zur neuen GeForce-RTX-Generation auf Ampere-Basis

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Doch, doch - die Gpu-Taktraten sind bekannt https://www.hardwareluxx.de/images/...on-00177_E238640DF2D64A87985298A0082AA9A0.jpg
Vermutetes Problem - im Sinne von: Wer will noch mehr als 320 W verbraten? - wäre somit, dass wenn eine auf 2 GHz übertaktete 2080 ti + Speicherübertaktung (müsste auch 300 - 320 W schlucken) in Doom Eternal gerade mal 5 - 10 % langsamer ist, oder in Ashes vllt. 10 %, die Luft für eine 3080 ziemlich dünn wird.

Um auf +2 GHz zu kommen werden es dann locker 350 W und bei 2,1 GHz bestimmt das Maximum von 400 W was der 12-Pin Stecker und PCie-Slot hergibt.
Abseits von den 1 % mit Wasserkühlung macht dies niemand mit.
Ampere schluckt somit wie rdna navi unverhältnismäßig viel.
Doppelte an FP32 EInheiten, aber weit entfernt von doppelter Leistung. Skaliert nicht so dolle.

Das heißt dann auch das 3070 = in Raster schneller als rtx 2080 ti nicht mehr stimmen wird (oder nur selten).
Mit "schneller" bezog sich Mr. Lederjacke wohl nur auf Raytracing-Leistung.
 
Doch, doch - die Gpu-Taktraten sind bekannt https://www.hardwareluxx.de/images/...on-00177_E238640DF2D64A87985298A0082AA9A0.jpg
Vermutetes Problem - im Sinne von: Wer will noch mehr als 320 W verbraten? - wäre somit, dass wenn eine auf 2 GHz übertaktete 2080 ti + Speicherübertaktung (müsste auch 300 - 320 W schlucken) in Doom Eternal gerade mal 5 - 10 % langsamer ist, oder in Ashes vllt. 10 %, die Luft für eine 3080 ziemlich dünn wird.

Um auf +2 GHz zu kommen werden es dann locker 350 W und bei 2,1 GHz bestimmt das Maximum von 400 W was der 12-Pin Stecker und PCie-Slot hergibt.
Abseits von den 1 % mit Wasserkühlung macht dies niemand mit.
Ampere schluckt somit wie rdna navi unverhältnismäßig viel.
Doppelte an FP32 EInheiten, aber weit entfernt von doppelter Leistung. Skaliert nicht so dolle.

Das heißt dann auch das 3070 = in Raster schneller als rtx 2080 ti nicht mehr stimmen wird (oder nur selten).
Mit "schneller" bezog sich Mr. Lederjacke wohl nur auf Raytracing-Leistung.

Bissel sehrviel weit aus dem Fenster gelehnte Speku für einen Post hyrasch..
 
Warum?
Es sind Vermutungen nicht auf Basis von Hopfen und Malz sondern das was echte Angaben (Taktraten, Verbrauch) und echte Benchmarks (die nicht gefälscht, manipuliert sind) hergeben (und wenig Nachdenken).
Das gleiche auch schon mit Doom Eternal erörtert. Da weist alles darauf hin das nvidia flunkert und die Erwartungen zu hoch sind.
Aus der 2080 ti kann man halt noch ein gutes Stück 200 MHz Gpu-Takt und 2 Gbps Speicherdatenrate herausholen, und landet auch bei 320 W. Bei der 3080 ist halt wie bei der 5700 xt beinahe Ende.
Da sieht mir nichts nach Durchschnittlich +40 % in Raster gegenüber der 2080 ti aus.
Und auf der nvidia Präsentationsfolie steht nur "faster than 2080 ti", nicht aber in was schneller (hat Jensen auch nicht mündlich erwähnt). Somit ist es deutlich. Nicht in Raster, sondern raytracing/dlss.

In Raytracing ja.
Habe das ganze Video nicht angeschaut. Der Entwickler erwähnt irgendwo jedoch zweimal das die rtx 2080 ti in Raytracing in etwa dem entry-level von Ampere gegenüber steht; also der rtx 3060.
 
Naja da hätte man ja wie Jensen es gemacht hat, eine Videobotschaft als Ersatz bringen können!
Naja, das hatten sie vor bis NV in ihrer Show AMD zu das gebracht haben :wut:

Jensen hat Lisa Su mit genötigt :haha:
 
Wenn das Zeug nix taugt dann eben :wut::heul:
 
Wenn die 3090 übertaktet 40 Prozent schneller als die 2080TI übertaktet ist und gute 32" UHD Monitore mit GSync und > 100Hz verfügbar sind, ist es mir Wurst, wo die Karte die Leistung her holt, oder ob die Füße beim spielen warm werden. Dann ist es Zeit von WHQD umzusteigen. :giggle:

Bis dahin mehrt sich der Wohlstand.
 
Warum?
Es sind Vermutungen nicht auf Basis von Hopfen und Malz sondern das was echte Angaben (Taktraten, Verbrauch) und echte Benchmarks (die nicht gefälscht, manipuliert sind) hergeben (und wenig Nachdenken).
Das gleiche auch schon mit Doom Eternal erörtert. Da weist alles darauf hin das nvidia flunkert und die Erwartungen zu hoch sind.
Aus der 2080 ti kann man halt noch ein gutes Stück 200 MHz Gpu-Takt und 2 Gbps Speicherdatenrate herausholen, und landet auch bei 320 W. Bei der 3080 ist halt wie bei der 5700 xt beinahe Ende.
Da sieht mir nichts nach Durchschnittlich +40 % in Raster gegenüber der 2080 ti aus.
Und auf der nvidia Präsentationsfolie steht nur "faster than 2080 ti", nicht aber in was schneller (hat Jensen auch nicht mündlich erwähnt). Somit ist es deutlich. Nicht in Raster, sondern raytracing/dlss.

In Raytracing ja.
Habe das ganze Video nicht angeschaut. Der Entwickler erwähnt irgendwo jedoch zweimal das die rtx 2080 ti in Raytracing in etwa dem entry-level von Ampere gegenüber steht; also der rtx 3060.
Welche echten Benchmarks? Und wieso soll der Chip am Ende sein?
 
Aktuell bevorzuge ich noch Software Encoding gegenüber der NVidia Lösung. Die Qualitätsunterschied sind mir noch "zu groß". Daher bin ich gespannt, wie gut das verbesserte Encoding abschneidet.


For RTX 30 Series, we decided to focus improvements on the video decode side of things and added AV1 decode support. On the encode side, RTX 30 Series has the same great encoder as our RTX 20 Series GPU.
 
Er ist in roter Mission unterwegs. Zumindest wirken die Posts alle so von ihm zu dem Thema.
 
Eher Großer Bruder ^^
 
Das heißt dann auch das 3070 = in Raster schneller als rtx 2080 ti nicht mehr stimmen wird (oder nur selten).
Mit "schneller" bezog sich Mr. Lederjacke wohl nur auf Raytracing-Leistung.

Davon gehe ich ebenfalls stark aus und hatte dies auch schon so erwähnt hier.

Auch die 200% Performance der 3080 gegenüber einer RTX 2080 sind alleine darauf gemünzt, reine Showtime wie immer. Netto ohne Raytracing bleiben davon wesentlich weniger % übrig, wetten das? :d
 
Das lustige ist ja, dass wir von AMD selber schon lange nichts mehr von BN gehört haben also ich glaube, die letzte offizielle Meldung ist vor einem Jahr gewesen. :fresse:

Daher ja der Hinweis mit "und dann Monate / Jahre keine Updates bringen".
Ich kann auch sagen, dass ich ne GPU auf den Markt bringe und alle Segmente des Marktes anpeile. Wartet nur ab. Wird kommen. Erste Exemplare sind schon in einem Container...
 
Davon gehe ich ebenfalls stark aus und hatte dies auch schon so erwähnt hier.

Auch die 200% Performance der 3080 gegenüber einer RTX 2080 sind alleine darauf gemünzt, reine Showtime wie immer. Netto ohne Raytracing bleiben davon wesentlich weniger % übrig, wetten das? :d

Ich hatte das auch schon einmal im BN Thema angemerkt. Alles was wir zu sehen bekommen haben sind Best Cases und real (Raster) wird es deutlich anders aussehen.
 
I'm reddit ama behauptet nvidia immerhin, dass. 3070 =2080ti auch ohne rt geht. Aber safe nur in ausgesuchten spielen mit vielen fp32 ops.
 
:unsure:

Machen wie es also besser wie AMD und warten echte Benchmarks ab?
 
Die gezeigten Werte und Vergleiche waren ja auch alle ohne DLSS und RT. Gab zwar AUCH welche mit, aber eben nicht nur.
Frage mich, woher die Stimmung kommt, dass wir nur von RT irgendwas wissen,... das es cherry picked und "bis zu" Werte sind, ist ja nicht unerwartet und nix Neues.

Keine gen kann mit "genau xx% mehr Leistung" werben, weil es immer schwankt. Und Firmen werden sicher niemals den Minimalwert angeben, weil die Ansage: "Bis zu" absolut korrekt ist und sogar mehr Aussagekraft hat als "mind. xx%". Zudem ist das auch ne rechtliche Sache vermutlich. Selbst wenn sie nach bestem Wissen und Gewissen keine Spiele mit weniger als z.B. +50 % finden würden,... kommt dann Indie Game YYY daher und zeigt nur 48 % Uplift. Schon steigen die Extremisten auf die Barrikaden, entzünden die Fackeln und rufen die Anwälte an.

Als Kunde sollte man die "bis zu" Angaben nun wirklich kennen und damit umzugehen wissen.
 
Vielleicht sollte man AMD doch noch nicht abschreiben. Grad heut ist doch die series s xbox bestätigt worden. 299€ inkl 1440p raytracing. Was immer immer amd da also reinbaut scheint für den preis und die größe nicht unperformant.
 
450€ und ca. 3080 Leistung und AMD hat beide klassen mit einer klappe geschlagen :d
 
Nja, die series s hat afair weniger Leistung als ne one x (in tflops). Die 1440p dürften n feuchter Traum von ms sein, aber nicht realistisch in AAA Titeln.
 
Nein. Egal wie oft man es behauptet, es wird nicht richtiger. Die 3090 hat eklatant mehr Speicher als die 3080. Wer bei kommenden AAA Spielen alles rausholen will, wird mit der 3090 auf der sicheren Seite sein, bevor das ruckeln anfängt.

Die 3080 GB ist halt kein Top Dog. Das man damit alle Spiele gut laufen lassen kann -- klar. Aber man wird voraussichtlich in manchen Anwendungsbereichen abstriche machen müssen. Ist doch auch OK. Ich sehe auch haufenweise Audis nur mit Alufelgen und sonst nackt ohne Ausstattung.
Wir werden sehen bei wie vielen Spielen das wirklich ausschlaggebend sein wird, zumal es noch eine 3080 mit 20GB geben soll.
Jeder der kann und will kann sich gerne eine 3090 nur zum zocken kaufen, aber ich zweifel stark daran, dass sich das lohnt, selbst für 4K und auch Nvidia hat keinerlei Benchmarks zur 3090 gebracht und die 3080 als "Flagship" bezeichnet.
2 Jahre werden die 10GB sicher für 4k reichen und dann ist schon die nächste Generation draußen, für das Geld der 3090 könnte man sich ne 3080 und die 4080 kaufen.
Nur so als Denkanstoß, muss natürlich jeder für sich entscheiden.

Ich bleib bei 1440p bzw. 1440p Ultrawide, ka. wie viel mehr Vram 4k benötigt, wird auch auf das Spiel ankommen und dann wäre da noch DLSS was auch den Vram Bedarf bremst.
 
  • Danke
Reaktionen: THK
Vielleicht sollte man AMD doch noch nicht abschreiben. Grad heut ist doch die series s xbox bestätigt worden. 299€ inkl 1440p raytracing. Was immer immer amd da also reinbaut scheint für den preis und die größe nicht unperformant.

Die Konsolen behaupten auch was von 8k und 120 fps.
Nur weil die Sachen theoretisch "an" gemacht werden können, bedeutet das noch lange nicht, dass sie auch so ankommen, wie man erwarten würde.

Ja, sie können 8k Signale abgeben, da geht es aber nur um den Anschluss.
Ja, sie können 120fps ausgeben, solange es halt kein 4k oder 8k ist. ;-)
Ja, sie können irgendwie Raytracing, solange es nicht mehr als 2-3 >Strahlen pro Bildschirm ist (überspitzt gesagt, ich habe keine Ahnung wie viel sie schaffen).

Aus den Ansagen der Konsolenhersteller kann man noch nicht mal ableiten was die KONSOLEN können, geschweige den was AMD in einem ganz anderen Produkt liefern kann.

Oder kurz:
Nicht zu viel rein interpretieren, egal wie sehr wir uns alle wünschen, dass AMD Ampere vermöbelt.
 
Igors Infos sind... zwar nachgeplappert, aber halt auf Deutsch.
Geht das schon wieder los?
Ich hab dir doch schon Beweise geliefert, dass das Bockmist ist.

ps. ich mag seinen Humor und Schreibstil und bin weit davon entfernt ein alter Mann zu sein (31).
Geschmäcker sind verschieden, aber jemandes Art nicht mögen ist was anderes als demjenigen seine Kompetenz abzusprechen.
 
Ihr zwei solltet Heiraten ^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh