NVIDIA macht die GeForce RTX 2080 Ti, RTX 2080 und RTX 2070 offiziell

Ok Jungs, es geht in die heiße Phase ;)

Wir haben dank CeresPK eine Titan V, die wir in den Vergleich mit den neuen Karten mit aufnehmen können. Welche Tests würdet ihr euch im Hinblick auf einen Direktvergleich zwischen Pascal, Volta und Turing wünschen? Noch hätte ich die Möglichkeit das eventuell entsprechend in den Test einzubringen?

Oh, genial das Ihr fragt!

Hier ein paar Ideen:

  • Flat out 1:1 Vergleich als wohl die offensichtlichste Baseline. Also ohne irgendwelche RTX oder Volta features.
  • Etwas komplexer um die Tensor Cores zu testen: Maxed Settings in einem Game, OHNE AA als Baseline. Dann das AA suchen, dass optisch am nächsten dran ist an DLSS. Dann Pascal mit dieser AA Option messen und mit Volta / Turing DLSS statdessen aktivieren. Dieser Vergleich wäre nice.
    Was kostet DLSS an Leistung, was würde entsprechendes AA an Leistung kosten und wieviel gewinnt man an Performance, wenn man statt diesem AA auf DLSS zurückgreifen kann.
  • RT test: Nun, da werded Ihr wohl noch eingeschränkt sein ohne passende Games. Ich würde dahingehend gerne einen Vergleich sehen zwischen BFV, Tomb Raider und Enlisted. Unterschied zwischen der ursprünglichen Demo und jetzt mit RT Support. Das wird aber wohl eher auf eine Art Serie rauslaufen, die immer mal wieder updated werden muss als ein Test den Ihr jetzt machen könnt. Oder habt Ihr Zugang zu einem dieser RT Titel?
  • MachineLearning oder Deep Learning Vergleiche. Könnte verstehen, wenn das zu weit weg von der Hauptleserschaft ist, aber ich fände es cool. Wieviel bringt mir RTX beim Homeoffice? Wie weit ist es von Volta weg?
  • OC Potential. NVidia sprach von extremen Overclocking Potential. Wie extrem ist es? Wieviel Strom fressen die Karten dann?
  • Followup zu dem OC Potential: Wieviel mehr Performance bekommt man durch ein maximales OCing? Evtl. verschiebt das OCing Limit die Preis / Leistungs Vektoren.
  • Unbedingt auch die AMD Flagships einbinden bitte. Vor allem in den OCing tests erwarte ich eigentlich, dass NVidia Preis / Leistung stärker steigern kann als AMD. Das zu verifizieren oder zu widerlegen wäre schon echt nice für Kaufempfehlungen.
  • Temperaturen, Lautstärke, Spulenfiepen. Sowohl Stock als auch OCed.

Puh, da gibt es so viele Dinge die spannened wären.
Neue Technologie bedeutet eigentlich mehr als "nur" ein Review hoffe ich. Eine Serie an Artikeln zu allen Aspekten wäre toll.

Was IST den bisher geplant? Evtl. haben Leute noch Vorschläge zu Ansätzen oder so.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Don
Würde mir GPU Ergebnisse hiervon wünschen:
Blender Open Data blender.org

Bei Games, wäre Projekt Cars 1/2 schön

Wir haben ein paar synthetische Benchmarks wie den Blender mit drin. Natürlich sind Spiele mit DX11 in der Mehrzahl, wir testen aber auch welche in DX12 und Vulkan.

Wie schaut es jetzt mit HDR aus?
Bitte HDR on off mit 1080Ti und 2080, 2080Ti Benchen ob wieder so deartige Einbrüche vorhanden sind oder ob mit Turing das Problem nicht mehr auftritt ?
Auch DLSS falls in Shadow of TR implementiert zu Release bitte benchen.
Danke.

HDR-Tests sind geplant, da hoffe ich, dass am Montag das entsprechende Display eintrifft.

Puh, da gibt es so viele Dinge die spannened wären.
Neue Technologie bedeutet eigentlich mehr als "nur" ein Review hoffe ich. Eine Serie an Artikeln zu allen Aspekten wäre toll.

Was IST den bisher geplant? Evtl. haben Leute noch Vorschläge zu Ansätzen oder so.

Was die neuen Technologien betrifft: DLSS können wir sicherlich zum Start bereits testen, alles was RTX betrifft wird erst später kommen. Erstens hat Microsoft das DirectX-Update noch nicht veröffentlicht und zweitens fehlen einfach die Spiele, die es unterstützen.
 
Was die neuen Technologien betrifft: DLSS können wir sicherlich zum Start bereits testen, alles was RTX betrifft wird erst später kommen. Erstens hat Microsoft das DirectX-Update noch nicht veröffentlicht und zweitens fehlen einfach die Spiele, die es unterstützen.

Natürlich schade, aber verständlich.
In dem Fall wünsche ich mir initial einen Fokus auf die bereits verifizierbaren Werte die Nvidia anpreist.

Gerade das OCing und dessen Auswirkung auf Preis / Leistung wäre spannend.
Wenn sich Turing NOCH besser OCen lässt als Pascal, dann relativiert das sicher nicht den Aufpreis, aber es verbessert den Performancegain.
Ein Graph hierfür wäre nice. Sehr gerne auch mit AMD im Boot, da die P/L Krone ja AMD immer zugewiesen wird. Aber natürlich auch um zu sehen wie schlecht Turing wirklich bei P/L ist.

Preis / Leistung stock,
Preis / Leistung moderates OCing,
Preis / Leistung maxed OCing.

Ein zweiter Graph der Powerdraw mit rein bringt evtl. noch.

Ich reite deswegen so auf OC rum, weil ich einen Stock Vergleich für relativ unrealistisch halte für Leute die so viel Geld für eine GPU ausgeben.
Klar, im low-end und unterem mid-end finden sich viele Kunden ohne Ahnung. Viele die kaufen, einbauen (lassen) und dann vergessen. Aber im 800+ Segment wird es wohl wenige geben die nicht sehr überlegt an den Kauf rangehen.
Wenn eine Karte 200 Euro kostet und die selbe Leistung bringt wie eine für 250, ist die Kaufempfehlung klar. Wenn die für 250 aber durch OCing 30% mehr Leistung bringen kann verschiebt sich das Bild gewaltig!

Was ich unabhängig von den Tests gerne sehen würde wäre ein erklärender Teil. Was ist RTX, was ist unter dem Schirm alles vorhanden (DLSS und RT sind ja nicht alles, auch Global Illumination als Subbereich von RT z.B.).
Sehr wichtig halte ich auch eine Erklärung, dass die Softwarespezifikation die RTX umsetzt nicht NVidia only ist. Es ist kein Gameworks. Das geht an vielen Leuten vorbei.
AMD hat da mitgearbeitet, also können wir mit gutem Gewissen erwarten, dass auch AMD entsprechende GPUs bringen wird. Das es in DX12 und Vulkan verankert ist, ebenso in Unreal, sind auch Informationen die ich gerne sehen würde.

Oder um es total klar zu sagen:
RTX ist der erste Schritt in eine deutlich bessere Grafik. Als News Outlet habt Ihr natürlich die Verpflichtung dem Kunden genau aufzuzeigen was er bekommt (fps), aber der schwerer Messbare Gewinn an Qualität ist eine Aufgabe die Ihr auch tragt.
Und ich beneide Euch da nicht drum. Wenn Ihr Euch entscheidet das alles in einem schlechten Licht darzustellen, dann mag das dazu führen, dass diese tolle Technologie weniger angenommen wird. Ihr könntet andersrum aber auch dazu beitragen, dass sie eben angenommen wird.
Der Spagat zwischen der Darstellung der neuen Möglichkeiten, dabei aber den Lesern auch klar vermitteln, dass es kein Wunder von heute auf morgen ist, wird sicher hart. Anhand der Artikel der Vergangenheit denke ich, dass Du Don Dir dieser Verantwortung bewusst bist und sie auch fantastisch lösen wirst.
Ich bin nur ein Tech Nerd der sich wie ein kleines Kind über neues Spielzeug freut und hofft, dass in der Zukunft alle Kinder dieses Spielzeug bekommen (vor allem auch billiger und in unteren Segmenten).

Ich wünsche mir, dass wir hier, zusätzlich zu den objektiv jetzt messbaren Sachen, die neue Technik und Möglichkeiten als Theme haben. Am besten so verpackt wie es hinter den Kulissen ist.
An RT haben AMD und NVidia zusammen gearbeitet. An einem Tisch mit Microsoft und Epic ect.
Ich freue mich da total drüber und fände es sehr schön, wenn hier das Theme mehr Licht auf die Zusammenarbeit scheinen würde, als das Rot vs Grün Stigma zu pushen.
Bei all dem Geflame zwischen rot und grün ist das nämlich leider total untergegangen.

Die Zusammenarbeit zwischen Rot, Grün und BLAU (Intel) um RT zu den Gamern zu bringen, finde ich persönlich eine der besten Entwicklungen.
 
Zuletzt bearbeitet:
Wenn sich Turing NOCH besser OCen lässt als Pascal
:hmm:
Hast du überhaupt schon mal eine gut übertaktbare GPU besessen? Gabs in den letzten Jahren überhaupt eine Nivida GPU die sich schlechter übertakten ließ als Pascal?

Ein Graph hierfür wäre nice. Sehr gerne auch mit AMD im Boot, da die P/L Krone ja AMD immer zugewiesen wird. Aber natürlich auch um zu sehen wie schlecht Turing wirklich bei P/L ist.

Preis / Leistung stock,
Preis / Leistung moderates OCing,
Preis / Leistung maxed OCing.

Ein zweiter Graph der Powerdraw mit rein bringt evtl. noch.

Du willst einen Test der dem User jegliches Denken abnimmt und daher 200 verschiedene Graphen braucht für jeden Scheiß den man sich auch selbst erschließen kann? Vllt. sollten solche Leute lieber Computerbild lesen? :p

Am besten auch noch 10 Seiten Fazit das die Karte für jeden möglichen Leser individuell hinsichtlich der möglichen Eignung bewertet?
 
Du willst einen Test der dem User jegliches Denken abnimmt und daher 200 verschiedene Graphen braucht für jeden Scheiß den man sich auch selbst erschließen kann? Vllt. sollten solche Leute lieber Computerbild lesen? :p

ComputerBild würden wohl eher Leute lesen die kein Interesse an tiefgründigen Analysen haben.
Glaube Du verwechselst da etwas. HardwareLuxx ist eine Tech community. Hier wird man wohl eher enttäuscht abziehen, wenn keine sinnvollen Vergleiche und Analysen kommen.

Also, da jeder auf P/L rumreitet sollte das wohl inkludiert werden, ja.
Was das mit denken abnehmen zu tun hat verstehe ich nicht. Es wird einfach nur eine Zahl durch eine andere geteilt. Ist das ein Denkprozess den man als wertvoll genug ansehen muss um sich darauf etwas einzubilden?

Wie entstehen 200 Graphen, wenn man 10-15 GPUs mit jeweils einem einzelnen Punkt anzeigt?
Das ist genau ein Graph mit 15 Punkten und einer Modellnummer in Klammern.
Wenn man Stock / OCed / Maxed noch unterteilt, ist dass (wie bei allen Benchmarks auch) halt ein 3 Tab Bild bei dem sich jeder die für ihn relevanten Daten ansehen kann. Und das ist sicher nicht irgendwie unübersichtlich bei so wenigen Datenpunkten.
Wir reden hier ja nicht über komplexe 15 dimensionen cluster und predictions, sondern über ein billiges zweidimensionales cluster. in zwei oder drei Ausführungen.
Die reinen Benchmarks werden mind. ein zehnfaches davon sein und effektiv x-fach genau das Selbe zeigen.

Wie stellst Du Dir das vor?

Was Du vorschlägst ist also reine Benchmarks, ohne eine Auswertung. Das wäre nicht nur sehr langweilig, sondern auch ein schlechtes Review.
Man erwartet in jeder wissenschaftlichen Arbeit (und auch Reviews, die sind sehr nahe dran an wissenschaftlichen Arbeiten) nicht nur Tests und Tabellen,
sondern eben auch Auswertungen, Bewertungen, Vergleiche und vor allem eine Beleuchtung aus verschiedenen Perspektiven. Alles andere wäre für HardwareLuxx ein Verlust an potentiellen Leserzahlen.
Und diese Leserzahlen werden explodieren aufgrund der RTX Reviews. Je detailierter sie sind, desto öfter werden sie verlinkt und zitiert. Es wäre sehr ungeschickt das nicht mitzunehmen. Aber da vertraue ich Don. Bisher immer einen soliden Weg gefunden.
 
Welchen Sinn hat es Presseexemplare auf OC zu testen, und dann daraus irgendeine Schlüsse zu ziehen? Was ist das denn für ein Witz?

@mastergamer
Der Botschafter schlägt ja auch nichts vor wo er sich nicht sicher wäre wie es ausfällt. Daher auch ja nicht gucken wie das sinnvollste AA aussieht, und wie DLSS dagegen aussieht. Eher DLSS als Messlatte nehmen und das AA suchen was dem am nähesten kommt. Ist klar.
 
Aber kommt das am Ende nicht genau auf das Gleiche raus ? Wenn eine RTX2080Ti FE@stock nicht 50% schneller ist als eine GTX1080Ti FE@stock (~1750Mhz)
wie soll dann eine RTX20180Ti Custom@2000Mhz prozentual schneller sein als eine GTX1080Ti@2000Mhz ? Das geht ja nur wenn die RTX unter 1750Mhz boostet
aber durch den neuen Kühler wird sie wohl höher boosten und der Abstand zu den Custom Karten wird geringer also muss deine OC Hoffnung auch geringer sein !

Hoffnung hat damit nichts zu tun.
Es geht um die Behauptung von NVidia, dass Turing ein OC Monster ist.

Wenn Turing ein anderes OC Potential hat als Pascal, dann ist für viele Leute dieser Vergleich mehr Wert als Stock vs Stock.
Ich meine damit weniger "Kann das Ding bis 2000?", sondern "wieviel mehr als Stock geht?". Dabei ist der Basistakt eigentlich unerheblich, sondern die mögliche Steigerung.
Wenn der Unterschied 25% ist, aber Pascal besser OCed werden kann, dann steht Turing OCed bei weniger als 25%. Das wäre durchaus eine wichtige Information.

Gibt relativ wenig Grund nicht einfach beides zu testen, oder? Im englischen Raum wird das eh gemacht, fände es aber nice auch auf deutscher Seite komplette Reviews zu sehen.

Das die neuen Kühler besser sind kann man wohl ungesehen vermuten. Da ist natürlich der Abstand zu custom Modellen geringer.
Ein Vergleich von FE Turing zu custom Pascal wäre dahingehend sicher auch ein super Addon zu den Datenpunkten.
Gerade weil wohl die meisten GPU Besitzer wohl auch custom Modelle haben. Zumindest auf NVidia Seite war man ja bisher quasi gezwungen auf Customs zu warten um eine gute Kühlung zu bekommen.

Je kompletter ein Review ist, desto hilfreicher ist es, oder?
Auch wenn hier ja schon wieder Unkenrufe kommen von Leuten die lieber weniger Infos haben.
Wäre ja schade die schön aufgebaute Scheinwelt mit gemeinen Messungen und Fakten zu verwirren. Und jeder der Fakten will ist böse und ein Fanboy (auch wenns ein Widerspruch ist, aber hey, Logik!).
 
Für mich als VR Nutzer ist vor allem eines immer wichtig: Latenzen.
 
Aber kommt das am Ende nicht genau auf das Gleiche raus ?
Ich kenn wirklich kaum Reviews die sich kurz vorm Fazit nicht noch kurz mit OC beschäftigen. Da wird zwar meist nicht wieder der ganze Parkour durchgefahren, aber 2-3 Programme schon. Von daher hab ich das selbst nicht vorgeschlagen, weil ich das auch auf Luxx für eine Selbstverständlichkeit halte ;)

Aber, wie gesagt, Presseexemplare sind von asic quality her oft was anderes als der Schnitt im Laden. Nicht immer, aber oft genug.
 
Zuletzt bearbeitet:
Der Leistungsvergleich 1080Ti vs. 2080Ti muss umfassen bei üblichen Auflösungen und AA/AF
1.Stock/Stock
2.Gleicher Takt beide Karten
3.Max. OC und Taktbereinigte Leistungssteigerung(zB.+20% Takt vom Stock ergibt soviel Leistung in % FPS
Somit ist denke, jeden gedient.
Ich freue mich auf jeden Fall auf neue NV Grafikkarten da in meinen System noch eine GTX780Ti steckt.
Das wird brutaler Sprung nach vorne [emoji41]


Gesendet von iPhone mit Tapatalk
 
man könnte auch einfach eine stock 1080Ti FE gegen eine stock 2080Ti FE antreten lassen. der ganze rest mit OC ist doch eh abhängig von parametern, die bei jedem anders sind.. chipgüte.. temperatur.. tagesform und glück. ein durchlauf stock, ein durchlauf mit maximiertem powertarget und aufgerissenem lüfter.. abschliessend wie schon immer, kurzer OC check a la "bis zu 15% mehr takt sind drin und kredenzen 11% mehr frames" fertig. und schon hätte man auch referenzwerte, für vergleiche mit superduper customkarten, also die dinger, die mit 20 propellern, vierzieg vrm-phasen und secret sauce 100MHz mehr takt zu erreichen hoffen.

wirklich interessant mag natürlich für jeden etwas anderes bedeuten, aber gerade die neuerungen am link-interface für mGPU und ggf. auch neue möglichkeiten mit den videoausgängen sollten beäugt werden. und auch auf das risiko mich zu wiederholen: ich möchte etwas über die verbesserungen ggü. pascal im VR betrieb lesen; und da auch natürlich wie sich die neue generation bei supersampling im VR-HMD schlägt. da macht das SSAA nämlich richtig sinn.

@hoto
spiel mal beat saber :)


btw,
eine titan v mitlaufen zu lassen, ist vielleicht gar nicht so verkehrt; allerdings sollte hier das augenmerk auch auf den tatsächlichen frequenzen liegen, denn die GV100 GPU taktet sehr konservativ. ich "orakle" bei 2080Ti FE vs. TV stock sowas:

"..mit aufgerissenem FE-ventilator und maximiertem PT konnten wir kurzzeitig und nciht gamestabil 2194,8MHz mit der 2080Ti erreichen. sie liefert in unserem test dann nahezu identische werte wie die mit 1860MHz laufenden titan v und lässt die aufgerufenen 1259€ geradezu als schnäppchen erscheinen, denn immerhin verlangt nvidia für die volta-gpu mit mager anmutenden 12GiB HBM speicher weit mehr als den doppelten preis (3.200€). Das fehlende GiB ist in den meisten fälle verschmerzbar; wohingegen die über 800GB/s bandbreite des auf 1067MHz übertakteten HBM-speichers mit dem GDDR6-RAM der turingkarten nicht erreicht werden können. wer derart hohe taktfrequenzen erreichen möchte, braucht allerdings etwas glück in der silicon lottery und nochmal 120-150€ taschengeld für einen adaquaten fullcover-wasserkühler, die von allen bekannten herstellern ab dem 20.9. in den markt drängen.
für die wirklichen "gamechanger" wird es einen separaten artikel geben, sobald genug software zum testen verfügbar ist, denn zur zeit gibt es für tensor und rt -cores einfach kein futter.
"


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Danke schon einmal für die weiteren Anregungen. Ich muss auch schauen, was wir zeitlich unter einen Hut bekommen etc.
 
@TobiWahnKenobi
Nein :) Die 2080er sollen mind. knappe 200Mhz mitmachen. Das gilt eher als sicher. Erwähne ich jetzt ohne Wertung.

@all
Mal eine technische Frage: Tensor-Cores sind 4x4-matrix-cores -> " It multiplies two fp16 matrices 4x4 and adds the multiplication product fp32 matrix (size: 4x4) to accumulator (that is also fp32 4x4 matrix). It is called mixed precision because input matrices are fp16 but multiplication result and accumulator are fp32 matrices."

Das macht das Trimmen von neuronalen Netzwerken mit V100, in etwa 9x schneller als wenn man es mit 1080Ti machen würde. Wie hilft uns das aber, im Gegensatz zu der klaren Funktion der RT-Cores, beim Zocken?
 
Zuletzt bearbeitet:
Abgesehen von DLSS und einigen Ansel-Funktionen kommend die Tensor Cores beim Spielen nicht zum Einsatz.
 
Würde das aber nicht bedeuten (Ansel), es bringt was bei VR-Zocken? Ok wenn man Nv kennt, würden sie die Tensor in den RTX dann wohl in VR-Cores umbenennen ;)
 
im grunde ist es mir egal was da an day-one-OC drin ist. das betrifft sowieso nur alte games und mit neuen titeln, die die RT und Tensor -cores verwenden (sprich die hardware auslasten) muss man das mörder-OC aus der launchzeit dann wieder zurückfahren. unabhängig von spekulationen rechne ich damit, dass bei mir nächste oder übernächste woche zwei 2080TI eintreffen und dann sehe ich es ja. wenn sie nichts taugen, gehen sie zu mondpreisen ins egay und wenn das nicht zieht zurück zu digital river.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
@TobiWahnKenobi
die die RT und Tensor -cores verwenden (sprich die hardware auslasten) muss man das mörder-OC aus der launchzeit dann wieder zurückfahren
Das kann gut sein :), aber erstens wird es diese Spiele nicht so schnell gleich en masse geben.
Zweitens, selbst in der, sagen wir mal, noch Unfähigkeit per Code das Optimum aus den RTs und Tensors zu pressen, bedeutet das nicht, daß BF5 oder TR damit nicht jetzt schon die RTs schwer belasten.

Macht natürlich trotzdem wenig Sinn die Karten auf OC mit Metro2033 zu testen...
 
Zuletzt bearbeitet:
Könnte es auch sein, dass man die Tensor - Cores gar nicht übertakten kann?
 
Also wenn es so währe, dann sollen die OC-Eigenschaften nicht beeinflusst sein durch die RTX Hardware.

Möglicherweise können sie auch getrennt übertaktet werden vom Rest, so wie Speicher und Core.

Neue Architektur, neue Möglichkeiten ...
 
Beides produziert Wärme, deswegen sind beide doch voneinander abhängig.
 
Abgesehen von DLSS und einigen Ansel-Funktionen kommend die Tensor Cores beim Spielen nicht zum Einsatz.

*bisher

Man kann die Tensor Cores für alle AI und Machine Learning Dinge nutzen. Ein Thema, dass ich persönlich testen werde.
Für Spiele kann man hier aber z.B. AI auslagern auf die GPU, statt die CPU an die Kotzgrenze zu bringen. Diese AI könnte dann auch deutlich besser sein als bisher. Also wirklich, deutlich besser.
Evtl. könnten Spiele wie Civilization dann AI so umsetzen, dass sie keine XX Boni bekommen, sondern echt einfach nur stark spielen.

Die Frage ist hier aber, ob man das abgrenzen kann zu Leuten ohne Tensor Cores.
Die AIs die ich bisher recht stümperhaft für Games gemacht habe könnten mit relativ wenig Aufwand umgebaut werden. Die Kernfunktionen wären identisch für beide Varianten, man müsste nur die nötigen Zeilen schreiben um die eine Variante auf der GPU zu verarbeiten.
Im Optimalfall ist das also ein if/else Block, da sich die gesammte API ja nicht verändert (also was bekommt die AI für Daten und was wirft sie am Ende raus). Nur der Weg wie sie von Input zu Output kommt würde sich ändern.
Ich kann natürlich nicht sagen ob alle AIs so aufgebaut sind, würde spontan aber davon ausgehen, da mir nichts einfällt was für eine andere Implementation sprechen würde.

Irgendein Developer hatte auf der Gamescon über diese Idee gesprochen, aber ich finde leider das entsprechende Video nicht. Wenn es relevant wird, werden wir es sicher mitbekommen.
 
Da sehe ich erstmal keinen direkten Zusammenhang. Eine kaum angelernte AI während des Spiels erstmal auf den Tensors zu trimmen ist was anderes als eine schon trainierte AI mitzuliefern.

Wenn man eine fertige AI auf die Tensors auslagern kann wäre das natürlich ein Zugewinn. Dann ja. Die Vorteile von Tensors waren bisher aber der Lernprozess, nicht das Ausführen nach dem Beenden des Lernprozesses (oder doch?) Beim Spiel zu lernen kann auch zu fehlerhaften oder unerwünschten Reaktionen (der AI) führen. Das zu testen ist ein wahnsinns Aufwand. Mit einer fertigen weiß man wenigstens genau was man ausliefert.

Es könnte aber auch nur bedeuten, daß die Leute mit RTX es plötzlich hardcore schwer haben einen Level zu schaffen, den die mit Pascal für relativ leicht erachten :d :d
 
Zuletzt bearbeitet:
Krass, laut Link soll es noch keinen funktionierenden Treiber geben, das ist für alle bisher sehr positiven Leaks zur Leistung zweifelhaft, aber spannend. :)
 
Krass, laut Link soll es noch keinen funktionierenden Treiber geben, das ist für alle bisher sehr positiven Leaks zur Leistung zweifelhaft, aber spannend. :)
Naja der PCB ist zwar gut nimmt sehr häufig aber news aus anderen Quellen wie PCGH oder HWLuxx je nach dem wer früher die news bringt.

Was man ihnen anrechnen muß ist der Aufwand für ein sehr kleines Team der da betrieben wird.

Das die Treiber nicht fertig sind finde ich etwas schwierig zu beurteilen zumal es ja auf der GC Systeme gab, wir können nur abwarten was die Tests betrifft.

Gesendet von meinem RNE-L21 mit Tapatalk
 
Zitat aus dem Artikel: "Für die Zeit davor hatte Intel einen gestaffelten Reviewstart geplant."
Frage mich wieso Nvidia so oft mit Intel verwechselt wird. Klar ist das nur eine Art erweiterter Tippfehler, aber hab ich schon öfter gesehen.

Zu dem Treiber: Bin unsicher ob ich mich freuen soll, dass die bisherigen Ergebnisse noch mit unfertigem Treiber waren, oder Angst haben soll vor einem zweiten Vegagate.
 
Angeblich hat der Treiber gelegentlich Darstellungsfehler produziert (nur Rendering, keine Glitches) und dadurch ~5% mehr Fps erzeugt, gegenüber einer 100% korrekten Darstellung.

Man will sich als sozusagen gebranntes Kind nicht mehr so eine Blösse geben wie damals mit dem only for press snow poverty driver. Diesmal auch nicht aus echtem Versehen.

Die Presse ist eh schon bisschen knatschig wegen den Bediengungen. Man will daher nicht auch noch mit sowas schlafende Hunde wecken.
Find ich gut und aufrichtig von NV. Bin wirklich auch mal positiv überrascht.

Wo wir aber beim Thema sind. Ich fand das eh schon immer sehr eigenartig, daß die immer korrekte TitanV die ja nicht für Spiele optimiert ist (und zwar? ja?) gegenüber der 1080Ti in avg-fps meist die Nase halbwegs erwartungsgemäß vorne hatt, in min-fps aber meist verliert (bestenfalls Gleichstand). Teils aber auch spürbar verleirt. Wie bekommt man sowas gegenüber einer TitanV hin? :)

edit:
Bin unsicher ob ich mich freuen soll, dass die bisherigen Ergebnisse noch mit unfertigem Treiber waren, oder Angst haben soll
Wenn man vermeindlich einfach nur objektiv technikinteressiert ist... also ich wüßte nicht von welchem Standpunkt her sowas jemandem ANGST machen sollte, falls man darin nicht beruflich involviert ist. Verstehe ich nicht.

Ob noch 2 oder noch 7 Tage. Das überleben wir schon. Macht es das etwa schwieriger für Leute die ggf. stornieren möchten? :)
 
Zuletzt bearbeitet:
wenn bei einer TV und einer anderen, schwächeren karte ein gleichstand bei minframes in vergleichen gemessen wird, liegt ein CPU-limit vor. ich kenne kein spiel und keinen benchmark, wo volta die alten pascal TXen nicht plattgemacht hätte; min/avg/max/vollständig. allerdings muss ich auch nicht im netz nach werten suchen - ich kann sie selbst messen.

grafikfehler hier und da gab und gibt es leider tatsächlich seit volta. das betrifft inzwischen aber nur noch perlen wie etwa suddenstrike4, ein 15€ spiel in dem es hier und da flackert. da die fehler seit langem gemeldet sind, können sie natürlich auch app-related sein; da ist nvidia dann mit den treibern eher aussen vor.


(..)

mfg
tobi
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh