Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.960
nvidia-rtx2080ti.jpg
Die Kollegen von HotHardware haben ein Interview mit Tom Petersen, Director of Technical Hardware bei NVIDIA, geführt und konnten ihm auch einige weitere Details zu den GeForce-RTX-Karten entlocken bzw. Petersen hat mehr oder weniger wohlwollend einige Details fallen gelassen. Tom Petersen ist im Rahmen neuer GPU-Architekturen immer sehr aktiv, präsentiert auf Presseveranstaltungen und macht nach diesen auch gerne eine Interview-Runde bei diversen Medien.Tom Petersen versteht sich als Schnittstelle zwischen den Entwicklern der Hardware bei NVIDIA und den Spielern. Unter anderem ist er für die Entwicklung von G-Sync verantwortlich und hält etwa 50 Patente...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mit anderen Worten, sie sind zu blöd richtiges SLI ohne Bandbreitenlimits zu machen und verkaufen das als Feature (NVLink). Also im Prinzip wie Max-Q. Bullshit Bingo in Perfektion.
 
Mit anderen Worten, sie sind zu blöd richtiges SLI ohne Bandbreitenlimits zu machen und verkaufen das als Feature (NVLink). Also im Prinzip wie Max-Q. Bullshit Bingo in Perfektion.

ja genau, am besten gehst du hin, und zeigst denen wie sowas richtig gemacht wird. damit die endlich mal aufhören mit ihrem gepfusche....
 
Dann übertrag mal 600GB/s über ein Flachbandkabel. Wenn du das geschafft hast, kann ich endlich ein Multi-Sockel System bauen, wo jede CPU in einem anderen Raum arbeitet :d

Mit dem aktuellen NVLink bräuchten sie also nur 12 SLI Brücken, um die Bandbreite zu erreichen. Dafür wird doch wohl irgendwo noch Platz sein...
 
Ist das sicher das soviel Bandbreite via NVLink Link übertragen werden, um das die Synchronisation von 2 Turing GPU zu gewährleisten?
 
Ist das sicher das soviel Bandbreite via NVLink Link übertragen werden, um das die Synchronisation von 2 Turing GPU zu gewährleisten?

Für „einfaches“ SLI bzw. die Übertragung des Frame Buffers reicht es vollkommen.
 
@Holzmann: Der RAM muss synchronisiert werden. Bei SLI Betrieb ist auf beiden GPUs exakt dasselbe im RAM. Im Extremfall heißt das, dass GPU2 überhaupt erst anfangen kann zu arbeiten, bevor nicht gesamte RAM von GPU1 zu GPU2 übertragen wurde.

Im Normalbetrieb ändert sich natürlich nicht ständig der gesamte RAM, sondern immer nur ein bisschen hier und da. Da kommt es dann auf die Menge an, ob man mit 1, 2, 4, 50 oder 600 GB/s erst so richtig an Performance durch die zweite GPU gewinnt.

Das ist auch der Grund, warum es Spiele gibt, die mit SLI sogar langsamer laufen als ohne. Wenn das Spiel zu viele Änderungen macht und der NVLink dafür zu schwach ist, dann fallen die Frames von GPU2 weg, weil sie zu spät fertig gerendert wurden. Aber der Aufwand für die Synchronisierung entsteht natürlich trotzdem.

Im Optimalfall (der quasi nie eintritt) werden die Frames immer schön abwechselnd und gleichmäßig von den beiden GPUs gerendert (oder halt von jeder GPU ein halbes Bild - macht aber keinen großen Unterschied für die Erklärung). In der Realität passiert das Rendering zwar fast immer abwechselnd, aber so gut wie nie gleichmäßig - eben wegen des Zeitverlusts durch die Synchronisation. Daher kommt dann das bekannte SLI-Bild-Stottern. Und wenn der Zeitverlust eben zu groß ist, dann ist das von GPU2 berechnete Bild schon wieder so alt, dass man es verwerfen muss.

Im Endeffekt heißt das: Je mehr Bandbreite, desto besser. Um so gleichmäßiger werden die Frames. Und das Verwerfen von zu spät gerenderten Frames wird damit minimiert.
 
Zuletzt bearbeitet:
OK, wie sieht das den mit dem V-Ram aus bei Turing bezgl. NVLink, der ja tatsächlich echte 16GB Vram zur Verfügung stellen kann/sollte, ich meine möglicherweise wird dort die Bandbreite via NVLink benötigt, so hatte ich das verstanden??
 
Zuletzt bearbeitet:
OK ich dachte VLink ermöglicht erst, dass zb bei Karten mit jeweils 8GB, echte 16GB V-Ram zur Verfügung gestellt werden können ...
 
Zuletzt bearbeitet:
Da steht, dass man 2 NVLink Brücken verwenden kann, das hatte ich tatsächlich überlesen.

Stimmt das wirklich so, dass ich zb bei 2 2080 Karten entweder 1 oder bis zu 2 NVLink Brücken anschließen kann, die dann eine Bandbreite von bis zu 100GB/s bieten?

Im NV Shop zb kann nur eine Brücke pro Kunde bestellt werden.
 
Lustig wie plötzlich NV Link relevant wird hier im Artikel, obwohl den meisten schon 1 Karte zu teuer ist.

Warum von der Zusammenfassung her überhaupt nicht auf die Ausführungen bezüglich DLSS eingegangen wird wundert mich etwas.
Ein so stark diskutiertes Thema hier, durch die Ausführungen von Tom Petersen wird viel klarer wie es funktioniert. (ab ca. 14:30min im Video)
 
Sorry wenn ich mich hier zu dumm anstelle, als es nötig wäre, wenn das so stimmt wie im Artikel steht, dann kann ich die volle MultiGPU Leistung nur mit 2 NVLink Brücken erreichen bei einem Gespann von zwei Karten, richtig?

Das würde auch bedeutet, dass ich nochmal zu den Karten ca. 160€ für die Brücken investieren muss, so hätte wir auch wieder den Bogen zu der allseits beliebten Preisdiskussion. :d
 
Das ist eine Brücke, die bei der GeForce RTX 2080 Ti die beiden Anschlüsse abdeckt und und bei der GeForce RTX 2080 eben nur den einen vorhandenen.

Die "volle" Multi-GPU-Leistung muss man eben definieren. Für ein SLI über NVLink reicht auch die SLI-HB-Brücke mit 4 GB/s – die 50 oder gar 100 GB/s spielen im Consumer-Umfeld erst einmal keine entscheidende Rolle.
 
Ich vermute mal das die 35-45% Leistungssteigerung (ohne DLSS) von einer GTX 1080ti zu einer RTX 2080ti möglich ist. Anhand der technischen Daten und der Optimierungen an den Shadern, erscheint mir das durchaus glaubwürdig. Somit hätten wir dann das was sich die meisten schon so lange wünschen. Eine Grafikkarte die fast ausnahmslos die 60fps bei hohen Details in 4k schafft (je nach Titel auch die 100fps - bei Call of Duty und Battlefield ohne RT sollte das wohl möglich sein). Alleine das ist der Grund für viele sich diese Karte zu holen um sich nicht mehr über eine 1080ti zu ärgern, die oft nur mit Detailreduktion die 4k Auflösung schafft (bei Kingdom Comes sogar deutliche Detailreduktion für 60fps/4k).

Das RT nur bei wenigen Titeln in 4k ordentlich laufen wird, naja schade aber man kann ja nicht alles haben. Da muss man dann wohl den shrink abwarten und dann ist vermutlich WQHD mit RT möglich, 2 Jahre später dann vielleicht sogar in 4k... aber solange werden wohl die wenigsten warten wollen. I.d.r. dauerte in den letzten 8 Jahren jeder Generationswechsel 1 1/2 bis 2 Jahre.

NVLink finde ich sehr spannend, wobei ich mir wohl keine 2 Karten aus dieser Preisregion erlauben werde. Tests dazu wären aber sicher interessant.

Hinsichtlich Preis, ich glaube das der in den ersten Monaten relativ stabil bleiben wird (vielleicht 100€ weniger nach Release) - gegen eine schnelle Preissenkung sprechen die hohen Kosten für den GDDR-6 Speicher sowie für die riesige GPU/Chipgröße.
 
Zuletzt bearbeitet:
Du meinst GDDR6 und nicht DDR6.

Der Preis wird erst so richtig fallen, wenn Navi kommt.
Durch Vega hat NVIDIA da kaum Konkurrenz, also kein Druck der sie dazu bringt den Preis zu senken.

Navi erwarte ich nicht in den nächsten 6 Monaten, also wird Turing wohl noch lange recht teuer bleiben, leider.
 
Du meinst GDDR6 und nicht DDR6.

Der Preis wird erst so richtig fallen, wenn Navi kommt.
Durch Vega hat NVIDIA da kaum Konkurrenz, also kein Druck der sie dazu bringt den Preis zu senken.

Navi erwarte ich nicht in den nächsten 6 Monaten, also wird Turing wohl noch lange recht teuer bleiben, leider.

Wieso sollte Navi da zu Preissenkungen führen?
AMD sagte doch, dass es sich bei Navi um ein Projekt zu Mittelklasse handelt. Also 1070, 1080 Leistung dann.
Das die 10er Generation nach dann 3 Jahren im Preis sinkt, gut. Macht Sinn. Aber wieso die 20er Generation, die auch mit Navi keine Konkurrenz haben wird?
 
Du meinst GDDR6 und nicht DDR6....

Ja, hab es eben angepasst ;)

Navi sehe ich ähnlich wie Rattenmann, da dürfte wenn überhaupt nur die RTX 2070/2080 in Konkurrenz stehen. Die RTX 2080ti wird wohl vorerst nicht ganz so schnell an Wert verlieren, außer Nvidia überrascht uns und bringt sehr schnell einen Nachfolger mit mehr RTX Kernen und 7nm Technik, aber das wird in der Herstellung auch einiges kosten und wieso sollte Nvidia ohne Konkurrenzdruck hektisch werden. Das die jetzigen RTX Karten wie Blei im Regel liegen bleiben kann ich mir trotz des hohen Preises nicht so richtig vorstellen.
 
@SLi / nvlink

an SLi ändert sich erstmal nichts. nvlink bietet aber für die zukunft mehr möglichkeiten für entwickler, mGPU einzusetzen. da ist es eine option, auf einen verdoppelten speicherpool zuzugreifen, der aber wegen der latenz und limitierten bandbreite nicht als großer framebuffer taugt. <- das da ist nur technisch möglich, was nicht heisst, dass es irgendwo genutzt werden wird. solange AFR eingesetzt wird, bleibt alles wie es ist.. nvlink ist also keine lösung für AFR-stottern/mikroruckler. durch die höhere bandbreite der nvlink-bridge kann man allerdings unter bestimmten bedingungen PCIe entlasten. das muss nicht zwingend irgendwo bemerkbar sein, aber mancheiner erinnert sich auch noch an schlechte skalierung von z.b. doom @uhd im SLi. da brachte selbst schon die alte hb-bridge linderung. solche szenarien könnten mit der nvlink-brücke noch besser werden. ich werds mir bei zeiten mal anschauen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Wenn jetzt schon mit sehr moderaten Mitteln etwas über 2GHz übertaktet wird, dann sollten 2,2 -2,3GHz bei normaler Übertaktung mit dementsprechender Kühlung möglich sein. Vielleicht sogar mehr.
 
Der Preis wird erst so richtig fallen, wenn Navi kommt.

Das setzt voraus dass Navi etwas kann.

Wieso sollte Navi da zu Preissenkungen führen?
AMD sagte doch, dass es sich bei Navi um ein Projekt zu Mittelklasse handelt. Also 1070, 1080 Leistung dann.

Wäre ja top wenn AMD ein kaufbares Produkt im mittleren Segment bringen würde, bringt den Ti Käufern nichts, aber allen darunter :)

Weil das bis jetzt immer so war?

Nach dem Vega Release sind die Nvidia Preise erstmal hoch gegangen :fresse: :shot:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh