Vega-Architektur mit HBM2 und neuer Compute-Engine vorgestellt

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Seit wann hat die GTX 1080 12 TFLOPS? In Spielen, die sowieso 200FPS mit einer RX 460 erreichen, interessiert es niemanden, ob er 50 mehr oder weniger hat... Die einzigen Spiele, die interessant für HighEnd- Karten sind, sind Low- Level- API- Spiele, die die 12 TFLOPS und 4.000 Shader auch voll auslasten können. Edit: Und in den maßgeblichen Spielen hat Vega somit bis zu 30% mehr Potenzial, mit FP16 sogar noch deutlich mehr.

Du hast echt null Plan wovon du laberst. Du solltest bei Microsoft mal anheuern, vielleicht kannste dann dem Clown von Phil Spencer aktiv beim Dummbrotsabbeln unterstützen...

Nur gut das es wenigstens noch Nvidia, Intel und die Gamebryo Engine gibt :haha:, denn alles andere ist ja (mal 2008 bis 2016 revue passieren lassen) so dummes Gelaber nur; vielleicht fallen da ein paar dumme Facebookkiddies drauf rein, die ihr Ego freikaufen müssen.


Alles meine Meinung, danke fürs lesen! (FP16 und low level api...boy...)
 
Die Instinct hat 2x 12 TFLOPs (=24, besteht aber quasi aus 2 V10-Nanos), bisher waren AMDs Consumerkarten immer deutlich höher getaktet als die Profivariaten. Ich würd da mit mindestens 14TFLOPs für V10 rechnen.
Der neue Rasterizer löst einige von AMDs Problemen bezüglich der Speicherverwaltung und die neuen CUs lassen sich deutlich besser takten - Vega ist quasi AMDs Maxwell. Zudem gibts mit Vega dann endlich den komplett neu entwickelten Shadercompiler, dann ist auch der Treiber qausi "fertig".
 
Zuletzt bearbeitet:
das liest sich alles so toll. wie es sich bei den Gens zuvor auch las. aber nie Wirklichkeit wurde.
 
Wieso? Die 7970 war doch wirklich eine top Karte, und auch die 290X und 390X prügeln sich mit den neuen APIs mit einer 980 TI. Vega wird vergleichbar mit den Rechenmonstern sein, die Spiele, die in letzter Zeit released wurden, sind immer besser optimiert und die neuen APIs machen das Optimieren nochmal deutlich einfacher. Mit dem großen Aufwärtstrend, den AMD im Marktanteil hat, können sie auch nicht mehr von manchen Entwicklern ignoriert werden...
http://images.anandtech.com/doci/10613/jpr_q2_2016_amd_vs_nvda_SHARE.png

Und letztlich steckt in FP16 ein immenses Potential für Optimierungen, allerdings glaube ich selbst auch, dass es vorerst nur kleinere Auswirkungen hat, bis dann schließlich die Optimierung auf FP16 zum Standardrepertoire gehört.

Die Instinct hat 2x 12 TFLOPs (=24, besteht aber quasi aus 2 V10-Nanos), bisher waren AMDs Consumerkarten immer deutlich höher getaktet als die Profivariaten. Ich würd da mit mindestens 14TFLOPs für V10 rechnen.
Der neue Rasterizer löst einige von AMDs Problemen bezüglich der Speicherverwaltung und die neuen CUs lassen sich deutlich besser takten - Vega ist quasi AMDs Maxwell. Zudem gibts mit Vega dann endlich den komplett neu entwickelten Shadercompiler, dann ist auch der Treiber qausi "fertig".
Das wären mindestens 1,7 GHz Takt - natürlich wäre das absolut perfekt, weil dann überhaupt keine Taktnachteile mehr gegenüber Pascal bestünden und die deutlich zahlreicheren Shader dann problemlos ihr übriges tun. Auch, wenn das absolut nachvollziehbar begründet ist, muss man glaube ich erst die Ergebnisse am Ende abwarten ;)
 
ich würd an deiner Stelle mal aufhören auf ne handvoll cherrypicked Spiele zu glotzen oder auf Potential zu pochen, das irgendwo steckt (und das auch weiterhin tun wird. isn Unterschied, ob was Potential hat oder das Potential auch wirklich ausspielt)
 
Wenn die Profivarianten 1,5GHz haben (also 12TFLOPs, die 64NCUs sind ja sicher), hat die Consumervariante sicher 1,7. AMD gab beim Vega-Event ja auch bekannt, dass die neuen NCUs vor allem taktoptimiert sind, das würde gut dazu passen.

slot108 ob man das 1:1 in Spieleleistung auch umsetzen kann ist natürlich noch ne andere Frage. Allerdings lief Vega ja offenbar mit etwas weniger als 1,5GHz auf dem Debug-Board im Polaris-Mode (also ohne Rasterizer und NCU-Optimierungen, es gab bei der Präsentation noch keinen entsprechenden Shadercompiler) und da sah es schon recht gut aus.
Kann ja sein, dass man (ich auch) bei Polaris was anderes erwartet hatte, aber das muss ja für diesen Start nix heißen. Da braucht man sich ja nur anschauen, wie AMD vorher agiert hat. Fiji wurde bis zum Schluss geheim gehalten, selbst die Anzahl der CUs war erst sehr spät bekannt. Polaris ebenso. Mit Vega schmeißt man gradezu mit Spezifikationen um sich (überspitzt), das ist ein völlig anderes Verhalten und das macht mir schon Hoffnung. Wann hat schonmal ein Hersteller Debug-Boards präsentiert - das tut man nur dann, wenn man selbst sehr optimistisch ist mit seinem Chip. Ich sag ja, das ist deren Maxwell, die NCUs bringen die lange benötigte Taktsteigerungen, der neue Turbo bringt endlich die feinere Granularität mit und der Rasterizer spart die entsprechende Speicherbrandbreite ein, die man benötigt. Das macht mir alles keine Sorgen, das wird ein top-Produkt.

Was mir hingegen Sorgen macht, und das macht V10 für mich völlig unkaufbar, ist, dass man sich auf 8GB beschränken wird erstmal, selbst die Instict
hat nur 16GB (also 2x8). Es gibt eben kein Produkt ohne Pferdefuss.
 
Zuletzt bearbeitet:
Moment, also Vega wirds nicht mit 16GB geben? Instinct war für professionelle Anwendungen gedacht, also nicht direkt fürs Spielen, oder?
Mit 16 GB wäre ich zufrieden, wäre auch etwas Zukunftssicher, bei 8 weiß ich nicht ob man in zwei Jahren wieder Probleme bekommt. Habe gemeint irgendwo gelesen zu haben, dass selbst 2x16GB Stacks möglich wären.
 
Die sind aber nicht fertig. SKHynix kann erste 8er HiStacks erst im Laufe des Jahres liefern. Ob da ein Update kommt ist schlicht unbekannt. Vielleicht bringt man ja noch ne Fury mit den neuen Stacks Anfang 2018 oder sowas - aber in 2017 ist das einfach unrealistisch. Aber alles was jetzt kommt hat 2 4er HiStacks, also 2x4GB pro V10-Chip mit 2Gbps, also maximal 512GB/sec mit zwei Stacks.
Erst V20 ist dann mit bis zu 4 Stacks geplant offenbar, der soll bis zu 32GB pro Chip bringen, also 4 8er-HiStacks.
Die Instinct hat 2 V10 mit je 8GB <300W, also 150W pro Chip. Das Teil ist ja auch sehr lang und die 24TFLOPs sind ein eindeutiger Hinweis darauf, dass es zwei Chips sind, der Speicher machts dann zwingend -> 16GB = 2 Chips, das ist absehbar nicht anders möglich. Aber anders als die Pro Duo sind die beiden Chips offenbar über CCIX verbunden, weswegen man die offenbar im Computing als einen behandeln kann (Speicher sind 100% kohärent, jeder Chip kann die vollen 16GB adressieren). Dasselbe hat man offenbar mit V20 vor, damit wär ein Produkt mit 64GB möglich. Deshalb ist auch erst V20 der Hawaii-Nachfolger und bekommt 1:2 Double-Precision-Genauigkeit. Der Computing-Hawaii hat 32GB VRAM, ein Doppel-V20 ist dessen Nachfolger.
 
Zuletzt bearbeitet:
Tja, da hat es Nvidia mit ihren ollen und völlig lahmen GDDR5X beim GP102 schon seit einem halben Jahr aber einfacher: 12GB für die Titan samt selber Bandbreite wie bei Vega10 mit HBM2 und nur 1/3 des Vrams, ganz zu schweigen dann von den 24GB für die Quadro6000 :d

Tja, da hat aber Nvidia mal wieder Kacke gebaut und sich selber an's Bein gepullert mit ihrem Geiz noch auf völlig veraltete Speichertechnologie zu setzen...


Spaß beiseite, solange es nicht bewiesen ist, daß die Xbox "Scorpio" tatsächlich die gemunkelten 12GB shared Ram haben wird, solange sollten 8GB Vram auch selbst die kommenden 3 Jahre noch locker reichen.
 
Das seh ich absolut nicht so. Dass die Scorpio mit 384Bit (welche ja als gesichert gelten mittlerweile) 12GB hat ist obligatorisch denke ich. Das hat aber nur sekundär mit dem PC-Gaming zu tun. Der Speicherverbrauch steigt auch hier, egal, wieviel RAM neuere Konsolen haben. 8GB VRAM sind für 2018 für Premiumklasse zu wenig, das ist schon jetzt vollkommen klar.
AMD hat zwar ne tolle Spartechnik angekündigt, aber ich halte das für Augenwischerei, oder es hat mit coherent fabric zu tun - in dem Fall würd das Ganze nur auf AMD-Systemen funktionieren und wie gut das dann ist, ist ne andere Frage.

Das NV da auf GDDR5X setzt hat eben auch seinen Vorteil. Aber bislang kostet 12GB 1000€+ - mit der 1080ti/2080ti dann vielleicht 800€ - das ist es mMn auch nicht wert. Für GP104 gilt analog dasselbe wie für V10, selbst wenn er refresht wird. Ich halte es generell für keine gute Idee im Moment Premiumklasse (450€+) zu kaufen. Das wird erst mit V20/Volta wieder sinnvoll mMn.
 
Zuletzt bearbeitet:
Wenn Vega nur mit 8GiB vorhanden sein wird, werde ich auch erstmal nicht wissen, was ich tun soll. Für die Leistung sollten es definitiv 16GiB sein - mit 4K/Supersampling oder teilweise auch so mit max. Texturen wird man sicherlich demnächst auf 10-12GiB kommen... und nicht nur in der Handvoll Spielen, bei denen das vielleicht schon jetzt so ist...

Entweder ich sehe in Tests schwarz auf weiß, dass Vega durch den neuen Controller tatsächlich von Grund auf richtig viel VRAM weniger belegt, als meine RX 480, oder ich muss mir das verdammt lange überlegen. Klar ist, dass ich auf Linux keine so großen Probleme mit den Texturen erst mal habe, weil es kaum AAA- Titel gibt(zumindest aktuelle). Außerdem will ich das Teil auch in Blender einsetzen und kann die Rechenleistung ganz gut gebrauchen.

Trotzdem denke ich, dass die präsentierte Vega, nicht der große Chip war (rein von der Leistung) und hoffe, dass da noch was mit 16GiB(4 Anschlüsse) kommt.
 
Naja, das mit dem Speicherhandling, wenn Spiele in Zukunft von der Speicherauslastung besser programmiert werden, hilft das ganze Feature von AMD nichts, dann wird auch der Speicher zu knapp wenn sie voll optimiert 10GB benötigen.
 
Naja, ich freue mich erst mal über jedes Vulkan- Spiel, was kommt und wer weiß, ob die Karte noch aktuell ist, wenn man davon sprechen kann, dass die Entwickler ihre Spiele auch vom VRAM optimal einstellen :) Letztlich müsste man auch rechenintensive Algorithmen einsetzen, die berechnen, welche Texturen der Spieler aus welcher Perspektive sehen kann, anstatt, wie eigentlich üblich, im Radius von X Metern um den Charakter einfach alles zu laden, oder die modernere Variante, im Sichtfeld alles zu laden und ein wenig darüber hinaus.

Ab einer bestimmten Komplexität des Mechanismus lohnt sich der Aufwand also auch performancemäßíg nicht mehr, deshalb würde ich es schon für fragwürdig halten, ob überhaupt jemals die überwiegende Mehrzahl der Spiele annähernd so optimiert ist, dass der VRAM- Verbrauch sich den tatsächlich benötigten Inhalten annähert.
 
So schwer sollte das nicht sein, wird soviel ich weiß auch bei Star Citizen gemacht. Aber ja stimmt, müssen in der nächsten generation auch ein "Upgrade" anbieten, nur ich habe so meine Zweifel dass meine 290 bis zu Vega 20 reicht.
 
ich würd an deiner Stelle mal aufhören auf ne handvoll cherrypicked Spiele zu glotzen oder auf Potential zu pochen, das irgendwo steckt (und das auch weiterhin tun wird. isn Unterschied, ob was Potential hat oder das Potential auch wirklich ausspielt)

Warum cherry picked, wenn es zum Standard wird. Im Schnitt ist ja auch bereits jetzt die RX480 an der GTX1060 vorbeigezogen.

Ist ja auch einfache Marktwirtschaft. Bei zeitweise 80% Marktanteil kann man nur mehr verkaufen in dem man kurzlebigere Produkte designt. Genau das hat man mit der GTX970 ja auch versucht. Und wenn es nach den renomierten HW-Testern dieser Welt ginge wäre man damit wohl auch durchgekommen.

Intel würde das gleiche machen, aber bei CPUs gibt es keine Abhängigkeit von Treibern. Selbst wenn die CPU wie Kabylake nicht unter Win7 oder XP supportet wird. Es läuft trotzdem. Vielleicht mit ein paar Abstrichten beim Energiemanagement, aber dank x86 wird die Leistung geliefert.

Schau dir mal folgenden aktuellen Bench an:
Resident Evil 7: Technik-Test mit Benchmarks von 22 Grafikkarten - gruselig mit weniger als 4 GiB VRAM

Ganz oben thront die TitanX mit +50% vor der Fury. Ein Bild wie immer.

Aber ganz unten wirds richtig spannend. Unter FullHD ist die AMD290 bereits 40% schneller als die GTX780.
In WQHD zieht dann sogar eine GTX960 mit 4GB an der GTX970 mit ebenfalls "4GB" vorbei. Die GTX970 oder Titan1 ist langsamer als eine 7970 die immernoch 50fps liefert! Und die 290 ist nun 3x so schnell wie eine GTX780!

Alle Kepler-Karten hängen also weit zurück und ohne besonders angepassten Treiber wird sogar nun die GTX970 auf das Niveau der kleinern GTX960 herabgestuft.
Vor einem halben Jahr als die GTX1060 noch nicht lieferbar war hast du noch fleißig eine GTX970 empfohlen, anstatt einer RX480/RX470 oder 390. Diese ist in WQHD nun um Faktor 2 schneller. Und es wird mit Sicherheit nicht besser.
Genauo säuft die GTX1060 3GB nun bereits extrem ab. In einem Jahr kann man die Karte wohl spätestens entsorgen.

Um Marktanteile zurückzugewinnen muss AMD eben überzeugen. Nvidia sucht da eher andere "verkaufsfördernde Strategien". Wenn du das mit Potenzial meinst ist das sicherlich vorhanden und auch kein einmaliger Ausrutscher. Also mit auf irgend etwas pochen wäre ich vorsichtig...

Ich bin gespannt was Vega so bringt, aber mit nur 8GB weiß ich noch nicht ob mich die Karte zum Neukauf bewegt. Mal siehen wie der Cache funktioniert und wo sich die Karte letztendlich preislich positioniert.
 
Zuletzt bearbeitet:
In WQHD fehlen der 970 und 1060 einfach die Rohleistung, um da irgendwie mithalten zu können. Denen geht einfach die Puste aus. Die 970 leidet zudem massiv unter ihrer Speicherpartition. Das kommt halt vor, wenn die vollen 4GB angefordert werden. Mit höherer Auflösung hilft mehr Rohleistung enorm. Und das die Keplers so schlecht darstehen liegt auch an den geringen Speicherkapazitäten. Die 780 hat nur 3GB und die trotz deutlich mehr Takt einiges langsamer als die Titan mit 6GB. Die Chips sind für Spiele gleich. Sehr heftig ist nur, wie stark Tahiti dabei abschneidet. Die AMDs leiden bei dem Spiel lange nicht so stark unter Speichermangel wie die NV-Karten.
 
Zuletzt bearbeitet:
wird ja immer lächerlicher
und hat nix mitm topic zu tun. ich wette Vega wird genau so ne Lachnummer
Lächerlich und Lachnummer, das sind doch deine Markenzeichen! :fresse2:
Du bist ein Fanboy-Fraggle, dazu noch ziemlich unhöflich und arrogant.
 
AMD hat für Kernel 4.11 keinen Vega- Support vorgesehen, Kernel 4.12 müsste frühestens mitte Juni bereit stehen, sodass Vega demnach mit sehr hoher Sicherheit erst ganz am Ende der ersten Jahreshälfte kommt.
 
Warum cherry picked, wenn es zum Standard wird.

Typisch G3cko... Du pickst dir genau die Rosine raus, wo AMD mal abseits der üblichen Leistungswerte irgendwie ein brauchbares VRAM Management aufweist während NV es irgendwie verkackt.
Warum stellst du dir nicht einfach mal die Frage, warum das auf einmal anders ist als üblich!?

Oder wie erklärst du dir, dass 3GB auf Tahiti scheinbar ausreichend sind, während 3GB auf sämtlichen NV Karten nicht reichen? Selbst 4GB scheinen nicht wirklich ausreichend bei NV.
Die Werte sind insich auch nicht sonderlich schlüssig. Eine 390 non x bei gleichem Takt grob 50% schneller als eine 280X!? -> bei 25% mehr Rohleistung? Kommt das aus der Luft? Kannst du es erklären?

Dazu kommt, dass es rein am VRAM auch nicht liegt -> oder nach den Werten liegen kann... In einigen Gesichtspunkten der Rohleistungsdaten ist Kepler einfach im Vergleich zu Maxwell/Pascal und auch AMDs ersten GCN Umsetzungen deutlich im Hintertreffen. Hier bspw. zu sehen:
Performances théoriques : géométrie - Nvidia Titan X 12 Go en test : pour 1300€, Pascal enfonce le clou ! - HardWare.fr
Aber du wirst so oder so mit dem Background nix anfangen können... Von daher, erspare uns bitte deine AMD Propaganda. AMD wird Vega auch ohne dein Zutun liefern -> und es wird sich auch ohne deine Rosinenpickere zeigen, ob das Ding gut wird/taugt oder nicht... Auch wird es Redaktionen und Personen geben, die nüchtern an die Vergleiche rangehen und es eben nicht nötig haben, Rosinen zu picken... :wink:
 
Nur, dass es nicht "üblich" ist, dass NV sonst nie verkackt und AMD immer, da ist der Denkfehler. Merkst du die Polemik?
NV mag die Rohleistung effizienter umsetzen, es gibt aber auch Situationen, in denen die Rohleistung auch bei GCN sehr gut umgesetzt wird. In denen hat Paxwell selbstverständlich das Nachsehen, weil die Rohleistung einfach fehlt. Das gilt insbesondere für die 1060. Je höher die Auflösung, desto mehr ist das der Fall, oder warum denkst du, nähert sich die Fury in UHD (sofern der Speicher reicht) der 1070 oder überflügelt gar diese?
 
Zuletzt bearbeitet:
Vor allem wir immer so getan als läge es nur am VRAM (was es jedoch nicht immer tut, siehe Titan Clasic). Und selbst wenn gehört es nun mal auch zum Gesamtpaket dazu. Zwingt einen ja keiner weniger zu nehmen, wenn man die Wahl hat.
 
Zuletzt bearbeitet:
Nur, dass es nicht "üblich" ist, dass NV sonst nie verkackt und AMD immer, da ist der Denkfehler. Merkst du die Polemik?
NV mag die Rohleistung effizienter umsetzen, es gibt aber auch Situationen, in denen die Rohleistung auch bei GCN sehr gut umgesetzt wird. In denen hat Paxwell selbstverständlich das Nachsehen, weil die Rohleistung einfach fehlt. Das gilt insbesondere für die 1060. Je höher die Auflösung, desto mehr ist das der Fall, oder warum denkst du, nähert sich die Fury in UHD (sofern der Speicher reicht) der 1070 oder überflügelt gar diese?

Naja, das ist dann aber, in meinen Augen, "falsch" optimiert von AMD bzw. "richtig" optimiert von NVidia. Was nützt es mir wenn die Fury bei 10000x10000 Pixel 5 fps hat und die 1070 nur 3, dafür die 1070er unter FHD mehr als die Fury? Welche Auflösung wird eher zum Zocken verwendet werden? Und nein, 25 fps von der Fury gegen 20 fps von der 1070er unter 4k helfen mir auch nicht.
Das ist so als würde man mit einem Rennwagen in der Stadt Stop/Go fahren. Der Rennwagen hat sein bestes Drehmoment bei hohen Drehzahlen -> deswegen fahrst den auch immer knapp vorm Limit, ein Stadt-Golf ist auf wenig Verbrauch und besseres Drehmoment bei niedrigen Touren ausgelegt, ganz einfach weil er da am meisten verwendet wird. Hier ist auch klar was die bessere Lösung ist.

Das sind jetzt alles Hausnummer-Werte, aber ich hofffe mein Punkt den ich machen will wird klar.
Disclaimer: Bin kein Fanboy/Hater blahblahblah... (ist eigentlich tragisch das man sowas jetzt schon immer dazu schreiben muss wenn man einfach nur seine meinung kundtun will)
 
Naja, das ist dann aber, in meinen Augen, "falsch" optimiert von AMD bzw. "richtig" optimiert von NVidia.
War es auch. NV hat, wenn man es mal grob ausdrückt, darauf hin optimiert, in eher schlecht programmierten Spielen deutlich mehr FPS als AMD zu bekommen. AMD hat dagegen ihre Architektur auf maximale Rohleistung optimiert, was natürlich für den Profibereich(OpenCL, HSA etc.) sehr sinnvoll ist und wie man sieht, bei Google auch in Form der Radeon Pro Duo erfolgreich eingesetzt wird.
Mit Vega strukturiert AMD ja vieles um, mehr Shader als bei der Fury X gibt es nicht, dafür wird im Takt wahrscheinlich aufgeschlossen. Somit würde AMD seine Defizite in der Architektur ausbügeln, sodass sie auch bei älteren und schlecht optimierten Spielen ein gutes Bild nach außen hin abliefern. Bei NV sieht das anders aus. Sie haben weiterhin das Defizit in der Rohleistung nicht gelöst und das könnte mit noch mehr von Grund auf Vulkan und DX12- basierenden Spielen dann unangenehm werden, deshalb denke ich, dass wir im Sommer dann erst mal einen knallharten Wettbewerb zu sehen bekommen werden.
 
Nur, dass es nicht "üblich" ist, dass NV sonst nie verkackt und AMD immer, da ist der Denkfehler. Merkst du die Polemik?
Bevor du mit Polemikvorwürfen um dich wirfst, ließ bitte die Aussage nochmal. Es ging um das VRAM Management. Welche Titel kannst du aufzählen, wo das VRAM Management bei NV derart scheiße ist, dass Modelle mit gleich viel Speicher zwischen AMD und NV im direkten Vergleich (sogar über unterschiedliche Klassen) derartige Defizite aufweisen wie in RE7???
Mir fällt dazu nicht ein einziger Titel ein und ich verfolge das Thema VRAM Management seit gut und gerne 15 Jahren. Kenne also auch die Hochs und Tiefs beider Hersteller in der Vergangenheit... Im Moment (diversen Messungen zur Folge, wie auch eigener praktischer Erfahrung) funktionieren NV GPUs im Schnitt minimal!!! besser als AMD GPUs im VRAM Limit. Und das quasi durch die Bank weg. RE7 ist eine Ausnahme in der Art, dass 3GB bei AMD auf Tahiti vollkommen ausreichend scheinen (nichtmal Nachladeruckler oder Drops soll es groß geben) während 3GB bei NV völlig überfordert sind und selbst 4GB noch zu Drops und Rucklern neigen.

Je höher die Auflösung, desto mehr ist das der Fall, oder warum denkst du, nähert sich die Fury in UHD (sofern der Speicher reicht) der 1070 oder überflügelt gar diese?

Das ist nicht erst seit heute so... Beginnend mit der R600 GPU seitens AMD macht im Schnitt das AMD Modell idR bei höheren Anforderungen die bessere Figur -> zumindest immer dann, wenn man die Relation zur Basis betrachtet, also welches Modell bricht unter welchen Bedinungen wie stark weg. Aber darum gings doch überhaupt nicht!?

Vor allem wir immer so getan als läge es nur am VRAM (was es jedoch nicht immer tut, siehe Titan Clasic). Und selbst wenn gehört es nun mal auch zum Gesamtpaket dazu. Zwingt einen ja keiner weniger zu nehmen, wenn man die Wahl hat.

Auch du solltest nochmal lesen... Ich sprach nicht grundlos an, dass es nicht ausschließlich am VRAM liegt. Dennoch ist die VRAM Abhängigkeit, sogar bei beiden Herstellern, in RE7 extrem hoch. ~15% Zuwachs für 4GB vs. 8GB beim Hawaii mit gleichem Takt sprechen wohl Bände. Im Verglich Tonga vs. Hawaii wirds sogar noch schlimmer. Da kommen aus ~25% mehr Rohleistung auf einmal 47% mehr Leistung.
Wohingegen der Schritt 780 3GB vs. Titan classic 6GB -> unter anbetracht der Taktraten mit angegebenen 6% irgendwie völlig anders aussieht... Denn es sind allein knapp 4,5% Unterschied in der Rohleistung zwischen den Modellen pro Titan classic... Wohin verpufft also der VRAM Vorteil? Der Nachweislich -> wie die AMD Messungen zeigen, vorhanden ist?

Das lässt nur einen Schluss zu, das Spiel funktioniert auf NV GPUs einfach nicht gut... Und es bleibt die Frage über, wessen Schuld ist das? Wer kann das Problem fixen?
Offenbar haben Modelle mit deutlich mehr VRAM deutlich weniger (bis gar keine) Probleme. Auch bei NV. Eine TitanX ist uneingeschränkt im Rahmen der Rohleistung vor der 1080. Die 1070er reiht sich anhand der Taktraten und Rohleistungsunterschiede entsprechend dahinter ein. Das Bild da oben ist äußerst Rund und genau so, wie es sein sollte... Warum ist das unten nicht der Fall?
Ein Kepler only Problem ist hier schlicht auszuschließen. Denn sowohl die 970er (wenn auch mit Pferdefuß), wie auch die 1060er mit 3GB haben hier das selbe Problem...

DAS mein lieber Herr G3cko, hättest du sehen können. Wolltest du aber nicht. Stattdessen tätigst du hier wieder Propaganda... Muss das wirklich sein? Bleib einfach mal nüchtern... Dann wird man dir auch nicht den Mist alle Nase lang um die Ohren hauen ;)

War es auch. NV hat, wenn man es mal grob ausdrückt, darauf hin optimiert, in eher schlecht programmierten Spielen deutlich mehr FPS als AMD zu bekommen. AMD hat dagegen ihre Architektur auf maximale Rohleistung optimiert, was natürlich für den Profibereich(OpenCL, HSA etc.) sehr sinnvoll ist und wie man sieht, bei Google auch in Form der Radeon Pro Duo erfolgreich eingesetzt wird.

Das ist eine Aussage, die genau nichts aussagt. Wie optimiert man auf "maximale Rohleistung" und auf "in schlecht programmierten Spielen deutlich mehr FPS als die Konkurenz"???
Das gibt es nicht und geht auch nicht... Die Aussage ist Unsinn.
Wenn man es anders ausdrückt, wird eher ein Schuh draus... NV hat ihre GPUs so ausgelegt um mit der minimalen Rohleistung das maximale rauszuholen während AMD offensichtlich für den Anfang versucht hat, Optimierungsthematiken mit Rohpower zu erschlagen. Für/am Anfang ging das nicht auf. Mittlerweile schon eher... Den Kunden hat das offenbar aber wenig überzeugt.


Bei NV sieht das anders aus. Sie haben weiterhin das Defizit in der Rohleistung nicht gelöst und das könnte mit noch mehr von Grund auf Vulkan und DX12- basierenden Spielen dann unangenehm werden, deshalb denke ich, dass wir im Sommer dann erst mal einen knallharten Wettbewerb zu sehen bekommen werden.

Von welchem Rohleistungsdefizit sprichst du? Von der 1060er?
Warum benennst du das dann nicht entsprechend???
Ich sehe keine AMD GPU, die auch nur ansatzweise im Gesamtpaket mit einer TitanX mit GP102 oder mit einer Tesla P100 mithalten kann. Und von einem Leistungsdefizit zu sprechen, wo das Konkurenzprodukt geschätzte 9-12 Monate später überhaupt erstmal das Licht der Welt erblicken wird? Ernsthaft?? -> wenig seriös...
 
Wie optimiert man auf "maximale Rohleistung"
Indem man das optimale Verhältnis zwischen Shaderanzahl auf engstem Raum und möglichst hohem Takt wählt, was wieder Raum kostet. Also so, dass das Produkt, die TFLOPS, möglichst groß ist. NV hat eher auf möglichst hohen Takt optimiert, dass ist offensichtlich und wurde auch in der GTX 1080- Präsentation (Edit: indirekt) gesagt. Der höhere Wirkungsgrad bei höherem Verbrauch, bedeutet natürlich höheren Maximaltakt, weil der Takt den Verbrauch und damit die Temperatur erhöht.

Von welchem Rohleistungsdefizit sprichst du?
Fury X vs. 980 Ti: 8,6 vs. 6 TFLOPS, beide bei etwa gleicher Chipgröße.

Wie sich das in der aktuellen Generation auswirkt, wenn AMD die Struktur auch zugunsten des Takts verändert ist noch nicht absehbar, aber tendenziell gehe ich davon aus, dass AMD eher noch ein Stück mehr in Richtung der Rohleistung bleibt, und nicht alle Karten auf maximalen Takt setzt.
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh