AMD arbeitet auch an einem GDDR6-Speicherinterface

Das ist aber mehr dem Fakt geschuldet, dass Bethesda und AMD Partner sind und gerade diese beiden Titel sehr stark für Grafikkarten von AMD optimiert wurden, als das es allein an Vulcan liegt. Klar hat AMD Vorteile bei Vulcan gegenüber Nvidia, aber die fallen normalerweise nicht so stark aus. :wink:

So starke Optimierungen für einen Hersteller werden wird definitiv nicht bei vielen Titeln sehen.

Für Vega & Ryzen: AMD und Bethesda sind jetzt Partner
Oh, in den anderen Fällen ist es wohl nicht so schlimm?

Was ist wohl mehr Indikator für Leistung? Eine offene Schnittstelle worauf jeder optimieren kann, oder nVidias fein säuberlich behüteten Bibliotheken verbaut in Dx11 Engines? :wink:

Gesendet von meinem STF-L09 mit Tapatalk
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was ist wohl mehr Indikator für Leistung? Eine offene Schnittstelle worauf jeder optimieren kann

Nur blöd dass das fast keiner Nutz. Man hätte auch stark auf Buldozer optimieren können, nur komischerweise optimieren fast alle, die keine Verträge haben immer auf das, was am meisten auf dem Markt vertreten ist. Klar hat AMD die Konsolen für sich, aber auf dem PC werden dann trotzdem alle zusätzlichen Effekte usw. eher für nVidia optimiert. Dazu kommt noch, das du als Gamedev von nVidia auch noch schöne und gepflegte Komplettpakete in die Hand gelegt bekommst. Damit kann man sehr einfach eine reihe an komplexer Effekte und Mechaniken einbauen, welche man sonst extrem teuer für die offene Schnittstelle selber entwickeln müsste. Hier kommt zB von AMD nur unregelmäßig mal was und wird oft dann auch schnell nicht mehr weiterentwickelt.
Um das mal zu verdeutlichen, jeder kleine Solo Indi kann sich ganz einfach eine Version von Unreal 4 Engine mit Gameworks Effekten selber compilieren und das dann einfach nutzen (Teilweise sogar schon von nVidia selbst in den Code integriert, einfach downloaden und compilieren). Von AMD gibt es hier einfach nichts. Dein "offener Standard" bringt dir nichts, wenn ihn fast keiner nutzt, ist wie Gaming auf Linux und Windows. Deiner Logik nach, müssten ja alle nur noch Games für Linux machen......
 
Okay, dann kaufen wir ab jetzt nur noch nVidia und warten darauf das AMD pleite geht.

Wollen wir ne Preiswette jetzt schon starten oder erst wenns soweit ist?

Logik... Das ich nicht lache.

Gesendet von meinem STF-L09 mit Tapatalk
 
Was ist wohl mehr Indikator für Leistung? Eine offene Schnittstelle worauf jeder optimieren kann, oder nVidias fein säuberlich behüteten Bibliotheken verbaut in Dx11 Engines? :wink:

Welche "fein säuberlich behüteten Bibliotheken verbaut in Dx11 Engines" sollen das bitte sein!? -> das sind schlicht Märchen! Bring bitte Fakten wenn schon behauptet wird!

NV liefert einen MT Aufsatz für IHRE!!! GPUs in IHREM Treiber. Dieser sorgt regelmäßig für mehr CPU Load und damit einen leichten Vorteil im Limit, sofern! genügend CPU Reserven vorhanden sind. Ist dies nicht der Fall, kann! die Umsetzung sogar einen negativen Effekt erzeugen.
Das, was AMD in DX11 fabriziert, ist davon völlig losgelöst. Selbst wenn du dir die Negativ-Rosinen von NV-sponsored Titeln ansiehst, es macht bis auf Ausnahmen (wie bei AMD andersrum genau so) absolut keinen nennenswerten Unterschied. Ja, der ein oder andere Effekt schlägt über die Stränge, aber mal ehrlich, deaktivier ihn halt und fertig.

Wenn du sagst, Doom und Wolfenstein zeigen, was Vega zu leisten im Stande ist -> ja schön, ne TI ist weiter in Front. Nur weil es bei der 64er Vega nicht für TI oder mehr Performance reichte und AMD entsprechend drunter setzen musste, ist das doch lange nicht das Maß der Dinge!? Vega64 kommt auf TI Rohpowerwerte von den ALUs und liegt teils drastisch dahinter, je nach Spiel. Vor allen wenn man die Rosinen pro AMD raus lässt und eben Durchschnitt vergleicht...

Sprich, AMD muss sich einfach nur dafür entscheiden und schon klappt es? Mann-oh-mann sind die blöd bei AMD....

Vielleicht solltest mal ne Bewerbung an die schicken...

Denk doch mal nen Schritt weiter als von Wand bis zur Tapete!
Muss man Ahnung bis ins letzte Details von irgendwas haben um bewerten zu können oder zu wollen, ob die konkrete Umsetzung, deren Probleme auf dem Tisch liegen und zur Diskusion stehen, einfach nicht die richtige wahl war!? Ich denke nicht...
Effizienz ist ein Thema bei AMD, seit GCN ist das der Fall. Solange man einfach im Gamerbereich mehr Rohleistung für die gleiche Spieleperformance benötigt, wird man auch mehr Strom verbrauchen... Da brauch ich kein Chefdesigner von GPUs sein um eins und eins zusammen zu zählen. Und ganz sicher brauch ich auch keine Lösung für das Problem um dieses benennen zu können oder zu dürfen!

Warum es AMD nicht anders macht!? Ja das wäre die Frage, ggf. können sie auch einfach nicht oder wollen nicht oder weis der Geier. Deswegen wird doch aber immernoch erlaubt sein zu bewerten (vor allem von denen, die den Spaß am Ende kaufen sollen), ob das etwas ist, was der Markt will oder nicht!
Der Markt gibt nen feuchten Kehricht auf HBM(v2). Die wollen ne GPU anständig dimensionierter Menge VRAM und entsprechende Performance. WAS das ist, ist völlig hupe. Und wie man die Effizienz erreicht, auch... Wenn Vega es so nötig hätte, auf die ~30W absoluten Verbrauchsvorteil von HBM zu setzen, sollte man sich da nicht eher die Frage stellen, wie es die Konkurrenz dann OHNE HBM schafft trotzdem deutlich weniger zu verbrauchen!? Und wahlweise sogar noch deutlich schneller zu sein?
 
Ich bin jedenfalls froh, dass NV auf GDDR5X gesetzt hat, das war der alleinig richtige Weg. wer weiß, wo wir sonst heute wären.
 
Oh, in den anderen Fällen ist es wohl nicht so schlimm?

Wo habe ich das behauptet?


Was ist wohl mehr Indikator für Leistung? Eine offene Schnittstelle worauf jeder optimieren kann, oder nVidias fein säuberlich behüteten Bibliotheken verbaut in Dx11 Engines? :wink:

Dir ist aber schon bewusst, dass du die zusätzlichen Features von Gameworks in den entsprechenden Titel auch meistens fast komplett abstellen kannst?

Und so behütet sind die auch nicht...

NVIDIA Advances Real-Time Game Rendering and Simulation With Launch of NVIDIA GameWorks SDK 3.1 | NVIDIA Newsroom
Access GameWorks Source on Github | NVIDIA Developer

Lass mal den Beißreflex stecken :wink:
 
Zuletzt bearbeitet:
Effizienz ist ein Thema bei AMD, seit GCN ist das der Fall. Solange man einfach im Gamerbereich mehr Rohleistung für die gleiche Spieleperformance benötigt, wird man auch mehr Strom verbrauchen...

Nur dass das Problem zu GCN1 Zeiten (HD7x00) noch kein Problem war, da man ca. auf Augenhöhe mit Nvidia war.
 
Nur dass das Problem zu GCN1 Zeiten (HD7x00) noch kein Problem war, da man ca. auf Augenhöhe mit Nvidia war.

3 Jahre nach Release stimmt das zweifelsfrei. Aber zu Release und damit zur Lebzeit der Hardware!?
Ne poplige 680er hat sich, wenn auch nur leicht, vor ne 7970 geschoben, AMD brachte darauf hin ne GHz Edition. Letztere hat mal schlappe 40% mehr ALU Rohpower als ne 680er. Und säuft gut und gerne 250W Stock. Ja ich weis, es gibt Customs, die um die 200W brauchen. Aber Bestcase vs. Worstcase zu vergleichen ist halt nicht zielführend. Die besten Customs der 680er brauchen halt auch weniger... Egal wie man es dreht.
Wäre NV wirklich in Zugzwang, hätte man die GK104 auch mit 4GB stock losschicken können. Dann wäre der VRAM Nachteil, der von Anfang an eine begrenzte Lebenszeit der Hardware bescheinigte, vom Tisch... Bei noch mehr Druck seitens AMD hätte man auch nen GK100 bringen können anstatt diese GPU zu verwerfen und die erste Umsetzung als GK110 für den Titan Super Computer only zu bauen und erst ~ 1 Jahr später mit GK110 teildeaktiviert als Titan zu kommen. So lief es aber nicht. Es reichte gut und gerne 1-1,5 Jahre ne GK104 aus um leistungstechnisch ggü. der deutlich fixeren Tahiti GPU zu bestehen.




Für mich ist es auf dauer nicht tragbar, dass AMD versucht alles mit einer GPU zu bauen. Das geht nicht mehr auf. Wie Vega klar zeigt... Viel GPU, aber wenig Gamingperformance. Da nutzen gute Ergebisse im Semi-Profi oder Profibereich halt auch nix in Sachen Gamer. Die kaufen dann halt NV. -> immer weniger Anteil für AMD, immer weniger Drang, da irgendwie AMD wirklich zu berücksichtigen bei der Spieleentwicklung.
Die ganzen Partnerschaften von AMD kommen ja nicht von ungefähr... Denen schwimmen die Fälle auf Dauer weg. Mal gucken was daraus wird. Low(er) Level APIs können nur gut für den Markt sein. Aber wenn AMD bei den GPUs immer mehr Boden verliert, wirds mit Pushen von Lower Level APIs immer schwerer. Wieso man sich aber die Hardware immer schön reden muss mit Rosinen, ist mir halt absolut rätzelhaft. Vega ist lahm im Vergleich zur aufgebrachten Rohleistung. Und kann im Schnitt bestenfalls mit Vulkan/DX12/Mantle da was ändern. Gut muss man das nicht finden, vor allem nicht, wo es nur ein paar wenige Hände voll dieser Spiele gibt.
 
Zuletzt bearbeitet:
Okay, dann kaufen wir ab jetzt nur noch nVidia und warten darauf das AMD pleite geht.
Wollen wir ne Preiswette jetzt schon starten oder erst wenns soweit ist?

Ideologisches Einkaufen interessiert die Mehrheit der Kunden nicht --> Siehe Linux und Windows. Da wird es auch nichts helfen, die Leistung falsch und realitätsfremd zu vergleichen, so wie du das vorschlägst. Ich hab mein ganzes Leben bis einschließlich zur 290X nur Ati / AMD Grakas gekauft, aber seit dem kommt nichts mehr brauchbares von dieser Firma für mich. Der Highend Markt ist schon praktisch nVidia Monopol, da brauchen wir nicht mehr warten und daran ist AMD absolut selbst schuld, da sie aktuell die selben Fehler bei Grafikkarten machen, wie sie bei Buldozer gemacht haben. Vega ist wie dir Fury, einfach nur ein Witz.
 
Was Vega leisten kann sieht man an Games wie Doom oder Wolfenstein, die auf aktuelle Schnittstellen setzen.
Ja, rein theoretisch kann, wenn AMD jemanden dafür bezahlt das Spiel komplett auf die eigene Hardware zu optimieren. Wenn du wieder in der Realität bist, sag Bescheid. ;)

Was ist wohl mehr Indikator für Leistung? Eine offene Schnittstelle worauf jeder optimieren kann, oder nVidias fein säuberlich behüteten Bibliotheken verbaut in Dx11 Engines?
Du meinst Gameworks? Kannst du deaktivieren.
Meinst du mit den offenen Schnittstellen diese offenen Alibi-Technologien von AMD? Die sind komplett auf AMD-Hardware optimiert, da bringt dir Opensource absolut gar nichts. Nvidia bleibt trotzdem klar im Nachteil.

Okay, dann kaufen wir ab jetzt nur noch nVidia und warten darauf das AMD pleite geht.
Es steht dir frei das für dich schlechtere Produkt zu kaufen. Oder hat dich jemand dazu aufgefordert Nvidia zu kaufen?

Nur dass das Problem zu GCN1 Zeiten (HD7x00) noch kein Problem war, da man ca. auf Augenhöhe mit Nvidia war.
Doch, mit der 7970GHz wurde es langsam aber sicher zum Problem, zumindest kann man heute sagen, dass es sich dort angedeutet hat:
AMD Radeon HD 7970 GHz Edition im Test: Mit aller Macht an die Spitze (Seite 9) - ComputerBase
Zur 290X muss dann denke ich nichts mehr gesagt werden.
 
@ meinen GCN1 Post

stimmt, habe das aus heutiger Sicht betrachtet und außer acht gelassen dass das Performanceverhältnis zwischen HD7970 und GTX680 zu Release noch anders ausgefallen ist.

Somit revidiere ich meine Aussage.
 
Mantle, Vulkan und schlussendlich auch DX12 sind keine Alibi-Technologien (Jaja, DX12 ist von MS... :rolleyes: ). Wo bleibt denn nVidia komplett im Nachteil z.b. bei DX12? Weil sie Asynchronous Shaders noch nicht unterstützen, obwohl klar angegeben? (War mir nicht bewusst bis ich Sniper Elite 4 gezockt habe, was dauernd mit DX12 Fehler abgestürzt ist - abschalten der Asynchronous Shaders Funktion hat die Abstürze behoben).

Mir isses ehrlich gesagt völlig Bockwurst was im System läuft, sonst hätte ich nicht momentan mehr nVidias als AMDs im Haus.

Mich pieselt einfach nur dieses mimimi das ist schlecht und mimimi das ist auch schlecht an.

Es ist einfach Fakt das nVidia die absolute Marktmacht hat und auch dementsprechend optimiert wird - da etwas entgegenzusetzen ist einfach mal so gut wie unmöglich, vor allem dann wenn kein wirkliches Budget mehr da ist.
Genau das ist es auch, was deine eigene Aussage bezüglich "Spiel komplett auf die eigene Hardware zu optimieren" ad absurdum führt. Willkommen in meiner - der wirklichen - Realität. ;)

Von daher sehe ich es wirklich so das AMD früher oder später wohl auch - wie im CPU Markt zu Bulldozer Zeiten - erstmal ne Ruhige Schiene fahren werden wird, außer sie stampfen ne neue Architektur ausm Boden... :fresse:

Ich habe wie gesagt in dem System von dem ich grad schreib ne Vega drin, auch der komplette Rest ist von AMD, quasi - wie auch in der Systeminfo so bezeichnet - ne "Experience Plattform" ... und diese Erfahrung zeigt mir momentan einfach das ich mit dem System lieber arbeite als mit den beiden anderen.

Ich bin sehr wohl in "der Realität" - alleine dass das angezweifelt wird ist schon nen sehr klarer Indikator dafür wie hier einige Ticken...

Schon richtig geil, nur weil man nicht der Meinung wie die "Obrigkeiten" ist und nicht alles rabenschwarz sieht. Solche Zeiten hatte nVidia auch schon, mit der GTX 480... dennoch wurde sie bis aufs Messer verteidigt. nVidia hat daraus gelernt, wo sie jetzt sind sieht man... hoffentlich zieht AMD auch seine Lehren aus der aktuellen Misere...
 
Zuletzt bearbeitet:
Mantle, Vulkan und schlussendlich auch DX12 sind keine Alibi-Technologien (Jaja, DX12 ist von MS... :rolleyes: ). Wo bleibt denn nVidia komplett im Nachteil z.b. bei DX12? Weil sie Asynchronous Shaders noch nicht unterstützen, obwohl klar angegeben? (War mir nicht bewusst bis ich Sniper Elite 4 gezockt habe, was dauernd mit DX12 Fehler abgestürzt ist - abschalten der Asynchronous Shaders Funktion hat die Abstürze behoben).
Mantle durchaus. Es ist genauso wie z.B. TressFX (das meinte ich eigentlich) voll und ganz von AMD auf AMD optimiert. Da könnte Nvidia allenfalls neue angepasste GPUs entwickeln und bis die in der breiten Masse angekommen sind, hat AMD längst den nächsten Stolperstein ausgelegt. Das ist wie die Tesselation, die Nvidia in der Vergangenheit gerne hoch forciert hat, da man dort besser abgeschnitten hat. Das ist am Ende alles nur zum Nachteil des Kunden.

Mich pieselt einfach nur dieses mimimi das ist schlecht und mimimi das ist auch schlecht an.
Darf man seine begründete Unzufriedenheit etwa nicht mehr kundtun und muss alles so hinnehmen wie es einem vorgesetzt wird?

Es ist einfach Fakt das nVidia die absolute Marktmacht hat und auch dementsprechend optimiert wird - da etwas entgegenzusetzen ist einfach mal so gut wie unmöglich, vor allem dann wenn kein wirkliches Budget mehr da ist.
Genau das ist es auch, was deine eigene Aussage bezüglich "Spiel komplett auf die eigene Hardware zu optimieren" ad absurdum führt. Willkommen in meiner - der wirklichen - Realität. ;)
Es ist genauso Fakt, dass AMD zur aktuellen Situation einen großen Teil selbst beigetragen hat. Da darf man sich dann auch nicht beschweren von wegen "böser großer Konkurrent". Es gab Zeiten in denen beide etwa gleichauf waren, sowohl von der Leistung her als auch von den Marktanteilen.
AMD hat Bethesda für die Optimierungen in Wolfenstein 2 bezahlt. Die Vega exklusiven Features wurden da nicht aus Spaß eingebaut. Das ist Fakt. Und es gibt nur wenige Spiele, die derart auf Nvidia optimiert wurden. Deine Realität ist ein Wunschdenken, das, dass das jeder andere Hersteller auch macht, tatsächlich macht das praktisch niemand. War schon bei Mantle so. Oder was meinst du warum Vega im Schnitt so lahm ist? Voodoo Zauber von Nvidia? Das über was du sinnierst ist praktisch alles konjunktiv. Hätte, wäre, wenn, usw.
Die LL-APIs schieben den Spieleentwicklern viel Verantwortung in die Schuhe und oftmals kommen die damit nicht zurecht wie man an DX12 häufig gesehen hat. Wenn es sich AMD also einfach machen möchte indem sie Verantwortung abgeben, dann müssen sie auch sicherstellen, dass diese jemand annimmt. Sonst bleibt es beim Status quo.

Schon richtig geil, nur weil man nicht der Meinung wie die "Obrigkeiten" ist und nicht alles rabenschwarz sieht. Solche Zeiten hatte nVidia auch schon, mit der GTX 480... dennoch wurde sie bis aufs Messer verteidigt. nVidia hat daraus gelernt, wo sie jetzt sind sieht man... hoffentlich zieht AMD auch seine Lehren aus der aktuellen Misere...
Und mit der GTX460 und 500 Reihe haben sie sich zurückgemeldet, während sich AMD mal wieder auf dem Erfolg des Vorgängers ausgeruht hat. Mit der 7970 hat es dann wieder geklappt, nur um seit dem immer nur hinterherzuhinken. Bei CPUs erstaunliche Parallelen: nach dem tollen Athlon 64 kam nichts mehr, mit Bulldozer wurde ein totaler Tiefpunkt erreicht. Intel hatte sich nach dem Athlon64 hingesetzt, den Pentium 4 begraben und die Core Architektur entwickelt. Davon zehren sie noch heute. DAS ist der Unterschied zwischen AMD und deren Konkurrenz. Diese hat nur kurze Hänger. Nvidia mit der Geforce 5 und den ersten Fermis (die für mich nebenbei allesamt ein NoGo waren, inkl. der GTX465, habe dann bei der zweiten Fermi Generation zugeschlagen). Mit der nächsten Generation haben sie jedoch wieder zurückgeschlagen, während AMD immer längere Zeit in einem Tief ist und allenfalls mit Preisen punkten kann.
 
Das amd zu gddr6 wechselt ist bitter nötig weil einfach HBM1/2 ein desaster ist
Lieferprobleme HBM1 zu geringe Speichergröße
teuer
Nur 2 hersteler die sich keine Preisschlacht liefern
geringe verfügbarkeit aufgrund von gpgpu markt (tesla quadro deep learning)
und hohe Produktionkosten was ein gamerabkömling die marge empfindlich auf null bringt

Amd hatte gedacht das mehr hersteller HBM produzieren was nicht geschehen ist.
was bleibt ist eine neuere gen gddr die sicherlich nvidia gefördert hat.
Poker verloren amd

Wo HBM sinnvoll ist notebooks apu, systemram auf itx
nur damit wird kein echter Gewinn gemacht weil der Markt dafür zu klein ist
Außer apple mit ihren ultra dinger gibt es keinen Massenmarkt.
 
Edit @Phantomias88: Wie kommst du darauf dass das Patent für HBM bei Raja liegt? nVidia verwendet ihn auch bei ihren Volta Karten. :wink:

Gesendet von meinem STF-L09 mit Tapatalk
Stimmt, Nvidia nutzt es auch bei den Quadros! ;)

Hat irgendwie gepasst an der Stelle. :fresse:
Das Englische WiKi hat eine History drin:
The development of High Bandwidth Memory began at AMD in 2008 to solve the problem of ever increasing power usage and form factor of computer memory. Amongst other things AMD developed procedures to solve the die stacking problems with a team led by Senior AMD Fellow Bryan Black. Partners from the memory industry (SK Hynix), interposer industry (UMC) and packaging industry (Amkor Technology and ASE) were obtained to help AMD realize their vision of HBM.[17] High volume manufacturing began at a Hynix facility in Icheon, Korea in 2015.
High Bandwidth Memory - Wikipedia
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh