Übernächste GPU-Architektur von AMD: Auf Navi folgt Arcturus

166 € für eine mit 8 GB? Ich weiß dass es die mal unter 200 € gab kurz nach Launch. Probleme hatte ich damit aber nie. Ich würde sie wieder kaufen. Darum hoffe ich auch sehr auf die 680, gleiches Format, für rund 100 W 1080-Leistung in bezahlbar, her damit.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gemeint war die 4GB Version.

Darum hoffe ich auch sehr auf die 680, gleiches Format, für rund 100 W 1080-Leistung in bezahlbar, her damit.

AMD hing zuletzt 2-3 Jahre hinterher.

Erwartest du dann wirklich 3 Jahre nach Pascal Release eine AMD Karte, die 80% effizienter ist als Pascal und damit auch erheblich besser als Turing?!

Ich glaube da kannst du bis 2022 warten.
 
Zuletzt bearbeitet:
Tja und jemand der alleine schon fürs Gehäuse 400€ ausgibt, wird wohl nicht gerade nur den Anspruch haben, dass seine Games so gerade irgendwie flüssig laufen...
Korrekt - und für meinen Anwendungsfall ist es mehr als flüssig. Ich muss natürlich dazu sagen, dass ich wohl mehr als 24h an der Karte herumgetweakt habe, bis sie ihren jetzigen Stand erreicht hat. Klar macht das niemand im Massenmarkt, dazu aber später mehr.




Wann hatte denn AMD mal die schnellere Karte?
Wie du bereits sagtest, die 7000'er Serie. Und trotz mehr als guter Aufstellung hat Nvidia damals doppelt so viel verkauft wie AMD. Selbst heute gibt es in vielen Systemen noch die 7000-er Serie, sofern sie nicht gestorben ist (Was nach 8 Jahren auch so langsam zu erwarten ist - die halten auch nicht ewig)

Schau dir mal an, wann Nvidia wirklich so davon gezogen ist: Add-in Board GPU Market Shares Q1/2018: AMD 34.9% to nVidia 65.1% : Amd
Mit der HD700er Serie waren sie noch konkurrenzfähig, danach ging es langsam aber stetig Berg ab. Die ganzen Rebrands (und auch der Fail vor Vega, namentlich Fury) haben denen einfach nicht gut getan. Dann als Maxwell von Nvidia veröffentlicht wurde, war halt vorbei mit AMD. Sie konnten dem nichts entgegensetzen.
Die 300-er Serie war ebenfalls konkurrenzfähig, eerst als die 1000'er Serie kam, hatte AMD bis zum Vega-Rush nur die 400'er Medrange Serie, die natürlich nicht mehr ins High-End Segment ragte.

Man sieht da aber auch ganz gut, dass der Market Share von Nvidia nach dem Thermi-Fail nach untengegangen ist. Der Markt reagiert halt schon auf gute und schlechte Produkte. Nvidia hat sich einfach einiger Schnitzer als AMD erlaubt und konstant(er) abgeliefert als es halt AMD getan hat. Aber bei euch hört man nur -> Blabla Mindshare blabla Kunde dumm blabla kauft nur Nvidia, obwohl AMD besser blabla
Was die Schnitzer angeht, hat Nvidia da schon mehrere Dinge auf dem Kerbholz. Von Treibern welche die bildqualität reduzieren um in Benches besser dazustehen, das 970'er Speicherdesaster, Fermi etc bla. Klar hat auch AMD viele Sachen einfach verhobelt - da steckte aber viel weniger kriminelle Energie hinter.


Hätte AMD damals die Fury mit der Leistung von Vega herausgebracht, dann sähe es es jetzt ganz anders aus. Die Vega56 wäre der perfekte Gegenspieler zur 980ti gewesen. Nicht nur das, sie wäre sogar die bessere Wahl gewesen.
Gegen Pascal oder jetzt auch Turing, ist Vega einfach nur ineffizienter Schrott.
Hängt vom Szenario ab - ungetweakt ist Vega nix für den Massenmarkt, richtig. Das AMD da aber überhaupt noch was brauchbares rausgebracht hat, ist dann doch noch ein kleiner Lichtblick gewesen. Trotzdem nützt das getweake nix, da man damit eine Orchidee ist.



Also wenn ich deine Aussagen ordne:
Enthuiast -> interessiert sich nur für die Balken, der mit dem längsten Balken gewinnt -> egal ob Nvidia oder AMD
M(i/e)drange -> achtet auf P/L -> egal ob Nvidia oder AMD

Richtig so?
Ja.



Du hast es erfasst. Leute haben darauf keinen Bock. Kann man es ihnen vorwerfen?
Wenn der User Linux nutzen würde, könnte ich sogar Argumente vorbringen... aber so ein Standard 0815-Nutzer mit Windows, der einfach nur anschlaten und zocken will - nö. Deswegen ist Vega ja auch ein Fail.


Warum sollte ich mir ein Produkt kaufen, welches ähnlich viel kostet und ähnlich viel leistet als das vom Konkurrenten, obwohl es dabei noch locker flockig über 100W mehr verbraucht?
Vorsicht, undervoltet sieht die Vega GANZ anders im Stromverbrauch aus. Aber wer macht das schon? ;)
Dann gab es da auch keine ordentlichen Custom-Designs.
Weil das Referenz-PCB schon über alles erhaben war. Klar, da noch nen anderen Lüfter draufpacken geht immer, aber beim PCB kannste kaum noch was optimieren. Die Strixx-Serie von Asus hat sogar ein schlechteres PCB als das Referenz-Design. AMD jetzt vorzuwerfen, gute Platinen zu bauen find ich etwas... ähm... aber na ja, die Anzahl der Leute, die ihre Karten unter Wasser packen ist genauso hoch wie die Anzahl derer, die Linux benutzen - von daher isses Wumpe.

Wenn mir dies doch nicht passt, warum sollte ich dann da selber rumtweaken und nicht sofort das Produkt mit dem geringeren Verbrauch nehmen, welches ja auch noch optimiert werden kann und dadurch sogar nochmal besser ist? -> Herstellerverbundenheit, also genau das, was du anderen vorwirfst?!
Nö, ist kein Vorwurf. Vega ist einfach nur gerusht worden und es kamen null-optimierte Karten raus. Aber mit nem R&D Budget von grad mal 1/10 von Nvidia (Betrachte einfach mal die Erträge beider Firmen in den jeweiligen Bereichen) kann man da auch keine großen Sprünge mehr erwarten.
Du sagst es doch selber: NISCHE. Für die meisten ist es einfach nichts.
Richtig. AMD deckt ab jetzt nur noch medrange ab und baut ansonsten Nischenprodukte für Sonderlinge wie mich. Die haben tatsächlich noch Bedarf an spezell angepasste Hardware.


Ach für mich hört sich dein ganz Geschreibsel so an, als würdest du bei jedem anderen die Schuld suchen, aber nur bei AMD nicht, obwohl die es ständig verbocken. Dann bin ich halt nur ein bisschen auf dieser Welle herumgeritten. Ist nicht von AMD die Schuld, dass sie ihre versprochenen Features nicht liefern.
Wenn ich nur 1/10 des budgets habe, kann ich halt schlecht per brute force einfach mal die Konkurrenz einholen. Da muss ich entweder kreativ werden oder die Effizienz erhöhen. Beides versucht AMD gerade - mal gucken wie weit die damit kommen. Den Enthusiasten-Markt werden die in Zukunft aber erst einmal meiden - da gehen die dicken Chips direkt in den Serverbereich und die "Gamer" bekommen günstige Medrange-Karten. Mit Vega hat AMD Verlust gemacht - was jetzt nicht unbedingt die Schuld des Kunden ist. Aber AMD konnte da halt einfach nicht mehr, weil das Geld alle war. Und ohne geld entwickelt es sich schlecht --> Teufelskreis. Mein vorwurf ist halt einfach nur, dass dieser durch die Nvidia Jünger angestoßen worden ist. Und ich kann Nvidia noch nicht mal vorwerfen, das Marketing so aggressiv betrieben zu haben, denn schließlich leben wir im Kapitalismus. Nur dann müssen wir uns auch nicht über entsprechende Folgen beschweren.

Naja, die größere Firma kocht auch nur mit Wasser. Klar stehen Nvidia jetzt mehr Ressourcen zur Verfügung, aber das haben die sich auch erarbeitet. Die Unterschiede zwischen denen waren früher nicht so groß...
Und AMD hatte es damals zur 7000'er Serie sich nicht erarbeitet?

Also mir wird vorgeworfen ein Nvidia-Jünger zu sein :fresse: und ich kann dir sagen, dass dies nie mein Wunsch war.
Nö, ich hab das allgemein geschrieben. Wenn du meinst es persönlich zu nehmen, kann ich da auch nix für. Ich würde einfach nur gerne mal neutral und ohne Seitenhiebe diskutieren können, das geht aber bei stark polarisierenden Themen eher schlecht.



Uff.

Was haben wir jetzt dank Ryzen?

MORE CORES -> Geil, bringt für die meisten Anwendungsfälle genau 0 -> sollten mit 10nm eh kommen, aber durch die Probleme mit 10nm hat sich das alles ein bisschen verschoben und mussten auf 14nm umgesetzt werden -> wurden vielleicht wegen Ryzen nen halbes Jahr vorgezogen

Jetzt stell dir mal vor, ich hätte das 1:1 auf Nvidia überschrieben, was du hier sagst:

"Was bringen mir mehr Shader? Nix, denn kein Spiel kann mehr als 128 verarbeiten - was soll ich mit 5.000 Kernen?"

Fällt dir was auf? Spiele nutzen heute 5k Kerne und mehr, weil die Hardware es erlaubt und Hersteller, die es nicht nutzen einfach absaufen. Hier funktioniert der Kapitalismus wieder. Spielehersteller haben besonders 2018 angefangen mehr Kerne zu benutzen - die skalierung steigt massiv an und die Lastverteilung wird immer weiter optimiert. Komisch, warum konnte man das die letzten 10 Jahre nicht - da hatteen wir doch auch Mehrkerner? Kann es sein, dass so 8+ Kerne auf einmal einen Wettbewerbsvorteil gegenüber studios bieten, die es nicht ordentlich parallelisieren?

Tjaaa...

Ryzen wird ja so im Desktop-/Selbstschrauber-Markt platziert, also da wo auch die GTX/RTX-Karten platziert werden. Da sehe ich ehrlich gesagt die Vorteile durch Ryzen jetzt nicht als so groß an - ok durch die aktuellen Lieferengpässe bei Intel jetzt vielleicht doch etwas mehr. Wo es aber wirklich einen positiven Umschwung gab, ist der Bereich wo Threadripper und auch Epyc angreifen.
Selbst der 8-Kerner Ryzen bricht im Gaming-Bereich durch. Mit schnellem Speicher bessere min-Frames bei gleichen Durchschnittswerten. Hab ich eigentlich schon Spectre und Meltdown erwähnt?



Also kennen die Leute kein Nvidia und AMD.
Wie bitte?



Jetzt wirds abstrus.
 
Wie du bereits sagtest, die 7000'er Serie.
Wenn man sich fragt wann AMD die Nase vorne hatte, dann würde ich eher die HD58x0 Reihe nennen. Diese hat die GTX28x vernichtet. Und spätere GTX4x0 war effizienztechnisch immer noch schlechter als AMD.
Auch früher war ATI teilweise merklich vor Nvidia, aber da gab es jedes Jahr nen schlagabtausch mit neuer, deutlich besserer Hardware. Damals war nie ein Hersteller Jahrelang an der Spitze.

Die 300-er Serie war ebenfalls konkurrenzfähig, erst als die 1000'er Serie kam, hatte AMD bis zum Vega-Rush nur die 400'er Medrange Serie, die natürlich nicht mehr ins High-End Segment ragte.
Wie man es nimmt, in meinen Augen ist AMD seit Maxwell nicht mehr konkurrenzfähig, weil ich auf die Effizienz achte. Viele andere scheinbar auch.

Vorsicht, undervoltet sieht die Vega GANZ anders im Stromverbrauch aus. Aber wer macht das schon? ;)

Sowas kann wieder nur von AMD Leuten kommen. Undervolting ändert nichts an der deutlich schlechteren Effizienz von Vega (im Schnitt der Games). Aber vergleichbare Szenarien waren noch nie die Stärke von AMD Fanboys. Vermutlich weil man dann keine Argumente mehr findet um Vega zu kaufen.
 
Zuletzt bearbeitet:
Richtig. AMD deckt ab jetzt nur noch medrange ab und baut ansonsten Nischenprodukte für Sonderlinge wie mich. Die haben tatsächlich noch Bedarf an spezell angepasste Hardware.
Du hast einen Bedarf an HW die erst nach 6-24h Eigenleistung richtig gut läuft?
Wenn ja, bist du wirklich ein Sonderling, denn dann wärst du mit Vega in optimierter Form, so wie du sie Dir hingetweakt hast, noch weniger zufrieden gewesen
 
Du hast einen Bedarf an HW die erst nach 6-24h Eigenleistung richtig gut läuft?
Wenn ja, bist du wirklich ein Sonderling, denn dann wärst du mit Vega in optimierter Form, so wie du sie Dir hingetweakt hast, noch weniger zufrieden gewesen

Ich tweake auch gerne an meinem Linux System rum, das kann schon mal mehrere Tage dauern. Ich bastel halt gerne. Das macht mich durchaus zu einem Sonderling, ja. Aber ich modde auch mein Case und bastel an WaKüs rum. Und? Mir ist schon klar, dass ich damit nicht der Masse entspreche. Trotzdem ist die Vega für meine Bedürfnisse eine feine Karte. Andere dürfen das gerne anders sehen.

Und ja - egal wie AMD die Karte eingestellt hätte, ich hätte trotzdem daran getweakt - nur wäre die Differenz zwischen Stock und Fein-Tuning dann geringer gewesen.

mastergamer schrieb:
Sowas kann wieder nur von AMD Leuten kommen. Undervolting ändert nichts an der deutlich schlechteren Effizienz von Vega (im Schnitt der Games). Aber vergleichbare Szenarien waren noch nie die Stärke von AMD Fanboys. Vermutlich weil man dann keine Argumente mehr findet um Vega zu kaufen.
Natürlich ändert undervolting was an der Effizienz, sonst würde man es nicht machen. :hust:

Aber ich muss mich ja auch nicht für meinen Anwendungsfall rechtfertigen. Er passt und damit hat sich der Fisch. Btw, vergleichbare Szenarien können wir gerne herstellen - dann darf Nvidia aber auch mit der gleichen Farbkompression wie AMD arbeiten, mit den gleichen Texturfiltern, Trick-Shader im Treiber raus und dann können wir mal gucken, in wie weit bei absolut gleichen Bedingungen das Feld aussieht. Einfach mal jede .exe umbenennen und gucken, in wie weit das die Leistung bei Nvidia beeinflusst (Falls der Trick noch immer geht)

Aber hey, so lange Nvidia bescheißt, ist AMD halt einfach nur schlechter. Wenns AMD macht, wäre es ja ******. Wie war das noch mal mit den 4 GB der 970?
 
vergleichbare Szenarien können wir gerne herstellen - dann darf Nvidia aber auch mit der gleichen Farbkompression wie AMD arbeiten, mit den gleichen Texturfiltern, Trick-Shader im Treiber raus und dann können wir mal gucken, in wie weit bei absolut gleichen Bedingungen das Feld aussieht. Einfach mal jede .exe umbenennen und gucken, in wie weit das die Leistung bei Nvidia beeinflusst (Falls der Trick noch immer geht)?

Hast du gerade mal ein paar aktuelle (d.h. >2014) Beispiele zur Hand wo das so war dass Nvidia Karten ein sichtbar (!) schlechteres Bild hatten? Ich meine jetzt abgesehen von AOS was irgendwie eh nur nen Benchmark ist den kaum einer ernsthaft zockt.
 
Hast du gerade mal ein paar aktuelle (d.h. >2014) Beispiele zur Hand wo das so war dass Nvidia Karten ein sichtbar (!) schlechteres Bild hatten? Ich meine jetzt abgesehen von AOS was irgendwie eh nur nen Benchmark ist den kaum einer ernsthaft zockt.

Nach deiner Logik wäre dann .jpeg und .png auch das gleiche - Ja? Nein? Manchmal? Du musst dich schon entscheiden, ob du Tests mit gleichem Farbraum, gleicher API, gleicher Kompression und gleicher Qualität der Texturen laufen lässt.

Ansonsten kann ich mir auch die Benches von AMD so lange zurecht-tweaken, bis da 25% mehr bei praktisch nicht sichtbarem Qualitätsverlust rauskommen.

Also - wie hättest du es gerne? Gleiche Regeln für alle oder lieber doch nicht?
 
Klingt als hättest du keine Beispiele zur Hand die sichtbare Unterschiede aufzeigen?

Mir als Kunde ist letztendlich egal was intern passiert, mich interessiert es nur was ich davon effektiv habe.
 
Kaum eine News über AMD GPUs ohne die üblichen erbitterten Vega Grabenkämpfen :fresse:

Dabei ist die News doch positiv zumindest für den der noch an Wettbewerb interessiert ist, zeigt sie doch das AMD auch für Gamer noch langfristig zu planen scheint, das ist doch erstmal ein guten Zeichen.
 
Wie du bereits sagtest, die 7000'er Serie.

Damit waren die ja auch echt gut aufgestellt. Nachdem Release der 7000er Serie haben sie ja auch wieder mehr Marktanteile gewonnen. Doch dann kam die 600er Serie, welche besser/schneller war, und dann hat Nvidia wieder gewonnen. Es fand also immer ein Schlagabtausch zwischen den beiden statt. Dies bis zu dem Zeitpunkt, wo Maxwell veröffentlicht wurde. Ab dann konnte AMD einfach nicht mehr mithalten, wie bereits erwähnt wurde.


Die 300-er Serie war ebenfalls konkurrenzfähig, eerst als die 1000'er Serie kam, hatte AMD bis zum Vega-Rush nur die 400'er Medrange Serie, die natürlich nicht mehr ins High-End Segment ragte.

Und damit hat AMD ja wieder leicht angefangen Anteile zurückzugewinnen. Aber auch da gab es das Problem mit der Effizienz, was das Zurückgewinnen wohl gedämpft hat. Für viele Leute scheint dies ja schon wichtig zu sein und da du ja immer von P/L-Verhältnis sprichst, wo Leistung jeder für sich definiert, wiegt der Punkt Effizienz mit rein.


Von Treibern welche die bildqualität reduzieren um in Benches besser dazustehen

TESTING NVIDIA VS. AMD IMAGE QUALITY | The Official NVIDIA Blog :hust:
All AMD Radeon RX Vega 64 sins - VideoCardz.com :hust:

Readon Packs und streichen/nicht erfüllen von versprochenen Features wird natürlich auf AMD Seite einfach so abgenickt.

Beide Seiten haben Dreck am Stecken. Es ist jedem selbst überlassen, wie er diese Machenschaften bewertet.


Hängt vom Szenario ab - ungetweakt ist Vega nix für den Massenmarkt, richtig.

Auch optimiert ist eine Vega jetzt nicht so sonderlich toll und gegen unoptimierte Pascal nicht einmal ebenbürtig, dann im Vergleich mit einer optimierten Pascal wieder so schlecht wie im Ausgangszustand.



Aber waren nicht deine Argumente zuvor, dass die dummen Leute Nvidia bevorzugen beim Kauf, also nach Hersteller kaufen. Jetzt ist es auf einmal egal, ob Nvidia oder AMD. :confused:


Wenn der User Linux nutzen würde, könnte ich sogar Argumente vorbringen... aber so ein Standard 0815-Nutzer mit Windows, der einfach nur anschlaten und zocken will - nö. Deswegen ist Vega ja auch ein Fail.

Es sind nicht nur die 0815 Gamer, die keinen Vorteil aus einer Grafikkarte ziehen, welche unter Linux vielleicht etwas hier und da, aber nicht überall, Vorteile hat...


Vorsicht, undervoltet sieht die Vega GANZ anders im Stromverbrauch aus. Aber wer macht das schon?

Ja, dann undervoltest du eine Pascal und es sieht wieder gleich aus..

Aber das ist doch genau das Problem. Es macht einfach keiner, daher sind die Produkte von AMD am Massenmarkt vorbei entwickelt worden. Warum beschwerst du dich dann, dass der Markt so verteilt ist, wie er aktuell ist?!
Die schlechte Energieeffizienz ist ja nicht erst seit Vega so...


Weil das Referenz-PCB schon über alles erhaben war. Klar, da noch nen anderen Lüfter draufpacken geht immer, aber beim PCB kannste kaum noch was optimieren.

Die Founders Editionen der RTX-Karten sind auch über alles erhaben und haben kaum Optimierungspotenzial. Trotzdem gibt es für die RTX-Karten jetzt schon mehr Cumstom-Designs...


Richtig. AMD deckt ab jetzt nur noch medrange ab und baut ansonsten Nischenprodukte für Sonderlinge wie mich. Die haben tatsächlich noch Bedarf an spezell angepasste Hardware.

Schreibt ihr dann auch eine Wunschliste an AMD oder wie erfahren die von euren special needs? Wo kann ich meine einreichen? Darf ich bessere Effizienz verlangen?



Wenn ich nur 1/10 des budgets habe, kann ich halt schlecht per brute force einfach mal die Konkurrenz einholen. Da muss ich entweder kreativ werden oder die Effizienz erhöhen.

Ach die sollten einfach mehr Zeit in die Entwicklung einer GPU stecken, anstatt sich möglichst tolle, neue Features auszudenken, die sie am Ende eh wieder fallen lassen oder auf dem Markt keinen Anklang finden..


Und AMD hatte es damals zur 7000'er Serie sich nicht erarbeitet?

Habe ich gegenteiliges behauptet?
Zu der Zeit lief es doch noch für AMD.


Nö, ich hab das allgemein geschrieben. Wenn du meinst es persönlich zu nehmen, kann ich da auch nix für.

Tue ich nicht, ich wollte dir nur aus der Sicht eines vermeintlichen "Nvidia-Jünger" berichten.


Jetzt stell dir mal vor, ich hätte das 1:1 auf Nvidia überschrieben, was du hier sagst:

"Was bringen mir mehr Shader? Nix, denn kein Spiel kann mehr als 128 verarbeiten - was soll ich mit 5.000 Kernen?"

Oh jetzt fange doch nicht bitte mit Strohmännern an.
Ich habe nämlich genau das nicht geschrieben. Meine Argumente waren:
1) Abseits von Ryzen hätte Intel die Kerne im Mainstream so oder so erhöht. Vielleicht wurden diese durch Ryzen etwas vorgezogen, aber auch nicht viel.
2) Mehr Kerne bringen für die meisten Anwendungsszenarien nichts.

Jetzt wirst du dir vermutlich denken, dass Punkt 2 genau auf dein beschriebenes zutrifft. Ne, eben nicht, denn ich habe ja nicht behauptet, dass es keine gibt, sondern nur, dass diese eher gering sind.


Spielehersteller haben besonders 2018 angefangen mehr Kerne zu benutzen - die skalierung steigt massiv an und die Lastverteilung wird immer weiter optimiert. Komisch, warum konnte man das die letzten 10 Jahre nicht - da hatteen wir doch auch Mehrkerner? Kann es sein, dass so 8+ Kerne auf einmal einen Wettbewerbsvorteil gegenüber studios bieten, die es nicht ordentlich parallelisieren?

Quark!
Auch vor Ryzen haben Spiele schon über Kerne skaliert, aber nur, wenn diese benötigt wurden..

Schau dir mal folgenden Test an: Ghost Recon Wildlands: GPU- und CPU-Benchmarks aus der Finalversion [Update]

Dem Spiel reichen ein 6950X mit 8 Threads @4GHz (eigentlich schon 4T, aber da läuft es leicht unrund) um nicht mehr von der CPU limitiert zu sein. Wenn bei der gleichen CPU jetzt aber der Takt auf 2GHz abgesenkt wird, dann werden aber 20 Threads benötigt, um nicht mehr von der CPU her limitiert zu sein. Klar skalieren jetzt nicht alle Spiele so gut über so viele Threads, aber sie tun es und das auch schon vor Ryzen.
Aber auch trotz dieser guten Skalierung über so viele Threads, ist ein 7700k mit seinen 8 deutlich schnelleren Threads immer noch schneller als jeder Ryzen.

Auch AC Origins ist für eine gute Kernskalierung bekannt, rate mal wo sich der 7700k trotz der Hälfte an Threads gegenüber einen 1800x platziert ;)
Assassin's Creed Origins: How Heavy Is It on Your CPU? - TechSpot


Selbst der 8-Kerner Ryzen bricht im Gaming-Bereich durch. Mit schnellem Speicher bessere min-Frames bei gleichen Durchschnittswerten.

Nein, auch wieder irgendein Märchen. Aber wir können uns jetzt gerne zig Benchmarks um die Köpfe werfen. ;)


Hab ich eigentlich schon Spectre und Meltdown erwähnt?

:rolleyes:

Wat willse da groß hören?

Meltdown -> Lücke geschlossen -> für Heimanwender so gut wie kein Verlust an Performance -> andere Bereiche abseits Heimanwender erleiden teils größere Verluste.
Spectre -> alle betroffen.


Hast du gerade mal ein paar aktuelle (d.h. >2014) Beispiele zur Hand wo das so war dass Nvidia Karten ein sichtbar (!) schlechteres Bild hatten?

Die würde ich auch gerne sehen, aber bitte nicht von irgendwelchen Bugs, die dann im Nachhinein gefixt wurden. Die gab es bei AMD auch.
 
Ja, das wird wohl immer unleserlicher hier...


Damit waren die ja auch echt gut aufgestellt. Nachdem Release der 7000er Serie haben sie ja auch wieder mehr Marktanteile gewonnen. Doch dann kam die 600er Serie, welche besser/schneller war, und dann hat Nvidia wieder gewonnen. Es fand also immer ein Schlagabtausch zwischen den beiden statt. Dies bis zu dem Zeitpunkt, wo Maxwell veröffentlicht wurde. Ab dann konnte AMD einfach nicht mehr mithalten, wie bereits erwähnt wurde.
Die 600-er Serie wird heute ebenfalls noch von der 7000-er Serie geschlagen. (Aber irrelevant, da es veraltete Architektur ist)
Es wird halt ähnlich wie bei Intel im Massenmarkt die "Marke" gekauft - Leute auf Ryzen zu bekommen hat ne Menge Reviews gebraucht und selbst jetzt gibt es noch Leute, die stock und steif behaupten, der Ryzen wäre nicht konkurrenzfähig. Mir isses ehrlich gesagt wumpe - soll doch jeder kaufen was er will.


Und damit hat AMD ja wieder leicht angefangen Anteile zurückzugewinnen. Aber auch da gab es das Problem mit der Effizienz, was das Zurückgewinnen wohl gedämpft hat. Für viele Leute scheint dies ja schon wichtig zu sein und da du ja immer von P/L-Verhältnis sprichst, wo Leistung jeder für sich definiert, wiegt der Punkt Effizienz mit rein.
Klar ist Effizienz wichtig, aber zur 400'er/Vega Serie hat die RTG schon aus dem letzten Loch gepfiffen. Raja durfte dann auch seinen Hut nehmen, weil er es nicht mehr hinbekommen hat, eine ursprünglich teure Architektur auszureizen und effektiv eine Fury X mit HBM2 gebaut hat. Und ja, von den versprochenen Features ist nur sehr wenig angekommen. Primitive Shader, Rasterized Rendering, ne linear Skalierende Pixelengine... all das wurde versprochen und hat es nicht in den Treiber geschafft. Statt dessen sollen es die Studios selbst programmieren - was sie natürlich nicht tun werden.

Nur: Wenn Nvidia das macht (Ray Tracing), dann sind neue Features auf einmal total wichtig und cool und müssen sofort implementiert werden. Hä?



Ja klar - direkt von Nvidias Webseite... Wie wäre es hiermit?
https://www.youtube.com/watch?v=H0L3OTZ13Os


Jupp, haben se auch Recht mit - das Vega für den Massenmarkt ein Fail war und auch bleibt haben wir ja nun schon zum 4x festgestellt. Ändert aber nix dran, dass ab und an doch ein Anwendungsfall für die Karte gefunden wird.

Beide Seiten haben Dreck am Stecken. Es ist jedem selbst überlassen, wie er diese Machenschaften bewertet.
Völlig korrekt. Und ich vertraue Nvidia schlichtweg nicht. AMD bietet die Treiber auf Linux Open Source an und rennt da wie Sahne. Bevor Nvidia nicht quelloffen die Treiber rausbringt, werd ich die so lange meiden wie es nur irgend geht. Leider haben wir keinen dritten GPU-Anbieter.

Auch optimiert ist eine Vega jetzt nicht so sonderlich toll und gegen unoptimierte Pascal nicht einmal ebenbürtig, dann im Vergleich mit einer optimierten Pascal wieder so schlecht wie im Ausgangszustand.
Aber die Leistung reicht mir dann trotzdem aus um auf Linux alles zocken zu können was ich will. Nochmal: Das ist ein für mich passender Anwendungsfall. Natürlich passt der nicht auf die Masse. Deswegen ist Vega Markttechnisch ja auch abgesoffen. Trotzdem findet Vega eine Nische - Linux.

Aber waren nicht deine Argumente zuvor, dass die dummen Leute Nvidia bevorzugen beim Kauf, also nach Hersteller kaufen. Jetzt ist es auf einmal egal, ob Nvidia oder AMD. :confused:
Wenn du alles was ich vorher geschrieben hast ignorierst, kannst du natürlich auch behaupten, dass ich gesagt habe, dass der Mond aus Käse besteht. Dann können wir die Diskussion auch sein lassen, du bekommst dein "Ich hab Recht, ha!"-Schild und du darfst trotzdem 1.300€ für ne Karte bezahlen.

Es ist völlig egal, wie sehr du mir die Worte im Mund rumdrehst, die Realität bleibt. AMD hat keinen Bock mehr im High-End Bereich Geld und Zeit zu verschwenden und konzentriert sich statt dessen auf den Medrange-Markt. Die GPUs sind zur Zeit nix was auch nur annähernd an Nvidias Flagschiffe ranreicht, also versuchen sie im Massenmarkt mit P/L ein Standbein aufzubauen - was auch gut funktioniert mit den Konsolen, APUs und custom-Chips für Drittanbieter.

Aber du willst auf was anderes hinaus:

WENN AMD eine High-End Karte rausbringen würde, die Nvidia das Wasser reichen würde, dann würde sie auch gekauft werden.
Und genau da widerspreche ich - siehe 7000-er Serie.

Es sind nicht nur die 0815 Gamer, die keinen Vorteil aus einer Grafikkarte ziehen, welche unter Linux vielleicht etwas hier und da, aber nicht überall, Vorteile hat...
Auch korrekt. Nur mag ich eben open Source und die Vega Unterstützung unter Linux hat so langsam mehr Features als unter Windows. Wie zum Beispiel Support für größere Cache-Register.


Ja, dann undervoltest du eine Pascal und es sieht wieder gleich aus..
Jupp, und unter Linux hab ich dann trotzdem geschlossenen Code. Nochmal: Mein Anwendungsfall ist nicht mit der Masse vergleichbar. Für mich macht die Vega genau das, was sie soll und ordentlich getweakt ist die Effizienz im mehr als akzeptablen Rahmen. So hab ich das beste aus allen Welten.

Aber das ist doch genau das Problem. Es macht einfach keiner, daher sind die Produkte von AMD am Massenmarkt vorbei entwickelt worden. Warum beschwerst du dich dann, dass der Markt so verteilt ist, wie er aktuell ist?!
Die schlechte Energieeffizienz ist ja nicht erst seit Vega so...
Ach das Thema hatten wir schon mal: Ich beschwer mich nicht, ich hab was ich brauche und was ich will. Die Leute, die sich über Nvidias Preise beschweren - die verwundern mich. Erst AMD absaufen lassen und sich dann wundern, warum Nvidia dann ein Monopol hat. Komisch... Hätte man ja gar nicht kommen sehen können.

Die Founders Editionen der RTX-Karten sind auch über alles erhaben und haben kaum Optimierungspotenzial. Trotzdem gibt es für die RTX-Karten jetzt schon mehr Cumstom-Designs...
Nö, Asus hat bei der FE noch einen drauf gesetzt - siehe Buildzoids Review. Bei dem Vega PCB hingegen ist Asus custom design schlechter als das Referenz-Design.

Klar, die Kühlung war besser - aber das hat sich dann mit der schlechteren Effizienz der Leistungsübertragung gleich wieder ausgeglichen.

Schreibt ihr dann auch eine Wunschliste an AMD oder wie erfahren die von euren special needs? Wo kann ich meine einreichen? Darf ich bessere Effizienz verlangen?
Ist ziemlich einfach: Ich mag Open Source, AMD mach Open Source und schon hat sich der Fisch.

Und mal in der Theorie: Wenn Nvidia das auch machen würde, wärend die sogar auf meiner potentiellen Kaufliste. Machen sie aber nicht.

Ach die sollten einfach mehr Zeit in die Entwicklung einer GPU stecken, anstatt sich möglichst tolle, neue Features auszudenken, die sie am Ende eh wieder fallen lassen oder auf dem Markt keinen Anklang finden..
So funktioniert Entwicklung aber leider nicht. Und das siehst du nicht nur auf AMDs Seite, auch bei Nvidia. Was ist aus 3D geworden, oder PhysX, oder Nvidia Shield? Du bringst ne neue Technologie raus und hoffst, dass sie angenommen wird.

Manchmal klappt es, manchmal nicht. Und manchmal hilft es, die Studios mit Geldern zu schmieren um die Konkurrenz auszubooten. Ich erinnere mich noch an die hundertfache Tesselations-Geschichte.

Habe ich gegenteiliges behauptet?
Zu der Zeit lief es doch noch für AMD.

Etwas mehr als kostendeckend, während Nvidia den 3-4-fachen Gewinn gemacht hat. Selbst Fermi wurde gekauft wie bekloppt.


Tue ich nicht, ich wollte dir nur aus der Sicht eines vermeintlichen "Nvidia-Jünger" berichten.
Musst dich nicht angegriffen fühlen - ich kann dich ja verstehen. Du hast keinen Bock auf rumgetweake und willst einfach nur, dass die Kiste läuft. Ist ja nix verwerfliches dran.


1) Abseits von Ryzen hätte Intel die Kerne im Mainstream so oder so erhöht. Vielleicht wurden diese durch Ryzen etwas vorgezogen, aber auch nicht viel.
Nö, hätten sie nicht. Die hätten bis heute 4-Kerner angeboten und dann würden bis heute Spiele auf nur 4 Kerne optimiert sein. Aber Dank Ryzen war Intel unter Zugzwang und AUF EINMAL spendieren sie dem I5 6 Kerne und oh Wunder: Auf einmal gibts sogar 8-Kerner im Mainstream-Bereich. Und das für unter 1000€.

Btw, 8-Kerner konnte Intel schon vor 7 Jahren.

2) Mehr Kerne bringen für die meisten Anwendungsszenarien nichts.
Komisch, die letzten Benches aus den Spielen, die dieses Jahr rausgebracht worden sind skalieren irgendwie gut mit 8 Kernen und 16 Threads.

Beispiele gefällig? Dann guck dir zum Beispiel mal:

Assassin's creed Origin (Hab hier mal was für dich: https://www.reddit.com/r/Amd/comments/9kscz4/cpu_usage_in_aco_credits_to_gamegpucom/)
Shadow of the Tomb Raider
Forza Horizont 4
Star Citizen

an. Gibt bestimmt noch mehr, aber die hab ich grad so im Kopf.

Jetzt wirst du dir vermutlich denken, dass Punkt 2 genau auf dein beschriebenes zutrifft. Ne, eben nicht, denn ich habe ja nicht behauptet, dass es keine gibt, sondern nur, dass diese eher gering sind.
Hängt halt vom Spiel ab. Für Solitaire brauch ich das bestimmt nicht.

Quark!
Auch vor Ryzen haben Spiele schon über Kerne skaliert, aber nur, wenn diese benötigt wurden..
Ja, bis 4.


Schau dir mal folgenden Test an: Ghost Recon Wildlands: GPU- und CPU-Benchmarks aus der Finalversion [Update]

Dem Spiel reichen ein 6950X mit 8 Threads @4GHz (eigentlich schon 4T, aber da läuft es leicht unrund) um nicht mehr von der CPU limitiert zu sein. Wenn bei der gleichen CPU jetzt aber der Takt auf 2GHz abgesenkt wird, dann werden aber 20 Threads benötigt, um nicht mehr von der CPU her limitiert zu sein. Klar skalieren jetzt nicht alle Spiele so gut über so viele Threads, aber sie tun es und das auch schon vor Ryzen.
Aber auch trotz dieser guten Skalierung über so viele Threads, ist ein 7700k mit seinen 8 deutlich schnelleren Threads immer noch schneller als jeder Ryzen.

*seufz* Siehe oben, der 7700k limitiert jetzt schon. Aber hey, auf 4k ist das alles kein Problem.

Auch AC Origins ist für eine gute Kernskalierung bekannt, rate mal wo sich der 7700k trotz der Hälfte an Threads gegenüber einen 1800x platziert ;)
Assassin's Creed Origins: How Heavy Is It on Your CPU? - TechSpot

Siehe mein Gegenbeispiel.


Nein, auch wieder irgendein Märchen. Aber wir können uns jetzt gerne zig Benchmarks um die Köpfe werfen. ;)
Was ja jetzt schon passiert - und es bringt nix. Du nimmst dir halt Benches die deine Meinung unterstützen, ich nehme mir welche die ein anderes Bild zeigen. Selbst unter den Reviewern selbst gibts große Diskrepanzen. Ich halte mich da an Gamers Nexus - der macht immer schön Matrixvergleiche.



:rolleyes:

Wat willse da groß hören?

Meltdown -> Lücke geschlossen -> für Heimanwender so gut wie kein Verlust an Performance -> andere Bereiche abseits Heimanwender erleiden teils größere Verluste.
Spectre -> alle betroffen.
Spectre --> AMD is nicht betroffen https://www.amd.com/de/corporate/security-updates
(Wenn wir schon dabei sind von Herstellerseiten zu posten ;) )


Die würde ich auch gerne sehen, aber bitte nicht von irgendwelchen Bugs, die dann im Nachhinein gefixt wurden. Die gab es bei AMD auch.

https://www.se7ensins.com/forums/threads/nvidia-once-again-cheating-benchmarks.1353515/

Aber hey, ich bin da Nvidia noch nicht mal böse. Die Leute merken es nicht, also alles supi.
 
Zuletzt bearbeitet:
Oh, da zieht der Herr zeitlich eine Grenze! Wie alt dürfen deiner Meinung nach solche Machenschaften sein, damit man sie erwähnen darf? 1 Jahr oder 3 oder lieber 5?
Und nein, ich bleibe hier! Und ja, Ausrufezeichen kann ich auch!
 
Würde auch sagen, dass es verjährt ist und über verjährtes spricht man nicht mehr!
 
Da merkt man halt, wes Geistes Kind jemand ist.

Also mir würde nie im Leben einfallen, wenn es um zb. NVIDIA geht etwas 8 Jahre altes aus zu graben...
 
Genau, dazu kommt das man bei NV eh nicht tief graben muss, da findet man an der Oberfläche schon mehr als genug, also nur wenn man es drauf anlegen würde, was wir aber nicht machen tun. :d
 
Unter Windows Vista war NVIDIA vor vielen jahren für fast 30% alles Abstürze verantwortlich.

Wer eine Schaufel hat, möge bitte selbst danach graben!
 
Es wird halt ähnlich wie bei Intel im Massenmarkt die "Marke" gekauft ... Es ist völlig egal, wie sehr du mir die Worte im Mund rumdrehst, die Realität bleibt.

Hä, gerade hieß es noch, dass die Marke im Midrange sowie bei Enthusiasten egal sei. Ich hatte sogar extra nachgefragt, ob ich das so richtig verstanden habe. Dies hattest du mir ja auch bejaht...


Statt dessen sollen es die Studios selbst programmieren - was sie natürlich nicht tun werden.
Nur: Wenn Nvidia das macht (Ray Tracing), dann sind neue Features auf einmal total wichtig und cool und müssen sofort implementiert werden. Hä?

Bei Nvidia haben die ja wenigstens noch die Möglichkeit überhaupt für diese zu entwickeln. Bei Primitive Shader scheinen die Entwickler ja nicht einmal die Möglichkeit zu haben, auch wenn sie wollen würden (siehe Update 2).

Ray Tracing ist nicht Nvidia only, sie sind einfach nur die ersten, die das jetzt pushen.


Ja klar - direkt von Nvidias Webseite... Wie wäre es hiermit?

Ich bitte dich. Die AMD Propaganda-Maschine kann man einfach nicht ernst nehmen. Wie war das noch 2070 hat nur 7GB VRAM?

Verlink ruhig Videos von dem. Ich werde darauf nicht eingehen.


Das ist ein für mich passender Anwendungsfall. Natürlich passt der nicht auf die Masse. Deswegen ist Vega Markttechnisch ja auch abgesoffen. Trotzdem findet Vega eine Nische - Linux.

Ganz ehrlich, ich finde, du redest dir das einfach nur irgendwie schön und suchst dir da irgendwelche Strohhalme. Falls nicht, ist ja schön für dich. Ich glaube aber, dass es wirklich niemanden interessiert :fresse:


du darfst trotzdem 1.300€ für ne Karte bezahlen.

Ehrlich gesagt lächelt die mich schon etwas an :fresse:


was auch gut funktioniert mit den Konsolen, APUs und custom-Chips für Drittanbieter.

Funktioniert ja echt gut -> hat die RTG schon aus dem letzten Loch gepfiffen .... Erst AMD absaufen lassen :fresse2:


Aber du willst auf was anderes hinaus:

WENN AMD eine High-End Karte rausbringen würde, die Nvidia das Wasser reichen würde, dann würde sie auch gekauft werden.
Und genau da widerspreche ich - siehe 7000-er Serie.

Richtig, genau das wollte ich :d
Zu Zeiten der 7000er Serie sah es doch noch ganz gut für AMD aus, danach kam halt - wie bereits öfters erwähnt - nichts mehr von AMD und sie haben immer mehr verloren.


Nur mag ich eben open Source und die Vega Unterstützung unter Linux hat so langsam mehr Features als unter Windows. Wie zum Beispiel Support für größere Cache-Register.

Und was machst du damit so?
So rein aus Interesse gefragt.


Hätte man ja gar nicht kommen sehen können.

Naja, es gab immer einen Schlagabtausch zwischen beiden Parteien. Maxwell war für die schon nen ziemlicher Schocker, aber das es so extrem wird und AMD danach alles so vergeigt, hatte wohl doch nicht jeder erwartet.


Nö, Asus hat bei der FE noch einen drauf gesetzt - siehe Buildzoids Review. Bei dem Vega PCB hingegen ist Asus custom design schlechter als das Referenz-Design.

Weil keiner so wirklich Modelle bekommen hat und die einfach kein Bock mehr auf Vega hatten.

Hardwareluxx schrieb:
Kaum verfügbar, hohe Preise – so lässt sich die Situation rund um die Custom-Modelle der Radeon RX Vega zusammenfassen. Dazwischen mischen sich Gerüchte über eine Bevorzugung der Frontier Edition gegenüber der Belieferung der Boardpartner und die Frage, wie viele Vega-GPUs AMD eigentlich an Apple für den iMac Pro liefern muss.

Mit der Sapphire Pulse Radeon RX Vega 56, die es sicherlich auch in der Radeon-RX-Vega-64-Variante geben wird, wird Sapphire in wenigen Tagen eine Low-Cost-Variante auf den Markt bringen. MSI hat bereits seine Air-Boost-Modelle vorgestellt, die ebenfalls in die Kerbe der Kostenreduzierung schlagen. Ein aufwendiges High-End-Modell wird es hier nicht mehr geben. Die von Gigabyte vorgestellten Radeon RX Vega 64 und Radeon RX Vega 56 Gaming OC wirkt ebenfalls weitaus weniger aufwendig als die Konkurrenzmodelle aus eigenem Hause mit NVIDIA-GPU. Keine große Kupferbodenplatte, keine RGB-Beleuchtung, etc. pp. Vieles bewegt sich also in Richtung Kostenreduzierung bei Sapphire, MSI und Gigabyte.

Zusammenfassend lässt sich noch einmal sagen, dass fast alle Hersteller derzeit versuchen, die Kosten zu reduzieren. Wer bereits ein teures Modell im Markt hat, plant eine günstigere Variante, schließlich soll das komplette Jahr 2018 mit der Radeon RX Vega bestritten werden.

Einige, vor allem kleinere Hersteller, haben sich offenbar im Vorfeld verpflichtet eine Custom-Variante der Radeon RX Vega auf den Markt zu bringen und müssen nun liefern. Man versucht die Kosten dafür aber so niedrig wie möglich zu halten – auf das geplante High-End-Modell folgen abgespeckte Varianten.

Aber Holy Crap. Erstaunlich wie du wirklich aus allem versuchst das Positive für AMD zu ziehen/sehen. Du scheinst echt ein loyaler Dude zu sein.


Selbst Fermi wurde gekauft wie bekloppt.

Hast du dir von mir verlinkte Grafikarten Marketshare eigentlich angesehen?!
Dieser ist von Nvidia nach Fermi ganz gut gedroppt und der von AMD gestiegen.


Du hast keinen Bock auf rumgetweake und willst einfach nur, dass die Kiste läuft. Ist ja nix verwerfliches dran.

Öhm, das stimmt so nicht. Ich habe keinen Bock darauf meine Hardware stundenlang zu optimieren, nur damit sie am Ende immer noch schlechter ist, als die nicht optimierte vom Konkurrenten.


Die hätten bis heute 4-Kerner angeboten und dann würden bis heute Spiele auf nur 4 Kerne optimiert sein. Aber Dank Ryzen war Intel unter Zugzwang und AUF EINMAL spendieren sie dem I5 6 Kerne und oh Wunder: Auf einmal gibts sogar 8-Kerner im Mainstream-Bereich.

Das ist eine Behauptung von dir. Ich behaupte, dass die für diesen Zeitraum eh geplant waren. Wer hat jetzt Recht?

2015 gab es die ersten Gerüchte von 6 und 8 Kerner im Mainstream mit Canonlake in 10nm. Durch die ganzen Probleme mit 10nm wurde dies jetzt halt in 14nm als Coffee Lake umgesetzt.


8-Kerner konnte Intel schon vor 7 Jahren.

Erzähl das nicht mir, sondern den ganzen Deppen, die einen ach so hohen Bedarf nach vielen Kernen haben, aber sich ständig 4 Kerner gekauft haben und rumgeheult haben. Auch zu Zeiten, wo man einen 6 Kerner von Intel günstiger als einen i7 6700k bekommen hat. :rolleyes:


Komisch, die letzten Benches aus den Spielen, die dieses Jahr rausgebracht worden sind skalieren irgendwie gut mit 8 Kernen und 16 Threads.

Beispiele gefällig? Dann guck dir zum Beispiel mal:

Assassin's creed Origin (Hab hier mal was für dich: https://www.reddit.com/r/Amd/comments/9kscz4/cpu_usage_in_aco_credits_to_gamegpucom/)
Shadow of the Tomb Raider
Forza Horizont 4
Star Citizen

an. Gibt bestimmt noch mehr, aber die hab ich grad so im Kopf.


Hängt halt vom Spiel ab. Für Solitaire brauch ich das bestimmt nicht.


Ja, bis 4.




*seufz* Siehe oben, der 7700k limitiert jetzt schon. Aber hey, auf 4k ist das alles kein Problem.

Erst einmal du Leuchte. Dein verlinkter Test zeigt AC Odyssey und nicht AC Origins. Zum Zeitpunkt des Tests zu Origins hatte GameGPU weder einen Coffe Lake noch einen Ryzen Refresh. Know your facts..

Dann schau dir doch einmal an, wie stark so ein 7700k in dem Bench limitiert zu Odyssey. Im GPU-Limit schraubt er sich mal eben so vor einen 2700x und liefert bessere min. FPS...

(Frag mich nicht, warum die Ergebnisse zur CPU Auslastung hier leicht abweichen. Achja du musst dir die richtigen CPUs erst zusammen klicken)


Siehe mein Gegenbeispiel.

Zeigt genau, was ich schon geschrieben habe. Trotz guter Kernskalierung ist der 7700k > 2700x.

Ich hätte die ja jetzt gerne Unity oder Syndicate verlinkt, um dir zu zeigen, dass die auch schon viele Kerne ausgelastet haben. Diese wurden aber leider von der verwendeten 980ti zu stark eingebremst :(


Ich halte mich da an Gamers Nexus - der macht immer schön Matrixvergleiche.

Gut, damit lässt sich arbeiten.

7700k liefert bessere 0.1% Low, 1% Low und avg. FPS in sämtlichen Titeln: R7 1700 i7-7700K for 144Hz Gaming at 1440p, 1080p, 4K - YouTube


Spectre --> AMD is nicht betroffen https://www.amd.com/de/corporate/security-updates
(Wenn wir schon dabei sind von Herstellerseiten zu posten ;) )

Ich lese da:
Meltdown (da auch GPZ V3 gennant) -> nicht betroffen (habe ich so geschrieben)
Spectre V1 (und auch die Untervariante) -> anfällig -> wie bei Intel über Windows Updates gefixt
Spectre V2 -> anfällig, wenn auch schwer ausnutzbar (trifft allgemein auf V2 zu..) -> MCU sollen, wie bei Intel, Abhilfe schaffen
Foreshadow -> nicht betroffen

Hier hast auch nen PoC, welcher auf Ryzen und Intel funktioniert hat: Spectre example code · GitHub


PS: Warum schreiben wir hier eigentlich über CPUs?

https://www.se7ensins.com/forums/threads/nvidia-once-again-cheating-benchmarks.1353515/

Aber hey, ich bin da Nvidia noch nicht mal böse. Die Leute merken es nicht, also alles supi.

Dann schau dir mal auf Seite 19, den Beitrag 366 an. Da hat einer mit AMD die gleich Probleme...
(Nein ich habe mir nicht alle Seiten bis dahin durchgelesen. Zufälligerweise hat jemand auf der letzten Seite was geschrieben von wegen, die Bugs sind Game related)


Unter Windows Vista war NVIDIA vor vielen jahren für fast 30% alles Abstürze verantwortlich.

Echt?
Wo hast du das her?
 
Zuletzt bearbeitet:
Hä, gerade hieß es noch, dass die Marke im Midrange sowie bei Enthusiasten egal sei. Ich hatte sogar extra nachgefragt, ob ich das so richtig verstanden habe. Dies hattest du mir ja auch bejaht...
Nö, im Medrange Bereich ist die Marke weniger wichtig als P/L - im high-End Bereich gucken die Leute mehr auf die Marke.


Wie gesagt, du kannst - wenn du es unbedingt willst - das in deine Engine knüppeln. Du musst halt deinen code entsprechend darauf vorbereiten, dass bestimmte Rendering-Elemente den "Fast Path" gehen. Das muss aber vorher angesagt werden und benötigt ein Re-Design der Rendinging-Pipeline. Das wird niemand machen.

Die Kritik ist hier also absolut berechtig - aber: Wenn Nvidia Code-Segmente löschen lässt, um damit ihr Game-Works zu pushen, ist das genauso Banane. Warum nicht Hairworks und Tress-FX gleichzeitig rausbringen? Gibt ja für beide sogar vorgefertigte Vorlagen. Hier ist meine Kernkritik an Nvidia: Die pushen ihre eigene Technologie proprietär und drücken Alternativen *komplett* raus, oder du kannst sie gar nicht benutzen.

Ray Tracing ist nicht Nvidia only, sie sind einfach nur die ersten, die das jetzt pushen.
... weil sie es auf ihren professionellen Karten gut können und keine neue micro-Architektur erstellen wollten. Statt dessen haben sie die Profi-Karten beschnitten und *irgendwas* mit den Tensor-Cores im Gaming Bereich hingezaubert. Sie hätten mit den Tensor-Cores auch andere Technologien entwickeln können - Computing ist sehr breit gefächert. Aber: Es musste halt etwas sein, dass man einem "Gamer" gut unterjubeln konnte. Und da ist Raytracing perfekt.


Ich bitte dich. Die AMD Propaganda-Maschine kann man einfach nicht ernst nehmen. Wie war das noch 2070 hat nur 7GB VRAM?
Erm... der haut genauso auf AMD wie auf Nvidia und Intel drauf. Aber hey - was er im Video zeigt ist unabhängig von AMD halt trotzdem Fakt. Oder willst du mir gerade einen... Strohmann unterjubeln? ;)

Verlink ruhig Videos von dem. Ich werde darauf nicht eingehen.
Musst du auch nicht. Es gibt genug andere Seiten, die das auch berichtet haben. Von Computerbase über Anandtech und selbst hier im Luxx kannste das auch nachlesen. Ist natürlich ne ziemliche Mottenkiste - klar.

Ganz ehrlich, ich finde, du redest dir das einfach nur irgendwie schön und suchst dir da irgendwelche Strohhalme. Falls nicht, ist ja schön für dich. Ich glaube aber, dass es wirklich niemanden interessiert :fresse:
Warum sollte es auch jemanden interessieren, was ICH privat mache? Es geht nur darum, dass Vega seine Nische hat.

Ehrlich gesagt lächelt die mich schon etwas an :fresse:
Dann hoffe ich, sie macht dich glücklich. :)

Funktioniert ja echt gut -> hat die RTG schon aus dem letzten Loch gepfiffen .... Erst AMD absaufen lassen :fresse2:
Eben nicht - mit dem Medrange-Bereich hält sich RTG recht gut über Wasser.

Richtig, genau das wollte ich :d
Zu Zeiten der 7000er Serie sah es doch noch ganz gut für AMD aus, danach kam halt - wie bereits öfters erwähnt - nichts mehr von AMD und sie haben immer mehr verloren.
Sie haben unterproportional bei besseren Karten verkauft und überproportional bei schlechteren Karten verloren. Deswegen konzentiert sich AMD jetzt auf den Bereich, der noch am besten funktioniert hat - was wirtschaftlich auch völlig logisch ist.

Und was machst du damit so?
So rein aus Interesse gefragt.
Auf Linux zocken?

Naja, es gab immer einen Schlagabtausch zwischen beiden Parteien. Maxwell war für die schon nen ziemlicher Schocker, aber das es so extrem wird und AMD danach alles so vergeigt, hatte wohl doch nicht jeder erwartet.
Ist halt ein Zusammenspiel aus mehreren Faktoren: Die Adoptionsrate von Vulkan ist - obwohl steigend - zu langsam gewesen um dort direkt breitbandig auf die neue API setzen zu können. Das Treiberteam wurde abberufen und sollte bei der CPU-Sparte aushelfen, die Architektur wurde direkt nach dem Fabrik-Sampling direkt auf den Markt geschmissen, ohne Optimierung, Binning oder sonstwas und bis heute warten wir darauf, dass Hardware-Features freigegeben werden. So ist das, wenn einem zum Ende hin das Geld ausgeht.

Weil keiner so wirklich Modelle bekommen hat und die einfach kein Bock mehr auf Vega hatten.
Och, in den ersten 24h nach Release gabs noch genug Karten. So hab ich meine auch bekommen. :d


Aber Holy Crap. Erstaunlich wie du wirklich aus allem versuchst das Positive für AMD zu ziehen/sehen. Du scheinst echt ein loyaler Dude zu sein.
Andersrum: Ich mag Nvidia nicht und da bleibt halt nur AMD übrig.


Hast du dir von mir verlinkte Grafikarten Marketshare eigentlich angesehen?!
Dieser ist von Nvidia nach Fermi ganz gut gedroppt und der von AMD gestiegen.
Ähm... ja? HD 7000 - Market share ~34%... und der von Nvidia ist nach dem 600'er Release sogar noch gestiegen, obwohl die 7000'er Serie die bis heute übertrumpft. Ist doch genau mein Argument.

Öhm, das stimmt so nicht. Ich habe keinen Bock darauf meine Hardware stundenlang zu optimieren, nur damit sie am Ende immer noch schlechter ist, als die nicht optimierte vom Konkurrenten.
Wie gesagt, mein Anwendungsfall ist Linux und da tut das Ding Sahnetorten backen.


Das ist eine Behauptung von dir. Ich behaupte, dass die für diesen Zeitraum eh geplant waren. Wer hat jetzt Recht?
Tja, bis kurz vorm Ryzen-Release hat Intel keine weiteren Kerne in den Mainstream-bereich gebracht. Erst nach Ryzen gibts jetzt 4 weitere Kerne - also mal eben eine Verdopplung - und das genau im Zeitraum, wo Ryzen eingeschlagen hat.


2015 gab es die ersten Gerüchte von 6 und 8 Kerner im Mainstream mit Canonlake in 10nm. Durch die ganzen Probleme mit 10nm wurde dies jetzt halt in 14nm als Coffee Lake umgesetzt.
Wie viel hat ein 8-Kerner nochmal vor dem Ryzen-Release gekostet? Und wie viel kostet er jetzt? Du darfst die 2% Inflation gerne einberechnen - macht den Braten bestimmt fett. :)



Erzähl das nicht mir, sondern den ganzen Deppen, die einen ach so hohen Bedarf nach vielen Kernen haben, aber sich ständig 4 Kerner gekauft haben und rumgeheult haben. Auch zu Zeiten, wo man einen 6 Kerner von Intel günstiger als einen i7 6700k bekommen hat. :rolleyes:
Ich hab nen 6-Kerne Ivvy bridge in meinem System - da musste ich natürlich auf die High-End Platform zurückgreifen - damals. Und so langsam limitiert das Ding so hart, dass ich Zen 2 kaum noch abwarten kann.


Erst einmal du Leuchte. Dein verlinkter Test zeigt AC Odyssey und nicht AC Origins. Zum Zeitpunkt des Tests zu Origins hatte GameGPU weder einen Coffe Lake noch einen Ryzen Refresh. Know your facts..
Jo, mea culpa, Odyssey dann halt - ist noch aktueller.

Dann schau dir doch einmal an, wie stark so ein 7700k in dem Bench limitiert zu Odyssey. Im GPU-Limit schraubt er sich mal eben so vor einen 2700x und liefert bessere min. FPS...

(Frag mich nicht, warum die Ergebnisse zur CPU Auslastung hier leicht abweichen. Achja du musst dir die richtigen CPUs erst zusammen klicken)
Also, die Vega 64 klettert da von 68 FPS auf 73 - 7700K zu 2700X. (Mal ganz davon abgesehen, dass ich nen 2700X nicht mit deren Spezis betreiben würde, aber hey... 2400 MHz DDR4 und auf 3.7 GHz runtergrbügelt. Jeder Straßengamer versucht nen Ryzen auf 3200'er RAM laufen zu lassen - und wenn nicht jeder Chip die 4 GHz knackt, die 3.9 schaffen so ziemlich alle - der 2700X ist btw auf 2933 MHz spezifiziert, ist also ein "kleiner" Ausrustscher in der Systemkonfiguartion, selbst WENN man alles auf Stock behält)

Unter diesen Gesichtspunkten liefert der 2700X sogar eine ziemlich passable Performance ab. MBT hat das ganze mal unter ausgereizten Bedingungen getestet und da liegt der 7700k halt einfach mal tot im Reisfeld. (Und ja, beide Systeme sind auf max overclock)

https://www.youtube.com/watch?v=RZS2XHcQdqA

Zeigt genau, was ich schon geschrieben habe. Trotz guter Kernskalierung ist der 7700k > 2700x.
Dann gucken wir wohl 2 unterschiedliche Benchmarks an.

Gut, damit lässt sich arbeiten.

7700k liefert bessere 0.1% Low, 1% Low und avg. FPS in sämtlichen Titeln: R7 1700 i7-7700K for 144Hz Gaming at 1440p, 1080p, 4K - YouTube
Warum alte Benchmarks? Warum nicht mal ein realistisches Szenario mit dem 2700X vs 8700k?
https://www.youtube.com/watch?v=1A2yatfyLoo

Und wenn du alleine daddelst, hast du ja die bessere Kernskalierung modernerer APIs, die zur Zeit bei praktisch jedem neue Releasten AAA Spiel rauskommen.



Ich lese da:
Meltdown (da auch GPZ V3 gennant) -> nicht betroffen (habe ich so geschrieben)
Spectre V1 (und auch die Untervariante) -> anfällig -> wie bei Intel über Windows Updates gefixt
Spectre V2 -> anfällig, wenn auch schwer ausnutzbar (trifft allgemein auf V2 zu..) -> MCU sollen, wie bei Intel, Abhilfe schaffen
Foreshadow -> nicht betroffen

Und jetzt bitte nochmal die Benchmarks im Vergleich (gerne auch AMD) und dann haben wir ein komplettes Bild. Phoronix hat das getestet und bei Server-Loads teilweise 30% Verlust bei Intel gemessen. Bei Spielen hat der Linux-Scheduler Intel ein wenig den Arsch gerettet - auch ein Grund, warum ich Linux so mag.

Hier hast auch nen PoC, welcher auf Ryzen und Intel funktioniert hat: Spectre example code · GitHub
Ryzen hatte auch Compilerprobleme, die unter windows nicht aufgetreten sind. Die Linux Community hat da AMD ordentlich Dampf unterm Kessel gemacht und am Ende kam ein Fix. Ist ja nicht so, dass Intel die einzigen sind, die Probleme haben. Nur: AMD hat das ziemlich transparent gelöst - im Vergleich zu Intel.

PS: Warum schreiben wir hier eigentlich über CPUs?
Weil wir uns über AMD im Allgemeinen gestritten haben, dass die keine ordentlichen Produkte rausbringen können.


Dann schau dir mal auf Seite 19, den Beitrag 366 an. Da hat einer mit AMD die gleich Probleme...
(Nein ich habe mir nicht alle Seiten bis dahin durchgelesen. Zufälligerweise hat jemand auf der letzten Seite was geschrieben von wegen, die Bugs sind Game related)
Klar haben Spiele auch Bugs die bei beiden Karten zu Problemen führen - ich meinte aber eher systematische "Optimierungen" von Nvidia, wie Shader-Ersetzer im Treiber. Und nochmal: Ich mache es denen nicht mal zum Vorwurf, dass die es machen. Nur: Wenn du wirklich die Rohleistung in Spielen vergleichen willst, müssen beide Szenarien identisch sein. Weil Nvidia da schon "vorarbeitet", hast du noch nicht mal gleiche Grundvorraussetzungen.

Ne Menge Hardware-Reviewer fallen leider darauf rein und so müssen wir uns Youtubern Gehör verschaffen, welche diese kleinen Details aufdecken und etwas... neutraler testen.
 
Nö, im Medrange Bereich ist die Marke weniger wichtig als P/L - im high-End Bereich gucken die Leute mehr auf die Marke.

Ähm... ?! :hmm:

In der Mittelklasse behaupte einige man hätte die Wahl zwischen 2 Herstellern. Wenn dem so wäre, dann können man genau dort nach Sympatie entscheiden.

Highend Leute wollen Highend... was juckt die der Hersteller? Wenn AMD JETZT mit ner XYZ GPU um die Ecke kommt, die durchschnittlich 25% schneller als ne 2080Ti ist und das bei ~250W Leistungsaufnahme, was passiert dann?

Alle die ne RTX kaufen wollten, aber noch keine haben, kaufen sich die AMD Karte.
 
Freunde, ich hab ja bekanntlich kein Problem mit langen Posts generell - aber wäre es nicht sinnig, das Zerhackstückeln auf gefühlt einzelne Sätze ein klein wenig zurückzufahren?



Genau, dazu kommt das man bei NV eh nicht tief graben muss, da findet man an der Oberfläche schon mehr als genug, also nur wenn man es drauf anlegen würde, was wir aber nicht machen tun. :d

Na dann hau doch mal einen raus, was die Bildqualität angeht? -> darum gings doch eigentlich?
Wenn mich nicht alles täuscht, hat das hier...
"Die anisotrope Filterung auf der GCN-Hardware flimmert deutlich weniger als auf den Radeon-HD-6000- und den Radeon-HD-5000-Karten. Bei der Standardeinstellung des Treibers ist kaum ein Flimmern zu erkennen. Das Nvidia-AF auf der GF1x0-Architektur ist diesbezüglich zwar immer noch minimal im Vorteil, Differenzen lassen sich aber nur in einem Direktvergleich sehen.

Enttäuscht hat uns dagegen der HQ-Modus. Dieser sieht zwar ein wenig schärfer aus (möglicherweise durch das andere LOD), flimmert aber wieder mehr – wenn auch deutlich weniger als auf alter AMD-Hardware. Gegen Nvidias Treiberstandard hat AMD mit dem Treiber-Default also endlich einen guten Gegner gefunden, Nvidias HQ-Modus ist aber immer noch konkurrenzlos.
"
... weiterhin Gültigkeit, da es wenn ich das richtig sehe, bis dato keine Änderungen mehr am AF seitens AMD oder NV gab...
AMD Radeon HD 7970 im Test: Neue Radeon-GPU weiß zu überzeugen (Seite 5) - ComputerBase

Alle die ne RTX kaufen wollten, aber noch keine haben, kaufen sich die AMD Karte.

ALLE vielleicht nicht - aber doch ein paar. Bei 25% schneller@250W TDP als ne 2080TI könnte wahrscheinlich sogar wieder so mancher 2080TI Käufer umschwenken ;)

Man muss aber ehrlicherweise dazu sagen, dass es mit der Markenverbundenheit heute schon schlimmer ist als vor Jahren noch... Das fällt einem selbst häufig gar nicht so auf. Aber wenn ich mir so die Foren ansehe - da gehts doch im Endeffekt nur noch um Marke. Egal in welchem Preisbereich. Nur die Allerwenigstens ignorieren die Marke völlig. Der Grund dafür ist aber mMn nicht der, dass die Leute alle Hirnlose Fans der Marke sind, sondern dass sie eben ihrem Bedarf/ihren Anforderungen passend das Produkt wählen, was dafür am ehesten in Frage kommt. Neben reinem FPS und reinem Listenpreis gibts halt noch ne Menge mehr...

ICH für meinen Teil kaufe bspw. nie wieder ne Asus Grafikkarte und bin bis dato mit Zotac und EVGA vollends zufrieden. Wenns AMD ist, war ich fast ausschließlich bei Sapphire. Sozusagen bin ich damit auch klar Markenaffin. Da kann MSI oder Gigabyte noch so tolle Produkte im Angebot haben -> am Ende ist es eine Art "Unbekannte". Entweder man geht diese Unbekannte ein oder macht einfach das, was man kennt - und wo man weis wie es tut... Viele derer, die seit Kepler NV gekauft haben, dürften mit den Produkten auch einfach nur zufrieden (gewesen) sein - selbst wenn AMD absolut gleichwertige Produkte anbietet - gleichwertig wiegt dann oft eben nicht die neue Herausforderung für einen unbekannte Hardware auf...
 
Bzgl. der Bildqualität NV vs. AMD kann ich hier jetzt leider nichts mehr beitragen. ;9

Was den Topic angeht, gab es noch folgende News zum Thema, diese wurde hier noch nicht berücksichtigt und ist iwi untergegangen:

"Auf reddit hat der AMD-Mitarbeiter seine Aussagen im Phoronix-Forum relativiert und spricht von „falschem Alarm“. Die Codenamen seien nur zur Verwendung im Code des Open-Source-Treibers gedacht, um etwas für frühe Treiberunterstützung zu haben, „ohne sich in das Marketing-Namensgeheimnis verstricken zu lassen“.

Ziel sei es, eine Verwirrung zu vermeiden, wie er es bei Vega mit beispielsweise „Vega10“ als GPU-Codenamen und „Vega 56“ als Produktnamen erachtet. Die Codenamen im Treiber sollen sich von dem Marketing-Namen komplett unterscheiden. Zudem seien die Codenamen für einzelne Chips und nicht die Generation bestimmt. Vega ist bisher das einzige Beispiel, wo Codename von GPU und GPU-Generation im Produktnamen stecken. Bei Polaris war dies nicht der Fall.
Im Kontext seines Postings im Phoronix-Forums klang dies alles noch ganz anders, denn dort ging es explizit um frühere Codenamen wie „Cayman, Tahiti, Hawaii, Bonaire, Cape Verde, Ellesmere, Fiji, Tonga“, die zwar nicht im Marketing-Namen der Produkte steckten, aber von AMD offiziell in Roadmaps verwendet wurden. Zumal Arcturus ins offizielle Namensschema mit den Sternen Polaris, Vega und Navi perfekt hineinpasst.
Letztlich wird wohl erst eine neue offizielle Roadmap enthüllen, wie die Generation nach Navi lauten wird und wie die daraus stammenden GPUs heißen werden."
Quelle: Zitat CB
 
Man muss aber ehrlicherweise dazu sagen, dass es mit der markenverbundenheit heute schon schlimmer ist als vor Jahren noch... Das fällt einem selbst häufig gar nicht so auf.
man kann ja schwer in die Leute rein schauen und ich kann sowas eh nicht nachvollziehen, mir war die marke grundsätzlich immer erstmal egal.
Aber wenn ich mir so die Foren ansehe - da gehts doch im Endeffekt nur noch um Marke. Egal in welchem Preisbereich. Nur die Allerwenigstens ignorieren die Marke völlig. Der Grund dafür ist aber mMn nicht der, dass die Leute alle hirnlose Fans der Marke sind, sondern dass sie eben ihrem Bedarf/ihren Anforderungen passend das Produkt wählen, was dafür am ehesten in Frage kommt. Neben reinem FPS und reinem Listenpreis gibts halt noch ne Menge mehr...
Wobei aber auch die anderen Punkte die du hier ansprichst, für mich z.B. Effizienz, auch nicht zwingend markengebunden sind. Dass Nvidia seit 4 Jahren davon zieht ist halt (hoffentlich) nur ne Momentaufnahme und kann sich jeder Zeit wieder ändern (Hoffnung stirbt zuletzt :fresse2:). Auf sowas hat Nvidia ja kein Patent, AMD müsste nur einfach mal wieder liefern, dann hätte man auch wieder mal die Wahl.

ICH für meinen Teil kaufe bspw. nie wieder ne Asus Grafikkarte

Sowas habe ich mir schon oft gesagt, war aber nie konsequent :shot:

Nach dem ersten defekten BQT NT => "nie wieder so in scheiß be loud NT :mad:"
Am Markt umgesehen, es gab nur Müll => danach 3x in Folge BQT gekauft :fresse:

LG P920 - gab nie Updates => "nie wieder LG"
Danach N5 + G2 gekauft und war happy :fresse:
 
Zuletzt bearbeitet:
AMD müsste nur einfach mal wieder liefern, dann hätte man auch wieder mal die Wahl.

Wie denn wenns keiner kauft? Zieht sich AMD das Geld für R&D aus dem Brunnen? Die können jetzt (gottseidank) dank Ryzen etwas querfinanzieren, aber wenn ich AMD wäre, würde ich high end für die nächsten 2 Jahre meiden wie die Pest. Und dann, wenn aktiver Interposer, Chiplets und eine neue Architektur da ist, die mit egal wie vielen Zwischenkomponenten halbwegs linear skaliert, dann - und nur dann - würde ich an AMDs Stelle mal einen "GPU Threadripper" probieren.

Wenn der ankommt - weiterentwickeln. Wenn der nicht ankommt (und das kann tausende von Ursachen haben - von Ignoranz der Kunden über Knebelverträge von Nvidia, über gierige Studio-Manager die nur 0815 produzieren etc bla), droppen.

Ich sehe es so: AMD hat uns mehrere Male ne wunderbare Vorlage zum Technologiesprung gegeben. Die ersten mit Vulkan, die ersten mit FP16, die ersten mit offenen Treibern. Es wurde weiter Fast Food 0815 Ware gekauft und es ist alles im Sande abgesoffen. Selbst jetzt, wo beide Hersteller - sowohl Nvidia als auch AMD FP16 unterstüzen, wirds nicht genutzt.

Und genau da - weils eine der ganz wenigen Hersteller-agnostischen Features ist, die beide Seiten haben: Wo zum Teufel bleibt die Implementation?

Richtig, man müsste sie mal programmieren. Und darauf haben die Studios keinen Bock, obwohl es mal eben 2x die Performance bieten könnte. Willkommen in der DX9 Frittenbuden-Wirtschaft. Ich bleib dabei: Die Studios sind faul. Nicht die Programmierer, sondern die Manager, die es reihenweise verballhornen. So wirds auch nix mit dem Fortschritt - egal ob Nvidia oder AMD.
 
Zuletzt bearbeitet:
Highend Leute wollen Highend... was juckt die der Hersteller? Wenn AMD JETZT mit ner XYZ GPU um die Ecke kommt, die durchschnittlich 25% schneller als ne 2080Ti ist und das bei ~250W Leistungsaufnahme, was passiert dann?

Alle die ne RTX kaufen wollten, aber noch keine haben, kaufen sich die AMD Karte.

Das wäre mal echt geil.
Ich würde in der tat sofort die Bestellung stornieren. Zumindest wenn AMD auch RT mit rein bringt,... aber das haben sie ja eh angedeutet.

Leider bleibt das Wunschdenken und irgendwo in der (fernen) Zukunft.
 
Das wäre mal echt geil.
Ich würde in der tat sofort die Bestellung stornieren. Zumindest wenn AMD auch RT mit rein bringt,... aber das haben sie ja eh angedeutet.

Leider bleibt das Wunschdenken und irgendwo in der (fernen) Zukunft.

Anders wird ein Schuh draus: Wenn du willst, dass AMD wieder mit Nvidia einen Schlagabtausch hat, dann bestellt beim nächsten konkurrenzfähigen Produkt (das kann aber mal eben 2-3 Jahre dauern) einfach mal AMD und lass dich überraschen. Wenns ncht ganz so läuft wie erwartet - geh zu Team grün zurück. Wenn du aber zufrieden bist, freu dich auf 30 weitere Features, die du bisher noch nicht kanntest.

Ich hab in meinem Freundeskreis 70% Nvidia-Nutzer - die sich wöchentlich über Abstürze und Instabilitäten beschweren. Von den AMD Leuten höre ich das nicht. Gut - das mag an der Gewohnheit liegen - da viele von denen ein Linux Zweitsystem laufen haben, die über Tweaking nur müde lächeln. Aber genau da wird ein Schuh draus.

Zocke weiter unter Windows, benutze weiter Nvidia Karten wie es dir passt. Aber ich kann dir nur sagen, dass meine Erfahrung mit AMD unter Linux die stressfreiste, stabilste und gleichzeitig performante (Nicht performanteste - das braucht noch ein Jahr oder zwei) Lösung ist, die ich als Zocker je hatte.

Und da kapier ich halt die Mentalität nicht. Einmal ordentlich getweakt und eingerichtet - nie wieder Sorgen und sorgenfreies Zocken. Statt dessen sehe ich unter Windows-Spielern tausende Themen über .ini-Mods, Abstürze und reg-edits - wird aber gleichzeitig als "stressfreie Platform" beworben.

Klar, die einrichtung von Linux (wenn du Arch nimmst) ist nix für ne leichte Leber, aber dafür gibts Ubuntu, mit dem sogar meine Mutter klar kommt. Ich kapier halt die Doppelmoral nicht.
 
Ich kann auch nicht so recht verstehen, warum die Treiber so viel schlechter sein sollen. NV steckt viel Geld in proprietären Kram wie Hairworks & co. die dann tatsächlich deutlich schlechter bei AMD laufen, aber ansonsten sind die Erfahrungen zumindest bei mir recht ähnlich. Über all die Jahre fast abwechselnd Amd & NV, und bei beiden gab es ab und zu Abstürze, aber keine großen Probleme. Auch haben schon beide Hersteller stark fehlerhafte Treiber rausgebracht, die man dann eben meiden musste.

Vega hat darunter gelittten, dass Personal in Richtung Ryzen verlagert wurde. Trotz aller Unkenrufe und einem jahrelangen Rückstand, konnte man in vielen Aspekten zu Intel aufschließen, auch bei den Verkaufszahlen ist man auf Augenhöhe. Der Markt ist also gar nicht so statisch wie manche behaupten. Jetzt wo wieder deutlich mehr Geld da ist, und ein massiver Schritt im CPU-Bereich gemacht wurde, könnte es also gut sein, dass die GPU-Sparte wieder besser besetzt ist.

Bei Intel ist einiges in Bewegung geraten, als man plötzlich wieder einen Konkurrenten hatte. Die grünen Jünger sollten sich eigentlich das Gleiche wünschen, wenn nicht gerade mehr Geld vorhanden ist, als ausgegeben werden kann.

PS: Die Relevanz von RT steht aktuell genauso in den Sternen, wie die von Vulkan & co. Oder gibt es inzwischen überhaupt ein Spiel, dass das richtig unterstüzt?
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh