Vega noch 2018 in 7 nm – Navi 2019 ebenfalls in 7 nm

Dafür hat die HD5870 zu release alles in Grund und Boden gehauen, super Leistung + Verbrauch und das auch noch anfangs zu günstigen Preisen.

Nach nen paar Monaten hatte Nvidia wieder die Leistungskrone, aber zu welchem Preis?

Auch mit Release der GTX480 war AMD noch top aufgestellt.

Ja die Fermi ist in etwa das was heute eine Vega ist nur das Fermi die Krone hatte was bei Vega nicht geklappt hat. Ich hatte die 480Amp mit dem Vf3000 ist kein witz die ist immer unter 70C° gewesen und sehr leise bin selber überrascht gewesen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der GF 100 hatte 40% mehr Ausführungseinheiten als Cypress und schleppte noch viel Professionelles mit. Bei Vega ist das ähnlich, vermutlich kann sich AMD keine Gamer GPU leisten.

Also ich fand die Zotac damals auch nicht schlecht, hatte schon die 270 und der Sprung war ordentlich.
 
Das steht aber schon in Verbindung mit dem Speichermodell (Spiecherinterface).
Die falsche Angabe zB der ROPs hat erstmal nichts mit dem Speicherinterface zu tun.


Oder manche Leute sind einfach damit überfordert ganze Beiträge zu lesen.
Du hast gefragt, wo das Problem ist, wo die Karte doch die "vollen 4 GB" besitzt. Ich habe dir lediglich darauf geantwortet. Wenn du selber weisst, dass andere Specs falsch angegeben wurden, warum fragst du dann sowas? :stupid:

Was macht es für den Kunden denn für einen Unterschied, ob ein Feature nicht vorhanden war oder nicht freigeschaltet wurde?
Keinen. Oder habe ich was anderes behauptet? Der Punkt ist, du greifst AMD deswegen völlig hirnlos und sinnbefreit an, unterstellst ihnen Betrügerei am Kunden und dergleichen. Bei Nvidia ist sowas aber anscheinend völlig in Ordnung. Halt wieder mal typische Scheuklappen-Doppelmoral.

In beiden Fällen kann der Kunde es nicht nutzen und er ist unzufrieden
Nein, ganz sicher nicht. Ich kenne niemanden, der wegen fehlendem Async Compute, DSBR und dergleichen unzufrieden ist. Vermutlich >99% der Nutzer wissen nicht mal was das ist. Kunden sind unzufrieden, wenn eine Karte nicht die Performance bringt, die sie aus Tests kennen.

Aber Hey, schon zum Launch war Vega ein fail, denn zu teuer, zu viel Verbrauch, zu wenig Leistung, keine Customs, kaum verfügbar...
Immerhin nicht ganz so fail wie deine dünnen Beiträge. Ist allerdings auch nicht so schwierig. ;)

Und wo in dem zitierten Text wird von AMD offiziell gesagt, dass ein bestimmtes Feature noch nicht aktiv sei und später vom Treiber freigeschaltet wird? Ich kann in dem zitierten Text nichts davon lesen. Ausserdem, selbst wenn dem so wäre, müsstest du uns erstmal zeigen, dass diese Features immer noch nicht aktiv sind und auch in Zukunft nicht mehr aktiviert werden, damit deine Argumentation überhaupt einen Sinn ergibt. Also versuch's ruhig weiter.

Also meiner Meinung nach suggeriert dies schon ...
Irrelevant. Wenn du irgendwelche Aggressionen wegen angeblicher Suggestionen ausleben willst, dann mach das mit dir selber aus. Aber verschone bitte die Leser hier, die was über die kommenden 7nm Karten erfahren möchten!

Alleine schon hier im Forum hat man es doch oft genug gesehen. Wie oft musste man sich nach den ersten Reviews anhören, Ja wartet bis AMD endlich alle Features von Vega aktiviert, dann sieht Nvidia kein Land mehr. Ständig hieß es hier AMD FineWine, man solle nur auf den stark erhofften Wundertreiber warten.
Ja klar, genau das hat man in jedem zweiten Beitrag lesen können. Mindestens. Und genau deshalb hat seitdem auch jeder zu Vega gegriffen anstatt zu einer entsprechenden GTX. :rolleyes: Du kannst es drehen und dich winden wie du willst, AMD ist trotzdem nichts vorzuwerfen. So krampfhaft du das auch wieder mal versuchst.

Und nein, ein Softwareworkaround zählt nach wie vor nicht als Hardwarefeature.
 
Du hast gefragt, wo das Problem ist, wo die Karte doch die "vollen 4 GB" besitzt. Ich habe dir lediglich darauf geantwortet. Wenn du selber weisst, dass andere Specs falsch angegeben wurden, warum fragst du dann sowas? :stupid:

Klar, wenn man die Aussage komplett aus dem Kontext reißt und den ironischen Unterton ignoriert, dann habe ich danach gefragt. :stupid:

Aber machst du ja gerne :d

Keinen. Oder habe ich was anderes behauptet?

Bei Nvidia hat es diese Features aber teils nie gegeben. Bei AMD gibt es sie schon. Die Frage ist halt lediglich, inwiefern sie auch voll freigeschaltet sind. Wie gesagt, zwei verschiedene Sachverhalte. Also ja, irgendwie schon. Zumindest bin ich ja auch nicht der Einzige, der das so verstanden hat. :wink:

Der Punkt ist, du greifst AMD deswegen völlig hirnlos und sinnbefreit an, unterstellst ihnen Betrügerei am Kunden und dergleichen. Bei Nvidia ist sowas aber anscheinend völlig in Ordnung. Halt wieder mal typische Scheuklappen-Doppelmoral.

Nein überhaupt nicht. Ich habe geschrieben, dass wenn sich die Gerüchte, von welchen du geschrieben hast, dann ist es für mich Betrügerei. Also gilt meine Kritik nur unter der Annahme, dass die Features nicht aktiviert sind und AMD diese auch nicht mehr aktivieren wird bzw. kann, da sie ja laut den Gerüchten Defekt sind oder nicht richtig funktionieren.

Des weiteren würde ich so etwas auch bei Nvidia anprangern bzw. habe es auch bei der 970 gemacht. Also nichts von wegen Doppelmoral. Mach den Kopf zu.

Nein, ganz sicher nicht. Ich kenne niemanden, der wegen fehlendem Async Compute, DSBR und dergleichen unzufrieden ist. Vermutlich >99% der Nutzer wissen nicht mal was das ist. Kunden sind unzufrieden, wenn eine Karte nicht die Performance bringt, die sie aus Tests kennen.

Ach und nur weil du niemanden kennst, dann ist das so. Ok tolle Logik mal wieder.

Dann erweitere ich mal deinen Horizont :wink:

AMD Radeon RX Vega: Unmut über fehlende Primitive Shader und mehr häuft sich
We want Primitive Shaders and NPGP active! AMD give some info to us! : Amd
Adrenalin looks incredible, but is today's release a final admission that we'll never see all features on Vega (14nm) activated? : Amd
Early Access Hardware – The Problem With AMD Vega Frontier Edition - YouTube

Immerhin nicht ganz so fail wie deine dünnen Beiträge. Ist allerdings auch nicht so schwierig. ;)

Oh, da habe ich wohl einen empfindlichen Nerv getroffen ;)

Und wo in dem zitierten Text wird von AMD offiziell gesagt, dass ein bestimmtes Feature noch nicht aktiv sei und später vom Treiber freigeschaltet wird? Ich kann in dem zitierten Text nichts davon lesen. Ausserdem, selbst wenn dem so wäre, müsstest du uns erstmal zeigen, dass diese Features immer noch nicht aktiv sind und auch in Zukunft nicht mehr aktiviert werden, damit deine Argumentation überhaupt einen Sinn ergibt.

Bist du blöde?
Was ist an "Wenn sich dieses Gerücht bestätigt..." nicht zu verstehen? Du hast doch als erstes von den Gerüchten geschrieben.

Aber so langsam scheinen sich diese Gerüchte ja zu bestätigen, denn warum sonst sollte AMD das ganze Thema totschweigen?

Und nein, ein Softwareworkaround zählt nach wie vor nicht als Hardwarefeature.

Habe ich auch nicht behauptet. :stupid:
Es ging um das vorhanden sein von einem Feature und nicht wie es implementiert wurde, denn dies ist
 
Die falsche Angabe zB der ROPs hat erstmal nichts mit dem Speicherinterface zu tun.

Doch, mit dem Speichermodell. Warum? Die SM greifen über eine Crossbar auf den Speicher zu. Im Vollausbau des GM204-Chips verfügt diese Crossbar über insgesamt acht Ports, worüber auf den Level2-Cache sowie die Speicher-Controller zugegriffen wird und bei der 970 fehlt genau einer dieser Ports (oder wurde deaktiviert, weil die Crossbar oder der L2 vermutlich teildefekt ist), was dann letztlich Auswirkungen auf die Kapazität des Caches und die Anzahl der ROPs hat. Man könnte die GPU also mit unterschiedlicher Anzahl an SM und ROPs betreiben, was das Ganze für Nvidia ziemlich fexibel macht, wenn Dices teildefekt an unterschiedlicher Stelle der Crossbar oder des L2 sind. 13 SM und 7 Ports müssen letztlich rechnerisch für die 970 zusammenkommen. Es steht klar im direkten Zusammenhang. Das Interface errechnet sich dann aus den 32+32 bit MC die aktiv lesen und schreiben können plus dem Segment, das eben nur lesen oder schreiben kann (3,5GB + 0.5GB Adressierung). Das Interface ist an sich komplett vorhanden (Anzahl/Anbindung der MC, also 8x32bit).

Ich weiß nur nicht was das mit Vega zu tun haben soll?
 
Zuletzt bearbeitet:
Nichts, aber was soll man, wenn dieser Vega thread von einer nvidia Drone überfallen wird. :(

Der Moderation melden wenns nicht passt.:)

Das bei Vega10 Consumer Fetaure angekündigt wurden, die wahrscheinlich erst in Nextgenprogrammierung einfließen werden und direkt vom Entwicklersupport abhängen war ja vorher klar.

Was das Thema an sich angeht, 7nm sind tatsächlich "nur" für die Instinct-/Proserie vorgesehen, denke Vega10 Consumer wird (wenn überhaupt) ein 12nm Refresh erhalten (AMD wirds vermutlich erst bei Vega 20 umsetzen).

Die Treiber für PS sind immer noch in experimenteller Phase (so jedenfalls MS [d3ddirect und d3ddirect.X = LL und HL]). NVidia hat den WindowsX Support für PS-Modell 6.x ab dem 381.65 umgesetzt, wenn mich nicht alles täuscht.

Und sonst, einfach nicht füttern.
 
Zuletzt bearbeitet:
Musst du gerade sagen oder warum wurde dein alter Account noch einmal gebannt? Erzähl uns das doch mal Josedan.

Leider kann ich nicht handfest nachweisen, dass dies nur ein Puppenaccount ist :(
Das hilft ja auch nicht und ist am Thema vorbei. Den Rest sollte man den Betreibern/Moderation/Administration überlassen und lieber beim Thema bleiben.

Das im Vorfeld Feature die Vega rein von der Architektur mitbringt und die auch marketingtechnisch beworben wurden, nicht aktiv waren, lag daran das der Treiber nicht wirklich fertig war. HBC/HBCC ist ja nun aktivierbar. Primitiv Shader sollen sich noch in experimenteller Phase befinden was den Treibersupport angeht. Vermutlich muss der Compiler noch angepasst werden (oder was auch immer). Letztlich sind Primitiv Shader aber eine Abform von Geometrie Shader (Vertex) die nur wirkungsvoll funktionieren und beschleunigen, wenn in Spielen auch ein hoher Anteil an Geometrie berechnet werden muss. AMD hat dabei mehrfach mitgeteilt, dass vergleichbare Feature eher zukunftsträchtig sind. Wenn Entwickler sie nicht nutzen (derzeit nicht können) machen dergleichen Innovationen nicht viel Sinn. Primitiv Shader sind vermutlich an d3ddirect 12.0/12.1 gebunden und es gibt kaum Spiele die diesen API Support (FL 12.0/12.1) nutzen, eher gurkt man da noch auf Level 11.1 umher, und bedient sich nur der optionalen Feature um den (CPU) Overhead zu reduzieren (was mehr oder weniger gut gelingt).

Als Nutzer von AMD GPUs ist man doch gewöhnt das AMD zwar Verbesserungen bringt, aber oft schleppend, weil denen die Manpower fehlt. Wenn man davon nicht betroffen ist, braucht man das Thema auch nicht tot diskutieren.

Primitiv Shader sind derzeit noch inaktiv (können wegen fehlender Treiber durch Entwickler vermutlich noch nicht genutzt werden, sind aber ein Zukunftsfeature)
HBC/HBCC ist aktivierbar und bringt etwas Mehrleistung
Freesync 2+HDR Support ist aktiv und kann genutzt werden
höherer Takt resultiert in fast gleichem Verbrauch wie bei Fiji (bei +30% Mehrleistung rein was die fps angeht)
Frontend und Backend wurden überarbeitet
8 GB HBM 2 onboard/aktiv nutzbar
Videoschnittstellen und Anschlüsse wurden auf das Level geupdatet wie bei der Konkurrenz (ausser vermutlich VP9)
FPP16 Support fürs Gaming ist aktiv (was ja nicht mal Volta bieten wird)
Vega bietet derzeit den höchsten dx Support und unterstützt zudem Vulkan in höchster Extension (Feature levels in Direct3D - Wikipedia)


Was fehlt dir denn noch?
 
Zuletzt bearbeitet:
Doch, mit dem Speichermodell. Warum? Die SM greifen über eine Crossbar auf den Speicher zu. Im Vollausbau des GM204-Chips verfügt diese Crossbar über insgesamt acht Ports, worüber auf den Level2-Cache sowie die Speicher-Controller zugegriffen wird und bei der 970 fehlt genau einer dieser Ports
ROPs und Speicheranbindung haben trotzdem erstmal nichts direkt miteinander zu tun und unterschiedliche Aufgaben. Beides wird halt durch die SMs bedingt. Mehr aber auch nicht.


Klar, wenn man die Aussage komplett aus dem Kontext reißt und den ironischen Unterton ignoriert, dann habe ich danach gefragt.
Schon klar, plötzlich ist alles aus dem Kontext gerissen und Ironie war auch noch dabei. :rolleyes:

Ach und nur weil du niemanden kennst, dann ist das so. Ok tolle Logik mal wieder.
Nein, nicht nur. Auch weil ich vermutlich ein bisschen mehr Erfahrung in dem Bereich mitbringe als du. Schliesslich arbeite ich in der Hardwarebranche schon seit einigen Jahren. Hardwareforen wie dieses sind und bleiben Hintergrundrauschen bezogen auf den gesamten Markt. Was kannst du denn als Erfahrung vorweisen? Wie man andere User in Hardwareforen mit Sprüchen wie "mach den Kopf zu" oder "bist du blöde" beleidigt? Vielleicht solltest du mal deinen Horizont und vor allem dein Sprachrepertoire erweitern. ;)

Musst du gerade sagen oder warum wurde dein alter Account noch einmal gebannt?
Da hat wohl Holzmann einen empfindlichen Nerv getroffen. Tja, wenn man sich angesprochen fühlt, dann lässt das tief blicken...

Fakt ist, wenn man teils oder ganz deaktivierte Hardwarefeatures kritisiert, weil sie womöglich buggy sind, dann muss man genauso kritisieren, wenn mit Features geworben wird, die teils oder ganz in Software implementiert sind, weil sie schlichtweg gar nicht in Hardware vorhanden sind. Die Frage ist nämlich nicht, ob Features generell vorhanden sind, auch wenn du das zu glauben scheinst. Faktisch kann man alles in Software implementieren. Die Frage ist, wie performant und effizient Features implementiert sind. Und das geht in Hardware logischerweise besser. Aber klar, das eine betrifft AMD, muss also von dir abseits jeglicher Sinnhaftigkeit angeprangert werden. Das andere betrifft Nvidia, das ist natürlich völlig in Ordnung. Mehr muss man über deine Absichten hier nicht sagen. Doppelmoral pur. Der Rest ist nur wieder dein typisches uneinsichtiges Geflame. EOD.
 
Schon klar, plötzlich ist alles aus dem Kontext gerissen und Ironie war auch noch dabei. :rolleyes:

Ach hör doch auf. So wie du die Frage aus dem Zusammenhang gerissen hast, könnte man echt denken, dass die Frage so ernst gemeint war. Doch wenn man die beiden Sätze danach ließt, ist deutlich zu erkennen, worauf ich hinaus wollte und dass es sich bei der Frage um eine rhetorische Frage handelt.

Nein, nicht nur. Auch weil ich vermutlich ein bisschen mehr Erfahrung in dem Bereich mitbringe als du. Schliesslich arbeite ich in der Hardwarebranche schon seit einigen Jahren.

Ändert nichts an der Tatsache, dass deine Logik immer noch nicht schlüssig ist. Ja es gibt viele Leute, wenn nicht sogar die Mehrheit, die überhaupt keinen Plan von der ganzen Sache haben. Ja da erzählst du mir nichts neues. Um auf diese Feststellung zu kommen, muss ich auch nicht unbedingt in der Hardwarebranche arbeiten :d Genauso gut gibt es aber auch Leute, auch wenn es nur wenige sind, die sich extra aufgrund dieser Features für eine Vega entschieden haben und daher jetzt enttäuscht sind. Aber das ist vollkommen egal, denn es ändert überhaupt nichts an der Sache, dass es trotzdem immer noch Betrügerei ist, wenn ich etwas bewerbe und dies nicht liefere oder es nicht liefern kann und dann dafür keinen Ausgleich sorge. Dabei ist es auch völlig egal, ob das jetzt von Nvidia oder AMD oder Intel oder von dir oder von mir oder wem auch immer gemacht wird. Auch ist es völlig egal, ob da einfach nur die Unwissenheit des Kunden ausgenutzt wird.

Wie man andere User in Hardwareforen mit Sprüchen wie "mach den Kopf zu" oder "bist du blöde" beleidigt?

Jetzt mach hier mal nicht einen auf Unschuldslamm. :rolleyes:


Tja, wenn man sich angesprochen fühlt, dann lässt das tief blicken...

Da ich so gut wie der einzige bin, der auf den letzten Seiten seine Vega kritisiert habe, ist es doch deutlich, dass er mich meint. 1 und 1 zusammenzählen ist nicht immer ganz so schwer.

Fakt ist, wenn man teils oder ganz deaktivierte Hardwarefeatures kritisiert, weil sie womöglich buggy sind, dann muss man genauso kritisieren, wenn mit Features geworben wird, die teils oder ganz in Software implementiert sind, weil sie schlichtweg gar nicht in Hardware vorhanden sind.

Nein!
Man wüsste es kritisieren, wenn explizit behauptet wurde, dass es in der Hardware vorhanden ist, obwohl es nicht in der Hardware vorhanden ist.

Aber klar, das eine betrifft AMD, muss also von dir abseits jeglicher Sinnhaftigkeit angeprangert werden. Das andere betrifft Nvidia, das ist natürlich völlig in Ordnung. Mehr muss man über deine Absichten hier nicht sagen. Doppelmoral pur.

Es ist mir völlig egal wen es betrifft. Egal wer so was abzieht gehört kritisiert.

Aber unterstelle mir ruhig weiter eine Herstellerverbundenheit, wenn du nicht weiter weißt :d
 
Zuletzt bearbeitet:
ROPs und Speicheranbindung haben trotzdem erstmal nichts direkt miteinander zu tun und unterschiedliche Aufgaben. Beides wird halt durch die SMs bedingt. Mehr aber auch nicht.
Ich dachte ein Post zu dem Thema hätte gereicht. Nur mal so nebenbei, was macht eine Crossbaranbindung für einen Sinn, wenn sie das Cachemodell oder SI nicht mit ausreichend Daten versorgen kann? NVidia tut immer nur so viel wie müssen, nicht was sie könnten. Mehr ROPs würden bei der 970 genau NULL Leistungsgewinn bewirken.

Gut, ich lass euch mit eurer Themenauswahl dann allein, unter "7nm Vega" passt das trotzdem nicht.
 
Ich dachte ein Post zu dem Thema hätte gereicht. Nur mal so nebenbei, was macht eine Crossbaranbindung für einen Sinn, wenn sie das Cachemodell oder SI nicht mit ausreichend Daten versorgen kann? NVidia tut immer nur so viel wie müssen, nicht was sie könnten. Mehr ROPs würden bei der 970 genau NULL Leistungsgewinn bewirken.
Nur hat das nichts mit dem ursprünglichen Sachverhalt zu tun. Es ging um die falsch angegeben Specs bei Nvidia. Und ROPs und VRAM sind in dem Zusammenhang nun mal zwei verschiedene Aspekte.
 
Und ROPs und VRAM sind in dem Zusammenhang nun mal zwei verschiedene Aspekte.
Egal wie viele ROPs die 970 mehr hätte, kann sie wegen abgeschalteter SMM nur 52 Pixel pro Takt ausgeben. Die ursächliche Limitation liegt also in der Anzahl der SMM und der Abschaltung eines Crossbarports gegenüber der 980. Maxwell ist grundsätzlich in der Lage, trotz deaktiviertem L2-Cache und ROPs, dass dazugehörige Speicherinterface weiterhin anzusprechen. Dann mit den genannten Einschränkungen. IMO steht das ganz klar in direktem Zusammenhang beginnend bei der Anzahl der SM, denn ROPs limitieren die 970 in diesem Fall nicht, davon hat sie mehr als sie braucht (56 bit) und jeder dieser Blöcke ist dann auch an ein Speichersegment angebunden.

Was jetzt Nvidia zu der Abschaltung gezwungen hat, haben sie ja nie öffentlich kommuniziert. Man kann also nur rätzeln was jetzt und wo defekt ist. Aber sei's drumm...
 
Zuletzt bearbeitet:
AMD hat den Stromverbrauch der Vega mit seinem aktuellen Treiber super im Griff. Bei -45% kommt genügend Leistung bei wirklich niedrigen Stromverbrauch, weil der Takt im Sweet Spot liegt. Habe die LC und bin ziemlich zufrieden damit. Der Aufwand Undervolting zu betreiben ist m.E. beim aktuellen Stand des Treibers wegen Wattman nur noch bedingt notwendig. Aber natürlich ist das für manche auch Spass wegen der Herausforderung, aber m.E. ist es nicht unbedingt nötig. Um die Vega sparsam zu betreiben, bei relativ geringen Leistungsabstrichen, genügt es, in Wattmann den Leistungsregler runterzudrehen, den Rest besorgt der Treiber und das wirklich intelligent.
 
Was zieht deine Vega im moment unter vollast?
 
AMD hat den Stromverbrauch der Vega mit seinem aktuellen Treiber super im Griff. Bei -45% kommt genügend Leistung bei wirklich niedrigen Stromverbrauch, weil der Takt im Sweet Spot liegt. Habe die LC und bin ziemlich zufrieden damit. Der Aufwand Undervolting zu betreiben ist m.E. beim aktuellen Stand des Treibers wegen Wattman nur noch bedingt notwendig. Aber natürlich ist das für manche auch Spass wegen der Herausforderung, aber m.E. ist es nicht unbedingt nötig. Um die Vega sparsam zu betreiben, bei relativ geringen Leistungsabstrichen, genügt es, in Wattmann den Leistungsregler runterzudrehen, den Rest besorgt der Treiber und das wirklich intelligent.

Der Vega Sammler beschäftigt sich aktiv mit UV Profilen, dort werden unter Last dann ca. 230Watt verbraucht in den Benchmarks, wie der Verbrauch bei liegt, wenn du nur das PT runter regelst wäre mal interessant. :)

[Sammelthread] AMD RX VEGA Sammelthread + FAQ
 
Es geht nicht darum das vega Sparsamer geworden ist mit UV Profilen sondern das die 250w-350w braucht für die leistung Und nvidia gp104 nur 180w-200w

Das ist so wie einst die verspottete gtx480 mit ihren von heute eher lächerlich wenig 225w und das war damals der high end chip gf100
Der Nachfolger kam da max auf 200w und alles war wieder gut
Vor 2010 waren die High end klasse maximal auf 180w und die galten als Stromfresser und heute ist das die mittelklasse.
ich sehe da den Vorwurf durchaus gerecht. das vega zu viel strom verbraucht und nur dann effizient ist wenn diese auf polaris niveau Leistung heruntergeregelt wird und mithalten kann beim Stromverbrauch
Also so um die 1,0ghz takt
AMD hat vega extremst OC verkauft wäre diese GPu mit gddr5 anstatt HBM2 würde diese neue Rekorde brechen beim Stromverbrauch.

Das vega in 7nm nicht mehr Kommt war klar
Glofo wird frühestens Mitte 2019 7nm in serie produzieren und bis dahin hat amd nichts gegen nvidia vorzuweisen was gegen den gv104 ankommt
vermutlich wird navi den gv106 erst erreichen das bedeutet das nvidia nochmal die preise anheben kann.
Was für Aussichten............. Mit Glück bekommt man ab 2020 die Leistung der gtx1080 für 250€ genau 2 Jahre zu spät
Neben der Tatsache das die CPu ab gtx1080ti Leistung auf 1080p die Gpu nicht mehr auslasten kann.
Im normalfall mit Konkurrenz würde nvidia klar 4k gaming pushen bzw vr aber ohne amd gpu Konkurrenz sehe ich da stillstand bis 2020 eher 2022
Die displays tun ihr übriges kein Display mit annehmbaren preisen, guter Bildqualität und guten reaktionzeiten mit gsync ohne nvidia Aufschlag vorhanden.
Oder eben mit freesync was derzeit dasselbe kostet wie gsync monitore alles jenseits 450€
Und bei Displaygrößen streikt Windows in der Skalierung alles ab 0,2mm Abstand wird zum mäusekino (127dpi)
Bei 4K und 32 Zoll ist man bei 0,16mm dann ist die Schrift etwa halb so hoch und menü ebenso wie unter 1080p
Und genau das ist das Problem weswegen es am Grafikbereich Stagniert. Effekte bringen nichts mehr, da hilft nur mehr texture Details und am einfachsten geht das per größeren texturauflösung auf kleineren displays.
Etwa 4k mit 24zoll 0,13mm (196dpi) Standard bei windows 96dpi 0,265mm
Das alleine würde grafik in neue Sphären heben
Smartphones sind bei aktuell max 600ppi etwa 0,08mm
ppi und dpi sind dasselbe nur ist pixel per inch ein Dreieck anstatt ein Punkt
Quasi ist 600ppi = 300dpi
Ob DPi besser ist oder ppi hängt vom der api ab Das Rasterrizing der GPu ist es herzlich egal aber es erhöht die Berechnungsanforderung
Wenn also ein display 600ppi hat ist bei android oder ios programmen niemals nativ
Eher sind diese auf etwa 196ppi-392ppi konzipiert 0,26mm-0,13mm
Es gibt in der api keine skallierungsprobleme das liegt eher an display technik und zum anderen der stufenlose zoom der api

games sind gerade mal von HD auf FHD gekommen was die berechnungsgröße angeht
Ab 4k würden fast real wirken bei 10bit nur berechnet noch keine engine in 4k
Der HDD verbrauch würde sich um faktor 3 erhöhen und die transferate wäre min 1gb/s notwendig Lesen schreiben der SSD
Neben min 64GB ram
grafik ist noch lange nicht am limit des technisch machbaren
Die singlecore leistung von CPu aber sehr wohl und somit auch die Klassische directx Singlecore drawcalls
Mehr als 4,6ghz ist mit silizium nicht umsetzbar in Serie.
 
Der Vega Sammler beschäftigt sich aktiv mit UV Profilen, dort werden unter Last dann ca. 230Watt verbraucht in den Benchmarks, wie der Verbrauch bei liegt, wenn du nur das PT runter regelst wäre mal interessant. :)

[Sammelthread] AMD RX VEGA Sammelthread + FAQ

Unter Last (links) sind das vega lc.png max 250W abzg. ca 90W+ für CPU+MB+Soundkarte: AMD 1800x+ Gigabyte K7+Soundblaster xzr+ Ram, also schätze das sind ingame ca. max 150W bei PT -45% default BIOS. Aber wie man sieht, liegt die Karte oft deutlich unter 150 W (L4D2, 1440p bei 144HZ max Qualität)

Fürs Mining (rechts) benutze ich ein spezielles Setup mit ZweitWin10 registry-soft-powersetting + OverdriveNT Tool, damit ich z.B. das Ram auf 1100 übertakte bei grad mal 905mV

Minen tu ich erst seit 4 Wochen damit, habe die Karte im Aug 2017 gekauft und mir einen komplett AMD Rechner gebaut. Hab mal zum Spass mit dem Minen angefangen über Weihnachten, als es doch recht langweilig war. Beim Mining ist eine Anpassung sinnvoller, da man nicht mit der AMD Oberfläche arbeitet aus Stabilitätsgründen des Cryptotreibers, der recht anfällig ist.

Ich habe angefangen bzgl Gaming nur noch mit dem PT zu arbeiten, nachdem ich dieses wirklich aufschlussreiche Video gesehen habe (bitte nicht von dem seltsamen Akzent abschrecken lassen ;-):

The RX Vega Liquid Edition Review - YouTube

Der Treiber setzt das PT wirklich sehr intelligent um, bemerke fast keine Leistungseinbussen, aber akustisch ist es sehr leise und vor allem der Verbrauch sinkt drastisch um mehrere hundert Watt. Der Sweet Spot wurde entsprechend krass überschritten bei der Festlegung des offiziellen BIOS. M.E. wäre weniger hier deutlich mehr gewesen.
 
Zuletzt bearbeitet:
Mutig sich hier als Miner zu outen.
Blöde Frage, womit misst Du da? Sieht irgendwie nach AVM Protokoll aus :confused:
 
Mutig sich hier als Miner zu outen.
Blöde Frage, womit misst Du da? Sieht irgendwie nach AVM Protokoll aus :confused:

Überhaupt nicht, hatte nie vor damit zu minen und hatte die Karte nur zum Gamen gekauft. Da gibts ja Typen, die kaufen gleich 6 Vegas mit der Absicht, die ausschliesslich zum Minen zu mißbrauchen. Ich wollte die Vega, obwohl das für meine Games Overkill ist, die ich spiele. Bin ein riesen Fan von Fiji, eine wirklich geile Karte, aber habe erst mit Vega zugegriffen. M.E. gibts keine schönere Karte optisch und von der Verarbeitung (Alu).

Das ist eine FRITZ!DECT 200

Sehe grade das war ja L4D2, bei WOT müsste ich morgen mal messen, das wird paar Watt mehr ziehen.
 
Zuletzt bearbeitet:
ich weiß was Du meinst, mit Overkill. Ich spiele grad Anno 1404 mit max Einstellungen auf meinem 5 oder 6 Jahre alten Lappi mit ner 7970, wollte mir aber eigentlich auch ne VEGA leisten. Bei der Entwicklung in Sachen Preis und Verfügbarkeit wandert die aber wahrscheinlich direkt in den Lappi. Wenn sich das aber weiterhin so entwickelt da könnte die nächste tatsächlich ne GTX1080 sein (Lappi) obwohl meine letzte NVIDIA Karte eine Geforce 2 MX war.
Monitor hab ich nen 34" FreeSync, und bin eigentlich ein großer AMD Verfechter, aber die Entwicklung was VEGA angeht ist ja deutlich anders als die von Ryzen. Würde mich echt freuen wenn sich das noch etwas verbessern würde (und damit stehe ich ja definitiv nicht alleine da)


Der DECT hängt hier auch gleich 3m enfernt von mir, hab ganz vergessen dass der das kann, obwohl ich den deshalb auch ein bisschen mit gekauft habe.
 
Nachtrag: beim etwas zeitgemässeren Spiel WOT (DX11) verbraucht die Karte um die 200 Watt bei obigen PT von -45%, Refreshrate 120Hz +/-, 1440p, höchste Qualität (System max 298W). Ich finde das ist sehr ordentlich und recht sparsam.

Screenshot-2018-1-29 FRITZ Box 7490.png
 
Zuletzt bearbeitet:
Nachtrag: beim etwas zeitgemässeren Spiel WOT (DX11) verbraucht die Karte um die 200 Watt bei obigen PT von -45%, Refreshrate 120Hz +/-, 1440p, höchste Qualität (System max 298W). Ich finde das ist sehr ordentlich und recht sparsam.

Anhang anzeigen 425941

Danke für die Infos, im Sammler wird mit UV gearbeitet, wäre schön, wenn du deine Erfahrungen mal dort vorstellen könntest. :)
 
Mutig sich hier als Miner zu outen.

Was ist daran mutig? Ich habe auch solange Gemint, bis ich die Graka raus hatte... Jetzt steckt die Karte umsonst in meinem Rechner ;) Da ist nix mutig dran, sondern alles Legitim...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh