AMDs Boardpartner fahren Custom-Vega-Modelle auf Sparflamme

Denke Vega wird schon auch noch weiter im Gespräch, denn es kommen ja noch Titel, die für Vega optimiert werden zb Far Cry5 wird spannend und wie das dann weiter geht mit dem Support durch die Entwickler ist auch nicht nicht sicher ...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für beiden Seiten, also den potenziellen Käufer, aber auch für die Hersteller ist die aktuelle Situation nicht ganz einfach. Man will Karten liefern, muss die Kosten aber niedrig halten, um die Karten überhaupt an den Mann zu bringen.

Also das finde ich total abwegig und kann die Aussage ebenfalls nicht nach voll ziehen. Kommt die von Hw-luxx oder war das die Ausage von den Herstellern ? Für mich reine Schutzbehauptung zugunsten AMD. Die Leute kaufen doch heute auch Karten wie eine GTX1080 die vor einem halben Jahr 100€ weniger gekostet hat. Es gibt doch nur wenige AMD Standard oder Custom Karte zu kaufen. Wieviele Shops bieten denn überhaupt eine an.

Und die Custom Vegas wie die von Asus können doch doch nicht 150€ Differenz Aufgrund vom Boarddesign oder Kühlung zu einer Asus Strrixx 1080 ausmachen. Also das bischen mehr Lamellen der Vega können doch nicht soviel Geld kosten, wenn mal bedenkt das ein kompl. VGA Kühler Arctic Accelero Xtreme IV ~50€ für den Endkunden kostet.

Für mich nach wie vor reine Schutzbehauptung um was anderes zu verdecken. Entweder es gibt nicht soviele GPU´s wie beahuptet, die sind viel zu teuer in der Herstellung durch zu viel Ausschuß oder der HBM Speicher ist nicht verfügbar. Um heraus zu finden, ob ich mein Produkt für einen bestimmten Preis verkaufen kann, muß ich erst einmal anbieten. Und wer weiß ob der Ex AMD Vega-Chefarchitekt Raja Koduri "freiwillig" einen Auszeit genommen hat. Obwohl ich selbst eine Vega habe und AMD Aufgrund meiner neg. Erfahrungen mit Nvidia (GTX280 kurzerhand mal den Hybrid Power aus dem Treiber entfernt und meine gute "3.5GB" GTX970) finde ich, ist die Vega Marketingtechnisch ein absoluter Fail. Leider. Keiner bedauert das mehr als ich, außer vielleicht Lisa Su :-).
 
Ob eine Karte noch im Gespräch ist oder ob sie für den GPU Markt interessant ist, sind zwei verschieden paar Schuhe.

Das Far Cry für Vega optimiert wurde ist auch kaum von Bedeutung, das ist ein Titel währenddessen sich NV in alles einkauft was bei 3 nicht auf den Bäumen ist.

Ich finde diese GPU Optimierungen sowie so lächerlich und total unnötig deswegen gebe ich da nichts drauf.
 
Ich bin auch erst mal bedient !

Aber AMD bringt unglaublich viel Innovation in den Markt. Dutzende (neue) Features und Ideen(HBCC, Hardwarescheduler, low level APIs, Schader Cache, Asynchronous compute, Chill, Wattman, Das neue Overlay)...natürlich versagen davon einige, aber mich begeistert das.

- - - Updated - - -

ist die Vega Marketingtechnisch ein absoluter Fail. Leider. Keiner bedauert das mehr als ich, außer vielleicht Lisa Su :-).

Dass das Marketing nicht besser ist bei AMD als bei der Konkurrenz ist richtig, aber das Vega durch das Marketing zum Fail wurde, sehe ich nicht. Der Verbrauch der Karten ist zu hoch, das ist technisch mal eine Tatsache, dieser lässt sich aber überraschenderweise durch UV fast gänzlich beheben. Da hätte AMD mehr Feinschliff leisten müssen, keine Frage, aber das wird nun dem Kunden überlassen, das schreckt einige ab, andere aber weniger. UV ist mittlerweile ein Sport wie OC, so hätte AMD dies als Feature ausgeben sollen "massiv headroom for Uv" ;)
 
Zuletzt bearbeitet:
Ich glaub nicht, dass Navi was wird. Meiner Meinung nach ist das GCN-Letzlingswerk allenfalls ein Vega im Vollausbau. Vega ermöglicht doppelt so viele CUs pro Frontend ggü. bisherigen GCN-Generationen, also insgesamt 128. Das wird Navi mit den überarbeiteten CUs und etwas aufgebohrtem Geometriedurchsatz auch bringen, aber ich fürchte einfach, dass die Effizienz da, ähnlich wie bei Fiji damals, auf der Strecke bleibt und man sich bei Navi wieder auf LL-Support verlassen muss. Die 7nm und die hohe Rohleistung rettet das Ganze halt etwas. Es wird für den Consumermarkt auch die Sparflamme ausgepackt sicherlich, denn mehr als Navi10 wird man hier wohl kaum kaufen können. Dann bleibt das Lineup wie gehabt:
P12, P21, P20, V10, N10. Daneben gibts halt noch Vega und Navi embedded, die ja auch für die Intel Kabylake, Coffeelake und Whiskylake G und sicherlich auch Icelake G genutzt werden.
 
Zuletzt bearbeitet:
Ich fänds schön, wenn mal irgendeine AMD Karte VP9 in Hardware könnte.

vermutlich bisher noch nicht weil die Karte auch schon wieder etwas älter ist und einfach extrem lange zurückgehalten worden ist (Tapeout ist >1 Jahr hin). War bei Fiji nichts anderes, kein HDMI 2 usw an Bord und altes GCN Level. Das Vega Design ist sicher nicht ganz taufrisch - aber etwas wundert es mich auch. Sicher dass da kein VP9 auf Vega in HW gehen sollte?

Wobei CB das mal getestet hat:
GPU-Beschleunigung für VP9: Pascal und Vega verbrauchen weniger Strom auf YouTube - ComputerBase
 
Ich fänds schön, wenn mal irgendeine AMD Karte VP9 in Hardware könnte.

Warum? Kaufst du nicht so wieso nur bei der Lederjake? :rofl:

Die Features von Vega werden sicherlich bleiben, jedoch hat AMD keine andere Wahl als die Chips für die jeweiligen Märkte zu optimieren und spezialisieren, so wie es Nvidia seit Kepler tut.

Und was da für ein Deal mit Intel abläuft weiß man auch nicht. Raja geht zu Intel, man kündigt eine Performance-Grafikkarte für die Zukunft an, stampft so gleich Xeon Phi ein, Vega taucht als Kabylake-G in einer Kooperation auf. Alles sehr merkwürdig. Meine Prognose: Intel optimiert Vega mit Raja richtung Datacenter, AMD Richtung Gaming. Für beide gibt es ein Cross-lizenzabkommen und Intel verpflichtet sich die AMD-GPUs als iGPU zu verwenden. Win-Win, außer für Nvidia.
 
Zuletzt bearbeitet:
Und was da für ein Deal mit Intel abläuft weiß man auch nicht. Raja geht zu Intel, man kündigt eine Performance-Grafikkarte für die Zukunft an, stampft so gleich Xeon Phi ein, Vega taucht als Kabylake-G in einer Kooperation auf. Alles sehr merkwürdig. Meine Prognose: Intel optimiert Vega mit Raja richtung Datacenter, AMD Richtung Gaming. Für beide gibt es ein Cross-lizenzabkommen und Intel verpflichtet sich die AMD-GPUs als iGPU zu verwenden. Win-Win, außer für Nvidia.

Interessant, d.h. für Nvidia wird es in Zukunft noch schwerer werden sich am Markt zu behaupten, da Intel in den Markt für performance-Grafikkarten einsteigt mit AMD als Partner an der Seite, die strategische Ausrichtung, die du skizzierst könnte wirklich zutreffen und hört sich vielversprechend an. :)
 
Zuletzt bearbeitet:
Dir ist schon bewusst, dass "Poor Volta" seitens AMD von Anfang 2017 ist? VOR dem 1080TI Release. WEIT vor dem GV100 Release und grob ein dreiviertel Jahr vor einer kaufbaren Vega GPU seitens AMD?

Mit einer TitanV hat das nichts, aber auch gar nichts am Hut... Entweder AMD hat zu der Zeit noch gedacht, das wird was mit Vega, oder man war schlicht äußerst naiv. Denn die abgespeckte TitanXP von Okt. 2016 gabs ja da schon - die wussten zu 100% genau was Vega (war) ist, als man die Aussage tätigte und auch, was man sich davon erhofft (e).

Was dann draus geworden ist, naja... Offensichtlich ist in den ca. 8-9 Monaten nach dem Video etwas passiert (oder eben nicht passiert).
Was ist denn daraus geworden? Ein fetter Deal mit Intel...und ein fetter Deal mit Apple....und ein fetter Deal mit den Konsolenherstellern, eine gut positionierte APU.

Und was soll das bitte mit Pascal zu tun haben, Titan Xp? Da steht ja nicht Poor Pascal...

Wenn du glaubst die IHV wüssten nicht schon ein paar Monate vorher was der andere dann irgendwann launchen wird, dann glaubst du echt noch an das Gute im Menschen.
Volta stand jedenfalls ganz klar in Nvidias Roadmap, es gibt keinen Volta für Gamer (und wird es auch nicht geben), also Poor Volta...denn AMDs Kampange bezog sich klar auf Gamer GPUs.

Wie schlecht Vega imo oder AMD dabei ist, ist völlig belanglos. Die Frage ist wo AMD Vega positionieren wollte, dass sie Enthusiast nicht mehr bedienen hat Lisa Su vorab mitgeteilt. Das sie Gamer pushen wollen bleibt wie angekündigt, der Großteil ist nun mal nicht Enthusiast und die Gamer die eine Vega GPU ihr Eigen nennen sind damit zufrieden.

Vermutlich sind es insgesamt zu wenig, dass sich das für AMD wirklich lohnt, nur das wissen wir eben nicht. Manchmal macht es Sinn draufzuzahlen, um anderweitig doppelt oder dreifach zu profitieren.
 
Zuletzt bearbeitet:
Aber AMD bringt unglaublich viel Innovation in den Markt. Dutzende (neue) Features und Ideen(HBCC, Hardwarescheduler, low level APIs, Schader Cache, Asynchronous compute, Chill, Wattman, Das neue Overlay)...natürlich versagen davon einige, aber mich begeistert das.

Ja klar kam alles von AMD :rolleyes:

Es gibt unterschiedliche Arten von Schedulern und die Scheduler in der Hardware sind nichts Grafikkartenspezifisches. AMD und Nvidia nutzen beide Scheduler in der Hardware. Nvidia hat aber ab Kepler Teile von dem Scheduler der Hardware in den Compiler verlagert, um u.a. die Effizienz zu verbessern.

The Kepler Architecture: Efficiency Scheduling - NVIDIA GeForce GTX 680 Review: Retaking The Performance Crown


Auch ist Shader Cache nichts, was AMD erfunden hat. Nvidia hat dies sogar schon vor AMD genutzt.

Radeon Crimson im Test: AMDs karminroter Treiber kann mehr und ist schneller (Seite 4) - ComputerBase


Ich würde dir eher zustimmen, wenn du nicht allgemein von Async Compute schreibst, sondern anstatt besser nur Async Shadern erwähnst. :wink:


Dass das Marketing nicht besser ist bei AMD als bei der Konkurrenz ist richtig, aber das Vega durch das Marketing zum Fail wurde, sehe ich nicht.

Naja schon irgendwie, u.a.

All AMD Radeon RX Vega 64 sins - VideoCardz.com
AMD stellt eigenen Entwicklungspfad für Primitive Shader ein (2. Update) - Hardwareluxx

Gerade diese widersprüchlichen Aussagen zu solchen Sachen wie Primitive Shadern sind schon ziemlich fail. Aber anstatt da mal irgendwie


Der Verbrauch der Karten ist zu hoch, das ist technisch mal eine Tatsache, dieser lässt sich aber überraschenderweise durch UV fast gänzlich beheben. Da hätte AMD mehr Feinschliff leisten müssen, keine Frage, aber das wird nun dem Kunden überlassen, das schreckt einige ab, andere aber weniger. UV ist mittlerweile ein Sport wie OC, so hätte AMD dies als Feature ausgeben sollen "massiv headroom for Uv" ;)

Ich sehe das eher als Nachteil, dass ich eine Karte erst einmal stundenlang oder auch tagelang optimieren muss, damit sie einigermaßen vom Verbrauch mithalten kann. Der Verbrauch der Karten ist für das was sie leisten einfach zu hoch, auch nach der Optimierung verbrauchen sie immer noch mehr als ihre unoptimierten Pendants. Auch lässt sich dies nicht fast gänzlich beheben. Vielleicht gibt es ein paar Perlen bei den Karten, wo das womöglich annähernd der Fall ist, aber spätestens wenn man die Pendants von Nvidia optimiert, dann wird die Lücke wieder größer.


Sicher dass da kein VP9 auf Vega in HW gehen sollte?

Wobei CB das mal getestet hat:
GPU-Beschleunigung für VP9: Pascal und Vega verbrauchen weniger Strom auf YouTube - ComputerBase

Ich zitiere mal aus dem von dir verlinkten Test:

Computerbase.de schrieb:
Nur Nvidia beschleunigt VP9 vollständig

Doch die Messung der separaten Leistungsaufnahme der Grafikkarten ist in diesem Fall nur die halbe Wahrheit. Der Grund dafür ist im von YouTube genutzten VP9-Codec zu suchen. Nvidia Pascal kann den in vollem Ausmaß mit der integrierten Videoeinheit in Hardware beschleunigen, alle GPUs von AMD im Vergleich können das hingegen nicht. Einen gewissen Anteil an der Rechenarbeit übernimmt hier weiterhin die Software und damit die CPU. Auf anderen Plattformen ist das mit dem überwiegend genutzten Codec H.264 kein Problem, auf YouTube hingegen schon.

Im Ergebnis benötigt das gesamte Testsystem mitsamt der GeForce GTX 1080 Founders Edition auf YouTube etwa 70 Watt. Mit einer Radeon Vega 64 sind es aber gleich 110 Watt und damit 40 Watt oder fast 60 Prozent mehr. Dies lässt sich nur mit einer aktualisierten Videoeinheit lösen und benötigt entsprechend eine neue Hardware.

Also nicht immer nur die tollen Bildchen in solchen Tests anschauen, sondern auch mal den dazugehörigen Text lesen. ;)


Warum? Kaufst du nicht so wieso nur bei der Lederjake? :rofl:

Du bist doch immer so ein Verfechter von Preis/Leistung, warum jetzt nicht? Warum sollte man jetzt eine Vega vorziehen?

Vega ist schlechter verfügbar und teurer als ihre Pendants.

Ach stimmt ja, ist AMD... :rofl:


Interessant, d.h. für Nvidia wird es in Zukunft noch schwerer werden sich am Markt zu behaupten, da Intel in den Markt für performance-Grafikkarten einsteigt mit AMD als Partner an der Seite, die strategische Ausrichtung, die du skizzierst könnte wirklich zutreffen und hört sich vielversprechend an. :)

Noch Schwerer?

Nvidia über GPUs und Krypto: "Wir liefern 10x so viele GPUs" wie AMD

Man haben die es schwer. Die arme Lederjacke :fresse:


Wenn du glaubst die IHV wüssten nicht schon ein paar Monate vorher was der andere dann irgendwann launchen wird, dann glaubst du echt noch an das Gute im Menschen.
Volta stand jedenfalls ganz klar in Nvidias Roadmap, es gibt keinen Volta für Gamer (und wird es auch nicht geben), also Poor Volta...denn AMDs Kampange bezog sich klar auf Gamer GPUs.

Ok und welche Bedeutung hat Vega mit seinen, ka ~1% am Gamermarkt? Voll der Erfolg. :fresse:
 
@paddy92

AMD bringt in Summe mehr Innovationen, das ist mal Fakt.

Marketing ist nicht PR. (PR bei NV hat mal eben aus der gtx 970 3.5 + 0.5 ein Feature gemacht)

Für Leute die gerne testen und optimieren ist Vega gut, man kann viel rausholen und verbessern.

Wie es für nv in Zukunft weiter geht, weiß keiner, Hauptsache ist gib Konkurrenz. :)

Mir fällt gerade kein weiterer Vorteil der Vega ein?!
Ich bin kein Fanboy! Es wird das beste für den besten Preis gekauft.
 
Süss wie Paddy92 in allen Threads Intel/Nvidia immer verteidigen muss und alles glaubt, was Mr. Lederjacke alles so hin schwafelt.
 
Ich sehe das eher als Nachteil, dass ich eine Karte erst einmal stundenlang oder auch tagelang optimieren muss, damit sie einigermaßen vom Verbrauch mithalten kann. Der Verbrauch der Karten ist für das was sie leisten einfach zu hoch, auch nach der Optimierung verbrauchen sie immer noch mehr als ihre unoptimierten Pendants. Auch lässt sich dies nicht fast gänzlich beheben. Vielleicht gibt es ein paar Perlen bei den Karten, wo das womöglich annähernd der Fall ist, aber spätestens wenn man die Pendants von Nvidia optimiert, dann wird die Lücke wieder größer.

Eine GTX lässt sich mit etwas Feintuning und UV natürlich ebenfalls optimieren, keine Frage (wenn auch nicht in solchem Maße wie Vega, da schon sehr nah am Optimum). Jedoch erreicht man mit Feintuning am Ende bei beiden Herstellern ein Ergebnis, was nicht sehr weit von einander entfernt ist. Ob die GTX 1080 mit 130W oder die Vega64 mit 155W bei gleicher Performance laufen, wäre im zweifel völlig egal.
Aber das ist natürlich ein sehr spezielles Szenario für Enthusiasten.
 
Ok und welche Bedeutung hat Vega mit seinen, ka ~1% am Gamermarkt? Voll der Erfolg. :fresse:

In Intel CPU Kombinationen, Mobile, Apple PCs, AMD APU PCs und Konsolen + Retailverkäufen?

Frag dich das mal selbst...der größte Anteil im PC Markt zappt auf Intel iGPUs umher. 60-70%...damit kannst du Onlinespiele locker zocken. VegaM ist zweimal so schnell.

Es gibt eben nicht nur Enthusiast.

Vega10 scheint da eine Kombilösung für Instinct/Pro/Gamer/Mining zu sein. Nvidia legt dafür halt explizite Versionen auf, weil man genug verkaufen kann.
 
Zuletzt bearbeitet:
+1

Denke auch, dass bei Vega sehr viele Einsatzbereiche relevant sind, die auf Grund der Fertigungssituation/Marktlage nicht ganz erfüllt werden können, da ist es nur richtig sich auf die Geschäfte zu konzentrieren, die das meiste Potential haben.

Vega 10 ist mit einer Chipfläche von 484 mm² eine der größeren GPUs, die AMD in den vergangenen Jahren hergestellt hat. Und es könnte die letzte große GPU in absehbarer Zukunft sein. Dahingehend lassen sich jedenfalls die Informationen zu AMDs Vega-Nachfolgerarchitektur Navi zusammenfassen, die mehrere kleine Chips zu einer großen GPU vereinen könnte.
 
+1

Denke auch, dass bei Vega sehr viele Einsatzbereiche relevant sind, die auf Grund der Fertigungssituation/Marktlage nicht ganz erfüllt werden können, da ist es nur richtig sich auf die Geschäfte zu konzentrieren, die das meiste Potential haben.

Vega 10 ist mit einer Chipfläche von 484 mm² eine der größeren GPUs, die AMD in den vergangenen Jahren hergestellt hat. Und es könnte die letzte große GPU in absehbarer Zukunft sein. Dahingehend lassen sich jedenfalls die Informationen zu AMDs Vega-Nachfolgerarchitektur Navi zusammenfassen, die mehrere kleine Chips zu einer großen GPU vereinen könnte.
Navi ist Profisegment, Vega 20 in 7nm von TSMC neues Machine Learning? Dann sehen wir weiter. SPIL meinte dies jedenfalls und AMD kündigte es unterschwellig an.

Ich würde Vega als reine Architektur und Gen von GCN nicht gleich abschwören...was Vega10 angeht mag das ein anderes Thema sein. Hier müssen explizite oder proprietäre Tech's im Entwicklerbereich greifen, damit das Design schnell ist. Dann steht auch dem Verbrauch nichts im Wege...
 
Zuletzt bearbeitet:
Ich bin kein Fanboy!

:rofl:

Deswegen reagierst du auch so trotzig und zeigst die Fehler des anderen Unternehmens auf. Natürlich mit der absoluten Trumpfkarte eines jeden AMD-Fanboys, mimimi 3,5 Speicher :d


Eine GTX lässt sich mit etwas Feintuning und UV natürlich ebenfalls optimieren, keine Frage (wenn auch nicht in solchem Maße wie Vega, da schon sehr nah am Optimum). Jedoch erreicht man mit Feintuning am Ende bei beiden Herstellern ein Ergebnis, was nicht sehr weit von einander entfernt ist. Ob die GTX 1080 mit 130W oder die Vega64 mit 155W bei gleicher Performance laufen, wäre im zweifel völlig egal.
Aber das ist natürlich ein sehr spezielles Szenario für Enthusiasten.

Nur das es keine Vega 64 gibt, welche bei 155W die gleiche Performance wie eine 1080 leistet.

Die kaum vorhandenen UV-Tests zu Pascal scheinen den Leuten leider irgendwie zu suggerieren, dass dies bei Pascal kaum oder nichts bringen würde. Pascal ist schon sehr effizient und daher interessiert sich kaum jemand dafür, d.h. aber noch lange nicht, dass diese sehr nah am Optimum laufen. Woher kannst du dann solche Aussagen treffen? Hast du irgendwelche Vergleiche?

Falls nein, hier mal ein Link als Leitfaden, was so in etwas bei Pascal mit ein wenig Optimierung herausgeholt werden kann: 3DCenter Forum - nVidia - GTX 1080 Green Edition - Ein Selbstversuch

Laut den meisten UV-Tests die ich zu Vega64 kenne, kann man diese auf ~300W bringen. Das wären immer noch gute 100W über einer unoptimierten 1080 bei gleicher Performance. Also von nicht mehr weit entfernt sehe ich da nicht sonderlich viel...

Aber über solche Sachen zu debattieren ist eh müßig, denn jeder hat unterschiedliche Maßstäbe. Alleine schon wie definiert man stabil laufen bei einer Grafikkarte? Während es dem einen reicht, dass seine Grafikkarte bei seinen 2-3 Lieblingsspielen nur alle 3 Stunden einmal abschmiert, muss es für den anderen 24/7 unter jedem Workload 100% stabil laufen. Solch unterschiedliche Anforderungen können schon mal eben so bei der gleichen Karte 10, 20 oder auch 50 Watt ausmachen.


Frag dich das mal selbst...der größte Anteil im PC Markt zappt auf Intel iGPUs umher. 60-70%...damit kannst du Onlinespiele locker zocken. VegaM ist zweimal so schnell.

Weil es denen vollkommen ausreicht. Warum sollten diese 60-70% (woher auch immer diese Zahlen stammen) jetzt auf einmal wechseln oder einen großen Bedarf an mehr haben? Den meisten bringt diese doppelte Geschwindigkeit nichts, daher werden die auch nicht wechseln. Von diesen 60-70% sind die wenigsten Gamer...
 
:rofl:

Deswegen reagierst du auch so trotzig und zeigst die Fehler des anderen Unternehmens auf. Natürlich mit der absoluten Trumpfkarte eines jeden AMD-Fanboys, mimimi 3,5 Speicher :d

Also bitte das mit dem mimimi und 3.5GB das war auch ich, bitte hier nicht nur den Holzmann nennen. Ich war hier von direkt Betroffener und finde daher NV einfach Scheisse. Fühle mich hier von dir übergangen.
 
Laut den meisten UV-Tests die ich zu Vega64 kenne, kann man diese auf ~300W bringen. Das wären immer noch gute 100W über einer unoptimierten 1080 bei gleicher Performance. Also von nicht mehr weit entfernt sehe ich da nicht sonderlich viel...

Dann schau dich mal hier um, kannst noch was lernen:
[Sammelthread] AMD RX VEGA Sammelthread + FAQ

Bzgl. Fanboy und GTX970, ist ein anderes Thema, ich hatte seinerzeit 2 Karten davon und selber keine Probleme in dem einen Spiel welches ich nutzte, aber hier geht's eher ums Prinzip. :angel:
 
Zuletzt bearbeitet:
Weil es denen vollkommen ausreicht. Warum sollten diese 60-70% (woher auch immer diese Zahlen stammen) jetzt auf einmal wechseln oder einen großen Bedarf an mehr haben? Den meisten bringt diese doppelte Geschwindigkeit nichts, daher werden die auch nicht wechseln. Von diesen 60-70% sind die wenigsten Gamer...

Letztlich ist AMD ein Unternehmen wie jedes anderes, die verkaufen dir was du brauchst, suchst und so soviel wie möglich davon...reichen ist dabei daher eine unpassende Wortwahl.

Die Zahlen stammen aus den iGPU versus dGPU Marktanteilen was sonst und die sind seit Jahren relativ stabil. Nvidia mag ja 70% des dGPU Geschäfts beherrschen oder noch mehr, aber nicht alle die daddeln brauchen dGPUs. Da irrst du dich gewaltig. Gibt genug Games für kleines Geld die nicht unbedingt 3D AAA Titel und trotzdem ziemlich beliebt sind. Appel macht es vor. Wenn auf deren Grafikeinheiten die Titel laufen, laufen sie auf AMD Vega Mobile ganz sicher. Das ist zwar immer noch kein mGPU 1060 Level, aber spart ungemein Saft bei ab 15Watt für die gesamte APU. Denke mal Intel interessiert sich nicht umsonst für Vega. Muss nicht immer schneller-breiter-höher sein.

Den Enthusiasten hilft das sicher nicht, daher nennt es AMD nunmehr in Bereichen von Vega10 Instinct/Pro/Gaming Premium, nicht mehr Enthusiast, was sich auf das eigene Portfolie fokussiert. Wem das nicht reicht, der kauft halt bei Konkurrenz. Wo ist das Problem? AMD muss nicht dafür sorgen das die Konkurrenz ihre Hardware billiger oder preiswert anbietet, dass scheint denen nicht mehr wichtig zu sein. Zu Recht wenn du mich fragst. Sie entwickeln für denjenigen der sich für AMD Hardware interessiert, der Rest kann ihnen egal sein. Wenn das teilweise nur kleine Chargen sind, ist das eben so. Interessenten gibt es trotzdem noch genug, wie man auch bei Vegagen sieht (ob jetzt iGPU oder dGPU oder ähnlich - egal).

Letztlich zählt der Gesamtumsatz und die Auslastung der Fertigungsstrecken...der scheint dann zu stimmen.
 
Also bitte das mit dem mimimi und 3.5GB das war auch ich, bitte hier nicht nur den Holzmann nennen. Ich war hier von direkt Betroffener und finde daher NV einfach Scheisse. Fühle mich hier von dir übergangen.

Damit du dich nicht übergangen fühlst: "Du pöser Fanpoy!" :fresse:

Mir ist es relativ egal, wer welche Marke aus was für Gründen toll oder weniger toll findet. Auch sind dann solche Leute für mich kein Fanboy oder was auch immer. Nur bei dem Trollaccount Holzmann finde ich es äußerst Amüsant, wenn er schreibt, dass er kein Fanboy sei, aber in jedem Thread auf Bildzeitungsniveau versucht AMD in den Himmel zu loben, jegliche (auch gerechtfertigte) Kritik an AMD irgendwie zu entkräften oder auch gerne mal persönlich wird und andere als Intel oder Nvidia Fanboys abtut, wenn es aufgrund der eignen nicht vorhandenen Ahnung mal nicht so mit dem Argumentieren klappt. Also hier ist es eher was persönliches, daher fühle dich nicht übergangen. :wink:


Dann schau dich mal hier um, kannst noch was lernen:

Und jetzt versuch noch einmal zu verstehen, was ich wohl mit diesem Absatz gemeint habe: Aber über solche Sachen zu debattieren ist eh müßig, denn jeder hat unterschiedliche Maßstäbe. Alleine schon wie definiert man stabil laufen bei einer Grafikkarte? Während es dem einen reicht, dass seine Grafikkarte bei seinen 2-3 Lieblingsspielen nur alle 3 Stunden einmal abschmiert, muss es für den anderen 24/7 unter jedem Workload 100% stabil laufen. Solch unterschiedliche Anforderungen können schon mal eben so bei der gleichen Karte 10, 20 oder auch 50 Watt ausmachen.


Na dann schau mal:]

Dir ist aber schon bewusst, was "GPU only Power Draw" bedeutet oder? Dieser Wert ist nur der reine Verbrauch von dem Chip. Die Grafikkarte besteht aber nicht nur aus dem einen Chip, sodass auch noch andere Faktoren eine Rolle spielen für den Gesamtverbrauch. Zusätzlich zum "GPU only Power draw" kommen u.a. noch die Speichermodule, da Speicherinterface, die VRMs, Wandlungsverluste, Lüfter usw... Außerdem sind solche softwarebasierten Hochrechnungen nicht sonderlich akkurat und können daher eher als Annäherungswert betrachtet werden.

Zudem frage ich mich, wie hoch ist der Verlust an Leistung bei einen verringerten Takt auf ~1400 MHz? Takten die Vega nicht höher?


Nvidia mag ja 70% des dGPU Geschäfts beherrschen oder noch mehr, aber nicht alle die daddeln brauchen dGPUs. Da irrst du dich gewaltig.

Habe ich das behauptet!? Irgendwie ja nicht..

Ich fragte dich, welche Bedeutung Vega am Gamermarkt (Einschränkung wurde von dir getroffen, warum auch immer, da Vega nicht nur für Gamer konzipiert wurde und auch nicht die Kampange auf Gamer only bezogen war) mit seinen ~1% hat und du fängst an irgendwas von iGPUs zu faseln. Darauf habe ich dir geantwortet, dass nur die wenigsten von diesen iGPUs für Gaming benutzt werden. Die meisten nutzen diese womöglich nur für die einfache Ausgabe von Bild oder Multimedia und daddeln auf einem anderen PC oder einer Konsole. Damit habe ich also keines Wegs behauptet, dass man fürs daddeln eine dGPU brauche.
 
@paddy92
Dir wurde jetzt mehrfach aufgezeigt, wie sich Vega in der Praxis macht, viel Ahnung scheinst du von der Sache eh nicht zu haben, zudem Resistent gegen jedes sachliche Argument. Was soll dein Gejammer dann bloß?

Und zeig mir mal ein Beispiel, wo ich Fanboy Äußerungen tätige, es ist bei dir vielmehr so, wenn dir die Argumente ausgehen, wird die Fanboykeule geschwungen und zu Beleidigungen gegriffen . :shake:

Ich kann übrigens auch nichts dafür, dass Vega in vielen Bereichen einfach besser ist, als so mancher hier tut. :d
 
Zuletzt bearbeitet:
Habe ich das behauptet!? Irgendwie ja nicht..

Ich fragte dich, welche Bedeutung Vega am Gamermarkt (Einschränkung wurde von dir getroffen, warum auch immer, da Vega nicht nur für Gamer konzipiert wurde und auch nicht die Kampange auf Gamer only bezogen war) mit seinen ~1% hat und du fängst an irgendwas von iGPUs zu faseln. Darauf habe ich dir geantwortet, dass nur die wenigsten von diesen iGPUs für Gaming benutzt werden. Die meisten nutzen diese womöglich nur für die einfache Ausgabe von Bild oder Multimedia und daddeln auf einem anderen PC oder einer Konsole. Damit habe ich also keines Wegs behauptet, dass man fürs daddeln eine dGPU brauche.

1. du hast gefragt woher die Prozentangaben stammen. Ich habe dir darauf geantwortet.
2. du redest ständig von Vega, dass ist aber eine Architektur oder Gen von GCN, nicht eine einzelne Karte die du im Retailmarkt kaufen kannst.

Für Gamer hat Vega daher mehr Relevanz als du jetzt zig mal versuchst anders darzustellen. Das Vega10 nicht im Bereich von Enthuisasthardware der Konkurrenz mitreden kann (derzeit) habe ich bereits geschrieben. Ich weiß echt nicht wo dein Problem ist, du musst es nur lesen und verstehen wollen, wenn das nicht geht...was soll ich da machen, oder aber du präzisierst deine Aussagen (auf Vega10, Vega64, Vega56, Vega8m, Vega 10m oder in APUs).

Du kannst doch hier nicht allgemein behaupten Vega hätte für Gamer keine Relevanz, wenn Intel jetzt in dem 60-70% Bereich Vega GPUs verwenden will mit HBM auf dem gemeinsamen Substrat, wobei heute schon welche mit iGPUs von Intel spielen (Casual Gamer). Das ist doch völliger Humbug.

Du meinst AA-AAA Titel und Enthusiasthardware, das ist was anderes als Vega ganz allgemein und woher bitte stammen deine 1%, denkst du jeder hat eine Maxwell-Pascal-Karte im Rechner? Weit gefehlt...

*...nur mal so nebenbei, selbst wenn sie AA-AAA Titel auf einer Konsole daddeln, was denkst du wird dort als GPU genutzt,...Nvidia? Die PS4 und XoX sind vermutlich bereits Vega Gen.
 
Zuletzt bearbeitet:
Na dann schau mal:


Und, was soll das jetzt aussagen.
Ich kann auch sagen "Guckst Du" und nur 107W Verbrauch.
60% PT1.jpg

Ohne Zusammenhang Leistung/Performance ein nichts sagendes Bildchen.
 
Das sagt aus, dass user die threads besser lesen sollten, als sie nur zu ignorieren.

Mit UV lässt sich der Hauptkritikpunkt von Vega entkräften, das ist Fakt. Bernies Bild dokumentiert dies ganz gut, den Rest dazu kann man in dem thread nachlesen, den ich verlinkt habe, falls es interessiert. ;)
 
Zuletzt bearbeitet:
Bernies Bild dokumentiert garnichts.
Zumindest nicht mehr als mein Bild.
Oder darf ich jetzt behaupten meine GTX 1080 braucht mit ~1950MHz Takt und sogar 500MHz mehr Mem Takt als eine normale GTX 1080 nur 107W?

Solange der Zusammenhang nicht bekannt ist wie die Werte entstanden sind, hat das Bild keine Aussagekraft.
Ein bißchen mehr Informationen zu solch einem Screen wären durchaus angebracht, damit man den Wert überhaupt einschätzen kann.
Es kann ja gut sein das es ein guter Wert ist, aber ohne die Umstände zu kennen kann man das nicht einschätzen.
 
Ja das stimmt schon, geb ich dir recht, daher ja mein Link zu den Details.

Vielleicht kann Bernie ja hier noch den Rest posten oder den Bezug zu dem Benchmark, wäre nett. ;)
 
Zuletzt bearbeitet:
Bernies Bild dokumentiert garnichts.
Zumindest nicht mehr als mein Bild.
Oder darf ich jetzt behaupten meine GTX 1080 braucht mit ~1950MHz Takt und sogar 500MHz mehr Mem Takt als eine normale GTX 1080 nur 107W?

Solange der Zusammenhang nicht bekannt ist wie die Werte entstanden sind, hat das Bild keine Aussagekraft.
Ein bißchen mehr Informationen zu solch einem Screen wären durchaus angebracht, damit man den Wert überhaupt einschätzen kann.
Es kann ja gut sein das es ein guter Wert ist, aber ohne die Umstände zu kennen kann man das nicht einschätzen.

Natürlich nicht, dazu müsste man die GPUZ Power Draw Computation verstehen und wie diese Ihre Werte ermittelt. Entgegen von Behauptungen hier im Thread, liest sie auch Referenzen der VRM mit ein. GPU Only ist vermutlich Asic Power, dazu gehört der HBM2 und der Interposer dann schon mit dazu. Wie ineffizient die VRM einer Vegakarte arbeit, hatte Computerbase mal beschrieben, sie agiert auf MSI Lightning Z Level.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh