Wachstum des Grafikkartenmarkts um 10% - NVIDIA profitiert am meisten

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.867
nvidia.jpg
Geht es nach den neusten Entwicklungen im Grafikkartenmarkt, kann laut den Analysten von Jon Peddie Research ein Gesamtwachstum von satten 10 % gegenüber dem vorherigen Quartal verzeichnet werden. Vor allem NVIDIA scheint von der gestiegenen Nachfrage zu profitierten, denn der Marktanteil steigt im dritten Quartal auf 20 % und somit so stark wie bei keinem anderen Kontrahenten. Auch AMD kann seinen Anteil steigern, allerdings weniger stark. Der Marktanteil wird auf 16,1 % beziffert. Weiterhin an der Spitze ist Intel. Da das Unternehmen durch seine integrierte Grafikeinheit in den Prozessoren ein leichteres Spiel hat, wird hier ein Marktanteil von 68 % erreicht. Damit bleibt Intel weit vor...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hier werden Grafikkarten mit Grafikchips gleichgestellt. Das geht natürlich nicht.
 
Jo, denn die IGPs von Intel, die hier so hoch beziffert werden, sind häufig gar nicht im Einsatz und werden auch nicht gebraucht.
Das hat man am besten beim Start von Ryzen gesehen: Was die Leute nicht brauchen, ignorieren sie völlig - ein IGP ist kein Argument, wenn mein eine zusätzliche Grafikkarte einbaut.

Dennoch ist JPR kein Vorwurf zu machen, da sie ja die Verkäufe analysieren und deshalb keine Zahlen liefern können, wie die Karten dann tatsächlich eingesetzt werden.
Beispielsweise sieht man hier auch, dass offensichtlich AMD und Nvidia laut ihrer Marktanalyse etwa gleich viele Chips verkauft haben, aber in verschiedenen Statistiken sind dennoch deutliche Unterschiede herauslesbar, was davon dann z.B. tatsächlich in Spielerechnern landet. Viele Chips sind für Mining etc. in Benutzung und sind hier auch aufgeführt.
 
Tja, wer keine bezahlbaren GraKas in die Läden bekommt, kann auch keine verkaufen. Bei mir wird es wohl auch auf eine GTX1080 rauslaufen.
 
Tja, wer keine bezahlbaren GraKas in die Läden bekommt, kann auch keine verkaufen. Bei mir wird es wohl auch auf eine GTX1080 rauslaufen.

Dir würde ich dringend eine Vega Custom empfehlen!
 
Beispielsweise sieht man hier auch, dass offensichtlich AMD und Nvidia laut ihrer Marktanalyse etwa gleich viele Chips verkauft haben, aber in verschiedenen Statistiken sind dennoch deutliche Unterschiede herauslesbar, was davon dann z.B. tatsächlich in Spielerechnern landet. Viele Chips sind für Mining etc. in Benutzung und sind hier auch aufgeführt.

Naja, bei AMD gibts eben genauso die APUs, die werden hier ja auch mit gewertet und pushen AMD offenbar in die Region von Nvidia.
 
Dir würde ich dringend eine Vega Custom empfehlen!

Ich habe es mir überlegt, habe mir auch überlegt, selber eine 56 mit Alphacool Eiswolf AiO zu bauen. Aber ich kann eine 1080 mit AiO für rund 630 Euro bekommen, ohne Gebastel, kühl, leise ...
Ich hätte gerne eine Vega für mein nächstes System verwendet aber ich sehe im Moment den Vorteil nicht. Und nächstes Jahr kommen beide schon mit neuen Chips ...
 
Dann aber auch das AKW und den Kühlschrank mit in den Warenkob legen !

Immer wieder diese schwachsinnigen Kommentare...

Der Test zur ASUS Strix Vega 64 zeigt doch wohl deutlich, dass auch eine solche Karte mit nem gescheiten Custom Kühler nicht übermäßig heiß wird.

Und was den Stromverbrauch angeht, so liegt dieser bei Last auch gerade mal 1/3 höher als der einer GTX1080 Custom. Klar verbraucht eine Vega vergleichsweise viel Strom, aber diese übertriebene Darstellung, dass man für diese Karten Unmengen Strom benötigt, während eine GTX1080 angeblich das totale Effizienzwunder darstellt, ist lächerlich.
Der Unterschied beträgt lediglich ca. 100W.

Wer also eine GTX1080 total effizient findet, bei einer Vega 64 hingegen von "AKW" spricht, macht sich ziemlich lächerlich.
 
Und nächstes Jahr kommen beide schon mit neuen Chips ...

Irgendwas neues wird sicher kommen, aber während Nvidia mit Volta schon was sehr konkretes in der Pipeline hat (GV100 wird ja bereits ausgeliefert), sehe ich AMDs Navi noch in deutlicher Ferne. 2017 erwarte ich da nur die eine oder andere Variante bekannter Chips (z.B. Vega 28 & 32), aber nichts wirklich neues, zumindest nicht im Highend-Bereich.
 
Immer wieder diese schwachsinnigen Kommentare...

Der Test zur ASUS Strix Vega 64 zeigt doch wohl deutlich, dass auch eine solche Karte mit nem gescheiten Custom Kühler nicht übermäßig heiß wird.

Und was den Stromverbrauch angeht, so liegt dieser bei Last auch gerade mal 1/3 höher als der einer GTX1080 Custom. Klar verbraucht eine Vega vergleichsweise viel Strom, aber diese übertriebene Darstellung, dass man für diese Karten Unmengen Strom benötigt, während eine GTX1080 angeblich das totale Effizienzwunder darstellt, ist lächerlich.
Der Unterschied beträgt lediglich ca. 100W.

Wer also eine GTX1080 total effizient findet, bei einer Vega 64 hingegen von "AKW" spricht, macht sich ziemlich lächerlich.

Nur 100 W ? Na wenn das so ist ! :lol:
 
Der Unterschied beträgt lediglich ca. 100W.

Wer also eine GTX1080 total effizient findet, bei einer Vega 64 hingegen von "AKW" spricht, macht sich ziemlich lächerlich.

Durschnittsverbrauch 173 Watt (GTX1080) vs 285 Watt (Vega 64) laut Tomshardware Tests.
8-16h Laufzeit am Tag, bei mir.
Strompreis von 0,2648

Im Jahr ist die GTX 1080 also 129,54 € billiger im Verbrauch.
Dazu sind 112 Watt weniger Kühlung nötig was den Lärmpegel reduziert.
Und was man auch gerne vergisst: Der Raum ist kühler, weil die ganze Abwärme ja irgendwo landet.

Mal von Lärm und Wärme abgesehen, nur die laufenden Kosten. Um Deine Worte zu nutzen: Wer 100Watt für wenig hält macht sich ziemlich lächerlich.

Da ich normal alle zwei Jahre eine neue GPU kaufe spart die 1080 rechnerisch 260 Euro. Für den Aufpreis kann ich eine 1080ti kaufen und habe immer noch weniger Verbrauchskosten (212Watt).

Also egal wie man es dreht und wendet, die Effizienz ist einer der wichtigsten Faktoren einer GPU. Leider wird das viel zu oft ignoriert, weil pure FPS und Euro Zahlen einfacher zu verstehen sind. Die Kosten über Zeit und die anderen Vorteile einer effizienten Karte sind deswegen aber dennoch vorhanden. Lärm und Wärme sind durchaus ein Punkt und Stromkosten sind sogar ein sehr deutlicher Faktor. Leute schachern wegen 50 Euro hin und her beim Kaufpreis rum, aber 100+ Euro im Jahr Strom soll irrelevant sein? Hä?
 
deine karte läuft 8 bis 16h am Tag auf volllast? respekt :d

ich nutze meinen pc vlt 3std am tag im schnitt und das ausschließlich zum zocken, daher käme es mir auf die stromkosten nicht an, aber 300Wh pro tag... so viel braucht mein Kühlschrank oder alle lampen in der Wohnung wenn sie 72h an sind... ivh mein wir haben 2017 da sind 100Wh schon viel. natürlich nicht wenn mans mit nem 3kW wasserkocher vergleicht aber ja....

mein pc und bildschirm ziehen 70W im idle, mein laptop 15W beim surfen, DAS macht einen unterschied, deswegwn surf ich nur am laptop bzw am handy das sind dann nochmal weniger watt.

nunja ivh hatte die 1080 schon vor vega aber ich würde sie mir trotzdem nivht kaufen, denn wie du sagst Lautstärke Wärme usw. ist ja auch da zumal vega auch langsamer ist als meine 1080 und die mir wiederum zu langsam ist für 4k.
 
Die Werte von Toms Hardware sind keine Vollastwerte, sondern Durchschnittswerte beim Gaming.
Vollast ist nochmal ne gute ecke drüber. Vega geht da bis 500 Watt+ ;-)

Mein PC läuft auch zur Arbeit unter hoher Last, gaming ist danach als Freizeit der Bonus. Also ja, die Karten bei mir laufen schon ne Weile am Tag.
Das Geld würde mich auch ehrlich (persönlich!) weniger belasten. Was mich mehr stört ist die Hitze und der Lärm die unweigerlich durch "nur 100 watt extra" entstehen.

Da kann auch kein magischer Treiber oder Wunderkühler helfen. 100 Watt mehr, sind halt 100 mehr. Wenn ein Kühler genauso leise agiert bei der Extralast, dann wäre er noch leiser wenn die Extralast eben nicht wäre.
Und die Wärme im Raum verschwindet ja nicht, nur weil sie von der GPU weg ist. Ich muss jetzt schon 27-30 Grad im Sommer ertragen. Vega würde rein rechnerisch meine Raumtemperatur um 2-3 Grad erhöhen.

Ich würde schmelzen!

Aber mal kurz zum eigentlichen topic:
Diagramme mit integrierten GPUs sind doch mehr als irrelevant. So ein Diagramm nur mit dGPUs wäre viel aussagekräftiger.

Sinkender Absatz an dGPUs? Klar! Ultrabooks werden ja auch immer performanter und sind für sau viele Tasks ausreichend. Da ist zumeist keine GPU drin. Die GPU-Nachfrage war vorher also nur deswegen höher, weil viele Leute halt eine GPU im Laptop gehabt haben, obwohl sie nicht benutzt wurde. Jetzt kaufen sie halt ein Ultrabook.
Also riesen Panik um nix.
 
Mir doch egal was NV verkauft, Vega und Freesync ist eh günstiger.
 
Muss ja auch so sein, schlieslich kostet der Strom bei AMD deutlich mehr..
Er hat doch im Zusammenhang auch Freesync erwähnt, das begrenzt nicht nur die FPS sondern den Gesamten Render Prozess -> spart Strom!
Selbst wenn sie mehr Verbrauchen, wer bietet denn noch Freesync an?
 
Ich sag nur der Preis für einen Monitor mit G-Sync oder Freesync. Da kann man eine weile Stromverbraten. Bevor man soweit ist, kommt die nächste GPU Gen. .

PS.: Jetzt ist in meinem Zimmer keine Heizung nötig, hat doch auch was ;-)
 
Zuletzt bearbeitet:
8-16h Laufzeit am Tag, bei mir.

Durchschnittliche Arbeitszeit bei einer 40Std Woche abzüglich Urlaub sind gerade einmal 4,9Std durchschnittlich pro Tag.

Die Stromkosten sind ein Problem? Wenn die Angabe stimmt hast du ein ganz anderes Problem. ;)

Wie gesagt wir reden von Volllast. Also kein League of Legends, kein Surfen, etc... Rechne noch mal mit 1,5 bis 2 Std. Alles andere ist schon koreanischer-Super-Nerd.
 
Zuletzt bearbeitet:
Er hat doch im Zusammenhang auch Freesync erwähnt, das begrenzt nicht nur die FPS sondern den Gesamten Render Prozess -> spart Strom!
Selbst wenn sie mehr Verbrauchen, wer bietet denn noch Freesync an?

Wer braucht denn noch Freesync ? Es ist Wurstegal das das offen ist ,defacto ist Nvidia G-Sync und AMD Freeseync, ich jedenfalls bin nicht für ideologischen Monitorkauf zu gewinnen und kaufe mir einen G-Sync Monitor, einfach weil die Chance das die nächste Karte wieder ne Nvidia wird deutlich höher ist weil von AMD seit geraumer Zeit nur Aufgewärmte alte sosse kommt. Vega war nix als die Fury wieder aufgewärmt..

Achja Nvida spart auch Takt bei G-Sny und schon ist der Abstand wieder da beim Verbrauch.

Es wird echt immer ulkiger an welche (auch argumentativen) Strohhälme sich hier die AMDler klammern..
 
Jo, denn die IGPs von Intel, die hier so hoch beziffert werden, sind häufig gar nicht im Einsatz und werden auch nicht gebraucht.
Das hat man am besten beim Start von Ryzen gesehen: Was die Leute nicht brauchen, ignorieren sie völlig - ein IGP ist kein Argument, wenn mein eine zusätzliche Grafikkarte einbaut.

Wie kommst du darauf?
Bring doch mal ein paar konkrete Zahlen. So wie ich das Diagramm sehe, Intel sinkt in dem Maße wie NV und AMD steigen. Deine Aussage deckt sich also nicht mit dem Diagramm. Selbst WENN man auf 100% kommuliert und davon ausgeht, jede dGPU von AMD und NV wird mit einer abgeschalteten IGP von Intel gepaart, dann würde A) AMD wie Intel gar keine CPUs ohne IGP verkaufen (also auch kein Ryzen) und B) wären es nur grob 35% in Summe. Welchen der drei GPU Hersteller nutzen denn all die anderen 65%, wenn es nicht AMD oder NV ist? ...


Es ist eher wie so oft beim Thema AMD, die verblendeten Forennerds scheitern an ihrem Tellerrand. Lügt euch nur selbst weiter in die Tasche, bringt AMD nur nicht weiter, ist aber wenigstens amüsant ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh