AMDs Boardpartner fahren Custom-Vega-Modelle auf Sparflamme

Du willst aber jetzt nicht wirklich den Wert mit 85% Load bei der 1080 mit dem peak Wert von Vega vergleichen, oder?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und der MC bei 48% umher dümpelt. VDDC und VDDCI sind die Werte für die Ermittlung...aber egal, ist weit offtopic.:)
 
Du willst aber jetzt nicht wirklich den Wert mit 85% Load bei der 1080 mit dem peak Wert von Vega vergleichen, oder?

Ich will garnichts vergleichen.
Mein Bild sagt ja im Endeffekt genauso wenig über die Leistung aus wie das von Bernie.
Deshalb habe ich das ja bemäkelt.
Sind das Werte von einem Spiel/Benchmark oder GPU-Z Test? Wie ist die dazu gehörige Leistung?
 
Ich will gar nichts vergleichen.
Kann man auch nicht. Ist tatsächlich nichtssagend. Man muss aber zustimmen, dass der Vegathread den Holzmannn verlinkt hat, wirklich interessant ist. Dort findet man sein Setting auf jeden Fall. Igor V. von THW ermittelte auch den Gaming Vega64 Power Draw, weil man den gezielt mit dafür geeignetem Equipment bei anliegenden Voltagen messen muss. Programme sagen dazu nichts aus, sind alles nur Anhaltswerte - da hast du vollkommen Recht.

Meine GPU only liegt bei 150W und 1530MHz unter Wasser (average Gaming), denke mal die Karte zieht so keine 200W, dass Gesamtsystem (siehe Info) zieht ca. 285-300W an der Steckdose, 60fps sind meist drinne (1800p-2160p je nach Quali).

Man kann jede GPU hoffnungslos "absaufen" lassen.
 
Ich hatte selber eine Vega und die Werte bei mir waren ganz die anderen.

Mit 1V max schaffte ich 1530Mhz bei 800Mhz Vram und mit diesen Werte lag der Hotspot bei 80°C. Die Karte mit Stock-Werte hat öfters gedrosselt, was man in Spielen dies bemerken konnte. Mit 140Watt bezweifle ich, dass sie schneller als die GTX1070 ist. Es ist wie mit einem Notebook - man darf nicht behaupten, dass Notebook mit nur 100W maxiamal Verbrauch gleich schnell als Desktop PC ist.

Vielleicht die neuen Versionen viel besser. Da meine Karte mit normalem Gaming leicht über 200Watt verbraucht hat. Da hat sich was getan.:hmm:
 
@Josedan/Schaffe (oder wer auch immer) und satuan :wink:

Dir wurde jetzt mehrfach aufgezeigt, wie sich Vega in der Praxis macht, viel Ahnung scheinst du von der Sache eh nicht zu haben, zudem Resistent gegen jedes sachliche Argument. Was soll dein Gejammer dann bloß?

Du gehst doch gar nicht auf mein Argument ein...

Aber jetzt erklär mir bitte einmal, warum ich eher irgendwelchen Leuten aus einem Forum glauben sollte, als Redaktionen, die sich womöglich besser auskennen, besseres Equipment haben, womit sie ihre Messungen nachweisen können, und auf ihren guten Ruf achten müssen, sodass es nicht sonderlich förderlich für diese wäre, falsche Ergebnisse zu publizieren.

Also ich halte mich lieber daran, was die ganzen Redaktionen für Werte ermitteln. Leider gibt es nicht einen einzigen (mir bekannten) UV-Vergleich zwischen einer Vega Karte und deren Pascal Pendant.

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx

Hier zieht eine Vega64 mit UV immer noch 100W mehr als eine 1080 FE ohne Optimierung.

Radeon RX Vega 64/56: 6 BIOS-Power-Modi und Undervolting im Test (Seite 2) - ComputerBase

Hier zieht eine Vega64 mit UV immer noch 300W. Eine Custom 1080 zieht um die 200 -220W. Also auch gute 100W+.
Zudem schreibt Computerbase selbst: Selbst mit einer optimierten Energieeffizienz ist Vega 10 jedoch immer noch ineffizienter als Nvidias Pascal-Architektur. Die GeForce GTX 1070 ist unter allen Umständen ein Stück effizienter als die Radeon RX Vega 56 und die GeForce GTX 1080 rückt zwar näher an die RX Vega 64 heran, der Abstand bleibt aber groß.

Aber ich gehe auf das Thema Stromverbrauch nicht weiter ein. :wink:

Und zeig mir mal ein Beispiel, wo ich Fanboy Äußerungen tätige, es ist bei dir vielmehr so, wenn dir die Argumente ausgehen, wird die Fanboykeule geschwungen und zu Beleidigungen gegriffen .

Eigentlich reicht es schon, nur auf das Bild aus deiner Signatur zu verweisen, aber wenn du ein Beispiel willst, dann liefere ich dir gerne eins. ;)

Nichts, aber was soll man, wenn dieser Vega thread von einer nvidia Drone überfallen wird. :(


1. du hast gefragt woher die Prozentangaben stammen. Ich habe dir darauf geantwortet.

Ja, weil du davor einfach anfingst von iGPUs zu faseln.


2. du redest ständig von Vega, dass ist aber eine Architektur oder Gen von GCN, nicht eine einzelne Karte die du im Retailmarkt kaufen kannst.

Das ist mit durchaus bewusst. Soll ich jetzt jedes mal explizit Vega64 respektive Vega56 da zuschreiben?


Du kannst doch hier nicht allgemein behaupten Vega hätte für Gamer keine Relevanz, wenn Intel jetzt in dem 60-70% Bereich Vega GPUs verwenden will mit HBM auf dem gemeinsamen Substrat, wobei heute schon welche mit iGPUs von Intel spielen (Casual Gamer).

Ja, aber es werden nicht ausschließlich Intel CPUs mit Vega Grafikeinheiten erscheinen.

Die Statistik sagt aber nicht sonderlich viel aus, denn sieht liefert keine Informationen darüber, ob diese iGPUs überhaupt genutzt werden. Bei jeder Intel CPU aus dem Mainstream der letzten Jahre ist eine iGPU mit dabei, ob du willst oder nicht. Auch wenn diese aktiv genutzt wird, weiß man nicht, was damit überhaupt gemacht wird. Vielleicht gibt es ein paar die damit auch spielen, aber die sind definitiv in der Minderheit. Ist das so schwer zu verstehen?


Du meinst AA-AAA Titel und Enthusiasthardware, das ist was anderes als Vega ganz allgemein und woher bitte stammen deine 1%, denkst du jeder hat eine Maxwell-Pascal-Karte im Rechner? Weit gefehlt...

Stimmt die 1% waren sogar noch ganz großzügig gerundet :fresse:

Laut der Steam Survey schafft es Vega nicht einmal über 0,31% zukommen, sodass sie zu Others gelistet werden.

Und nein, ich habe nicht gedacht, dass jeder eine Maxwell-Pascal-Karte im Rechner hat. Warum sollte ich?


*...nur mal so nebenbei, selbst wenn sie AA-AAA Titel auf einer Konsole daddeln, was denkst du wird dort als GPU genutzt,...Nvidia? Die PS4 und XoX sind vermutlich bereits Vega Gen.

Die aktuelle PS4 Pro nutzt Polaris und kein Vega. Bei der Xbox one X kommt ein Zwitter aus Polaris und Vega zum Einsatz, also keine vollständige Vega. Scorpio Engine: Microsoft erlutert SoC der Xbox One X - Golem.de

Natürlich nicht, dazu müsste man die GPUZ Power Draw Computation verstehen und wie diese Ihre Werte ermittelt. Entgegen von Behauptungen hier im Thread, liest sie auch Referenzen der VRM mit ein. GPU Only ist vermutlich Asic Power, dazu gehört der HBM2 und der Interposer dann schon mit dazu. Wie ineffizient die VRM einer Vegakarte arbeit, hatte Computerbase mal beschrieben, sie agiert auf MSI Lightning Z Level.

Ach und wie macht das Programm das? Woher willst du das wissen?
Du stllest wohl gerne einfach irgendwelche Behauptungen auf, auch wie letztens in den einem Thread, wo du einfach nur Wörter aufgezählt hast, die du mal irgendwo aufgeschnappt hast. :wink:

Hier sagt einer von den TECHPOWERUP Admins, dass es mit der Software nicht möglich ist den Verbrauch für die komplette Karte zu errechnen. die Software scheint nichts anderes zu machen als VDDC*VDDC Current zu rechnen. Andere Consumer wie u.a. der Speicher werden dabei nicht berücksichtigt, sodass der ermittelte GPU only Power Draw mal eben 90W geringer als der Gesamtverbrauch waren.

Wie sehr die Werte bei den Vega Karten voneinander abweichen müsste man mal ermitteln, aber Softwaremessungen sind eh nicht wirklich aussagekräftig und direkte Messungen an der Hardware mit entsprechenden Equipment sind da vorzuziehen.
 
Ach und wie macht das Programm das? Woher willst du das wissen? Du stllest wohl gerne einfach irgendwelche Behauptungen auf, auch wie letztens in den einem Thread, wo du einfach nur Wörter aufgezählt hast, die du mal irgendwo aufgeschnappt hast. :wink:

Du kannst einfach den Entwickler bei techpowerup im Supportthread fragen, da braucht es keinen Admin oder was du sonst noch für Kerzen für deine nebulösen Behauptungen aus der Schublade ziehen willst.

Und nein, mir gehts nicht wie dir...:asthanos:
 
Zuletzt bearbeitet:
Ist das jetzt gerade dein Ernst!? :wall:

Dieser Admin (W1zzard) ist ganz zufällig der Entwickler von dem Tool... Im Gegensatz zu dir stelle ich nicht einfach irgendwelche Behauptungen auf und sollte ich mal Vermutungen aufstellen, dann mache ich das i.d.R kenntlich.

Also kommt kein Beweis für deine Behauptung und du bockst einfach nur haltlos gegen meine Aussage? :asthanos:
 
@Topic

Wie es aussieht wird die Verfügbarkeit leicht besser. Mindfactory hat 4 Karten im Angebot.... das gab es ja bisher noch nie :d
 
Ist das jetzt gerade dein Ernst!? :wall:

Dieser Admin (W1zzard) ist ganz zufällig der Entwickler von dem Tool... Im Gegensatz zu dir stelle ich nicht einfach irgendwelche Behauptungen auf und sollte ich mal Vermutungen aufstellen, dann mache ich das i.d.R kenntlich.

Also kommt kein Beweis für deine Behauptung und du bockst einfach nur haltlos gegen meine Aussage? :asthanos:
Paddy gib es auf, es gibt eine Core-Power und die VRM dazu (12 Phasen, bestehend aus 1xIR35217 und 6xIR3589, LowSide=IRF6894 und HiSide=IRF6811), die kann bei 125°C und maximal
einen Output von 164Watts liefern (das zeigt GPUZ aber nicht an), dazu kommt die VRM des HBM (1 Phase/4C86N=ca. 7W Output), die des Memory Controllers, die der Hysterese, die des Ambilights und und und. Wenn du keine Ahnung hast...

Oder wie erklärst du dir das HW Info Core-Power, HBM-Power und GPU-Power einzeln ausliest und GPUZ nur einen einzigen Wert? Du wirfst einfach mit Nebelkerzen umher das einem übel wird. GPUZ ist ein Analysetool und lebt von den Daten die es auslesen kann! Wie Frank das programmiert, was es dann analysiert und visuell anzeigt ist sein Ding.

*es ist einfach anstrengend mit Typen wie dir eine solide Diskussion aufrecht zu erhalten. Wahrscheinlich bist du Schaffe, denn das würde gut passen, gleicher Diskussionsstil!

Hier:



Wie du dort siehst liegt die reine Corepower bei 1520MHz bei max 99Watts! Und jetzt hör auf so einen Bullshit zu verbreiten. GPU only ist mehr als die reine Corepower.
 
Zuletzt bearbeitet:
Ok gut den Punkt gebe ich dir.

Aber die Software (egal ob HWinfo oder GPU-Z) ist trotzdem nicht in der Lage den kompletten Verbrauch der Karte anzuzeigen. [OFFICIAL] HWiNFO/32/64 Thread - Page 134 - Overclock.net - An Overclocking Community

HWinfo now monitors GPU Chip Power (estimated) for AMD Hawaii and later GPUs. : Amd Achte auf die Beiträge von _Mumak_. Bei deinem Screen fehlen die Werte zu den VRM, sodass bei deiner Vega wohl nicht alles gemessen werden kann. Aber gerade VRM IN zeigt, wie viel Watt vom Netzteil gezogen werden und dieser Wert unterscheidet sich von der GPU Chip Power. :wink:
 
@paddy92

Hast du dir deine verlinkten Beiträge bis zum Ende durchgelesen? "Mumak" bestätigt doch, dass in der aktuellen Version von HWInfo die Werte nun korrigiert sind ... aber es ist doch letztlich auch egal, da wird hier über UV Potential von Vega gesprochen, dann aber dagegen gehalten, dass Programme diesen nicht festhalten können. :fresse:
 
Zuletzt bearbeitet:
Ok gut den Punkt gebe ich dir.

Aber die Software (egal ob HWinfo oder GPU-Z) ist trotzdem nicht in der Lage den kompletten Verbrauch der Karte anzuzeigen. [OFFICIAL] HWiNFO/32/64 Thread - Page 134 - Overclock.net - An Overclocking Community

HWinfo now monitors GPU Chip Power (estimated) for AMD Hawaii and later GPUs. : Amd Achte auf die Beiträge von _Mumak_. Bei deinem Screen fehlen die Werte zu den VRM, sodass bei deiner Vega wohl nicht alles gemessen werden kann. Aber gerade VRM IN zeigt, wie viel Watt vom Netzteil gezogen werden und dieser Wert unterscheidet sich von der GPU Chip Power. :wink:

Och - danke was 'ne Ehre, da bekomme ich von dir einen Punkt und nicht vom Mod wegen Trollerei. Man...vor paar Posting war ich noch zu "blöd". Was Mumak schreibt habe ich schon einfacher mit DaHell63 diskutiert, ohne gleich Thesen aufzustellen.

Und nein, die Messung der Rails ist wesentlicher Bestandteil und einer der Faktoren für die Lüfterregelung, wobei der Arbitrator viele weitere Faktoren mit einschließt - dazu gehören auch die fließenden Ströme, die vom VR gemeldet werden. Es gibt keine Highendkarten mit analogen IR's.. Ob AMD sie für Entwickler offen legt und was sie damit was anfangen können, ist wieder ein anderes Thema.

Bitte nicht Vegagen mit allen anderen GCN in einen Topf werfen, denn dort wird GPU only ganz sicher anders ermittelt.

Jetzt ist offtopic aber "off"...
 
Zuletzt bearbeitet:
Du bist doch immer so ein Verfechter von Preis/Leistung, warum jetzt nicht? Warum sollte man jetzt eine Vega vorziehen?

Vega ist schlechter verfügbar und teurer als ihre Pendants.

Ach stimmt ja, ist AMD... :rofl:




Noch Schwerer?

Nvidia über GPUs und Krypto: "Wir liefern 10x so viele GPUs" wie AMD

Man haben die es schwer. Die arme Lederjacke :fresse:




Ok und welche Bedeutung hat Vega mit seinen, ka ~1% am Gamermarkt? Voll der Erfolg. :fresse:

Jeder der Vega wollte (sowie ich) hat/hätte zum Release zuschlagen sollen. Es war klar, dass wenn die Miner ersteinmal Vega entdecken die Verfügbarkeit noch schlechter wird.

Mittlerweile hat man auch AMDs Strategie verstanden. Die Gamebundle waren nur dazu da den Gamern entgegen zukommen. Nach auslaufen der Bundels sollten die Karten nämlich weiterhin preislich so positioniert bleiben.

Durch das Mining sieht man auch was passiert wenn Wettbewerb ausbleibt.

Ich kenne die Vega Preise aktuell nicht, aber für mich ist ein Preis für die Vega64 zwischen 1080 und 1080Ti vollkommen okay. Die Performance liegt dort und das Featureset ist deutlich besser. Alleine Freesync, HBCC und primitiv Shader sind schon Mal mehr als... Ja was kann eigentlich eine GeForce besser bzw worauf kann man da zukünftig hoffen? Außer das einem vielleicht Dinge weggenommen werden (DX bei Kepler, vram bei Maxwell)?

Aktuell beneide ich keinen der eine neue Karte kaufen muss, aber ich kann AMD verstehen wenn sie ihre Karten zu den Preisen verkaufen die sie wert sind. Gemessen an der Rechenleistung für Miner sind sie das nunmal und solange die Dinger mit einer Boing 787 direkt vom Rollband abgeholt werden Ist der gamer verständlicherweise uninteressant.

Doppelter vram, mehr Leistung, gleicher Preis? klingt verrückt. Hat bei der 390 auch nicht viel gebracht. Nun zahlt der Fanboy sogar 300€ beim Monitor freiwillig drauf. Auch egal. Ich kann da AMD verstehen.

Mir ist Premiumhardware den Aufpreis wert. Wobei welcher Aufpreis? Bisher war jede AMD karte der letzten Jahre dem Gegenstück nach länger Nutzungsdauer überlegen. Bei Vega wird das nicht anders sein.

Meine Vermutung: Aktuell scheitert die Verfügbarkeit bei Vega10 am mangelnden HBM. Gut möglich, dass AMD bei Kabylake-G sich vertraglich verpflichtet hat Stückzahlen an Intel zu liefern. Immerhin wurde kabylake-G nach hinten verschoben was eindeutig dafür spricht. Da bleibt Vega10 auf der Strecke. Wie viele Karten an die Miner gehen weiß auch keiner. Die Marktsituation ist eh kein Maßstab für sinnvolle A vs B Empfehlungen.
 
Zuletzt bearbeitet:
Ich kenne die Vega Preise aktuell nicht, aber für mich ist ein Preis für die Vega64 zwischen 1080 und 1080Ti vollkommen okay.

Aktuell befinden sich die Vega64 preislich eher auf dem Niveau einer 1080ti.

PCIe mit GPU AMD (nach Serie): RX Vega 64 Preisvergleich Geizhals Deutschland
PCIe mit GPU NVIDIA (nach Serie): GTX 1080 Ti Preisvergleich Geizhals Deutschland

Während eine 1080 schon ein gutes Stück günstiger ist.

PCIe mit GPU NVIDIA (nach Serie): GTX 1080 Preisvergleich Geizhals Deutschland

Genau deswegen habe ich ja extra jetzt geschrieben. :wink:


Die Performance liegt dort und das Featureset ist deutlich besser. Alleine Freesync, HBCC und primitiv Shader sind schon Mal mehr als...


Das Freesync Argument ist so ein richtig fadenscheiniges Argument. Nicht jeder interessiert sich dafür. Ja ist ein Goodie was man mitnehmen kann, aber wirklich ausschlagend ist ja halt nicht für jedermann. Wenn man sich gerade bei dem Kauf einer neuen Grafikkarte auch einen neuen Monitor kaufen muss/will, ja dann könnte Freesync schon ein Vorteil sein oder wenn ein Monitor mit Freesync bereits vorhanden ist.
Wie lange behält man einen Monitor? 3, 5 Jahre oder länger? Nur weil es bei G-Sync einen Aufpreis gibt, zahlt man den doch nicht bei jedem Grafikkartenkauf...

Nehmen wir einfach mal zwei vergleichbare Asus Monitore und zwar den Asus PG279Q sowie den MG279Q.

ASUS MG279Q Preisvergleich Geizhals Deutschland
ASUS ROG Swift PG279Q Preisvergleich Geizhals Deutschland

Der Preisunterschied liegt aktuell bei ~250€. Wären die beiden Monitore von der Ausstattung her genau gleich und der einzige Unterschied zwischen den beiden Exemplaren würde sich allein nur auf die variable Synchronisierung beziehen, dann wäre der Aufpreis schon ziemlich happig, ABER dafür hat der PG folgende Vorteile:

Bessere Sync Range
Übertaktbar auf 165Hz
ULMB (auch wenn nicht gleichzeitig mit G-Sync nutzbar)
Keine Flickerprobleme wie bei Freesync

Und wenn man den Aufpreis auf 5 Jahre zieht, dann sind das gerade mal ~50€ pro Jahr. WOW was sind shcon 50€. Verrechne das mit dem erhöhten Stromverbrauch von Vega und der Aufpreis ist sogar noch geringer. Der Aufpreis für Premiumware ist es dir ja wert. ;)

HBCC bringt aktuell nicht wirklich viel und bei den aktuellen RAM-Preisen ist das ein Feature, welches man sich teuer erkauft. Es wird wohl noch etwas dauern bis die Spiele regelmäßig die 8 GB voll ausnutzen und damit schon ins Vram-Limit laufen. Bis dahin werden die aktuellen Vegas und Pascale wohl schon nicht mehr genug Rechenpower haben, sodass diese womöglich schon ersetzt wurden. Mit Pascal und Vega sind die 8 GB Vram ja gerade erst einmal Mainstream geworden.

Ja und für Primitive Shader sieht es ja auch nicht so rosig aus. AMD stellt eigenen Entwicklungspfad für Primitive Shader ein (2. Update) - Hardwareluxx


Ja was kann eigentlich eine GeForce besser bzw worauf kann man da zukünftig hoffen?

konstantere Leistung
bessere Effizienz
bessere Verfügbarkeit
etwas bessere Preise atm
Hersteller optimieren eher auf Nvidia, dank größerer Marktpräsenz (so ist doch immer der allgemeine Tenor hier, mimimi es wird nur auf Nvidia optimiert)
Gameworks
Highend wird beliefert (evtl. entscheidend bei der Monitorwahl, Nvidia liefert ab, bei AMD ist es ja eher fragwürdig)
vollständige VP9-Beschleunigung
usw. usf


Bisher war jede AMD karte der letzten Jahre dem Gegenstück nach länger Nutzungsdauer überlegen. Bei Vega wird das nicht anders sein.

Die Fury X war also nicht von AMD? :hust:

Und ich werde nicht auf diese Diskussion mit dir eingehen, da ich im Gegensatz zu dir nicht die ganzen Links irgendwo gespeichert habe für günstige Cherrypicks. :fresse:

BTW. Ernst gemeinte Frage: Hast du eigentlich irgendwo vorgefertigte Texte mit entsprechenden Links, weil du bei solchen Diskussionen fast immer mit den gleichen Texten kommst. :d


Meine Vermutung: Aktuell scheitert die Verfügbarkeit bei Vega10 am mangelnden HBM. Gut möglich, dass AMD bei Kabylake-G sich vertraglich verpflichtet hat Stückzahlen an Intel zu liefern. Immerhin wurde kabylake-G nach hinten verschoben was eindeutig dafür spricht. Da bleibt Vega10 auf der Strecke.

Und dazu noch die ganzen Karten, die an Apple gehen. Solche Vereinbarungen haben natürlich Vorrang und müssen beliefert werden, denn sonst hagelt es Vertragsstrafen.
 
Das Freesync Argument ist so ein richtig fadenscheiniges Argument. Nicht jeder interessiert sich dafür. Ja ist ein Goodie was man mitnehmen kann, aber wirklich ausschlagend ist ja halt nicht für jedermann.

Klinke mich nur hier ein.
Ja korrekt, für jemanden der es noch nie hatte, ist es nicht ausschlaggebend, aber niewieder will ich z.B. auf Freesync oder Gsync verzichten, ohne dieses gadget Zocken, ist direkt wieder back to the Steinzeit, dies hat ordentlich Bild Flow gebracht, genauso wie der Aha Moment von HDD auf SSD damals. Freesync oder eben Gsync sind für die Leute die es kennen, nicht mehr verzichtbar. In meinem ganzen Freundeskreis, wo eben diese Techniken angewandt werden, möchte niemand mehr ohne dieses Feature spielen, weil der Effekt eben so gut ist.

Das nur mal am Rande nebenbei
 
Zuletzt bearbeitet:
Die Frage, die sich hierbei bei mir stellt ist, kam es bei dem Wechsel des Monitors auch gleichzeitig zu einem Wechsel der Refreshrate? Denn der Unterschied zwischen 60 Hz und 120/144 Hz sind oft das was die Leute deutlich spüren, aber da sie gleichzeitig von 60 Hz + nonsync auf 120/144 Hz mit Adaltiv Sync wechseln, denken sie fälschlicherweise oft, dass diese Verbesserungen allein durch das Sync Feature zustande kommen.

Also bei mir war es zumindest so der Fall bei meinem Test. Da hatte ich auch den von dir beschriebenen Wow Effekt, als würde man von einer HDD zu einer SSD wechseln. Ich dachte mir auch G–Sync mache hier den Unterschied und sei das Beste Feature seit langem, aber nur solange, bis ich gemerkt hatte, dass ich so gut wie keinen Unterschied zwischen nonsync und G-Sync ausmachen konnte. Ich musste mich schon echt anstrengen, um überhaupt einen Unterschied zu merken. Vielleicht bin ich oder meine Augen auch einfach zu kaputt, ka :fresse:
 
Die Frage, die sich hierbei bei mir stellt ist, kam es bei dem Wechsel des Monitors auch gleichzeitig zu einem Wechsel der Refreshrate? Denn der Unterschied zwischen 60 Hz und 120/144 Hz sind oft das was die Leute deutlich spüren, aber da sie gleichzeitig von 60 Hz + nonsync auf 120/144 Hz mit Adaltiv Sync wechseln, denken sie fälschlicherweise oft, dass diese Verbesserungen allein durch das Sync Feature zustande kommen.

Also bei mir war es zumindest so der Fall bei meinem Test. Da hatte ich auch den von dir beschriebenen Wow Effekt, als würde man von einer HDD zu einer SSD wechseln. Ich dachte mir auch G–Sync mache hier den Unterschied und sei das Beste Feature seit langem, aber nur solange, bis ich gemerkt hatte, dass ich so gut wie keinen Unterschied zwischen nonsync und G-Sync ausmachen konnte. Ich musste mich schon echt anstrengen, um überhaupt einen Unterschied zu merken. Vielleicht bin ich oder meine Augen auch einfach zu kaputt, ka :fresse:

Moin, bei mir waren es lediglich 15Hz, also von 60 auf 75, ich habe aber auch schon auf einem 144Hz Monitor gespielt, das spielt sich auch sehr nice,da stimme ich dir zu, solange man sich bei 100fps+ aufhält, was passiert darunter...? Für viele sind 144hz+ einfach kein Grund zu wechseln , auch dem Grund der potenten Hardware geschuldet die man braucht, insbesondere dann, wenn Freesync bereits bei 120euro Monitoren angeboten wird und das Budget eh nicht reicht bei den Meisten. Einige geben, wenn überhaupt, 200€ aus, so meine Jahrelange Erfahrung, es sind wenige, die für ihren PC Monitor mehr ausgeben, als für ihre Glotze :fresse: Und in den bereichen 30-75Hz ist freesync oder auch GSync wirklich nett. Auch bei einem 144Hz+ Monitor, denn nicht immer erreicht man diese FPS und es gibt hier und da drops die nerven, hat man freesyc oder gsync, dann bleibt das Spielerlebnis bei niedrigen FPS mit diesen Technologien doch ein anderes, ein besseres.
 
Zuletzt bearbeitet:
Wenn die Preise irgendwann wieder in vernünftige Regionen kommen, wird Vega auch wieder interessant werden. Zur Zeit ist eben der Preis der entscheidene Faktor, natürlich auch bei Nvidia Karten.

Zur Zeit rüstet kein vernünftiger Mensch auf, Geduld ist fast schon Pflicht geworden. Ausser die Karte geht flöten. Selbst gebraucht sind die Preise einfach nur abartig in beiden Lagern.

Sind im Moment echt üble Zeiten für Aufrüster/Gamer/Alle :wall:

Ich glaube bis GPU,s ordentlich verfügbar werden sind wir schon weg von 14nm.
 
Wie viele Karten an die Miner gehen weiß auch keiner. Die Marktsituation ist eh kein Maßstab für sinnvolle A vs B Empfehlungen.
4-6-8 Stück (56, 64, FE), Farmen 200-1000. HBM ist genug da. Der 1070 oder ti gehts nicht anders. Die Hersteller Händler können nur noch die Preise hochjubeln, damit die Leute den Markt nicht komplett leer kaufen.
 
Zuletzt bearbeitet:
Wieso die Hersteller?
Im Moment scheint es eher so zu sein, dass die Händler den Preis hoch treiben... Wahrscheinlich bekommt von den Überpreisen der Hersteller effektiv keinen Cent mehr...
 
Wieso die Hersteller?
Im Moment scheint es eher so zu sein, dass die Händler den Preis hoch treiben... Wahrscheinlich bekommt von den Überpreisen der Hersteller effektiv keinen Cent mehr...

So schauts aus, die shops selber wirtschaften jetzt fein in die Tasche.
 
Wobei man vllt noch erwähnen sollte, dass es scheinbar auch wirklich eher wenig verfügbare Modelle gibt... Also der Händler zwar viel am Stück verdienten würde (oder ggf. nichtmal das, weil der Distri dahinter die Preise schon hoch trieb) aber aus mangel an hohen Verfügbarkeiten der Absatz in Summe trotzdem gering(er) ist.

Weis halt keiner so genau. Kann mir aber kaum vorstellen dass die Gamer 1080TIs für 900-1000€ das Stück kaufen :fresse:
Die Dinger haben phasenweise mal um die 700€ gekostet. Das sind 40%+ in ein paar wenigen Monaten...
 
Wieso die Hersteller?
Im Moment scheint es eher so zu sein, dass die Händler den Preis hoch treiben... Wahrscheinlich bekommt von den Überpreisen der Hersteller effektiv keinen Cent mehr...

Mittlerweile haben sowohl die Kartenhersteller als auch die GPU-Hersteller ihre Preise ordentlich angezogen. Gab ja entsprechende Meldungen dazu sogar.


Das mit den 10x mehr GPUs bei NV wird schon hinhauen. Die haben hier auch recht geschickt agiert. Man vergisst schnell, dass GP107 und GP108 bei Samsung vom Band laufen, das bedeutet, dass die komplette TSMC-Kapazität, die NV zur Verfügung steht, für GP106, GP104 und GV100 gebraucht wird. Mittlerweile reiht sich da GA104 noch mit ein. AMD produziert bei TSMC ausschließlich Semi-Custom und bei GloFo dürfte der Löwenanteil CPUs sein (erst recht jetzt mit RR auch noch dabei). Der Rest, der für GPUs übrigbleibt, wird von GloFo und Samsung abgedeckt. Das ist lange nicht soviel, wie NV zur Verfügung stellen kann.
 
Zuletzt bearbeitet:
Der Rest, der für GPUs übrigbleibt, wird von GloFo und Samsung abgedeckt. Das ist lange nicht soviel, wie NV zur Verfügung stellen kann.
IMO kommen neuere Prozessverfahren dann aus der FAB8 (Malta), Samsung kann sie nicht liefern. Sollte Vega auch auf 12LP umgestellt werden, kommt er vermutlich auch von dort. Samsung liefert den HBM mit mehr als 800MHz.

AMD hält am UVP von 499 fest, hat aber nur Einfluss auf die Preise wenn die Ware tatsächlich ins Ladengeschäft gelangt. Online ist eine Beeinflussung der Preise gesetzlich untersagt. Bei Distributoren liegt der Preis deutlicher unter 499 und daher werden sie dort gekauft.
 
Die 2. Maltafab startet 7nm EUV. Samsung liefert derzeit Vegas und Polaris für AMD mit aus. War ja auch einfach das zu Samsung zu migrieren, ist ja der gleiche Prozess. 12nm wirds für Vega nicht geben, das ist jetzt schon sicher. Vega 10 bleibt in 2017/18 ne Totgebuhrt für den GPU-Markt und Vega 12 (vormals Vega 11) wandert ausschließlich in Embedded-Märkte und Semi-Custom. Der einzige Vega, der 12nm erreichen wird, steckt in Picasso, dem RavenRidge-Nachfolger. Vega 20 wird ausschließlich für HPC sein. Und mit Navi wird mMn das Spiel einfach fortgesetzt, AMD wird da erst wieder in der Post-GCN-Generation mehr Energie rein stecken und ein komplettes Lineup auflegen (in 7 EUV eben), bis dahin ist mehr oder weniger Durststrecke angesagt. Die lehren uns jetzt das gleiche, was wir im CPU-Markt auch lernen mussten. Wenn der Konkurrent fehlt wirds halt teuer und scheisse.
 
Zuletzt bearbeitet:
Die 2. Maltefab startet 7nm EUV. Samsung liefert derzeit Vegas und Polaris für AMD mit aus. War ja auch einfach das zu Samsung zu migrieren, ist ja der gleiche Prozess. 12nm wirds für Vega nicht geben, das ist jetzt schon sicher. Vega 10 bleibt ne Totgebuhrt für den GPU-Markt und Vega 12 (vormals Vega 11) wandert ausschließlich in Embedded-Märkte und Semi-Custom. Der einzige Vega, der 12nm erreichen wird, steckt in Picasso, dem RavenRidge-Nachfolger.
Danke für die Info zur Malta Fab2!

Für den Gamermarkt...ja.
 
Die 2. Maltafab startet 7nm EUV. Samsung liefert derzeit Vegas und Polaris für AMD mit aus. War ja auch einfach das zu Samsung zu migrieren, ist ja der gleiche Prozess. 12nm wirds für Vega nicht geben, das ist jetzt schon sicher. Vega 10 bleibt in 2017/18 ne Totgebuhrt für den GPU-Markt und Vega 12 (vormals Vega 11) wandert ausschließlich in Embedded-Märkte und Semi-Custom. Der einzige Vega, der 12nm erreichen wird, steckt in Picasso, dem RavenRidge-Nachfolger. Vega 20 wird ausschließlich für HPC sein. Und mit Navi wird mMn das Spiel einfach fortgesetzt, AMD wird da erst wieder in der Post-GCN-Generation mehr Energie rein stecken und ein komplettes Lineup auflegen (in 7 EUV eben), bis dahin ist mehr oder weniger Durststrecke angesagt. Die lehren uns jetzt das gleiche, was wir im CPU-Markt auch lernen mussten. Wenn der Konkurrent fehlt wirds halt teuer und scheisse.

Gut geschrieben, kann ich (leider) nur zustimmen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh