AMDs Boardpartner fahren Custom-Vega-Modelle auf Sparflamme

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Highend wird beliefert (evtl. entscheidend bei der Monitorwahl, Nvidia liefert ab, bei AMD ist es ja eher fragwürdig)

Das wird wohl die wenigsten interessieren. Kauf doch nicht jeder eine 700€ Grafikkarte oder 1000€ CPU. Der Masswenmarkt wird bis 400 max 500€ Abgefrühstückt. Eine 3000€ teure Titan-V die ein teildeaktiviertet Compute-Chip ist interessiert die wenigsten. Soll ja trotzdem einige geben die beherzt zugreifen.

Wie gesagt die 4GB der Fury waren definitiv zu wenig. Die Fury-nonX war aber nur geringfüg teurer als eine GTX980 die ja ebenfalls nur 4GB hatte.

So oder so sind die Features einen Aufpreis wert. Und natürlich muss man den Aufpreis für Gsync berücksichtigen und umrechnen, weil es eben versteckte kosten sind. Wenn einen das Feature nicht interessiert auch ok, aber totreden ist einfach Bullshit.

Und wieviel VRAM genug ist wird man erst am Ende des Lebenszyklus sehen der natürlich auch davon abhängt wie lange man seine Karte behalten möchte. Ich sag nur GTX690 mit 2GB. In meinen Augen ist HBCC das genialste Feature der letzten 10 Jahre Grafikkartenentwicklung und definitiv ein dicker Pluspunkt.
 
So oder so sind die Features einen Aufpreis wert. Und natürlich muss man den Aufpreis für Gsync berücksichtigen und umrechnen, weil es eben versteckte kosten sind. Wenn einen das Feature nicht interessiert auch ok, aber totreden ist einfach Bullshit.

Woher nimmst du diese Sachen??? Mir wäre nicht bekannt, dass ich bei meinen bisherigen GPU Käufen irgendwo G-Sync berücksichtigen MUSSTE. Auch gibts da keine versteckten Kosten und dergleichen.
Übertreibt doch nicht immer wenn euch irgendwas nicht passt? Was soll das? Wer G-Sync nicht will, kauft nicht. Da wird nichts totgeredet oder sonstwas, sondern es wird einfach nicht für relevant empfunden. Fertig.
Noch witziger ist ja immer, wenn die Aussagen von Leuten kommen, die davon überhaupt nicht betroffen sind... :wall: Mit deiner Tahiti kannste dir nämlich FreeSync auch klemmen ;) Also erzähl mal hier nichts über Sachen, wo du selbst seit Jahren offenbar ohne aus kommst. Macht nämlich immer ein ziemlich komisches Bild ;) Da du es ja offenbar auch ohne Sync aushältst oder ausgehalten hast - warum sollte das bei NV nicht auch so funktionieren?? Doppelmoral??

Und wieviel VRAM genug ist wird man erst am Ende des Lebenszyklus sehen der natürlich auch davon abhängt wie lange man seine Karte behalten möchte.

Es gab genügend Fälle, wo man von Anfang an schon wusste, dass es über die Laufzeit eng mit dem VRAM wird. Fiji gehörte dazu. GK104 im übrigen auch... Polaris/GP104/GP102 hingegen nicht. Vega? Abwarten... Nicht ganz raus. Mengenbedingt ist Vega im Nachteil ggü. GP102 - ob es der HBCC wett machen kann ist völlig offen...
 
@fdsonne

Wer macht sich bei Vega Sorgen um den VRAM, immerhin stehen bis zu 16GB zur Verfügung. :wink:
 
Das wird wohl die wenigsten interessieren. Kauf doch nicht jeder eine 700€ Grafikkarte oder 1000€ CPU.

Sie müssen die Karte ja nicht unbedingt kaufen. Das Liefern von Highend-Hardware, wo der direkte Konkurrent überhaupt nicht in der Lage ist, der Leistung irgendetwas entgegen zu setzen, suggeriert dem Kunden eine Überlegenheit. Viele Hardware-Käufer sind gar nicht so in der Materie drin und kennen womöglich kaum Benchmarks. Die haben nur mal irgendwo aufgeschnappt, dass Nvidia die schnellste Grafikkarte liefert und AMD nicht an diese herankommt, dann wird das wohl auch in den andere Bereichen so sein => Nvidia ist für diese überlegen und besser. So meine Vermutung.

Denn irgendetwas muss der Verein von der Lederjacke ja richtig machen, sodass sie ca. 10 mal so viele GPUs verkaufen wie AMD. Ich denke an der Lederjacke wird es nicht liegen :fresse:


Wie gesagt die 4GB der Fury waren definitiv zu wenig. Die Fury-nonX war aber nur geringfüg teurer als eine GTX980 die ja ebenfalls nur 4GB hatte.

Dafür auch deutlich ineffizienter. Genau das gleiche Problem was Vega auch hat.


Und natürlich muss man den Aufpreis für Gsync berücksichtigen und umrechnen, weil es eben versteckte kosten sind.

Naja wie oben aufgezeigt, so groß ist der Aufpreis ja nicht und wenn dich das Feature nicht interessiert, dann haste auch keinen Aufpreis ;)

Dir ist aber schon bewusst was versteckte Kosten sind?
Der Käufer weiß von vornherein, was er für die Grafikkarte und den entsprechenden Monitor bezahlen muss. Also nichts von wegen versteckte Kosten...

Ich sag nur GTX690 mit 2GB. In meinen Augen ist HBCC das genialste Feature der letzten 10 Jahre Grafikkartenentwicklung und definitiv ein dicker Pluspunkt.

Die 690er gab es auch mit 4GB. Irgendwie ist man ja aber auch selber schuld, wenn schon so viel für eine Grafikkarte bereit ist auszugeben und dann aber doch zu knauserig ist, den Aufpreis für doppelt soviel Vram auszugeben..


Wer macht sich bei Vega Sorgen um den VRAM, immerhin stehen bis zu 16GB zur Verfügung. :wink:


Ich wäre mir da nicht so sicher, dass das so einfach funktioniert. :wink:
 
Zuletzt bearbeitet:
Die Radeon Vega Frontier Edition.
 
Denn irgendetwas muss der Verein von der Lederjacke ja richtig machen, sodass sie ca. 10 mal so viele GPUs verkaufen wie AMD.

Energieeffizienz - sehr wichtig im Mobile Markt - wo AMD Jahrelang gar nicht vertreten oder nur mit immer nur umbenannten Refreshs vertreten war. Wie es aktuell ausschaut - keine Ahnung.

Die 690er gab es auch mit 4GB.

Soweit ich weis gab es die 690er nur mit 2x2GB... Es gab 4GB 670 und 680er, aber die Dual GPU Karte 690 gabs nur mit 2x2GB...

- - - Updated - - -

Die Radeon Vega Frontier Edition.

Ist neuerdings ne Gamerkarte? Wo wir hier über Spiele und deren VRAM Bedarf sprechen?
Aber egal, willst du Profimarkt -> GP102 gibts als Quadro mit 24GB. Macht also keinen Unterschied zur Aussage dass GP102 hier im Vorteil ist...
 
Ist neuerdings ne Gamerkarte? Wo wir hier über Spiele und deren VRAM Bedarf sprechen?
Aber egal, willst du Profimarkt -> GP102 gibts als Quadro mit 24GB. Macht also keinen Unterschied zur Aussage dass GP102 hier im Vorteil ist...

Bzgl. Gaming sehe ich das nicht so rosig, man kann zwar bei Quadro auch gforce Treiber nutzen, aber das Ergebnis ist nicht berauschend, das hat AMD einfach besser gelöst. :d
 
Naja wie oben aufgezeigt, so groß ist der Aufpreis ja nicht und wenn dich das Feature nicht interessiert, dann haste auch keinen Aufpreis ;)

Dir ist aber schon bewusst was versteckte Kosten sind?
Der Käufer weiß von vornherein, was er für die Grafikkarte und den entsprechenden Monitor bezahlen muss. Also nichts von wegen versteckte Kosten...

Natürlich sind das versteckte Kosten. Das ist doch klever gemacht. Man legt den Aufpreis einfach auf den Monitor und schwub ist die Grafikkarte vermeintlich preiswerter. Was kommt als nächstes? Kostenpflichtige Features per DLC? DX13 100€. Oder noch besser: Nvidia VRAM DLC - Schaltet deine vermissten 512MB wieder frei. Wäre auch nichts anderes. Freesync zeigt, dass es nicht notwendig ist die Kosten dem Monitorhersteller aufzubürgen. Und dieses Problem wegzudisskutieren macht es nicht nicht besser.
 
Zuletzt bearbeitet:
Bzgl. Gaming sehe ich das nicht so rosig, man kann zwar bei Quadro auch gforce Treiber nutzen, aber das Ergebnis ist nicht berauschend, das hat AMD einfach besser gelöst. :d

Die Aussage halte ich für an den Haaren herbeigezogen. Weder hast du je mit einer Quadro ernsthaft versucht zu spielen noch mit einer FE. Denn JEDE Quadro mit entsprechendem Bumms dreht kreise um eine im VRAM Limit hängenden Gamerableger... DAS war der Tenor der Aussage - VRAM Limit.
Auch spielt es absolut keine Rolle für die meinige Aussage ob du denkst, das Spielen auf einer Quadro wäre nicht "berauschend" und AMD löse das besser oder nicht...

Der Käufer einer 8GB Vega64 oder 56 kann sich von einer am Markt verfügbaren Vega FE ohne Gamingbezug auch absolut gar nichts kaufen... Was bezweckt die deinige Aussage also?
Es bleibt offen, ob die Gamerableger von Vega in Games der Zukunft ihren VRAM Mengennachteil kompensieren können oder nicht. WENN es also irgendwann so weit ist, dass Polaris und GP104 die Segel streichen - DANN kann Vega mit dem HBCC beweisen, dass das Feature Speichermenge wirklich kompensieren kann... Vorher bleibt es schlicht nicht benennbar.

Ah verdammt da war ja was. Ich hatte voll verschwitzt, dass es sich bei der 690 um eine Dual GPU handelt. :fresse:

Würdest du es drauf anlegen könntest du auch sagen, 2x2GB sind trotzdem 4 in Summe... :d
 
Natürlich sind das versteckte Kosten. Das ist doch klever gemacht. Man legt den Aufpreis einfach auf den Monitor und schwub ist die Grafikkarte vermeintlich preiswerter.


Kauf einfach keinen G-Sync Monitor und fertig die Laube. Du kommst ja offenbar ohne FreeSync aus mit deiner Tahiti GPU. Warum wetterst du über Features die du selbst nichtmal in der Lage bist auf technischer Seite nutzen zu können???
 
@fdsonne
Die Vega FE war aufgrund der aktuellen Preissituation zum Teil günstiger als eine RXVega und dann wird sie für Gamer auch relevant, eben gerade weil es keine Einbußen bei der Gaming Fähigkeit gibt, nur das war es, was ich zum Ausdruck bringen wollte. ;)
 
Also reimst du dir nen Strohhalm zusammen der mit der von dir zitierten Aussage absolut gar nichts am Hut hatte... Verstanden und wie immer.
 
Kauf einfach keinen G-Sync Monitor und fertig die Laube. Du kommst ja offenbar ohne FreeSync aus mit deiner Tahiti GPU. Warum wetterst du über Features die du selbst nichtmal in der Lage bist auf technischer Seite nutzen zu können???

Muss man sich Plutonium besorgen um Krebs zu bekommen, damit man Krebs schei**e finden kann?
Um es mal zu übertrieben...

Wenn das die Grundlage ist, sind auch viele deiner Kommentare obsolet... oder hast du alles daheim was du nicht gut findest, um darüber urteilen zu können?
Deiner Logik kann ich oft nicht folgen...
 
Kauf einfach keinen G-Sync Monitor und fertig die Laube. Du kommst ja offenbar ohne FreeSync aus mit deiner Tahiti GPU. Warum wetterst du über Features die du selbst nichtmal in der Lage bist auf technischer Seite nutzen zu können???

Warum kannst du nicht sachlich bleiben und musst mich wieder persönlich angreifen. Oh wait - da habe ich zuviel von einem Moderator erwartet. :stupid:

Und by the way. Ich habe eine Vega. Tahiti liegt aktuell ungenutzt neben mir.
 
Natürlich sind das versteckte Kosten.

Nein!
Der Kunde weiß im voraus was die Grafikkarte und ein entsprechender Monitor kosten. Wenn er das Feature nicht will oder den Aufpreis nicht zahlen will, dann kauft er sich einfach keinen G-Sync Monitor => er muss keinen Aufpreis zahlen. So einfach ist das!


Das ist doch klever gemacht. Man legt den Aufpreis einfach auf den Monitor und schwub ist die Grafikkarte vermeintlich preiswerter.

Ja es ist clever gemacht, da Leute keinen Aufpreis bei ihrer Grafikkarte zahlen müssen, obwohl sie das Feature eigentlich gar nicht wollen/brauchen. Da die Auswahl bei den Monitoren deutlich größer ist, als bei den Grafikkarten der Fall ist, ist es schon schlau, den Kunden eher hier die Wahl zu lassen, da er hier so leichter eine Alternative finden und kaufen kann.


Was kommt als nächstes? Kostenpflichtige Features per DLC? DX13 100€. Oder noch besser: Nvidia VRAM DLC - Schaltet deine vermissten 512MB wieder frei. Wäre auch nichts anderes.

Was für ein dämlicher Vergleich!
Während das eine Feature mehr oder weniger ein reines Goodie ist, auf welches man locker ohne große Nachteile verzichten kann, wirken sich Geschichten wie Veränderungen am VRAM oder das Unterstützen von DX13 auf die Verwendbarkeit und Leistungsfähigkeit der Karte aus. Darauf zu verzichten ist nicht so einfach möglich, wie auf eine Verbesserung des Bildes. :rolleyes:

Wäre es jetzt so, dass man für Nvidia zwingend einen Monitor mit G-Sync benötige, dann würde dein Vergleich Sinn machen und auch der Part mit den versteckten Kosten, da es aber so (aktuell) nicht der Fall ist, ist es reine Polemik.


Freesync zeigt, dass es nicht notwendig ist die Kosten dem Monitorhersteller aufzubürgen.

Wie bereits oben aufgezeigt, liegen die zusätzlichen Kosten nicht immer nur an G-Sync, sondern bieten die Monitore noch andere zusätzlich Features gegenüber ihren Freesync-Pendant.

Ich meine auch einmal irgendwo gelesen zu haben, dass die Panel von G-Sync-fähigen Monitoren gewisse Qualitätsstandards einhalten müssen, bevor der Monitor überhaupt die Zulassung seitens Nvidia bekommt. Das würde u.a. auch die zusätzlichen Kosten erklären und auch, warum G-Sync i.d.R besser läuft als Freesync (oder warum der G-Sync Monitor von bis zu 165Hz (mit OC) hat, während die Freesync Variante nur bis 144Hz geht). Leider weiß nicht nicht mehr, wo ich das gelesen habe, sodass ich keine Quelle dafür parat habe. Sollte ich es noch einmal finden, dann reiche ich die nach.


Und dieses Problem wegzudisskutieren macht es nicht nicht besser.

Ein Fass wegen so einer Sache auf zumachen auch nicht wirklich. Wirkt eher wie verzweifelt an einem Strohhalm festzuhalten. :hust:
 
Muss man sich Plutonium besorgen um Krebs zu bekommen, damit man Krebs schei**e finden kann?

Wer diskutiert hier darüber ob Krebs scheiße ist oder nicht?
Du hast den Zusammenhang wohl leider verkannt... G3cko behauptet da oben, dass Features ihren Preis haben und man "den Aufpreis für Gsync berücksichtigen und umrechnen (muss), weil es eben versteckte kosten sind."
Jeder, der G-Sync also nicht nutzt, hat also den Aufpreis zu berücksichtigen und umzurechnen, weil es versteckte Kosten sind? Und die die es nicht nutzen dürften es nicht totreden, weil das wäre bullshit?? wtf... :stupid:

Bei deinem Beispiel, sachlich nüchtern kann wohl jeder klar Position beim Thema Krebs beziehen. Aber warum behauptet G3cko da oben, selbst die non G-Sync Nutzer müssten irgendwelche angeblichen Kosten einkalkulieren???
Dass das ein Himmelweiter Unterschied zu deinem Beispiel ist, merkst du hoffentlich selbst ;)



Dass du meiner Logik offenbar nicht folgen kannst, habe ich übrigens länger schon mitbekommen. Zeigt das Beispiel ja schon gut, wo du offenbar zwischen dem Bezug einer Position anhand von sachlich nüchternen Fakten und der Position auf eigener subjektiver Basis nicht unterscheiden kannst oder unterscheiden willst... Aber Nix für ungut... Kann ich mit leben. :wink:

- - - Updated - - -

Warum kannst du nicht sachlich bleiben und musst mich wieder persönlich angreifen.

Nein G3cko, da muss ich dich enttäuschen... Du irrst dich, kein persönlicher Angriff. Nur eine stupide Frage.
Du wetterst nunmal hier gegen G-Sync, dazu noch völlig am Threadthema vorbei... Und das, obwohl du jahrelang als Tahiti Nutzer überhaupt nicht die technischen Voraussetzung hattest, um ein Sync Feature nutzen zu können...
Wenn es doch wenigstens in die Richtung gegangen wäre, dass DU (klar als deine Meinung sichtbar) meinen würdest, dass das Sync Feature wichtig fürs Spielen wäre und es bei NV eben mit G-Sync Aufpreis kostet. OK - deine Meinung und alles schick, aber das war nicht deine Aussage. Du hast stumpf behauptet und dir war dabei auch völlig egal, ob das Feature beim Käufer notwendig war oder nicht. Den Leuten, denen es nicht wichtig ist/war, unterstellst du sogar sie würden es totreden... Gerade du hättest das also nachvollziehen müssen, wie man ohne Sync gut auskommt... Ging doch jahrelang bei dir!?

Also wo ist/war dein Problem??
Aber Glückwunsch zur Vega. Hast du auch wenigstens gleich nen FreeSync Monitor gekauft? :wink:
 
Mich wundert es das überhaupt noch jemand Deine Beiträge liest. Erstmal sind sie immer unendlich lang, und meistens von deinem Intel/Nvidia Sposor ziemlich unterwandert.
Würde AMD das Non plus Ultra herstellen, wärst Du wohl der einzige, der das Haar in der Suppe finden würde. Viele wissen das hier, schrecken aber vor dem Wort "Moderator" zurück und halten deshalb inne.
Mit dem Wissen ausgestattet rennst Du dann hier rum, und redest aber auch alles von AMD kurz und klein mit eine Überheblichkeit, die seinesgleichen sucht.
Ich suche ja immer Neutralität bei einem Moderator. Gibt es bei den meisten hier..............Nur bei einem nicht. Schade.................

Ach so, hab ich vergessen::wink:
 
Zuletzt bearbeitet:
Wie bereits oben aufgezeigt, liegen die zusätzlichen Kosten nicht immer nur an G-Sync, sondern bieten die Monitore noch andere zusätzlich Features gegenüber ihren Freesync-Pendant.

Ich meine auch einmal irgendwo gelesen zu haben, dass die Panel von G-Sync-fähigen Monitoren gewisse Qualitätsstandards einhalten müssen, bevor der Monitor überhaupt die Zulassung seitens Nvidia bekommt. Das würde u.a. auch die zusätzlichen Kosten erklären und auch, warum G-Sync i.d.R besser läuft als Freesync (oder warum der G-Sync Monitor von bis zu 165Hz (mit OC) hat, während die Freesync Variante nur bis 144Hz geht). Leider weiß nicht nicht mehr, wo ich das gelesen habe, sodass ich keine Quelle dafür parat habe. Sollte ich es noch einmal finden, dann reiche ich die nach.

Das ist nur teilweise korrekt. Ja es müssen bei gysnc gewisse Mindesstandards eingehalten werden, genauso wie bei freesync2. Das es preiswerte freesync1 Modelle gibt hat jedoch nichts damit zu tun, dass Gsync einen Aufpreis von 250€ - 300€ bedeutet. Es gibt nämlich unzählige baugleiche Geräte am Markt, welche sichg sich nur durch Gsync and Freesync unterscheiden. Der Aufpreis ist ein offenes Geheimnis.

Das die Technologien sich großartig unterscheiden ist ebenso blödsinn.
AMD FreeSync im Test: Konkurrenz für G-Sync auf Basis von Adaptive-Sync (Seite 3) - ComputerBase


Mich wundert es das überhaupt noch jemand Deine Beiträge liest. Erstmal sind sie immer unendlich lang, und meistens von deinem Intel/Nvidia Sposor ziemlich unterwandert.
Würde AMD das Non plus Ultra herstellen, wärst Du wohl der einzige, der das Haar in der Suppe finden würde. Viele wissen das hier, schrecken aber vor dem Wort "Moderator" zurück und halten deshalb inne.
Mit dem Wissen ausgestattet rennst Du dann hier rum, und redest aber auch alles von AMD kurz und klein mit eine Überheblichkeit, die seinesgleichen sucht.
Ich suche ja immer Neutralität bei einem Moderator. Gibt es bei den meisten hier..............Nur bei einem nicht. Schade.................

Ach so, hab ich vergessen::wink:

So siehts aus. Deshalb bin ich hier auch kaum noch aktiv. Viel zu anstrengend.
 
Zuletzt bearbeitet:
@ElBlindo

Also darf ich meine Sichtweise hier zu den Themen nicht kund tun während es anderen erlaubt ist? Schon interessant wie versucht wird Widerspruch zu unterdrücken....

Du unterliegt übrigens dem gleichen Irrglauben wie Poddy und G3cko da oben - ihr interpretiert zu viel und nehmt zu viel persönlich. Du wirst hier selten das Haar in der Suppe bei mir finden - wo diese Aussage nicht klar als persönlich subjektive Meinung sichtbar ist. Mein persönliches Kaufverhalten unterliegt ausschließlich meinem eigenen Bedarf und stand nie auch nur ansatzweise zu Debatte! Nur warum schafft ihr es nicht einfach mal zu differenzieren? Ich werde mich nicht selbst belügen - wenn euch Herstelleraffinität so wichtig ist es über die eigene Meinung und den eigenen Bedarf zu stellen läuft gewaltig was schief. Aber über Meinungen diskutiere ich nicht, also lasst mich da einfach raus... ;)
 
Oh, man huldigt nicht AMD und ist sofort Intel/Nvidia gesponsort. Klar doch.
Nv kann VP9 in Hardware. Ist nen offener Standard für youtube und sollte bei den Massen an Videos, die hier im Forum verlinkt werden, heutzutage jede anständige Graka können, ohne die CPU um Hilfe bitten zu müssen. Kann das die Graka nicht, sind das versteckte Kosten für den Käufer, da die CPU nicht vernünftig heruntertakten kann und unnötig Strom verbraucht.
 
Oh, man huldigt nicht AMD und ist sofort Intel/Nvidia gesponsort. Klar doch.
Nv kann VP9 in Hardware. Ist nen offener Standard für youtube und sollte bei den Massen an Videos, die hier im Forum verlinkt werden, heutzutage jede anständige Graka können, ohne die CPU um Hilfe bitten zu müssen. Kann das die Graka nicht, sind das versteckte Kosten für den Käufer, da die CPU nicht vernünftig heruntertakten kann und unnötig Strom verbraucht.

Made my Day :lol::lol:

Aber ein Super Beispiel dafür wie man selbst Reiskörner spaltet um eine Schwachstelle des anderen zu finden :d
 
Ich hab nicht mit den "versteckten Kosten" angefangen.... Klar ist mein Beispiel überzogen, ebenso wie das von Gsync und den dort angeblich "versteckten Kosten ".

Gesendet von meinem G8341 mit Tapatalk
 
Das es preiswerte freesync1 Modelle gibt hat jedoch nichts damit zu tun, dass Gsync einen Aufpreis von 250€ - 300€ bedeutet. Es gibt nämlich unzählige baugleiche Geräte am Markt, welche sichg sich nur durch Gsync and Freesync unterscheiden. Der Aufpreis ist ein offenes Geheimnis.

Dann liste diese mal auf :wink:

Ich will ja auch gar nicht behaupten, dass G-Sync keinen Aufpreis hat, aber du stellst es hier schlimmer dar als es eigentlich ist. Vor allem wenn dann solche Behauptungen wie versteckte Kosten kommen oder Sync ist so ein absolutes Muss für jedermann. :rolleyes:


Das die Technologien sich großartig unterscheiden ist ebenso blödsinn.

Ich habe nirgends behauptet, dass sich beide Technologien großartig voneinander unterscheiden. Die Unterschiede, welche ich aufgelistet hatte, wurden doch auch von Computerbase aufgelistet.


So siehts aus. Deshalb bin ich hier auch kaum noch aktiv. Viel zu anstrengend.

Oder liegt es einfach daran, dass du hier mehr Gegenwind bekommst als in anderen Foren, weil hier auch mal Leute deine rote Propaganda hinterfragen bzw. widerlegen? ;)


Außerdem beantworte doch einmal bitte diese Frage hier:

Aber Glückwunsch zur Vega. Hast du auch wenigstens gleich nen FreeSync Monitor gekauft? :wink:

Interessiert mich nämlich auch. :wink:
 
Das ist wieder so ein typisches Beispiel. Nun kommen wieder die gleichen nvidia Jünger aus den Ecken und ich soll etwas mittels Links beweisen? Dabei hast du doch meine Aussage angezweifelt also kannst auch du mittels Google darlegen warum deine Aussage richtig sei. Das ist mir zu anstrengend. Das man überhaupt eine Tatsache wie den Aufpreis wegdiskutiert oder schönredet. Nvidia kann echt machen was sie wollen. VRAM, dxlevel, Gsync, wo sagt ihr eigentlich stop?

Wenn mein Auto durch den Diesel Skandal an Wert verliert oder ich nicht einmal mehr in Innenstädte darf, dann muss ich keinen Diesel besitzen um die Machenschaften fragwürdig zu halten. Und nur weil 3/5 das so machen ist noch lange nicht normal bzw zum Glück gibt es alternativen.

Aber ich kann dich beruhigen. In sachen Grafikkarten Hersteller gibt es bei mir persönlich ein unentschieden. Das heißt natürlich nicht, dass ich nicht aktuell eine Präferenz haben, da ich nun mal nicht wie ein lemming jeden scheiß mitmache.

Ein freesync Monitor steht natürlich ebenfalls auf meiner Wunschliste. Bisher sind die monitorpreise aber weiterhin eine große lachnummer. Mein 120Hz Monitor ist nun 8jahre alt. Full hd 120hz TN und hat 330€ gekostet. Ein passables Modell mit >27" 120hz freesync und mindestens 2k kostet 700€. WTF. Dazu kommt dass Monitor Extras wie die wichtige motion blur Reduktion nicht oder nur eingeschränkt mit freesync/gsync zusammen arbeitet. Auf TN habe ich eigentlich auch keinen bock mehr. Da ist mann dann schnell bei 700-1000€ für einen Imernoch kompromissbehafteten Monitor. Da wären wir also wieder bei dem Punkt: Ich mache nicht jeden Scheiß mit auch wenn ich gerne einen neuen Monitor hätte.

Da jede AMD graka der letzten Jahre mit Ausnahme der 4GB fury sehr gut über längere Nutzungzeit performt hat gebe ich natürlich auch vega eine Chance. Genug Features hat sie ja an Board die noch rudimentär aktiv oder noch inaktiv sind.

Dagegen muss nvidia erst einmal zeigen, dass Sie auch seriöse Produkte verkaufen können. Und da sieht es weiterhin schlecht aus. Und da reicht auch nicht nur eine unauffällige Generation meiner Meinung nach. Dx kepler, vram maxwell, gsync sind nur 3 harte Brocken auf die ich erst einmal keinen bock habe. Die anderen kleinere. erwähne ich gar nicht. Das ist doch kein Premium Produkt sondern kundenverarsche.
 
Zuletzt bearbeitet:
Welcher Diesel darf nicht mehr in die Stadt, dem es vor dem "Abgasskandal" noch erlaubt war?
Und zur langen Nutzungszeit: Die 6xxx er Serie wurde nach nicht einmal 5 Jahren der Treibbersupport aufgekündigt. Und fang jetzt nicht wieder mit Nvidia legacy an. Den Unterschied hab ich dir schon einmal erklärt.
Nv Legacy: Es wird nicht mehr auf diese Karte hin der Treiber optimiert, Updates und Bugfixes gibts aber immernoch.
AMD Legacy: Das wars mit Updates.....Ach ja, die Mannschaft, die extra für Furys Miniram die Treiber optimierte, gibts auch schon ne Weile nicht mehr. Das waren keine 2,5 Jahre Unterstützung.
Bei der vielgescholtenen GTX 970 scheint hingegen NV immernoch auf den "Krüppelram" im Treiber zu optimieren, obwohl es die AMD Hardliner hier anders prophezeit hatten.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh