heise.de: Grafikkarten nur noch für Gutverdiener

Ali G
Sry, aber du hast einfach 0 Plan. Aktuell läuft nvidia amd hinterher. Mit dem vorgezogenen Start möchte man amd aus der Reserve locken. GCN ist in den Konsolen, für diese wird optimiert. Pascal zeigt das man mit Tricks versucht hier AS irgendwie umzusetzen, aber noch lange nicht auf dem Niveau ist. Auch die Konsolen deals für 2017 hat man in der Tasche und die eigene Technologie platziert. Nvidia war immer für propritäre Standards und fängt plötzlich an auch über die Offenlegung nachzudenken und möchte kommende dx Standards definieren. Man merkt wohl, dass einem langsam die Felle davon schwimmen. Natürlich geht so eine optimierung nicht von jetzt auf gleich. Das hat man auch an der LastGen gesehen und was dort durch Optimierung zum Schluss noch möglich war. Wir werden sehen wie es mit dx12 und Vulkan weitergeht und wie dort sich die Architekturen schlagen.

Das einzige Problem ist das Marketing. Hier ist man aber auf einem guten weg. Man kann hier nur gute Produkte liefern und darauf hoffen das nvidia Käufer aufwachen. 2017 wird die GTX970 auf jeden Fall am VRAM verhungern genauso wie kepler zuvor, während man auf amd Karten einfach weiterzockt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ali G
Sry, aber du hast einfach 0 Plan. Aktuell läuft nvidia amd hinterher. Mit dem vorgezogenen Start möchte man amd aus der Reserve locken. GCN ist in den Konsolen, für diese wird optimiert. Pascal zeigt das man mit Tricks versucht hier AS irgendwie umzusetzen, aber noch lange nicht auf dem Niveau ist. Auch die Konsolen deals für 2017 hat man in der Tasche und die eigene Technologie platziert. Nvidia war immer für propritäre Standards und fängt plötzlich an auch über die Offenlegung nachzudenken und möchte kommende dx Standards definieren. Man merkt wohl, dass einem langsam die Felle davon schwimmen. Natürlich geht so eine optimierung nicht von jetzt auf gleich. Das hat man auch an der LastGen gesehen und was dort durch Optimierung zum Schluss noch möglich war. Wir werden sehen wie es mit dx12 und Vulkan weitergeht und wie dort sich die Architekturen schlagen.

Das einzige Problem ist das Marketing. Hier ist man aber auf einem guten weg. Man kann hier nur gute Produkte liefern und darauf hoffen das nvidia Käufer aufwachen. 2017 wird die GTX970 auf jeden Fall am VRAM verhungern genauso wie kepler zuvor, während man auf amd Karten einfach weiterzockt.

Nvidia läuft AMD hinterher, AMD kann seinen technologischen Vorsprung dem Markt lediglich nicht vermitteln weil die Kunden alle so blöd sind? Sorry, selten so einen Stuss gelesen wie du hier auf den 10 Zeilen von dir gegeben hast. Angeblich schwimmen laut Leuten wie dir seit 3 Jahren Nvidia "die Felle davon", immer die gleichen Vorhersagen die nie eintreten. AMD hat diesen Deal, jenen Deal, Nvidia geht unter, Intel geht unter, alles geht unter....

Was ich da oben gepostet war eine weitgehend sachliche Analyse eines Technikfans mit Grundkenntnissen der Mikroökonomie der sich mit keinem Hersteller von Technologie in irgendeiner Weise identifiziert! Ich nutze das was Leistung bringt, was funktioniert, ich verzettele mich nicht in Grabenkämpfe mit Nvidia und AMD, absoluter Kinderkram sowas. Ich will FPS in den großen Titeln, das ist der Zweck einer Consumer-GPU. Wo AMD da in den Punkten Leistung und Effizienz voran ist und die Leistung auch "auf die Straße bringt" sprich in FPS umsetzen kann, nicht nur mögliche Vorteile in der Architektur ungenutzt lässt, das erklärst du mir mal bitte.

Und komm mir nicht mit dass ich "null Plan" habe. Dem ist nicht so und das weisst du denke ich selber. Du hast auch nicht "null Plan", du hast nur deine AMD-Fanbrille und deine Äußerungen sind dementsprechend wertvoll in so einer Debatte.
 
Zuletzt bearbeitet:
Also mein Problem war schon immer das es mir ziehmlich auf den Sack geht, das ich egal bei welcher Marke, nach 1 Jahr schon anfangen durfte Details zu minimieren. Sprich das Problem was es nachwievor gibt. 20-30% Steigerung in Zeiten von prozentuar weitaus höher leigenden Marktprodukten wie UHD etc., liefern selbst die neuen Karten zu wenig Leistung um langfristig mit maximalen Details darauf zu zocken. Wenn eine 1080ti rauskommt, würde ich eher sagen das diese Karte dafür geeigent ist, 2-3 Jahre ohne Abstriche jeden Titel mit maximalen Details zu zocken. Bei 4K etc. wäre es wieder dieselbe Scheiße von wegen 40-50fps (und das vermutlich nicht mal durchgehend) bis die Karten nach einem Jahr bei einem High End Titel krepieren. Da muss einfach wesentlich mehr Leistung her für das Geld, weil die Anforderungen ungleich höher geworden sind. Deswegen halte ich von den aktuellen neuen Nvidia Karten rein gar nichts. Zu wenig Leistung. Bei AMD sind die Mittelklassekarten auch nicht der Bringer. Und das was man aktuell wirklich bräuchte, wird sich die Mehrheit nicht kaufen, ergo -> Schlechte Produkte für viel Geld, so sehe ich das.
 
Die Frage ist ob das technisch machbar ist !?

1024x768 = 0,8MP
1280x1024 = 1,3MP
(1440x900 = 1,3MP)
1920x1080 = 2,1MP
2560x1440 = 3,7MP
3840x2160 = 8,3MP

Die Aulösungen steigen derzeit zu stark an.


genau das ist das problem!

die leute lesen überall nur noch 4k,5k, nächstes jahr dann vllt 8 und 16k.

stellen sich dann für 300€ so nen 4k display auf den tisch und stellen dann fest: hey, das schaut zwar toll aus, die spiele laufen nun aber teilweise mächtig scheiße.

weil die leute einfach mal nicht das know-how haben um zu verstehen das man für 4k mal eben von heute auf morgen 3-4 mal so viel grafikpower braucht, die aber so wirklich auch gar kein gpu hersteller liefern kann und schon gar nicht zu den preisen an die man sich über die jahre gewöhnt hat.

so einen sprung gab es in der displaytechnik noch nie.


wer schlau ist, bzw nicht unsummen an kohlen auf der bank hat, der stellt sich anstatt nem 4k display lieber nen schmuckes 1440p display hin.

nen 1440p display ist der perfekte mittelweg zwischen PPI und bezahlbarkeit, für 1440p langt (mit leicht reduzierten grafiksettings) eine gtx 970 oder r9 390 und auch die neue r9 480.

wenn man meint in 1440p trotz AA immer noch kanten zu sehen und man noch gpu power über hat, dann gibts immer noch noch vsr und dsr.
 
Zuletzt bearbeitet:
Bezogen auf die Kurve heisst das, das wenn du im Jahr 2000- 500€ stehen hast und 2016 700€ würde die Kurve Inflationsbereinigt eine waagerechte Gerade.

@Tazmal: In dem Fall wiederufe ich was ich sagte und behaupte fortan das Gegenteil.
Inflationsbereinigt (ausgehend von 3 % Inflation p.a.) sind wir bei 16 Jahren (2000 bis 2016) von 500 € bei 802,35 € angelangt.
 
genau das ist das problem!

die leute lesen überall nur noch 4k,5k, nächstes jahr dann vllt 8 und 16k.

stellen sich dann für 300€ so nen 4k display auf den tisch und stellen dann fest: hey, das schaut zwar toll aus, die spiele laufen nun aber teilweise mächtig scheiße.

weil die leute einfach mal nicht das know-how haben um zu verstehen das man für 4k mal eben von heute auf morgen 3-4 mal so viel grafikpower braucht, die aber so wirklich auch gar kein gpu hersteller liefern kann und schon gar nicht zu den preisen an die man sich über die jahre gewöhnt hat.

so einen sprung gab es in der displaytechnik noch nie.


wer schlau ist, bzw nicht unsummen an kohlen auf der bank hat, der stellt sich anstatt nem 4k display lieber nen schmuckes 1440p display hin.

nen 1440p display ist der perfekte mittelweg zwischen PPI und bezahlbarkeit, für 1440p langt (mit leicht reduzierten grafiksettings) eine gtx 970 oder r9 390 und auch die neue r9 480.

wenn man meint in 1440p trotz AA immer noch kanten zu sehen und man noch gpu power über hat, dann gibts immer noch noch vsr und dsr.

Würde ich die Wahl haben wäre es auch ein 2K-Display. Aber dafür ist es zu spät. Ich kaufte letztes Jahr ein 600 € Gsync-4K Screen da ich sah wie gut meine 980 mit 1080p fertig wurde (CPU Bottleneck) und etwas haben wollte von dem ich sicher sein kann dass ich es viele Jahre behalte. Der Monitor wäre jetzt noch 300, vielleicht 350 wert. Das ist es mir nicht wert.

Für mich wäre 2K zudem jetzt ein Downgrade weil ich die DPI gewöhnt bin. Problematisch ist eher die schlechte Optimierung für ältere Karten wie meine (Die ich gezwungenermaßen kaufte da es in dem Preisbereich keine andere gibt, 960=zu schwach, 970=Müll, 980=zu teuer), die versaut mir richtig die FPS. Auf der 780Ti läuft zum Beispiel Battlefield 4 mit sehr hohen Details auf 60 FPS. Witcher 3 läuft nichtmal auf Low.

Jetzt bleibt mir nichts anderes als warten bis meine Zeit gekommen ist. Mit der 1080Ti (oder Vega HBM2) wird es greifbar, wenn auch teuer, ab der nächsten Generation dann werden auch Performancekarten 4K ordentlich schaffen.

Eine 980/480 kann bereits das Meiste auf mittleren Details in 4K rendern, VRAM vorausgesetzt.
 
@BrahmandYaatra: Wobei natürlich niemand etwas dafür kann, dass du dir (sog.) "Early Adaptor Technik" kaufst. ;) Ich kaufe mir auch keinen Pentium G und erwarte The Witcher 3 maxen zu können.
 
Problematisch ist eher die schlechte Optimierung für ältere Karten wie meine (Die ich gezwungenermaßen kaufte da es in dem Preisbereich keine andere gibt, 960=zu schwach, 970=Müll, 980=zu teuer), die versaut mir richtig die FPS. Auf der 780Ti läuft zum Beispiel Battlefield 4 mit sehr hohen Details auf 60 FPS. Witcher 3 läuft nichtmal auf Low.

wenn dir 30 fps reichen kannst du mit der gtx 970 witcher genau so in 4k mit mittleren settings spielen.. und nein ultra settings bei 60fps sind auch mit vega und der 1080ti nicht drinn.
https://youtu.be/OGdeSvk251w

was genau macht die 970 eigentlich zu müllig? das sie nur 3,5gb speicher schnell ansprechen kann? das sind etwa 15% mehr speicher als deine 780ti hat, ist die dann auch müll?

klar wäre das cooler wenn die kompletten 4gb schnell angebunden wären, noch cooler wäre es sogar wenn 512gb schnell angebunden wären, es ist aber auch nicht so das diese 3,5gb nicht ausreichend bemessen wären.
wie du siehst sind da selbst in 4k keine 3gb vram belegt, und durch mehr vram werden aus den 30 dann trotzdem keine 60fps.

wobei ich mir in angebracht dessen das man in nen paar wochen wohl bei amd r9 390/x leistung kombiniert mit niedrigem verbrauch für ~200-250€ bekommt jetzt auch keine 970 kaufen würde, zumindestens nicht wenn ich eine potente cpu mein eigen nenne.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
oh man du hast es immer noch nicht verstanden,
wenns nur die 3,5 wären, aber da ist ja noch der kleine lästige 0,5gb wurmfortsatz

und der macht dich ganz fürchterlich traurig :hmm:
https://www.youtube.com/watch?v=dT9acqoWWEI
https://www.youtube.com/watch?v=nlGGKZqUGek
https://www.youtube.com/watch?v=h60v7nMr580
https://www.youtube.com/watch?v=P6v-J40kXXU
https://www.youtube.com/watch?v=27AcsUPGsh8

tipp für die ganz besonders blinden: links oben in der ecke kann man den belegte vram einsehen :fresse:
 
das wird nur von AMD Trollen genommen um ein bisschen rumzustänkern. Das die GTX 970 4GB Speicher hat war bekannt und nie ein Fehler. Die Community war der Grund warum es so schlecht rübergekommen ist. Die Newsseiten haben es getestet und sagten "alles gut". Die Community (insbesondere die AMD Fangemeinde die unteranderem dafür auch bezahlt wurde" wollte das man in diesem Zusammenhang das Wort ****** verwendet obwohl es nie einen ****** gab.

Deshalb hat die 970 auch nicht wirklich im Abverkauf verloren. Das Problem an sich war das 3,5GB normal schnell angebunden waren und 500Mb langsamer. Sie waren aber trotzdem vorhanden.
 
Das war also als Klarstellung gemeint. Der Kunde ist schuld, alleine. Genau. Ich erklär dir das nochmal, ganz langsam:

1. AMD hinkt technologisch hinterher, die letzen Jahre immer das selbe Spiel: Too little, too late.
2. Das PC-Gamer/Enthusiasten Segment ist eine relativ preisunempfindliche Zielgruppe. Man will Leistung und ist weniger preisempfindlich als im Low-End oder Mid-Range Sektor.
3. Mangels leistungsstarker Alternativen kauft besagte Zielgruppe die Nvidia für teuer Geld, weil sie ihren Nutzen nach ihren Präferenzen maximieren.
4. Nvidia kann die Preise auf einem relativ hohen Niveau ansiedeln, erkauft durch technologischen Vorsprung und gutes Marketing, beides in einer Marktwirtschaft eher zu beneiden als zu verteufeln. Auf nichts anderem gründet immerhin fast unsere gesamte Volkswirtschaft ihren Wohlstand (ich gehe hier von Deutschland aus).

Was du verlangst ist dass der Enthusiast/PC-Gamer in seine Präferenzen einfließen lässt, dass es:
a) In der Zukunft zu Preissteigerungen kommen könnte wenn viele Kunden teure High End Karten kaufen.
b) Er und/oder andere Kunden sich die Karten dann nicht mehr leisten können.

Das kann ihm nun entweder recht egal sein, weil sein Budget ausreichend bemessen ist, oder er kann aus taktischen Gründen sagen: "Kaufe ich nicht."

Du verlangst dass man eben jene Beweggründe zum Anlass nimmt und besagtes Produkt nicht kauft. Das wäre ja alles schön und gut, aber alleine dass bei dir im Beitrag der typische Nvidia- und Apple-Hate mitschwingt lässt deine Ausführungen in einem anderen Licht erscheinen. Einem nicht ansatzweise so sachlichen Licht wie du versucht hast durch deine rege Verwendung von Fremdworten sicherzustellen.

Und so sehr du dich am Ende bemühst deine Aussagen zu relativieren und sagst dass du niemanden persönlich angreifen willst und es jedem neidlos gönnst wenn sich dieser eine solche Karte zulegt, das kaufe ich dir an dem Punkt nicht mehr ab.

Edit:

Fazit: AMD ist mindestens die Hälfte des Problems. Das sollte man sich auf Seite der AMD-Fans endlich eingestehen.

Versuch mal einem nackten Mann in die Tasche zu greifen. Das führt deine komplette Aussage ad absurdum. Das ist auch exakt das, was ich mit davinistischer Denke meine, bist genau "in die Falle" gegangen.
 
Versuch mal einem nackten Mann in die Tasche zu greifen. Das führt deine komplette Aussage ad absurdum. Das ist auch exakt das, was ich mit davinistischer Denke meine, bist genau "in die Falle" gegangen.

na du hast es ja mal drauf. fürs nächste mal: "rw" statt "v", Darwin.
 
Ich kann das ganze gehate und Geheule nicht verstehen ... ich als Beispiel habe ne 3 1/2 Jahre alte GTX 670 Phantom und kann damit auch noch die aktuellen Titel spielen (Viele auch auf Max mit ein paar runter gedrehten Schräubchen wie bsp Schatten), da frage ich mich was die Leute mit ihren aktuelleren Karten anstellen wenn die jedes Jahr wechseln müssen.

Mittlerweile wird meine Karte recht laut, bei Spielen wie Paragon oder Doom weil sie da gut arbeiten muss, aber es Läuft auf akzeptablen Einstellungen.

Vermutlich sind die meisten Leute die wegen den hohen Preisen rumheulen entweder Konsolenspieler die total begeistert waren wie übertrieben Krass FHD (1920x1080 @ 30HZ/FPS!!!) aussieht (PS4), wobei es die Technik seit jahren auf den PC's gab.
Jetzt geht der Trend bei den PC's eben Richtung 4K (4096 x 2160) und vllt sogar noch höher, aber allein für 4K muss die Graka deutlich schneller Rechnen als bei FHD und das sind rein Rechnerisch mal eben 326% mehr Pixel die zu berechnen/darzustellen sind.
Ich bin in Sachen Grafikkarten kein Profi und ich gucke mir vor jedem Kauf immer Benchmarks von NVIDIA sowie AMD an und bisher muss ich „leider“ sagen seit den mittlerweile doch schon 10 Jahren die ich PC-Spiele zocke habe ich immer zu Nvidia gegriffen, da sie meist besser/gleichauf mit AMD waren und oftmals an Strom sparen.

Finde den Vergleich auch gut 2x 480X sind genauso schnell wie eine 1080GTX, aber die 150-200Watt zusätzlich blendet auch jeder aus. Die 1080 gibt's für 780€ (FE) und die 2 480X sollen bei 200$ liegen also vllt 250-300€ wären dann auch ca. 600€ die ich hinlegen muss. Wenn man pro Tag ca. 4 Stunden spielt dann zahlt man bei der AMD-Lösung ca. 50€ im Jahr an Strom drauf.
Ich Persönlich bin bisher immer min. 3 Jahre mit der Graka klar gekommen, also wären das dann auch ca. 150€ zusätzliche Stromkosten. Also wäre es komplett Wurst obs die 480X oder 1080GTX ist, Preis/Leistung wäre da vermutlich gleich. Wie es dann mit OC aussieht ist noch eine andere Sache.
 
wo hast du eigentlich in den letzten 3 Jahren so gepostet???
 
Finde den Vergleich auch gut 2x 480X sind genauso schnell wie eine 1080GTX, aber die 150-200Watt zusätzlich blendet auch jeder aus.

2x150W = 300W
300W - 180W = 120W

Also ja knapp 200W mehr Verbrauch :rolleye:

Auch sind die 150W eher unwahrscheinlich, da sie die maximal mögliche Verbrauch (PCIe + 6pin) darstellt. Hier ist in der Regel immer noch etwas Luft zum tatsächlichen Verbrauch.

Jetzt könnte man noch die Beschriftung an den Balken beachten mit "better performance and efficiency" und würde auf 90-100W pro Karte kommen. Würde sich auch mit der 2.8 fachen perf./W decken verglichen mit der 390(X)
 
@Performer
Deswegen würde ich, ungeachtet von weiteren neuen Grafikfeatures, ein vorhandenes High End Modell für in meinem Fall (2560x1080) nutzen statt mit dem 4K Hype mitzuziehen. So hätte ich immerhin mehr Puffer. Dummerweise sind die High End Modelle nicht draussen und ich muss noch länger warten bis das geschieht. Zudem müßten die Preise fallen bis zu einem Punkt wo ich sagen kann, jetzt kann ich eine Karte für meine Verhältnisse und genutzte Auflösung kaufen, wo ich nach einem Jahr nicht gleich die Stirn runzeln muss. Wie langsam der technische Fortschritt von statten geht, dürfte man spätestens jetzt onehin sehen. Es wäre irgendwo nicht verkehrt, wenn Hersteller ein wenig miteinander zusammenarbeiten würden. So erspart man den Menschen das Gefühl, nichts werthaltiges für sein Geld gekauft zu haben. Käufer wie mich schreckt sowas jedenfalls ab und ich bin mir sicher, ich stehe nicht alleine da. Also fehlende Kaufkraft aufgrund von Selbstverschulden und Augenwischerei beim Marketing!

In anderen Branchen ist es das gleiche. Da wird dauernd und ungezügelt beworben und jedes neue Produkt ist besser als der Vorgänger aber Langzeiterfahrung und Haltbarkeit finden nie einen Weg rein. Und das Grafikkarte exakt aus diesem Grund so schnell altern, möchten die meisten anscheinend auch nicht wissen. Weil von Anfang nur minimal mehr Leistung geboten wird, kauft man im Grunde schon mit einem Gürtel gequetschte Karten die kurz darauf wieder krepieren.

Das die Auflösung ansteigen, war aber schon seit einiger Zeit bekannt. Das hat sich durch nach und nach kommende Produkte ja abgezeichnet. Da hätten sich Nvidia und AMD darauf einstellen können. Ich sage ja nicht das man mit jedem neuen Pferd mitziehen soll aber mehr anbieten, kann man schon damit wenigsten aktuelles auf mindestens 2 - 3 Jahre ohne Abstrichte läuft.
 
2x150W = 300W
300W - 180W = 120W

Also ja knapp 200W mehr Verbrauch :rolleye:

Auch sind die 150W eher unwahrscheinlich, da sie die maximal mögliche Verbrauch (PCIe + 6pin) darstellt. Hier ist in der Regel immer noch etwas Luft zum tatsächlichen Verbrauch.

Jetzt könnte man noch die Beschriftung an den Balken beachten mit "better performance and efficiency" und würde auf 90-100W pro Karte kommen. Würde sich auch mit der 2.8 fachen perf./W decken verglichen mit der 390(X)


Wie Performer bereits sagte ... meckern macht Spaß :hail: ich habe die genauen Daten der Grakas nicht im Kopf, aber bei den meisten zockern steht die Graka sowieso auf Höchstleistung nicht auf Energiesparen und da vermutlich wenig Leute die FPS einschränken werden die schon gut Strom lutschen. Obs dann statt meinen angegebenen 50 "nur" 35/40€ im Jahr mehr sind auch egal.
Fakt ist eine Graka zieht weniger Strom als 2 und die Strompreise werden auch nicht gerade günstiger, allein die EEG-Umlage macht mittlerweile ca. 60% des Preises aus, wer weiß was in Zukunft noch dazu kommt.

Wenn ich das von Koffeinjunkie so lese, dann habe ich das Gefühl er hat die Schwierigkeit zwischen höher werdenden Auflösungen und Technischer Möglichkeit nicht ganz verstanden.
(Oder vlt. verstehe ich das auch nicht ;P)

Ist genauso als würdest du dich jetzt drüber beschweren, das mittlerweile nicht jedes Auto mindestens 400PS hat für 20000€ Neupreis, weil es gibt ja schon lang genug Autos.
Wenn die Technik so schnell voranschreiten würde wie du es wünscht, dann wäre heute VR ein alter Hut und man hätte hier den T1000 rumlaufen oder so. (So meine Sicht der Dinge :d viele Stellen sich das alles immer so einfach vor.)
 
Zuletzt bearbeitet:
Ich denke die ganze "Meckerwelle" wg. der Preise ist hauptsächlich nVidias "Founders Edition" und dessen höheren UVP geschuldet. So etwas gab es eigentlich noch nie daß man für Referenz Design (und nichts ansderes ist die FE) deutlich mehr bezahlt als für die Custom Lösungen. Hätte man diese Referenz Karte gleich bei 599 USD angesiedelt wäre das zwar noch immer teuer, aber der Aufschrei wäre vielleicht nicht so groß.

Der Beitrag von Heise ist natürlich (vor allem im Titel) übertrieben dargestellt, denn man kann ja zu kleineren/preiswerteren Modellen greifen und damit immer noch glücklich sein.

Was mir persönlich (auch schon bei der 900er Serie von nV, aber auch bei AMDs 300er Serie) etwas aufgestoßen ist sind die durchgehend hohen Preise, nicht nur bei High End, sondern eben auch in der Performance Klasse, teils bis runter ins Mid Range. Die schnellsten Karten bzw. High End Karten waren schon immer teuer und meist unverhältnismäßig viel teurer als oft schon das Modell direkt darunter. Das ist in Ordnung und darüber meckere ich auch nicht. Wenn die schnellsten Karten jedoch so teuer werden daß die Modelle darunter ebenfalls preislich angehoben werden (jeweils im Vergleich zu den Generationen davor) ist das natürlich nicht so schön. Und kommt mir nicht mit "... aber die Karte leistet ja auch viel mehr als die davor ...". Na klar ist das so, wenn nicht müsste man ja für mehr Leistung jedes Mal mehr Geld hinlegen und wir hätten irgendwann Karten die sich kaum noch einer leisten kann bzw. will.
Was mir bei eben der 900er Serie aufgefallen ist ist daß die Preise kaum gefallen sind über die Lebensdauer der Karten. Erst jetzt wo die Nachfolgekarten schön langsam in die Läden kommen bzw. sind fallen die Preise. Üblicherweise war es so daß die Release Preise relativ hoch waren, die Karten jedoch mit der Zeit günstiger wurden. Somit konnte man, wenn einem der Preis einer Karte zu Release zu hoch war, etwas warten und dann die Karte etwas günstiger erwerben. Bei der GTX 980 bzw. 970 war das kaum so.
AMD hatte zum Ende der 290er Karten deutlich niedrigere Preise als zum Release, hat dann jedoch die selben Karten mit mehr Takt und mehr RAM zu wieder deutlich höheren Preisen neu released. Auch nicht schön.

Zu der Geschichte kommt halt noch der schlechte USD<->EUR Kurs sowie der Trend (bzw. Hype) zu immer höheren Auflösungen, 3D und nun auch (wieder einmal) VR. Wie viele schon festgestellt haben fordert dies teils enorm viel Leistung. Ich persönlich halte es aktuell nicht unbedingt notwendig UHD auf Monitoren < ~ 27" zu haben. Ich bin bis jetzt auch noch mit 1920x1200 unterwegs, obwohl ich schon auf 1440p schiele, jedoch mit dem Wissen daß dafür auch eine neue GPU her muß.

Die Grafiken die hier erstellt wurden sind zwar nett anzusehen, allerdings müsste man wohl unzählige verschiedene anfertigen um vielleicht irgendetwas daraus abzulesen. Die Release Preise der jeweils schnellsten Karte ist eine nette Sache, die der Modelle darunter wäre auch interessant und vielleicht eben auch der Verlauf der Preise dieser. Das ist jedoch sehr schwer machbar. Die FPS pro Geldeinheit ist zwar auch eine gute Idee und auch die Auflösungsanpassung der Jahre ist in Ordnung. Aber vergleichen kann man das nicht da es hier natürlich extrem auf die Spiele ankommt die in die Werte einfließen. Ich mein es gibt ja High FPS Spiele wie Quake 3, CS/Source/Go uvm. und dann gibt es Low FPS Spiele wie Crysis, Metro, Stalker etc. Die Rohleistung der GPUs macht natürlich auch nicht viel Sinn da die nicht immer direkt die Real World Leistung der Karte widerspiegelt usw.

Generell vermute ich bei den GPUs eine ähnliche Problematik wie bei den CPUs schon in den letzten Jahren zu beobachten ist. Es wird immer schwerer und teurer diese in kleineren Fertigungen herzustellen und diese im selben Ausmaß wie früher schneller zu machen. Bei den CPUs kommt ja die Kernthematik im Otto-Normal Endkundenmarkt dazu was bei GPUs glücklicherweise nicht der Fall ist da hier deutlich besser parallelisiert werden kann. Gerade die Fertigungssprünge dauern hier auch länger, deswegen vermute ich auch daß nV die Strategie von früher, wo meist das neue High End Produkt bzw. dickste Karte einer Serie als erstes released wurde und max. davor eine MidRange Karte der alten Generation als "Test" in der kleineren Fertigung hergestellt wurde umgestellt hat. Eben auf "wir bringen erst mal eine schnelle Performance Karte, die jedoch trotzdem leicht schneller als die alte High End ist, und danach dann wieder die echte High End Karte". Intel sind ja auch von Tick-Tock auf Process-Architecture-Optimization umgestiegen.
Bei AMD wird es ähnlich sein, wobei hier in den letzten Jahren deutlich mehr alte Modelle neu verwurstet wurden.

Aktuell heißt es für mich zumindest abwarten ... mal sehen wie sich die Preise der GTX 1080 entwickeln, vor allem wenn die 1070 und dann auch Polaris am Markt ist. 789 EUR bzw. 499 EUR für die Referenz 1080 bzw. 1070 sind in meinen Augen zu hoch angesetzt. Custom Modelle mit ~ 650 EUR bzw. (hoffentlich so) ~ 400 EUR sind schon besser, allerdings immer noch etwas hoch für die Modelle (Klasse) die sie sind.
AMD rollt hier das Feld von unten auf, die 199 USD werden bei uns so um die ~ 230-250 EUR ergeben und vielleicht ~ 280-300 EUR für die 8GB Modelle. Bleibt abzuwarten wie die Leistung der Karten dann tatsächlich aussieht und wie sich (bzw. ob sich) die Preise dann auch ändern (eben auch bei nV).
Ich hoffe endlich wieder etwas einen Preiskampf zu sehen, für die größeren nV Karten müssen wir jedoch wohl auf Vega warten und da bin ich froh daß diese angeblich früher kommen soll als erwartet.
 
Das die Auflösung ansteigen, war aber schon seit einiger Zeit bekannt. Das hat sich durch nach und nach kommende Produkte ja abgezeichnet. Da hätten sich Nvidia und AMD darauf einstellen können.

"drauf einstellen" das ist gut :d

es ist doch nichts neues das beide hersteller seit jahren nur noch kleckerbeträge an leistung von generation zu generation drauf packen, ob man das bewusst so handhabt oder ob man es nicht besser kann werde ich mal nicht beurteilen.

so eine 7970 und FuryX trennen zb knapp 4 jahre, in diesen 4 jahren hat man es geschafft hat die leistung knapp zu verdoppeln.

d9lp1n2alm4ybksfy.jpg


mit dem bedarf an 4k benötigt man aber von heute auf morgen 3-4 mal so viel gpu power (und nicht 2-fache leistung in 4 jahren!), dass das geht ist völlig absurd zu glauben.

aber spinnen wir das ganze mal weiter und gehen davon aus das es technisch möglich wäre für für 300€ eine grafikkarte zu verkaufen die in jedem titel in der lage wäre unter 4k genau so gut zu performen wie man es von 1080p gewöhnt ist:

was hätte man als gewinnorientiertes unternehmen denn davon?
die vielen fullhd spieler (sind vermutlich so 90%?!) bauen sich dann für 300€ so ein ding ein und sind dann die nächsten 5-10 jahre unter fullhd damit glücklich, 5-10 jahre in denen man an der masse an spielern kein geld verdient.
das wäre einfach nicht wirtschaftlich.
 
Zuletzt bearbeitet:
Für 350€ würd ich mir vielleicht die 1070 kaufen, für 400+ eher nicht. Nicht nur die Leistung und die 8gb reizen mich, sondern vor allem die 4k 10bit HEVC und damit auch hdr dolby vision unterstützung sind toll. Ist für nen kommenden Oled eine feine Sache.
 
Ich denke die ganze "Meckerwelle" wg. der Preise ist hauptsächlich nVidias "Founders Edition" und dessen höheren UVP geschuldet.

die meckerwelle hat so richtig mit der ersten titan angefangen. unglaublich was damals und vor allem mit jeder weiteren titan los war im internet.
 
Die GTX690 war mit 1000 Euro der Auslöser dann hat NV sich mit der Titan selbst an der Karte gemessen.
Es war das erstemal das eine Dualkarte mehr wie 2 Single Karten gekostet hat bzw das gleiche .
 
Bei der 500€ 680er hat man ebenso schon gemeckert mit dem selben fadenscheinigen Argumenten von wegen Mittelklassechip für HighEnd Geld... Und trotzdem hat sich der GK104 wie geschnitten Brot verkauft.

Im Endeffekt ist das alles völlig nebensächlich. Die Preise steigen seit 2009 mit JEDER Generation, welche es schafft beim schnellsten Modell schneller als die bisherigen Modelle zu sein... Fakt.
Es macht genau NULL Unterschied ob NV oder AMD die Preise dabei hochzieht, am Ende ist der Kunde der gearschte.

Was hier aber wie so oft richtig nervt ist diese selektive Wahrnehmung der Leute. Jaja, Böse Böse NV und die Wohlfahrt AMD...
Wenn es wenigstens stichhaltige Argumente geben würde, aber nein, da kommt das eigene Tellerranddenken und keinen cm weiter wird geschaut.
 
Für 350€ würd ich mir vielleicht die 1070 kaufen, für 400+ eher nicht. Nicht nur die Leistung und die 8gb reizen mich, sondern vor allem die 4k 10bit HEVC und damit auch hdr dolby vision unterstützung sind toll. Ist für nen kommenden Oled eine feine Sache.
.... ich musste grad Grinsen

50€ an einer Grafikkarte knausern, aber +500-1000€ beim Fernseher zusätzlich für oled ausgeben :)

Gesendet von meinem Elephone P8000 mit Tapatalk
 
.... ich musste grad Grinsen

50€ an einer Grafikkarte knausern, aber +500-1000€ beim Fernseher zusätzlich für oled ausgeben :)

Gesendet von meinem Elephone P8000 mit Tapatalk

Du hast Recht, das regt zum Grinsen an ^^. Ich versuche aber auch schon, den Oledpreis zu minimieren, so gut es geht und ein Mediaplayer und AVR wäre dann auch noch anzuschaffen. Irgendwo muss es auch mal eng werden. Unter 400€ erinnern auch eher an die 970, wäre schöner :)
 
die meckerwelle hat so richtig mit der ersten titan angefangen. unglaublich was damals und vor allem mit jeder weiteren titan los war im internet.
Ja die Titan war eine Sonderklasse für sich, die dickste GPU vor allem im Vergleich zur damals noch Top GTX 680, für damals auch unglaublich viel VRAM mit 6GB und keine Beschneidung der DP Leistung. Also eigentlich alles Eigenschaften die die Karte eher als Workstation Karte a'la Quadro, nur billiger klassifiziert. Allerdings war sie auf Gamer abgestimmt (wird wohl nicht mit zertifizierten Quadro Treibern laufen, oder?).
Auf jeden Fall war es in dem Sinn keine normale GeForce wie dann z.B. die 780 bzw. 780Ti.

Bei der 500€ 680er hat man ebenso schon gemeckert mit dem selben fadenscheinigen Argumenten von wegen Mittelklassechip für HighEnd Geld... Und trotzdem hat sich der GK104 wie geschnitten Brot verkauft.

Im Endeffekt ist das alles völlig nebensächlich. Die Preise steigen seit 2009 mit JEDER Generation, welche es schafft beim schnellsten Modell schneller als die bisherigen Modelle zu sein... Fakt.
Es macht genau NULL Unterschied ob NV oder AMD die Preise dabei hochzieht, am Ende ist der Kunde der gearschte.

Was hier aber wie so oft richtig nervt ist diese selektive Wahrnehmung der Leute. Jaja, Böse Böse NV und die Wohlfahrt AMD...
Wenn es wenigstens stichhaltige Argumente geben würde, aber nein, da kommt das eigene Tellerranddenken und keinen cm weiter wird geschaut.
Das 600er LineUp hat mich damals auch etwas geärgert, weil man eben schon wusste bzw. vorhersagen konnte daß nV da etwas dickeres nachschiebt. Da wusste man aber noch nicht daß das erst mal Titan werden würde und später dann in der 700er Serie die Kepler Chips nochmal verwurstet werden.
Aber (ähnlich wie jetzt) passte die Leistung der 680 mit genug Abstand zur 580er und (zum Unterschied zu jetzt) zum gleichen Preis der vorherigen Modelle.

Ist halt die Frage ob das mit den steigenden Preisen seit 2009 so weiter geht. Dann könnte heise mit dem Titel sogar irgendwann recht behalten :fresse:

Und ja - in letzter Zeit wird immer wieder AMD (auch in Sachen CPUs, APUs, APIs etc.) immer wieder als gemeinnütziges Unternehmen dargestellt. AMD ist ein Unternehmen wie jedes andere auch, mit dem Ziel Geld zu verdienen. Wenn sie es könnten würden sie für Ihre Produkte auch deutlich mehr Geld verlangen, so wie sie es ja auch schon oft getan haben. Und auch sie würden die Ellenbogen ausfahren und wohl da und dort mal nicht so feine Aktionen starten (was sie ja in der Vergangenheit auch schon mal gemacht haben). Ja - viele Sachen sind toll die sie machen bzw. entwickeln wie z.B. Mantle was einiges ins Rollen gebracht hat, oder auch einige Technologien vorangetrieben haben. Aber all das machen die ja auch nicht aus Nächstenliebe - sie erhoffen sich damit einen Vorteil ggü. der Konkurrenz.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh