heise.de: Grafikkarten nur noch für Gutverdiener

Es ist doch offensichtlich, das AMD das nur macht, weil sie dazu gezwungen sind. Hätten sie geschlossene Standards wie nVidia wären sie schon 10x weg vom Fenster weil pleite. Sie nutzen open source um Kosten zu sparen und zu sagen hier schaut mal wir sind die guten und machen das umsonst (nur weil wir müssen und euch normalerweise genau so ausziehen würden wie nVidia).

Ist genau wie in der Politik wo die Opposition so lange geile Sachen verspricht bis sie dann selbst regiert und alles vergessen hat was mal war ...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber (ähnlich wie jetzt) passte die Leistung der 680 mit genug Abstand zur 580er und (zum Unterschied zu jetzt) zum gleichen Preis der vorherigen Modelle.

Nur ist genau das eben nicht der Fall...
Die 680er hat zum Start ~500€ gekostet. Die vorher erschienene HD7970 hat ebenso ~500€ gekostet. Die 580er als schnellstes NV Modell vor der 680er hat damals im Laden um die 340€ gekostet. Zum Release der 7970 waren es noch ~380€.
Warum muss man das extra erwähnen? Und warum glaubt man offenbar immer, dass erst seit heute die Preise steigen? Unsinn sag ich dazu... Die Preise steigen seit 2009... Wie erwähnt. Und es gibt/gab Fälle, wo es NV angehoben hat und ebenso welche, wo AMD am Drücker war. Nichts weltbewegendes aus meiner Sicht.

Und natürlich, wenn der Trend sich weiter fortsetzt, dann wird das irgendwann mal interessant werden... Aber ganz ehrlich, der Kunde ist doch hier am Drücker, wenn genügend Leute nicht mehr kaufen, dann gibts vielleicht irgendwann diese "Linie" nicht mehr... Oder es gibt eine Premium Linie, die vielleicht noch viel teurer ist und genau für dieses "Luxusgut" sein soll.
 
Downgrade heißt leider nicht gute Performance! Außerdem braucht man Leistung, um die Grafik aufzuhübschen!
 
Nur ist genau das eben nicht der Fall...
Die 680er hat zum Start ~500€ gekostet. Die vorher erschienene HD7970 hat ebenso ~500€ gekostet. Die 580er als schnellstes NV Modell vor der 680er hat damals im Laden um die 340€ gekostet. Zum Release der 7970 waren es noch ~380€.
Warum muss man das extra erwähnen? Und warum glaubt man offenbar immer, dass erst seit heute die Preise steigen? Unsinn sag ich dazu... Die Preise steigen seit 2009... Wie erwähnt. Und es gibt/gab Fälle, wo es NV angehoben hat und ebenso welche, wo AMD am Drücker war. Nichts weltbewegendes aus meiner Sicht.

Und natürlich, wenn der Trend sich weiter fortsetzt, dann wird das irgendwann mal interessant werden... Aber ganz ehrlich, der Kunde ist doch hier am Drücker, wenn genügend Leute nicht mehr kaufen, dann gibts vielleicht irgendwann diese "Linie" nicht mehr... Oder es gibt eine Premium Linie, die vielleicht noch viel teurer ist und genau für dieses "Luxusgut" sein soll.

Die 680er hat genau wie die 580er ZUM RELEASE 499 USD gekostet. PCGamesHardware hat die Karten jeweils getestet und schrieb etwas daß die bei uns 480 bzw 479 EUR zum Release gekostet haben.
Daß die 580er und die 7970er im Preis gefallen sind vor Release der 680er (was ja bei der 7970 eher knapp vorher war) ist ja das was ich vorher auch meinte, daß die Grafikkarten ja normalerweise über Ihre Lebenszeit günstiger werden. Im Falle der 980 und 970 war das bis jetzt aber kaum der Fall. Nicht einmal jetzt kann man eine GTX 980 um 340 EUR kaufen. Und bis vor einigen Monaten war sogar die GTX 970 noch auf diesem Preis.
 
Die 680er hat genau wie die 580er ZUM RELEASE 499 USD gekostet.

Ich versteh das Argument schon, es ist nur sinnfrei aus meiner Sicht. Was interessiert mich der Releasepreis der alten Karte, wenn das Teil deutlich unter UVP Releasepreis im Laden steht? Ich kaufe doch nicht für den Releasepreis sondern für das Geld, was der Händler verlangt. Und wenn es dann teuerer wird, wirds eben teuer. Die Wahl bleibt bei, kaufen oder nicht kaufen...
Genau so bei der neuen Generation, es gibt einen Preis für die alten Modelle mit Preis xyz und die Preise der neuen Modelle mit Preis abc und es gibt eine P/L Kurve... -> im Moment ist diese am steigen. Sowohl bei der 1070er als auch bei der 1080er, wenn man NV intern vergleicht. Ggü. AMD gehts freilich nicht auf. Aber das kann auch ganz andere Gründe haben.

Im Falle der 980 und 970 war das bis jetzt aber kaum der Fall. Nicht einmal jetzt kann man eine GTX 980 um 340 EUR kaufen. Und bis vor einigen Monaten war sogar die GTX 970 noch auf diesem Preis.

Das liegt viel eher am Dollar/Euro Kurs. Wenn da vorher 1/1,3x standen und heute 1/1,10-1,15, dann ist das schon ne Menge Holz. Nicht umsonst sind die Preise in letzter Zeit alle irgendwie gestiegen.
Sieht aber auch meist Niemand. Da fallen hier Kommentare von wegen, damals gabs für 200€ gute Karten... Ja logisch, wenn man sich die Rosine pickt, wo das Performance Segment ab 110€ zu haben war, gibts für 200€ auch das quasi dickste Pferd im Stall. Noch dazu war das zu der Zeit, wo der Dollar irgendwie bei 1/1,5x stand.

Nur ist so eine Argumentation objektiv? Finde ich nicht... Viel einfacher ist es da natürlich, einfach einem Hersteller die Schuld in die Schuhe zu schieben. :wink: (letzteres war übrigens nicht auf dich gemüntzt)
 
Zuletzt bearbeitet:
früher kostete / heute kostet ....

Sinnfreie Sätze....

ein Top Bäcker Brötchen kostete mal 8 Pfennig

ein Top Bier kostete mal 8 Mark/Kasten ....


Im Gegenzug:

Ein Top PC kostete mal 6000+ Mark



Gesendet von meinem Elephone P8000 mit Tapatalk
 
Zuletzt bearbeitet:
Wie Performer bereits sagte ... meckern macht Spaß :hail: ich habe die genauen Daten der Grakas nicht im Kopf, aber bei den meisten zockern steht die Graka sowieso auf Höchstleistung nicht auf Energiesparen und da vermutlich wenig Leute die FPS einschränken werden die schon gut Strom lutschen. Obs dann statt meinen angegebenen 50 "nur" 35/40€ im Jahr mehr sind auch egal.
Fakt ist eine Graka zieht weniger Strom als 2 und die Strompreise werden auch nicht gerade günstiger, allein die EEG-Umlage macht mittlerweile ca. 60% des Preises aus, wer weiß was in Zukunft noch dazu kommt.

Wenn ich das von Koffeinjunkie so lese, dann habe ich das Gefühl er hat die Schwierigkeit zwischen höher werdenden Auflösungen und Technischer Möglichkeit nicht ganz verstanden.
(Oder vlt. verstehe ich das auch nicht ;P)

Ist genauso als würdest du dich jetzt drüber beschweren, das mittlerweile nicht jedes Auto mindestens 400PS hat für 20000€ Neupreis, weil es gibt ja schon lang genug Autos.
Wenn die Technik so schnell voranschreiten würde wie du es wünscht, dann wäre heute VR ein alter Hut und man hätte hier den T1000 rumlaufen oder so. (So meine Sicht der Dinge :d viele Stellen sich das alles immer so einfach vor.)

Vielen Dank für das lesen und verstehen meines Postes. :shake:
 
Ich hab hier 2 Konsolen nebeneinander stehen, die Nintendo wiiU und die PS4.

Meine Freunde sind von der WiiU restlos begeistert die auch die günstigste Konsole ist obwohl natürlich die PS4 auch günstig ist(nicht wie die PS3), ein Freund von mir meinte dann: ich zahle sicher keine 300 Euro mehr für eine Grafikkarte.

Das interessante ist das die Spiele auf der WiiU auch ganz gut aussehen.
 
Zuletzt bearbeitet:
Ich hab hier 2 Konsolen nebeneinander stehen, die Nintendo wiiU und die PS4.

Meine Freunde sind von der WiiU restlos begeistert die auch die günstigste Konsole ist obwohl natürlich die PS4 auch günstig ist(nicht wie die PS3), ein Freund von mir meinte dann: ich zahle sicher keine 300 Euro mehr für eine Grafikkarte.

Das interessante ist das die Spiele auf der WiiU auch ganz gut aussehen.

:d klar sehen die auch ganz "gut" aus, aber das kann man überhaupt nicht vergleichen.
Ich habe noch nie wirklich was von der WIIU gesehen, aber generell sieht man bei Konsolen schon recht deutlich, das gut an Sichtweite oder Details wie Gräser usw. gespart wird.
Wenn eine Grafikkarte nur eine Auflösung von 720P statt 1080p/4K, einen Umkreis von z.B. 10 statt 100 Meter berechnen muss und nur ein paar vereinzelte Gräser aus dem Boden gucken und wackeln muss so eine Graka natürlich deutlich weniger arbeiten. Die ganzen Konsolenfans haben da keine Grafikregler die sie hoch drehen können und sehen daher garnicht was so eingestellt ist, das sieht bei den PC Spielen schon anders aus.

PS: Die Graka in der WIIU entspricht in etwa einer Radeon HD 4650 und die bekommt man mittlerweile hinterhergeschmissen. Für 150€ bekommt man eine 950GTX/R7 370 mit diesen kann man auch alle aktuellen Spiele problemlos spielen, aber kann eben die Regler nicht auf Max. stellen ;P.


Vielen Dank für das lesen und verstehen meines Postes. :shake:

Ich weiß schon was du meinst. Ist mir klar das die Angaben für Volllast angegeben sind und man dafür schon einiges tun muss um da hin zu kommen, aber das gilt ja für AMD sowie NV. Tatsache ist aber zwei Grakas verbrauchen mehr als eine, auch im Idle.
Was eben wie bereits gesagt dazu kommt ist, das viele Spiele kein FPS Limit setzen und dann gibt die Graka auch Vollgas.
 
Zuletzt bearbeitet:
Ich weiß schon was du meinst. Ist mir klar das die Angaben für Volllast angegeben sind und man dafür schon einiges tun muss um da hin zu kommen, aber das gilt ja für AMD sowie NV. Tatsache ist aber zwei Grakas verbrauchen mehr als eine, auch im Idle.
Was eben wie bereits gesagt dazu kommt ist, das viele Spiele kein FPS Limit setzen und dann gibt die Graka auch Vollgas.

Du musst dich mal besser informieren, dann wüsstest du, das wir alle nichts über den Verbrauch der 480 wissen. Die 2 mal 150 können stimmen, müssen aber nicht. Es steht immer noch die Aussage "bessere Effizienz als eine 1080" im Raum und da passen die 150W pro Karte einfach nicht dazu.
Auch verbrauchen zwei karten im Idle nicht zwingend mehr strom als eine, Stichwort Zerocore, bei dem sich eine Karte komplett abschaltet.
Es steht auch nirgends etwas von einem FPS Limiter, keine Ahnung, wo du den immer her holst.
 
Es steht immer noch die Aussage "bessere Effizienz als eine 1080" im Raum und da passen die 150W pro Karte einfach nicht dazu.

Was AMD unbedingt verbessern muss, ist der Verbrauch bei Medienwiedergabe, denn dort sind AMDs alte Karten unterirdisch schlecht.




Hoffentlich wird die RX 480 hier besser. Denn es würde mich total anätzen, wenn bei der Wiedergabe eines Films der Grafikkarten Lüfter anspringen würde.
 
Du musst dich mal besser informieren, dann wüsstest du, das wir alle nichts über den Verbrauch der 480 wissen. Die 2 mal 150 können stimmen, müssen aber nicht. Es steht immer noch die Aussage "bessere Effizienz als eine 1080" im Raum und da passen die 150W pro Karte einfach nicht dazu.
Auch verbrauchen zwei karten im Idle nicht zwingend mehr strom als eine, Stichwort Zerocore, bei dem sich eine Karte komplett abschaltet.
Es steht auch nirgends etwas von einem FPS Limiter, keine Ahnung, wo du den immer her holst.

Ich weiß das es aktuell niemand weiß, aber 100-150Watt sind denke ich ein realistischer Wert. AMD ist auch nicht gerade bekannt dafür stromsparend zu bauen.

Das mit der FPS Begrenzung kommt auch von niemanden das kam von mir und damit meine ich wenn man ein Spiel spielt und dort die fps nicht begrenzt, dann haut die graka so viele bilder die sek raus wie sie kann, ergo sie verbraucht mehr strom oft bis fast zum max der graka. Bei cs go idle ich manchmal zwischen 300-450fps rum wenn ich diese nicht auf 120 beschränke.

Dazu kommt was bringt mit der tolle zencore, wenn ich zocke? Genau nichts dann kann ich auch mit einer graka spielen :d sowas kauft man sich für spieleleistung und nicht um mit chrome durchs inet zu surfen. Da wirds dann im seltensten Fall die Abschaltung der 2ten graka geben.
 
Zuletzt bearbeitet:
Ich weiß das es aktuell niemand weiß, aber 100-150Watt sind denke ich ein realistischer Wert. AMD ist auch nicht gerade bekannt dafür stromsparend zu bauen.

Das mit der FPS Begrenzung kommt auch von niemanden das kam von mir und damit meine ich wenn man ein Spiel spielt und dort die fps nicht begrenzt, dann haut die graka so viele bilder die sek raus wie sie kann, ergo sie verbraucht mehr strom oft bis fast zum max der graka. Bei cs go idle ich manchmal zwischen 300-450fps rum wenn ich diese nicht auf 120 beschränke.

Dazu kommt was bringt mit der tolle zencore, wenn ich zocke? Genau nichts dann kann ich auch mit einer graka spielen :d sowas kauft man sich für spieleleistung und nicht um mit chrome durchs inet zu surfen. Da wirds dann im seltensten Fall die Abschaltung der 2ten graka geben.

Und Nvidia hatte die gtx480, bedeutet das jetzt, das alle Nvidia karten laut, heiß und Stromfresser sind? Btw hat AMD zu der Zeit die effizienteren Karten.
Bis zur 900er Serie haben sich beide nicht viel genommen. (@all: ich will damit keine Diskussion auslösen, lasst es einfach bleiben)

Zum Rest kann ich nur sagen, mir wurde das zu blöd. Lern die Grundlagen und richtigen Begriffe, so hat eine Diskussion keinen Sinn. Wenn der PC idler, macht er nichts, wenn ein Spiel läuft, läuft ein Spiel, dem PC ist egal ob du davor sitzt oder nicht.
 
Ich weiß das es aktuell niemand weiß, aber 100-150Watt sind denke ich ein realistischer Wert. AMD ist auch nicht gerade bekannt dafür stromsparend zu bauen. [...]
und der nächste, der keine ahnung hat.

in den 28nm generationen hatte nvidia die effizienteren high-end karten.
in der generation davon wars genau umgekehrt. die 480 ist immer noch der schlimmste heizlüfter, der je verkauft wurde.
aber das hat der selbsternannte "neutrale" user irgend wie damals schon verdrängt. da hiess es immer leistung>alles, stromverbrauch juckt bei einem hobby nicht. diese einstellung hat sich komischerweise genau dann geändert als nvidia die sparsamere karte hatte. zufälle gibts.
 
Zuletzt bearbeitet:
Und Nvidia hatte die gtx480, bedeutet das jetzt, das alle Nvidia karten laut, heiß und Stromfresser sind? Btw hat AMD zu der Zeit die effizienteren Karten.
Bis zur 900er Serie haben sich beide nicht viel genommen. (@all: ich will damit keine Diskussion auslösen, lasst es einfach bleiben)

Zum Rest kann ich nur sagen, mir wurde das zu blöd. Lern die Grundlagen und richtigen Begriffe, so hat eine Diskussion keinen Sinn. Wenn der PC idler, macht er nichts, wenn ein Spiel läuft, läuft ein Spiel, dem PC ist egal ob du davor sitzt oder nicht.

Gut dann verwechsel ich das vlt. mit AMD & Intel.
Zum 2 kann ich auch nur sagen lern lesen & begreifen was geschrieben wird.
Hier wurde über den Stromverbrauch diskutiert und ich habe lediglich gesagt wenn man sich so eine Grafikkarte kauft dann sitzt man sicherlich nicht vor dem PC und arbeitet in Excel/Word oder sonst wo. Da ist es ziemlich wahrscheinlich, dass dort meistens Spiele laufen und Grafikpower verlangt wird und daher ist dann die Idle Situation relativ egal, mehr wollte ich damit nicht sagen.
Was ich mit der FPS-Begrenzung in Kombination mit der Graka meine scheint wohl auch nicht klar zu sein, wüsste nicht welche "richtigen" Begriffe ich dafür kennen sollte. Gibt in so manchen Spielen die Einstellung max. Vordergrund FPS und min. Hintergrund FPS, durch die Regler könnte man höchstens beim Spielen Strom sparen, aber die wenigsten setzen diese fest und haben die Eintellung auf unbegrenzt stehen.

und der nächste, der keine ahnung hat.

in den 28nm generationen hatte nvidia die effizienteren high-end karten.
in der generation davon wars genau umgekehrt. die 480 ist immer noch der schlimmste heizlüfter, der je verkauft wurde.
aber das hat der selbsternannte "neutrale" user irgend wie damals schon verdrängt. da hiess es immer leistung>alles, stromverbrauch juckt bei einem hobby nicht. diese einstellung hat sich komischerweise genau dann geändert als nvidia die sparsamere karte hatte. zufälle gibts.

Habe ein paar Post vorher gesagt das ich da nicht so die Ahnung habe, aber ich spreche auch von den jetzt neuen Karten, da sind mir die alten Stromfresser usw. eig ganz egal, wie oben gesagt vlt verwechsel ich das Thema Strom auch mit Intel & AMD.
 
Zuletzt bearbeitet:
und der nächste, der keine ahnung hat.

in den 28nm generationen hatte nvidia die effizienteren high-end karten.
in der generation davon wars genau umgekehrt. die 480 ist immer noch der schlimmste heizlüfter, der je verkauft wurde.
aber das hat der selbsternannte "neutrale" user irgend wie damals schon verdrängt. da hiess es immer leistung>alles, stromverbrauch juckt bei einem hobby nicht. diese einstellung hat sich komischerweise genau dann geändert als nvidia die sparsamere karte hatte. zufälle gibts.

+1
 
Habe ein paar Post vorher gesagt das ich da nicht so die Ahnung habe, aber ich spreche auch von den jetzt neuen Karten, da sind mir die alten Stromfresser usw. eig ganz egal, wie oben gesagt vlt verwechsel ich das Thema Strom auch mit Intel & AMD.

Es ist auch so super lange noch nicht her da hatte AMD auch die sparsameren CPU´s. Einfach mal bei den Pentium 4 vorbei schauen.
Wíeso willst du eigentlich unbedingt AMD allgemein egal ob CPU als auch GPU als schon immer die Stromfresser darstellen ? Ja seit der 9er Generation war Nvidia jetzt halt mal besser und Bulldozer war auch nicht der große wurf aber ist schon leicht unfair sich seine Argumente immer schön zurecht zu basteln und sich nur die Zeiträume anzuschauen die die eigene These stützen.

Wieso sollte man mit einem PC mit viel Grafikleistung auch nicht normal arbeiten können ? Ich habe auch immer potente Karten verwendet und trotzdem wird überwiegend "leichte" Arbeit mit einem Rechner verrichtet und nicht nur gezockt.
In welchen heutigen Spielen gibt es denn Regler für Vordergrund und Hintergrund FPS ? Das ist mir gänzlich neu.

Und bitte lern mal die richtigen Begriffe zu nutzen. Idlen in CS GO bei 300-400FPS ? Wie soll denn bitte sowas gehen.
 
Zuletzt bearbeitet:
Btw hat AMD zu der Zeit die effizienteren Karten.
Bis zur 900er Serie haben sich beide nicht viel genommen. (@all: ich will damit keine Diskussion auslösen, lasst es einfach bleiben)

Kannst du das mit Messwerten belegen? Denn ich habe den Eindruck, dass aktuell immer noch die Nvidia Karten weitaus effizienter sind.

Wäre cool, wenn du die Messwerte teilen könntest, damit nicht der Eindruck entsteht, du würdest einfach nur ein paar Phrasen aus einem AMD Trollfabrik Handbuch posten.

Und warum willst du keine Diskussion? Wenn du eine starke Meinung hast und Messwerte, die dies belegen, dann kannst du die Messwerte doch auch teilen. Du bist doch keine AMD Marketing Drohne, oder?
 
Natürlich ist eine Karte wünschenswert, die im Idle nur ein paar Watt verbraucht. Im Idealfall auch während der Medienwiedergabe. In der Vergangenheit gab es immer einen Hersteller, der zugunsten einer Eigenschaft Abstriche anderswo gemacht hat. Je weiter es zurück in die Vergangenheit geht, desto höher war tendenziell der Verbrauch im Idle. Unter Last kommt zum tragen, dass die Karten mit kleinem Die oftmals sehr hohe Takte haben, um sie gegen eine bestimmt Karte der Konkurrenz zu positionieren, oder um die alte Garde zu übertrumpfen. Das geht eben zu lasten des Verbrauchs. 165 bzw. 180W sind da in meinen Augen nichts weltbewegendes. Die 290(X) ist so ein Beispiel mit großen Die, bei der unbedingt die Titan in Angriff genommen werden sollte, auch wenn der Stromverbrauch und Akustik darunter leiden. Für die bis zu 280W Abwärme war das Radialgebläse an die Grenze gelangt. Die spiele-typischen 200-220W bei Nvidia sind einfach leiser zu kühlen. Ich störe mich auch nicht am Verbrauch unter Last. 300W unter Volllast würde ich begrüßen, wenn bei der 1080ti/bzw. dem AMD Pendant ein riesiger Die Dienst tut, auch mit geringen Taktraten, der aber eine bombastische Leistung entfaltet. Zwischen Nvidia und AMD tut sich nicht viel, es gab immer gute und schlechte Beispiele auf beiden Seiten.
 
Es ist auch so super lange noch nicht her da hatte AMD auch die sparsameren CPU´s. Einfach mal bei den Pentium 4 vorbei schauen.
Wíeso willst du eigentlich unbedingt AMD allgemein egal ob CPU als auch GPU als schon immer die Stromfresser darstellen ? Ja seit der 9er Generation war Nvidia jetzt halt mal besser und Bulldozer war auch nicht der große wurf aber ist schon leicht unfair sich seine Argumente immer schön zurecht zu basteln und sich nur die Zeiträume anzuschauen die die eigene These stützen.

Wieso sollte man mit einem PC mit viel Grafikleistung auch nicht normal arbeiten können ? Ich habe auch immer potente Karten verwendet und trotzdem wird überwiegend "leichte" Arbeit mit einem Rechner verrichtet und nicht nur gezockt.
In welchen heutigen Spielen gibt es denn Regler für Vordergrund und Hintergrund FPS ? Das ist mir gänzlich neu.

Und bitte lern mal die richtigen Begriffe zu nutzen. Idlen in CS GO bei 300-400FPS ? Wie soll denn bitte sowas gehen.

Gut ich habe nicht alles an CPU & Graka verfolgt, immer nur wenn ich mir neue Hardware zugelegt habe und zu den Zeitpunkten war immer Intel und NV besser Preis/Leistung. Kann natürlich gut sein das AMD da in manchen Jahren besser aufgestellt war und das an mir vorbei ist.

Ich habe nie behauptet, dass man mit so einem PC nicht normal arbeiten kann. Ich sagte lediglich das man sich für Excel/Word keine 1080GTX/480X kauft. Aber da habe ich auch ein wenig von mir auf andere geschlossen gibt sicher genug die viel zuhause arbeiten, aber dafür habe ich z.B. meinen Firmenlaptop.

Zu den FPS Begrenzungen, zum einen haben beinahe alle Spiele die eine Konsole bieten die Möglichkeit die FPS zu begrenzen. Wo ich mir sicher bin das es Regler in den Einstellungen gibt ist Diablo3 (https://bnetcmsus-a.akamaihd.net/cms/kb_media/FSQR7NK1VWPZ1389730800648.png) und WoW (https://bnetcmsus-a.akamaihd.net/cms/kb_media/L6ILOFA3ECCI1362430732999.png), aber da gibt's sicherlich noch mehr Spiele.
Mit den 300-400 FPS rum idlen, da habe ich mich falsch ausgedrückt. Damit wollte ich nur sagen das mein PC bei CS-GO 300 - 400 FPS schafft und deswegen meine CPU + Graka Vollgas geben und daher mehr Strom verbrauchen (Ich habe aber via Konsole die FPS auf 120 begrenzt, wodurch die CPU und Graka weniger arbeiten muss (Weniger Stromverbrauch).
 
Zuletzt bearbeitet:
Ich versteh das Argument schon, es ist nur sinnfrei aus meiner Sicht. Was interessiert mich der Releasepreis der alten Karte, wenn das Teil deutlich unter UVP Releasepreis im Laden steht? Ich kaufe doch nicht für den Releasepreis sondern für das Geld, was der Händler verlangt.
Häh? Versteh ich einfach nur nicht was Du meinst?

Ich sagte:
Aber (ähnlich wie jetzt) passte die Leistung der 680 mit genug Abstand zur 580er und (zum Unterschied zu jetzt) zum gleichen Preis der vorherigen Modelle.

Du darauf:
Nur ist genau das eben nicht der Fall...
Die 680er hat zum Start ~500€ gekostet. Die vorher erschienene HD7970 hat ebenso ~500€ gekostet. Die 580er als schnellstes NV Modell vor der 680er hat damals im Laden um die 340€ gekostet. Zum Release der 7970 waren es noch ~380€.

Und darauf antwortete ich eben daß ich natürlich die Release Preise miteinander vergleiche, und es eben normalerweise der Fall ist daß Modelle während Ihrer Lebenszeit günstiger werden. Würde ja keinen Sinn machen die 680er zum dann aktuellem Preis der 580er zu releasen.

Üblicherweise sind ja die Modelle meistens gleich im (Release) Preis (abgesehen von vielleicht Inflation und dadurch leichte Preisanstiege). Genau wie bei den CPUs oder von mir aus auch (ich weiß - blöde) Autovergleiche. Ich kann ja auch nicht den neuen Golf von Generation zu Generation deutlich im Preis anheben, dann wäre der ja nach ein paar Generationen schon in der Preisklasse einer Mittelklasse bzw. irgendwann Oberklasse oder von mir aus ein i5 irgendwann auf i7 (Mainstream Sockel) Preisniveau.

---

Also nochmal, die Modelle davor hatten alle etwa den gleichen Releasepreis von 499-549 USD (980, 780 tanzt da eher Namenstechnisch aus der Reihe da eigentlich ein "großes Modell", 680, 580, 480 ...). Jetzt mit der 1080 (vor allem der F.E.) ist das nicht mehr so. Die Modelle sind mehr oder weniger alle (teils deutlich) im Preis gefallen, oft schon kurz nach Release. Bei der 980er war das bis jetzt nicht der Fall (erst in den letzten Tagen gibt es ein paar Modelle um ~ 400 EUR).

Und nein - wie Du schreibst
Das liegt viel eher am Dollar/Euro Kurs. Wenn da vorher 1/1,3x standen und heute 1/1,10-1,15, dann ist das schon ne Menge Holz.
in dem Fall ist das nicht korrekt. Zum Release der 980er (Sept/Okt 2014) war der Kurs auf etwa 1/1,25 und fiel dann bis ~ Feb. 2015 auf etwa 1/1,10. Das sieht man auch im Preisverlauf einiger Modelle, aber seit dem schwankt der Kurs bis heute um die 1,10 herum und trotzdem sind die Preise der Karten konstant geblieben.
Kursentwicklung ab Ende 2014 interessant für die 970/980:


Preisverlauf gängiger Referenz 980er:
https://geizhals.de/?phist=1168297
https://geizhals.de/?phist=1168303

Also ich sehe da keine abfallende Kurve seit ~ Feb 2015 beim Kurs - nur schwankend und auch keine abfallende Kurve bei den 980ern - eher schwankend.

Nicht umsonst sind die Preise in letzter Zeit alle irgendwie gestiegen.
Mit Ende 2014/Anfang 2015 - ja. Und ja das liegt am Kurs von damals. Seit dem sollte augrund des Kurses jedoch nichts gestiegen sein. Und ja die EUR Preise von davor kann man natürlich schwer mit heute vergleichen, die USD Preise jedoch sehr wohl. Deswegen schreibe ich ja auch immer von Releasepreisen in USD.

Nur ist so eine Argumentation objektiv? Finde ich nicht... Viel einfacher ist es da natürlich, einfach einem Hersteller die Schuld in die Schuhe zu schieben. :wink: (letzteres war übrigens nicht auf dich gemüntzt)
Ist natürlich nicht einfach da die Schuld irgendwo zu suchen bzw. zu sagen "das ist weil ...".
Deswegen schreibe ich ja auch daß in meinen Augen der Aufschrei eigentlich nur wg. der Founders Edition und des dafür höher ausgerufenen Release Preis entstanden ist. Die F.E. (= Referenz mit neuem Namen) hätte in meinen Augen gleich 599 USD kosten sollen - das wäre realistisch. Eben 499 USD für die 480, 580, 680, und zuletzt 549 USD für die 980. Aber gleich 699 USD? Was bei uns gleich 789 EUR - UVP sind? Klar daß da einige meckern.

Ich persönlich will es mir nicht leisten so viel für eine Grafikkarte auszugeben. Ich habe schon viel viel viel Geld in Hardware gesteckt seit dem ich 1992 meinen ersten eigenen PC hatte. Aber so viel habe ich glaube ich für noch keine meiner Karten die ich meist kurz nach Release gekauft habe bezahlt. Und da waren einige dabei ... Tseng ET4000, Matrox Millenium, Tseng ET6000, 3DFX Voodoo Graphics, Voodoo² (Miro mit TV-Out), Riva TNT AGP 16MB (Elsa), Ultra TNT2 (ASUS mit ViVo und 3D Brille), GeForce 3, Radeon 9800 SE, FX 5900, GeForce 6800GT, GeForce 7900GT AGP, ATI X1900GT, HD4850, GTX260 216sp, GTX680.
Ab und zu hätte es da größere Modelle gegeben die meist unverhältnismäßig teurer waren. So wie halt jetzt auch. Ich warte lieber noch ab, wohl bestimmt noch bis zum Release der dicken AMD und nV Karten (Vega und 1080Ti) und dann entscheide ich.

---

Und bzgl. dem Thema mit den 150 Watt TDP bei der RX 480 ... das ist halt der max. Wert den die Karte auf längere Zeit an Hitze abführen kann. Es weiß noch keiner wie das in der Realtität aussieht. Ich kann mir gut vorstellen daß die Karte vielleicht längere Zeit höhere Taktraten fahren kann und die 150W vielleicht sogar leicht übersteigt (viel geht ja offiziell lt. Specs des PCI-E und des 6 Pin Anschlusses nicht) - aber nach einer Weile wird sie vielleicht auf unter 150W abfallen.
Im Schnitt wird's schon nicht so schlimm werden, ich mein immerhin - neue Fertigung, - neue Architektur, - kein dicker High End Chip und immer wieder die Betonung seitens AMD der Effizienz. Gut - letzteres kann auch nur Marketing Bla-Bla sein, aber unrealistisch ist es nicht. Also wartet mal ab.
 
Zuletzt bearbeitet:
"Grafikkarten für Spieler sind viel zu teuer. Früher brachte eine neue Generation die doppelte Leistung zum gleichen Preis."*

*Quelle: Grafikkarten nur noch für Gutverdiener

Ich empfinde die Marktsituation alles andere als korrekt. Wie der Autor auf heise.de beschreibt, denke ich ebenso, dass sich Nvidia langfristig schaden wird...

Edit:...

Sind Apple iPhones auch nur noch für Gutverdiener oder die neuesten Samsung Galaxy Phones? Da rennen komischerweise aber viele Menschen mit rum. Der heise Artikel ist einfach totaler Quatsch. Klickbait mehr nicht. Außerdem frage ich mich ob der Autor auch der Meinung ist, dass sich Apple oder Intel mit ihrem Preisverhalten langfristig schaden oder auch die deutschen Autobauer. Die ziehen ihre Hochpreisstrategie schon sehr lange durch und offensichtlich verdienen sie damit sehr gut. Mein neuer Audi A4 kostet unverhandelt mit der von mir gewählten Ausstattung Listenpreis stolze 70.000 Euro. Ich glaube früher hat man für so eine Karre vielleicht 40 bis 45.000 DM hingelegt. Irgendwie verkaufen sich die Autos aber trotzdem.

Der Artikel klingt so ein bisschen nach. Mimimi ich bin Schüler und kann mir keine High End oder Enthusiast Karte mehr kaufen. So what? Darauf gibts auch gar keinen Anspruch. Es ist ja nicht so, dass es nicht günstigere Grafikkarten / GPUs mit zugegebener Maßen geringerer Leistung als die High End Teile gibt. Der Autor übersieht auch ein recht wichtiges Detail. Früher war Gaming mehrheitlich eine Sache von Kindern, Schülern und Jugendlichen. Die Schüler / Jugendlichen von damals (dazu zähle ich mich auch) sind heute erwachsen, stehen im Berufsleben und verdienen Geld und spielen immer noch. Das heißt zu der normalen Kundschaft Kinder, Schüler, Jugendliche, Studenten kommt eine weitere große Gruppe der Berufstätigen dazu. Und letztere können nun mal auch mehr Geld ausgeben. Demzufolge ziehen die Preise an.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh