Ampere-Architektur von NVIDIA soll im April starten – Turing als Codename der ersten GeForce-Karte

es bleiben da wohl nur die monitorhersteller übrig.
sollte tatsächlich eine gebühr für das g-sync modul fällig werden, könnten diese sich ja geschlossen weigern zu bezahlen.

dann bliebe als option die gebühr seitens nv zu erlassen oder eben auf den offenen standard zu gehen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@mastergamer
Wieso? G-Sync funktioniert ja deswegen weiterhin nur mit NV. Und FreeSync weiterhin nur mit AMD... Nur dass der User eben den Monitor behalten kann, wenn er den GPU Hersteller wechselt.
Weder NV noch AMD hätten dadurch theoretisch einen Nachteil. Den eigentlichen Nachteil hätten die Monitor-Hersteller, weil durch den GPU-Herstellerwechsel ein potentieller Neukauf des Monitors nicht mehr zur Debatte stehen würde... Aber kommt ein Monitorkauf so häufig vor, dass es überhaupt relevant wäre?
Ich habe in den letzten 20 Jahren ganze 5x Monitore an meinem Haupt-PC gehabt. 2x Röhre, 3x Flach aber im Vergleich dazu in sogut wie jeder Generation min. 1x die GPU gewechselt...
 
In meinen Augen war doch der Hauptsinn von Gsync, dass man eben einen proprietären Standard hat und den User indirekt zwingen will, weiterhin Nvidia Karten zu kaufen um dieses Feature nutzen zu können?

Wenn man nun den Monitorherstellern erlauben würde neben Gsync auch parallel Freensync zu supporten, dann hätte man doch gleich den offenen adaptive sync Standard nutzen können?
 
Nein, der Sinn hinter G-Sync war überhaupt erstmal eine Möglichkeit zu bieten, dieses Feature an den Mann zu bringen. Denn was heute idR nicht bekannt ist - G-Sync ist älter als FreeSync (im DP1.2a Standard). Auch wenn sich der endgültige Release glaube ich etwas gezogen hat für G-Sync hat NV G-Sync schon vorgestellt, bevor FreeSync in den DP Standard einzug gehalten hat. Es gab im Endeffekt nur die embedded Geschichten - die im Retail Markt bei dGPUs aber nicht im Einsatz sind/waren.

Mal zwei Links auf die Schnelle via Google - man achte auf die Datumsangaben...
VESA Adds Adaptive-Sync to DisplayPort Video Standard - Updated AMD
Nvidia G-Sync angetestet: Der versklavte Monitor im Praxiseinsatz - die LCD-Revolution? [Test der Woche]


Interessiert halt nur heute keinen mehr - dass es einfach nix gab, auf was man hätte bauen können. Also hat man sich seine Technik selbst zusammengeschustert. -> G-Sync.
Es wäre natürlich anders gegangen und man hätte gleich (analog zu AMD) die Einbringung in den DP Standard vorrantreiben können. Ebenso hätte man das "Feature" zugunsten des Standards nach dessen publizierung auch fallen lassen können. Beides wurde aber eben so nicht bewerkstelligt - aus Gründen, die nur NV selbst benennen kann.

- - - Updated - - -

Wenn man nun den Monitorherstellern erlauben würde neben Gsync auch parallel Freensync zu supporten, dann hätte man doch gleich den offenen adaptive sync Standard nutzen können?

Warum?
Solange die Vorschrift lautet, Sync bei NV Hardware nur mit G-Sync Modul - hätte NV ihre Lizenzen, der Kunde alle G-Sync Vorteile und der Monitorhersteller verdient daran sicher auch ne Markt fünfzig.
 
Wobei man allerdings auch sagen muss - mit FreeSync und dem Querstellen von NV ist auch AMD in der Lage, diese Kundenbindung zu erlangen. Problem aktuell ist eher - AMD liefert eben da obenraus eher unbeständig. Bei NV kann man im Moment erwarten, dass die ihren ~2 Jahres Zyklus weiter fahren. Bei AMD gibts/gabs seit der 7000er Reihe keinen wirklichen Zyklus mehr. Einzelne Releases oder Refreshs, mal ne fast vollständige Umbenennung der Palette, mal nur einen Teil in Neu und obenraus im HighEnd ists auch eher mau.

Wenn sich das aber mal ändert - also AMD beständig ihr Lineup durchzieht über Generationen - DANN erzeugt FreeSync die gleiche Bindung zum Hersteller. Denn auch ein G-Sync Monitor läuft mit ner AMD GPU, nur halt ohen Sync :fresse:

Auch nvidia benennt die Karten um. Werden sie nicht umbenannt ändert das nichts daran, dass die Chips 2 Jahr am Markt bleiben. Siehe eben die aktuelle gerneration von nvidia wo man in einer so kompfortablen Lage ist die Karten gar nicht groß umbennen zu müssen. Eine 1070Ti reicht da schon als feinschliff.

AMD hat eine genauso beständige Palette wie nvidia. Ich erinnere mal an die erste Titan welche 1 Jahr und 3 Monate nach der 7970 kam. Nichts anderes war es bei Vega. Ansonsten gab es bis auf das topmodell fast durchgehend Karten bis 500€ das reicht Dicke für die meisten.

Davon ab kommt die Ti immer deutlich später als die Titan. Das hat einfach mit den Yields zu tun. Als der Chip der 780Ti preiswert für den Massenmarkt verfügbar war hatte AMD auch schon die 290 zeitgleich im Markt. 1000€ Karte ist daher schön zur Abgrund des Portfolios, aber da fehlen smd schlicht die Kunden. Wenn die Preise und Ausbeute sich verbessert zieht also AMD mit. Eine 1000 oder 3000€ Karte interessiert die aller wenigsten.
 
Zuletzt bearbeitet:
Wobei man allerdings auch sagen muss - mit FreeSync und dem Querstellen von NV ist auch AMD in der Lage, diese Kundenbindung zu erlangen. Problem aktuell ist eher - AMD liefert eben da obenraus eher unbeständig. Bei NV kann man im Moment erwarten, dass die ihren ~2 Jahres Zyklus weiter fahren. Bei AMD gibts/gabs seit der 7000er Reihe keinen wirklichen Zyklus mehr. Einzelne Releases oder Refreshs, mal ne fast vollständige Umbenennung der Palette, mal nur einen Teil in Neu und obenraus im HighEnd ists auch eher mau.

Wenn sich das aber mal ändert - also AMD beständig ihr Lineup durchzieht über Generationen - DANN erzeugt FreeSync die gleiche Bindung zum Hersteller. Denn auch ein G-Sync Monitor läuft mit ner AMD GPU, nur halt ohen Sync :fresse:

AMD ist eben genau nicht in der Lage diese Kundenbindung zu erreichen. Da müssten die schon überJahre / Generationen vorne liegen. Das ist bei deren Finanzen und deren Track Rekord eher nicht zu erwarten. Zudem hat Nvidia die deutlich stärkere Brand und auch erheblich treuere Kundschaft. Die kaufen auch eine Generation lang auch mal das schlechtere Produkt wenn AMD vorne liegt. Die wechseln halt eben nicht so einfach die Brand. Nvidia weiß das und genau das ist eben AMDs Problem. Liegen die mal in einer Generation vorne profitieren sie nicht so davon wie es eben umgekehrt der Fall ist.

- - - Updated - - -

Halte ich persönlich in der aktuellen Marktsituation für absolut unwahrscheinlich... NV wäre doch blöd, die Bindung aufzugeben. Und AMD ist nicht in der Marktposition ihrerseits den FreeSync Standard zu pushen. G-Sync wird man nicht lizensieren wollen - also wird es wahrscheinlich da keine Änderung geben.

Zumal auch AMD mit FreeSync 2 wieder ein Stück abweicht von der "alles offen" Politik.
Aber ja, schön wärs...



Was mich allerdings wundert, es gibt nicht einen einzigen Monitor, der wahlweise G-Sync UND FreeSync kann - also wo der User umschalten kann... Warum?
Technisch gesehen wäre das absolut kein Problem. Da FreeSync auch so erstmal nix kostet - wäre ausgehend vom Preis eines G-Sync Modells da auch nicht mit wirklichen Mehrkosten zu rechnen... Aber vllt will das NV auch gar nicht und verbietet es aktiv bei Nutzung von G-Sync??

Ich würde davon ausgehen, dass Nvidia das in den Lizenzbedingungen untersagt. Ich würde es jedenfalls so machen.
 
Zuletzt bearbeitet:
Ich würde davon ausgehen, dass Nvidia das in den Lizenzbedingungen untersagt. Ich würde es jedenfalls so machen.

Ok verstehe, das heißt nvidia erlaubt den Herstellern nur dann G-Sync einsetzen zu dürfen, wenn sie nicht zusätzlich noch FreeSync Unterstützung implementieren.

Das macht nvidia für mich natürlich super sympathisch ^^

Wie sieht das aus, wenn eine Dritt-Firma (also nicht der Monitor-Hersteller selber) ein Zubehörteil anbieten würde (Adapter/Platine etc.), welches bei G-Sync-Monitoren FreeSync nachrüstet? Hätte nvidia dagegen etwas in der Hand?
 
Wie sieht das aus, wenn eine Dritt-Firma (also nicht der Monitor-Hersteller selber) ein Zubehörteil anbieten würde (Adapter/Platine etc.), welches bei G-Sync-Monitoren FreeSync nachrüstet? Hätte nvidia dagegen etwas in der Hand?

Ohne es zu wissen behaupte ich mal nein, Nvidia könnte da nichts machen.

Denn was hat eine 3. Partei mit den Abmachungen zwischen Nvidia und dem Monitorhersteller zutun?

Edit:
Aber rüste mal bei aktuellen Gamer Monitoren iwas nach... das Gehäuse ohne Zerstörung auf zu bekommen ist ja schon ne Kunst für sich.
 
Zuletzt bearbeitet:
@Richthofen
aber welchen Nachteil hätten sie es zu untersagen?
Die Bindung hätten sie ja weiterhin - das Feature auf NV only ebenso - Lizenzkosten auch. Ich sehe da keinen Nachteil, außer bei den Monitorherstellern. Dort aber auch nur auf dem Papier, da die Monitore nicht häufig gewechselt werden...

@G3cko
was möchtest du mir mit der Aussage sagen!?
Ob NV irgendwelche GPUs umbenennt oder nicht stand doch überhaupt nicht zur Debatte... Die Modellpalette war aus meiner Sicht nicht beständig...
Solche Zyklen, wo du als Kunde quasi für die Zukunft planen kannst, gibts bei AMD nicht seit GCN...
-> 580 -> 780/780TI -> 980TI -> 1080TI (-> möglicherweise 2080TI in Ende 18/Anfang 19). 3x echte Generationen
-> 560(TI) -> 680 -> 980 -> 1080 (-> möglicherweise 2080 Mitte 18) -> 3x echte Generationen
-> geht auch bei Titan -> Titan classic/TitanBE -> TitanX (GM200) -> TitanXp (GP102 2016)/TitanXp (GP102 2017)/TitanXP (GP102 StarWars Dingens) -> TitanV (GV100) -> wieder 3x echte Generationen

Kepler -> Maxwell -> Pascal -> Volta/Ampere. Sind klar 4 Generationen. Die ersten drei haben jeweils ihr vollständiges Linueup bekommen. Und siehe Andeutung oben, auch entsprechend Abstand zwischen den jeweiligen Generationen.

Vllt hab ich was auf den Augen, aber bei AMD gibt es sowas seit GCN nicht mehr.
Ich hab hier noch R9-290 Sapphire VaporX. Haben um die 240€ gekostet, irgendwo mitte 2014 rum war Rechnungsdatum. Wäre das meine Haupt-GPU, was hätte ich im AMD Portfolio kaufen können um mehr Power zu bekommen? Fiji? -> VRAM zu schmal und Wakü only, Polaris? -> nicht schneller und damit uninteressant -> Vega? Ja, die erste Alternative seit 2014... ICH nenne das nicht Beständigkeit ;)


Für dich als Kunde ist das natürlich gut - solange wie du mit der Leistung zufrieden bist. Blöd wird es genau dann, wenn du mehr willst...

@Holzmann
ich glaube du verstehst gerade nicht... Richthofen "geht davon aus". Kein Fakt!
Warum machst du deine höchst eigene Sympatie ggü. einem Hersteller von der Annahme eines Foren-Communitymitglieds abhängig!?

-> genau wegen sowas, nicht nachgedacht, irgendwo was aufgeschnappt und bla - gibts hier alle Nase lang missverständnisse :wink:

@mastergamer
NV könnte schon - sie müssten einfach nur untersagen, dass ein Modell, was FreeSync anbietet, G-Sync fähig sein darf. Da das hier nicht privat-Personen sind, bei welchem der Gesetzgeber gewisse "Klausel" pauschal untersagt - sondern stupide nur juristische Personen, werden Verträge genau so geschlossen, wie sich die Personen drauf einigen. Wenn da verankert ist, dass es nicht geht, dann geht das nicht. Wenn nix drin steht dergleichen, gibts auch nix zu verbieten.
 
@fdsonne
Klar ist kein Fakt, aber wahrscheinlich, für den Rest wäre NV zuständig, Stichwort: Kommunikation. :wink:
 
Auch nvidia benennt die Karten um. Werden sie nicht umbenannt ändert das nichts daran, dass die Chips 2 Jahr am Markt bleiben. Siehe eben die aktuelle gerneration von nvidia wo man in einer so kompfortablen Lage ist die Karten gar nicht groß umbennen zu müssen. Eine 1070Ti reicht da schon als feinschliff.
Die letzte Umbenennung von Nvidia war im Desktop Bereich die 680 zur 770, was innerhalb der GTX Reihe auch die einzige in dieser Generation war. Also ich finde das hat sich bei Nvidia stark gebessert, während AMD munter weiter umbenennt.
Vielleicht gab es noch Ultra-Low-End-Bereich Umbenennungen, aber die Karten müssen ja praktisch nur ein Bild ausgeben, weshalb es da nicht jede Generation eine Neuentwicklung braucht.
 
Wie kann man eig. dieses Rebranden nennenswert bewerten?

Kann uns doch scheiß egal sein wie die Karte nun heißt? Ist doch nur relevant was sie kann und was sie kostet. Ob Nvidia nun 2 -3 Jahre lang die gleiche GPU unter gleichem Namen verkauft oder diese in der Zeit 1-2x umbenennt... who cares?
 
Kann uns doch scheiß egal sein wie die Karte nun heißt? Ist doch nur relevant was sie kann und was sie kostet. Ob Nvidia nun 2 -3 Jahre lang die gleiche GPU unter gleichem Namen verkauft oder diese in der Zeit 1-2x umbenennt... who cares?
Wenn du gerne 2x dieselbe GPU oder alte Technologie (z.B. Hardwarebeschleunigung, Bildschirmausgänge) kaufst, dann kann dir das egal sein. Ansonsten nicht.
 
Kaufst du deine GPUs also nach dem Namen?

Eigenartig, ich habe die bisher immer nach gewünschter Leistung gekauft, iwas habe ich wohl die ganzen Jahre falsch gemacht :hmm:
 
Kaufst du deine GPUs also nach dem Namen?

Eigenartig, ich habe die bisher immer nach gewünschter Leistung gekauft, iwas habe ich wohl die ganzen Jahre falsch gemacht :hmm:
Wenn du gerne alle Details in den Tiefen des Internets suchst um das zu bekommen was du wolltest (v.a. bei Notebooks) ist das ok. Ich und andere haben darauf keinen Bock.
 
Das ist simple aufzuschlüsseln nvidia hat klare gpu generation bezeichnunhg die namen der grafikkarte ist dabei egal
Amd hat aber nur klare Namen für gpu Klassen
Und genau da liegt das Problem es gibt kein generelles chipnamen sondern nur GPu name als gpu arch und das ist extrem, chaotisch

nvidia seit 2006
g80 codename tesla
auch als nvidia ihre chips nach zahlen benannt hatte und der interne gpu arch name nicht erwähnt wurde. hatte man klare Struktur bei den chips
g80 high end
g84 mid class
g86 low end
g87 office
dazu muss man sagen das alle Nvidia gpu auf diese neue gen basiert damals die erste dx10 gpu unified shader zuvor gab es feste vertex und pixel shader
Das wurde erforderlich weil dx10 den singletrhead drawcalls aufgehoben hat Dx10 und älter haben allerdings eine legacy pfad das die drawcalls immer noch auf einen cpu Kern limitiert und ratet mal was Entwickler tun.
ab dx10 konnte man die drawcalls per comand list aufteilen in 4 threads in hardwae wurde das ab fermi umgesetzt also in dx11 gpu

refesh 2007
g92
g94
g96

refresh mit mehr shader 2008
gt200
gt204
gt206
gt207

dann fermi 2010
gf100
gf104
gf106
gf108

refresh 2011
gf110
gf114
gf116
gf118

dann kepler erstmals Namen und Klassen im preis gestiegen 2012
gk100 von max 500€ auf 1000€
gk104 von max 300€ auf 500€
gk106 von max 150€ auf 300€
gk108 von max 50€ auf 100€

dann maxwel 2014
gm200
gm204
gm206
gm208

dann erstmals Leistungssprung in der Einsteigerklasse nach 4 Jahren pascal 2016 aufgrund konkurrenz amd polaris
gp102
gp104
gp106
gp108

amd dagegen

terascale 2005 hd1xxx
noch geordnet in
hd15xx entry
hd17xx middle
hd19xx high end
refresh 2006 hd2xxx
refresh 2007 hd3xxx
refrsh 2008 hd4xxx
refresh 2009 hd5xxx
refresh 2010 hd6xxx
gcn 2011 Hd7xxx
Das letzte mal als klare Sortierung der gpu war
ab dann kam eine Umbenennung in r5 r7 r9
anfangs reine rebrands der hd7xxx serie dann totales chaos
eine r9 280x war eine umbenannte hd7970
eine r9 390 eine oc hd7970
ein fiji gpu mit hbm speicher quasi nur noch high end für technik enthuiasten leistung war kaum an der nvidia mitteklasse dran.bei weniger ram

dann 2016 polaris middle class chip
Bis heute hat amd keine Konkurrenz zu nvidia high end gpu und das seit 2012 mit gcn
vega (2017) ist ein fiji shrink und kann kaum nvidia mid class chip schlagen.

Dazu kommt mining was die preise zusätzlich versaut.

Derzeit ist der gpu Markt komplett fürn arsch wer nicht muss sollte abwarten bis amd gleichzieht ab 2021
ab 2019 wird es vielleicht mal ein dip bei einsteigerklasse geben mit vega shrink akä navi56 64
Preise um die 300€

Das ist die situation und diese ist nicht schönzureden
Was gsync angeht lag das wie immer bei keiner einigung oder weitsicht seitens der monitor hersteller.
nvidia hatte einfach früher die idee und eine eigene marke und proprietären standrad eingeführt hätte es bei displayport vorher standards für adaptive sync gegeben hätte nvidia diesen unterstützen müssen.
gsync ist ein software patent und fast identisch mit adaptive sync von DP1,2 ist.
generell sind monitor hersteller recht spät mit erneuerungen sie rennen immer TV trends hinterher
 
Zuletzt bearbeitet:
So viel Text, so wenig Grammatik und Interpunktion. Da hör ich auf zu lesen, bevor ich am Ende des Textes bin. Das nur mal so als Feedback...
 
Und so viel Quatsch. Die X1000 waren SM3.0 R300.
Ab HD2000 (strenggenommen ab Xenos) war Terascale, also VLIW, das hörte 2011 mit GCN dann wieder auf.
Als R300 -> Terascale -> GCN -> neues (2020). AMD hält die Architekturen länger als NV und ist allerdings auch stets halbwegs konkurrenzfähig gewesen. Das wär man heute wahrscheinlich immer noch, würde man mehr Masken entwickeln und auf den Markt schicken. Wenn man keine neuen Produkte designt, wird das natürlich nix. Dank des Minings ist das AMD jetzt allerdings egal, man verkauft trotzdem alles was man produzieren kann.
Bei NV war das FX -> NV40 -> G80/Tesla -> Fermi/Kepler -> Maxwell bis Ampere - das ist jetzt auch nicht so viel. Was wirklich gut ist, wie G80 und Maxwell-Technik, hält dann auch länger.
FX war der Obermist, NV40 war so lala, Fermi war Mist und wurde erst durch Kepler gerettet, indem man die Taktdomänen abgeschafft hat und doppelt so viele Shader verbaut hat. Fermi hatte nur das Glück, dass der VLIW-Krempel auch nicht so doll war.
 
Zuletzt bearbeitet:
Am besten war dass die HD6850 langsamer war als sie HD5850 :shot:

Da wäre unser Hardwareaner ganz böse auf die Nase gefallen :(
 
Noch einmal: die 6850/6870 ersetze nicht die 5850/5870, wie es die neue Namensgebung von AMD vielen damals vorgaukeln mochte, sondern sie waren die neuen Mittelklasse-Karten. Die 6850 war in etwa gleich schnell wie Nvidias GTX460 mit 768MB, die 6870 wiederum war von der Performance so schnell wie die GTX470. Danach wurden die Nachfolger in AMD`s Highend-Bereich vorgestellt. Diese hießen 6950/6970 und lösten die 5850/5870 ab.
 
Ähm, du vergleichst hier Chipnamen mit den Modellnamen des Endprodukts. Was soll das?

eine r9 390 eine oc hd7970
Mit Sicherheit nicht. Die 390 war eine umbenannte 290.

ein fiji gpu mit hbm speicher quasi nur noch high end für technik enthuiasten leistung war kaum an der nvidia mitteklasse dran.bei weniger ram
Fiji war schlecht, ja. Aber so schlecht, dass sie gerade mal mit einer 960 mithalten konnte? Haha...

vega (2017) ist ein fiji shrink
Wird ja immer abenteuerlicher.

nvidia hatte einfach früher die idee und eine eigene marke und proprietären standrad eingeführt hätte es bei displayport vorher standards für adaptive sync gegeben hätte nvidia diesen unterstützen müssen.
Nvidia hätte gar nichts müssen.

- - - Updated - - -

Da wäre unser Hardwareaner ganz böse auf die Nase gefallen :(
Weshalb?
 
Das ist simple aufzuschlüsseln nvidia hat klare gpu generation bezeichnunhg die namen der grafikkarte ist dabei egal
Amd hat aber nur klare Namen für gpu Klassen
Und genau da liegt das Problem es gibt kein generelles chipnamen sondern nur GPu name als gpu arch und das ist extrem, chaotisch

Bevor du hier irgendwelche Architektur Codenamen als Chaotisch bezeichnest, solltest du vielleicht erstmal anfangen deine Posts etwas zu strukturieren. Mich wundert ehrlich das du dir mit deinem zusammenhanglosen, unstrukturierten und oft völlig falschem Geschreibsel noch keinen Lifetime-Ban eingefangen hast, aber sei es drum...

Ich poste ja wirklich selten aber diesen grob fahrlässigen Schwachsinn hier muss ich doch mal auseinander nehmen:

nvidia seit 2006
g80 codename tesla
auch als nvidia ihre chips nach zahlen benannt hatte und der interne gpu arch name nicht erwähnt wurde. hatte man klare Struktur bei den chips
g80 high end
g84 mid class
g86 low end
g87 office
dazu muss man sagen das alle Nvidia gpu auf diese neue gen basiert damals die erste dx10 gpu unified shader zuvor gab es feste vertex und pixel shader
Das wurde erforderlich weil dx10 den singletrhead drawcalls aufgehoben hat Dx10 und älter haben allerdings eine legacy pfad das die drawcalls immer noch auf einen cpu Kern limitiert und ratet mal was Entwickler tun.
ab dx10 konnte man die drawcalls per comand list aufteilen in 4 threads in hardwae wurde das ab fermi umgesetzt also in dx11 gpu

Das aufspalten von Drawcalls in DX11 funktioniert aber auch nur weil NVidia ein Software Sheduling durchführt, das ist bei denen eher deswegen, weil man Hardwaresheduler weg lässt und stattdessen diesen in Software aufsetzt. So zu sagen ein NVidia eigener Prozess der den eigentlichen DrawCall Single Prozess auseinander nimmt und nachträglich aufteilt. In Hardware gibt es das nur per DX12/Vulcan. Übrigens musste ich diesen letzten, viel zu langen Satz ohne jegliche Zeichensetzung und Formatierung erst 5 mal lesen um ihn irgendwie verstehen zu können.

refesh 2007
g92
g94
g96

refresh mit mehr shader 2008
gt200
gt204
gt206
gt207

dann fermi 2010
gf100
gf104
gf106
gf108

refresh 2011
gf110
gf114
gf116
gf118

dann kepler erstmals Namen und Klassen im preis gestiegen 2012
gk100 von max 500€ auf 1000€
gk104 von max 300€ auf 500€
gk106 von max 150€ auf 300€
gk108 von max 50€ auf 100€

dann maxwel 2014
gm200
gm204
gm206
gm208

dann erstmals Leistungssprung in der Einsteigerklasse nach 4 Jahren pascal 2016 aufgrund konkurrenz amd polaris
gp102
gp104
gp106
gp108

Bevor wir zum massiv fehlerbehafteten AMD Teil kommen, mal angemerkt das es schon bezeichnend ist, das du zumindest was NVidia angeht halbwegs die Linien verstanden hast. Respekt, das überrascht mich bei dem dir sonst üblichen Wahrheits- und Informationsgehalt in hiesigen Posts. Ein wenig präzisieren könnte man auch hier, im Verhältnis zu folgendem wäre mir das aber dann doch zu viel Korinthenkackerei...

amd dagegen

terascale 2005 hd1xxx
noch geordnet in
hd15xx entry
hd17xx middle
hd19xx high end
refresh 2006 hd2xxx

Fehler nummer 1: Die HD2000 waren eben kein refresh der 1000er. So nebenbei gab es auch keine HD1000 sondern eine X1000(XT,XTX). Diese waren die letzten DX9 Chips. Die HD2000er starteten noch mit dem XX zusätzen, dies wurde ab der HD3000er Serie abgeschafft. HD2000 war einführung des neuen R600.

refresh 2007 hd3xxx

Ausnahmsweise Korrekt, plus Sprung auf DX10.1 bzw. Shader Model 4.1. (Da fällt mir gerade ne NV Story zu ein... aber sei es drum)

refrsh 2008 hd4xxx

Halbwahr: Der RV770 wurde doch für einen refresh recht stark verändert. Insbesondere die Struktur der TMUs wurde massiv angepasst was dem Chip überhaupt erst eine bessere Skalierungsfähigkeit gab.

refresh 2009 hd5xxx

Falsch: RV870 führte Terascale 2 ein, inklusive DX11 Support. Das war schon deutlich mehr als ein simpler "refresh". Oder wie definierst du das?

refresh 2010 hd6xxx

Ausnahmsweise korrekt.


Ausnahmsweise korrekt.

Das letzte mal als klare Sortierung der gpu war
ab dann kam eine Umbenennung in r5 r7 r9
anfangs reine rebrands der hd7xxx serie dann totales chaos
eine r9 280x war eine umbenannte hd7970
eine r9 390 eine oc hd7970
ein fiji gpu mit hbm speicher quasi nur noch high end für technik enthuiasten leistung war kaum an der nvidia mitteklasse dran.bei weniger ram

Eine R9 390 (auch eine R9 290, wie du oben schon durch deine Auflistung der 280x beweist) ist eben keine hoch getaktete 7970 sondern eine R9 290 mit 8GB VRAM als Standard + etwas Takt und Feinschliff, da aber kaum der Rede Wert.

Was Fiji betrifft so hat dieser sich seinerzeit allerdings durchaus mit NVidias 980Ti (ist die bei dir Mittelklasse?) angelegt. Das ihr später dann der VRAM zum Verhängnis wurde, hat damit perse erstmal nichts zu tun.

dann 2016 polaris middle class chip
Bis heute hat amd keine Konkurrenz zu nvidia high end gpu und das seit 2012 mit gcn
vega (2017) ist ein fiji shrink und kann kaum nvidia mid class chip schlagen.

Die GCN Karten von HD7000 bis R9 und eine Zeit lang auch der Fiji AKA Fury konnte noch mit dem jeweiligen NVidia Pendant bei Marktstart mithalten. Das sieht freilich Heute etwas anders aus. Die HD7000 bis R9 200/R9 300 waren jedoch bei weitem nicht so weit weg wie du hier suggerierst. Fiji hat sich wie schon gesagt durchaus mit dem Maxwell Highend in Form der 980Ti zu seiner Zeit angelegt. Also völliger Käse was du hier schreibst. Das NVidia ab Maxwell Effiziensvorsprünge hatte, will ich nichtmal bestreiten, denn das ist so. Richtig heftig ist das aber auch erst seit Pascal. Andererseits, steht zumindest Polaris im Mittelfeld garnicht so arg schlecht da wie man manchmal gepredigt bekommt.

Nun aber VEGA auch noch als Fiji Shrink zu bezeichnen schlägt dem Fass den Boden aus. Das VEGA eben jede Menge Features hat, die am 0815 Gamer vorbei gehen, tut da garnichts zur Sache. Die Chips haben ein enorm unterschiedliches Featureset. Ob du in deinem kleinen Aquarium davon einen Nutzen hast, hat keinen Einfluss darauf ob es nur ein Shrink ist oder eben nicht.

Wozu mir garnichts einfällt ist deine Behauptung man könne die Kartenbezeichnungen bei AMD nicht der Leistungsklasse zuordnen. Um es mal klar zu sagen:

Die Erkennung in welcher Leistungsklasse sich eine Hardware in der serieninternen Nummerierung einordnet fällt mir egal ob bei Intel, NVidia oder AMD/RTG spielend leicht im Vergleich zu der Denkakrobatik die nötig ist um deine Posts auseinander zu basteln und zu sortieren und dann noch zu verstehen was du damit eventuell sagen wollen könntest.

So, ich habe fürs erste fertig. Das ich mir das an einem Sonntag Nachmittag antue.... :wall:
 
Zuletzt bearbeitet:
Ok verstehe, das heißt nvidia erlaubt den Herstellern nur dann G-Sync einsetzen zu dürfen, wenn sie nicht zusätzlich noch FreeSync Unterstützung implementieren.

Das macht nvidia für mich natürlich super sympathisch ^^

Ist doch auch nichts anderes als was Intel und auch AMD im CPU Bereich machen. Da gibt es auch genaue Vorgaben oder siehst Du irgendwen der mal eben an den x86 Spezifikationen und Patenten vorbei einfach sich in das Ökosystem klebt und dort CPUs baut. Letztendlich versucht hier jeder sich seinen Teich zu schaffen.

Wie sieht das aus, wenn eine Dritt-Firma (also nicht der Monitor-Hersteller selber) ein Zubehörteil anbieten würde (Adapter/Platine etc.), welches bei G-Sync-Monitoren FreeSync nachrüstet? Hätte nvidia dagegen etwas in der Hand?

Ich würde davon ausgehen, dass Nachrüstmodule durch eine Dritt-Firma unbedenklich sind. Da kann Nvidia rechtlich nichts machen. Was sie allerdings machen können ist das G-Sync Modul so zu bauen, dass es diesen Umstand erkennt und dann eben der Monitor nicht gescheit funktioniert. Ich glaube aber das sie das nicht tun, da Nachrüstmodule unbedenklich sind. Viel zu aufwändig und teuer und zudem vermutlich mit Garantieverlust bzgl. des Monitors, in jedem Fall in Bezug auf das G-Sync Modul behaftet.

- - - Updated - - -

@Richthofen
aber welchen Nachteil hätten sie es zu untersagen?
Die Bindung hätten sie ja weiterhin - das Feature auf NV only ebenso - Lizenzkosten auch. Ich sehe da keinen Nachteil, außer bei den Monitorherstellern. Dort aber auch nur auf dem Papier, da die Monitore nicht häufig gewechselt werden...

Der Nachteil ist, dass die Hemmschwelle zum Wechseln des GPU Anbieters deutlich geringer ist. Im Grunde machen die allermeisten den Fehler und gehen davon aus, dass G-Sync für die große Masse gedacht ist. Genau das ist es eben nicht. Es geht Nvidia einzig und allein um langfristige Bindung der sehr gut zahlenden GPU Kundschaft. Also jeder der 300 Euro und mehr für eine Graka ausgibt. Für Low-End Kunden interessiert sich Nvidia im GPU Bereich m.E. langfristig nur noch wenig. Für diese bastelt Nvidia am eigenen Gamestreaming und weniger an netten Features im GPU Bereich. Der zuvor genannten Kundschaft (300 Euro Aufwärts) versucht man natürlich allerlei Features und Funktionen anzubieten die Nvidia only sind. Man bastelt sich sozusagen Stück für Stück sein eigenes Ökosystem. Im Prinzip das klassische Apple Modell. Jemand der 500 Euro für ne Graka jedes Jahr oder alle 2 Jahre ausgibt und ggf. 500 Euro und mehr für einen G-Sync Monitor den er dann länger nutzen will, der ist eben beim zukünftigen Kauf eher geneigt weiter Nvidia zu kaufen und sich gar nicht erst mit AMD zu beschäftigen. Im Falle eines Kombimonitors gibt es diese Bindung einfach nicht mehr.

Nvidia hat heute bereits unter Gamern locker einen Anteil von 70 bis 80%. Es bringt ihnen einfach keinen einzigen Mehrwert Freesync zu unterstützen oder auf Kombimonitore zu setzen, da der Großteil des Marktes dieser Clientel von ihnen bereits besetzt ist. Hier geht es einzig und allein darum diesen Markt nach Möglichkeit langfristig zu halten und für den Fall dass sie mal etwas hinten liegen mit den GPUs im Vergleich zur Konkurrenz in der 300 Euro und höher Klasse jede Marktverschiebung in Richtung AMD zu verlangsamen und Zeit für den entsprechenden Gegenschlag zu gewinnen. Genau dafür sind Dinge wie G-Sync da.
 
Zuletzt bearbeitet:
Irgendwie glaube ich langsam, Nvidia bringt erst ne neue Generation wenn 7nm breit verfügbar ist.
 
Der Nachteil ist, dass die Hemmschwelle zum Wechseln des GPU Anbieters deutlich geringer ist. Im Grunde machen die allermeisten den Fehler und gehen davon aus, dass G-Sync für die große Masse gedacht ist. Genau das ist es eben nicht. Es geht Nvidia einzig und allein um langfristige Bindung der sehr gut zahlenden GPU Kundschaft. Also jeder der 300 Euro und mehr für eine Graka ausgibt. Für Low-End Kunden interessiert sich Nvidia im GPU Bereich m.E. langfristig nur noch wenig. Für diese bastelt Nvidia am eigenen Gamestreaming und weniger an netten Features im GPU Bereich. Der zuvor genannten Kundschaft (300 Euro Aufwärts) versucht man natürlich allerlei Features und Funktionen anzubieten die Nvidia only sind. Man bastelt sich sozusagen Stück für Stück sein eigenes Ökosystem. Im Prinzip das klassische Apple Modell. Jemand der 500 Euro für ne Graka jedes Jahr oder alle 2 Jahre ausgibt und ggf. 500 Euro und mehr für einen G-Sync Monitor den er dann länger nutzen will, der ist eben beim zukünftigen Kauf eher geneigt weiter Nvidia zu kaufen und sich gar nicht erst mit AMD zu beschäftigen. Im Falle eines Kombimonitors gibt es diese Bindung einfach nicht mehr.

Nvidia hat heute bereits unter Gamern locker einen Anteil von 70 bis 80%. Es bringt ihnen einfach keinen einzigen Mehrwert Freesync zu unterstützen oder auf Kombimonitore zu setzen, da der Großteil des Marktes dieser Clientel von ihnen bereits besetzt ist. Hier geht es einzig und allein darum diesen Markt nach Möglichkeit langfristig zu halten und für den Fall dass sie mal etwas hinten liegen mit den GPUs im Vergleich zur Konkurrenz in der 300 Euro und höher Klasse jede Marktverschiebung in Richtung AMD zu verlangsamen und Zeit für den entsprechenden Gegenschlag zu gewinnen. Genau dafür sind Dinge wie G-Sync da.
Langamtig...GSync hat sich einfach nicht durchgesetzt und immer weniger Monitorhersteller setzen darauf, wenn Nvidia da nicht nachhelfen würde, wäre es sicher niemand mehr.

Das ist so wie mit Cuda-PhysX, bis Nvidia merkt das man sie nicht mehr braucht und auch nicht mehr will - dauert das halt, bis dahin melken sie diejenigen ab, die sich dafür interessieren. Demnächst setzt Intel auf Adaptivsync auf, wieso sollte sich da noch jemand für GSync interessieren? Im mGPU Bereich sowieso kein Schwein...

Nvidia gewinnt Zeit? Ja - zu Lasten des gesamten Marktes (wie immer) und nein, Sie beherrschen nicht 70-80% des Gameranteils, ganz bestimmt nicht, denn dieser definiert sich nicht nur aus Highend und Enthusiast/Prosumer dGPU Anteilen oder Steamnutzern. Wenn sie das machen wären sie schön blöd, denn dort kauft der geringste Anteil - auch wenn dort die größte Marge gemacht wird.

- - - Updated - - -

Irgendwie glaube ich langsam, Nvidia bringt erst ne neue Generation wenn 7nm breit verfügbar ist.

Die bringen erst was neues wenn sie meinen der Gewinn stimmt nicht mehr, kann noch lange dauern, gerade jetzt fährt man fette Margen bei Miningkäufern ein. Wer weiß schon wie gut Ampera sich zum Mining eignet.
 
Das ist wirklich eine Katastrophe für die Gaming Industrie - es werden irgendwann keine moderneren Spiele mehr weiterentwickelt werden, weil sie kaum ein Gamer kaufen wird, da er keine notwendige High-End Grafikkarte besitzt.
 
satuan :lol:

nvidia gewinnt Zeit zu Lasten des Marktes? verdient Geld am Mining?

ist es nicht eher der Fakt, das nvidia nichts bringen muss, weil gerade AMD Karten nur beim Mining punkten?
 
satuan :lol:

nvidia gewinnt Zeit zu Lasten des Marktes? verdient Geld am Mining?

ist es nicht eher der Fakt, das nvidia nichts bringen muss, weil gerade AMD Karten nur beim Mining punkten?

Du meinst sie bringen Karten wie die 1070ti umsonst....ja selbst - :lol:.

Unter Dirt4 und Wolfenstein2 lässt Vega optimiert eine ti mit neustem Treiber stehen! Das zeigt wie gut Entwickler GPU optimiert Nvidia unterwegs ist.
Grafikkarten-Rangliste 2018: 15 Radeon- und Geforce-GPUs im Benchmarkvergleich [Februar]

*was die PCGH bei HSS gemessen hat, weiß ich auch nicht, in1080p läuft die V64 stellenweise mit über 100fps bei 1490MHz- hab's gerade mal gemessen. Wahrscheinlich irgendeine benchmarklastige Szene die wieder nicht passt und anderen gut schmeckt.:stupid:

Ja - sie halten den Markt mit ihren proprietären Ansätzen auf - wie immer (von DX Analogien ganz zu schweigen), solange Gameworks nicht passt und DX nichts für sie verspricht, lassen sie alles beim alten und beeinflussen den Markt gezielt. Hauptsache lange grüne Balken, der Rest ist ja egal. Wahrscheinlich würden sie anderweitig sogar einen Haufen R&D Kosten sparen, weil sie sich damit größtenteils einkaufen, aber was geht's mich an.

Das Nvidia bei Ampera wegen Yieldrates und anderem, wohl die Hashrate zugunsten einer annehmbaren Verfügbarkeit kastriert ist auch nicht neu...jedenfalls ist wohl GDC gestorben. Vermutlich haben sie nachbestellt und wollen Pascal ohne Preissenkungen abverkaufen.
 
Zuletzt bearbeitet:
ist es nicht eher der Fakt, das nvidia nichts bringen muss, weil gerade AMD Karten nur beim Mining punkten?

Genau das ist nicht korrekt, AMD Vega punktet nicht nur beim Mining, das ist Fakt. Sollte aber bekannt sein und muss nicht ständig wiederholt werden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh