realmaddog
Enthusiast
um wirklich attraktiv zu sein müssten die karten um die 400€ kosten. derzeit sind wir wohl eher bei 500€ inkl steuern. Hinzu kommt dass dieses blower design auch noch mist ist...
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Am Ende wird NVidia das mit den neuen "Super"-Modellen vermutlich so hinbiegen, dass Preis-Performance in etwa vergleichbar mit AMD ist, so dass unter dem Strich wegen RTX und TDP die grüne Fraktion vorn liegt.um wirklich attraktiv zu sein müssten die karten um die 400€ kosten. derzeit sind wir wohl eher bei 500€ inkl steuern. Hinzu kommt dass dieses blower design auch noch mist ist...
Was mir gerade aufgefallen ist, will uns AMD rollen mit den Folien? Ich mein entweder habe ich einen Denkfehler, aber der Navi (10) DIE ist ziemlich genau halb so groß wie ein Vega 64 DIE, richtig? 495mm² / 2 = 247,5mm² was ca. 251mm² entspricht.Anhang anzeigen 468359
Diese Größenreduzierungen finde ich beeindruckend. Platz für 2 Chiplets auf einer Karte ...
Lol ... also die Preise kann man so überhaupt nicht ordentlich vergleichen. Wenn man jetzt damit argumentieren will kann man eigentlich nur den aktuellen Marktpreis nehmen. Die Releasepreise kann man auch nicht direkt vergleichen da Vega II erst einige Monate nach einer RTX 2080Ti released wurde.@naennon Ich bezweifle, dass du die Karte kürzlich für 999 Euro gekauft hast. ... Und die frühen Vögel zahlten 1500 - 1800 Euro für eine Grafikkarte von NVidia. Bei der Radeon VII waren es 800 Euro. Darum meine Aussage bezüglich des doppelten Preises. Straßenpreise jetzt oder in drei Jahren ziehe ich für Vergleiche nur heran wenn sie gerade sehr stichhaltig in meine Argumentation passen
Eigentlich hat Pickebuh damit angefangen indem er einen Screenshot postete und schrieb daß die Hölle geht. Hätte ja auch gelangt zu schreiben daß sich die Karte üblicherweise sehr gut übertakten lässt.Ich fand auch nur dieses übertrieben abfällige "sieh mich an ich hab mir das teuerst-mögliche Equip gekauft und es ist schneller als deins" so unnötig. Zumal ich so einen Kinderkram von dir, glaube ich, bisher noch nicht gesehen habe.
Naja ... die Preise von den RX 5700er Karten hauen mich aber auch nicht von den Socken. Ne 5700 XT wird wohl um die 450 - 499 EUR in den Handel kommen schätze ich. Ne 5700 non XT um die 350-400 EUR. Wenn man bedenkt daß damals eine RX 480 8GB eine GTX 1060 6GB angegriffen hat und um etwa 269 EUR in den Handel kam sind die Preise ... naja schon etwas drüber. (Dank Mining Boom sind dann die Preise der RX 480 welche teils bei etwa 250 EUR waren extrem angestiegen. Ebenso die der RX 580)ABER: Sie gehen jetzt einen smarten Weg. Wenn der nur näherungsweise so verläuft wie ihre Aufholjagd im cpu Sektor dann stehen uns goldene Zeiten bevor. Vielleicht kann man dann mal einen zeitgemäßen Rechner zusammenbauen ohne für irgendeine Komponente Phantasiepreise zahlen zu müssen.
Ich sehe schon die Netzteile knapp werden!
Ich sage es weil ich es meine!
... Selbst ihre "Super" Karten werden nicht mehr Speicher haben. ...
Wenn es stimmt kommt aber eine RTX 2060 Super mit 8GB und stellt damit eine leicht abgespeckte 2070 dar ... also auch mit mehr Shader wie die anderen "Super" Modelle auch....
Auch bei den "Super" wird ja scheinbar nur der Speicherdurchsatz erhöht. Wieder vorbei am Kundenwunsch.
NV hat doch eh von Generation zu Generation den Speicher immer wieder mal erhöht. Nicht immer bzw. nicht immer im gleichen Ausmaß, aber immerhin. Wollt Ihr bei jeder neuen Generation den doppelten Speicher wie es früher oft üblich war? Dann hätten die Karten jetzt wohl schon alle 32GB und mehr.Hat NV es jemals anders gemacht mit dem VRAM? Die haben den Vram doch immer an der Kotzgrenze gebracht und einzig die Titan hatte dann ordentlich VRAM.
Naja erstens gäbe es dann aktuell keine Konkurrenz zu nV mehr (bis Intel doch mal kommt) und da würde wohl das Kartellamt Einwand erheben, und zweitens hätte dann AMD wohl keine Entwicklungsabteilung für Ihre anderen Grafikprodukte mehr denn die Architekturen werden ja auf/für den PC designed und im Hinterkopf die APUs, SoCs und Konsolen sowie den HPC Markt behalten um diese dann entsprechend anzupassen/abzuändern....
PS: Betriebswirtschaftlich müsste AMD die Desktop-Sparte komplett einstellen und sich nur noch auf die alternativen Platformen konzentrieren. Aber irgendwie haben die noch Mitleid mit uns PC-Deppen. Muss wohl irgendwas romantisches sein, jede andere Aktiengesellschaft hätte diese Sparte abgestoßen.
Offiziell nicht, aber es wird gemunkelt daß auf jeden Fall eine 5600er und vermutlich auch 5500 kommt. Wäre fein wenn AMD es schafft eine RX 5600 sogar ohne zusätzlichen Stromanschluß zu schaffen. Aber da erwarten wir uns wohl zu sehr von 7nm. Und wenn dann wäre die von der Leistung wohl zu weit von einer RX 5700 entfernt, bzw. zu wenig weit von einer RX 560 weg.Ich hoffe dieses Jahr kommen noch kleinere Brüder mit der neuen Architektur. Sprich so etwas wie RX 5600 mit weniger Units und unter 150W damit nur 1 x 6 Pin ausreicht.
Weiß da schon jemand etwas ?
Wird eh schon länger vermutet daß das in Zukunft passieren wird. Allerdings muß da halt alles passen daß das auch gut skaliert. Stichwort Speicheranbindung etc. Aber vielleicht gibt's dann auch eine I/O DIE an den Rechencluster angeschlossen werden die lediglich Shader und Caches enthalten.Ja ich wundere mich auch das AMD die desktop Sparte noch weiter führt.
AMD müsste quasi ein chiplet Design bei den GPUs hinbekommen ...
Naja erstens gäbe es dann aktuell keine Konkurrenz zu nV mehr (bis Intel doch mal kommt) und da würde wohl das Kartellamt Einwand erheben, und zweitens hätte dann AMD wohl keine Entwicklungsabteilung für Ihre anderen Grafikprodukte mehr denn die Architekturen werden ja auf/für den PC designed und im Hinterkopf die APUs, SoCs und Konsolen sowie den HPC Markt behalten um diese dann entsprechend anzupassen/abzuändern.
Fiele jetzt der Desktop Markt weg hätten sie nur noch SoCs/Konsolen und eventuell den HPC Markt. Ich weiß nicht ob dafür dann noch so viel R&D verfügbar wäre, und wie gesagt wenn man schon eine neue Architektur entwickelt, warum dann nicht für alle Märkte? Einziger Markt der sich wirklich absplitten könnte (zeichnet sich bei nV ja auch ab) wäre der HPC Markt da dort oft andere Anforderungen an die GPU gestellt werden.
Die Leistung scheint ja den Erwartungen zu entsprechen, lediglich die Preise sind übertrieben. Jetzt wurde der Mainstream also von 200-250€ bei der letzen Gen (rx580/1060) auf circa 350€ bei dieser Gen (5700/2060) angehoben.
NV hat doch eh von Generation zu Generation den Speicher immer wieder mal erhöht. Nicht immer bzw. nicht immer im gleichen Ausmaß, aber immerhin. Wollt Ihr bei jeder neuen Generation den doppelten Speicher wie es früher oft üblich war? Dann hätten die Karten jetzt wohl schon alle 32GB und mehr.
Riva 128 - 4/8MB
Riva TNT - 8/16MB
Riva TNT2 - 16/32MB
GeForce 256 - 32/64MB
GeForce 2 - 32/64MB
GeForce 3 - 64MB (mit den Ti auch 128MB)
GeForce 4 Ti - 64/128MB
GeForce FX - 128/256MB
GeForce 6 - 128/256MB (später auch 512MB)
GeForce 7 - 256/512MB
GeForce 8 - 320/640/768MB (später auch 512/1024MB)
GeForce 9 - 512/1024MB
GeForce 200 - 896/1024MB (später auch mehr)
GeForce 400 - 1024/1280/1536MB
GeForce 500 - 1280/1536MB und später die doppelte Menge
GeForce 600 - 2/4GB
GeForce 700 - 2/3/4GB sowie Titan mit 6GB
GeForce 900 - 3.5+0.5, 4, 6GB sowie Titan mit 12GB
GeForce 10 - 8, 11GB und Titan mit 12GB
GeForce 20 - 8, 11GB und Titan mit 24GB
Bis zur 7er Serie hat sich der Speicher regelmäßg verdoppelt. Dann waren die Sprünge unregelmäßig mit krummen Zahlen.
Die GF 3 Ti200 bot auch NULL Mehr-Leistung im Vergleich zu einer 64MB Version. Und die GF2 (GTS) Modelle gab es Anfangs erstmal als 32MB Version und erst später auch mit 64MB bzw. die Pro, Ultra und Ti hatten dann 64 als Standard. Von GF2 MX Karten welche es auch als 64MB Versionen gab möchte ich gar nicht erst reden....
Beispiele:
Geforce 2/3 Ti: Es gab nur die GeForce3 Ti 200 mit 128MB, keine Ti 500 und keine GeForce 2 Ti
Jaaa war auch ganz ganz wichtig 128MB zu haben. Brachte in Spielen nur leider nichts....
Radeon 7500/8500/9100: Versionen mit 128MB und 64MB bei allen Varianten ungefähr gleich vertreten
Die GF4 MX 460 kannst gleich wieder wegpacken, war ja vom Featureset sogar unterhalb einer GF3 (nur wollte man anscheinend damals diese nicht GF3 MX nennen da dies ja suggestierte daß sie meilenweit hinter einer GF4 her war, was ja auch der Fall war). Somit waren hier 64MB schon Overkill....
GeForce 4: 460 nur 64MB, 4200 mit 128MB hatte langsameren RAM als mit 64MB, die 4400 und 4600 hatten immer 128MB, erst die 4200-8x gab es mit gleichschnellen 128MB
Ich glaube Du verwechselst das Modell - das zunächst günstigste war die 8800 GTS mit 320MB. Viel zu wenig Speicher war das auch nicht unbedingt, lediglich mit dem Bug lief der Speicher voll. Erst in höheren Auflösungen und FSAA konnte sich die reguläre GTS mit 640MB ein paar % absetzen TEST...
GeForce 8: Zunächst keine unterschiedlichen Speicherkonfigurationen, 8800GTS 384MB mit viel zu wenig Speicher zunächst als einzig sinnvolles günstigeres Modell, später das gleiche Spiel bei der 8800GT 256MB, 8800GS sogar fast nur mit 384MB. Nur 8800GT einigermaßen häufig mit 1GB
Da war AMD sogar etwas hinterher - mit eben 512MB auf der HD4850 und 4870 (hier dafür immerhin schon modernsten GDDR5) gegen immerhin 896MB bei der GTX260 sowie 1GB bei der GTX280 [technisch bedingt wg. Speicheranbindung]. Es gab natürlich auch einige 1GB Modelle der HD4870 Serie (und auch 4850) und die HD4890 machte es erst zum Standard. Bei der HD4870 haben 1GB zu 512MB immerhin ein paar einstellige % Mehr Leistung gebracht. Bei einer GTX 275 mit doppelten Speicher z.B. (also 1792MB zu 896MB) aber eher nicht. Die paar % beim TEST HIER kommen eher vom höheren Takt der Lightning Version....
GeForce GTX200: zunächst fixe Speichergrößen, erst bei Refresh Modelle mit doppeltem Speicher, bei 260 sehr wenige
Radeon HD4800: 512MB Standard, etwas mehr HD4870 und zahlreiche HD4890 mit 1GB, wenige HD4850
Wiederrum, ganz wichtig bei den Midrange GTX 560er Karten so viel Speicher zu haben. Wenn schon eine GTX 580 mit 3GB KEINEN nennenswerten Vorteil ggü. einer 1,5GB GTX 580 bietet. TEST - auch hier wieder die paar % Mehr Leistung kommen wohl vom höheren Takt der Lightning Karte....
GeForce GTX500: hauptsächlich fixe Speichergrößen, GTX560(Ti) mit einigen wenigen 2GB-Modellen, GTX580 mit wenigen 3GB-Modellen und nur eine GTX570 mit 2.5GB
Aber hier wird's wichtig daß ne GTX 660 wahnwitzige 3GB hat, oder doch nicht?...
GeForce GTX600: einige 4GB-Modelle von GTX680 und GTX670, auch im Referenzdesign, 3GB-Modell von GTX660(Ti) selten, GTX660Ti quasi 1.5GB/3GB-Version von GTX670
Bei den 290/X er Karten gab es auch schon einige 8GB Versionen....
Radeon R9 270/280/285/290: eine R9 280X mit 6GB, sonst 3GB, R9 290(x) immer 4GB, R9 270X 2GB oder oft 4GB, 285 dummerweise nur 2GB
RX 480? Auch "nur" 8GB ... und jede Menge 4GB Modelle. Zwar überwiegend 8GB aber wie gesagt jede Menge 4GB Versionen da eine Spur billiger auch ganz gerne vom Pfennigfuchser gekauft....
Radeon 470/480/570/580/590: bei 480/580/590 8GB zuerst und überwiegend, bei 70ern 4GB überwiegend
WAR ein Merkmal - ja. Wie man in den letzten Jahren sieht aber eigentlich auch nicht mehr. Oder liegt es vielleicht daran daß 8GB in den meisten Fällen gerade für Performance Karten doch ausreicht?...
Wenn man das so sieht, war eine großzügige Speicherausstattung eigentlich immer ein Merkmal von ATI/AMD mit wenigen Ausnahmen (R9 285, der Krüppel), während Nvidia sehr damit geizte und v.a. in letzter Zeit überhaupt kein Wahl bei der Speicherausstattung gab.
Bitte um Belege. Und wie gesagt wenn da wo ein Benchmark in sehr hoher Auflösung mit hohen AA Settings ein paar % Mehr Leistung bringt, das hatte ich bereits erwähnt, nur bringen die Karten in den Einstellungen meist eh nicht genug spielbare FPS zusammen als daß man es realistisch nutzen würde.Da muss ich Dir widersprechen. Natürlich hat man zu Zeiten, in denen erste Modelle mit verdoppeltem Speicher erschienen, nie nennenswerte Vorteile messen können.
Wozu brauchte man es dann? "Zukunftssicher"? Waren die Karten mit mehr VRAM es denn?Einmal ist das klar, weil Spiele noch garnicht auf diese Speichermenge ausgelegt sein konnten.
Bitte um Belege. Bei Einzelkarten wohlgemerkt - bei SLI und Crossfire ist mir die Thematik der Mikroruckler bekannt.Außerdem zeigen sich heute die Auswirkungen eher bei den Frametimes und die misst man eigentlich erst, seit die Mikroruckler-Problematik bei Multi-GPU bekannt ist und selbst dann bei Tests von Einzelkarten eher selten.
Und wenn sich dann herausstellt daß die ein oder andere Karte mit mehr VRAM in dem ein oder anderen Spiel (mit der Auflösung XY und Settings XZ) ein paar % schneller ist freut man sich dann wenn man den Aufpreis den man gezahlt hat 1-2 Jahre nicht nutzen konnte? Und die paar % machen dann den Unterschied zwischen Spielbar und Unspielbar?Mand müsste also immer ein bis zwei Jahre später gucken, wie gut die alten Modelle mit mehr Speicher noch mitkommen.
Deswegen ja auch mein Vermerk daß es eben seit der >= GTX 670 Leistungsklasse bei nV und >=HD7950/7970 Leistungsklasse bei AMD bedingt Sinn macht mehr als 2GB zu haben. Die Karten können alle DX12 (auch wenn nicht im höchsten "Tier" wie es so schön eingeteilt wurde) und die Leistung ist noch nutzbar. So wie Du sagst war das früher aber oft nicht der Fall da die alten Karten schneller in der Leistung aber vor allem in den DX Funktionen überholt wurden.Trotzdem stimme ich Dir bedingt zu, dass v.a. Karten, die erstmals eine gewisse Speichermenge boten, meist zu schnell zu wenig Rohleistung hatten, um den Speichervorteil noch ausspielen zu können. Das ist aber schon lange nicht mehr so krass. Aber allein schon dann, wenn in der nächsten Generation absehbar eine Speichermenge Standard wird, verlängert bei den Vorgängern die doppelte Speichermenge deren Leben.
Bei der 1060 fand ich 6GB noch okay. Bei der 2060 und 1660/Ti schon etwas grenzwärtig. Somit stimme ich Dir hier zu, 8GB hätten denen besser gepasst. Allerdings wird ja bei nV genörgelt daß die 2070 und 2080 nur 8GB haben. Was sollen sie denn sonst haben? 16GB? Dann sind die Dinger ja noch teurer als sie ohnehin schon sind.Dass man hingegen bei der GTX1060, GTX2060 und GTX1660 schon bei der Veröffentlichung mehr als nur minimale Nachteile durch die Speichermenge messen kann (v.a. erhöhte Mikroruckler), ist ein Armutszeugnis, eben weil das früher eigentlich nie der Fall war, solange die Karte aktuell war.
Dann bitte um Belege bei welchen Modellen der Speicher tatsächlich ein grober Mangel war (Ausnahme eventuell die erwähnte 8800GTS mit 320MB, oder auch die spätere exotische 8800GS mit 384MB die man eh nur kaufte wenn man sich wirklich nicht ein paar EUR mehr für eine deutlich leistungsfähigere 8800GT 512MB leisten konnte).Schön auch, wie Du haarklein auf viele Einzelfälle eingehst, um Nvidias Speicherangebote (oder deren Mangel) wegzureden und AMDs Angeboten den Nutzen abszusprechen.
Siehe Oben - bitte gerne um Belege.Nochmal, bei AMD gab es, bis auf einige unrühmliche Ausnahmen, meistens standardmäßig für <50€ doppelten Speicher, bei Nvidia waren öfters schon Standardkarten Speicherkrüppel.
Offiziell nicht, aber es wird gemunkelt daß auf jeden Fall eine 5600er und vermutlich auch 5500 kommt. Wäre fein wenn AMD es schafft eine RX 5600 sogar ohne zusätzlichen Stromanschluß zu schaffen. Aber da erwarten wir uns wohl zu sehr von 7nm. Und wenn dann wäre die von der Leistung wohl zu weit von einer RX 5700 entfernt, bzw. zu wenig weit von einer RX 560 weg.
Hoppla da hab ich mich verlesen - nachdem Du geschrieben hast daß Du mir widersprechen musst, dann aber bestätigst daß man zum Release der Karten keine nennenswerte Vorteile messen konnte hatte ich es falsch gelesen daß man es konnte....
Deine 1. Aussage verstehe ich nicht. Wie soll ich belegen, dass es bisher quasi nie vorkam, dass man schon zum erstmaligen Erscheinen einer neuen Speichergröße auf einer Grafikkarte Vorteile messen konnte? Soll ich Dir aus den letzten 20 Jahren Tests mit entsprechenden Karten verlinken, soweit die überhaupt online verfügbar sind, und zeigen, dass dort nichts feststellbar war?
Das ist genau so ein Beispiel von dem ich gesprochen habe. In einem Spiel in unrealistisch hoher Auflösung ein Vorteil von mehr als nur ein paar %, aber mit FPS mit denen man eigentlich eh nicht flüssig spielen kann (< 30FPS)....
GeForce4 Ti 4200 64MB vs. 128MB: Die 64MB-Version mit höherem Speichertakt ist in allen Spielen und allen Einstellungen schneller, nur in der Comache 4 Demo hat die 128MB-Version einen Vorteil von 4% bis 27% (in 1920x1440), mit Anhebung des Speichertaktes (es war der gleiche 4ns-Speicher verbaut) sogar 6% bis 39%.
Auch eher so ein Beispiel ... in einem Spiel in zugegeben moderater Auflösung mit hohen FSAA. Und dann auch eher schon wieder in Regionen wo es wenig FPS bringt. 36 vs. 42 FPS macht wohl nicht den unglaublichen Unterschied, auch wenn 16% wenigstens etwas sind....
Radeon 9800 Pro 256MB 16% Vorteil ggü. der 128MB-Version in UT2003 in 1280x960 mit 4xAA/8xAF.
Gut, hier sieht man einige Unterschiede. Aber war z.B. eine X1800XT mit 512MB nicht die Standard Version? Und die mit 256MB waren die "Budget" Versionen dieser?...
Radeon X1800XT 256MB vs. 512MB, z.B. 16% Vorteil in BF2, 72% in CoD2, 18% in FEAR, 13% in HL2, 23% in Quake4, alles in in 1600x1200 mit 4xAA/8xAF, insgesamt 10% schneller
Hohe Auflösungen mit Eyecandy ... aber okay - 10% Gesamt bei der X1800XT und 8% Gesamt bei der X1900XT sind immerhin ein kleiner Unterschied und je nach Spiel sieht man sogar bei niedrigeren Auflösungen Unterschiede....
... X1900XT 256MB: ... gesamt 8% in 1600x1200 mit Eyecandy.
Gut wie ich schon schrieb ist das einer der wenigen echten Speicherkrüppel, aber immerhin konnte man je nach Budget auch die größere Version kaufen, also kein Angebotsmangel....
GeForce 8800GTS 320MB vs. 640MB: Die ansonsten absolut identische Karte ist nur aufgrund der Speichergröße in 1280x1024 mit 8xAA 16% schneller, in 1600x1200 mit 8xAA sogar 39%.
Holy Crap! Ich wusste tatsächlich nicht mehr daß es von einer 8800GT oder HD3850 auch Versionen mit 256MB gab. Gab es die auch schon zum Release?...
Dann hier ein toller Bericht, damals gab es sowohl Radeon HD3850, als auch GeForce 8800GT jeweils mit 256MB, 512MB und 1GB, wobei der Speicher der 8800GT 256MB (von wegen die gab es nicht, ich finde davon im Preisvergleich elf Modelle, sogar eine 9800GT 256MB) eigentlich deutlich langsamer lief ...
Die 256MB Versionen sind hier aber in meinen Augen die Sondermodelle die man nicht kaufen wollte, die 512MB waren Standard und die 1GB Modelle eben die mit doppelten VRAM aber kaum Mehr Nutzen....
Tendenz ist, dass der Unterschied zwischen 256MB und 512MB je nach Spiel ohne AA und AF bis 1600x1200 kaum ins Gewicht fällt, 2560x1600 aber meist auch ohne Eyecandy für 256MB unspielbar ist bzw. garnicht möglich, ...
Meine Rede....
... die 1GB-Version kann sich nie wirklich absetzen, selbst in 2560x1600 mit 4xAA nur 8%.
Ist halt jetzt die Frage auf was sich der verdoppelte Speicher bezieht. z.B. wie oben auf die 256MB Modelle? Dann ist das halt ein falscher Bezug wenn eigentlich die 512er der Standard war....
Alles in allem bestätigt dies meinen Standpunkt: Es gibt definitv Karten, die schon zum Erscheinen durch ihren Speicher eingeschränkt werden und solche, bei denen sich schon früh, wenn auch nicht bei Release ein verdoppelter Speicher bezahlt macht und die Lebensdauer erhöht.
Ist bei mir eigentlich ähnlich. Ich habe meine GPUs oft recht lange und durchtauche da oft die ein oder andere Generation....
Dazu muss ich auch sagen, dass ich sehr viel seltener die Karte tausche als die meisten hier im Forum und dass auch eher schlimmer wird, weil ich nurnoch selten zum Zocken komme. Da ich aber einen Monitor mit 1920x1200 habe und demnächst eher auf 2560x1440 gehen werde, muss eine neue Karte da auch lange durchhalten.
War bei mir recht unterschiedlich ... "damals" hatte ich mal ne teure Matrox Millenium aber auch mal ne günstige Tseng ET6000 gekauft. Die Voodoo und Voodoo² waren dann wieder teurer ... auch meine TNT und UltraTNT2 waren etwas teurer. Die GF3 eine der teuersten Grafikkarten die ich gekauft habe (direkt zum Release), die Radeon 9800 bzw. FX 5900 waren hingegen wieder recht günstig da nicht die Top Modelle und auch nicht direkt zum Release. Die 6800GT war wieder etwas teurer und die 7800GS AGP sowieso. Die HD4850 und GTX260 waren zu den echt guten Zeiten wo die Hersteller im erbitterten Zweikampf waren. Die GTX260 hatte mich ca. 180 EUR gekostet, zwar nicht zum Release (eher kurz vor den Refresh Chips - der GTX 275) aber das war ein echt gutes Preis/Leistungsverhältnis und die Karte hatte ich auch sehr lange. Die GTX 680 war wieder einiges teurer und die GTX 1080 auch. Dafür war die 1080Ti wieder ein Schnäppchen zu jedoch doch hohen (Gebraucht-)Preis....
... Ich habe eigentlich immer nur 200-300€ für eine Graka ausgegeben und sehe angesichts der geringen Zeit, die ich zum Zocken habe, auch nicht ein, mehr auszugeben.
Ja die Preise haben in den letzten Jahren wieder deutlich angezogen in den jeweiligen Modellklassen. Bei nV recht stark, aber auch AMD ist da teils mitgezogen. War aber eigentlich (wie bei den CPUs auch) schon immer so daß die Hersteller teils sehr teure Modelle angeboten haben, wenn sie es sich leisten konnten....
Wenn NV jetzt meint, dass die Angebote, die sonst typischerweise in diese Preislage fielen, also die zweit bzw. seit Kepler drittkleinste GPU mit 192Bit-SI oder kleiner und entsprechend reduziertem Speicher, nun 100€ mehr kosten sollen, mache ich da einfach nicht mit und kaufe gebraucht oder bei AMD. Überhaupt hat es mir schon sauer aufgestoßen, was man seit Kepler in dieser Preislage von NV gekriegt hat, nämlich 192Bit oder gar 128Bit SI und reduzierten Speicher, kein Vergleich zur Ti4200, FX5900XT, 6800GS oder 7900GS/7900GT, 8800GT/9800GT, GTS250 oder GTX460/560(Ti) damals.
Ich vermute nicht daß eine RX5600 <= 75W TDP hat, ich sagte es wäre fein wenn es so wäre.Die Radeon RX 5700 XT mit 2560 Shadern hat 225W.
Die Radeon RX 5700 mit 2304 Shadern hat 180W.
Wieso vermutest du bei einer RX 5600 unter 75W ?
Ich halte 2000 Shader und 150W für realistischer.
Wenn sie es mit dem Takt nicht übertreiben sogar unter 140W, wo dann ein 6 Pin ausreichen würde, und wir einen würdigen Nachfolger für eine Leise und Sparsame RX470 hätten.
Karten mit mehr als einem 6 Pin kommen mir nicht mehr ins Haus, da bin ich zu Silent verliebt geworden.
hab es aber noch nicht geschaut.
Edit: hmmm der titel ist mal echt richtig scheiße... habe gedacht da kommt ne 5800xt
Und das unter dx11 getested! Under vulkan rennt se eh der 2080ti sogar davon.AMD Ryzen 3900X + 5700XT a little faster than intel i9 9900K+ RTX2070 in the game, World War Z.Today, AMD hosted a media briefing in Seoul, Korea. air-cooled Ryzen, water cooled intel. : Amd
Und das unter dx11 getested! Under vulkan rennt se eh der 2080ti sogar davon.AMD Ryzen 3900X + 5700XT a little faster than intel i9 9900K+ RTX2070 in the game, World War Z.Today, AMD hosted a media briefing in Seoul, Korea. air-cooled Ryzen, water cooled intel. : Amd
Hmm das wäre dann aber keine besonders aufregende Effizienz, es sei denn sie knallen die Taktraten wieder so hoch wie möglich wodurch die Karten wieder ineffizienter werden.@ Bucho
Schau mal die vermuten bei der 5600er 1408-1536 Stream-Prozessoren und 120w
AMD RDNA: Navi 10, 12, 14, 21 in Linux-Treibern aufgetaucht
Dann solltest du genauer lesen... Das ist ein vergleich unter dx 11 in world war z gewesen mit einem preislich identischen system. Unter vulkan ist schon jetzt die vega64 ca. 20 fps schneller als ne 2080ti. Und die 5700xt ist schneller als ne vega64.
Unter vulkan ist schon jetzt die vega64 ca. 20 fps schneller als ne 2080ti. Und die 5700xt ist schneller als ne vega64.
Dann solltest du genauer lesen... Das ist ein vergleich unter dx 11 in world war z gewesen mit einem preislich identischen system. Unter vulkan ist schon jetzt die vega64 ca. 20 fps schneller als ne 2080ti. Und die 5700xt ist schneller als ne vega64.