[Sammelthread] Grafikkarten - Technikdiskussion

aktuelle Hardware zum vergleichen hab ich leider nicht.

Mich hat es halt gewundert, da ich dachte, dass egal welche Hardware drunter steckt, das Ergebnis doch gleich aussehen sollte bei default-einstellungen(?)

DOF -> klick
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was DOF ist, weis ich schon. Die Frage war eher, was du dort an Unterschied gesehen hast? Weil das kann ich mir nicht so recht vorstellen, wo/wie/an welcher Stelle dort Unterschiede auffallen können.
Möglicherweise war das bei dir aber auch nur ein Setting, Kontrast sprichst du ja an, der wirkt halt auf das ganze Bild. DOF wäre damit halt auch betroffen...

Was gern auch Thema bei ist, je nach Setting, also RGB oder YUV gibt's teils sichtbare Unterschiede. Hier sollte man die passenden Settings zum Monitor wählen...
 
Adaptive Vsync ging auch früher bei AMD - mit Radeon Pro. Im Crimson ist es bisher leider nicht.
Die bessere Alternative ist allerdings auch Freesync/Gysync.

Was Frametimes angeht ist mir nicht bekannt dass AMD da irgendwo generell hinterher wäre...
Hattest du Grakas der selben Leistungsklasse zum Vergleich?
Es gibr auch framerate target auch eine schöne option im treiber.
Für super frametimes kommt man um crossfireX zur zeit nicht herum.
Grund ist das frame pacing welches automtisch aktviert wird mit crossfirex.
Da können die anti multi gpu user noch so fluchen, davon werden meine frametimes bestimmt nicht schlechter.
Freesync ist natürlich auch eine feine sache.
 
Holla die Waldfee. GTX1080 nun vorgestellt. Schneller als ein GTX980 SLI(ohne TI!) ist schon ne schicke ansage. Zwar bisher mit sicherheit alles nur Theoretische Werte und damit nur schwer auf Spiele anwendbar. Aber so viel Abzug sollte da nicht dabei sein. Und für ~180W Verlustleistung ist das eigentlich schon eine echte Hausnummer. Außerdem schick das alle aktuellen Anschlusstandarts verwendet werden. Also DP 1.4 und HDMI 2.0b. Heißt 4K und gleichzeitig 3D bzw 120Hz problemlos möglich. Dann können ja wieder einige Grafikknaller auf den Markt kommen. :)
Fraglich ob da Polaris bei den Angaben bisher Mitziehen kann. Und selbst wenn, wird Nvidia sicherlich nicht all zu lange auf sich warten lassen und weitere Updates raus bringen. Pascall hat ja noch gut Luft nach oben.
Auch mal interessant zu wissen was die Entwicklungskosten im Groben sind. Über 2 Jahre und fast 3 Milliarden Dollar. Das sind schon einige verkaufte Chips bis das Geld wieder rein gekommen ist.

NVIDIA präsentiert die GeForce GTX 1080 auf Basis der Pascal-Architektur - Hardwareluxx
GeForce GTX 1080 und 1070 vorgestellt - ComputerBase

Und Preislich eine GTX980TI für den Preis einer GTX970 ist auch ganz nett.
Bleibt dabei noch zu hoffen das Nvidia da auch gut dran gearbeitet hat das DX12, Vulcan und co supportet wird. Immerhin hat Maxwell da gegen AMD CGN Architektur ehr abgeschissen. Wohl die letzte Chance für Polaris richtig gut zu Punkten.
 
Zuletzt bearbeitet:
mal eine technische Frage an die Experten hier: warum werden die Grafikkarten immer grösser, wo doch eigentlich die Effizienz besser, die Strukturbreiten usw. kleiner werden? Und warum gibt es Potente Grafikkarten wie die 970 Mini oder R9 Nano, die leistungstechnisch doch auf der Höhe zu sein scheinen, aber trotzdem Monster-Grafikkarten?? Isdt das so ein Sch***-Vergleichs-Dingen, was unter heutigen Retail-Grafikkarten-Kunden läuft? je grösser oder länger, desto besser? ;) (bitte auch mit ein wenig Humor nehmen...)
 
R9 Nano hat den Vorteil von HBM. Der VRam wandert auf den Chip und verbraucht damit keinen platz mehr außerhalb. Ansonsten ist es auch die Stromversorgung die Platz benötigt. Bei den kleinen GTX970 ist keine besondere drauf. Sozusagen mehr nur das nötigste.

Strukturbreiten werden zwar kleiner, aber gleichzeitig kommen immer mehr Transistoren auf den Chip was ihn wieder größer werden lässt. Würde men die gleiche anzahl an Transistoren auf den früheren 170nm Strukturbreite pressen wäre allein der Chip bald so groß wie die Nano im gesamten.

Ein weiteres Problem sind die Layer im PCB. Die Karten haben nicht mehr nur die sichbaren Leiterbahnen auf der Oberfläche. Sondern sie bestehen aus mehreren Schichten. Aber jede weitere Schicht macht es auch Teurer. Hier muss man einfach das verhältniss finden zwischen Preislich akzeptabel und was passt noch in das Gehäuse.

Edit:
Beispielbilder:
GTX970 Mini
http://hexus.net/media/uploaded/2014/12/93ddd940-215f-4d14-b621-f611894dd802.jpg
vs. GTX970 (unten) und GTX980 (oben)
http://www.techspot.com/articles-info/885/images/Image_01S.jpg

Ein teil der Stromversorgung bei der normalen GTX970 ist auf der Mini gar nicht mehr vorhanden. Übrig bleibt nur noch der kram zwischen Blende und Chip.
Der Platz zwischen bei den Chips entsteht durch die masse an Leiterbahnen wo man nur noch schwer was dahin klatschen kann. Zumal die Leiterbahnen selber auch wiederstände darstellen. Sehr geringe, aber notwendige. Deswegen sieht man auf manchen PCB's bei den Leiterbahnen auch lustige Kringel und Wellen die auf den ersten Blick unsinnig erscheinen. So spart man auch Bauteile.

Hier ein Bild der Nano:
http://images.anandtech.com/doci/9564/R9_Nano_Straight_On_Bare_Front_RGB_5inch_crop.jpg
In der mitte der große graue klumpen ist die GPU. Die vier kleinen daneben ist der neue HBM Speicher. Dafür sind keine dunkelgrauen klötzchen mehr auf dem PCB um die GPU verteilt. Spart man also auch massig platz. Zudem auch hier nur die nötigste Stromversorgung. Oberhalb und rechts daneben nen bissel was.

Theoretisch könnte man die karten auch noch kleiner Machen. Aber das hat kaum noch Sinn, da es immer schwieriger wird das um zu setzen. Zumal der Kühlkörper für eine Moderate kühlung auch eine entsprechende Größe benötigt. Man zeigt halt nur mehr was möglich ist als was nötig ist.

Und zu schluss. Grafikkarten werden nicht mehr größer. Die neue GTX1080 im Refferenz Designe ist nicht größer oder kleiner als die vorherige GTX980. Auch die 780TI oder 680 waren nicht wirklich kleiner.
Zudem kommen nach und nach auch mehr Features auf die Karten. Einerseits eine bessere Stromversorgung bei den Partnermodellen für Übertaktbarkeit. Dazu viel mehr Grafikanschlüsse im gegensatz zu einer Voodoo von früher oder einer Radeon 7000. Auch hier ist generell die Stromversorgung stark gewachsen aus notwendigkeit (Die 7000 hat damals vielleicht 50W gezogen). Der PCIe Standard hat viel mehr Leiterbahnen nötig. Bei x2 Karten kommt noch eine art Splitter dazu der die PCIe Lanes noch mal verdoppelt. Auch ein eigener Chip mit nicht wenig Wärmeproduktion. Wenn noch ein Analoger Ausgang genutzt wird benötigt es auch noch ein Chip der die Digitalen Signale der Karte umwandelt... usw.
 
Zuletzt bearbeitet:
Der Platz zwischen bei den Chips entsteht durch die masse an Leiterbahnen wo man nur noch schwer was dahin klatschen kann. Zumal die Leiterbahnen selber auch wiederstände darstellen. Sehr geringe, aber notwendige. Deswegen sieht man auf manchen PCB's bei den Leiterbahnen auch lustige Kringel und Wellen die auf den ersten Blick unsinnig erscheinen. So spart man auch Bauteile.

Ich halte das für Korrekturen für die Signallaufzeit, d.h. wenn zwei Leitungen (ggf. für ein differentielles Signal) gleichzeitig ankommen müssen, aber die eine nen Vorteil hat, weil sie beispielsweise bei Richtungsänderungen immer auf der kürzeren, inneren Seite liegt, dann muss sie dafür irgendwo ein paar Extra-Millimeter laufen. Sonst hat sie nicht die gleiche Länge und die Signale kommen versetzt an.

Bei 1 GHz Taktfrequenz liegen zwei Events 1 Nanosekunde auseinander. Bei Lichtgeschwindigkeit sind das 30 Zentimeter physikalischer Abstand. Elektrische Signale laufen nur mit 2/3c, d.h. 20 Zentimeter. Schmeißt man jetzt noch effektive Taktverdopplung durch Nutzung von ansteigender und abfallender Taktflanke (...DDR) drauf, sind wir bei 10cm. Bis dahin ist das Signal perfekt, d.h. Flanken sind perfekte Stufenfunktionen ohne Ringing, Transistoren haben keine Gatekapazität und schalten sofort, es ist kein extern aufmodulierter Mist (oder auch nur Crosstalk) auf den Signalen, etc. Da wunderts jetzt nicht, dass Leiterbahnen auf den Millimeter genau geplant werden.
 
So. Wir sind bei 14nm angekommen.

Und es gibt schon berichte wie ab 2021 die Strukturen nicht mehr verkleinert werden, also 10nm als letztes Ziel angepeilt, und danach wohl auf 3d Transistoren oder Graphit oder andere Alternativen getecht wird.
Bericht: Moores Law: Ab 2021 schrumpfen Transistoren nicht weiter Moores Law: Ab 2021 schrumpfen Transistoren nicht weiter - Hardwareluxx

Da stellen sich mir ein paar Gedanken im Kopf auf.

Es wird dann also eine sehr Lange Durststrecke mit den heutigen Fertigungsprozessen werden.
Und mit 10nm (welche ja 2018 im CPU berreich und 2020 im GPU berreich kommen soll), wird dann wohl einen noch Längeren Atemzug haben.

Aus Umwelttechnischer Sicht, sollten wir uns also alle darauf einstellen, weniger Häufiger Hardware zu Wechseln, und Langfristiger zu Planen, da die Fortschritte immer Langsamer werden.
Das hat ja auch sein gutes, wir schonen die seltenen Erden und Edelmetalle ein wenig.

Was denkt ihr, wie sehr wird das unsere Hardwaregeschichte beeinflussen ?
 
Ich frage mich wie sehr sich der druck auf die software verlagern wird.

Ich habe oft das gefühl dass software "x" einfach schlampig konstruiert wurde da eh genug ressourcen in form von rechenpower da sind. Ist aber nur ein gefühl.

Und ich würde meinen dass bei entsprechender optimierung ein 10nm prozess deutliche reserven haben kann.

Der 28nm prozess ist auch deutlich gereift.
 
Der Boosttakt ist dynamisch und richtet sich nach Temperatur und stromverbrauch, ist beides niedrig genug ist der deutlich höher als angegeben.
Der angegebene Takt von 1683 ist nur das absolute minimum das IMMER erreicht werden muss.
Aber nahezu bei jeder Karte leigt der deutlich darüber und schwankt eben je nach Auslastung, Temperatur und Stromverbrauch.
 
ok, der boosttakt der angegebn wird, ist also das garantierte minimum.
ansonsten boosttakt nach oben hin ´´offen´´

danke für die erklärung
 
Hey Community,

ich bin am überlegen, ob ich mir jetzt (oder in nächster Zeit) eine neue Grafikkarte hole (egal ob AMD oder NVIDIA).

Ich überlege, ob jetzt der passende Moment ist, denn laut Nvidia&AMD Roadmap (http://www.pcgameshardware.de/Grafi...ap-Grafikkarten-Liste-Radeon-Geforce-1128937/) kommt die nächte Chip-Architektur "Volta" erst im Jahr 2018 und somit hat man mit dem aktuellen "Pascal" (GTX1050-1080) erstmal einiges an Zeit.

Da ich jedoch einige Rückschläge seitens NVIDIA GPU gehabt habe (Unzufrieden mit Treiberveröffentlichungskonzept, Abstürtze des NVIDIA Treibers in The Witcher 3 und World of Warship, Unzufriedenheit mit dem GPU Boost 2.0, Spulenfiepen und übertragendes Spulenfiepen über die Soundkarte) bin ich am überlegen ob ich GPU-technisch zu AMD wechsle.
Derzeit habe eine Zotac 760 AMP!

Ich habe da die RX480 mit 8 GB im Blick. Diese ist zwar leistungstechnisch 9% schlechter als die GTX1060 aber dafür auch 19% günstiger
(Quelle: Internet (bitte selber suchen)) und wenn eine RX480 nicht mehr ausreicht, kann man diese ja im Crossfire laufenlassen (zudem die RX480 eh später günstiger wird) (die GTX1060 kann man leider nicht im SLI laufen lassen, da dazu der entsprechende Anschluss fehlt.)
Jedoch kommt 2017 die Vega-Generation für AMD raus (von der ich aber überhaupt keine Ahnung habe)

Was meint ihr? Was sind eure Ehrfahrungen? Ist jetzt der Zeitpunkt gut upzugraden, bzw. zu wechseln?

MfG Zyche
 
Zuletzt bearbeitet:
Ja ist ein Guter Zeitpunkt.

Vega wird übrigens die RX480 nicht ersetzen. Vega wird der Große Bruder der RX480. Also mehr Recheneinheiten, mehr Preis.

Übertragendes Spulenfiepen über die Soundkarte hab ich übrigens auch seit ich eine GTX770 drin hab. interessant das ich nicht der einzige bin.
 
Moin,

Hab mal eine Frage und wollte deswegen nicht extra einen neuen Thread auf machen. Mein Bruder, ein paar Freunde und ich wollen uns mal wieder für eine LAN treffen. Gespielt werden eigentlich nur Klassiker wie FC2, WC3, CS1.6. Jetzt wollten wir auch mal wieder BF1942 und Vietnam, sowie UT2004 spielen. Jetzt zum Problem. Ich habe gar keine Ahnung mehr, auf welchen Grakas die Games damals flüssig liefen? Ich hatte öfter mal gewechselt und irgendwie den Überblick verloren... Wollte jetzt evtl. mal wieder zwei Rechner nur für diesen Einsatz flott machen. An Hardware habe ich einen Q9550 und einen E6550, 4GB DDR2 und 4GB DDR3 und ein Abit P35 Brett. Als Graka ist noch eine 8800GT und eine 9600GT vorhanden. Die anderen habe ich alle verscherbelt... Reichen die noch aus? Bin am überlegen mir noch ein 775 Brett mit DDR3 zu holen und evtl. eine HD4870 oder so. Viel Geld möchte ich nicht ausgeben.
Andere Frage ist, gibt es irgendwo eine brauchbare Liste, in der alte Grakas mit halbwegs aktuellen dedizierten Grakas und evtl. aktuellen iGPUs verglichen werden (können)?


Edit: Was ich ganz vergessen hatte zu fragen: Was wäre für den Q9550 das höchste der Gefühle, was man ihm als Grafikkarte zur Seite stellen könnte, ohne das der zum Flaschenhals wird?

VG, Henrik
 
Zuletzt bearbeitet:
WC3 & CS 1.6 lief mit ner Radeon X800GTO/Geforce 6800GT schon ohne Probleme.
Auch Radeon 9700Pro und Geforce 5900XT schaffen diese Titel schon. BF1942 läuft dagegen schon mit ner Geforce 3ti und Radeon 9000 sehr gut.

UT2004 und FC2 würde ich eher mit Karten die schneller als die gerade erwähnten sind angehen. So Geforce 7 Serie. Abert du hast ja schon Geforce 8 und 9 Karten, also total Overkill was du hast :)
HD4870 ist auch totaler Overkill. Dual Core ist auch overkill. 4GB Ram würde ich aber mindestens empfehlen, weil Windows davon stark Profitiert. Die CPU,s sind alle schnell genug.

Hier noch ne Coole Rangliste die du dir wünschst.

Grafikrangliste - Alle Grafikchips samt Informationen nach Leistung aufgelistet. - PC-Erfahrung.de
 
Äh, top, danke! Stimmt auch. Bf1942 habe ich tatsächlich auf der Radon 9000 gespielt. Nach der 9800pro und 6800gt habe ich dann mit der go7900gs auf LANs gespielt...

Die liste ist echt super, wobei leider keine igpus vorhanden sind. Trotzdem, danke noch einmal.
 
NP. bei iGPU,s von AMD kannste ja die recheneinheiten vergleichen mit den Karten.

btw mir fällt grad auf, das ich damals sogar mit ner Radeon 9600SE (Abgespeckte Variante), CS 1.6 gezockt habe, max details immer über 60 fps auch bei smoke granaten :fresse:

Also würde sogar eine Geforce 3 und Radeon 9000 dafür ausreichen.
 
iGPU wäre evtl. die nächste APU von AMD interessant (Zen + Polaris/Vega) - aber davon ab, soll Vega im 1. Halbjahr 2017 kommen, was wohl eher Sommer sein wird. Das ist natürlich doof, weil AMD dann fast 1 Jahr lang keine Antwort auf NVidias High-End Grakas hat und bis dahin hat NVidia auch bestimmt schon eine Antwort auf Vega. Die Sache ist: Ich kaufe mir nicht jede Generation eine neue GPU, sondern, wenn der Sprung "sichtbar" ist. Rein in die Rechnung kommt dann P/L. Und ich muss ehrlich sagen: Bisher machts meine 7970 von AMD noch ziemlich geschmeidig mit allen Spielen. Einzig für Star Citizen müsste ich irgendwann mal upgraden, aber bis das rauskommt, hat AMD noch viel Zeit.

Kurzum: Für die ganzen Spiele reicht meine 3 Jahre alte Graka und für die wirklich brachialen Titel ist noch Zeit, wo Vega dann wieder passt. Ich gucke halt besonders drauf, weil ich eine bezahlbare HBM2 Lösung haben will - und die zeigt sich bei NVidia nicht. Hab lange geguckt und spekuliert, was ich mir holen könnte - es wird wohl AMD zum Sommer 2017. Aber bis dahin kann eh noch viel passieren, von daher: Tee trinken.
 
Warum bist du unbedingt so scharf auf HBM2? Versteh mich nicht falsch. Es ist die Zukunft ohne Frage. Aber bringt auch nichts wenn Preis und Leistung am ende nicht stimmt. Wenn die GPU nicht genug Leistung hat, dann reißt auch HBM2 den Hering nicht mehr vom Teller.
 
Weils eben der "nächste große Sprung" ist. Die Kombination aus kleinerer Fertigungsgröße, mittelgroßen Architekturänderung und großer Speicherveränderung ist genug, u m den nächsten Einkauf zu rechtfertigen - ist aber alles eher Gefühlssache - wenn ich alle 5-7 Generationen aufrüste, gucke ich da nach dem größten Sprung und das ist grad der Fall. :)
 
HBM2 bringt halt nicht nur mehr Speicherbandbreite, sondern ist auch sehr viel Stromsparender, also macht die Graka insgesamt sehr viel Effizienter.
Würde ich also gern auf jeder Karte sehen solange das P/L nicht Stark leidet.
 
Ansich stimme ich schon zu. Aber am ende sind wir Endkunden. Sprich Preis Leistung ist wichtig. Passende Features die man braucht und Leistung die man braucht. Wie sie am ende zustande kommt ist dabei schon fast egal. Vor allem wenn man nicht den ganzen heißen Scheiß ausprobieren will wie nen Tester. Ein Spezieller Wunsch wie 'HBM muss bei sein' find ich zwar schick, aber nicht zwingend richtig.
 
Wie gesagt, es ist eine Kombination aus mehreren Faktoren. Damals wars halt die erste GCN-Architektur (die heute noch alles mitmacht) und im nächsten Jahr wirds halt GCN 4 + HMB2 + 14 nm shrink. Und da AMD zur Zeit ein ziemlich gutes P/L Verhältnis anbietet, liebäugle ich damit sehr. Ich hab bisher zwar nur Gerüchte gehört, aber es soll ja Vega 10 und 11 geben - einmal mit 4096 shadern und einmal mit 6144. 6144 ist mal eben die dreifache Anzahl meiner aktuellen Karte + bessere Architektur + schnellerer Speicher. Die raw-performance wäre brachial und in ordentlich programmierten Engines, die sehr gut mit Vulkan/DX12 arbeiten (also eher Doom und weniger Tomb Raider) kann ich die halt neben eine NVidia Karte stellen und ich hab das doppelte an P/L.

Für mich isses halt Star Citizen, weswegen ich überhaupt darüber nachdenke aufzurüsten, aber die letzten Demos + Datenextraktionen zeigen ziemlich deutlich, dass meine 7970 da einfach abrauchen würde. Die gehen halt in die Vollen und ich brauche da entsprechende Hardware. Könnte NVidia das auch? Wohlmöglich, aber nicht mehr zum sinnvollen Preis.
 
Nur zum verständniss. Mir ging es nicht darum ob AMD oder Nvidia toll sind was ihre Produkte und die Preise betrifft. Mehr nur einfach um die Aussage: "Ich gucke halt besonders drauf, weil ich eine bezahlbare HBM2 Lösung haben will ..."
Wie gesagt. HBM2 ist schon was schickes. Aber erstens jetzt schon so drauf ab zu sein ist schwierig. Einerseits weis man nicht was die Zukunft noch bringt, vor allem bei Elektronik. GDDR5X ist ja auch nicht schlecht und hab letztens auch da von nem Update gehört. Andererseits bringt HBM2 halt auch nichts wenn es nicht genutzt werden kann. Etwas bestimmtes haben zu wollen, darüber würde ich erst reden wenn der Zeitpunkt gekommen ist, das man auch Geld ausgeben möchte. Außer man will Fantasieren und sich zum Beispiel nen 10.000€ Rechner zusammen stellen. :p
Wenn eine Karte mit einem entsprechenden Feature genau in das Schema passt das man benötigt oder möchte, dann ist das in Ordnung. Aber noch gibt es kein HBM2 auf dem Endkundenmarkt. Und Problematisch wird es eh. Da HBM schon nicht besonders Günstig ist im gegensatz zu GDDR. HBM2 wird da wohl im Gesamtpreis nicht besser abschneiden. Zudem meine ich vor einiger Zeit auch mal einen Test gelesen haben das zumeist die VRam geschwindigkeit in dem Feld liegt wo sie sein sollte. Nicht zu wenig um den Chip zu bremsen. Nicht zu viel um sinnlos, Stromfressend und Wärme erzeugend zu sein ohne das die GPU davon wirklich profitiert. Ob dann HBM und weitere Ausbaustufen für Spieler so sinnvoll ist, muss man Klären wenn es draußen ist. Sofern man passende Vergleichskarten bekommt.
 
Ah, okay - da hab ich dich falsch verstanden. Ja, bezahlbares HMB2 hängt ja auch davon ab, was der Hersteller dafür blechen muss. Die 5.000 € Karte von NVidia benutzt halt ein sehr frühes "Prototypen" HBM2, was sich Samsung sehr teuer bezahlen lässt und dann kommt natürlich noch der Aufschlag von NVidia selbst oben mit drauf. AMD wird den Massenproduktions-Typen benutzen, der hoffentlich *deutlich* günstiger sein wird.

Aber ich betrachte das - wie du sagst - aus dem Anwendungsfall und evaluiere (ungefähr) was ich brauchen werden und welches Produkt die Anforderungen erfüllt. Und hier hab ich bei Star Citizen halt riesengroße Gebiete mit mehreren Millionen von Polies und einen Haufen von Shader-Effekten für Texturen, Licht, Partikel usw. Die brauchen so ziemlich alles, was eine GPU aufbieten kann - vor allem die Fähigkeit viele Daten schnell in den Speicher zu werfen und dann, diese auch verarbeiten zu können. Wo wir bei Spielen wie Tomb Raider, Assassins Creed oder Deus Ex kaum solche Anforderungen haben, weil eben viel recyclet bzw. sehr einfach dargestellt wird (da würde meine 7970 halt noch gehen) ist das bei SC eben nicht mehr der Fall.

Ich denke schon, dass HBM2 da seine Stärken ausspielen kann. Das es nicht billig wird, ist mir auch klar - ich schätze mal ~500 Euro. Ansonsten hab ich schon 6C/12T, 32 GB RAM und ne 1TB SSD. Das sollte ausreichen um die GPU anständig zu befeuern. :)
 
Speziell bei Star Citizen würde ich sogar sagen, das es ein neues Crysis oder Far Cry wird was den Hunger anbelangt. Das auch die kommende Generation für super Detailreich in hoher Auflösung oder DSR kaum ausreichen wird. Das die Cryengine genutzt wird spricht ja nur dafür. Zumal noch weitere Features hinzu gefügt werden mit hilfe von ehemaligen Crytek Mitarbeitern. :d
Aktuell werden ja neue Systeme Eingeführt in das Spiel welche Prozentural generiert werden. Das wird vermutzlich die CPU zum großteil übernehmen. Gut möglich das 6 Kerne nicht reichen ^^

Was HBM (bzw auch die GPU's selber) aktuell so Teuer macht sind ja die Forschungskosten sowie Anschaffungskosten für die Produktion. Wird ja gern bei der Berechnung der Kosten vergessen. Neue Techniken werden ja immer Komplizierter und Forschungskosten erhöhen sich entsprechend.
 
Ich bin mir ziemlich sicher, dass 2 Kerne nicht mehr für SC ausreichen, 4 wird "normal" und ab 6 wird es "gut" - HT hilft hier auch. Am Ende wird sich die optimale CPU bei ~6C/12T bzw. 8C/16T einpegeln, mehr werden wir in nächster Zeit auch nicht sehen, es sei denn, AMD bringt ne angepasste Server-CPU und den High-End Desktop-Markt mit Zen.

Ansonsten verfolge ich auch sehr nah die Entwicklung von SC und die wollen ja auch Vulkan unterstützen. Ab diesem Punkt geht es dann nur noch um pure Rohleistung, um den rest kümmert sich die API. Und hier sehe ich 6144 Shader-Einheiten schon als gutes Daumenmaß für SC - plus eben 8/16 GB HBM2, welches genau diese prozeduralen Sachen ermöglicht, die "früher" zu sehen (LODs fangen früher an) und natürlich eine neuere Architektur/Shaderdesign, um da auch noch ein paar Prozentpunkte herauszukitzeln.

Aber ja, möglicherweise müsste ich dann auf Navi/Volta warten, um auf maximalen Details die ganze Pracht betrachten zu können. Das wird aber 2018 und bis dahin ist SQ42 schon draussen. Wird also eher die volle Ausbaustufe von Vega.
 
Naja, so wie sich die Entwicklung bzw auch der Hunger von SC ist, kann da durchaus noch einiges passieren. Immer neues Geld für immer neue Ideen von Chris und co. Ich mein, bei mir werkeln 2 GTX680. Sicher nicht mehr so Krass wie früher. Aber können tun sie noch einiges. Witcher 3 konnt ich gut in Vollen Details zocken (Außnahme besondere Features wie die Haare). Die bisherigen Alphas sah es echt mau aus. Und wie bei der Gamescom berichtet Arbeiten die Jungs jetzt schon stark auf Optimierungen obwohl das Spiel nicht im Ansatz fertig ist. Auch wenn SC noch so einige Optimierungen drinnen haben wird die Performance verbessert, schätze ich das es zwar gut auf nem zukünftigen Mittelklasse Gaming PC aussehen und laufen wird. Aber volle Pracht. Ich glaub da wird um einiges mehr drin sein müssen. Nicht vergessen. Zur vollen Pracht zählt auch 4K, extrem hohes LOD. Wahrscheinlich auch einige INI Tweaks oder was man in dem Fall alles ändern kann.
Vulkan ist zudem auch eine Software welche unter anderem auch auf der CPU ausgeführt werden muss. Man darf nicht annehmen das die CPU kaum eine rolle Spielt um die Grafikkarte zu füttern.
HT ist auch Fraglich. Bei dem einen Spiel und Programm hilft es, bei dem anderen schadet es der Performance sogar noch. Muss man abwarten wie es sich bei SC verhält. Zudem sind ja nicht zwingend die Kerne Entscheident. Hilfreich, aber die Leistung der Kerne spielt auch eine starke Rolle. Mehr Kerne zu Implementieren ist ja nicht das große Problem für die Hersteller. Intels Larrabee zeigt das ja ganz gut. CPU und GPU in einem. 60 Kerne schon vor knapp 4 Jahren. Intel hat ja auch aktuell eine Server CPU mit 22 Kernen draußen.
 
Okay, muss hier anfangen zu stückeln. xD

Naja, so wie sich die Entwicklung bzw auch der Hunger von SC ist, kann da durchaus noch einiges passieren. Immer neues Geld für immer neue Ideen von Chris und co.
Die Arbeiten am grafischen Schnickschnack sind noch lange nicht fertig. Die fangen jetzt an mit Wolken/Nebeleffekten, Wasser, neuen Lichtrendering-Methoden, neue Reflexionen - bisher haben sie nur das Skelett und ein paar Dummy-Effekte benutzt, die noch weit vor "fertig" sind. Da kommt noch einiges. Und das ist nur die Grafische Schiene.

Ich mein, bei mir werkeln 2 GTX680. Sicher nicht mehr so Krass wie früher. Aber können tun sie noch einiges. Witcher 3 konnt ich gut in Vollen Details zocken (Außnahme besondere Features wie die Haare).
Meine Radeon 7970 machts ja auch noch. :) Außer bei SC.

Die bisherigen Alphas sah es echt mau aus.
Kann ich nicht bestätigen. Es fehlen halt noch einige Effekte, aber das was sie haben, ist top notch. Keine verwaschenen Texturen, keine Nebel-in-grau Filter um Dinge zu verbergen, die weiter weg sind, keine Widerholungen, die Meshes gehen in die Millionen, die Texturen sind eh über alle Dinge erhaben. Es ist eigentlich ein wunder, dass ich nicht mit 5 FPS durch die Gegend ruckle.


Und wie bei der Gamescom berichtet Arbeiten die Jungs jetzt schon stark auf Optimierungen obwohl das Spiel nicht im Ansatz fertig ist.
Ich denke, da hast du evtl. was falsches aufgeschnappt. Chris sagte "Content-Phase" - also, dass die jetzt mit den Kerntechnologien so weit sind, dass sie ihre Art-Designer vollständig von der Leine lassen können. Außer beim Netzwerk-Code erwarte ich keine Optimierungen - und beim Netzwerk-Code wirds auch nur gemacht, weil der einen Blocker darstellt. Sobald du Multiplayer-Modus anschaltest, sind deine FPS auf max. 30 gelocked, weil die Refresh-rate vom Server abhängig ist, während sind deine CPU und GPU langweilen. Der Blocker muss weg, um besser testen zu können.

Auch wenn SC noch so einige Optimierungen drinnen haben wird die Performance verbessert, schätze ich das es zwar gut auf nem zukünftigen Mittelklasse Gaming PC aussehen und laufen wird.
Das Zauberwort ist halt Skalierung. Ich denke auch, dass ein mittelklasse-Rechner das auch noch "schön" darstellen wird, aber ich will mir keinen Ferrari mit einem 60 PS Motor anschaffen, genausowenig will ich SC mit weniger als "Very high/Ultra" spielen.

Aber volle Pracht. Ich glaub da wird um einiges mehr drin sein müssen. Nicht vergessen. Zur vollen Pracht zählt auch 4K, extrem hohes LOD. Wahrscheinlich auch einige INI Tweaks oder was man in dem Fall alles ändern kann.
4K bin ich mir nicht so sicher, LOD: Jupp. Auch einige Lichteffekte werden umschaltbar sein, zwischen "normal" und der "Raytracing Methode". Du kannst damit, wenn du alles ausreizt gefühlt jedes System an die Wand fahren.

Vulkan ist zudem auch eine Software welche unter anderem auch auf der CPU ausgeführt werden muss. Man darf nicht annehmen das die CPU kaum eine rolle Spielt um die Grafikkarte zu füttern.
Als ich die Smartphone-Demo von Vulkan gesehen hab, ist mir klar geworden, dass du eigentlich mit der CPU nur die GPU befeuerst. Die braucht halt nur eine Minimal-Performance, alles darüber wird dann auf der GPU gemacht. Natürlich ist SC nicht nur Vulkan, sondern auch gefühlt 20.000 Scripte, die ebenfalls alle parallel ausgeführt werden wollen. Aber generell spielt die CPU eine wesentlich geringere Rolle als heutzutage mit DX11, wo ab einem bestimmten Draw-Call Durchsatz einfach Schluss ist.

HT ist auch Fraglich. Bei dem einen Spiel und Programm hilft es, bei dem anderen schadet es der Performance sogar noch.
Bei schlechten Konsolenports bin ich mit dabei, aber nicht bei SC. Könnte sogar eines der ersten Spiele werden, wo der Unterschied zwischen HT und nicht mehr als 10% ausmacht - natürlich unter der Vorraussetzung, dass du ans CPU Limit kommst. Wenn, nicht, isses eh egal und du wirst es nicht merken.

Muss man abwarten wie es sich bei SC verhält.
Deswegen die Netcode-Optimierung. Die (nicht vorhandene) verhindert grad, dass du das ordentlich evaluieren kannst. Generell zählt SC aber im Hinblick auf CPU/GPULast zu den eher CPU-lastigen Spielen.

Zudem sind ja nicht zwingend die Kerne Entscheident. Hilfreich, aber die Leistung der Kerne spielt auch eine starke Rolle. Mehr Kerne zu Implementieren ist ja nicht das große Problem für die Hersteller. Intels Larrabee zeigt das ja ganz gut. CPU und GPU in einem. 60 Kerne schon vor knapp 4 Jahren. Intel hat ja auch aktuell eine Server CPU mit 22 Kernen draußen.
Puh... schwieriges Thema. Zu erst einmal bauen die Jungs von SC die Engine so um, dass sie so parallel und entkoppelt wie möglich läuft. Die bauen eines der ersten Spiele, wo jetzt schon einige der Kernkomponenten NICHT mehr von Main-Thread abhängig sind - und das ist auch zwingend erforderlich für Sachen wie Vulkan. Natürlich stoßen die da auf neue Probleme, wie Sync-Sachen. Generell wollen die halt so viel wie möglich in kleine, unabhängige Prozesse berechnen lassen, anstatt einen großen. Auf Grund möglicher Sync-Probleme wirst du aber trotzdem noch eine starke pro-Kern-Leistung benötigen, damit eben nicht alle anderen Prozesse auf dich warten müssen. Wobei du auch hier mit intelligenter Programmierung und dem sinnvollen Setzen von Prozessreihenfolgen einiges bewirken kannst, so dass eine solche Problematik selbst bei geringer IPC-Leistung nur gering ausfallen sollte. Das braucht aber eben alles Zeit, muss evaluiert werden und wenn ich mir die Dev-Kisten so angucke, auf denen die das machen, sind das alles Rechner mit 6C/12T und ner 980TI als "Standard" - Chris hat wohl ne Titan-Maschine mit wasweißich für Komponenten. Kann natürlich zu Problemen führen, wenns auf der Dev-Kiste läuft, aber dein schnuckeliger 4-Kerner auf einmal sync-Probleme bekommt, weil er eben nicht 12T hat, sondern nur 4.

Hier hilft tatsächlich nur abwarten und hoffen, dass genug Leute mit "Minimalanforderungen" die unteren Grenzen ausloten und Bugs posten. Es gab schon mehrere Bugs, die selbst dem (guten) QA nicht aufgefallen sind, weil die halt nicht mit Kartoffelrechnern testen. :d
Auf der anderen Seite: Wenn du dir die Sysconfig der Tester anguckst, hat fast jeder ne andere Graka-Triber Version, obwohl es nur 2 geben sollte. (Neueste AMND und neueste NVidia) - evtl. 4, wenn man beta-Versionen mit einschließt. Aber die Anzahl an Leuten, die mit 3+ Jahre alten Treibern durch die Gegend juckeln ist erschreckend.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh