Erste Benchmarks zur Radeon R9 390X aufgetaucht

Naja neue Spiele brauchen durch mehr/höhere Details mehr Leistung, und eine höhere Auflösung an sich braucht auch mehr Leistung, also steigt der Leistungsbedarf eher quadratisch an als linear. Bis man in 4k die neusten AAA Spiele mit nur einer GPU in allen Details +AA/AF ordentlich zocken kann wird noch einige Zeit verstreichen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hoffe die Karte wird was, Nvidia kann definitiv etwas Druck am Markt brauchen.
Und wer weiß, vielleicht kaufe ich mir doch mal wieder eine AMD Karte...
 
Weil die aktuellen Grafikkarten nicht genug Power haben.
Selbst die GTX 98ß schfft elite Dangerous nicht ohne unter 75 FPS zu fallen. Es passiert seltener als bei der 290x aber es kommt vor.
Das Problem: Wenn das Oculus Rift unter 75 FPS fällt und seien es nur 74 FPS, dann hast du grauenhavtes positional tracking ruckeln. Im besten Fall reißt dich das aus der Welt raus (man meint ja man sitzt drin) manchen wird aber auch schlecht!
Das kann man nur verstehen wenn man eines hat oder es ausprobiert. Wir reden hier nicht von "sollten 75 FPS oder zumindes in der Gegend sein". Entweder 75 FPS oder gar nicht trifft es besser. Und das sind immer absolute Minimum FPS. Das Rift bei 74 FPS ruckelt wie ein Monitor bei 10 FPS.

@YB0b Kann man so nicht sagen. Rift rendering braucht deutlich mehr power als 2x 980x1080.
Wenn es so wäre würden die aktuelle GPUs ja reichen.
 
Zuletzt bearbeitet:
Weil die aktuellen Grafikkarten nicht genug Power haben.
Selbst die GTX 98ß schfft elite Dangerous nicht ohne unter 75 FPS zu fallen. Es passiert seltener als bei der 290x aber es kommt vor.
Das Problem: Wenn das Oculus Rift unter 75 FPS fällt und seien es nur 74 FPS, dann hast du grauenhavtes positional tracking ruckeln.

Arbeitet NVIDIA nicht an einer speziellen VR SLI Version? Für jedes Auge eine Karte? Ich glaube das wird dann quasi Pflicht, zumindest am Anfang.

LG, Koopa
 
Ich denke sobald die Monitore verfügbar sind gibts es auch Nachfrage nach leistungsfähigeren Grafikkarten.
Ich persönlich wäre auch mit 2560x1440 bei >60Hz zufrieden. Das ASUS Modell ist mir allerdings ein bisschen zu teuer für TN.

1920x1080 ist mir vor allem beim nicht zocken ab und an ein bisschen wenig.
Habe mir als mein 1920*1200 24"er das zeitliche gesegnet hat einen 23" mit 1920*1080 @120Hz zugelegt und das ist schon irgendwie ein bisschen zu klein.
Ist doch ein Witz das man Mobiltelefone und Tablets mit hoher Auflösung mit kräftigen Farben hinterhergeschmissen bekommt aber einen guten Monitor sucht man wie die (dem Preis nach goldene) Nadel im Heuhaufen.
Vielleicht ist mein Nutzerprofil mit 98% der Zeit vor dem Monitor und max. 2% mobile Geräte nicht mehr Zeitgemäß.
 
I
Vielleicht ist mein Nutzerprofil mit 98% der Zeit vor dem Monitor und max. 2% mobile Geräte nicht mehr Zeitgemäß.

Vermutlich, sieht bei mir aber ähnlich aus, allerdings hab ich auch einfach nicht so hohe Anforderungen, komme ich ja von Commodore, Amiga und Atari :)
 
AMD announces Catalyst Omega drivers with Virtual Super Resolution | VideoCardz.com

VSR jetzt muss die 390X noch 8GB bekommen.
Kann mir nur schlecht vorstellen das AMD da nicht drauf packt bisher waren sie immer Vorreiter bei viel RAM .Ich weiß die Titan hatte 6GB aber bei 1000 Euro ist diese Karte ehr ein Randerscheinung für mich.

Lassen wir uns über raschen noch ein gutes OC Potenzial bei der 390X + 8GB und es könnte wieder eine Versöhnung zwischen mir und AMD geben.

Da ich zuvor ne 780Ti hatte konnte mich die GTX 980 auch nicht über zeugen für mich hieß das Stillstand.
Bis auf die 4GB und neue Feature kamm da nix besonderes.
 
Zuletzt bearbeitet:
Für 4K sinddie 8GB jedenfalls Pflicht.
Ich konnte einige Spiele mit 2xMSAA gar nicht starten, weil alles ruckelte.
 
Ja gerade wenn man auf CF setzen möchte macht viel Speicher bei der neuen Gen Sinn.
 
Ne Stillstand sind 28Nm bestimmt nicht das wäre nicht richtig .
Stell dir vor man hätte die die Die Fläche vom GK110 bei der Maxwell 980 er angesetzt was an Leistung herum gekommen wäre .
Der 210 kommt ja erst noch dann ist Essig mit 28Nm.

15% über der 980 mit der 390X wäre schon Klasse jedoch wünsche ich mir das die 390X Taktfreudiger wird zumindest unter Wakkü.
Die 290er sind ja derzeit echte Taktkrüpel.

Ich errinere mich noch an meine 2Wassergekühlten 7970er eine 1350Mhz und die andere 1375 MHZ Gamestable.

Das waren mal gut 450MHZ mehr auf den Serien Takt knapp 50% OC.
 
Zuletzt bearbeitet:
Arbeitet NVIDIA nicht an einer speziellen VR SLI Version? Für jedes Auge eine Karte? Ich glaube das wird dann quasi Pflicht, zumindest am Anfang.

LG, Koopa

Das war eine große Ankündigung, gezeigt wurde nichts. Tatsache ist, dass es das schon vor Jahren mit crossfire gabe. AFR war zu Beginn von Sli und crossfire nicht der Standard, hat sich aber durchgesetzt weil es simpel ist. Leider aber auf Grund der Latenz unbrauchbar für VR.

Wenn nvidia und/oder AMD eine multi GPU Lösung ohne Latenzprobleme fur VR bringen wird das VR auf jeden Fall pushen. 2x 670er sind sehr leistbar und hätten ordentlich Power.
 
Zuletzt bearbeitet:
Wenn nvidia und/oder AMD eine multi GPU Lösung ohne Latenzprobleme fur VR bringen wird das VR auf jeden Fall pushen. 2x 670er sind sehr leistbar und hätten ordentlich Power.

Im Grunde dürfte das sogar deutlich einfacher sein, als eine anständige Skalierung im normalen SingleScreen Betrieb hinzubringen.
Denn es werden ja zwei quasi voneinander unabhängige Bilder benötigt. Das heist wiederum, je eine GPU kann sich um den Spaß kümmern. Damit verschwindet das AFR Problem (zumindest bis maximal zwei GPUs) vollständig. Die CPU liefert die Rohdaten des Spiels und darauf aufbauend rechnet jede GPU ihr eigenes Bild.

Wenn man es genau nimmt, das komplette Gegenteil von dem, was die Leute im "2D" 3D Spielebetrieb nutzen. Denn da wird immer nur 1 Bild benötigt. Und man musste sich Gedanken machen, wie man zwei oder mehr GPUs an einem Bild schneller rechnen lässt. SFR und Konsorten scheinen ja nicht sonderlich gut zu skalieren. AFR hingegen trennt wiederum die Bilder pro GPU auf mit dem Nachteil, dass es Daten aus der Vergangenheit rechnet. Man liegt mit zwei GPUs quasi immer ein Frame zurück. Je nach Framerate steigt also der Inputlag um ganz paar Milisekunden an...

Ob da allerdings zeitnah was kommt? Könnte mir da wieder vorstellen, das NV ihr eigenes Süppchen kocht... -> mal abwarten.

Für 4K sinddie 8GB jedenfalls Pflicht.
Ich konnte einige Spiele mit 2xMSAA gar nicht starten, weil alles ruckelte.

Seh ich primär anders. Ich bin sicher keiner, der mehr VRAM nicht mitnimmt... Aber der Bedarf scheint da nicht ganz so riesig... 8GB ist für die Zukunft OK, 4GB wäre aber durchaus im ersten Step ausreichend, wenn man die Möglichkeit bietet, 8GB Modelle nachzuschieben.
Primär krankt das UHD/4k Gaming aktuell an der Leistung... 50-70% Leistungseinbußen von FHD auf UHD ist nicht ohne. Und 180 FPS in FHD schaffen wohl auch nur die wenigsten GPUs heute um am Ende dann auf um die 60 FPS in UHD zu kommen. Riesiger ungenutzter VRAM bringt dich da nicht weiter, wenn die GPU(s) nicht fix genug sind. Gerade bei AAA Titeln ist doch teils schon bei weit unter 100 FPS schluss -> im GPU Limit wohlgemerkt. 1/3 davon für UHD und man krebst wieder bei um die 30 FPS rum, was für schnelle Spiele alles andere als "schön" ist.
 
Ich verstehe nicht wirklich warum soviele Leute zwanghaft auf die 8GB bestehen.
Klar in UltraHD wäre das sinnvoll, aber da macht selbst ein CF/SLI-Gespann leistungstechnisch vorher dicht. 4k ist einfach noch zu hungrig für die aktuellen GPU
 
Genau so sehe ich das auch... Wenn man 8GB als Option anbietet, OK, aber per default? Das wäre wohl etwas zu viel des guten...

Und ich glaube auch nicht, das HBM primär günstig(er als GDDR5) wird. :wink:
 
Das ist das Problem. 8 GB sind notwendig für UHD aber nicht das Hauptproblem. Die aktuellen Topend GPUs sind nicht leistungsstark genug.
 
Ich hoffe ihr arbeitet alle in der GPU Entwicklung. 640px-Triple-facepalm.jpg
 
Das ist das Problem. 8 GB sind notwendig für UHD aber nicht das Hauptproblem. Die aktuellen Topend GPUs sind nicht leistungsstark genug.

Ich spiele atm ältere Titel sehr gut in UHD. Nur darf man eben mit der GPU Power nicht geizen. Jüngst ein Max Payne 3 getestet, VRAM liegt irgendwo bei 1,8GB im Schnitt. FPS um die 60-80 je nach Szene. Für ein 1200MHz GK110 SLI im Vollausbau aber nicht unbedingt schnell (bei Strich 99% GPU Load)
Es krankt nicht am VRAM. Selbst Titel von vor 2-3 Jahren belegen nichtmal ansatzweise 3-4GB derart voll (Ausnahmen bestätigen die Regel), brechen aber in den FPS idR immer stark zusammen. Auch steigt der VRAM Verbrauch nicht wirklich extrem bei UHD anstatt FHD. Auch wenn hier ebenso Ausnahmen die Regel bestätigen.
Selbst ein Lords of the Fallen, was wohl eins der fordernsten Titeln in Sachen VRAM aktuell ist, läuft quasi fast Nachladerucklerfrei mit 3GB und max Details. Dreht man von FHD auf UHD, brechen die FPS aber auf um die 30 zusammen, was viel zu wenig für diesen Titel ist. Dafür ists in FHD CPU limitiert bei ner GPU Load von 60-80% und um die 80 FPS.

BF3 hingegen geizt in UHD nicht mit dem VRAM Verbrauch -> das ist mit 3GB nicht spielbar, da alle Nase lang Nachladeruckler. Risen 3 -> kein VRAM Problem, aber kein SLI Support und SingleGPU zu lahm. (Streckenweise unter 25 FPS)
Andere Titel gehen bei UHD auch stark auf die CPU. (weil mehr Objekte durch 4x breiteres Sichtfeld) -> Klassisches Beispiel ist Gothic 3 mit Extreme ini. GPU Load von ~20% bei UHD und 8xSGSSAA, VRAM ca. bei knappen 3GB und ca. 20-30 FPS. -> quasi unspielbar.

Also nach dem, was ich bis jetzt hier gesehen habe, ist der VRAM definitiv nicht das Problem. Selbst nicht, wenn man nur 4GB verbauen würde beim nächsten HighEnd Flagschiff von AMD... Was in Zukunft kommt, weis allerdings auch niemand.
 
@fdsonne
Die Spiele die du gerade nantest sind auch nur ein Bruchteil dessen von dem was sich am Markt befindet.

Schaut man sich in der breiten Palette Spiele mit 2*290 X und 2*980 ohne OC an Kratz man schon an der 60 FPS Marke oder liegt sogar darüber in ein paar fällen sicherlich auch aber deutlich darunter in 4K.
Die Settings spielen sicherlich auch eine Rolle.

Verallgemeinern das 8GB ein muss sind kann man nicht da Stimme ich zu .
Aber das 4GB reichen würde ich auch nicht unterstützen da zu sind die Bedürfnisse eines einzelnen und Spiele die man Spielt zu unterschiedlich der eine kommt mit gefixten 50 FPS klar der andere erst mit 60 und manch einer der kommt mit keinem der Szenarien klar.

In der Breite ist klar das die meisten neuen Titel stark an den FPS kranken in 4K mit einer Single GPU .
Wo bei es ja auch noch die jenigen gibt die mit 30FPS leben können .

Im CF oder SlI kommt man in 4K schon recht gut zurecht jedoch kränkelt es hier und da auch deutlich mit 4GB.

Da die neuen GPUs von AMD und NV noch mal ne Schippe draufpacken in Sachen GPU Leistung wird es noch interessanter mehr als 4GB zu haben im MGPU Betrieb.
Hin zu kommt noch mal die Möglichkeit da zu OC zu betreiben wo mit man je nach dem wie gut die GPus werden noch mal 20%+ an Leistung drauflegen kann wo mit die 60FPS Marke sehr greifbar ist je nach setting .

Es vergessen auch sehr viele wenn man Benchmarks in diesen Auflösungen betrachtet die Teilweise eine Dauer von 20 Sekunden haben die RAM drops nahe zu nicht erfasst werden.
Was aber im Spielverlauf nach ein Paar Minuten Gameplay zu Realität wird.


Mit DSR und (VSR unter vorbehalt da noch nicht verfügbar)stehen nun auch FHD Usern die Möglichkeiten offen Downsampling zu betreiben welches vorher zwar schon möglich war aber nicht frei als Feature verfügbar war und unter kleinen bis grossen Umwegen umgesetzt werden konnte.

Die Konsolen Ports schrauben den RAM Verbrauch schon unter FHD nach oben.

Ob das optisch in einem Mehrwert resultiert sei einmal dahin gestellt.

Das Thema RAM Nutzung kann man nicht pauschal auf alle Anwender herunter brechen.

Für mich als MGPU Fan und auf meine Bedürfnisse herunter reduziert ist mir klar die 4GB sind mir zu wenig.
 
Zuletzt bearbeitet:
@fdsonne
Die Spiele die du gerade nantest sind auch nur ein Bruchteil dessen von dem was sich am Markt befindet.

Das ist natürlich klar ;) Ich bin nicht der Mensch, der den neuesten Titeln hinterher rennt, als gäbe es kein Morgen mehr...
Meinst hole ich mir die Titel (bis auf ein paar Ausnahmen) erst nach Monaten oder Jahren nach dem Release.
Um so erstaunter macht es mich eben, das man mit nem 1200MHz 780TI SLI trotz eben häufig nicht vollem VRAM! in UHD keine anständigen FPS Raten erzeugt oder erzeugen kann.
Klar gibts da auch viele Titel, die weit weniger Ressourcen benötigen. Aber das sind dann auch Titeln, die häufiger eher unbekannt zu sein scheinen. Nahezu alle AAA Titel der heutigen Zeit setzen doch auch auf Optik! und da ist häufig die Leistung nicht gerade die Wucht ;)

Verallgemeinern das 8GB ein muss sind kann man nicht da Stimme ich zu .
Aber das 4GB reichen würde ich auch nicht unterstützen da zu sind die Bedürfnisse eines einzelnen und Spiele die man Spielt zu unterschiedlich der eine kommt mit gefixten 50 FPS klar der andere erst mit 60 und manch einer der kommt mit keinem der Szenarien klar.

In der Breite ist klar das die meisten neuen Titel stark an den FPS kranken in 4K mit einer Single GPU .
Wo bei es ja auch noch die jenigen gibt die mit 30FPS leben können .

Im CF oder SlI kommt man in 4K schon recht gut zurecht jedoch kränkelt es hier und da auch deutlich mit 4GB.

Neja, das Problem ist eben, wenn ich 5GB VRAM verbrauche, dann langen 4GB ggf. nicht. Aber 8GB wären wieder viel zu viel. Das Problem ist dabei eben, das mittlerweile auch kleinere Mengen an VRAM, der nicht zur Verfügung steht, für unschöne Spielmomente sorgen können. Nur kann ich das Schreien nach 8GB und mehr absolut nicht nachvollziehen.
Denn zum einen hat die reine Auflösung weniger stark Einfluss auf die VRAM Belegung (bis auf ein paar Ausnahme Titel wie BF3) zum anderen belegen die Leute häufiger nichtmal ansatzweise ihren VRAM derart, das es sich lohnen würde. Auch ist es ja nicht so, das voller VRAM gleichbedeutend mit weniger Leistung ist. Lords of the Fallen zeigt das ziemlich eindrucksvoll. HisN hat nen Screenshot des Menüscreens gepostet mit weit über 3GB VRAM Verbrauch! Ich habe dort ~2,8GB Verbrauch. Kurrioserweise wenn ich das Spiel minimiere und wieder maximiere habe ich in der selben Szene nur noch 900MB Verbrauch! Bei gliechen FPS! Das zeigt ziemlich eindrucksvoll, das man je nach Spiel dort Daten vorhällt, die ggf. irgendwann mal benötigt werden. Aber nicht zwingend für die gerade gezeigte(n) Szene(n) sind.
Das heist also, nur weil der VRAM voll ist, wird der lange nicht benötigt. Und wir wissen auch, das mehr VRAM auch häufiger mehr/stärker belegt wird, und das bei weniger verbautem VRAM (bis zu einer gewissen Grenze) keine greifbaren Nachteile entstehen.

Auf der anderen Seite stimme ich dir natürlich zu. VRAM kann man im Grunde nie genug haben. Aber man sollte eben die Kirche im Dorf lassen. Warum für den wohl schweine teuren HBM Ansatz viel Kohle zum Fenster raus werfen, ohne einen greifbaren Vorteil zu haben? Ob es zeitnah technisch überhaupt machbar ist, da 8GB oder mehr zu verbauen muss sich ja ebenso zeigen.
In wie vielen Titeln hat man denn heute im Vergleich zum Rest am Mart Probleme mit 3/4GB VRAM? Mir fallen da spontan ein, zwei oder drei Hände voll Titel ein. Nix im Vergleich gegen die zig tausend Titel, wo es reicht, selbst in exorbitanten Settings.
Im Vergleich dazu, die Masse der Titel, die bestenfalls mit stark übertaktete HighEnd GPUs im Doppelpack (stand Ende 2014) ansatzweise brauchbare FPS Raten erzielen liegt bedeutend höher... Klammert man dazu das MGPU Gespann aus und sucht nach (bekannten) Titeln, die mit ner SGPU in UHD anständig performen, wird die Zahl noch bei weitem größer!
 
Thunderburne schrieb:
Verallgemeinern das 8GB ein muss sind kann man nicht da Stimme ich zu .


Für 4K sind die imho schon Pflicht, denn ob ihr glaubt oder nicht, man kann Wolftenstein, Far Cry 4, Crysis 3 und Schinken die etwas mehr FPS bringen durchaus gut auf 4K zocken.
Die Benchmarks in den Gazetten sind doch nur Momentaufnahmen, mit den richtigen Settings geht da einiges.

Ich guck immer dass es zwischen 30 und 40 FPS sind und dann kommt auch dieser kineastische Effekt auf. ^^
 
Für 4K sind die imho schon Pflicht, denn ob ihr glaubt oder nicht, man kann Wolftenstein, Far Cry 4, Crysis 3 und Schinken die etwas mehr FPS bringen durchaus gut auf 4K zocken.
Die Benchmarks in den Gazetten sind doch nur Momentaufnahmen, mit den richtigen Settings geht da einiges.

??
Und du machst das nun eben an diesen drei Titeln fest?

Zum Markierten, auch das kann ich nicht nachvollziehen. Ja mit absolut niedrigsten Einstellungen kann man sogar noch auf ner HD2900XT heute spielen. Oh wunder...
Fakt ist, zwischen FHD und UHD liegen im Schnitt irgendwo zwischen 50 und 75% FPS-Leistungsverlust. Den Rest kann sich jeder selbst ausrechnen.
Schafft man 180 FPS in FHD mit seiner Hardware, dann sind in UHD um die 60 FPS drin. Schafft man nur 90 FPS in FHD bleiben in UHD um die 30 über usw.
 
ja wir beraten aktiv nvidia und amd in sachen gpu leistung :fresse:
wir hätten gerne für weihnachten eine 16nm AMD gpu die alleine 70fps in 4k in hoher qualität schafft

Ne also du bist verrückt!


Ich will stabil >120Hz und dazu nen Asus UHD DisplayPort 1.3 120Hz Monitor
beides jeweils für 200 Euro :d
 
Die Frage ist ja auch, mit welchen Settings man FHD und UHD vergleicht. Das Kriterium ist doch, sieht das Bild gleich aus. Und hier kann man, durch die mehr Pixel, theoretisch auch die Bildverbesserer runter schrauben/deaktivieren dadurch sinkt der VRAM verbrauch ja auch.

Die FPS alleine bringen hier zum vergleich nichts.... klar will man immer das schönste bild haben, aber das kostet nun mal FPS und fordert die Hardware mehr. Aber 2 unterschiedliche Bilder zu vergleichen und zu sagen, Bild A verbraucht viel mehr als B ist eben falsch.
 
@why_me
wenn es danach gehen würde, dürfte man gar nix vergleichen ;)

Zumal es ja stark von der Monitorgröße abhängt, wie sich UHD im Endeffekt von FHD zum Beispiel rein optisch abhebt.

Vergleiche nen UHD 40+" Monitor gegen nen winzigen 22-23" FHD Schirm. Rein von den DPI lassen sich da Kombinationen finden, die sich nahezu 1:1 gleichen. Sprich UHD gewinnt da nicht durch höhere Pixeldichte an BQ. Entsprechend kannst du auch keine BQ steigernden Maßnahmen runter schrauben oder gar weglassen.
Ich für meinen Teil würde mir ohne brauchbare Skalierungsoptionen im OS keinen unter 36-40" UHD Schirm besorgen... Und leider gibts diese Skalierungsoptionen stand heute nicht wirklich in der Windowswelt ;) Und bei 1:1 steigender Fläche im Vergleich zur Auflösung bringt dir letzteres keine BQ Verbesserung. Es sei denn man nimmt das Feeling bei mehr Bildfläche ebenso als Faktor für BQ. Zählt aber für mich nicht dort rein. Aber trotzdem ist das Spielgefühl deutlich mehr "mittendrin" als bei so nem Mäusekino.
 
Und dennoch ist es falsch einfach zu behaupten, UHD braucht x% mehr Leistung. Bei gleichen DPI und Qualitätseinstellungen ist das klar, da das Bild eben 4 mal so groß ist. Das ist wie das Bild eines Grundschülers mit der Mona lisa zu vergleichen und dann zu behaupten, die Mona Lisa wäre schlecht, weil Da Vinci Monate wenn nicht Jahre dafür gebraucht hat und der Grundschüler nur ne Stunde.

Und bei gleicher größe braucht man eben weniger AA um auf die gleiche Qualität zu kommen. Auch wenn dann der Windows desktop beschissen aussieht, das spielt hier erstmal keine Rolle.

Mal als Beispiel, ein FHD und ein UHD Monitor, beide gleich groß, beide im gleichen Abstand vom Betrachter aufgestellt:
Wenn ich jetzt bei dem FHD Montiro für die gleiche Qualität 16xAA und 16xAF einstellen muss und beim UHD nichts davon nötig ist, dann braucht der UHD Monitor ersteinmal nicht 100-300% mehr Leistung (bezogen auf deine 50-75% FPS verlust) sondern vielleicht 10%, vielleicht auch garnichts. Evtl ist der sogar Schneller unterwegs.... wäre mal ein interessanter test (klar alles subjektiv, aber dennoch interessant). Beim VRAM Verbrauch könnte es sich dann ähnlich verhalten... Deswegen sind solche pauschalen Aussagen erstmal Falsch.

Und wenn du unbedingt einen 40" UHD mit einem FHD Monitor vergleichen willst, dann doch auch mit einem 40 Zöller mit entsprechenden Qualitäts-Einstellungen.
 
Bin auch mal gespannt was da auf uns zu kommt!
Sollten die Benches stimmen dann könnte eine 390X glatt meine 780ti ablösen. Natürlich verkauf ich diese nicht, kommt dann eben als PhysX Beschleuniger mit rein und gut ist.

Geht das noch??

Ich dachte das Nvidia vor 2-3 Monaten endgültig unmöglich gemacht?



Übrigens könnte die Karte sehr wohl von Global Foundries kommen, und zwar aus Dresden, wo das aktuellste 28nm Global Foundries Werk steht!

Der neue Global Foundries Prozess für 28nm soll nochmal deutlich Effizienter als der von TSMC sein (ist auch jünger und fortgeschrittener), Beema und Mullins werden dort gefertigt und diese sind ja fast Effizienzwunder, welche leider nicht so wirklich in den Tabletmarkt kommen :(


14nm wird Global Foundries bestimmt eher machen können als TSMC, denn dort haben sie ja eine Kooperation mit Samsung was den Prozess angeht!

Hier fehlt mir eine fundierte Aussage in Bezug auf PhysX. Geht es noch oder nicht? Falls Nein segelt meine Titan in den MP wenn die 390X rauskommen.
 
Mal als Beispiel, ein FHD und ein UHD Monitor, beide gleich groß, beide im gleichen Abstand vom Betrachter aufgestellt:
Wenn ich jetzt bei dem FHD Montiro für die gleiche Qualität 16xAA und 16xAF einstellen muss und beim UHD nichts davon nötig ist, dann braucht der UHD Monitor ersteinmal nicht 100-300% mehr Leistung (bezogen auf deine 50-75% FPS verlust) sondern vielleicht 10%, vielleicht auch garnichts. Evtl ist der sogar Schneller unterwegs.... wäre mal ein interessanter test (klar alles subjektiv, aber dennoch interessant). Beim VRAM Verbrauch könnte es sich dann ähnlich verhalten... Deswegen sind solche pauschalen Aussagen erstmal Falsch.

Aber wenn es das Ziel sein sollte, das FHD und UHD gleich aussehen dann kann ich doch gleich bei FHD bleiben. Es geht ja darum durch UHD einen optischen Vorteil zu haben. Wenn ich nun meinen teuren UHD Fernseher auf (subjektiv) FHD heruntertrimme, hab ich doch eigendlich nur Geld verschwendet. :d
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh