Preis und erste Leistungsdaten zur GeForce RTX 2060

Das ist mit einer der dümmsten Sachen, die ich je hier im Forum gelesen habe. :stupid:

Begründen kannst du es ?

Ich habe für die GTX 1080 ti eine Vega 56 (Oc Perle, läuft auf 1592mhz bei 0.89v ) mit einen 240 hz Freesync Monitor bekommen.
Hatte noch nie eine Karte wie die Vega, die so viel Potential hat, hätte AMD sie ein bisschen besser angepasst mit der Spannung,wäre sie in Test echt ordentlich gewesen.
Halber Stromverbrauch bei mehr Leistung, ist schon ein starkes Stück, mein Durchschnitts verbrauch ging von 420w auf 280w Gesamtsystem runter, im Test erreicht sie gute werte

AMD Radeon RX Vega 56 video card benchmark result - AMD Ryzen 7 1700X,Micro-Star International Co., Ltd. X370 GAMING M7 ACK (MS-7A35)

AMD Radeon RX Vega 56 video card benchmark result - AMD Ryzen 7 1700X,Micro-Star International Co., Ltd. X370 GAMING M7 ACK (MS-7A35)

Bis jetzt war ich nicht einmal enttäuscht über den Wechsel oder habe irgendwo einschnitte bemerkt, ich spiele auch nur in Full HD mal angemerkt.

Hier wird ganz gut gezeigt wie Effizient Vega sein kann, meine ist noch ein Stück effizienter 0.89v, unter last liegen aber 0.9v an :love:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn die Leistung so liegt, wäre der Preis ok.Das ist zwar tatsächlich nicht toll, ist aber oft kein echtes Problem, zumal die RTX2060 wohl eher auf fHD ab zielt, was wiederum nicht so n Problem mit 6gb hat, wie 1440p und mehr.
Feiern muss man das aber nicht, stimmt schon.

Bei Rise of the Tomb Raider und anderen bekomme ich 8 GB sehr einfach voll auf 1080p.
Wieso sollte ich mir also ne neue Grafikkarte kaufen die WENIGER VRAM hat?
Diese Generation ist und bleibt wohl auch ein Witz. Ich hätte gern ne neue gekauft, aber so ganz sicher nicht. Für wie dumm halten die die Leute eigentlich?
 
Bei Rise of the Tomb Raider und anderen bekomme ich 8 GB sehr einfach voll auf 1080p.
Wieso sollte ich mir also ne neue Grafikkarte kaufen die WENIGER VRAM hat?
Diese Generation ist und bleibt wohl auch ein Witz. Ich hätte gern ne neue gekauft, aber so ganz sicher nicht. Für wie dumm halten die die Leute eigentlich?

Danke für deinen guten Beitrag, Es gibt auch Benches wo 4GB Karten deutlich an Performance verlieren aber solche Benchmarks werden wir eh noch in Zukunft sehen. Und 3Gb soll ja noch folgen.
 
Dabei verbraucht RayTracing mehr VRAM, kann man im test von Computerbase schön sehen :)
Zitat von Computerbase test

Gestiegende Anforderungen an den Speicher
Mit Raytracing wird mehr Grafikkartenspeicher benötigt. Reicht ohne die neue Grafiktechnologie ein acht Gigabyte großer VRAM auch in 3.840 × 2.160 aus, ist das mit Raytracing nicht mehr der Fall. Dann sind die 11 GB der GeForce RTX 2080 Ti sinnvoll und ratsam. Schlussendlich spielt das aber keine Rolle, da für die Auflösung die Rechenleistung ohnehin nicht ausreicht. Für 1.920 × 1.080 sowie 2.560 × 1.440 wiederum sind 8 GB ausreichend.
 
Dabei verbraucht RayTracing mehr VRAM, kann man im test von Computerbase schön sehen :)
Zitat von Computerbase test

Gestiegende Anforderungen an den Speicher
Mit Raytracing wird mehr Grafikkartenspeicher benötigt. Reicht ohne die neue Grafiktechnologie ein acht Gigabyte großer VRAM auch in 3.840 × 2.160 aus, ist das mit Raytracing nicht mehr der Fall. Dann sind die 11 GB der GeForce RTX 2080 Ti sinnvoll und ratsam. Schlussendlich spielt das aber keine Rolle, da für die Auflösung die Rechenleistung ohnehin nicht ausreicht. Für 1.920 × 1.080 sowie 2.560 × 1.440 wiederum sind 8 GB ausreichend.

passt doch der trend geht eh nach 720p bei den neuen 15 Zoll monitoren ^^

mfg
 
Die 720p Spieler muss man halt auch bedienen!

Man kann es auch mal so sehen,1070 Leistung für den gleichen Preis und RTX geschenkt dazu.

Nur was die 3 oder 4 GB Versionen sollen, ist mir nicht klar :confused:
 
Bei Rise of the Tomb Raider und anderen bekomme ich 8 GB sehr einfach voll auf 1080p.
Wieso sollte ich mir also ne neue Grafikkarte kaufen die WENIGER VRAM hat?
Diese Generation ist und bleibt wohl auch ein Witz. Ich hätte gern ne neue gekauft, aber so ganz sicher nicht. Für wie dumm halten die die Leute eigentlich?

Nope :shot:

Das spielt "krallt" / "reserviert" vielleicht die vorhandenen 8GB @FullHD.
Diese werden aber nicht wirklich benötigt. Bei FullHD sind real um die 3-3,5GB :p
 
Die 720p Spieler muss man halt auch bedienen!

Man kann es auch mal so sehen,1070 Leistung für den gleichen Preis und RTX geschenkt dazu.

Nur was die 3 oder 4 GB Versionen sollen, ist mir nicht klar :confused:

1070 hat aber 2gb ram mehr und die 3/4 gb karten werden sie an die asiatischen i-net cafes verhökern , allerdings sollte man aufpassen gigabyte hat auch 2060 karten registrieren lassen mit gddr5(x)
meine vermutung ist das dann die billig varianten sein werden
GIGABYTE submits GeForce RTX 2060 6GB, 4GB and 3GB variants to EEC | VideoCardz.com

mfg
 
Bei Rise of the Tomb Raider und anderen bekomme ich 8 GB sehr einfach voll auf 1080p.

Genau richtig ausgedrückt: Du bekommst es voll. Aber voll machen kann ich Dir 8gb VRam auch mit einem 200mb großen Hello World Programm.
Das bedeutet nicht, dass diese 8gb auch benutzt werden. Sie sind nur einfach belegt, weil sie halt da sind. Großer Unterschied der hoffentlich mal mit einem darauf ausgelegten YouTube Video untersucht wird. Die 3 / 4 / 6gb 2060 bietet sich dafür ja fantastisch an.
Wird spannend wie viele Games einfach nur den Speicher belegen aufgrund mangelhafter Optimierung und wie viele dann echt so viel auch benutzen.
 
Zuletzt bearbeitet:
Gibt es schon lange:
GTX 1060 3GB vs. GTX 1060 6GB (Test in 9 Games) - YouTube
GTX 1060 3Gb vs 6Gb Test in 9 Games (i5 6600k) - YouTube

An der CPU Auslastung sieht man es auch sehr schön.
6 GB sind bei so einer Karte nicht Zeitgemäß. 8 GB allermindestens, eher mehr. Auch ne 2080 sollte mind. 10 GB haben, eher 11 oder 12.

Die Ausrede von mangelhafter Optimierung lasse ich nicht gelten. Wieso sollte ich? Es gibt sehr viele Spiele die "mangelhaft optimiert" sind. Die muss man nunmal bedenken, so wie das auch vorher passiert ist. Wieso hat man bei ähnlichen Geschwindigkeiten (auch bei viel mehr) auf einmal weniger VRAM als noch bei der letzten Generation? 1070/Ti vs 2060, 1080 Ti vs 2080. Ne ne ne.
 
Zuletzt bearbeitet:
Man muss abwarten, es ist auch nicht ausgeschlossen, dass Nvidia noch eine Version der RTX2060 mit 8GB nach schiebt, wenn der Druck zu groß wird.
 
Die Hoffnung hab ich bei der 2080 auch. Aber wenn sie jetzt ne neue 2060 herausbringen, bei der sie den gleichen Fehler machen, dann glaube ich da weniger dran.
 
Begründen kannst du es ?

Warum sollte man nur wegen einem unnötigen Feature - gerade bei einem Monitor mit so einer hohen Anzahl an Hz, wo Tearing so gut wie nicht mehr erkennbar sein sollte - auf ein drittel Leistung verzichten? Was bringt es dir?
Wärst du von einer 1080 auf eine Vega64 umgestiegen nur wegen Freesync, dann wäre das ja noch irgendwo verständlich, weil kaum Unterschiede bei der Leistung, aber dafür den geringen Vorteil durch Freesync, welcher mir persönlich nicht einmal das Umbau der Karten wert wäre. Aber du nimmst hier deutliche Nachteile in Kauf. Verzicht auf 3GB Vram und gut ein Drittel weniger Leistung. Diese Nachteile überwiegen auch locker den Vorteil, welchen du aus Freesync ziehst. Mit so einem 240hz Monitor bist du doch an High-FPS-Gaming interessiert. Durch dieses Downgrade verlierst du deutlich an Leistung. Dieser massive Verlust an FPS wirkt sich extrem negativ auf der Spielerlebnis aus und Freesync kann dies nicht im geringsten kompensieren..


Halber Stromverbrauch bei mehr Leistung, ist schon ein starkes Stück, mein Durchschnitts verbrauch ging von 420w auf 280w Gesamtsystem runter, im Test erreicht sie gute werte

Klaaaar und du hast vergessen anzugeben, dass sich der Vram auch noch verdoppelt hat. :rolleyes:


Bis jetzt war ich nicht einmal enttäuscht über den Wechsel oder habe irgendwo einschnitte bemerkt, ich spiele auch nur in Full HD mal angemerkt.

Du möchtest uns hier also echt weismachen, dass du bei dem Downgrade von einer 1080ti auf eine Vega56 keinerlei Einschnitte bei der Leistung bemerkt haben willst, obwohl da mal eben gut ein drittel an Leistungsverlust auf dem Zettel stehen?
Es ist ja bekannt, dass so ein Ryzen die 1080ti teilweise nicht ganz auslasten kann und an der ein oder anderen Stelle limitiert. Ich bezweifle aber ein bisschen, dass der Ryzen so schwach ist, dass der eine 1080ti bei Full HD so dermaßen einbremst, dass ein Unterschied zur Vega56 nicht mehr erkennbar ist..


Hier wird ganz gut gezeigt wie Effizient Vega sein kann, meine ist noch ein Stück effizienter 0.89v, unter last liegen aber 0.9v an :love:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx

Tja, nur das irgendwie keine andere Redaktion die erreichten Werte aus diesem Test reproduzieren konnte. Angaben darüber, wie stabil die Karten mit den Settings auch abseits der Tests gelaufen sind, sucht man vergebens sowie Angaben dazu, ob die Settings auch in Langzeittests stabil waren. Zwischen eine Karte hart auf Grenze zu undervolten, sodass diese paar kurze Tests für paar Minuten standhält, und eine Karte so zu undervolten, dass sie auch wirklich in jeder Lebenslage stabil ist, können teils schon ziemlich große Unterschiede bei der Leistungsaufnahme ausmachen. Igor schrieb z.B. folgendes: "Doch was erreicht man mit derart massiven 400 Watt Leistungseinsatz? Wenn wir die unrealistischen, ohne echte 3D-Last in AutoCAD 3D erreichten Spitzen von knapp 1800 MHz einmal weglassen und uns stattdessen auf echte Durchschnittswerte bei echten Spielen konzentrieren, die zudem noch über 30 Minuten stabil und sauber gehalten werden können, dann fällt das Ergebnis (immer in Abhängigkeit zur benötigten Leistung) weitaus magerer aus. Also entweder haben wir einen absoluten Potato-Chip erwischt, oder andere Tester hatten Golden Samples bzw. haben veraltete, fehlerbehaftete Treiber genutzt (siehe Einführung). Dazu kommt der Umstand, dass Wattman aktuell für filigraner ausgetestete Übertaktungen trotz Update noch nahezu unbrauchbar ist. Die manuelle Takt- und Spannungsvorgabe der beiden höchsten DPM-States ist mangehhaft und führt sehr schnell zu einem unerwarteten Verhalten (bis hin zu Abstürzen). Einzig die prozentuale Taktanhebung ließ sich ansatzweise nutzen. Unigine Heaven in niedrigsten Settings schaffte es bei Full-HD immerhin noch auf knapp 1,7 GHz, während Doom in Ultra-HD nur bis 1673 MHz stabil lief. Unser Stabilitätstest Witcher 3 hingegen schafft es bei Ultra-HD nur noch auf 1,6 GHz. All dies ist ein weiterer Indikator dafür, dass hier die zugeführte Leistung der limitierende Faktor ist."

Da fragt man sich doch, haben die da wirklich nur einen Potato-Chip erwischt oder liegt es daran, dass die mehr auf Stabilität geachtet haben?

Bitte sieh davon ab diesen komischen Vega-Huldigungsthread zu verlinken. Das letzte Mal als ich da reingeschaut habe, da haben sich User gegenseitig angezickt und der Lüge bezichtigt.



Dir ist aber schon bewusst, dass die 3GB Version der 1060 auch weniger Shader hat als die 6GB Version und der Leistungsunterschied wohl eher daraus resultiert?

Nvidia GeForce GTX 1060 3GB vs 6GB review Eurogamer.net

Erst bei 1440p fängt die 3GB Version an zu straucheln..

Man muss abwarten, es ist auch nicht ausgeschlossen, dass Nvidia noch eine Version der RTX2060 mit 8GB nach schiebt, wenn der Druck zu groß wird.

Ach nur weil da jetzt wieder ein paar Deppen versuchen einen Skandal zu sehen, werden die wohl nicht diesen Aufwand betreiben. Vor allem weil es ja nicht nur mal eben 2GB dranlöten ist..
Laut den den ganzen Kritikern war die 1060 mit 6Gb ja schon eine Totgeburt und schon lange nicht mehr nutzbar. :hust:
 
Zuletzt bearbeitet:
Dir ist aber schon bewusst, dass die 3GB Version der 1060 auch weniger Shader hat als die 6GB Version und der Leistungsunterschied wohl eher daraus resultiert?

Dank guck dir mal diese Video genau an. Ich hab jedenfalls alles gesagt was ich zu sagen habe. Und wiederholen lässt mich und dich nicht gut aussehen. Entweder akzeptiere es oder leugne es. Mir egal.
 
Ach nur weil da jetzt wieder ein paar Deppen versuchen einen Skandal zu sehen, werden die wohl nicht diesen Aufwand betreiben. Vor allem weil es ja nicht nur mal eben 2GB dranlöten ist..
Laut den den ganzen Kritikern war die 1060 mit 6Gb ja schon eine Totgeburt und schon lange nicht mehr nutzbar. :hust:

Nun es handelt sich hier immerhin um eine Mainstream GPU, warum soll es sich dort nicht lohnen auch 8GB zu bieten, wenn es nötig ist oder die User es wünschen?


Bitte sieh davon ab diesen komischen Vega-Huldigungsthread zu verlinken. Das letzte Mal als ich da reingeschaut habe, da haben sich User gegenseitig angezickt und der Lüge bezichtigt.

Meinst du etwa den Luxx-Vega-Sammler :confused:

Dort zickt sich keiner an, der ist höchst produktiv und ein ElDorado für jeden Vega User.

Warum tust du nur immer so, also könne man mit AMD Vega nichts anfangen, muss das denn immer sein?

offtopic ende -
 
Zuletzt bearbeitet:
Dank guck dir mal diese Video genau an.

Habe ich getan. Forza7 springt extrem aus der Reihe und zeigt deutliche Unterschiede auf. Bei den anderen Spielen - egal ob Vram voll oder nicht - sind die Abstände relativ gleich. Daher schließe ich, dass die fehlenden Shader die Leistung mehr beeinflussen als der fehlende Vram.

Ich wollte dich nur darauf hinweisen, wenn du das nicht sehen willst. Egal, ist mir relativ latte. :wink:


Nun es handelt sich hier immerhin um eine Mainstream GPU, warum soll es sich dort nicht lohnen auch 8GB zu bieten, wenn es nötig ist oder die User es wünschen?

Klar wären 8GB schöner, aber für eine Full-HD-Karte sind die 6GB jetzt nicht so der Beinbruch. Ich denke mit 8GB hätte sie eine 2070 zu stark kannibalisiert...


Meinst du etwa den Luxx-Vega-Sammler :confused:

Dort zickt sich keiner an, der ist höchst produktiv und ein ElDorado für jeden Vega User.

Ach, ich fand das Drama zwischen Berni und Suatan (oder wie auch immer) ganz amüsant zu lesen. Fast hätte sogar der arme Berni den Sammler verlassen! :d


Warum tust du nur immer so, also könne man mit AMD Vega nichts anfangen, muss das denn immer sein?

Das unterstellst du mir jetzt aber. Ich habe doch extra erwähnt, dass man einen Wechsel von 1080 auf Vega64 wegen Freesync sogar noch irgendwie nachvollziehen kann...
 
Habe ich getan. Forza7 springt extrem aus der Reihe und zeigt deutliche Unterschiede auf. Bei den anderen Spielen - egal ob Vram voll oder nicht - sind die Abstände relativ gleich. Daher schließe ich, dass die fehlenden Shader die Leistung mehr beeinflussen als der fehlende Vram.

Eben nicht nur bei Forza.
Vielleicht hättest du dir ein paar Reviews dieser Karten anschauen sollen:
Nvidia GeForce GTX 1060 3GB and 6GB review: 8 models tested - Benchmarks (DX12): Rise of the Tomb Raider
Da wird sehr deutlich dass die Karte eh im CPU Limit hängt und eben genau der fehlende VRAM die 3 GB Version so viel langsamer macht.

Ja, glaub was du willst, wird mir zu dumm hier.
 
Zuletzt bearbeitet:
Eben nicht nur bei Forza.

In den von dir verlinkten Video eben doch nur bei Forza...


Vielleicht hättest du dir ein paar Reviews dieser Karten anschauen sollen:
Nvidia GeForce GTX 1060 3GB and 6GB review: 8 models tested - Benchmarks (DX12): Rise of the Tomb Raider
Da wird sehr deutlich dass die Karte eh im CPU Limit hängt und eben genau der fehlende VRAM die 3 GB Version so viel langsamer macht.

Ich zitiere aus dem von dir verlinkten Test:
For the first time we see that the MSI GTX 1060 3GB clearly lacks at Ultra HD, but to be honest all graphics cards offer unplayable framerates in that scenario anyway.

Ich schrieb zuvor:
Erst bei 1440p fängt die 3GB Version an zu straucheln..

:confused:

Kläre uns auf, wo liege ich falsch.


Ja, glaub was du willst, wird mir zu dumm hier.

Mimimi, ich weiß nicht weiter und werde deswegen zickig. So ein Kindergarten mal wieder hier..

Wenn es dir doch so egal ist, warum versuchst du mich dann zu überzeugen?
 
Ich dachte schon an einen Vergleich zwischen Karten die sich nur im VRam Unterscheiden, nicht in Kernteilen wie den Shadern.
Die 6gb Variante in den Videos läuft auch immer 1-2 Grad wärmer. Ob das nun wegen den extra Shadern ist, oder sie sogar anders clocked wurde ist nicht direkt ersichtlich.

So ein Vergleich macht auf jeden Fall keinen Sinn, solange man nicht identische Karten gegeneinander stellt.
 
Paddy92, ich spiele PUBG und Cs go, da merke ich keine einschnitte und ob es für mich persönlich besser oder schlechter ist kannst du glaube gar nicht beurteilen, was bringt mir Leistung die Geld kostet wenn ich sie nicht nutze, wird die Karte irgendwie mit der zeit teurer?
Das Power target war dauerhaft auf 50% eingestellt, da ich die Leistung nicht benötigt habe.

Sogar in Pubg, bin ich mit der Vega bei 99% der fälle im CPU Limit, trotz Oc. Ich spiele das Spiel nicht auf Ultra, habe ich vorher mit der gtx 1080 ti auch nicht gemacht, deshalb spare ich mir das Geld und stecke es lieber in ein 240HZ Monitor, du kannst davon halten was du willst.


Neben bei,
du bist schon etwas widersprüchlich, 3 Zitate von dir:

Paddy92;26715700
Erst bei 1440p fängt die 3GB Version an zu straucheln..

Klar wären 8GB schöner, aber für eine Full-HD-Karte sind die 6GB jetzt nicht so der Beinbruch. Ich denke mit 8GB hätte sie eine 2070 zu stark kannibalisiert...

Aber du nimmst hier deutliche Nachteile in Kauf. Verzicht auf 3GB Vram und gut ein Drittel weniger Leistung.


Ich spiele nur in Full HD da reichen ja die 8GB, bis zu nächsten Gen.
 
Paddy92, ich spiele PUBG und Cs go, da merke ich keine einschnitte und ob es für mich persönlich besser oder schlechter ist kannst du glaube gar nicht beurteilen, was bringt mir Leistung die Geld kostet wenn ich sie nicht nutze, wird die Karte irgendwie mit der zeit teurer?
Das Power target war dauerhaft auf 50% eingestellt, da ich die Leistung nicht benötigt habe.

Sogar in Pubg, bin ich mit der Vega bei 99% der fälle im CPU Limit, trotz Oc. Ich spiele das Spiel nicht auf Ultra, habe ich vorher mit der gtx 1080 ti auch nicht gemacht, deshalb spare ich mir das Geld und stecke es lieber in ein 240HZ Monitor, du kannst davon halten was du willst.

Das sind auch alles Informationen, die aus einem Statement wie "Freesync ist ein guter grund, bin auch deswegen auf vega 56 umgestiegen von einer gtx 1080 ti" entnommen werden können. Dies hat natürlich eine ganz andere Wirkung als Freesync ist ein guter Grund, bin auch deswegen auf eine Vega56 umgestiegen von einer GTX1080ti, da ich die Leistung einer eigentlich gar nicht benötige und so der Leistungsverlust für mich keine Rolle spielt, ich aber die Vorteile durch Freesync nutzen kann. Dann entfällt ja auch der Part den ich kritisiere und zwar den starken Leistungsverlust nur für Freesync in Kauf zu nehmen.


Neben bei,
du bist schon etwas widersprüchlich, 3 Zitate von dir:

Paddy92;26715700
Erst bei 1440p fängt die 3GB Version an zu straucheln..

Klar wären 8GB schöner, aber für eine Full-HD-Karte sind die 6GB jetzt nicht so der Beinbruch. Ich denke mit 8GB hätte sie eine 2070 zu stark kannibalisiert...

Aber du nimmst hier deutliche Nachteile in Kauf. Verzicht auf 3GB Vram und gut ein Drittel weniger Leistung.


Ich spiele nur in Full HD da reichen ja die 8GB, bis zu nächsten Gen.

Ich sehe da nicht so wirklich den Widerspruch, wie du es versuchst hier darzustellen. Wenn man einen Angriffspunkt sucht, dann kann man natürlich versuchen dies daraus zu interpretieren. Ich schreibe doch ganz klar, dass mehr VRAM schöner zu haben wären, aber der geringere jetzt nicht ganz so der Beinbruch sind. Daraus lässt sich schließen, dass ich die Entscheidung der 2060 nur 6GB zu spendieren auch nicht wirklich toll finde und bei dieser auch lieber 8GB - ja auch bei einer Full-HD-Karte - gesehen hätte, es aber auch nicht so skandalös finde, wie manch andere. Mit dem Part "Ich denke mit 8GB hätte sie eine 2070 zu stark kannibalisiert" signalisiere ich doch, dass dies meiner Meinung nach mehr oder weniger eine rein unternehmerische Entscheidung war.
Nur weil ich mit der Meinung von Cool Hand, dass die 1060 mit 3GB eher durch den fehlenden VRAM ausgebremst wird als durch die fehlenden Shader (gerade in den von ihm vorgetragenen Beispielen), nicht ganz konform bin und gegen diese argumentiere, heißt dies nicht, dass ich die 3GB bei Full-HD als ausreichend ansehe. Ich wollte ihm nur aufzeigen, dass es da mehr Unterschiede als nur den VRAM gibt, welche die Performanz beeinflussen.

Wie man dem zuvor geschriebenen entnehmen kann, sehe ich eher den deutlichen Leistungsverlust als deutlichen Nachteil und weniger den geringeren VRAM.
 
Meine nächste Karte kommt sowieso nicht mehr von nVidia. Ich hoffe die nächste Vega bekommt 1080ti Leistung.

Solange bleibe ich bei meinem 1070er SLI.

Gesendet von meinem SM-G935F mit Tapatalk
 
das nenn ich mal Mutig 530€
Wird wohl early adopter abzocke sein

Zu den der eine gtx1080ti gegen v56 und freesync getauscht hat

ja ein ryzen gen 1 (~3,8-4ghz) kann keine gtx1080ti auslasten in 1080p selbst auf 1440p wird es schwer
daher verstehe ich da man keine unterschied macht wenn zuvor die gpu maximal mit 60% Auslastung lief
eine rtx2080 würde so max 75% auslasten geschätzt
das liegt an der verbesserten cpu overhead Reduzierung wegen den tensor cores
Das kann je nach game bis zu 50% geringere CPu overhead sorgen die regel ist aber so 10%

Ob games wie rise of the tomb raider und Nachfolger den vram brauche oder nicht liegt allein daran das die Spiele für die Konsolen designt werden
Konsole hat 8gb gddr5 ram oder 11gb DDr4 ram
beide apu sind mit max 256bit angebunden der ramspeed ist aber langsam
bei der ps4 um die 192gb und 750mhz (~6000gbits) Ramtakt
bei der xbone 68,3gb und 266mhz (2133gbit) ramtakt

wie man sieht krankt die schwächer Xbox an streaming
Somit muss man als Entwickler so viel daten wie möglich im ram vorhalten je mehr desto flüssiger wird es
bei der ps4 ist das etwas anders hier wird wie beim PC nur das geladen was gebraucht wird. und somit wird vram weniger gebraucht
Aufgrund von multi Plattform ist der Kompromiss eben das alle Datenzugriff bereit gestellt werden.
Das bedeutet das immer alles was an rescourcen gebraucht wird auch belegt wird, man kann nur das Minimum feststellen
Weil die Konsolen HBC verwenden also ram vram in einen Adressraum gemeinsam verwenden
am PC müssen die daten doppelt vorhanden sein belegter vram = ram Spiegelbild
Dabei stellen die engines nur die menge an Daten bereit die der vram größe passt somit ist die Qualität nicht mehr das was man einstellt sondern das wie groß der vram ist.
Aktuell sind die meisten games bis 6gb vram in 1080p ohne msaa ausreichend Tendenz geht zu 8gb
Die Qualität des Bildes wird dynamisch an den vram Größe angepasst
Das ist ein Problem für Tests.
Man kann keine 4g vram gpu mit einer 6gb vram gpu vergleichen selbst eine mit 8gb vram muss mit einer gpu verglichen werden die auch 8gb vram hat
Daher in Test immer low texture max settings anders lassen sich solche vergleiche nicht wirklich fair bewerten
Da die gpu mit 8gb vram höhere gpu Anforderungen bekommt als die mit 6gb vram

Das betrifft nahezu alle Konsolenports
bei manchen Spielen lässt sich das glücklicherweise abschalten.
mein tipp zuerst high end gpu testen wie viel wirklich an vram bei der bestimmten Auflösung benötigt wird danach die Auswahl und Einstellung einzeln auflisten
also je vram menge der gpu
nvidia ist alleine mit 5 und 6gb vram
vergleichbar bleibt da nur 4 -8gb
Die letzte also 11gb-12gb sind auch alleine
Und somit die high end auch nicht vergleichbar
Klassische Tests mit allen gpu Leistungsklassen geht also nicht mehr.
Die Lösung kann sein texturen auf low ist aber nicht sicher ob damit wirklich die Leistung der gpu Klassen vergleichbar bleibt.
Da die Wunderbox dynamische Anpassung immer aktiv ist.

bsp sottr in max texture verbraucht die gpu 5,5gb (stellenweise stocken) in hoch 5,3gb(flüssiges Spiel)
Das hat auch mit dem ram zu tun denn 16gb sind nicht genug und das in 1080p
Der optische unterschied ist vorhanden wenn ich videos zu gtx1080 sehe mit denselben settings.
Entweder texturen runter und max details oder damit leben das manche details nicht sichtbar sind
6gb vram sind schon arg knapp für FHD in diesen Spiel
Die nächste gpu in meine PC wird min 12gb vram haben eher sogar 16gb aufgrund dieser Technik
ich sehe es wieder wechseln weil mir der vram zu gering wird, typisch nvidia
 
Zuletzt bearbeitet:
Man darf nicht vergessen, dass noch Steuern bei uns hinzu kommen...Das heißt solange man sie nicht kauft geht der Preis in Ordnung.
 
das nenn ich mal Mutig 530€
Wird wohl early adopter abzocke sein

Zu den der eine gtx1080ti gegen v56 und freesync getauscht hat

ja ein ryzen gen 1 (~3,8-4ghz) kann keine gtx1080ti auslasten in 1080p selbst auf 1440p wird es schwer
daher verstehe ich da man keine unterschied macht wenn zuvor die gpu maximal mit 60% Auslastung lief
eine rtx2080 würde so max 75% auslasten geschätzt
das liegt an der verbesserten cpu overhead Reduzierung wegen den tensor cores
Das kann je nach game bis zu 50% geringere CPu overhead sorgen die regel ist aber so 10%

Ob games wie rise of the tomb raider und Nachfolger den vram brauche oder nicht liegt allein daran das die Spiele für die Konsolen designt werden
Konsole hat 8gb gddr5 ram oder 11gb DDr4 ram
beide apu sind mit max 256bit angebunden der ramspeed ist aber langsam
bei der ps4 um die 192gb und 750mhz (~6000gbits) Ramtakt
bei der xbone 68,3gb und 266mhz (2133gbit) ramtakt

wie man sieht krankt die schwächer Xbox an streaming
Somit muss man als Entwickler so viel daten wie möglich im ram vorhalten je mehr desto flüssiger wird es
bei der ps4 ist das etwas anders hier wird wie beim PC nur das geladen was gebraucht wird. und somit wird vram weniger gebraucht
Aufgrund von multi Plattform ist der Kompromiss eben das alle Datenzugriff bereit gestellt werden.
Das bedeutet das immer alles was an rescourcen gebraucht wird auch belegt wird, man kann nur das Minimum feststellen
Weil die Konsolen HBC verwenden also ram vram in einen Adressraum gemeinsam verwenden
am PC müssen die daten doppelt vorhanden sein belegter vram = ram Spiegelbild
Dabei stellen die engines nur die menge an Daten bereit die der vram größe passt somit ist die Qualität nicht mehr das was man einstellt sondern das wie groß der vram ist.
Aktuell sind die meisten games bis 6gb vram in 1080p ohne msaa ausreichend Tendenz geht zu 8gb
Die Qualität des Bildes wird dynamisch an den vram Größe angepasst
Das ist ein Problem für Tests.
Man kann keine 4g vram gpu mit einer 6gb vram gpu vergleichen selbst eine mit 8gb vram muss mit einer gpu verglichen werden die auch 8gb vram hat
Daher in Test immer low texture max settings anders lassen sich solche vergleiche nicht wirklich fair bewerten
Da die gpu mit 8gb vram höhere gpu Anforderungen bekommt als die mit 6gb vram

Das betrifft nahezu alle Konsolenports
bei manchen Spielen lässt sich das glücklicherweise abschalten.
mein tipp zuerst high end gpu testen wie viel wirklich an vram bei der bestimmten Auflösung benötigt wird danach die Auswahl und Einstellung einzeln auflisten
also je vram menge der gpu
nvidia ist alleine mit 5 und 6gb vram
vergleichbar bleibt da nur 4 -8gb
Die letzte also 11gb-12gb sind auch alleine
Und somit die high end auch nicht vergleichbar
Klassische Tests mit allen gpu Leistungsklassen geht also nicht mehr.
Die Lösung kann sein texturen auf low ist aber nicht sicher ob damit wirklich die Leistung der gpu Klassen vergleichbar bleibt.
Da die Wunderbox dynamische Anpassung immer aktiv ist.

bsp sottr in max texture verbraucht die gpu 5,5gb (stellenweise stocken) in hoch 5,3gb(flüssiges Spiel)
Das hat auch mit dem ram zu tun denn 16gb sind nicht genug und das in 1080p
Der optische unterschied ist vorhanden wenn ich videos zu gtx1080 sehe mit denselben settings.
Entweder texturen runter und max details oder damit leben das manche details nicht sichtbar sind
6gb vram sind schon arg knapp für FHD in diesen Spiel
Die nächste gpu in meine PC wird min 12gb vram haben eher sogar 16gb aufgrund dieser Technik
ich sehe es wieder wechseln weil mir der vram zu gering wird, typisch nvidia

die 530 sind kanadische dollar was ungefähr 349$ us dollar wären bei uns mit mwst so um die 410€ trotzdem zuviel schotter , ist ja nicht mal ne strix oder so

mfg
 
Ob das zu viel ist, können wir doch erst sagen, wenn wir die Leistung dazu kennen.
 
eigentlich nicht, denn der name suggeriert ja in welcher region die karte angesiedelt sein sollte.
da wären 400€ deutlich zu hoch.
aber nvidia hat es ja geschafft, dass bei der aktuellen generation das preisgefüge einen sprung nach oben macht.

da sieht man jetzt sehr gut, dass es eben auch für die mittelklasse und darunter auswirkungen hat wenn in den high-end bereichen die preise merklich angezogen werden...
 
Zuletzt bearbeitet:
Ob das zu viel ist, können wir doch erst sagen, wenn wir die Leistung dazu kennen.

wird aller wahrscheinlichkeit zwischen 1070 und 1070ti sein mit tendenz zu 1070 aber halt 2gb weniger ram

mfg
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh