Big Navi: AMD präsentiert die Radeon-RX-6000-Serie

Es steht doch alles da, dass Godfall Ultra-HD-Texturen anbieten wird und dafür die 12GB notwendig sind, eine generelle Voraussetzung ist es natürlich nicht, dass ist schon klar.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Schaut mal was mit "Far Cry New Dawn" war. Da gibt es auch HD Texturen zum runterladen. Wer eine 4 GB Karte hatte kommt nicht in den Genuss der vollen Pracht aber wer 6 oder mehr GB bei seiner Karte hat konnte alles ausfahren. So wird es wohl auch bei Godfall sein, 12 GB werden wohl nur dann voll genutzt werden sobald man die HD Texturen auch mit allen Annehmlichkeiten genießen will.
 

@iLLuminatusANG

"In einem Technik-Showcase von AMD legen die Entwickler außerdem dar, dass Godfall Ultra-HD-Texturen anbieten wird. Sie setzen laut Entwicklerstudio 12 Gigabyte Videospeicher voraus, was im Kontext als Seitenhieb auf Nvidia zu verstehen ist. Deren neue Ampere-Grafikkarten, insbesondere die interessante RTX 3080 (Test), werden nur mit 10 Gigabyte angeboten. Warum auf den Speicher verwiesen wird, ist offenkundig: AMDs kommende GPU-Generation wird mit 16 Gigabyte Speicher ausgeliefert, einen Konter hat Nvidia vorerst gestrichen."

Quelle:
 
finds gerade nicht mehr wo das stand:unsure: kannst mir nochmal den Link posten bitte

Stand nirgendwo. Nur die erwähnten zwei Sätze aus dem Video hier:

Alles andere was wo steht ist nur Interpretation der Aussage aus eben diesem Video.
 
Alles andere was wo steht ist nur Interpretation der Aussage aus eben diesem Video.

Ich habe fertig. :d

Edit:
 
Zuletzt bearbeitet:
Hatte AMD bei den 3000er CPUs nicht zuerst eine Deckelung der Preise drin?
Wenn die sowas auch bei den GPU machen und die Teile sowie die CPU bringen die erforderliche Leistung, gibt es wohl mehr Panikverkäufe.
Mal sehen was dann abgeht.
 
@Holzmann
Dann hätten wir ja geklärt dass die Godfall Entwickler NICHT 12GB voraussetzen. Sondern, 4k in dem Fall 12GB gebraucht hat.

:btt2:
Beitrag automatisch zusammengeführt:

omg paniksell 3080
Frahhn is safe^^
Beitrag automatisch zusammengeführt:

Ich habe fertig. :d

Edit:
Lesen war ja nie deine Stärke bisher :hust:
 
Lesen war ja nie deine Stärke bisher :hust:

Aber ich habe nie gesagt, dass grundsätzlich 12GB benötigt werden, sondern nur unter den oben beschriebenen Bedingungen bzw. Einstellungen.
k015.gif
 
Na, man kann natürlich nen Grashalm mit 32k Textur einbauen, um den VRAM künstlich voll zu bekommen.
Das wäre natürlich total doof von einem Entwickler, außer er bekommt dafür, sagen wir.... einen Zuschuss,... als Entwicklungshilfe!

So eine Praktik hätte ich eher von Intel, oder sogar NVidia erwartet, aber wir alle wussten ja, dass AMD nicht besser ist, sobald die Produkte vorne sind.
Well played. Hatte schon Angst, dass AMD evtl. der Biss fehlt, aber hier ist zumindest mal ein Indiz, dass es daran nicht scheitern wird.
 
Ich frage mich welcher Entwickler so deppert sein kann.
Etwas voraussetzen, dass evtl. 0,1% der Spieler haben?

Wer innerhalb der Firma hat so einen Schmarn den abgesegnet bitte? ;-)
Das, oder es ist nur bezahlte Promo mit "blahblah".
es zwingt einen ja niemand 4k in "ultra" details zu spielen. muss halt "hoch" langen.
 
Soll jeder für sich machen wie er denkt es gibt ja auch Leute die wechseln ihre Karte nach noch nicht mal einem Jahr und sehen eine 3080 nur als Übergangslösung an .
Es hat nicht jeder das selbe Setup beim Monitor der eine spielt 200HZ dem anderen reichen 60 alles auf Ultra 4K+Usw.
Jeder hat sozusagen seinen oder keinen Masterplan! 🤪
 
Es ist wohl immer besser Speicher zu haben, als Speicher zu brauchen... alte Computerweisheit und wird von Generation zu Generation in einer geheimen Zeremonie weitergegeben :fresse:
 
Es ist wohl immer besser Speicher zu haben, als Speicher zu brauchen... alte Computerweisheit und wird von Generation zu Generation in einer geheimen Zeremonie weitergegeben :fresse:
Also mir fällt da Spontan eine Firma ein an der die Weisheit wohl vorbei gegangen ist :hust:
 
Lederjacke hat wohl im Buch der Zeremonie die falsche Seite aufgeschlagen... da war bestimmt ne Saturn Werbung mit "Geiz ist Geil" zu sehen und so nahm das alles seinen Lauf. 🤷‍♂️:banana:
 
8GB ist outdated, Punkt.

Reicht für 1080p vielleicht noch ein Jahr, aber wer spielt mit ner 3070 in 1080p, nur um nicht ins Vram limit zu laufen? Richtig - keiner.
 
Na, man kann natürlich nen Grashalm mit 32k Textur einbauen, um den VRAM künstlich voll zu bekommen.
Das wäre natürlich total doof von einem Entwickler, außer er bekommt dafür, sagen wir.... einen Zuschuss,... als Entwicklungshilfe!

So eine Praktik hätte ich eher von Intel, oder sogar NVidia erwartet, aber wir alle wussten ja, dass AMD nicht besser ist, sobald die Produkte vorne sind.
Well played. Hatte schon Angst, dass AMD evtl. der Biss fehlt, aber hier ist zumindest mal ein Indiz, dass es daran nicht scheitern wird.
Das nennt sich eben Fortschritt. 8 GB gibt es seit 2016 und wir haben nun fast 2021, also fünf Jahre...
es zwingt einen ja niemand 4k in "ultra" details zu spielen. muss halt "hoch" langen.
Eher ein Mix aus Einstellungen. Damals mit der 1070 habe ich festgestellt dass "Hoch" und "Ultra" bei Beleuchtung und Schatten keinen sichtbaren Effekt brachten. So konnte man sich die 1080 sparen und BF1 lief trotzdem super.
Soll jeder für sich machen wie er denkt es gibt ja auch Leute die wechseln ihre Karte nach noch nicht mal einem Jahr und sehen eine 3080 nur als Übergangslösung an .
Es hat nicht jeder das selbe Setup beim Monitor der eine spielt 200HZ dem anderen reichen 60 alles auf Ultra 4K+Usw.
Jeder hat sozusagen seinen oder keinen Masterplan! 🤪
Völlig richtig, nur würde ich nicht einsehen fast 1 K für eine Übergangslösung hinzulegen. Ich habe rund 500 € ausgegeben und werde mit Glück noch Gewinn machen, würde die 3070 500 kosten würde ich auch nicht so klagen als wenn diese Karte das kostet was sie eben kostet. Darüber hinaus ist sie immer noch langsamer als eine 2080 Ti... "Fast" ist auch daneben.

60 Hz sind eine reine Gewohnheitssache. Angefangen habe ich mit ~25 FPS in 640 x 480, die Konsolenspieler sagen ja immer mehr FPS sieht das Auge nicht :lol:
Dann kam eine Laptopphase in der man mit 40 FPS schon zufrieden sein konnte, irgendwann realisierte ich dann dass um einen Desktop nichts herum geht wenn man sinnvoll investieren möchte. Dazu kommt dass man nach 2-3 Jahren einfach eine neue GPU kauft und weiter zufrieden zocken kann. Nachdem die Laptopphase endete stieg die K/D in BF4 recht schnell von 0,42 auf 1+. Mag zwar sein dass man mit 100+ FPS mal ein paar Kills mehr macht, dafür zocke ich eben in maximaler Grafikqualität - Bislang immer ein Kompromiss, aber bald werden (relativ) bezahlbare 4K144-Monitore flächendeckend Einzug gehalten haben und Freesync geht immer. Alles spricht für eine Radeon. Es klingt fast zu gut um wahr zu sein - Darum heißt es nun abwarten, ob die UVP tatsächlich eingehalten werden.

999 US-$ entspricht 856,97 Euro. Macht also so ziemlich genau 1 K, da ist also noch eine Hoffnung dass die 6900 XT dann am Ende tatsächlich so viel kosten wird. Bei der 3090 ist jeder (Hype)-Zug schon lange abgefahren, wer da eine FTW will kann locker 2 K+ hinlegen, selbst wenn ich die jetzt hätte, wäre ich dann mit einer 6800 und einem schönen 50+ Zoll 4K144-TV besser beraten. Mich würde es nicht wundern wenn BFV auf den Radeons besser laufen wird als mit NVIDIA. Notfalls dann eben mit RTX off - Dafür aber mit dauerhaften ~100 FPS.
8GB ist outdated, Punkt.

Reicht für 1080p vielleicht noch ein Jahr, aber wer spielt mit ner 3070 in 1080p, nur um nicht ins Vram limit zu laufen? Richtig - keiner.
Eigentlich sogar recht viele, nur eben nicht hier im Forum. Die Sache ist auch, keiner kauft sich eine ~1 K Karte für 1080p. Mir fiel schon auf dass 1080p oft gar nicht mehr getestet wird, da sowieso klar ist dass selbst eine obere Mittelklassekarte da locker über 100 FPS macht, also immer prozessorlimitiert ist. 240 oder 360 Hz gibt es sicher aber ob das sinnvoll ist ist fraglich, für die meisten die aus Genussgründen zocken macht ein 1440p oder 2160p dann schon mehr Sinn. Der Zugewinn an Bildqualität ist enorm. Gerade 2160p ist wie ein natürliches AA, da will man nicht mehr auf 1080p zurück.
 
Ich verstehe nicht ganz wieso sich AMD und auch Nvidia meist 6 Monate Zeit lassen um die kleinen Karten auf den Markt zu bringen?

Was bringt das? Die 200€ Käuferschicht wird sich keine 700€ HighEnd GPU holen nur weil die 200€ Variante noch auf sich warten lässt. Und technisch sollte es doch einfacher sein die kleinen Chips zu fertigen als die großen?

Also sowohl wirtschaftlich als auch technisch sehe ich keinen Grund wieso man die kleinen GPUs verzögert auf den markt bringt?
 
Ich denke schon dass einige zur neuen Gen kaufen, weil die billigen Karten schon alt sind.
Und die kaufen dann eventuell eine Etage höher als eigentlich geplant.
 
Die sind alle ausgehungert und haben auf vernünftige Karten zu vernünftigen Preisen gewartet! Glück für uns alle das auch Nvidia versucht die Preistreiberei zu beenden. Blöd das nun die Händler zuschlagen, aber da kann Nvidia ja nichts für und AMD auch nicht, sollten die auch Lieferprobleme bekommen!
Ich empfinde die Entwicklung sehr positiv...
Okay die 3090 schiesst etwas über das Ziel hinaus, aber die selbe Karte wäre wohl bei 2k € plus gelandet ohne Big Navi 🤷‍♂️
So gesehen ist das auch gut (y)
 
Ändert nichts daran, dass die Preise trotzdem exorbitant hoch sind und jetzt auch AMD ordentlich zulangt.
Die Preistreiberei ist nicht wirklich beendet.
 
Völlig richtig, nur würde ich nicht einsehen fast 1 K für eine Übergangslösung hinzulegen. Ich habe rund 500 € ausgegeben und werde mit Glück noch Gewinn machen, würde die 3070 500 kosten würde ich auch nicht so klagen als wenn diese Karte das kostet was sie eben kostet. Darüber hinaus ist sie immer noch langsamer als eine 2080 Ti... "Fast" ist auch daneben.
Du meiner wegen können die Leute die 3080 auch für 2000 kaufen ich klatsche dann auch Beifall 👏👏👏
Es ist mir Wayne !
Ich kucke nur für mich und nicht für wen anderes .
Die 3080 wäre für mich eine gute Karte geworden bei 384 Bit mit normalen GDDR6 12GB da hätte ich dann auch zugeschlagen bei Release.
Gddr6 X hätte man der 3090 vorbehalten können!
Hatte ja auch ne 3090 Strixx bestellt die aber nicht an Land gekommen ist und da die Leistungsdaten von der 6000ner Top aussehen hab ich die 3090 Storniert zumal die 16Gigabyte der 6000ner genau richtig sind für mich!
Mit einem 5900X und der 6800XT/6900XT sehe ich für mich ein Rundes Paket!

Jedoch ich befürchte spätestens nach Tag 1 zu geringe Stückzahlen und damit steigende Preise was sich auch negativ auf die 6900XT zum release auswirken könnte und dann da plötzlich 1200 Euro stehen!
Und da fängt das ganze an kompliziert zu werden .
 
Zuletzt bearbeitet:
Im Gesamtbild sieht man immer noch nen deutlichen Unterschied. RT an sich sieht aber ziemlich ähnlich aus

Bei 02:00 vorne rechts die Steinmauer, da ist der Unterschied doch ziemlich groß
Bleibt die Frage, fällt es auf wenn man nicht danach sucht?
Bei vielen Titeln ist das nämlich nicht der Fall, auch wenn ich RT super finde.
Die Fake Beleuchtung ist heutzutage einfach zu gut.
 
Ändert nichts daran, dass die Preise trotzdem exorbitant hoch sind und jetzt auch AMD ordentlich zulangt.
Die Preistreiberei ist nicht wirklich beendet.
Ja gut, bei den Topmodellen ist es schon heftig, aber wenn man bedenkt das man jetzt für 700,- Karten bekommen könnte (wenn erhältlich!) die praktisch zum schnellsten gehören, ist das schon eine positive Entwicklung. Ich meine natürlich wenn man die letzten Jahre mal im Blick hat....
Das die Einstiegskarten etwas auf sich warten lassen ist wohl dem Umstand geschuldet das Nvidia irgendwie auf AMD reagieren wollte/musste und AMD sich erstmal im High End einnisten will, bevor sie die anderen Karten folgen lassen.
Es ist halt auch noch die Frage ob die Gerüchte zu den 6700er Karten stimmen, sprich das es nur umgelabelte Navi 10 Karten sein sollen... Dann würde es fast mehr Sinn machen weiter zu 5700 und 5700XT zu greifen, zumal die für 1080 noch mehr als genug Leistung liefern und ich glaube das 12GB Ram in der Spielklasse mit Kanonen auf Spatzen schiessen wäre :unsure:
Das würde in so fern Sinn ergeben als das RT bei kleinen Karten nicht wirklich viel positives beitragen kann, außer vielleicht für Leute die bei 1080p mit 30 Fps spielen wollen (Siehe RTX 2060)?!
 
Dass die Einstiegskarten etwas auf sich warten lassen ist wohl dem Umstand geschuldet das Nvidia irgendwie auf AMD reagieren wollte/musste und AMD sich erstmal im High End einnisten will, bevor sie die anderen Karten folgen lassen.
Denke ich nicht, das würde nur im Highend Bereich Sinn machen (wo man die Krone haben will), in der Mittelklasse ist das egal. Man könnte ja einfach 3050/3060 sofort mit auf den Markt werfen, sollte AMD tatsächlich ein vergleichbares Produkt günstiger anbieten könnte man einfach den Preis senken. Und falls wirklich Not am Mann ist kann man jederzeit neue Zwischenlösungen (Super/Ti/whatever) nachschießen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh