Erste 7-nm-Gaming-GPU: AMD präsentiert die Radeon VII

Sehe ich auchso, bisher war man nach 2-3 Jahren immer froh wenn die Karte mehr Vram hatte als zum Release üblich..
Einfach mal weiterdenken als 2m.

das ding ist halt das die gpu dann nach 3 jahren meinst auch zu lahm ist für settings die dann so viel vram belegen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das sehe ich etwas anders. in 2 jahren holte amd aus der rx 580 15% mehrleistung raus. übertrage das auf vega VII und du hast 50% mehrleistung zu einer rx 64
 
699 Dollar. hahahaha

die karte verbraucht mehr, hat kein RTX und kostet gleich viel wie eine 2080. warum soll ich eine AMD kaufen?

Gute Frage...
2080 TI Ruckler/Frametime spikes

;-)


An sich klingt die Karte interessant. Freue mich auf Benchmarks und bin gespannt ob auch dort etwas in Richtung undervolting geht. Wenn die Angabe von PCIe 4.0 stimmt, könnte es ein hübsches Bundle mit nem 3000er Ryzen ergeben. Bleiben nur die Mainboardhersteller :)

Dann kann der aktuelle Desktop unterm Fernseher stehen bleiben und PCIe 4.0 wäre für die Zukunft lohnenswert was ein Mainboardupgrade angeht :)
 
Zuletzt bearbeitet:
das sehe ich etwas anders. in 2 jahren holte amd aus der rx 580 15% mehrleistung raus.

also ich seh die rx580 hier nach wie vor auf dem selben niveau wie die alte gtx 1060 mit 2gb weniger vram..
Nvidia GeForce RTX 2060 FE im Test (Seite 3) - ComputerBase

die dann auch seit über 2 jahre 80 watt weniger strom und damit auch weniger geld verbrannt hat
Nvidia GeForce RTX 2060 FE im Test (Seite 4) - ComputerBase


klar könntest du die dinger nun durch 5k und ultra-settings prügeln, dann bringt der zusätzliche ram sicher einen vorteil - angenehm spielbar ist es dann halt nur nicht mehr.
 
Zuletzt bearbeitet:
High-End hieß es schon bei Vega. Geworden ist es dann gerade mal Mittelmaß mit High-End-Stromverbrauch und -preis. Auf Ankündigungen des Powerpointweltmeisters a.k.a. AMD konnte man ja schon immer recht wenig geben.

Dass es immer noch Leute gibt die sowas irgendwo hoch holen :lol:

Muss ich samurro recht geben ;)
 
naja nur weil es jetzt mal bei 12 Monitoren funktioniert (wie und ob überhaupt es auf den ganzen restlichen läuft werden wir ja erst im Laufe der Zeit sehen - ich bin selbst schon gespannt ob es auf meinem Lg der nicht zu den 12 von Nvidia explizit genannten läuft) würde ich den Freesync Bonus schon noch immer als gegeben ansehen ...

Diese 12 Monitore erfüllen die Qualitätsstandard, um von Nvidia als "G-Sync compatible" eingestuft zu werden. Nur weil ein Monitor den Test nicht bestanden hat, z.B. weil die Sync Range zu gering ist, heißt dies nicht automatisch, dass Adaptive-Sync bei diesem nicht fehlerfrei funktioniert. Bei den Monitoren läuft Adaptive-Sync genauso (gut oder schlecht) wie bei AMD. Sollte also ein Monitor Probleme mit Adaptive-Sync haben bei Nvidia haben, dann sollte dieser die gleichen Symptome auch bei einer Grafikkarte von AMD zeigen.



Dem kann man so zustimmen.
 
Ganz Ehrlich lieber hole ich mir eine AMD Karte als diese Rotz RTX2080 Karte. BF V Ruckelt und es lägt ständig. Die 8GB Ram sind voll innerhalb kürzeste Zeit.

DX12 an RTX an Ultra setting an Speicher gesprengt und die FPS wie geil die RTX2080 sind.

Dann warte ich auf AMD Kaufe gleich Zwei von diesen Karten als eine RTX 2080 Ti.

CrossFire mit 16GB wird auch Rocken :lol:
 
also ich seh die rx580 hier nach wie vor auf dem selben niveau wie die alte gtx 1060 mit 2gb weniger vram..
Nvidia GeForce RTX 2060 FE im Test (Seite 3) - ComputerBase

die dann auch seit über 2 jahre 90 watt weniger strom und damit auch weniger geld verbrannt hat
Nvidia GeForce RTX 2060 FE im Test (Seite 4) - ComputerBase


klar könntest du die dinger nun durch 5k und ultra-settings prügeln, dann bringt der zusätzliche ram sicher einen vorteil - angenehm spielbar ist es dann halt nur nicht mehr.

die 1060 hat auch mitgezogen, aber davon habe ich nicht gesprochen. wieso bringst du neue sachen ins gespräch?

die aussage war dass wenn die 16gb wirklich gebraucht werden, die gpu zu schwach ist. was angesichts von leistungszuwächsen von 15% und vl sogar mehr dan eben nicht mehr stimmt.mir

persönlich sind die 90W auch egal. das umstellen bei uns auf led lampen hat 200W eingesoaart, vom neuen wärmepumoentrockner und der neuen miele waschmaschine ganz zu schweigen.

von daher sind mir diese 90W egal. und ich bezweifele dass es viele leute gibt für die das wirklich ein k.o. kriterium wäre
 
Zuletzt bearbeitet:
Nun bietet AMD endlich! auch eine Karte auf dem Level der dann zwei Jahre alten 1080 Ti mit unbekanntem Verbrauch, aber ohne neue Features zum gleichen Preis an und guess what: Team Red schmeisst Konfetti, denn immerhin gibt es ja 16 Gb RAM.

Und , soll das jetzt schlecht sein?? Die 2080 ist auch auf 1080ti Niveau.................ach ja, ich vergaß. Die hat jat das nagelneue geile Killer RTX "Feature"!!!

Dem kann man so zustimmen.

Noch ärmer geht es kaum!! Ein CEO lästert über einen kleinen Mitbewerber. Kein Wunder das DU zustimmst aber auch irgendwie nicht überraschend.

Es sinkt für Sie.............das Niveau!
 
Zuletzt bearbeitet:
Das ist aber kein feiner Zug, mit so einem Statement an die Öffentlichkeit zu gehen, wo die Karte nicht mal released wurde, Souveränität sieht leider anders aus. ):

Jetzt weiß ich warum NVidia Anhänger immer so Aggressiv sind. Der Lederjacke John ist ein Vorbild jetzt verstehe ich das :lol:

- - - Updated - - -

Wenn die Karte in etwa so schnell ist wie die RTX 2080, dann bekommt AMD seit langem mal wieder Geld von mir.

Sapphire wird schon ein leises Custom-Model bringen.

Nvidia ist mir im Moment zu unsympathisch.

+1
 
die 1060 hat auch mitgezogen, aber davon habe ich nicht gesprochen. wieso bringst du neue sachen ins gespräch?

dein ernst?

deine argumentation ist die, das die 580 über den nutzungszeitraum (aufgrund von mehr vram) an leistung zulegt, wenn die Konkurrenz das trotz weniger vram genau so macht ists dann aber uncool :fresse: ?

warum stellst du denn deinen ganzen kram auf geräte um die weniger verbrauchen?
doch wohl nicht etwa weil ein niedrigerer verbrauch (und damit weniger laufende-kosten) eigentlich doch ganz cool sind?

ich überlege grade ob ich mir den spaß mache und dir ausrechne was dich ein mehrverbrauch von 80watt verteilt auf 2 jahre gekostet haben^^ oder wäre das zu gemein?
 
Zuletzt bearbeitet:
ich redete nicht von der 1060, da hast du angefangen.

ich redete davon dass eine pauschallaussage a la " bis diese vram menge sinn macht, ist die gpu eh zu lahm" unsinnig ist. nicht mehr nicht weniger, die 1060 soll mitziehen ist .ir doch egal
^^

wel das alte kaputt war und wenn schon neu, dann etwas dass weniger verbraucht und 10 jahre und mehr hält.

ja bitte rechne, und geh nochmal auf nummer sicher dass du die 90W auch ja auf 24h bei 365 tagen im jahr rechnest, damit es auch ja sinn macht ^^
 
Jetzt weiß ich warum NVidia Anhänger immer so Aggressiv sind. Der Lederjacke John ist ein Vorbild jetzt verstehe ich das :lol:

Da hab ich echte Nvidia Internas für Dich: Das ist eine nagelneue Lederjacke. Die hat Er bei einer Wette mit einem Angestellten gewonnen.

Der Angestellte wettete das NVidia die RTX2080Ti nie für 1200,- € oder gar mehr loswird. Er sagte auch, so besche... Leute kann es nicht geben.

Naja......das Resultat siehst Du ja...............John hat ne neue Jacke!!:bigok:
 
Da hab ich echte Nvidia Internas für Dich: Das ist eine nagelneue Lederjacke. Die hat Er bei einer Wette mit einem Angestellten gewonnen.

Der Angestellte wettete das NVidia die RTX2080Ti nie für 1200,- € oder gar mehr loswird. Er sagte auch, so besche... Leute kann es nicht geben.

Naja......das Resultat siehst Du ja...............John hat ne neue Jacke!!:bigok:

Der war so schlecht, da habe ich auch noch einen: Warum trägt Herr Lederjacke lange Ärmel und Fr. Lederjacke kurze? Weil es bei AMD immer etwas heißer wird als bei Nvidia.... höhöhö
 
wir bräuchten eine sammler für sowas.... das wäre was, ein contaiment thread wo die leute ihren grant rauslassen können, villeicht wird das forum dafür ruhiger.
 
Der war so schlecht, da habe ich auch noch einen: Warum trägt Herr Lederjacke lange Ärmel und Fr. Lederjacke kurze? Weil es bei AMD immer etwas heißer wird als bei Nvidia.... höhöhö

Aaaah.................ein 2080Ti Besitzer.:bigok:

wir bräuchten eine sammler für sowas.... das wäre was, ein contaiment thread wo die leute ihren grant rauslassen können, villeicht wird das forum dafür ruhiger.

Bin dabei!^^
 
Zuletzt bearbeitet:
Das neue Referenz-Desing gefällt mir sehr gut, da brauch man wahrscheinlich nicht mehr auf custom zu warten.

Oc-Potential könnte auch noch interessant werden.

Wenn man die Wahl hat zwischen 8 GB und 16 GB HBM2 zum selben Preis, muss man da noch lange überlegen ?

Das aber von einigen der große V-Ram bemängelt wird ist nur lustig. ;)

2 Slot wird zu laut..
 
Könnte sein, dass das neue Referenz Design von Sapphire ist, ein warten auf custom könnte nicht mehr nötig sein.

Erstmal sehen, ob AMD eine breite Verfügbarkeit nach Release sicher stellen kann, mal sehen ...

seit anbeginn der zeit(also schon zu ATI zeiten) ist powercolor der haus und hof produzent für AMD referenzkarten.
 
seit anbeginn der zeit(also schon zu ATI zeiten) ist powercolor der haus und hof produzent für AMD referenzkarten.

Nein, das stimmt nicht. Ich selbst habe FirePro-Karten bei PCPartner vom Band rollen sehen und PCPartner fertigt auch die aktuellen Referenzkarten von AMD.
 
2 Slot wird zu laut..

die sapphire fury nitro hatte auch nur einen minimal über 2 Slot hohen Kühler und war mit das leiseste was ich ab Werk bei Lufgekühlten Grakas im Rechner hatte und das bei guten 340Watt die meine Nitro mit freischaltung aller Cores und maximaler Übertaktung aus der Dose gezogen hat - auch 2 Slot ist durchaus sehr leise wenn es ordentlich gemacht wird ...

der knapp über 3 Slot hohe Kühler der Lightning Z ist auch nicht wesentlich leiser obwohl der nur gute 280 Watt wegzukühlen hat...
 
Zuletzt bearbeitet:

aus deiner quelle -> "Wer in der Oberklasse längerfristig ruckel- und matschfrei spielen möchte, dem raten wir daher zu einer 8-GiByte-Grafikkarte."


und daraus machst du dann folgendes ->
empfehle dir mal den artikel auf PCGH zu lesen... nur weil der speicher "reicht" heisst es nicht das es genug ist... weil zuerst reduziert der treiber das LOD massiv, und erst wen ndas nicht mehr ausreicht, fängts an zu ruckeln...

8GB langen heute schon vorne und hinten nicht mehr

vielen dank für die Demonstration deiner objektivität.
 
Zuletzt bearbeitet:
Die 2060 kost wieviel?370 Tacken?Und man wundert sich,dass bei übermässigem Speichergebenche der Speicher 6!!GBGDDR dann mal in die Knie geht.Und daraus wird geschlossen,das 8GB GDDR6 Vram jetzt schon nicht mehr langen.Ähm ja genau.
 
Nein, das stimmt nicht. Ich selbst habe FirePro-Karten bei PCPartner vom Band rollen sehen und PCPartner fertigt auch die aktuellen Referenzkarten von AMD.

sicher? dann macht PC nur die reinen gaming karten?

- - - Updated - - -

aus deiner quelle -> "Wer in der Oberklasse längerfristig ruckel- und matschfrei spielen möchte, dem raten wir daher zu einer 8-GiByte-Grafikkarte."


und daraus machst du dann folgendes ->


vielen dank für die Demonstration deiner objektivität.

du hast schon den artikel gelesen der mit drinnen hängt, oder?
 
VII steht nun mal für die Zahl 7, prägt sich doch gut ein, der Name liegt auf der Hand. :)

Vega II wäre geiler gewesen.

- - - Updated - - -

lol wie immer bei diesen Sachen ist mir der Name ziemlich egal :d - wichtig ist einzig was am Ende dabei rumkommt und da hoffe ich einfach mal das man die 2080 im Griff hat und hin und wieder je nach Spiel ein bisschen in Richtung 2080ti schielen kann - dazu Freesync und 16GB Vram - wenn es so kommen sollte für mich definitiv ein Anreiz wieder zu den roten Grakas zu wechseln nach meinem 1080ti Ausflug :)

Sehe ich auchso, undn Freesync Moni wirds wohl auch werden :bigok:

- - - Updated - - -

Radeon VII = 7 = 7 nm = Vega 2. Generation (V+II)

Finde ich eigentlich ganz gut gewählt. Eine Radeon RX 690 wäre verwirrend gewesen und Radeon VII ist es eben für viele auch.

Vega II wäre besser gewesen und eindeutig.
 
Ich find die 16GB auch Mega das ist nur der Neid der Besitzlosen der hier aufkommt.

Aber....bei den Balken beschleicht einen das Gefühl nur die halbe Wahrheit gezeigt bekommen zu haben.
Das sind nur Titel wo eine AMD auch sehr gut angesprochen wird.

Wen die 128ROPs stimmen könnte es allerdings auch durch die Bank eine Positive Überraschung geben und sie läuft jeder Zeit auf Augenhöhe mit der 2080.
Freue mich wie schon einmal erwähnt auf den Test.
Wenn die AMD die 2080 durchweg besiegt verkaufe ich meine 1080Ti.
Nach der GTX1080 ist die 2080 für mich ein No go mit 8GB.

Besser hätt ichs nicht ausdrücken können, RTX Gen mit selben Vram aber 50% höherem Preis ist einfach nur eine Frechheit.
 
Diese 12 Monitore erfüllen die Qualitätsstandard, um von Nvidia als "G-Sync compatible" eingestuft zu werden. Nur weil ein Monitor den Test nicht bestanden hat, z.B. weil die Sync Range zu gering ist, heißt dies nicht automatisch, dass Adaptive-Sync bei diesem nicht fehlerfrei funktioniert. Bei den Monitoren läuft Adaptive-Sync genauso (gut oder schlecht) wie bei AMD. Sollte also ein Monitor Probleme mit Adaptive-Sync haben bei Nvidia haben, dann sollte dieser die gleichen Symptome auch bei einer Grafikkarte von AMD zeigen.




Dem kann man so zustimmen.

Aber dann rumheulen, wenn man was gegen Nvidia sagt. :lol:
 

Ähnliche Themen

D
Antworten
35
Aufrufe
2K
DTX xxx
D
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh