Erste 7-nm-Gaming-GPU: AMD präsentiert die Radeon VII

solche angaben sind immer reichlich hoch-gegriffen weil sich die hersteller absichern wollen.

ein vernünftiges 500 watt netzteil wird ohne oc vermutlich völlig ausreichen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
Warum sollte die Karte Crossfire auch nicht supporten?

Gesendet von meinem SM-G950F mit Tapatalk
 
Wünsche mir generell das CF und SlI wieder bessere Unterstützung erhalten.
In 4K mit 2 solchen Karten und Unterstützung bei 90% der Spiele wäre ich glücklich.
 
Die Intel cPUs wurden aber nicht jede Gen 50% teurer..
ne, sie wurden jede generation so 10% teurer und 5% schneller ...
dagegen ganz ähnlich macht es nvidia, nur ist da der zuwachs halt nicht somickrig.

- - - Updated - - -

ah unser ganz neutraler paddy hat natürlich noch nie die PSU empfehlung bei einem netzteil gesehen.
jeder ühersteller bertreibt so, weil sonst irgendein dubel für 15$ ein "500W" netzteil kaufen wird und dann hinterher weinend beim support anruft.

aber mit gerade mal 8-9 jahren im forum kann man sowas noch nicht mitbekommen haben.
 
Zuletzt bearbeitet:
ah unser ganz neutraler paddy hat natürlich noch nie die PSU empfehlung bei einem netzteil gesehen.
jeder ühersteller bertreibt so, weil sonst irgendein dubel für 15$ ein "500W" netzteil kaufen wird und dann hinterher weinend beim support anruft.

aber mit gerade mal 8-9 jahren im forum kann man sowas noch nicht mitbekommen haben.

Hersteller übertreiben bei der Netzteilempfehlung.. Echt? Wirklich?! MIND = BLOWN
tim-and-eric-mind-blown.gif



Klar sind die Werte übertrieben, aber man kann diese durchaus als Indikator dafür nehmen, dass sich an der Effizienz, trotz hier so hoch gejubelten super-duper-7nm-Fertigung, nicht sonderlich viel getan hat. Das Dingen wird sehr wahrscheinlich genau so ein Schluckspecht wie schon der Vorgänger Thermi Vega1 einer war. Oh was ein Zufall, die Vega64 hat bei der Netzteilempfehlung auch 750W stehen. Vielleicht verbraucht die VII ja genauso viel wie eine Vega64, dann sind es halt nicht mehr +100W, wie bei 1080 vs Vega64, sondern etwas weniger bei so gerade eben gleicher Leistung zu einer 2080. Wow :banana:
Aber wenn man vonseiten AMD schon vernehmen kann, dass die VII eine 2080 nur in ausgewählten Titeln erreichen kann, dann ist das in Anbetracht des Verbrauchs schon ziemlich schwach.. #Wait4Navi

Da habe ich wohl einen ganz neutralen Nerv getroffen. :hust:
 
dass sich an der Effizienz, trotz hier so hoch gejubelten super-duper-7nm-Fertigung, nicht sonderlich viel getan hat.
Du kennst also die Bedeutung des Wortes "Effizienz" nicht!

Aber wenn man vonseiten AMD schon vernehmen kann, dass die VII eine 2080 nur in ausgewählten Titeln erreichen kann
Du lügst wohl gerne?

AMD hat gesagt, daß die Radeon 7 mal etwas langsamer als eine 2080 sein wird, aber manchmal auch etwas schneller.
Wir wissen also nicht, ob die Radeon 7 im Schnitt vielleicht nicht über einer 2080 liegt!
 
spekulation spekulation.

spekuliert jemand, dass vega 4x so effizient ist, da 7^2 ja nur ein viertel von 14^2 ist?
nein, weils schwachsinn wäre.
recht ähnlich verhält sichs mit dieser schätzung zur effizienz.
 
Zuletzt bearbeitet:
Du kennst also die Bedeutung des Wortes "Effizienz" nicht!

Doch, nur vermute ich, dass die das Dingen wieder so hart an die Kotzgrenze takten werden bzw. müssen, um irgendwie mithalten zu können, sodass die Effizienz (stark) leiden wird. Ebenfalls vermute ich, dass die VII auch mehr als eine Vega64 verbrauchen wird.


Du lügst wohl gerne?

AMD hat gesagt, daß die Radeon 7 mal etwas langsamer als eine 2080 sein wird, aber manchmal auch etwas schneller.
Wir wissen also nicht, ob die Radeon 7 im Schnitt vielleicht nicht über einer 2080 liegt!

Scheinbar lügst du gerne oder verdrängst einfach nur die Benchmarks, welche AMD noch nachgeschoben hat. Wenn man die Ergebnisse daraus so ein bisschen quer vergleicht, dann fällt auf, dass die VII der 2080 im Schnitt so knappe 10% hinterherläuft. Zudem habe ich auf PCGH erst letztens noch folgendes gelesen: "Dennoch gibt AMD aktuell an, dass die Radeon VII 'nur' auf einer Ebene mit einer GPU à la RTX 2080 ist - und das in ausgewählten Benchmarks.".



Ja, es ist Spekulation. Dies hast du gut erkannt. Es ist aber nicht so eine an den Haaren herbeigezogene Spekulation, wie du es versuchst mit deinem übertriebenen Beispiel darzustellen.
 
Doch, nur vermute ich, dass die das Dingen wieder so hart an die Kotzgrenze takten werden bzw. müssen, um irgendwie mithalten zu können, sodass die Effizienz (stark) leiden wird. Ebenfalls vermute ich, dass die VII auch mehr als eine Vega64 verbrauchen wird.

Das die 2080 mit ihrem 8GB speicher an der kotzgrenze ist braucht man nichtmal vermuten das ist sicher.
Oder braucht man so eine karte um gerade so genug speicher für 1920x1080 zu haben.
 
Spiele in WQHD und hatte noch keine Probleme mit den 8 GB, muß ja laut deiner Aussage zum VRam dann auf deinem Monitor mit deiner Graka umspielbar sein alles. #Fehlkauf
 
Spiele in WQHD und hatte noch keine Probleme mit den 8 GB, muß ja laut deiner Aussage zum VRam dann auf deinem Monitor mit deiner Graka umspielbar sein alles. #Fehlkauf

Deshalb kauf ich mir ja die VII als Vega rauskam gabs wenige games die mehr als 8GB brauchten. Sind aber immer mehr geworden. Games die mehr brauchten spielte ich nicht in 4K.
Da wirklich unspielbar.
Deshalb ist die 2080 mit 8 GB ja ganz klar heute an der kotzgrenze. Jeder der das leugnet hat den schuß nicht gehört.
Gibt heute schon games die mit 8GB bei WQHD am limit sind und bei zu wenig ram einfach details weglassen
 
Zuletzt bearbeitet:
Wünsche mir generell das CF und SlI wieder bessere Unterstützung erhalten.
In 4K mit 2 solchen Karten und Unterstützung bei 90% der Spiele wäre ich glücklich.

aufgrund des großen vrams wäre so ein vega2 crossfire prinzipiell tatsächlich gut geeignet für 4k.

es ist aber dennoch nicht realistisch zu denken, das spiele deswegen nun deutlich besseren multi-gpu support bieten als bisher.

Gibt heute schon games die mit 8GB bei WQHD am limit sind und bei zu wenig ram einfach details weglassen

krass. bitte mal entsprechende quellen nachreichen.
 
Zuletzt bearbeitet:
aufgrund des großen vrams wäre so ein vega2 crossfire prinzipiell tatsächlich gut geeignet für 4k.

es ist aber dennoch nicht realistisch zu denken, das spiele deswegen nun deutlich besseren multi-gpu support bieten als bisher.
Ich hab doch nirgends gesagt das ich das für realistisch erachte.
Aktuell ist es halt so das es entweder vom Spiel unterstützt wird oder eben nicht!
Ich fänd es nur super wen sich die Lage zum Thema AFR wieder verbessern würde.

@Motkachler
Gib es auf die Leute orientieren sich nun mal gerne an Sekunden Benchmarks.
Das Thema Ram hat hier noch nie zum Ziel geführt.




Hier durch wird es in Zukunft auch nicht weniger Ram brauchen.
Demnach werden der Xbox eine Zen-2-CPU in der Konfiguration 8/16, eine Navi-GPU mit 12 Teraflops, 16 GiByte GDDR6-RAM/
Xbox Next: Spezifikationen samt Raytracing angeblich bestätigt
 
Zuletzt bearbeitet:
Ich hab doch nirgends gesagt das ich das für realistisch erachte.
Aktuell ist es halt so das es entweder vom Spiel unterstützt wird oder eben nicht!
Ich fänd es nur super wen sich die Lage zum Thema AFR wieder verbessern würde.

@Motkachler
Gib es auf die Leute orientieren sich nun mal gerne an Sekunden Benchmarks.
Das Thema Ram hat hier noch nie zum Ziel geführt.




Hier durch wird es in Zukunft auch nicht weniger Ram brauchen.

Xbox Next: Spezifikationen samt Raytracing angeblich bestätigt

Ja du hast recht die 1080 TI Hatte 11GB die 2080 hat nun 8GB. Was soll man da noch erwarten von leuten die da nicht merken das sowas ne lachnummer und nicht mehr ist.
 
Zuletzt bearbeitet:
750W Netzteil Empfehlung?? Kein Problem............860W Inside!!:bigok:

Bald aufm Marktplatz zu bekommen: Eine ASUS 2070 OC mit Mörder RTX!!
 
Das die 2080 mit ihrem 8GB speicher an der kotzgrenze ist braucht man nichtmal vermuten das ist sicher.
Oder braucht man so eine karte um gerade so genug speicher für 1920x1080 zu haben.

Deshalb kauf ich mir ja die VII als Vega rauskam gabs wenige games die mehr als 8GB brauchten. Sind aber immer mehr geworden. Games die mehr brauchten spielte ich nicht in 4K.
Da wirklich unspielbar.
Deshalb ist die 2080 mit 8 GB ja ganz klar heute an der kotzgrenze. Jeder der das leugnet hat den schuß nicht gehört.
Gibt heute schon games die mit 8GB bei WQHD am limit sind und bei zu wenig ram einfach details weglassen

Ist das wirklich alles so sicher, wie du es hier versuchst darzustellen? Was sind denn deine Referenzen? Kannst du deine Aussagen auch beweisen?
Ich meine, warum sollte ich deinen Worten glauben schenken, wenn diese doch nicht wirklich mehr als ein weil das ist so sind?

Sicher ist, dass erst seit dem Bekanntwerden der 16GB an VRAM bei der VII, die typischen Verdächtigen aus der AMD Fraktion anfangen, dies als das einzig Wahre - was bleibt denn da jetzt auch noch, um sich die Karte irgendwie schön zureden, nachdem der Joker "FreeSync" und auch das Preisargument weggefallen sind - zu predigen. Zuvor waren 8GB im Mainstream der Sweetspot und keiner hatte damit Probleme, aber jetzt auf einmal sollen die nicht mehr reichen.. Witzig, dabei predigt doch auch genau diese Fraktion im CPU-Bereich ständig, dass die ganze Software kaum über Kerne skaliert, schlicht und ergreifend weil es im Mainstream jahrelang nur 4 Kerner gab und die Mehrheit daher nicht mehr als 4 Kerne hatte. Wieso sollte sich Software auf der einen Seite an gegebene Hardware-Konfigurationen orientieren und auf der anderen Seite dann nicht mehr? Weil die Argumente gerade so ausgelegt werden, wie es einem passt?

Es gab doch bereits Karten mit mehr als 8GB VRAM zu kaufen. Wenn euch 8GB doch zu wenig sind/waren, warum habt ihr euch dann nicht bereits eine 1080ti oder gar Vega FE gekauft? Der Preis als Argument zählt nicht, zumindest bei der 1080ti, denn die hat damals ähnlich viel gekostet wie eine VII kosten soll und dies bei gleicher Leistung..


Gib es auf die Leute orientieren sich nun mal gerne an Sekunden Benchmarks.
Das Thema Ram hat hier noch nie zum Ziel geführt.


Hier durch wird es in Zukunft auch nicht weniger Ram brauchen.

Xbox Next: Spezifikationen samt Raytracing angeblich bestätigt

1. Ist mir bis jetzt noch kein Spiel untergekommen, wo ich bei 1440p mit 8GB VRAM Probleme hatte und die Details reduzieren musste, weil der VRAM ständig vollgelaufen ist.. Vielleicht Spiel ich auch einfach nur die falschen Spiele ¯\_(ツ)_/¯
2. Stehen die 16GB der GPU nicht alleine zur Verfügung, sondern dienen wie zuvor bei den Konsolen auch als RAM, oder hat sich da etwas geändert?
 
Deshalb ist die 2080 mit 8 GB ja ganz klar heute an der kotzgrenze. Jeder der das leugnet hat den schuß nicht gehört.
Gibt heute schon games die mit 8GB bei WQHD am limit sind und bei zu wenig ram einfach details weglassen

Interessant, welche Spiele wären denn das und vorallem nutzen diese Spiele die 8GB-VRAM richtig oder werden sie nur verschwendet weil kein Bock auf optimierung?
Gibt ja Spiele wie zb. ein paar COD Teile die extrem viel VRAM und RAM brauchten, aber aussehen taten die auch nicht besser als ältere und damalige Spiele.
 
Unglaublich............da wird wochenlang darüber disskutiert, das eine neue Graka zuviel Ram hat.:wall:

Wer weniger Ram will..............einfach Nvidia kaufen. So einfach kann das Leben sein.:bigok:
 
16GB RAM für GPUs ist erst gut, wenn es von NVIDIA kommt!

Manche "Trolle" denken hier leider wirklich so, echt schlimm:\

Ist ja nicht so, als ob der Wunsch nach mehr als 8GB nicht schon lange vor der Radeon 7 im Raum stand, das wünschten sich einige User schon vor über einem Jahr (zb. bei PCGH im Forum)...
 
Unglaublich............da wird wochenlang darüber disskutiert, das eine neue Graka zuviel Ram hat.:wall:

Laber doch nicht so einen Schwachsinn. Es wird eben nicht behauptet, dass eine Karte zu viel VRAM hat, sondern dass 8GB an VRAM plötzlich zu wenig sind.. :wall:

Argumente verzerren und so..
 
Bis Games mit 8Gb nicht mehr starten, wird es sicher noch etwas dauern, dennoch geht der Trend klar in Richtung 8G+ V-Ram.
 
Eigentlixch schlimm, alle paar Jahre der selbe Mist von den selben Leuten.

Als der Wechsel von 4GB auf 8GB anstand, wurde genau der selbe Mist gepostet.
Davor bei 2GB auf 4GB war es auch nicht besser.

Werden die Leute echt nicht klüger?
Man müßte doch nur auf seine Erfahrung zurückgreifen:\
 
selektive wahrnehmung trifft auf dunning-kruger.

bei der gtx680 wars doch auch schon so. "ääh, wozu 3gb vram, braucht doch kein mensch, scheiss amd".
dass dann n jahr später schicht im schacht war ging dann wohl irgendwie an einem vorbei. (man musste ja die 7970er 6gb-edition haten, da bleibt keine zeit für reflexion)
 
Bis Games mit 8Gb nicht mehr starten, wird es sicher noch etwas dauern, dennoch geht der Trend klar in Richtung 8G+ V-Ram.

Starten tun sie sicher. In World War 3 war in 1080p schon mit meiner Vega 64 dauernd der RAM am anschlag. Ich würde heute keine highend karte mehr mit 8GB kaufen.
Andere games wie the division stellen die Texturen runter wenn der RAM nicht reicht. Fing mit 8GB schon bei 2560×1080 an. Und werden sicher immer mehr Games die sich so verhalten werden bei den highend Speicherkrüppeln von NV. Wer mehr über Ramverbrauch wissen will sollte sich mal da umschauen.
Leserartikel - VRAM-Usage aktueller Titel | ComputerBase Forum
 
Zuletzt bearbeitet:
Bis Games mit 8Gb nicht mehr starten, wird es sicher noch etwas dauern, dennoch geht der Trend klar in Richtung 8G+ V-Ram.
klar, aber wenn man fett leistung hat, dann sollen auch alle regler nach rechts.
was bringen mir die schönsten effekten, wenn dann matschtexturen und mieses AA aufgefahren werden müssen?

macht doch keinen spass und sieht nicht besser aus wie mit einer karte für die hälfte vom geld.
(wobei es vielen ja auch mehr um den ego-boost durch den längsten benchmark-balken geht.)
 
Ja das ist echt ungerecht, AMD hat früh reagiert, um dem Missstand Einhalt zu gebieten und wird jetzt beschimpft. /:
 
Ja das ist echt ungerecht, AMD hat früh reagiert, um dem Missstand Einhalt zu gebieten und wird jetzt beschimpft. /:
Wie üblich halt........

Gesendet von meinem SM-G960F mit Tapatalk
 
Andere games wie the division stellen die Texturen runter wenn der RAM nicht reicht. Fing mit 8GB schon bei 2560×1080 an.]

also ich seh hier in division in 3840*2160 6gb vram belegt und in 2560*1440 4,5gb belegt
RTX 2080 THE DIVISION | 2160p/1440p/1080p/Ultra Settings | Frame Rate Benchmark Test - YouTube

aber bei dir sinds halt in 2560*1080 8gb und dann gibts texturmatsch, weil isso :fresse:



Ja das ist echt ungerecht, AMD hat früh reagiert, um dem Missstand Einhalt zu gebieten und wird jetzt beschimpft. /:

wer wird beschimpft? amd? wo denn?
 

Ähnliche Themen

D
Antworten
35
Aufrufe
2K
DTX xxx
D
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh