AMD präsentiert die Radeon RX 480 mit 500-US-Dollar-Leistung zum 199-US-Dollar-Preis

Status
Für weitere Antworten geschlossen.
Muss man dir jetzt nochmal vorrechnen, dass die Karte nicht unterhalb der 390 landen kann/wird?
So schwer ist das doch gar nicht, hier mal die Beiträge von anderen zu lesen und zu verstehen...

Und warum du das hinsichtlich der Treiber nicht verstehen willst bleibt auch dein Geheimnis.

Du meinst solche idiotischen FLOP Vergleiche, ohne die Hardwarespezifikationen überhaupt final zu kennen?:bigok:
Hm.. r9 390 5,1 TFLOPs, rx480 >5 Teraflops ( das sind die offiziellen Werte ).. 64 ROPs.. mhm vielleicht nur 32 ROPs..
hmmm... Hawai 512bit Interface Polaris 256bit Interface hmm... ich lach mich tot.

Immer alles besser wissen wollen und dann sind die eigenen Rechnungen noch absurder als meine spekulativen, anhand der realen Leistung in Spielen.:xmas:
Du willst doch nicht ernsthaft einfach nur die FLOPsis zählen, den Fehler haben schon viele gemacht.:)

Dann hätte eine HD 5870 ja 3x so schnell wie eine GTX 285 sein müssen.:sick:
Ich meine ich spekuliere ja schon sick, aber so sick wie es die anderen hier machen, das ist so sick wie Herpes.:fresse2:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bei den neuen Videos Doom und dem Hexer ist es ja sicher, dass es eine rx480 ist.:)

Eben wie gesagt, alles vorteilhafte wird von dir als unwahrscheinlich abgetan, aber sobald es für die 480 schlecht aussieht, nimmst du es als gegebenen Fakt hin. Is scho recht.

- - - Updated - - -

Du meinst solche idiotischen FLOP Vergleiche, ohne die Hardwarespezifikationen überhaupt final zu kennen?:bigok:
Hm.. r9 390 5,1 TFLOPs, rx480 >5 Teraflops ( das sind die offiziellen Werte ).. 64 ROPs.. mhm vielleicht nur 32 ROPs..
hmmm... Hawai 512bit Interface Polaris 256bit Interface hmm... ich lach mich tot.

Immer alles besser wissen wollen und dann sind die eigenen Rechnungen noch absurder als meine spekulativen, anhand der realen Leistung in Spielen.:xmas:

Ach also einerseits FLOP vergleiche sind nichtig, aber anhand von Busbreite oder ROPs zu vergleichen ist dann der richtige Weg? Ach komm hör doch endlich auf. Nach der Logik müsste ja selbst ne alte 580 noch mit ner 390X mithalten können.

Denn wir alle wissen ja, das Zusammenspiel der Teile, Dinge wie Kompression, Optimierung, Effizienz, das gibts alles nicht, ne? ;) Zumindest nicht, wenn es dir hilft, die 480 als Elektroschrott zu deklarieren.

Weißt was, ich habs satt. Auf die Liste, dann gehts meinem Blutdruck besser.
 
Zuletzt bearbeitet:
da gehört schon was dazu, mit der hardware hier so ne Meinung zu vertreten. da hat jemand massig Cojones

Ist ja kein Geheimnis, dass CD Project Red sich für AMD- Karten einen Sch*** gekümmert hat ;) Man muss sich nur mal die Benchmarks ansehen:
http://www.guru3d.com/index.php?ct=articles&action=file&id=22514
Da ist eine GTX 970 auf dem Niveau von einer 390X. Fimbim beispielsweise scheint alle anderen Benchmarks zu ignorieren - insofern ist in seiner Welt natürlich die RX 480 dann auf dem Niveau der GTX 970...
Aber wir brauchen uns nichts vormachen, mit AMD- Karten läuft das Spiel einfach richtig viel schlechter. Auch mit GTA V hat der Youtuber keinen Titel genommen, wo AMD die beste Figur macht. Würde er aktuellere Titel nehmen, bei denen auch AMD die Augen drauf hatte, dass die Karten ordentlich angesprochen werden, würde die Sache deutlich anders aussehen...
 
Ach, Schatzi. Ich hoffe für dich wirklich, dass du dich nur so ignorant stellst, um hier zu trollen. Das sagt zwar immer noch nichts positives über dich, aber wäre nicht ganz so verheerend.

Mir wäre es einfach zu peinlich mich auf das Treiberargument zu stützten und danach ein Video zu verlinken, in dem Far Cry 4 mit Grafiktreibern von 2011 getestet wird, zu einem Zeitpunkt wo nichtmal die Entwicklung des Spiels angefangen hatte.:xmas:
Und du unterstellst mir ich sei ein Troll, na nun gehts aber los.
 
Zuletzt bearbeitet:
1080 Niveau +-10 Prozent.
Ich weiss, in Roadmaps sollte man nicht zu viel interpretieren. Aber laut der GPU-Architektur Roadmap von AMD soll Vega ~50% mehr Performance pro Watt liefern als Polaris. Gepaart mit vielleicht 250 statt 150W TDP ist da theoretisch 2,5-fache Performance einer RX 480 drin. Selbst 2-fache Performance wäre nach aktuellem Kenntnisstand mehr als GTX 1080 +-10%. ;)


AMD unterstützt mit Polaris und GCN3 nur Directx12.0, Nvidia dafür Directx12.1 mit Pascal.
Das sind die typischen "Totschlagargumente" der Halbwissenden. DX12.1 ist mehr als DX12.0, also muss es besser sein. Genauso wie HD+ besser als HD ist, richtig? :rolleyes:

DX12.1 bietet im Wesentlichen 2 zusätzliche Features, CR und ROV. CR kann die Bildqualität verbessern, kostet aber Performance. ROV verbessert die Bildqualität nicht, kann aber die Performance verbessern. Beides ist im Moment relativ uninteressant für Spieleentwickler. CR ist noch zu "exotisch". Ob es sich in Zukunft lohnt, kann wohl auch noch niemand so richtig beurteilen. Und der Nutzen von ROVs muss auch erst noch in der Praxis nachgewiesen werden. Schwerwiegender sind da die fehlenden Features bei Nvidia, vor allem RB T3 und AS. Mal davon abgesehen wissen wir noch gar nicht, was GCN4 alles unterstützt.

von wegen Nvidias Directx12 Desaster
Tja, das trifft es aber eigentlich recht gut. DirectX 12 ist für Nvidia im Moment so ziemlich der heftigste Magenschmerzenverursacher. Nicht nur dass sie aufgrund ihrer veralteten Architektur davon kaum profitieren. Schlimmer ist, dass AMD davon umso mehr profitiert.

Nvidia schafft es ihre GPU´s bereits gut auszulasten, es ist kein asynchronous compute mehr nötig um die Einheiten besser auszulasten
Wie kommst du denn darauf, dass Nvidia ihre Einheiten besser auslastet? Nur mal als Beispiel, eine GTX 780 hat 50% mehr TMUs und ROPs als die R9 280X. Ist die GTX780 deshalb 50% schneller? Nicht wirklich. Wenn du Einheiten schreibst, dann meinst du vermutlich Shader, richtig? GPUs bestehen aber aus mehr als nur Shadern, gerade im Hinblick auf Spiele. Nvidia entwickelt seit Kepler ihre GPUs mit Schwerpunkt Gaming. AMD hingegen versucht einen Mittelweg aus Gaming und Computing zu finden. Deshalb verbauen sie auch mehr Shader. Das bedeutet aber nicht, dass ihre Einheiten schlechter ausgelastet werden. Ganz im Gegenteil, wenn sie genutzt werden können, dann werden sie auch gut ausgelastet. Auslastung von Einheiten ist wesentlich komplexer als du dir das vielleicht vorstellst. Hier gibt es eine recht einfache Veranschaulichung zu AS. Natürlich würde auch Nvidia von AS profitieren. Tja, wenn sie es denn nur in Hardware unterstützen würden. ;)
 
Zuletzt bearbeitet:
Ach also einerseits FLOP vergleiche sind nichtig, aber anhand von Busbreite oder ROPs zu vergleichen ist dann der richtige Weg?

Nö, beides. Was ich auch immer so gemacht hab.:rolleyes:

Wie dir vielleicht aufgefallen ist, sind die reinen FLOPS einer r9 390 und einer rx480 sich ziemlich nahe. 5,1 vs von mir aus 5,4 oder 5,5 TF.
Was könnte denn die theoretische Leistung der Karten limitieren? Richtig. Pixelfüllrate und Bandbreite.
Du kannst noch soviel Giga Tera Peta usw.. FLOPS haben. Wenn die Karte an der Bandbreite verhungert, dann bring dir das alles nix.
Aber sowas checkt ihr nicht, ich habs schon 20 mal gesagt und immer trolle ich und bin ganz phöse.
 
Zuletzt bearbeitet:
Mir wäre es einfach zu peinlich mich auf das Treiberargument zu stützten und danach ein Video zu verlinken, in dem Far Cry 4 mit Grafiktreibern von 2011 getestet wird, zu einem Zeitpunkt wo nichtmal die Entwicklung des Spiels angefangen hatte.:xmas:
Und du unterstellst mir ich sei ein Troll, na nun gehts aber los.

Ich habe kein Interesse an einer Diskussion mit dir. Der Punkt war ja auch nicht, dass das Szenario in dem Video 1 zu 1 übertragbar ist. Es geht darum, dass Treiber ganz allgemein sehr relevant für die Performance einer Karte sind. Und wenn einerseits Treiber für ein zu dem Zeitpunkt noch nicht veröffentlichtes Spiel signifikant schlechtere Performance bringen, warum kann das deiner Meinung nach umgekehrt nicht der Fall sein, also wenn Treiber mit noch nicht veröffentlichter Hardware verwendet werden?

Und: ja, du bist ein Troll. Oder einfach sehr ignorant. Such dir was aus.
 
Oh man ich hoffe einer erlöst das leidige Thema ein paar Tage eher...

War so schön ruhig jetzt gehts wieder ab.
 
Irgendwie immer alle gegen Fimbim :d

Ich hoffe die nächsten Tage kommen wirklich mal wahre Leaks raus, das man dann endlich weiß, wie gut die Karte ist.
 
Was alleine ein Treiber bei AMDs 390ern in Doom gebracht haben ignorieren hier einige scheinbar...

Neja, Doom ist nun ein Titel, der gerade frisch draußen ist... Um so warscheinlicher ist es, dass Treiberanpassungen FÜR diesen Titel getätigt werden. Das ist gang und gebe...
Hier gehts doch aber gerade um TW3... Ein Titel der schon Monate auf dem Markt ist und wo es besagte Treiberanpassungen schon gegeben hat. Warum sollte ein Treiber, der es schafft, die neue GPU überhaupt zum laufen zu bringen (ihr spekuliert ja drauf, dass der dortige Treiber ein Alter ist) nun gerade die TW3 Anpassungen NICHT im Bauch haben? So alt kann er eigentlich nicht sein... Wir sprechen hier über quasi ein ganzes Jahr.

Glaubst du wirklich, dass ein Treiber, der 12 Monate auf dem Buckel hat, mit Polaris überhaupt was anfangen könnte?
Und selbst wenn man es irgendwie hinmodden könnte -> dann unterscheidet sich wohl effektiv der Grundstock wohl recht wenig von den bisherigen GCN Generations. Andernfalls müsste der Jenige schon durchaus Einblick in die Technik haben, was von irgendwem, der mal nebenbei ein YT Video hochlädt, arg bezweifelt werden kann ;)

AMD hat es geschafft, dass die 290/390 die 980 gut einholt NUR mit Treibern...

Halte ich für ein Gerücht...
Gibt es dazu ansatzweise Belege? Ich sehe davon nix, was von einer Treiberabhängigkeit an dem Punkt spricht. Warscheinlich könntest du defakto auch Monate alte Treiber nutzen und neuere Titel skalieren ähnlich gut auf Hawaii ggü. Maxwell/Pascal/Kepler als mit nagelneuen wie auch ältere Titel ähnlich gut auf Kepler ggü. Maxwell/Pascal und Hawaii skalieren und das größtenteils unabhängig der Treiber.
 
Zuletzt bearbeitet:
Ne, die Treiber sind besser geworden, aber die Zusammenarbeit mit den Entwicklern auch, schaut man sich nur mal um:
 
Dann wäre die 470 auch interessant, je nachdem wie groß der Abstand zur 480 ist was Preis und Leistung angeht.
 
Nö, beides. Was ich auch immer so gemacht hab.:rolleyes:

Wie dir vielleicht aufgefallen ist, sind die reinen FLOPS einer r9 390 und einer rx480 sich ziemlich nahe. 5,1 vs von mir aus 5,4 oder 5,5 TF.
Was könnte denn die theoretische Leistung der Karten limitieren? Richtig. Pixelfüllrate und Bandbreite.
Du kannst noch soviel Giga Tera Peta usw.. FLOPS haben. Wenn die Karte an der Bandbreite verhungert, dann bring dir das alles nix.
Aber sowas checkt ihr nicht, ich habs schon 20 mal gesagt und immer trolle ich und bin ganz phöse.

Ab Tonga gibt es color compression, was mit GCN4 auch nochmal verbessert wurde...
Die Speicherbandbreite 1:1 mit GCN2 zu vergleichen wäre also grob falsch.
 
Zuletzt bearbeitet:
Jemand hat hier das Talent, die Stimmung die von einem verursacht wird - sich allerdings gelegt hat - wieder aufflammen zu lassen. :d
Permanent ist das sogar der Fall. Damit erreicht man genau das Gegenteil und macht es viel schlimmer. Und wenn das über einen längeren Zeitraum geschieht, macht man sich ungewollt Feinde.
Naja sei es drum. Aber soviele wie hier, musste ich noch nie auf die "Ignor-Liste" packen.
 
Zuletzt bearbeitet:
sind doch sowieso immer die selben die hier Stunk machen, und ich bin kein Mensch der irgendwelchen Stuss einfach so ignoriert.
aber hey den Grünen passiert hier nichts, sagt viel über die Abläufe hier im Forum aus.

ich kapiers nur nicht warum man, WENN man sich für das Produkt nicht interessiert, hier trotzdem rumtrollen muss, immer und immer wieder.

edit: ungewollte Feinde = Moderatoren?
hatte schon mit zu vielen Moderatoren das Vergnügen die ihre Macht missbrauchen um ihre eigene Meinung durchzusetzen und lächerliche Zensur verüben.
 
Zuletzt bearbeitet:
Das sind die typischen "Totschlagargumente" der Halbwissenden. DX12.1 ist mehr als DX12.0, also muss es besser sein. Genauso wie HD+ besser als HD ist, richtig? :rolleyes:

Danke für die Bestätigung, denn ich finde auch dass Directx12 im Allgemeinen mehr ist als nur asynchronous compute und Nvidia keinesfalls failt nur weil sie es nicht unterstützen.:)

DX12.1 bietet im Wesentlichen 2 zusätzliche Features, CR und ROV. CR kann die Bildqualität verbessern, kostet aber Performance. ROV verbessert die Bildqualität nicht, kann aber die Performance verbessern. Beides ist im Moment relativ uninteressant für Spieleentwickler.

Ja, ich stimme zu, nur was ich komplett anders sehe ist, dass das uninteressant sein soll.

GDC 2016 | Session Scheduler | F1 2015 Case Study: Enabling for Multi-Core and DX12 (presented by Intel)

Formel 1 2015 und Just Cause 3 bekommen einen Directx12 Patch mit ROVs. Asynchronous Shader funktionieren in Ashes of the Singularity und Hitman.

Ich sehe beides als interessant für Entwickler an.

Und der Nutzen von ROVs muss auch erst noch in der Praxis nachgewiesen werden.

Der von asynchronous Compute ebenso, bisher erreicht man ja weniger als 10% in Hitman und Ashes of the Singularity, bringts das jetzt?
Macht es das eine total uninteressant und das andere total interessant? Ganz ehrlich nicht die Bohne.
Du hörst dich an wie ein Vertreter.

Tja, das trifft es aber eigentlich recht gut. DirectX 12 ist für Nvidia im Moment so ziemlich der heftigste Magenschmerzenverursacher. Nicht nur dass sie aufgrund ihrer veralteten Architektur davon kaum profitieren. Schlimmer ist, dass AMD davon umso mehr profitiert.

Natürlich profitiert AMD davon, schließlich bremst deren Treiber ( was den Treiberoverhead angeht etwas ) zudem lassen sich die Karten dank asynchronous Compute bisschen besser auslasten.
Das zu einem Desaster zu machen, ist Fanboysprech, sowas sollte man unterlassen, genauso ist der Overhead von AMD unter Directx11 kein Desaster, man ist einfach nicht so schnell wie man könnte.

Wie kommst du denn darauf, dass Nvidia ihre Einheiten besser auslastet?

Vergleiche mal die FLOPS einer Fury X mit einer 980 Ti und schaue dir an wie schlecht AMD die Leistung auf die Straße bekommt.
Ist doch wohl offensichtlich, dass Nvidia die Einheiten deutlich besser auslastet und das Grundgerüst der Architektur bis zum heutigen Zeitpunkt einen anderen Ansatz verfolgt.
Bei AMD steigt beim Einsatz von Asynchronous Compute allerdings wieder der Stromverbrauch, wo da der Vorteil letztendlich sein soll?;)

Beide Ansätze sind gut und keiner verdient als als Magenschmerzverursacher oder Desaster angespriesen zu werden, dafür bringt es viel zu wenig Performance um wirklich irgendetwas zu ändern.
 
Zuletzt bearbeitet:
Tl,dr. Was los hier? :d
 
Nö, beides. Was ich auch immer so gemacht hab.:rolleyes:

Wie dir vielleicht aufgefallen ist, sind die reinen FLOPS einer r9 390 und einer rx480 sich ziemlich nahe. 5,1 vs von mir aus 5,4 oder 5,5 TF.
Was könnte denn die theoretische Leistung der Karten limitieren? Richtig. Pixelfüllrate und Bandbreite.
Du kannst noch soviel Giga Tera Peta usw.. FLOPS haben. Wenn die Karte an der Bandbreite verhungert, dann bring dir das alles nix.
Aber sowas checkt ihr nicht, ich habs schon 20 mal gesagt und immer trolle ich und bin ganz phöse.

tjoa, und selbst damit ists noch nicht getan, sonst wären Nvidias Karten viel langsamer als sie es aktuell sind.

Bandbreite kann hoch sein, bringt nix, wenn die Kompression scheiße ist, oder wenn enorm viele Kerne auf die Bandbreite treffen. Deswegen rennt zB ne 1080 eher ins mem limit als ne 1070.
Pixelfüllrate ist auch nur ein Indikator, aber ohne den Zusammenhang mit dem kompletten (!) rest der hardware und software genauso nutzlos.

Wenn es nur nach diesen Papierspecs ginge, wäre eine HD5870 OC halb an einer 390 dran. Und eine 7970 würde ne 970 einholen. Dass das nicht der Fall ist, liegt daran, dass die Werte noch so geil sein können, aber wenn irgendwo dazwischen oder daneben das Design so und so funktioniert, ändert sich auch die effektive Leistung.
 
Fimbim ich glaube du weißt nicht, dass Maxwell keine wirkliche Computefähigkeit besitzt während AMD deutlich mehr davon besitzt, deshalb höhere Flops.

Beispiel: es wurden bei den Bitcoin Anfängen NUR AMD Karten verwendet eben wegen diesem Grund. (wie es jetzt ist ka. hab es nicht weiter verfolgt)
 
Zuletzt bearbeitet:
Es geht darum, dass Treiber ganz allgemein sehr relevant für die Performance einer Karte sind.

Ja das sind sie mitunter wenn man Vergleiche über Jahre oder Monate hinweg zieht.
Wir sprechen hier von wenigen Wochen, dort tut sich nach aller Wahrscheinlichkeit sogut wie gar nichts, also ich verstehe nicht im entferntesten was dich daran stört, wenn ich das Argument des Treibers eher als nicht zutreffend sehe.
Du kannst es doch anders sehen, ich habe kein Problem damit.

tjoa, und selbst damit ists noch nicht getan, sonst wären Nvidias Karten viel langsamer als sie es aktuell sind.

Ja, Nvida hat eine excellente Speicherkompression auch schon bei Maxwell. AMD bei der Fury bei weitem nicht.

Dass das nicht der Fall ist, liegt daran, dass die Werte noch so geil sein können, aber wenn irgendwo dazwischen oder daneben das Design so und so funktioniert, ändert sich auch die effektive Leistung.

Ja, man müsste eben wissen ob 256 GB/s mit AMD´s Spezialkompression genausoviel wert sind wie 384gb/s ohne Kompression, ich habe meine berechtigten Zweifel.;)
 
Zuletzt bearbeitet:
Vergleiche mal die FLOPS einer Fury X mit einer 980 Ti und schaue dir an wie schlecht AMD die Leistung auf die Straße bekommt.

Da liegts an einem Designfehler im Backend, weniger an der grundsätzlichen Auslastung der Kerne. Deswegen holt Fiji bei höheren Auflösungen immer weiter auf.

Und zum Thema DX12: Async ist eins der wichtigsten Features und fördert bisher die Performance am meisten. Dabei gehts nicht nur um Hitman und AoS, sondern diese Tatsache wurde von diversen Entwicklerstudios bestätigt, u.a. welchen die für Konsole entwickeln, worin ja AMD GCN werkelt.
Und ob es nun nur knapp 10% bringt oder mehr, ist egal, denn Nvidia bringt es garnichts, die haben schlichtweg keinen Hardware Support für Async. Da ist n fetter Designfehler, und das weiß Nvidia. Sie versuchens aber zu vertuschen, indem sie Entwicklern erzählen "ne braucht ihr nicht, nehmts lieber nicht her, hier nehmt Gameworks Effekte, ist viel geiler".

Halt ne, eigentlich wollt ich dich ignorieren...
 
Wie dir vielleicht aufgefallen ist, sind die reinen FLOPS einer r9 390 und einer rx480 sich ziemlich nahe. 5,1 vs von mir aus 5,4 oder 5,5 TF.
Ich hab's dir schon mal vorgerechnet, aber gerne noch einmal:
2304*2*1266 = 5,83 TFLOPS, die 390 hat 5,12 TFLOPS. Macht eine Differenz von +14% für die 480.

Was könnte denn die theoretische Leistung der Karten limitieren? Richtig. Pixelfüllrate und Bandbreite.
Du kannst noch soviel Giga Tera Peta usw.. FLOPS haben. Wenn die Karte an der Bandbreite verhungert, dann bring dir das alles nix.
Aber sowas checkt ihr nicht, ich habs schon 20 mal gesagt und immer trolle ich und bin ganz phöse.
67234.png

290 (Hawaii)= 512bit und 256 GB/s Bandbreite
285 (Tonga)= 256bit und 176 GB/s Bandbreite

;)
 
Ja das sind sie mitunter wenn man Vergleiche über Jahre oder Monate hinweg zieht.
Wir sprechen hier von wenigen Wochen, dort tut sich nach aller Wahrscheinlichkeit sogut wie gar nichts, also ich verstehe nicht im entferntesten was dich daran stört, wenn ich das Argument des Treibers eher als nicht zutreffend sehe.
Du kannst es doch anders sehen, ich habe kein Problem damit, aber vielleicht hörst du mal auf mich zu beschimpfen, wie wäre das denn?

Du meinst so wie bei DOOM innerhalb weniger Wochen ein Treiber Fix kam? Oder die Treiber von sowohl AMD als auch Nvidia, die 2014 oder so in Dx11 deutliche boosts brachten, und das bei Nvidia doch sehr schnell, nachdem AMD vorlegte?

Du weißt nicht, wie lange die Änderungen am Treiber intern schon laufen, und ab wann sie erst im Treiber sind (wieso auch in nen Treiber packen, der eh noch nicht für die neuen karten ist?).

Ich denke die negative Haltung dir gegenüber von sehr vielen Leuten hier drin würde sich schlagartig ändern, wenn du aufhörst mit dem Cherry picking und dem ganzen krampfhaften verdrehen von tatsachen.
 
Ich hab's dir schon mal vorgerechnet, aber gerne noch einmal:
2304*2*1266 = 5,83 TFLOPS, die 390 hat 5,12 TFLOPS. Macht eine Differenz von +14% für die 480.

Und nochmal, die Karte hat einen Basistakt von 1120 mhz und einen Turbotakt von 1266 mhz.
Wenn AMD die Karte sparsam halten will, schwankt die Taktrate etwas.
Du bist offenbar auch so jemand, der immernur mit dem absoluten bestcase rechnet, ich rechne lieber mit ~1180mhz.
Dann bist du etwa bei 5,5 TF.;)

Und synthetische Benchmarks sagen gar nix. Die Grafikkarte hat weniger Pixelfüllrate und deutlich weniger Bandbreite.
Ob AMD das komplett ausgleichen kann, werden wir sehen, ich denke nicht.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh