AMD Radeon Vega Frontier Edition erscheint mit 16 GB HBM2 Ende Juni (Update)

Vielleicht bekommst du von all dem nichts mit, vielleicht interessiert es dich nicht, vielleicht denkst du, dass OS-Treiber immer noch die kleinen Wickelkinder von Nerds sind, die nur weil es OS ist genutzt wird und sie ansonsten eingeschnappt in der Ecke stehen, weil sie nichts anfassen wollen was CS ist. Aber die Zeiten haben sich geändert. Die OS-Treiber sind nicht nur konkurrenzfähig, sondern auch stabiler. Wir kommen so langsam in Bereiche, wo sich "Gamer" aus Leistungsgründen für Linux interessieren.

Das ist Quark^^^
1. wird der gemeine Gamer wohl nicht auf Linux umsteigen, aufgrund der beschissenen UX und Usability. Zudem laufen die meisten seiner Spiele nicht einmal native auf Linux und er weiß bestimmt nicht einmal, dass Linux existiert
2. trifft das mit der besseren Leistung des OS-Treiber nur bei Amd und nicht bei Nvidia. Liegt ganz einfach daran, dass beide Treiber von Amd schlecht performanen, nur der OS-Treiber etwas weniger schlecht :fresse:

Vergleich dazu einfach mal die RX 480 mit der GTX 980, die ja eine vergleichbare Leistung haben.
Hier: AMD NVIDIA: Open vs. Closed-Source Driver Performance - Phoronix


Sorry, Bullshit. Je mehr Leistung ich zur Verfügung habe, desto mehr mehr Effekte kann ich in eine Szene werfen, welche die BQ erhöhen. Gibt mir FP16 mehr Leistungsreserven, kann ich mehr Effekte in eine Szene bringen, was die BQ erhöht.

Sei es durch zusätzliche Polygone, mehr Licht- und Schatteneffekte, Partikel, Kantenglättung oder was auch immer ich für die eingesparte Leistung durch FP16 reinwerfe.

Und was in Gotten Namen meinst du mit "es ist NUR ein Skalierungsfaktor". Echt jetzt - fällt dir da nichts auf? BQ wird nicht besser, sie skaliert nur mit höherer Leistung, die durch FP16 freigemacht wird.

Wieso habe ich die Vermutung, dass du nicht einmal den Unterschied zwischen FP16 und FP32 kennst? :d
Dir ist schon bewusst, dass du an Genauigkeit verlierst und somit auch Bildqualität, da du bedingt durch die geringere Genauigkeit u.a mehr Artefakte bekommst. Auch hasst du nicht in jedem Szenario doppelte Performance, sondern nur im Best-Case! Siehe es mehr als ein bis zu doppelt so viele Efffekte.

Ich versuche dir mal sehr vereinfachtes Beispiel zur Veranschaulichung zu geben.
Stell dir Fp16 und Fp32 einfach mal so vor:
Fp16: 0.123
Fp32: 0.123456

Dann ein bisschen Mathe:
X = 1.00001
Y = 1.00002

Y - X
Fp16 = 0!!!!
Fp32 = 0.00001
Wie du siehst gehen hier bei fp16 Informationen verloren.


Hier mal ein paar Beispielbilder:

foot-big.jpg


FP16:
shader_nv40_16_2.jpg


F32:
shader_nv40_32_2.jpg



Bedenke, dass es sich hierbei um ziemlich alte Bilder handelt, sodass es keine großen Unterschiede zu sehen gibt, im Gegensatz zu heute, wo Spiele deutlich mehr Details haben und es so zu viel größeren Unterscheiden kommen würde.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mal der Reihe nach:

Das ist Quark^^^
1. wird der gemeine Gamer wohl nicht auf Linux umsteigen, aufgrund der beschissenen UX und Usability. Zudem laufen die meisten seiner Spiele nicht einmal native auf Linux und er weiß bestimmt nicht einmal, dass Linux existiert
Wäre relevant wenn es um die Marktsättigung gehen würde, der Streitpunkt war aber Versteckte Features in bestimmten Treibern und warum CS-Treiber angeblich besser sein sollen als offene.

Beide Punkte sind widerlegt, da der offene Treiber volle Funktionalität bietet UND performant ist.

2. trifft das mit der besseren Leistung des OS-Treiber nur bei Amd und nicht bei Nvidia. Liegt ganz einfach daran, dass beide Treiber von Amd schlecht performanen, nur der OS-Treiber etwas weniger schlecht :fresse:

Vergleich dazu einfach mal die RX 480 mit der GTX 980, die ja eine vergleichbare Leistung haben.
Hier: AMD NVIDIA: Open vs. Closed-Source Driver Performance - Phoronix

Arbeiten wir das doch mal ab:

https://www.phoronix.com/forums/forum/hardware/graphics-cards/949005-nvidia-geforce-gtx-1080-ti-windows-10-creators-update-vs-ubuntu-linux-gaming

In diesem Benchmark wird Windows mit Linux verglichen. Beachte bitte, dass geportete Spiele einen Leistungsverlust durch den Port haben - ungeportete hingegen bieten einen validen Vergleich zwischen den Betriebsystemen. Die nativen Spiele/Benchmarks im Parkour laufen auf beiden Betriebsystemen genauso schnell. Beides Nvidia CS, beides auf nativen Programmen = gleiche Performance. In diesem Fall ist der Superpositions-Benchmark eine gute Referenz, da die Spiele alle geportet sind. (Bis auf Open Arena, aber das lasse ich aus Fairness-Gründen mal raus)

Wir stellen also fest, dass das Betriebsystem + Treiber an sich keinen Einfluss auf die Performance hat, sofern die Softwaregrundlage identisch ist.

Weiter:
Von diesem Referenzpunkt auf die OS-AMD-Treiber:

Wir nehmen uns ein geportetes Spiel (Ich erklär dir gleich wieso) wie Deus Ex mankind divided und gucken uns hier mal die Leistung an:
https://www.phoronix.com/scan.php?page=article&item=rx470-412-172dev&num=2

RX 470:
64,8 FPS AMD OS 1920x1080 low
31.9 FPS AMD OS 1920x1080 ultra

Vergleich dazu Nvidia
1060: 63,6 FPS 1920x1080 low (sowohl die 1070 und die 1080 sind bei diesem Benchmark wohl in einem CPU bottleneck - wir können also nur sagen, dass die RX 470 hier marginal besser ist als die 1060)
1060: 33,2 FPS 1920x1080 ultra (hier scheint zu mindest die 1070 nicht im CPU bottleneck zu hängen - die 1060 ist hier marginal schneller als die oben gezeigte RX 470)

Quelle: https://www.phoronix.com/scan.php?page=news_item&px=DeusExMD-January-2017-RSI

In anderen Spielen zeigen sich ähnliche Ergebnisse.

Dein Artikel ist von Januar 2017, jetzt haben wir Ende Mai. Gibt dir das nicht etwas zu denken, wie schnell die OS-Treiber aufholen? Vor 2 Jahren haben die grad mal ~30% der Nvidia Performance erreicht, falls das Spiel überhaupt startete. Jetzt liegen sie in vielen Benchmarks Kopf-an-Kopf und überholen auf einigen wenigen Konfigurationen sogar die CS-Treiber - sowohl auf Linux als auch (In Relation gesetzt) auf Windows. (Hinweis: Native Anwendungen) Natürlich gibt es genauso viele Spiele in den Benchmarks, die noch hinterherjuckeln - die werden aber von Monat zu Monat weniger.

Nun ist es natürlich schon eine gewisse Grätsche Ports mit nativen Spielen zu vergleichen - deswegen hangeln wir uns ja auch von Ankerpunkt zu Ankerpunkt. Setzen wir diese Werte aber alle ins Verhältnis, sieht der jetzige OS-Treiber sehr sehr gut aus.

edit:
Nun könntest du natürlich argumentieren: "Wenn nur Port auf Linux rauskommen, warum sollte ich dann wechseln - ich kann ja direkt auf windows spielen und habe dann ein ungeportetes Spiel."
Die Antwort ist: Vulkan. In Spielen wo Grafikpracht kaum eine Rolle spielt (Strategiespiele wie CIV, Stellaris etc) kannst du einen OpenGL Port rüberwerfen und der läuft mit neueren GPUs auf >200 FPS. Da kräht kein Hahn mehr nach.

Bei Grafikknallern wie Metro, Star Citizen oder auch im weiteren Sinne das neue Mad Max macht es hingegen schon etwas aus, wie viele Ressourcen zu zur Verfügung hast und ob die damit noch die 60 FPS erreichst. Und genau hier setzt Vulkan an und ist für die Spielestudios von essentieller Bedeutung, da bessere Grafik = mehr Verkäufe bedeuten.

Ein weiterer Faktor ist, dass Linux-Distributionen wie Ubuntu selbst von Leuten bedient werden können, die keine bis wenig Ahnung von Computern haben. Dort gibts einen auto-updater und schwupps hast du einen neuen Kernel + neue Treiber... wie unter Windows.

Wieso habe ich die Vermutung, dass du nicht einmal den Unterschied zwischen FP16 und FP32 kennst? :d
Weil du Spaß daran hast mir sowas zu unterstellen?

Dir ist schon bewusst, dass du die Hälfte an Genauigkeit verlierst und somit auch Bildqualität, da du bedingt durch die geringere Genauigkeit u.a mehr Artefakte bekommst.
Und dir ist schon bewusst, dass dir FP16 die Möglichkeit gibt alle Effekte, bei denen Artefakte nicht sichtbar sind eine Leistungseinsparung ermöglichen? Ich habe die Vermutung, dass du nicht einmal den Unterschied zwischen objektivem Fehler und Wahrnehmungsgrenze kennst. (Na? Machen diese passiv aggressiven Unterstellung Spaß? Oder findest du sie doof?)

Auch hasst du nicht in jedem Szenario doppelte Performance, sondern nur im Best-Case! Siehe es mehr als ein bis zu doppelt so viele Efffekte.
Da wäre ich ohne deine Hilfe jetzt nicht drauf gekommen. :fresse:

Mal im Ernst: Einige Effekte werden FP32 bleiben, weil du dort die auflösung brauchst, einige Effekte werden FP16, weil du dort die Auflösung NICHT brauchst. Dort, wo du Rechenpower einsparen kannst, kannst du an einer anderen Stelle wieder mehr draufpacken - bis die GPU ausgelastet ist.

Aber das wusstest du schon, oder? Ich auch.



Ich versuche dir mal sehr vereinfachtes Beispiel zur Veranschaulichung zu geben.
Stell dir Fp16 und Fp32 einfach mal so vor:
Fp16: 0.123
Fp32: 0.123456

Dann ein bisschen Mathe:
X = 1.00001
Y = 1.00002

Y - X
Fp16 = 0!!!!
Fp32 = 0.00001
Wie du siehst gehen hier bei fp16 Informationen verloren.


Hier mal ein paar Beispielbilder:

[Bild]

FP16:
[Bild]

F32:
[Bild]


Bedenke, dass es sich hierbei um ziemlich alte Bilder handelt, sodass es keine großen Unterschiede zu sehen gibt, im Gegensatz zu heute, wo Spiele deutlich mehr Details haben und es so zu viel größeren Unterscheiden kommen würde.
Ich möchte dir mal etwas anderes zeigen, etwas... neueres:
https://www.reddit.com/r/starcitizen/comments/3ogi3o/im_an_tech_artist_in_the_industry_and_id_love_to/

Da hat sich mal jemand Zeit genommen zu zeigen, wie sehr der Einfluss von guten und neueren Technologien auf die Bildqualität wirken kann. Nimm das bitte als so etwas wie eine Inspiration, wie man mit Hilfe von etwas Hirnschmalz und Zeit richtig tolle Sachen erschaffen kann. Ich bin kein Entwickler bei CIG, aber die Technologie die dort rausgebracht wird, ist absolut wahnsinnig. Auch sowas hier:https://www.youtube.com/watch?v=Bbq2Crt8pTA&feature=youtu.be&t=6m47s zeigt wie sehr das Ausnutzen neuer Techniken dir Möglichkeiten gibt Spiele zu gestalten, die mit bisherigen klassischen Methoden nicht möglich waren.

FP16 ist ein weiteres Tool in der Werkzeugkiste für Spielenentwickler die Grenzen zu erweitern - und das sage nicht ich, sondern Leute die damit arbeiten - ID-Software, Bethesda etc...
 
Zuletzt bearbeitet:
Schönes Argument, sehr objektiv, unpersönlich und sehr gut begründet.

Lass mal gucken?
Nö, ist eine Feststellung... Und die muss ich nicht begründen ;)
Mal davon ab, du verdrehst die Faktenlage... ICH sagte, dass der Profitreiber alles andere als Gamingoptimiert ist und der Gamingtreiber Sachen aus dem Profibereich nicht inkludiert hat. DAS ist die Ausgangslage.
Wie kommst du nun auf das schmale Brett die Reihenfolge zu drehen? Bleibt doch bitte bei der Faktenlage.

Linux/OpenSource spielen dabei immernoch keine Rolle. Ebenso wenig wie es eine Rolle spielt wer hier was und in welcher Art nutzt.
Aber genau das ist das Problem. Ihr wollt hier auf biegen und brechen recht haben und dreht die Aussagen solange bis es passt... Dabei merkt ihr noch nichtmal, das A) die Aussage selbst irrelevant im Kontext ist und B) gar nicht zur Diskusion stand. Das nervt einfach nur. Mal davon ab, kennst du Game of Thrones?
-> "Any man who must say, "I am the king" is no true king"
Ich sag nur "ich habe mehr Ahnung von der Linux-Performance von AMD Karten als du - denn ich nutze sie unter Linux."

Sorry Sonnenschein, was du von mir denkst ändert nichts an den Fakten und ja, ich denke ich habe mehr Ahnung von der Linux-Performance von AMD Karten als du - denn ich nutze sie unter Linux.
schön für dich... Und es ändert immernoch nix an der Aussage, dass der Profi-Treiber alles andere als Gamingoptimiert ist sowie der Gamertreiber idR nicht alle Profimarktrelevanten Sachen im Bauch hat. Ebenso wenig, dass allein dieser Umstand reichen könnte um die Aussage von AMD, nämlich Gaming-Vega hat mehr Performance als der gezeigte Profi-Ableger, zu bestätigen...

Um es dir nochmal zu verdeutlichen. Der OpenSource Treiber war nie Thema!!! Weder pro noch kontra... WAS willst du also bitte bezwecken!?

Sorry, Bullshit. Je mehr Leistung ich zur Verfügung habe, desto mehr mehr Effekte kann ich in eine Szene werfen, welche die BQ erhöhen. Gibt mir FP16 mehr Leistungsreserven, kann ich mehr Effekte in eine Szene bringen, was die BQ erhöht.

Zum Markierten, Richtig... Das _kannst_ du tun.
War aber nicht die Aussage... Deine Aussage war "Wenn du dank FP16 2x so viele Effekte einfügen kannst als bei FP32, dann hast du auf einmal gefühlt 3 Generationen Grafikpracht-GPU-Aufrüstung durch Software realisiert."
Weder kannst du 2x so viele Effekte einfügen noch steigt zwangsweise die BQ durch das reine "mehr" an Effekten...
Warum das so ist, habe ich ausgeführt -> ich nenne es einfach mal den "PhysX Effekt", mehr Effekte, mehr Partikel, mehr Bewegung heist nicht zwangsweise mehr BQ. Es kann auch übertrieben viel und damit unstimmig sein -> was zu einer schlechteren BQ im Gesamten führt.
Denn Qualität ist subjektiv. Und etwas subjektives misst sich nicht nach der Anzahl von irgendwas. Wenn doch, dann dürfte es dir bestimmt leicht fallen, entsprechende Messmethoden, Ergebnise, Studien oder ähnliches dazu vorweisen zu können!? Ich halte es aber für äußerst schwierig, subjektives Empfinden über BQ anhand von Effektanzahl zu bestimmen... Und jede Wette, was MIR gefällt, musst nicht zwangsweise auch DIR gefallen ;) Müsste es aber, wenn Effektanzahl = mehr BQ bedeutet/bedeuten würde... -> ergo, Aussage mal wieder widerlegt.

Mit solchen Aussagen habe ich halt ein Problem. Und danke auch an Shevchen für die Erklärung. Ich sehe das eigentlich genauso.
Wie soll ich da noch sachlich argumentieren? - Du verlangst Sachlichkeit, und wenn eine Grafikkarte mit 2 8GiB-HBM2-Stacks auftaucht, war Deine vorher geäußerte Skepsis bezüglich der 8GiB-Stacks plötzlich auf die Gamerversion beschränkt gewesen. Ich habe mit knapp über 300€ für den kleinsten Ryzen-Oktacore spekuliert, Du hast es für absolut unrealistisch gehalten und mindestens 800€ für den i7 6900K-Gegner angegeben. Der kleinste kostet jetzt 320€, der teuerste 470€. Ich wette, Du hast jetzt auch schon wieder eine Erklärung parat, wie Du das eigentlich gemeint hast, damit es wieder stimmt.

Trenn doch mal die Themenfelder... Eine Spekulation über Preise ist das eine -> und ja, Ryzen ist überraschend niedrig gestartet. Im Nachgang aber auch ein Stück weit "nachvollziehbar", denn es ist nicht der Überryzen, der den 6900k in den Arsch tritt, sondern der solide Ryzen ohne EE-Aufschlag. Der hochpreise Ryzen mit AMDs "EE" Aufschlag kommt ja erst noch ;) Und Niemand hat damals einen Dual NUMA Ryzen mit 12-16C auf dem direkten Schirm gehabt... AMD wird das Preissegment also besetzen, wie seinerzeit angenommen. Nur mit anderen Produkten. Was ja auch kein Problem ist...
Was die 8-Hi Stacks angeht, niemand hat diese ausgeschlossen... Erfinde doch nicht einfach irgendwas, was dir in den Kram passt. Ich sprach die ganze Zeit von Warscheinlichkeiten. Und die ganze Zeit schon davon, dass dies für das Gamermodell eben unwarscheinlich ist. Da du ja so davon überzeugt ist, kannst du mir doch auch die Beiträge zeigen, wo ich da nun anders argumentiere!?

Übrigens mal was aus dem Nähkästchen:
"Auch bei Vega erwarte ich deshalb mindestens 16GiB VRAM, sonst ist der alte Vorteil vom größeren VRAM bei AMD hinüber und ein Hauptkriterium für mich verflogen." -> Deine Aussage am 07.01.2017
"Es wäre bei HBM bspw. technisch denkbar, dass man anstatt wie heute bei Fiji 4x HBM Stacks zu je 1GB Größe einfach nur einen, oder zwei verbaut. Die Bandbreite wäre geringer, das ist klar, allerdings ist diese bei so einem vierer HBM Stack schon derart groß, dass selbst die Fiji GPU mit 4096 ALUs daraus wenig bis keinen direkten Vorteil ziehen kann. In der nächsten HBM "Generation" aka Marketingtechnisch HBMv2 geschimpft, sind variable Größen der HBM Stacks geplant. Bis zu 32GB auf vier Stacks in Summe. Macht bei einem Stack immernoch 8GB, welcher dann mit (je nach Taktrate) ca. 256GB/sec angebunden wäre." -> Meine Aussage 05.12.2015
Zwar in einem leicht anderen Kontext, aber soviel zum Thema mit deinen 16GB auf zwei Stacks!
Nicht immer ist das, was nicht da steht auch automatisch das, was angenommen wird! Solltest du mal beherzigen ;)


Wahrscheinlich mehr als Du denkst, aber das ist mein privater Account, der Nickname ist mindestens 15 Jahre alt und damit habe ich auch einiges an Zeug geschrieben, das ich nicht mit meiner aktuellen Tätigkeit in Verbindung bringen kann.

Vielleicht habe ich Dir ja in dem Punkt, den Du ansprichst, gar nicht widersprochen. Diese ständige Grundunterstellung stört mich einfach.
Zum ersten, halte ich für ein Gerücht... Denn sonst würdest du nicht so einen Unsinn hier zum Teil ablassen. Sorry, aber man merkt schon wenn jemand einen gewissen Bezug bei Softwareentwicklung hat oder nur irgendwelche aufgeschnappten Sachen nachplappert.

Zum zweiten, ja doch... Sagte ich doch oben bereits. Kein Mensch stört sich an Diskusionen über Themen im gegenseitigen Gespräch. Aber es macht die Art und Weise die Musik. Wenn ich (siehe oben) sage, dass der Treiber für Leistungsunterschiede sorgen kann, ohne dies konkret (und das war mit voller Absicht) auf ein Beispiel runterzupressen und du mit der Aussage, unter Linux mit OpenSource und diesen und jenen Bedingungen ist das warscheinlich!!! nicht so kommst, ist das nunmal ein Widerspruch. Bringt auch nix, das nun abzustreiten... Genau aus den genannten Gründen bezweifel ich übrigens auch, dass du irgendwas mit Softwareentwicklung am Hut hast geschweige denn, irgendwas mit Treiberprogrammierung und schon gleich gar nicht mit VRAM Management. Dir wären es schlicht und ergreifend geläufig, dass es da Unterschiede in den verschiedenen Treibern, auch bei AMD!!! gibt... Und um nichts anders ging die Aussage. Völlig allgemein, völlig wertungsfrei. Ohne Vorurteil und vor allem, ohne irgendwie AMD dumm dastehen zu lassen...



So genug OT.
Analyse: AMD und die Kunst des Benchmarkings | heise online
Was haltet ihr hiervon? Ist mir beim Lesen von heise.de News über den Weg gelaufen... Mir stellt sich die Frage, hat Vega wirklich so eine Trickersei nötig? Im Vergleich zu Ryzen ist das schon arg hingekünstelt... Von Rechenfehlern beim Zusammenzählen ganz zu schweigen!?

Wäre relevant wenn es um die Marktsättigung gehen würde, der Streitpunkt war aber Versteckte Features in bestimmten Treibern und warum CS-Treiber angeblich besser sein sollen als offene.

NEIN, ganz klar NEIN. Das war nie der Standpunkt... Genau deswegen ist es so häufig der Fall, warum man hier aneinander vorbei redet. Erfinde(t) doch nicht immer irgendwelche Standpunkte, die überhaupt nicht Aussage waren!!!
Mal davon ab, dass es mal wieder weit weit am Thema vorbei geht... Das Thema war AMDs Aussage, Gamer-Vega wird schneller als der gezeigte Profiableger. Und wie (in meinem Fall zumindest) man das erreichen kann. Nämlich unter Umständen schon mit verschiedenen Treibern anstatt mit Takterhöhungen.
OpenSource und Linux ist/war NIE Thema!!!
Wenn du dich über OpenSource Treiber und Linux auslassen willst. Bitte. Mach das, aber nicht hier... Es ist OT
:btt:


EDIT: Entferne zudem den Bilderquote!
 
Zuletzt bearbeitet:
Wenn ich (siehe oben) sage, dass der Treiber für Leistungsunterschiede sorgen kann, ohne dies konkret (und das war mit voller Absicht) auf ein Beispiel runterzupressen und du mit der Aussage, unter Linux mit OpenSource und diesen und jenen Bedingungen ist das warscheinlich!!! nicht so kommst, ist das nunmal ein Widerspruch.
Ja - das liegt eben daran, dass der OpenSource-Treiber für alle Karten der gleiche ist, und erst mal fast nur die Features interessieren, die für Spiele wichtig sing. OpenGL kann man so ziemlich als fertig implementiert ansehen, letzte Woche kam noch verbessertes Multi-Threading hinzu, was den Treiber vielleicht schon, wie von Shevchen angedeutet, langsam auf das Niveau des Closed-Source-Nvidia-Treibers bringt. Besser als der proprietäre AMD-Treiber ist er ja schon eine Weile lang.
Dir wären es schlicht und ergreifend geläufig, dass es da Unterschiede in den verschiedenen Treibern, auch bei AMD!!! gibt...
Ich bezweifle, dass aktuell irgendwas im OpenSource-Treiber drin ist, was nur bei der Profikarte geht. AMD hat natürlich auch bei den Projekten nicht so viel Einfluss, wie bei ihrem Closed-Source-Treiber. Bei OpenSource implementiert man alle Funktionen der Hardware - wenn etwas nicht geht, dann nur, weil es im Chip weggelasert wurde, oder noch nicht implementiert ist.



Ich denke, die Kommentare sagen bereits viel aus. Wenn ich 20 Messwerte habe, und den Mittelwert der Summe 100 berechnen will, kommt 5 raus. Wenn die andere Karte in der Summe auf 120 kommt, kommt 6 raus. Ob ich nun die Summen ins Verhältnis setze, oder den Mittelwert aus jeweils gleich vielen Messwerten, ist ja egal, denn das Verhältnis bleibt gleich. Deshalb kann ich dem Heise-Artikel substanziell nur abgewinnen, dass die Angaben von AMD in Millisekunden ungewöhnlich sind, und eventuell nicht taugen, um darzustellen, wie gut Vega im Verhältnis zu den Nvidia-Karten ist. Aber man ist es ja von AMD gewohnt, dass teilweise sogar ganz offensichtlich völlig hirnrissige Anhaltspunkte zur Leistung kommen - einfach weil AMD wahrscheinlich gar nicht mehr will, dass Leute sich vorher ein Bild machen können(Stichwort Bulldozer), sondern später die Benchmarks sprechen lassen möchte, und dann einfach den Preis nach dem Bedarf ausrichtet.
 
Zuletzt bearbeitet:
Nö, ist eine Feststellung... Und die muss ich nicht begründen ;)
Mal davon ab, du verdrehst die Faktenlage... ICH sagte, dass der Profitreiber alles andere als Gamingoptimiert ist und der Gamingtreiber Sachen aus dem Profibereich nicht inkludiert hat. DAS ist die Ausgangslage.
Wie kommst du nun auf das schmale Brett die Reihenfolge zu drehen? Bleibt doch bitte bei der Faktenlage.

"muss ich nicht begründen" :haha:

fdsonne schrieb:
Ich sehe es so, die Profimarkt-Treiber sind alles andere als Gameing-Optimiert. Genau so wenig wie die Gaming Treiber alle Sachen für den Profimarkt inkl. haben...
Das ist bei NV auch nicht anders...
Übersetzt: AMD-Treiber lassen Profi-Funktionen bei Gaming-Treiber raus und Gaming-optimierungen bei Profi-Treibern - wie bei Nvidia.

oooverclocker schrieb:
Steckt man die gleiche Karte bei Linux rein, und nutzt den OpenSource-Treiber, wird sie wahrscheinlich gleich schnell wie ein Consumer-Modell laufen.
Stimmt - denn Open Source Treiber limitieren nicht künstlich.

oooverclocker hat Recht - und es ist mir ehrlich gesagt egal, ob du dich dabei auf die "Profi-Treiber" beziehst, oooverclocker bezieht sich auf die OS-Treiber.



Linux/OpenSource spielen dabei immernoch keine Rolle. Ebenso wenig wie es eine Rolle spielt wer hier was und in welcher Art nutzt.
Aber genau das ist das Problem. Ihr wollt hier auf biegen und brechen recht haben und dreht die Aussagen solange bis es passt...
Nö, du willst recht haben, wir haben Argumente. Fang doch mal an die zu widerlegen, anstatt wie ein getroffener Hund jedem ans Bein zu pissen. Aber ich zitiere dich mal "Nö, ich muss nix begründen" - kannst du auch nicht, weil du keine Argumente mehr hast - nur noch Unterstellungen. Wie zum Beispiel:


Dabei merkt ihr noch nichtmal, das A) die Aussage selbst irrelevant im Kontext ist und B) gar nicht zur Diskusion stand.

Und nach dieser Nebelkerze kommst du gleich wieder mit der Behauptung, die schon 2x widerlegt worden ist:



schön für dich... Und es ändert immernoch nix an der Aussage, dass der Profi-Treiber alles andere als Gamingoptimiert ist sowie der Gamertreiber idR nicht alle Profimarktrelevanten Sachen im Bauch hat.
... was bei OS-Treibern nicht der Fall ist - etwas, das oooverclocker angesprochen hat und worauf du kein Gegenargument hast. Deswegen winkst du es as irrelevant ab, weil du davon halt keinen blassen Schimmer hast.

Ebenso wenig, dass allein dieser Umstand reichen könnte um die Aussage von AMD, nämlich Gaming-Vega hat mehr Performance als der gezeigte Profi-Ableger, zu bestätigen...
Oder Profi-Vega auch mit "Gaming-Treibern" läuft. Und dann würde es nur noch am Takt liegen. Du versuchst hier mit einer Eventualität einen Sachverhalt zu erzeugen, der völlig unbekannt ist.


Um es dir nochmal zu verdeutlichen. Der OpenSource Treiber war nie Thema!!! Weder pro noch kontra... WAS willst du also bitte bezwecken!?
Der OS-Treiber ist nicht DEIN Thema, dafür aber meines, das von oooverclocker und allen anderen die mitlesen und sich evtl. dafür interessieren. Du bist nicht der Gott von Themas, du hast keine Meinungsmacht und diktieren kannst du mir auch nix. Was willst DU also damit bezwecken Leuten ins Wort zu fallen zu behaupten, OS-Treiber seinen nicht relevant? Für dich nicht! SCHÖN für dich.


Zum Markierten, Richtig... Das _kannst_ du tun.
War aber nicht die Aussage... Deine Aussage war "Wenn du dank FP16 2x so viele Effekte einfügen kannst als bei FP32, dann hast du auf einmal gefühlt 3 Generationen Grafikpracht-GPU-Aufrüstung durch Software realisiert."
Weder kannst du 2x so viele Effekte einfügen noch steigt zwangsweise die BQ durch das reine "mehr" an Effekten...

https://www.golem.de/news/id-software-naechste-id-tech-setzt-massiv-auf-fp16-berechnungen-1704-127494.html

Warum das so ist, habe ich ausgeführt -> ich nenne es einfach mal den "PhysX Effekt", mehr Effekte, mehr Partikel, mehr Bewegung heist nicht zwangsweise mehr BQ. Es kann auch übertrieben viel und damit unstimmig sein -> was zu einer schlechteren BQ im Gesamten führt.

Jupp, die Leute bei id-Software sind auch alles Idioten. lol
Erzähl mire doch bitte mal, warum die Entwickler, die damit arbeiten sich so viel davon versprechen, wenn es so irrelevant ist. Und nur weil ein inkompetentes Studio das mal so richtig schön verkackt hat, macht es das eigentliche Werkzeug nicht schlecht.

Denn Qualität ist subjektiv. Und etwas subjektives misst sich nicht nach der Anzahl von irgendwas.
Nein, das misst man mit Vergleichstests bis der Fehler für den Menschen nicht mehr wahrnehmbar ist. So funktionieren alle verlustbehafteten Kompressionsalgorithmen in Audio und Video.

Wenn doch, dann dürfte es dir bestimmt leicht fallen, entsprechende Messmethoden, Ergebnise, Studien oder ähnliches dazu vorweisen zu können!?
MP3, AAC, Jpeg... bitte.

Ich halte es aber für äußerst schwierig, subjektives Empfinden über BQ anhand von Effektanzahl zu bestimmen...
Dafür gibts ja zum Glück die Leute, die an den Spielen arbeiten um das zu bewerten. Das wird dann aber die Zukunft zeigen und ist weder für dich noch für mich jetzt beurteilbar, da es noch keine Spiele gibt, die JETZT mit FP16 arbeiten. Was man hingegen machen kann ist zu den Entwicklern zu gehen, die zu fragen "Ey du da! Findest du FP16 cool oder Bullshit?" und deren Antwort anzuhören. Die klingt nur leider alles andere als irrelevant.

Und jede Wette, was MIR gefällt, musst nicht zwangsweise auch DIR gefallen ;) Müsste es aber, wenn Effektanzahl = mehr BQ bedeutet/bedeuten würde... -> ergo, Aussage mal wieder widerlegt.
Das ist richtig, meine Wahrnehmungsgrenze ist unterschiedlich zu deiner. Genauso wie es Leute gibt, die den Unterschied zwischen 60 Hz und 120 Hz nicht wahrnehmen können, während es andere dann wieder doch bemerken, gibt es unterschiedliche Stufen der Kompression. Diese werden bei statistischen Verfahren gerne in Intervalle abgestuft, wie 99%, 95% und 50% Wahrscheinlichkeit der Wahrnehmung von Artefakten und entsprechend die Parameter gesetzt (das ist der menschliche Ansatz), oder sie werden mit Hilfe von technischen Parametern gesetzt, wie 64 kbps, 128 kbps, 256 kbps.

In Spielen gibt es eine Kombination aus diesen, wie Details "niedrig, mittel, hoch, ultra" - diese werden nach Evaluation von Untersuchungen gesetzt, bzw technisch wie 16xAA. Du hast also recht, wenn du sagst, dass du deine eigene Aussage widerlegt hast, denn die subjektive Einstellungsmöglichkeiten in Spielen können bei schwächeren Grakas zu einer Steigerung der subjektiven BQ führen, wenn ich die Parameter zu meinem persönlichen Empfinden optimiere - bis die Leistung der Graka ausgelastet ist.





NEIN, ganz klar NEIN. Das war nie der Standpunkt... Genau deswegen ist es so häufig der Fall, warum man hier aneinander vorbei redet. Erfinde(t) doch nicht immer irgendwelche Standpunkte, die überhaupt nicht Aussage waren!!!
Siehe oben. Du hast behauptet, Profi-Treiber haben evtl. keine Gaming-Optimierung und deswegen laufen Profi-Karten evtl. langsamer.

OS-Treiber sparen nicht an Funktionalität und ergo haben die die Fähigkeit, genauso schnell in Spielen zu laufen wie ihre "Gaming-Ableger", sofern der Chip identisch ist.
Kurz: Profi-Karten können Gaming-Karten sein, wenn der Treiber die Gaming-Optimierung aktiviert hat, was bei Profi-Karten mit Hilfe von OS-Treibern möglich ist.

Mal davon ab, dass es mal wieder weit weit am Thema vorbei geht... Das Thema war AMDs Aussage, Gamer-Vega wird schneller als der gezeigte Profiableger. Und wie (in meinem Fall zumindest) man das erreichen kann. Nämlich unter Umständen schon mit verschiedenen Treibern anstatt mit Takterhöhungen.
Tja - das Gegenargument IST aber halt

OpenSource und Linux

Was für dich OT ist, ist für mich relevant. Und nochmal: Du hast keine Meinungmacht.
 
Zuletzt bearbeitet:
Wäre relevant wenn es um die Marktsättigung gehen würde, der Streitpunkt war aber Versteckte Features in bestimmten Treibern und warum CS-Treiber angeblich besser sein sollen als offene.

Nein irgendwie ja nicht :d Siehe Beitrag von fdsonne
Und auch der geqoutete Part sagt das nicht aus.
Irgendwie scheinst du ziemlich oft Fakten zu verdrehen oder drückst dich nur schlecht aus, da dich öfters welche falsch verstehe :fresse:

"Die OS-Treiber sind nicht nur konkurrenzfähig, sondern auch stabiler. Wir kommen so langsam in Bereiche, wo sich "Gamer" aus Leistungsgründen für Linux interessieren."

... Quark voller Widersprüche....

Schön, dass du mehrere verschiedene Benchmarks durcheinander haust, auch einen aus Januar 2017 :d

Wir stellen laut einem deiner Benchmarks fest: Betriebssystem muss bei Nvidia (nicht AMD!!!) nicht unbedingt einen Einfluss auf die Performance haben, solange es kein Port ist!
Schon ein Unterschied zu deiner Aussage :)

Schreibst selber, dass Ports einen Leistungsverlust haben und argumentierst dann mit einem Port.... Really?!
Es Lohnt sich nicht wirklich weiter auf den Quark einzugehen.


Ein weiterer Faktor ist, dass Linux-Distributionen wie Ubuntu selbst von Leuten bedient werden können, die keine bis wenig Ahnung von Computern haben. Dort gibts einen auto-updater und schwupps hast du einen neuen Kernel + neue Treiber... wie unter Windows.

Aber dann hast du nicht deinen tollen OS-Treiber :fresse:

Weil du Spaß daran hast mir sowas zu unterstellen?

Meine sadistische Ader sagt: JA!

Spaß beiseite, nein einfach weil du mit deinen Beiträgen deutlich zeigst, dass du keine Ahnung von Softwareentwicklung hast, vielleicht deshalb?
Oder weil du es so darstellst als hätte man durch Fp16 keine Nachteile und es wäre die Lösung für alles?!

Oder du sowas schreibst : "Grafik ist ein Hauptverkaufsargument für jedes AAA Spiel. Wenn du dank FP16 2x so viele Effekte einfügen kannst als bei FP32, dann hast du auf einmal gefühlt 3 Generationen Grafikpracht-GPU-Aufrüstung durch Software realisiert. Das lässt sich kein Entwickler durch die Finger gehen. Wer nicht auf FP16 setzt, würde da recht schnell abgehängt werden - im Markt wo die Spieler Grafikgeil sind."

Du schreibst einfach "dank FP16 2x so viele Effekte", nicht einmal ein bis zu und was bringen dir so viele Effekte???

Leute die Mathlab benutzten und von programmieren reden, sind für mich ehr wie diese Script-kiddies, die nen vorgefertigtes Script ausführen und sie meinen, sie währen die Obercracks.

Und dir ist schon bewusst, dass dir FP16 die Möglichkeit gibt alle Effekte, bei denen Artefakte nicht sichtbar sind eine Leistungseinsparung ermöglichen? Ich habe die Vermutung, dass du nicht einmal den Unterschied zwischen objektivem Fehler und Wahrnehmungsgrenze kennst. (Na? Machen diese passiv aggressiven Unterstellung Spaß? Oder findest du sie doof?)

Dir ist bewusst was u.a (unter anderem) bedeutet? Wenn ich also schreibe "u.a Artefakte" heißtes nicht, dass Artefakte die einzigen Nachteile sind :wink:

Da wäre ich ohne deine Hilfe jetzt nicht drauf gekommen. :fresse:

Man hilft wo man kann :3

Mal im Ernst: Einige Effekte werden FP32 bleiben, weil du dort die auflösung brauchst, einige Effekte werden FP16, weil du dort die Auflösung NICHT brauchst. Dort, wo du Rechenpower einsparen kannst, kannst du an einer anderen Stelle wieder mehr draufpacken - bis die GPU ausgelastet ist.

Aber das wusstest du schon, oder? Ich auch.

Ja, die meisten werden bei Fp32 bleiben und es wird auch einige Jahre dauern, bis eventuell mal einige wenige auf Fp16 umgestellt werden.

Ich möchte dir mal etwas anderes zeigen, etwas... neueres:
https://www.reddit.com/r/starcitizen/comments/3ogi3o/im_an_tech_artist_in_the_industry_and_id_love_to/

Da hat sich mal jemand Zeit genommen zu zeigen, wie sehr der Einfluss von guten und neueren Technologien auf die Bildqualität wirken kann. Nimm das bitte als so etwas wie eine Inspiration, wie man mit Hilfe von etwas Hirnschmalz und Zeit richtig tolle Sachen erschaffen kann. Ich bin kein Entwickler bei CIG, aber die Technologie die dort rausgebracht wird, ist absolut wahnsinnig. Auch sowas hier:https://www.youtube.com/watch?v=Bbq2Crt8pTA&feature=youtu.be&t=6m47s zeigt wie sehr das Ausnutzen neuer Techniken dir Möglichkeiten gibt Spiele zu gestalten, die mit bisherigen klassischen Methoden nicht möglich waren.

FP16 ist ein weiteres Tool in der Werkzeugkiste für Spielenentwickler die Grenzen zu erweitern - und das sage nicht ich, sondern Leute die damit arbeiten - ID-Software, Bethesda etc...


Das sind Firmen die aktuell ziemlich eng mit AMD zusammenarbeiten und AMD bringt mit Vega Grafikkarten mit viel Fp16 Power. Hmm Marketing maybe?!!!
 
Zuletzt bearbeitet:
Nein irgendwie ja nicht :d Siehe Beitrag von fdsonne
Und auch der geqoutete Part sagt das nicht aus.
Irgendwie scheinst du ziemlich oft Fakten zu verdrehen oder drückst dich nur schlecht aus, da dich öfters welche falsch verstehe :fresse:

"Die OS-Treiber sind nicht nur konkurrenzfähig, sondern auch stabiler. Wir kommen so langsam in Bereiche, wo sich "Gamer" aus Leistungsgründen für Linux interessieren."

Was genau verdrehe ich denn? Es ist genauso wie ich es geschrieben habe. OS-Treiber können die "Profi" Karte zu einer Gaming Karte machen und damit ist der Punkt "keine Gaming Funktion" abgefrühstückt. Und weil im Bereich gaming um die Performance geht, muss der OS-Treiber konkurrenzfähig sein - was er auch ist.


Schön, dass du mehrere verschiedene Benchmarks durcheinander haust, auch einen aus Januar 2017 :d
Jupp, denn an den Nvidia-Resultaten hat sich nahezu nichts geändert, bei den OS-Resultaten schon. Somit kann man sie vergleichen.

Wir stellen laut einem deiner Benchmarks fest: Betriebssystem muss bei Nvidia (nicht AMD!!!) nicht unbedingt einen Einfluss auf die Performance haben, solange es kein Port ist!
Exakt - denn wir wollen ja die Vergleichbarkeit erhalten, weswegen wir Nvidia mit Nvidia vergleichen und nicht Äpfel mit Birnen. Das ist da um festzustellen, welchen Einfluss das Betriebsystem auf die Benchmarks hat. Hier: Keinen.


Schon ein Unterschied zu deiner Aussage :)

Schreibst selber, dass Ports einen Leistungsverlust haben und argumentierst dann mit einem Port.... Really?!
Jupp, warum hab ich geschrieben - damit wir nicht Äpfel mit Birnen vergleichen. Deswegen habe ich ja auch die Ankerpunkte eingeführt um die Vergleichbarkeit zu erhalten.

Erst vergleichen wir Nvidia mit Nvidia, dann vergleichen wir Deus Ex mit Deus Ex.
Es Lohnt sich nicht wirklich weiter auf den Quark einzugehen.
Musst du auch nicht. Die Leute können sich ja selbst einen Eindruck davon machen, wer hier was nicht versteht. ^^



Aber dann hast du nicht deinen tollen OS-Treiber :fresse:
Achso, Ubuntu nutzt also nicht die OS-Treiber? Erzähl mir bitte mehr.


Meine sadistische Ader sagt: JA!

Spaß beiseite, nein einfach weil du mit deinen Beiträgen deutlich zeigst, dass du keine Ahnung von Softwareentwicklung hast, vielleicht deshalb?
Und wieder ein Strohmann. Wie wäre es, wenn du mal auf die Aussagen von ID-Software eingehst? Oder sind die jetzt auf einmal irrelevant, weil ich sie zitiert habe?


Oder weil du es so darstellst als hätte man durch Fp16 keine Nachteile und es wäre die Lösung für alles?!
Nö, das ist was du mir unterstellst. FP16 ist ein weiteres Tool, welches dir ermöglicht in Bereichen, wo du keine FP32-Auflösung brauchst Performance einzusparen. Wie viel hängt vom Anwendungsfall ab.

Oder du sowas schreibst : "Grafik ist ein Hauptverkaufsargument für jedes AAA Spiel. Wenn du dank FP16 2x so viele Effekte einfügen kannst als bei FP32, dann hast du auf einmal gefühlt 3 Generationen Grafikpracht-GPU-Aufrüstung durch Software realisiert. Das lässt sich kein Entwickler durch die Finger gehen. Wer nicht auf FP16 setzt, würde da recht schnell abgehängt werden - im Markt wo die Spieler Grafikgeil sind."
Jupp, steh ich auch jetzt noch zu. Grafikpracht ist ein Verkaufsargument und wenn Leistung auf GPUs keine Rolle spielen würde, bräuchten wir keine neuen GPUs. Seltsamerweise kaufen die Leute aber neue GPUs. Warum wohl? Um all die tollen neuen Spiele spielen zu können.

Du schreibst einfach "dank FP16 2x so viele Effekte", nicht einmal ein bis zu und was bringen dir so viele Effekte???
Was bringt mir wohl mehr Rohleistung? Na?

Leute die Mathlab benutzten und von programmieren reden, sind für mich ehr wie diese Script-kiddies, die nen vorgefertigtes Script ausführen und sie meinen, sie währen die Obercracks.
Beleidigungen helfen dir da auch nicht weiter.


Dir ist bewusst was u.a (unter anderem) bedeutet? Wenn ich also schreibe "u.a Artefakte" heißtes nicht, dass Artefakte die einzigen Nachteile sind :wink:
Oh wie schlimm - wir haben eine massive Reduktion von Datenverbrauch und erhalten dafür einen nicht wahrnehmbaren Fehler. Wir sollten Techniken wie diese hier sofort verbieten:
https://www.youtube.com/watch?v=oleylS5XGpg


Das sind Firmen die aktuell ziemlich eng mit AMD zusammenarbeiten und AMD bringt mit Vega Grafikkarten mit viel Fp16 Power. Hmm Marketing maybe?!!!
Jupp, genau. Reines Marketing. Ist ja nicht so, dass neue Werkzeuge neue Produkte ermöglichen und ist ja auch nicht so, dass Nvidia ebenfalls FP16 impelementiert mit Volta. Paßt schon.
 
FP16 wird im tatsächlichen Szenario einer Gaming-Grafikkarte nie FP32 komplett ersetzen können. Die doppelte Leistung ist natürlich ein theoretisches Potenzial. Aber es zeigt, wie groß die Beschleunigung werden kann, wenn es optimiert wird. Oft reicht mir bei normaler Programmierung schon ein Byte aus, also die kleinste adressierbare Einheit. Die 2 Byte großen FP16-Werte sind schon etwas größer, kleinere Gleitkommazahlen wären aber auch dumm...
Jedenfalls ist das nichts, was viel Überwindung oder spezielle Schulung kostet. Man muss einfach nur Variablen mit 16 Bit Größe nutzen, statt 32 Bit. Selbstverständlich tut man das auch nur dort, wo man keinen Qualitätsverlust hat. Wenn es jetzt jemand speziell für FP16 optimiert, wird er wahrscheinlich nicht das bestehende umändern, sondern zusätzlich noch Effekte einbauen, die rein auf FP16 basieren, zum Beispiel doppelt so viele Haare ohne Leistungsverlust. Wie viel das am Ende bringt, wird sich zeigen.
 
Könnt Ihr Eure OS-, Marketing- und FP16-Diskussionen vielleicht mal ins OT-Forum verlegen, es geht doch schon lange nicht mehr VEGA bei Euch.
Lesbar ist das ganze auch nicht mehr vor lauter Zitaten, einfach nur zum :kotz: hier
 
es geht doch schon lange nicht mehr VEGA bei Euch.
In dem Fall geht es eindeutig um Vega, denn ich brauche einen Treiber, um die Karte zu nutzen, und meiner Meinung nach wird auch von dem abhängen, wie der HBCC arbeiten kann, weil ich keine andere Möglichkeit sehe, Texturen anders in den RAM zu bekommen, damit der VRAM zum reinen Cache werden kann, wie bei CPUs.
 
Edit: Kann gelöscht werden - Doppelpost wegen technischem Problem.
 
Zuletzt bearbeitet:
Was genau verdrehe ich denn?

Du bringst auf einmal OS-Treiber und Linux ins Spiel, obwohl es nicht darum ging.

Oder.

Du: "... CS-Treiber angeblich besser sein sollen als offene."

Nein, ging es nicht, nur du behauptest das.

Er schreibt doch selbst, dass es nie um Linux oder Open Source ging.


Jupp, denn an den Nvidia-Resultaten hat sich nahezu nichts geändert, bei den OS-Resultaten schon. Somit kann man sie vergleichen.

Exakt - denn wir wollen ja die Vergleichbarkeit erhalten, weswegen wir Nvidia mit Nvidia vergleichen und nicht Äpfel mit Birnen. Das ist da um festzustellen, welchen Einfluss das Betriebsystem auf die Benchmarks hat. Hier: Keinen.

Jupp, warum hab ich geschrieben - damit wir nicht Äpfel mit Birnen vergleichen. Deswegen habe ich ja auch die Ankerpunkte eingeführt um die Vergleichbarkeit zu erhalten.

Erst vergleichen wir Nvidia mit Nvidia, dann vergleichen wir Deus Ex mit Deus Ex.

Noch einmal.
Meine Aussage: "Wir stellen laut einem deiner Benchmarks fest: Betriebssystem muss bei Nvidia (nicht AMD!!!) nicht unbedingt einen Einfluss auf die Performance haben, solange es kein Port ist!"
Du bestätigst dies sogar, fängst aber dann an mit einem Port, wo wir nicht wissen a) warum es bei dem Port zu Leistungsverlust kommt und b) welche Probleme ein Port macht sowie c) wie stark sich dieser bei den AMD-Treibern auswirkt, zu argumentieren, ziemlich widersprüchlich oder nicht??
Zudem bringst du Benchmarks mit unterschiedlichen Grafikkarten, wo ist hier die Vergleichbarkeit??

Hier wird nur mit einer 1080ti getestet, auch geil, hier unterscheiden sich nicht nur die Betriebssysteme, sondern auch die Rechner :fresse:
http://www.phoronix.com/scan.php?page=article&item=creators-ubuntu-1080ti&num=2

Hier wird nur mit einer 470 getestet
https://www.phoronix.com/scan.php?page=article&item=rx470-412-172dev&num=2

Hier kommen weder 470 noch 1080ti vor
https://www.phoronix.com/scan.php?page=news_item&px=DeusExMD-January-2017-RSI

Dieser Test unterstützt sogar das, was ich geschrieben habe, denn AMD schneidet trotz neuerer Treiber und Performanceverbesserungen immer noch deutlich schlechter unter Linux ab als Nvidia. 480 auf 960 Niveau, Fury auf 970 Niveau, 480 deutlich schlechter als 1060.
Und was man auch noch ganz deutlich erwähnen muss, es hat sich jedes mal das komplette Testsystem geändert, also noch einmal, wo ist hier die Vergleichbarkeit???

Aber Hauptsache man hat seinen Schwachsinn irgendwie versucht zu belegen :d
Möchtest du mir noch mehr widersprüchlichen Quark vorlegen?

Musst du auch nicht. Die Leute können sich ja selbst einen Eindruck davon machen, wer hier was nicht versteht. ^^

Ja, jeder mit nur ein bisschen Ahnung wird mir recht geben und sehen, was für widersprüchlichen Quark du gepostet hast :3


Achso, Ubuntu nutzt also nicht die OS-Treiber? Erzähl mir bitte mehr.

Ok, da muss ich zugeben My Bad. Ich hatte das echt nicht auf den Schirm, aber zu meiner Verteidigung, solange ist das noch nicht der Fall.

Und wieder ein Strohmann. Wie wäre es, wenn du mal auf die Aussagen von ID-Software eingehst? Oder sind die jetzt auf einmal irrelevant, weil ich sie zitiert habe?

Welche Zitate von ID-Software? Ich sehe da keine in deiner Antwort.
Meinst du den Link, den du als Antwort zu fdsonne gepostet hast?

Golem schrieb:
Selbst wenn Nvidia mit der kommenden Volta-Familie auch kleinere Chips mit FP16-Funktionalität ausstattet, dürfte halbe Genauigkeit erst in einigen Jahren Verbreitung finden.

Déjà-vu?

Icke: "Ja, die meisten werden bei Fp32 bleiben und es wird auch einige Jahre dauern, bis eventuell mal einige wenige auf Fp16 umgestellt werden."


Nö, das ist was du mir unterstellst. FP16 ist ein weiteres Tool, welches dir ermöglicht in Bereichen, wo du keine FP32-Auflösung brauchst Performance einzusparen. Wie viel hängt vom Anwendungsfall ab.

Da stimmt ich dir voll zu, aber leider sagen das deine Beiträge so nicht aus. ^^
Aber hey ist ja nur eine Unterstellung. :d

Jupp, steh ich auch jetzt noch zu. Grafikpracht ist ein Verkaufsargument und wenn Leistung auf GPUs keine Rolle spielen würde, bräuchten wir keine neuen GPUs. Seltsamerweise kaufen die Leute aber neue GPUs. Warum wohl? Um all die tollen neuen Spiele spielen zu können.

Was bringt mir wohl mehr Rohleistung? Na?

Ja aber wie dir schon gesagt wurde, mehr Effekte != Bildqualität/bessere Grafik.

Beleidigungen helfen dir da auch nicht weiter.

Sei nicht so sensibel ;)

Oh wie schlimm - wir haben eine massive Reduktion von Datenverbrauch und erhalten dafür einen nicht wahrnehmbaren Fehler. Wir sollten Techniken wie diese hier sofort verbieten:
https://www.youtube.com/watch?v=oleylS5XGpg

Und das hat jetzt genau was mit Fp16 zu tun?

Jupp, genau. Reines Marketing. Ist ja nicht so, dass neue Werkzeuge neue Produkte ermöglichen und ist ja auch nicht so, dass Nvidia ebenfalls FP16 impelementiert mit Volta. Paßt schon.

Tut Nvidia das wirklich bei den Karten für Gamer/Consumer??

Ja zurzeit ist es mehr Marketing. AMD versucht es zu pushen, zu verkaufen als das tolle neue Feature schlechthin.
Die doppelte Geschwindigkeit von Fp16 dank Rapid Packed Math (RPM) sind der shit und jeder braucht es yeay :d
 
Der Redefluss ist eh fürn Horst.


Du bringst auf einmal OS-Treiber und Linux ins Spiel, obwohl es nicht darum ging.

Oder.

Du: "... CS-Treiber angeblich besser sein sollen als offene."

Nein, ging es nicht, nur du behauptest das.

Er schreibt doch selbst, dass es nie um Linux oder Open Source ging.
Okay, dann gibt es halt nur Treiber für Profigrakas ohne Gaming-Optimierung, nur Treiber für Gaming-Grakas ohne Profi-Funktionien und dass es Treiber gibt, die beides können denke ich mir nur aus.




Noch einmal.
Meine Aussage: "Wir stellen laut einem deiner Benchmarks fest: Betriebssystem muss bei Nvidia (nicht AMD!!!) nicht unbedingt einen Einfluss auf die Performance haben,
Womit wir das OS ausgeschlossen haben. Wenn es einen Effekt hätte, hätte es bei beiden (AMD & Nvidia) einen Leistungseinbruch. Da wir das Betriebsystem ausschließen können, bleiben nur noch die Treiber und die das Porting als mögliche Ursachen für geringere Leistung.

solange es kein Port ist!" ist nötig, um bei dem Betriebsystembenchmark sicher zu gehen, dass die Software keinen Einfluss nimmt. Um zwei Betriebsysteme miteinander vergleichen zu können, musst du alle andere Variablen identisch halten. Deswegen brauchst du native Software.


Du bestätigst dies sogar, fängst aber dann an mit einem Port, wo wir nicht wissen a) warum es bei dem Port zu Leistungsverlust kommt
Ein Port ist eine Übersetzung von DX auf OpenGL. Der Leistungsunterschied entsteht durch:
a) Ein ausgelagertes Studio übersetzt die DX-Befehle in OpenGL Befehle, ohne wirklich die Engine daran anzupassen
b) OpenGL ist nicht so leistungsfähig wie DX11

Hat aber wenig mit dem zu tun, warum ich Deus Ex benutzt habe.

Deus Ex ist NACH der Feststellung, dass das Betriebsystem an sich zu keinen Leistungsverlusten führt ein feststehender Faktor. Ob ich danach native Software oder Deus Ex vergleiche spielt keine Rolle mehr, so lange ich das Stück Software, welches ich vergleiche festhalte. Ich könnte es auch so ausdrücken:

Mathematisch betrachtet ist es ein Dreisatz. Wie ich den gelöst habe, habe ich oben beschrieben.


wo ist hier die Vergleichbarkeit???
In dem du Ergebnisse ohne CPU Bottleneck bei gleichen Grafikeinstellungen miteinander vergleichst.

Aber Hauptsache man hat seinen Schwachsinn irgendwie versucht zu belegen :d
Nicht mein Problem, wenn du keinen Dreisatz lösen kannst. Oben steht die Lösung.

Möchtest du mir noch mehr widersprüchlichen Quark vorlegen?
Nicht mein Problem, wenn du keinen Dreisatz lösen kannst. Oben steht die Lösung.


Ja, jeder mit nur ein bisschen Ahnung wird mir recht geben und sehen, was für widersprüchlichen Quark du gepostet hast :3
Nicht mein Problem, wenn du keinen Dreisatz lösen kannst. Oben steht die Lösung.


Welche Zitate von ID-Software? Ich sehe da keine in deiner Antwort.
Meinst du den Link, den du als Antwort zu fdsonne gepostet hast?
Jupp



"Ja, die meisten werden bei Fp32 bleiben und es wird auch einige Jahre dauern, bis eventuell mal einige wenige auf Fp16 umgestellt werden."
... und das hast du noch geschrieben "Was bringen mir denn noch mehr Effekte?" Warum benutzen Spielentwickler wohl Grafikeffekte? Aus Langeweile?


Ja aber wie dir schon gesagt wurde, mehr Effekte != Bildqualität/bessere Grafik.
Du meinst also, das ein Spiel ohne Schatten genauso toll wirkt wie ein Spiel mit Schatten? Schatten ist ein btw ein Effekt.


Und das hat jetzt genau was mit Fp16 zu tun?
Siehe deine eigene aussage. "unter anderem Artefakte"

FP16 ist genauso wie der oben gezeigte Algo eine Möglichkeit mit nicht wahrnehmbaren Verlusten die Leistung zu optimieren. Identisches Prinzip.


Tut Nvidia das wirklich bei den Karten für Gamer/Consumer??

Ja zurzeit ist es mehr Marketing. AMD versucht es zu pushen, zu verkaufen als das tolle neue Feature schlechthin.
Die doppelte Geschwindigkeit von Fp16 dank Rapid Packed Math (RPM) sind der shit und jeder braucht es yeay :d
Wird sich zeigen, wie sehr Nvidia das macht. Sie können es ja per Treiber aktivieren/deaktivieren. Ansonsten: Auch Nvidia pusht es - jeder der sein Produkt verkaufen will pusht seine Features.

/kindergarten
 
Zuletzt bearbeitet:
Tut Nvidia das wirklich bei den Karten für Gamer/Consumer??
Wenn nicht freiwillig, dann aus Zwang. Mit Vega gibt AMD Entwicklern die Möglichkeit, problemlos Dinge auszuführen, die bei aktuellen Nvidia-Karten nur mit halber Geschwindigkeit berechnet werden können. Das sagt, denke ich, bereits genug aus: Nvidia hat keine Wahl, wenn sie konkurrenzfähig bleiben wollen - AMD hat es gebracht und sie müssen nachziehen. Wenn nicht bei Volta, dann zum nächstmöglichen Zeitpunkt.
 
RX Vega@1,800Ghz@14,7 TFlops
RX Vega@1,700Ghz@13,9 TFlops

Titan XP@1,582Ghz@12,1 TFlops

Wird sehr interessant zumal HMB² mit HBCC deutliche Vorteile gegenüber GDDR5 hat. Der Fertigungsvorteil von Nvidia ist weg und die Flaschenhälse bei AMD gelöst. Ich denke Pascal wird häufiger geschlagen und im low level API nur noch die Rücklichter sehen.
 
Ja - das liegt eben daran, ...
Nochmal, es ist irrelevant, woran das liegt. Bleib doch bitte bei der Aussage... Woran da irgendwas liegt, habe ich doch in keinster Weise, weder bestätigt, noch widersprochen noch mich dazu überhaupt geäußert!
Ich kann es einfach absolut nicht nachvollziehen, warum du meine Aussage nun schon das gefühlt 10. mal in diesen OpenSource/Linux Kontext zwängen willst, obwohl ich das nichtmal angeschnitten habe und es für die Aussage auch überhaupt nicht relevant ist. Warum willst du das denn nicht endlich mal verstehen!?

Ich bezweifle, dass aktuell irgendwas im OpenSource-Treiber drin ist, was nur bei der Profikarte geht. AMD hat natürlich auch bei den Projekten nicht so viel Einfluss, wie bei ihrem Closed-Source-Treiber. Bei OpenSource implementiert man alle Funktionen der Hardware - wenn etwas nicht geht, dann nur, weil es im Chip weggelasert wurde, oder noch nicht implementiert ist.
Schon wieder OpenSource... Warum nur willst du es nicht verstehen!?

"muss ich nicht begründen" :haha:

Übersetzt: AMD-Treiber lassen Profi-Funktionen bei Gaming-Treiber raus und Gaming-optimierungen bei Profi-Treibern - wie bei Nvidia.

Zum ersten, nimmt man es genau, habe ich dir sogar die Begründung schon geliefert... Die Aussagen basieren auf Halbweiswahrheiten und Binsenweisheiten. Ebenso ist es nachgeplappertes Zeug zu einem Teil zumindest.
Was willst du noch hören?

Zum anderen, exakt, genau darum gehts... Wenn du jetzt noch erkennst, dass genau diese Aussage allein dafür reicht um auszusagen, dass damit das/ein Vega Gamermodell mehr Leistung als ein Profimodell haben kann -> in Games, sollte klar sein, dann hast du es endlich auch kappiert. Ganz ohne OpenSource, ganz ohne Linux und vor allem ganz ohne AMD grundlos in den Himmel zu loben wie auch grundlos in den Boden zu bashen. :wink:

Ich denke, die Kommentare sagen bereits viel aus. Wenn ich 20 Messwerte habe, und den Mittelwert der Summe 100 berechnen will, kommt 5 raus. Wenn die andere Karte in der Summe auf 120 kommt, kommt 6 raus. Ob ich nun die Summen ins Verhältnis setze, oder den Mittelwert aus jeweils gleich vielen Messwerten, ist ja egal, denn das Verhältnis bleibt gleich. Deshalb kann ich dem Heise-Artikel substanziell nur abgewinnen, dass die Angaben von AMD in Millisekunden ungewöhnlich sind, und eventuell nicht taugen, um darzustellen, wie gut Vega im Verhältnis zu den Nvidia-Karten ist.

Wenn es Mittelwerte wären, wäre das ja noch OK und vor allem auch nachvollziehbar...
Was äußerst kontraproduktiv ist, ist aber der Punkt:
"AMD addiert hingegen einfach die 36 Gesamtlaufzeiten für Forward und Backward auf, die etwa beim Xeon Phi um Faktor 1000 zwischen 0,11 ms und 101 ms variieren."
-> daraus entsteht das Problem, wenn ein einziger Wert ausreißt, verfälscht eine Addition der Werte die Relationen zueinander.

Mal angenommen, du hast 5 Messungen. 4/5 dauern sagen wir 1ms. Die 5. dauert 20ms. Macht in Summe 24ms.
Wenn nun der Konkurent 1,5ms für 4/5 Messungen und aber nur 15ms für die 5. brauch, kommt in Summe 21ms raus...
-> das sind 4/5 Messung in 50% langsamer und eine Messung in 25% schneller. Im Mittel wären das ca. 35% "mehr" Performance für erste... Bei AMD sind es aber ~10% mehr Performance für letztere... Und das weil man die gesamt Zeit Vergleicht. Aber ist das sinnig?
Wenn ich dediziert Werte für Messung 5 will, dann schau ich mir das doch an... Und nehme keinen Durchschnitt übers Ganze. Und wenn ich den Durschnitt will, weil ich den groben Überblick möchte, dann schau ich mir doch nicht ausschließlich Messung 5 an oder die gesamt Laufzeit.

Die Addition bedeutet, der absolut gesehen höchste Wert hat die absolut größte Wichtung... Obwohl diese Werte gar nicht zu wichten sind bzw. alle mit der selben Wichtung einzufließen sind... Da setzt die Kritik an ;)
Ich finde, das ist mal wieder eine äußerst kontraproduktiv gewählte Darstellung des Produkts. Vega sollte das, gemessen an den nakten Zahlen doch überhaupt nicht nötig haben??
 
Zum anderen, exakt, genau darum gehts... Wenn du jetzt noch erkennst, dass genau diese Aussage allein dafür reicht um auszusagen, dass damit das/ein Vega Gamermodell mehr Leistung als ein Profimodell haben kann -> in Games, sollte klar sein, dann hast du es endlich auch kappiert.

Ja, ich freue mich schon auf die Benchmarks, vor allem unter dem nicht relevanten ominösen Treiber, der beides kann. Mal sehen, was nach Gleichschaltung der Frequenzen dabei rauskommt. :)
 
Wenn nicht freiwillig, dann aus Zwang. Mit Vega gibt AMD Entwicklern die Möglichkeit, problemlos Dinge auszuführen, die bei aktuellen Nvidia-Karten nur mit halber Geschwindigkeit berechnet werden können.

Das da wäre?
Geh eher davon aus, der Gamer-Vega wird FP64 nicht in vollem Speed können. Und FP16 auf Gamer-Vega wird sicher kommen. Denkbar wäre in Zukunft aber auch das komplette Gegenteil -> FP16 ausschließlich im Profiprodukt beim Vega Nachfolger. So gesehen bspw. mit FP64 zwischen Tahiti und Hawaii :wink:
Wer vollen "Bumms" will, wird sowohl bei NV als auch bei AMD die entsprechenden Profimodelle nutzen müssen... Das heist GP100, demnächst GV100 und/oder GP102, je nachdem, was es werden soll. Oder eben Vega bei AMD...

Es gibt die Eierlegende-Wollmilchsau nicht mehr. Auch bei AMD nicht... Und bitte jetzt keine Diskusion darüber, was du da für wichtiger hälst... Die meinige Aussage impliziert keine Wertigkeit darüber!!
 
Geh eher davon aus, der Gamer-Vega wird FP64 nicht in vollem Speed können.
FP64 wäre für höhere Genauigkeit gut. Dafür wären die Rechnungen höchstens halb so schnell - man könnte also eine wahrscheinlich kaum sichtbar bessere Bildqualität für eine schlechtere Performance erreichen. Das macht natürlich für den Gamingsektor kaum Sinn. Kleinere, schnellere Rechnungen sind dagegen sinnvoll, um noch mehr Features in die Engine ohne Kosten zu stopfen, oder bisherige Implementierungen optimaler auszureizen. Und ich sehe auch keine Möglichkeit für irgendwen, FP16 jetzt jemals zu beschneiden, weil das immer bedeuten würde, dass zu dem Zeitpunkt mindestens in einigen Titeln die ältere Karte ihrem Nachfolger meilenweit überlegen wäre. Das ist nicht wirklich zu rechtfertigen.
 
Und ich sehe auch keine Möglichkeit für irgendwen, FP16 jetzt jemals zu beschneiden, weil das immer bedeuten würde, dass zu dem Zeitpunkt mindestens in einigen Titeln die ältere Karte ihrem Nachfolger meilenweit überlegen wäre. Das ist nicht wirklich zu rechtfertigen.

Wenn der neue Ableger dann in Summe langsamer wäre, ja, wenn nicht? ;) Der geneingte Spieler dürfte sich eher für FPS Balken interessieren... Der Rest? Also wenn man tiefer ins Produkt reinsieht, sieht man doch heute schon hier und dort Auf und Abs.
Wie man das sogar mit Kusshand auf der Käuferseite annimt, hat GM204 gezeigt... Es braucht nur genügend Vorteile, dann kann man auch Nachteile gut kaschieren...
Wäre für mich kein wirklich gravierender Nachteil. Vor allem, da ja Polaris bspw. FP16 zwar "kann" aber eben nur mit einfachem Speed. Heist, erstmal zieht Vega hier davon. Denkbar könnte sogar eine Marktspezifische Trennung sein. HighEnd bekommt dies freigeschalten, drunter nicht? APUs wieder schon usw.
-> wie gesagt, Denkbarkeiten. Kein muss!

Tahiti zu Hawaii hat gezeigt, wenn es für AMD einen Sinn ergibt, dann kürzen die auch Features. Das ist/war zwar irrelevant für den Gamermarkt. Aber das heist ja nicht, dass es deswegen keine anderen Gründe geben kann, so einen Schritt in Erwägung zu ziehen. Ob es so kommt? Abwarten...
 
Zuletzt bearbeitet:
.... Um zwei Betriebsysteme miteinander vergleichen zu können, musst du alle andere Variablen identisch halten....

Ich sage es dir jetzt noch einmal und dann gehe ich nicht weiter darauf ein.
Die Benches sind alle nicht miteinander vergleichbar, da unterschiedliche Systeme benutzt wurden, unterschiedliches CPUs, unterschiedlicher Ram usw. usf., also für mich sind das keine identischen Variablen, also ein Widerspruch! :rolleyes:
Das hat auch nichts mit Dreisatz zu tun.


... und das hast du noch geschrieben "Was bringen mir denn noch mehr Effekte?" Warum benutzen Spielentwickler wohl Grafikeffekte? Aus Langeweile?

Du meinst also, das ein Spiel ohne Schatten genauso toll wirkt wie ein Spiel mit Schatten? Schatten ist ein btw ein Effekt.

War nicht meine Aussage.
Dann formuliere ich es anders für dich: Mehr Effekte können die Bildqualität/Grafikpracht verbessern, müssen sie aber nicht.

Oh wie schlimm - wir haben eine massive Reduktion von Datenverbrauch und erhalten dafür einen nicht wahrnehmbaren Fehler. Wir sollten Techniken wie diese hier sofort verbieten:

Ich habe doch nirgends behauptet Fp16 sei per se schlecht...

Wird sich zeigen, wie sehr Nvidia das macht. Sie können es ja per Treiber aktivieren/deaktivieren. Ansonsten: Auch Nvidia pusht es - jeder der sein Produkt verkaufen will pusht seine Features.

Ja ist logisch, dass man seine Features pusht. Ich hatte das komplett wertfrei geschrieben.


Wenn nicht freiwillig, dann aus Zwang. Mit Vega gibt AMD Entwicklern die Möglichkeit, problemlos Dinge auszuführen, die bei aktuellen Nvidia-Karten nur mit halber Geschwindigkeit berechnet werden können. Das sagt, denke ich, bereits genug aus: Nvidia hat keine Wahl, wenn sie konkurrenzfähig bleiben wollen - AMD hat es gebracht und sie müssen nachziehen. Wenn nicht bei Volta, dann zum nächstmöglichen Zeitpunkt.

Dafür muss es sich aber erst einmal am Markt etablieren.
Bis jetzt sind es nur Amd und eine von vielen Softschmieden, die sich für Fp16 stark machen. Und soweit ich weiß, will Amd das bis jetzt auch erst einmal nur bei ihren TressFX 3.0 bringen.
 
Zuletzt bearbeitet:
Ich sage es dir jetzt noch einmal und dann gehe ich nicht weiter darauf ein.
Die Benches sind alle nicht miteinander vergleichbar, da unterschiedliche Systeme benutzt wurden, unterschiedliches CPUs, unterschiedlicher Ram usw. usf., also für mich sind das keine identischen Variablen, also ein Widerspruch! :rolleyes:
Das hat auch nichts mit Dreisatz zu tun.

Ja, mir wirds auch langsam zu doof. Ich habe erst innerhalb eines Benchmarks das Betriebsystem ausgeschlossen, dann habe ich innerhalb eines zweiten die Software festgehalten um dann die Treiberperformance vergleichen zu können.

Im ersten Benchmark sind die Systemspezifiktionen konstant da innerhalb des gleichen Benchmarks verglichen wurde und beim Vergleich der Treiberperformance im Deus EX Benchmark haben wir:

Intel Xeon E3-1280 v5 @ 4.00GHz (8 Cores) vs. Intel Xeon E3-1280 v5 @ 4.00GHz (8 Cores)
16384 GB RAM vs. 16384 GB RAM
MSI C236 A vs. MSI C236 A

Gleicher Prozessor, gleiches Motherboard und auch wenn der Speicher nicht weiter spezifiziert wurde, kann ich wohl davon ausgehen, dass dieser auch identisch ist, da der Rest ebenfalls gleich ist. Somit sind die Variablen fest, die Ankerpunkte vergleichbar und der Dreisatz erfüllt.

Danke und gute Nacht.
 
Intel Xeon E3-1280 v5 @ 4.00GHz (8 Cores) vs. Intel Xeon E3-1280 v5 @ 4.00GHz (8 Cores)
16384 GB RAM vs. 16384 GB RAM
MSI C236 A vs. MSI C236 A

"The GTX 1080 Ti was running on our Intel Core i7 7700K test system with all of the same hardware throughout the Windows/Linux gaming tests"

NVIDIA GeForce GTX 1080 Ti: Windows 10 Creators Update vs. Ubuntu Linux Gaming - Phoronix

Das System welches du nennst komm in diesem Test vor:
AMDGPU-PRO 17.10 vs. Linux 4.12 + Mesa 17.2-dev Git - Phoronix

Und hier ist nicht angegeben, welches System benutzt wurde:
Deus Ex: Mankind Divided On Linux With Latest RadeonSI - Up To 2~3x Faster - Phoronix

Für mich ist da keine Vergleichbarkeit, Fertig aus.

I'm done :d

Edit:

gn8
 
Zuletzt bearbeitet:
Bench A - Vergleich zweier Betriebsysteme - Konfig identisch.
Bench B und C - Vergleich zweier Treiber (klick mal unten auf den blauen Rhombus der Grafik, der führt dich zum Log mit den Syskonfigs, die identisch sind)

/eof
 
In dem Fall geht es eindeutig um Vega, denn ich brauche einen Treiber, um die Karte zu nutzen, und meiner Meinung nach wird auch von dem abhängen, wie der HBCC arbeiten kann, weil ich keine andere Möglichkeit sehe, Texturen anders in den RAM zu bekommen, damit der VRAM zum reinen Cache werden kann, wie bei CPUs.
Ja total, seitenlange Abhandlungen über Linux, OS-Treiber usw.
 
Wirklich, AMD? DAS war der für das 2.Quartal angekündigte "Launch" von VEGA? Nicht nur auf den letzten Drücker, sondern auch nicht die Gamer-Version, auf die alle warten (...die noch nicht die Geduld mit Euch verloren haben?) Freesync-Monitor hin oder her, für mich war es das. Das grenzt an Verar******. Ich hoffe, NV hat wenigstens den Anstand und bedankt sich für die vielen neuen Kunden, die Ihr in deren Arme treibt. Ich jedenfalls lasse mich nicht länger für blöd verkaufen. Bis ihr mit der GTX1080 gleichzieht, hat NV schon die nächste Generation auf dem Markt - verfügbar! Das kann auch ich als ATI- und dann AMD-Fan seit nunmehr 12 Jahren nicht mehr ignorieren. War nett mit Euch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh