Ein paar Sachen zur Ordnung:
Windows vs. Linux Performance ist identisch bei gleicher Software und Systemen. Was Linux 30% unter Windows in Nvidia vs. Nvidia fallen lässt, ist der Port. Also DX --> Open GL. Bei nativen Anwendungen hast du Toleranzen um +/- 1%. Wenn das nicht der Fall ist, kannst du davon ausgehen, dass der Port da an Performance saugt.
Generell ist es also eine gute Idee Nvidia mit Nvidia bei nativen Programmen zu vergleichen, um eine Baseline aufbauen zu können.
Schlüssen wir also deine Beispiele mal auf:
Dein Windows vs. Linux Test ist Direct X 11 vs. Open GL - du vergleichst hier also einen Port mit nativer Software. Etwas unfair, nicht? Der Port kostet gut und gerne 30% im Durchschnitt. Einige OpenGL Spiele sind sehr gut geschrieben und kommen sehr nahe an DirectX ran, andere haben Verluste um bis zu 50%. Das kannst du also leider nicht gleichsetzen.
Was du gleichsetzen kannst, sind native Softwaretitel. Was du hier siehst, ist dass der OS-Radeon Treiber TROTZ Port gleichauf mit Nvidia (Windows) ist.
Das sieht man auch in deinem zweiten Beispiel von Metro - was auch ein Port ist.
Das beste wäre es ein natives OpenGL Spiel unter beiden Systemen zu vergleichen - oder auf Vulkan zu gucken. Hier gibt es aber derzeit nur einen "beta-Treiber" unter Linux der noch in Arbeit ist. Um die Treiber also vergleichen zu können, wäre OpenGL zu bevorzugen. Du kannst als Referenz natürlich auch einfach Nvidia Vulkan Linux vs. Windows nehmen und dann über einen Dreisatz vom gleichen Nvidia-Treiber mit AMD vergleichen. Der Direktvergleich geht aber NUR bei nativer Software. Wenn du Ports mit nativer Sotware vergleichst, musst du erst einmal die Differenz zwischen nativ und Port rausrechnen (Nvidia Windows vs Nvidia Linux) und dann kannst du die AMD-Resultate mit diesem Faktor multiplizieren.
Das ist zwar nicht ganz sauber, kommt aber ganz gut hin.