Ist PCIe-Layout nur für 300 Watt spezifiziert? Wie geht es dann mit MultiGPU-Karten, die haben doch meistens drei 8Pin Anschlüsse?
Wenn ich das jetzt recht in erinnerung habe, ist eine PCIe Steckkarte! auf 300W limitiert, um sauber in den Spezifikationen zu laufen.
Was jetzt nicht ganz 100% klar ist. Im Grunde sprechen wir ja hier von DualSlot Karten. Soweit mir bekannt, schreibt die Spezifikation nicht die Anzahl der Slots vor, die minimal belegt sein müssen um 300W zu fahren.
Es wäre also theoretisch auch potentiell möglich eine SingleSlot Karte im 300W Design zu bringen. Zwei Karten mal 300W wären 600W in Summe auf gleichem Platz, sprich zwei Slots.
Zumindest könnte man so argumentieren. Obwohl es laut Spezifikationen immernoch unsauber wäre.
PS: die Anzahl der Stromanschlüsse hat damit auch weniger zu tun. Es geht eher um die gesamt Leistungsaufnahme sowie die gesamt Wärmeabgabe der Karte. Die eben Spezifikationen unterliegen sollte, damit sich andere Hersteller, die direkt oder indirekt darauf aufbauen müssen (beispielsweise Gehäusehersteller zur Dimensionierung, Kühlerhersteller usw) daran orientieren können.
Die Dual GPU Lösungen könnte man aber theoretisch auch einfach als Custom Designs betrachten. Die Spezifikation ist ja kein zwingendes muss. Ein Hersteller der diese überschreitet hat grundsätzlich damit ja keine Probleme.
Problematisch wirds da eher im OEM Bereich. Ne fertig PC Kiste von Fujitsu, HP, Dell und Co. baut idR stark auf diese Standards. Und passt da was nicht, gehts halt nicht
bzw. wird nicht genommen. Und der OEM Markt im ganzen (für privat und Business) dürfte mindestens genau so groß sein, wie der selbstbau Bastlermarkt.
Ein Hersteller, der die Spezifikationen weit überschreitet läuft somit Gefahr, das im OEM Markt sein Produkt keine Verwendung findet. -> unschön für die Hersteller.
Deswegen versucht man auch sogut wie möglich, sich an gängige Standards zu halten.
Bei Dual GPU Karten ist das aber in meinen Augen auch halbwegs verschmerzlich, wenn diese da drüber gehen, einfach weil der potentielle Kundenkreis sowas von gering ist... Und auch im OEM Bereich findet man idR sowas nicht.
Ich rede die ganze Zeit von der GHz Ed., welche rund 5-10% schneller als die GTX 680 ist.
Das war mal so vor dem 12.11er Treibern... Schau dir neue Benches an mit aktuellen Treibern. Da ragt ne GHz 7970 idR um die 12-15% je nach Settings und Restsystem vor ner 680er.
Es ist jetzt nicht die Welt, aber immerhin. Zugegebenermaßen hat AMD in Sachen Leistung seit Release da gut was zugelegt. Selbst ne default HD7970 non GHz ohne Turboboost liegt quasi gleichauf mit der 680er. Im Vergleich zum 680er Release war diese noch gut und gerne 10% zurück.
Zumindest was gängige Benchgames betrifft...
Einen 100% Marktüberblick kann man natürlich nicht geben, das ist klar.
Aber AMD hat gewaltig in den aktuellen Top Games ala Skyrim, BF3 usw. zugelegt. Bei BF3 sogar über 30% nachweisbar...
Jaja die typischen Sprüche wieder.
Wenn die es schaffen eine schnelle Karte einfach so weit runterzutakten, dass sie dann nurnoch 20% verbraucht dann hat das nichts mit Effizienz zu tun.
Du hast irgendwie nicht verstanden, was Effizienz ist.
Die Effizienz (in dem Fall Leistung pro Verbrauch (Watt)) misst sich ausschließlich am Endprodukt. Also genau so, wie die Karte auf dem Markt geworfen wird. Was schlussendlich mit anderen Taktraten möglich ist und was nicht, spielt nicht die Rolle...
Und wenn die ihre GPUs runtertakten um eben den Verbrauch zu senken, ist das schlicht ne Effizienzsteigerung. Einfach aus dem Grund, weil idR hohe Taktraten aufgrund von mehr nötiger vGPU Spannung in Sachen Effizienz schlechter dastehen als niedrige Taktraten. -> und das ist Fakt! Denn der Verbrauch steigt/fällt 1:1 mit dem Takt, aber im Quadrat zur anliegenden Spannung.