Also mein Wissen beruht eigentlich auf der Zeitschrift von diesem Forum.
Da hab ich unter anderem rausgelesen, dass man mit Nvidia-Karten in Spielen derzeit eigentlich mehr reißen kann... berichtigt mich, wenn sich da was geändert hat, und gebt mir gegebenenfalls aktuelle Bench-ergebnisse, aber da bin ich mir doch schon ziemlich sicher...
und wenn ein Board dann die Technologie unterstützt, die in Spielen etwas vorteilhafter ist, dann sag ich dazu einfach mal, dass es das bessere ist. Soweit mein Gedankengang. Wie gesagt, berichtige mich, wenn ich da irre, ich will natürlich dann auch keine Unwahrheiten verbreiten.
Und was halt eben das PCIe 2.0 betrifft, wie ich oben schon erklärt hab, macht es das Board für mich zukunftstauglicher als ein P35er, wo es die Unterstützung dafür noch nicht gibt.
Ab welchem Chipsatz hat Intel denn PCIe 2.0? X48??
Mag sein, dass die jetzigen Karten PCIe 2.0 noch nicht vollkommen nutzen, sie sind ja auch nicht dafür konzipiert. Ich warte da vor allem auf die 10er Reihe von Nvidia, nachdem sie die 9er ja echt verbockt haben...
Du hast mich falsch verstanden. Beispiel: Wenn ich jetzt ein SLI-Board habe mit 2x 8800 GTX @ SLI, dann kommt eine starke Einzelkarte heraus, die auf SLI laufen kann - was mache ich dann mit den 2x 8800 GTX @ SLI? Die müsste ich dann herauswerfen ...
Ja, das ist natürlich klar. Aber das ändert ja nichts daran, dass man dann in diesem Fall mit dem Board noch ordentlich was reißen kann.
Dass ein SLI-System aktuell zu halten teurer ist als eins mit ner Single-GPU ist ja verständlich.
Aber wenns Aktuell ist, hat man da auch ordentlich Power dahinter, die wiederrum hält dann ne Weile.
Und zu dem OC-Lob was ich dem Striker II zugesprochen hab, da hab ich mich schlecht ausgedrückt, muss ich zugeben.
Mag sein, dass man insgesamt nicht so hoch takten kann wie bei nem P35 oder so, das weiß ich noch nichtmal.
Aber die Optionen, die das Board zum Übertakten hat, die müssen auf jeden Fall in allen Tönen gelobt werden.
Die sind absolut so gut wie auf den Übertaktungsboards mit P35. (Mir fällt da jetzt das von Gigabyte ein, P35 DS4, wo ich selbst schon gesehen hab, wie gut sich da alles übertakten lässt)
Edit:
Microruckler sind wirklich ne böse Sache ja....
Da werden ja die Treiber vor allem erstmal für bearbeitet.
Genauso wie das Problem, dass viele Elemente dann in jede Grafikkarte geladen werden müssen bei der Bildberechnung. Somit ist praktisch Bandbreite und Speicher verloren gegangen.
Ich hoffe diese Probleme werden bald behoben werden können. Ist ja eigentlich ein rein softwaretechnisches Problem. Wenn das der Fall ist, kann ich mir eigentlich vorstellen, dass viele Leute zu SLI und CF greifen werden.