zocker28
Urgestein
Ich glaub das AUS Rampage 3 Extreme für Sockel 1366 wird dann schon PCIe 3.0 haben.Edith sagt:
PCIe 3.0 soll Q2 2010 oder später auf den markt kommen, von daher nicht unwahrscheinlich.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Ich glaub das AUS Rampage 3 Extreme für Sockel 1366 wird dann schon PCIe 3.0 haben.Edith sagt:
PCIe 3.0 soll Q2 2010 oder später auf den markt kommen, von daher nicht unwahrscheinlich.
Wer weiß, wenn es bis dahin PCIe 3.0 gibt hat man mit der TDP andere Möglichkeiten. Und da sich die Karte eh nur an Enthusiasten richtet spielt Green-IT dann keine Hauptrolle.
.
Wer weiß, wenn es bis dahin PCIe 3.0 gibt hat man mit der TDP andere Möglichkeiten. Und da sich die Karte eh nur an Enthusiasten richtet spielt Green-IT dann keine Hauptrolle.
Aber nicht im Worst CaseP.S. meine GTX285 wird mit 186W TDP angegeben, rechnerisch komme ich auf max. 150W.
Also da ist schon eine gewisse Reserve mit einberechnet!
@ skully beim x16 bleibt alles beim alten nur mand arf jetzt 2x8 Pin nutzen wies aussieht also max 375W + 3 Slot Kühler
wie gesagt 2x 8 pin = 4x6 pin wird zu 99% sicher kommen, fix isst es aber erst ab sommer 2010
Also im besagten Beispiel hat nVidia erstmal ein grösseres Problem, 40% ist immer noch weniger als 45%. Und Optimierungen sind alles andere als nichtig. Diese werden ja schliesslich vom Compiler durchgeführt, der die Blöckgrössen festlegen kann, wie er lustig ist. Und mit diesen Optimierungen kommt der Entwickler auf High-Level Sprachebene auch nicht in Berührung. Was der Typ gemacht hat, ist einfach besseren Code als ATIs Compiler zu implementieren. Das hat mit nVidia und "einen Mittelweg zu finden" gar nichts zu tun.Nochmal zu den Matrizen. Es bringt dir aber im Endeffekt nichts wenn du die Matrix verkleinerst weil das nicht in allen Fällen möglich ist. Es ist zwar schön das die Vec5 Shader dann mehr Leistung haben, aber es bringt nichts wenn ich die Matrizen nunmal aufgrund der Werte anders aufbauen muss. Von daher halte ich das Thema optimierten Code für nichtig, weil realitätsfern. NV hat ja das selbe Problem, nur halt nicht so stark.
denkt ihr echt das die G300 high end modelle 2x 8 pin GPU benötigen ?
denkt ihr echt das die G300 high end modelle 2x 8 pin GPU benötigen ?
Also im besagten Beispiel hat nVidia erstmal ein grösseres Problem, 40% ist immer noch weniger als 45%. Und Optimierungen sind alles andere als nichtig. Diese werden ja schliesslich vom Compiler durchgeführt, der die Blöckgrössen festlegen kann, wie er lustig ist. Und mit diesen Optimierungen kommt der Entwickler auf High-Level Sprachebene auch nicht in Berührung. Was der Typ gemacht hat, ist einfach besseren Code als ATIs Compiler zu implementieren. Das hat mit nVidia und "einen Mittelweg zu finden" gar nichts zu tun.
@ mr. dude
Nochmal zu den Matrizen. Es bringt dir aber im Endeffekt nichts wenn du die Matrix verkleinerst weil das nicht in allen Fällen möglich ist. Es ist zwar schön das die Vec5 Shader dann mehr Leistung haben, aber es bringt nichts wenn ich die Matrizen nunmal aufgrund der Werte anders aufbauen muss. Von daher halte ich das Thema optimierten Code für nichtig, weil realitätsfern. NV hat ja das selbe Problem, nur halt nicht so stark. Als Entwickler des Chips muss ich versuchen einen mittelweg zu finden für die Effizienz des Chips. ATI hat eine Lösung, NV eine andere. Es gibt keine optimale und NV wird hier auch nicht bevorteilt, auch wenn das viele immer meinen.
an eine Dualkarte glaub ich erst recht nicht, die ASUS MARS läuft nichtmal standard stabil die Karte wird 100° was soll das beim Dual G100 werden.....
Werd ich mir morgen nochmal durchschauen und dann mal ausmisten, wenns doch arg OT ist...