also meiner meinung nach ist die Platine sehr gut gemacht - imerhin bringt man 2 Chips auf die Platinengröße die normal eine GTX 2xx hat
mfg
mfg
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
@ Scully
jep das is sehr fatal... mit allem hab ich gerechnet... nur nicht mit dem
Darauf gibt es nur eine antwort nämlich diese
http://www.hardware-infos.com/news.php?news=2952
Im still waiting for the monster
naja, ein NT mit 400W glaub ich kaum
bei eine um die 500 laüft es problemlos, ohne OC der graka-
weil dann gibts doch zoff
siehe bei mir: Corsair HX520W
und ab 600W is mir auch ein rätsel warum es da zoff gibt.
Vorausgesetzt es ist ein Marken NT, anscheinend gibts da immer weniger die wirkliche Qualität besitzen.
@ Felix the Cat
Hast schon ne Liste mit NT's ?
Solange das ein gutes Markennetzteil mit >600 Watt und ca. 20A auf den 12 Voltschienen ist sollte dem Betrieb nichts im Wege stehen.
Aber 400 Watt ? Naja
Ohne OC dann, oder ?
Weil der i7 UND die 295 fressen ja extrem, gerade wenn der i7 ordentlich getaktet wird.
bei zwei DVI-Anschlüssen scheint ein üblicher HDMI-Anschluss von der Breite her nicht mehr hin zu passen.Wieso hat die neue GTX keinen HDMI ausgang mehr?!?
schade das da Corsair nicht in die test`s einbezogen sind
naja,
vllt sind Corsair doch gar keine marken NT
@Deathmo
wieso sollte beim Adapter kein Ton dabei sein? Meiner Erfahrung nach mit der HD4850 klappt das ohne Probleme
ciao Tom
Das wär mir aber neu.
Meines Wissens nach und wenn man im Inet liest gibt HDMI Bild und Ton wieder und DVI nur Bild.
@Edit scheint wohl doch teilweise zu funktionieren wobei ich mindestens 100 Beiträge gefunden habe, wo ganz klar gesagt wird das DVI nur ein Bild übertragen würde.
http://www.hifi-forum.de/viewthread-115-8019.html
@Deathmo
ja, richtig DVI kann nur Ton übertragen.
ja, aber wenn Du einen Adapter drauf steckst, dann hast Du ja HDMI.
Meiner Auffassung nach hat bei aktuellen Grafikkarten der mechanische Anschluss nicht unbedingt damit etwas zu tun, was elektrisch geht. Anders gesagt: die Grakas können sowohl analog, DVI als auch HDMI, nur muss sich der Hersteller halt mechanisch für eins entscheiden.
Es liegt ja schon seit Jahren meist ein Adapter für analoge Monitore bei. Der Adapter macht sicher nicht aus dem digitalen Signal ein analoges. Er gleicht nur die mechanischen Unterschiede aus.
Die HD4850 hat nativ (mechanisch) wie gesagt nur DVI. Mit dem mitgelieferten HDMI-Adapter kam auch Ton beim TV an.
Bei meinen Nvidias (2x DVI) habe ich es Mangels eines SPDIF-Kabels (Durchschleifen des Tons von der Soundkarte auf die Graka) noch nicht ausprobieren können.
Aber wozu der SPDIF-Anschluss, wenn es mit dem Adapter eh nicht gehen würde?
ciao Tom
Das mit dem SPDIF Eingang ist schon klar.
Ich bin nur bisher davon ausgegangen das er mit der Soundkarte verbunden werden müsse um auch über den HDMI Ausgang Ton zu haben.
Weil ohne Verbindung zur Soundkarte kommt ja auch kein Ton über HDMI.
Aber ich denke wie es in dem Link den ich gepostet habe beschrieben ist, wird das wohl so funktionieren.
Zitat " ja, ATI und NVIDIA haben sich da nen trick einfallen lassen. Unzwar nutzen sie ganz einfach die Pins vom DVI stecker, die eigendlich für die analoge bildübertragung reserviert sind."
Hi
Also im treiber was einstellen. Sli Suport is an und physx auch.
im Vantage habe ich alles @stock 16.578 Punkte is das ok
Also ich hab mit nem Q9550 auf 4 GHZ knapp 25000 Punkte.
und wieviel ohne OC der CPU + GPU??
schätze so 20000
Wo bleibt die Single GTX 295, schon langsam Ende Mai und immer noch nichts offizielles da.
Oder nur ein Nischenprodukt ?