Thunderbird21
Enthusiast
Du weist was ich meine...........
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Der R600 verfügt über eine Geheimwaffe, eine interne und HDCP-konforme Soundkarte. Das kann Nvidias G8x ebenso wenig bieten wie HDCP über Dual-Link-HDMI.
ATI implementiert den Sound nicht über GPGPU-Code, sondern über ein eigenes Stück Silizium. Damit erfüllt die Firma die Regeln für die Vista-DRM-Infektion, die MS den eigenen Kunden aufzwingt.
Der Grafikchip R600 wird jedenfalls den Vista-Anforderungen entsprechen und schickt den Sound direkt über eine HDCP/HDMI-Verbindung. Wie wir zu hören bekamen, handelt es sich um vollen HD-Sound.
Die G8x-Teile von Nvidia können das nicht. Sie benötigen ein Kabel vom Soundchip zur GPU. Das hört sich nicht so schlimm an, aber es verhindert die einfache Autokonfiguration und verstößt vor allem gegen die Anforderungen für das Vista-Logo. Sollte es etwa daran liegen, dass NV in sechs Monaten keinen brauchbaren Vista-Treiber zustande brachte?
Das Problem mit Vista besteht darin, dass die DRM-Infektion die Ausgabe von S/PDIF über nicht verschlüsselte Verbindungen untersagt. Der R600 kommt damit klar, indem er die Audio- und Video-Streams verbindet und sie über HDCP-infizierte Verbindungen pumpt. Das ist gegen den Benutzer gerichtete digitale Rechteverwaltung, aber es entspricht den Logo-Bedingungen von MS, und denen ist die Benutzererfahrung ebenso egal wie der Inhalte-Mafia.
Dazu kommt noch, dass der R600 HDCP über Dual-Link kann. Die Bandbreite reicht für weit mehr als einen breiten Sound-Strom aus.
Nvidias G8x andererseits kann kein HDCP über Dual-Link. Wer einen 30-Zoll-Monitor hat, sieht daher nur einen schwarzen Bildschirm, und dann ist Sound das geringste aller Probleme.
Die Soundkarte im R600 dürfte die Killerapplikation für alles sein, was mit Home Theatre zu tun hat. G8x bringt hier einfach nicht, was erforderlich ist, wacklige Treiber hin oder her. So widerwärtig die DRM-Infektion an sich ist, der R600 erfüllt die funktionalen Voraussetzungen.
irgendwie steh ich auf verschwörungstheorien ^^ ... nun strick ich mal eine
eventuell sieht sich ja NV gezwungen mittels kleinen Briefkuvers plattformen dazu zubringen "solche" benches noch vor dem NDA ende zu bringen ... um genau das zu bezwecken ...
Da ATi fast jahr 1.5jahren zeit hatte den r600 zu machen, und es sollte darum schon lange fertig sein
Ich traue da noch keinen Benches... Dann wäre ja ne X19X0 XTX mit den Taktraten einer X2900 XT ungefähr genauso schnell wie ne X2900 XT...
Außerdem will ich erstmal Benches in extremen Auflösungen sehen... Wer kauft sich schon so ne schnelle Karte und zockt dann in 1280x1024...
ja ber dass hat nicht viele veränderungen; nur 65 nm und vieleicht höhere taktenIch denke ATI weiß schon wieso sie den R650 schnell nachschieben wollen.
hm bei dem benchmark hieß es "Company of Heroes: Nvidia 90.1 FPS" mit einem Intel Core 2 Extreme QX6700.
der QX6700 hat (4x)2,66ghz. ist der QX6700er langsamer als der E6600@3,6Ghz? weil, wenn CoH nur maximal 2 kerne nutzen würde, wären das 2x2,66ghz gegen 2x3,6ghz.
vielleicht kommt daher der unterschied.
Wann kommen denn mal die ersten offiziellen Benchmarks um EUCH DIES beweisen zu dürfen. Scheiss NDA !!!
Jo Geil der R600 ist Technisch weiter als der G80. Also kauft allle die X2000 Jungs........
Neuesten Erkenntnissen soll es nun die HD 2900 XT mit der GTX aufnehmen können, jedoch nicht in allen, vor allem aber in gewissen Games, die stark Shader/ Vertex lastig zu buche schlagen, bei etlichen anderen Spielen so zwischen GTS und GTX zu liegen kommen.
Die HD 2900 XTX soll hingegen die GTX schlagen können und mit der GTX Ultra konkurrieren, teils gar übertrumpfen.
Die Rohpower steckt beim R600 viel mehr in den D3D10 Games, und wird hier vor allem den G80 weit hinter sich lassen.
Nochmals zur XT des R600 Grafikdesasters
Die Computerbase Benchmarks + ca.10% wird die Performance des R600
(HD 2900X) mit FINAL Treibern werden, wohlgemerkt unter XP und nur bei DX9 Games) !!
Unter Vista und D3D10 soll es vollkommen anders aussehen und der G80 soll plattgemacht werden.
Wann kommen denn mal die ersten offiziellen Benchmarks um EUCH DIES beweisen zu dürfen. Scheiss NDA !!!
ich glaube niemand. mir bringen die auch nicht. ich will mit der karte spielen und kein 500W HTPC bauenOK, wer vermisst von den G80 usern vermisst die tollen extra Features der R600 ?
Dies nicht, Quellen darf ich nicht preisgeben, da auch keine besitze, in Form von Benchmarks, Tech. Daten udg. Nur Performancemässig werde ich informiert.....
Werte und Daten stammen aus einem Insider (aus Italien) welcher sozusagen unter "privater" Verschwiegenheit steht.
Mehr will und KANN ich dazu nicht sagen.
Dies nicht, Quellen darf ich nicht preisgeben, da auch keine besitze, in Form von Benchmarks, Tech. Daten udg. Nur Performancemässig werde ich informiert.....
Werte und Daten stammen aus einem Insider (aus Italien) welcher sozusagen unter "privater" Verschwiegenheit steht.
Mehr will und KANN ich dazu nicht sagen.