Xptweaker
Semiprofi
Wir wissen weniger als nichts ... selbst das nichts das wir wissen ist bullshit
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Wir wissen weniger als nichts ... selbst das nichts das wir wissen ist bullshit
Ich kann schon schreiben, dass es wohl Probleme mit dem GDDRIV-Speicher gibt.
Ich kann schon schreiben, dass es wohl Probleme mit dem GDDRIV-Speicher gibt.
meine vermutung ist das ati leider nicht zu nv ausschliessen kann...hoffe aber das mit der nächsten genaration von beiden ein kampf entsteht und den preiskampf anfachht denn zur zeit kann nvidia die preise bestimmen...ok die preise sind schon gesunken aber am anfang waren die g80 wirklich teuer...mir ist es eigentlich egal welche marke im pc steckt hauptsache schnell und preislich ok...meine 8800 verrichtet ihren dienst gut...mal sehen was als nächstes bei mir rein kommt
bitte nicht von dir auf andere schließen....zur zeit braucht kein gamer eine direkt x10 karte......
@ killermurmel
klar und ati/amd macht solange keinen umsatz und stanzen ihre 2900xt/xtx karten ein ?
Denkst du Nvidia schläft bis herbst?
Für mich sind der r600 und G80 ungefähr mit einer 6600gt/gtx zu vergleichen .... sie können zwar dx10 sind aber lahm darin.
Erst der G90 / r700 wird die richtige dx10 performance bringen.
Diese Karten sind eher auf dx9 ausgelegt da die ersten dx10 games erst ende des jahres kommen
Aber der R600 ist komplett auf Crysis und UT3 programmiert und wird die G80 daher total weg0wn3n...
Außerdem soll ne XTX schneller sein, als ein GTX-SLI Gespann.
Desweiteren gibt es wohl neue Beta-Treiber, die die Leistung des R600 in Auflösungen ab 1280x1024 um min. 33% steigern sollen und im 3dmark06 die Punkte gar fast verdoppeln.
Das größte Problem von SLI/Crossfire ist der Stromverbrauch, der in keinem Verhältnis mit der Performancesteigerung steht... Wenn ich allerdings lese, dass ne X2900 XTX 230W verbrauchen soll, dann könnte ich mir gleich ne zweite X1950 XTX kaufen... Das kommt dann ungefähr aufs gleiche heraus... Für mich aber keine Alternative...
Richtig. Aber von ungefähr kommen die Werte auch nicht. Ein Kühler der 230W bewältigen soll, wird mit Sicherheit nicht auf eine Karte gebaut, die 110W real verbraucht. Dafür is Kupfer mittlerweile viel zu teuer und die Ohren der Käufer viel zu empfindlich.Und noch mal, die Thermal Design Power Angabe hat nix mit der wirklichen Leistungsaufnahme zu tun, ...
Warum versteht das denn keiner!?
Genau meine Meinung.Naja 2 Grafikkarten ist immer so ne Sache killermurmel. Die Performance Zuwächse merkste in manchen Games gar net. Vor allem Crossfire war zur meiner X1900 Crossfire Zeit echt übel. In jedem benchmark super performance, in games musstest manchmal sogar auf einzel schalten damit man richtig zocken konnte.
SLi ist das sicher etwas besser, wobei das auch überflüssig ist.
Für Leute die zocken wollen, lohnt sich dann lieber ne schnellere Einzelkarte.
Für Benchmarker ist das aber natürlich interessant.
Richtig. Aber von ungefähr kommen die Werte auch nicht. Ein Kühler der 230W bewältigen soll, wird mit Sicherheit nicht auf eine Karte gebaut, die 110W real verbraucht. Dafür is Kupfer mittlerweile viel zu teuer und die Ohren der Käufer viel zu empfindlich.
Iss ja gutUnd noch mal, die Thermal Design Power Angabe hat nix mit der wirklichen Leistungsaufnahme zu tun, ...
Warum versteht das denn keiner!?
Iss ja gut
Den Idle Verbrauch kann man ja selbst z.B. mittels ATT senken...