SOLDIER
Enthusiast
Bei meinen GTX läuft jo der GDDR3 schon mit 900 Mhz. Glaube noch nicht ganz daran das die Karten so daher kommen, oder es hat noch viel Reserve nach oben. Es darf weiter Spekuliert werden.
mfg
mfg
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
www.3dcenter.de schrieb:...Nichts desto trotz erscheinen uns die gemachten Angaben weiterhin als schwer unglaubwürdig bis hin zu nach menschlichem Ermessen falsch: So wird nVidia nach einiger Aussage beim G80-Chip noch nicht auf unified Shader-Einheiten setzen. Diese Funktionalität will man rein in Software (per Treiber) zur Verfügung stellen, in Hardware soll es aber weiterhin die Unterscheidung zwischen Vertexshader- und Pixelshader-Einheiten geben ...
... Insofern ist es unklar, wieso DailyTech hier mit fester Stimme von gleich 128 unified Shader-Einheiten beim G80-Chip berichten - die Diskrepanz zu den eigentlich allgemein bekannten nVidia-Aussagen bezüglich unified Shader-Einheiten müsste doch eigentlich auffallen. Aber auch insgesamt fäll es schwer, diesen "Spezifikationen" zu glauben: Die 128 Shader-Einheiten wäre eine äußerst massive Steigerung gegenüber dem G71-Chip, selbst wenn man diesen ausnahmsweise mal mit 48 Shader-Einheiten rechnen würde (der G71-Chip hat pro Pipeline zwei Shader-Einheiten, welche allerdings nur in seltenen Fällen gleichzeitig eingesetzt werden können) ...
... Selbst bei einer deutlichen Vereinfachung der Shader-Einheiten, welche durch den Sprung auf das Shader Model 4 und gleichzeitig durch den Wechsel auf unified Shader eigentlich nicht möglich erscheint, ist der berichtete Sprung doch viel zu groß...
Die Spezifikationen sind hier doch sogar in einer News genannt worden. Allerdings hegt www.3dcenter.de in ihrer heutigen News wieder einiges an Bedenken dazu.
Hier mal ein kleiner Auszug:
Quelle: www.3dcenter.de
Und dabei ist das noch nicht alles. 3DCenter nennen da noch mehr Gründe, die Zweifel aufkommen lassen. Aber lest doch einfach mal selbst nach.
Ja hab ich und das Resultat ist folgendes:hat sich mal einer gedanken darüber gemacht, was für eine cpu man haben müsste damit die karte nicht limitiert wird? es gibt ja einige hier im forum die sagen das ihr C2D die aktuellen karten schon limitiert...
Also ich hab das Teil in einem gedämmten Gehäuse und ich höre die Graka nicht. Kann ja sein, das da was säuselt, wenn ich bei offenem Case die Ohren dranhalte, das interessiert mich aber nicht die Bohne. Solange ich nix höre, bin ich zufrieden.@bassmecke
ich zweifel mal stark daran das du weisst was wirklich beinahe oder lautlos heißt eine 7900GTX ist auch ein staubsauger, ein kleiner radialer mistquirl der nicht mal auf eine größe eines 80mm lüfters kommt.
Wir sind hier einfach Leute, die ihren PC zum Hobby gemacht haben. Hobbies kosten nunmal Geld. Ein Satz 18" Prollofelgen für mein Auto würden mehr Kosten, als meine PC-Ausgaben für das ganze Jahr. Also ist das alles sehr relativ. Es zwingt Euch doch keiner zu kaufen und aufzurüsten.@Markus : Mir hat man diesen "Wahn" mit dem zweiten 'X' bei luxx erklärt, verstehe ich trotzdem nicht so ganz aber irgendwoher müssen die Leute das Geld hier schließlich haben. Keine Ahnung ob wir uns mit Managern unterhalten die Unternehmen in den Ruin treiben, Politiker im Forum rum wuseln oder die Leute einfach für die neue Grafikkarte hungern^_^
Ich garantiere dir, das sind nicht sie selben User.aber bis jetzt hat man bei jedem launch von HW gesagt: "wow das reicht dann wieder 2 Jahre" und? 3 Monate später kamen die selben User und kauften sich die next gen... Also..
Ist auch besser so. So können wir wenigstens schnell reagieren.Ihr habt feste Strategien zum Hardwarekauf?
Also ich bin da flexibel und hab keine Gesetze an die ich mich halten muss.
__________________
lest mal volgendes dazu..
verstehe ich das richtig, das der g80 eigentlich nur für die quadro serie entwickelt wurde.und nur ev ein ableger davon für den desktopbereich abfällt!?
ev. brauchen ja bild/video/render-programme keine unif-shader..
512video ram
256physik ram =)
http://de.theinquirer.net/2006/10/06/g80chip_leitet_turbocacheaera.html
Sind grad die Spezifikationen des G80 durchgedrungen, wie aktuell die Information ist weiß ich jedoch ist.
Beide Karten sollen mit fast 23 Zentimetern die selbe Länge haben wie die 7900 GTX und X1900 XT. Inklusive Kühlkonstruktion wird die Karte die mittlerweile obligatorischen zwei Slots belegen. Um den Stromhunger zu befriedigen empfiehlt Nvidia ein 450 Watt-Netzteil für eine Geforce 8800 GTX und ein 400 Watt-Netzteil für eine Geforce 8800 GTS. Für SLI wird sogar eine 800 Watt-Stromversorgung empfohlen.
Geforce 8800 GTX:
Chiptakt: 575 MHz
Speichertakt: 900 MHz
Speichermenge: 768 MByte
Speicherinterface: 384 Bit
Theoret. Speicherbandbreite: 86 GByte/s
Shaderzahl: 128 Unified-Shader mit 1.350 MHz
Geforce 8800 GTS:
Chiptakt: 500 MHz
Speichertakt: 900 MHz
Speichermenge: 640 MByte
Speicherinterface: 320 Bit
Theoret. Speicherbandbreite: 64 GByte/s
Shaderzahl: 96 Unified-Shader mit 1.200 MHz
Ich habe zwar schonmal die Frage gestellt, aber was solls . Und zwar wird ja schon die jetzige Generation (wenn auch nur minimal) von 8x-PCI-E ausgebremst. Eigentlich müssten doch bei der neuen Generation 16x-PCI-E noch mehr bringen?
Die GTX-Karte wird nach unseren Informationen einen Hybrid Wasserkühler bekommen. Das heißt, dass man die Karte alternativ mit Wasser kühlen kann. Normalerweise läuft der Lüfter, bindet man die Karte in die W-Kühlung ein kann dieser ausgestellt werden.
Wie effektiv die Kühlung ist wird sich noch zeigen und darüber entscheiden ob wir noch einen Kühler für die Karte produzieren werden.
[Mr.Burns Stimme]quelle: von einem der Aqua-Computer Chefs/Gründer
[Mr.Burns Stimme]
Ausgezeichnet, ausgezeichnet
[/Mr.Burns Stimme]
also das man wakü kann oder sie mit luft kühlen?
Meiner Meinung nach eher ein sehr fauler Kompromiss und alles andere als eine sinnvolle Lösung. Denn: Um mit Wasserkühlung höchste Effizienz zu erzielen, muß die Kühlflüssigkeit möglichst nahe und mit ausreichendem Querschnitt an das GPU-Die herangeführt werden, um die Hitze möglichst früh "abzufangen". Dann aber hat man beim Betrieb mit Luftkühlung genau dort Hohlräume, sprich: Isolation (da Luft ein vergleichsweise schlechter Wärmeleiter ist, nicht anderes macht ein Wollpulli: er hält die warme Luft nahe am Körper gefangen) im Kühlkörper, wo man zur Wärmeableitung besser massives Kupfer oder Heatpipes bräuchte.
Führt man aber umgekehrt die Wasserleitungen nicht nahe an die Hitzequelle heran, verteilt sich die Hitze über den gesamten Kühlkörper, und wird nur dort an das Wasser abgegeben, wo dieser tatsächlich von Wasserleitungen durchzogen ist, mitunter also nur ein geringer Prozentanteil der Gesamtfläche.
genau wenn du ne wakü hast kannst du den lüfter abklemme oder evtl sogar per software auschalten, oder auch mitlaufen lassen, und wenn du nur luftkühlung hast dann kühlst du halt mit dem selben kühler die karte halt nur mit dem lüfter.
Dem ist nichts mehr hinzuzufügen.Wow, du hast die als eine Sample Karte organisiert und den Kühler in seine einzelteile zerlegt ... oder bist du nur Hellseherisch veranlagt ?
Den Kühler aufgrund von 3 pics abzuschreiben auf denen man GARNICHTS vom aufbau erkennen kann ist mal mehr als anmaßend
Diese Hybrid bauweise ist sicherlich nicht gerade kostengünstig - wenn das Teil nix taugt würde nVidia es nicht als Referenzkühler einsetzen.
Zwischen 4x und 8x gibt es einen gewaltigen Unterschied .
Fazit: PCIe x4 meist ausreichend
Während der professionelle Benchmark SPECviewperf 8.0 in aller Regel sensibel auf Änderungen in der verfügbaren Grafikbandbreite reagiert, stellen Spiele wie erwartet deutlich geringere Anforderungen.
Die von uns verwendeten Anwendungen wie Doom 3 oder Unreal Tournament 2003 setzen eine gewisse Mindestbandbreite voraus, konkret ungefähr x4 PCI Express. Darüber hinaus ist jedoch kaum eine Leistungssteigerung mehr festzustellen. Besonders überraschend ist dies auch unter Berücksichtigung des doch recht anspruchsvollen 3DMark 05, der mit grafischen Schmankerln nicht gerade zimperlich um sich schmeißt und technisch ohne weiteres als Trendsetter bezeichnet werden kann.
naja selbst zwischen pcie 4x und 8x gibt es ja kaum einen unterschied, von daher wird 16x genauso bringen wie vorher... nichts. außer man setzt eine sli-version ohne bridge ein aber das macht ja keiner.
Ein messbarer Unterschied ist zu vernachlässigen. Da muß ein spür- und sichtbarer Unterschied sein, dass es sich lohnt.Schwachfug , selbst bei z.B. einer 7900GTX hast Du messbare
Unterschiede zwischen 8x / 16x , auch wenn noch gering.
Leih mir bitte deine Glaskugel!Fakt ist mit der neuen Graka Generation und der Möglichen
Bandbreite ist 16x absolut von Vorteil.