ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Fals es dann wirklich so sein sollte dass ein paar Karten diesen Fehler zu Beginn aufweisen, haben die ATI Jungs wieder 3 Jahre lang ein Grund über nV zu lästern! ;)

mit recht;)
gilt aber für beide lager!
es besteht imho für nv überhaupt kein grund die karte halbvertig auf den markt zu schmeißen.ein monat oder sogar 2monate später lägen sie imer noch weit vor der konkurenz.
es ist zum kotzen das immer mehr produkte erst beim kunden reifen..
wenn meine karte entsprechende fehler aufweisen sollte geht sie zurück bzw. wird garnicht erst gekauft.

aber die hoffnung stirbt ja bekantlich zuletzt und ich freue mich auf den launch:)

wo sind den die bilder von der inq testkarte?????






Die Wirklichkeit wird neu definiert, behauptet nVidia im Text im Bild. Im Bildpfad taucht "event_registration" auf, und dann steht da auch noch etwas vom 8. November 2006.
Was das Startdatum des G80 angeht, gibt es keinen Zweifel mehr. Und wir nehmen an, ein paar von ihnen könnten sogar noch vor diesem Datum auftauchen. Wir wissen, sie sind schon aus dem Nest gefallen.
nVidia startet seine erste DirectX-10-Karte. Sie können diesem Bild vertrauen, denn es kommt von nVidias offizieller Website. Wem kann man noch trauen, wenn nicht nVidia? (Fuad Abazovic/bk)


Hinzugefügter Post:
http://www.nvidia.com/content/event...ty_redefined_general/reality_redefined_bg.jpg
.
.
.
.
.
.
.
 
Zuletzt bearbeitet:
@derMeister
Für deinen 19" brauchst du sicher kein CF, schon gar nicht mit dem R600. Perlen vor die Säue, glatte Verschwendung, reine Penisverlängerung usw...;)

Fals es dann wirklich so sein sollte dass ein paar Karten diesen Fehler zu Beginn aufweisen, haben die ATI Jungs wieder 3 Jahre lang ein Grund über nV zu lästern!
Mir macht das gar keine Sorgen: SLI kommt für mich eh nicht in Frage (wie für 98% der Kundschaft) und HDCP braucht heute noch kein Mensch. Wenn das wichtig wird (wenn überhaupt), haben wir G90 usw. drinne. Also sind das in meinen Augen gar keine Probleme, sondern nur Panikmache, die den Nutzen der Karte für die allermeisten User überhaupt nicht schmälert. Wer von Euch hat denn überhaupt einen HDCP-fähigen Monitor?

Selbst wenn die das nicht fixen, ist es einfach irrelevant.

Wie gesagt, die meisten, die hier posten und jammern brauchen die Leistung der Karte sowieso nicht und reine Schwanzverlängerung mit 3dmark funktioniert auch ohne HDCP.;) Wenn sie sie überhaupt kaufen...
 
Zuletzt bearbeitet:
wieso hat eig keiner hier im forum eine karte .....
die conroes /kentsfield hatten vorher doch auch schon viele.
Will unabhängige benches sehen!
 
Die kommt bald bei mir rein.:):)
rfbqxzawmdk4sqa3aspyuzxticvg3.jpg


rfbqxzawmds4sqgcwwn6l1aifpfg9.jpg


rfbqxzawmtg4sqdkhuolrkch2apx7.jpg


Nur der Lüfter macht bei mir nen ziehmlich unruhigen Eindruck:(
 
Zuletzt bearbeitet:
ich kann nicht genug davon sehen :)

die karte ist ein monster! ich hoffe das auch die performance "monster" ist :d

rein optisch schaut die karte schon sau schnell aus...
 
grade mal ein X1950XTX CF und dann gleich ne 8800GTX kaufen :rolleyes:
warte doch lieber wenigstens bis zum refresh chip ab ;)

topic:
es scheint momentan echt wenig infos zum R600 zu geben.
war da nichtmal eine meldung wo nach es heißt das auch der R600 physik berechnen könnte?
 
grade mal ein X1950XTX CF und dann gleich ne 8800GTX kaufen :rolleyes:
warte doch lieber wenigstens bis zum refresh chip ab ;)

Stimmt hast eigentlich Recht.;)ABER die Zwei X1950 er krieg ich auch noch gut verkauft, da sie noch sehr aktuell und im Moment noch sehr gefragt sind.
Ich bin an gräubeln ob ich lieber ein R600 CF mache oder nen 8800GTS SLI.
 
Zuletzt bearbeitet:
Die kommt bald bei mir rein.:):)
rfbqxzawmdk4sqa3aspyuzxticvg3.jpg


rfbqxzawmds4sqgcwwn6l1aifpfg9.jpg


rfbqxzawmtg4sqdkhuolrkch2apx7.jpg


Nur der Lüfter macht bei mir nen ziehmlich unruhigen Eindruck:(

schicke bilder. da sieht man mal richtig wie lang die karte ist. bei mir würde sie garnicht reinpassen! ;) du solltest dir evtl. dann einen zalman zulegen oder wakü wenn vorhanden! :)
 
der Lüfter scheint ähnlich dem der 7950GX2 zusein, unter Volllast etwas laut, aber sonst nicht zu hören. Ein CF oder SLI-Gespann mit den beiden neuen Chips R600 bzw. G80 werden dir wohl deine Stromrechnung in die Höhe treiben. Außerdem brauchste da schon ein 30"-TFT um einen Nutzen daraus zu ziehen.

Ich hab mir zwar auch vor kurzem die GX2 geholt, aber die 8800GTX reizt mich schon. Hoffentlich optimiert Nvidia ihre Treiber noch etwas, denn der 95.30 Beta ist mal sowas von schlecht, hab ihn gleich wieder runter geschmissen.
 
das würde ich auch gerne wissen :)

Bei dem Klumpen auf der Karte ist sie sicherlich nich laut
 
würde ich nicht behauptet.
der lüfter hat gewisse ähnlichkeit zu der 68U. allerdings kann durch ein paar abänderungen und distri spezifische lüfterspannung abweichungen von oben nach unten geben. aber leiser als der 7900GTX lüfter wird dieser sicherlich nicht werden. wobei ich behaupte selbst der lüfter ist nicht wirklich silent ;)
 
@annixp & markus82
Ihr täuscht Euch! Hier im Forum gibts ne ganze Menge Leute, die die Lautstärke einer Grafikkarte sehen können! Wir drei sind nur etwas minderbemittelt, dass wir da nur die Ohren für nutzen können.;)
 
sorry Leute, aber ich habe vom Lüfter der 7950GX2 gesprochen und den höre ich sehr wohl in meinem Case, wenn er unter Vollast aufdreht. Ich habe nur gesagt, der Lüfter des G80 hat eine gewisse Ähnlichkeit zum GX2. Meine Schlussfolgerung: gleicher Lüfter - gleiches Laufverhalten. Ich habe nicht gesagt, daß er mich stört.

Also, ab an die Theke und her mit dem Teil :bigok:

@bassmecke:

und das du mir in den Rücken fällst :(
alte Thüringer Kampfwurst ;)
 
Zuletzt bearbeitet:
Hmm, der Kühler/Lüfter der 7950GX2 wär einer der letzten die ich ähnlich finde, aber ist ja auch egal.
 
Es ist nur so, dass ich davon abgekommen bin, Lüfter anhand des Aussehens zu beurteilen. Der 7800GT-Lüfter war ziemlich laut, sah aber fast genauso aus, wie der GX2-Lüfter, der doch etwas leiser ist. Der X1950XTX-Lüfter sieht optisch genauso aus, wie der von der X1900XTX, ist aber erheblich leiser. Ich mutmaße da nicht mehr rum. :)
 
du hast recht, ich hab den Lüfter meiner 6800 vor Augen gehabt, der GX2 ist bedeutend kleiner.
 
zum glück ist die karte nicht 3 meter lang... </irony>
wird meines erachtens echt mal zeit, dass die jungs und mädels ein bißchen an den anderen dingen basteln, als nur an der reinen leistung. sprich: weniger wärmeabgabe, weniger stromverbauch (allein bei den beiden pci-e steckern wird mir schon schlecht, wenn ich dran denke, dass mein pc eigentlich 24/7 rennt, aber wenns hochkommt aus zeitgründen mal 3-6h fürs zocken pro woche gebraucht wird) und das ganze auf nem schicken kurzen pcb wie früher auch. irgendwie werden diese punkte zunehmendst mehr vernachlässigt wie mir scheint. sehr schade...
bin trotzdem mal gespannt, wie denn nun der effektive verbrauch und die tatsächliche leistung der karte aussehen...
 
@vek:

für einen Esel-Rechner und 24/7 Dauerbetrieb ist die Karte nun wirklich nichts. Es sei denn, du willst deinen Energieversoger unterstützen.
 
Ich denk mal der Preis der 7950GX2 wird erst sinken wenn die 8800GTX oder GTS in den Shops lagernd sind oder ? Das wird sicher nicht Anfang November (beim Launch) sondern sicher 2-3 Wochen später sein.
 
@Tschibbl:

der Preis der GX2 wird definitiv nicht mehr fallen, die Karte wird aus dem Regal genommen (es sind auch fast keine mehr lieferbar). Ich hab hier aber eine, die ich verkaufen will :)
 
ist kein eselrechner (btw: wer zum geier benutzt den rotz eigentlich noch?)... ist mein mutlimedia und gaming rechner, aber läuft halt trotzdem meistens nonstop, weil irgendwas drauf abgeht (encoding, datenbankaufbereitung...).
und ist halt auch mein zockrechner und soll schon ne fitte karte haben dann, hab atm ja nur ne übergangskarte drin. soweit kommts noch, dass ich mir 2 krasse maschinen (in bezug auf board, cpu und ram) bau, nur weil die grakahersteller es nicht gebacken kriegen, ihre technik mit der leistung mitwachsen zu lassen - was bei den anderen komponenten überall der fall ist.
man sieht ja an den jüngsten intel cpus, dass es mit ein bißchen umdenken auch geht, lesitungs enorm zu steigern und gleichzeitig verbrauch und preis zu senken... warum sollen das also nicht auch die graka hersteller mal gebacken kriegen? iwo hört der spaß ja mal auf, wenn eine karte mehr strom frisst als alle anderen komponenten im rechner ZUSAMMEN.
 
Ich denke eigentlich wenn die Karte unter 3D schon so viel verbrät, dass sie dann auch mehr dafür tun den 2D Verbrauch zu senken.
 
@Shining65
sehe ich genau so, die GX2 wird zum auslaufmodell.
den nVidia und die distris wollen sicherlich keine konkurenz aus dem eigenen hause. zumal es vll. nicht nur bei einer GTX und GTS bleiben wird bei der 8800er.
von den mid und low-segment ganz zum schweigen.

@vek
du vergisst eine wichtige sache.
die CPUs haben einen längeren lebenszyklus gegenüber der GPU.
AMD und intel haben zeit um den stromverbrauch zu senken, alleine bei den 90nm von AMD gabs x revisionen.
bei grakas sind es max 1-2 GPU revisionen.

ATI und nVidia basteln ständig an neuem, neues design, erweiterungen und etc. dabei bleibt wenig zeit um wirklich auf den stromverbrauch zu achten.
das bekommt man als kund zu spüren. aber ATI hat sich ja vorgenommen nach dem R600 mehr darauf zu achten, vieleicht denkt ja nVidia genau so.
denn wenn das weiter so geht, wie schaut es bei R1000 und G100 aus?

@topic
mir ist gerade was in den sinn gekommen.
bei meiner alten 9000pro war im bereich der elkos eine doppel PCB, wie man sie bei der 7900GX2 kennt.
wäre es technisch ohne große problem möglich die elkos im zu "stampeln"?
sprich auf der haupt PCB ein paar elkos und auf der kleinen schwester PCB auch ein paar drauf.
so könnte man doch etwas länge sparen, was wohl immer mehr ein problem zu werden scheint.
nur ein fehler hätte die sache, die elkos der unteren PCB würden weniger wind abbekommen, was eine höhere temp und geringere lebensdauer als folge hätte.
 
Zuletzt bearbeitet:
wenn ich dran denke, dass mein pc eigentlich 24/7 rennt, aber wenns hochkommt aus zeitgründen mal 3-6h fürs zocken pro woche gebraucht wird)
Also warum so 24/7-Leute wie Du über den Stromverbrauch von Grafikkarten jammern ist mir schleierhaft. :fresse::shake:
ist kein eselrechner (btw: wer zum geier benutzt den rotz eigentlich noch?)... ist mein mutlimedia und gaming rechner, aber läuft halt trotzdem meistens nonstop, weil irgendwas drauf abgeht (encoding, datenbankaufbereitung...).
und ist halt auch mein zockrechner und soll schon ne fitte karte haben dann, hab atm ja nur ne übergangskarte drin
Da ist wohl nichts mehr zu retten. Bitte: Kein Wort mehr über Stromverbräuche.:fresse:

Wo steht denn, das ein PC 24/7 laufen muß? :hmm:
Ich denk mal der Preis der 7950GX2 wird erst sinken wenn die 8800GTX oder GTS in den Shops lagernd sind oder ? Das wird sicher nicht Anfang November (beim Launch) sondern sicher 2-3 Wochen später sein.
Ich denke an den Preisen wird sich erstmal kaum was tun, da die erste Ladung G80 in zwei Tagen ausverkauft sein wird und die Karten dann bis Januar nur virtuell in den Läden existieren. Wenn es also keine Konkurrenz gibt, werden die alten Karten auch nicht so stark fallen. Ist einer Vermutung, aber ich persönlich kann mir das gut vorstellen.
 
Hallo !
Ich raff das net 4 Stecker wo kommen die den überall rein ?

Oder braucht man nicht alle ?
g80foto.jpg
 
Die 4 Stecker sind nur nötig, wenn man kein netzteil hat, welches 2x den 6poligen PCIe-Stromstecker hat...

Wenn man ein Netzteil mit 1x 6pol PCIe-Stromstecker hat, braucht man demnach nur einen solchen Adapter...

Ansonsten muss man alle 4 anschließen. Und das möglichst an den verschiedenen Netzteil-Kabelsträngen.
 
Zuletzt bearbeitet:
Ah okay dann könnte ich später die Teile vorne abschneiden Danke dir :wink:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh