***8800GTS vs. 2900XT THREAD***

Welche Adapter hattest du denn dran?? Es gibt nämlich welche einzeln zu kaufen, allerdings stimmen die Pins (Masse/spannung) nicht mit der karte überein! Ich hoffe du hast die mitgelieferten benutzt! ;)

Gruß
:wink:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ Eagleone19

auf jeden Fall viel glück und mein Beileid hat.

@ Stegan

Bei mir waren gar keine Strom Adapter dabei. Aber normal braucht man den 8poligen Adapter ja eh nicht.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Im Crossfire funkt im Moment kein übertakten ( bei mir nicht, beim zocker28 nicht und bei den anderen auch nicht die was eine 2900XT CF verwenden ) Eine Karte kannst mit den RivaTuner oder dem AMD Tool übertakten.

Außerdem ist der Stecker für die Anschlüsse auf dem Mainboard.
 
ja den braucht die HD 2900XT aber :)

graka2600nb5.jpg
 
@stegan , gut da steht das die schwer rein gehen , ich habe die ja aber innem fachhandel gekauft und die gingen BUTTERWEICH rein :(

Den ich oben gezeigt habe war ja nur symbolisch damit jeder weis was gemeint ist.

Eagleoen19
 
Ich suche gerade noch verzweifelt das Bild, wo man die Pin belegung sehen konnte! Ich erinnere mich da nur dumpf an etwas! Hoffen wir trotzdem, dass es die richtigen waren! ;)

Gruß
:wink:
 
Mach doch mal ein Bild von dem Adapter auf dem man die Belegung halbwegs sehen kann, Eagleone19.
 
kann keine Bilder machen male ihn mal ab :)


MOM

Eagleoen19
 
Zuletzt bearbeitet:
eagleone
das war bei dir auf jedenfall der falsche Adapter...
Der PCIe Stecker mit 8 Pins hat genau die gleiche Pinbelegung wie der mit 6 Pins, einzig die beiden zusätzlichen sind mit Masse belegt, sprich wenn dein Adapter dort wo normalerweise bei Verwendung der beiden 6Pin Stecker die zwei Pins frei bleiben und diese beiden bei dem Adapter aber mit nem gelben und nem schwarzen belegt werden, dann hast du die Karte direkt mit nem Kurzen gehimmelt ;)
Und wie schon mehrfach gesagt, du brauchst keine Adapter fürs OC. Durch den 8Pin Adapter wird nicht mehr Strom zur Verfügung gestellt, ...
Du kannst bis Anschlag OC auch mit 2 6Pin Steckern, siehe dukee der seine Karte bei über 900MHz hatte und das mit den 6Pin Steckern (er hatte soweit ich mich zurück erinner ein Liberty 500W, also auch nicht sooo das über NT)

Einige Hersteller bzw. "Adapter-bauer" verbauen die Stecker nicht ganz so wie sie sollen, sprich dort gibt es halbrunde Pins und viereckige Pins, mache bauen bei den viereckigen Pins halbrunde Pins hin, was dann bedeutet das der Stecker überall wo man die Pinanzahl brauch butterweich rein geht...
 
Zuletzt bearbeitet:
@sdsonne
Nein die Adapter sind Richtig , stand ja auf der Verpackung ATI HD 2900XT 512/1024MB 8Pin Adapter??????
@Roughneck
Bei mir ist ein shop Quasi um die Ecke , der Cheff ist ein super freund von mir und er würde mir auch kein MIST verkaufen ,da ich da schon 5Jahre und länger kaufe....
Die Karten waren ja ganz neu er bekommt die imemr in so 10er packungen die vom Hersteller noch in sone Folie eingeschweist sind davon hat er mir vor meinen augen 2x HIS 2900XT gegeben....

Eagleone19
 
jap gelesen
aso du hast auch Post
:p

Vielen dank!!!

gruß

Eagleone19
 
Neja das ist egal was dort drauf steht, denn bei den anderen steht auch PCIe Adapter drauf und es ist definitiv kein PCIe Stecker ;)
Hast du mal ein Pic von dem Adapter bzw. ein Link zum Shop wo du die her hast?

Wenn net dann mal please mal eins in Paint, muss auch nicht schön aussehen ;)
 
Ja bild iss schlecht weil ich keine diggi habe *schäm*

Der schop hat keine URL ist bei mir um die Ecke ein kleiner PC shop von nem guten freund.

Ich kann dir aber versichern das mein Adapter zu 100% butterweich in die ATI gepasst hat , desweiteren habe ich ja dann mal dannach geschaut und die anschlüsse passten zu 100%..

Eagleone19
 
warum der Stecker so einfach in die Buchse gehen kann hab ich dir ja oben schon gesagt... ;)

Hier anbei mal die Pinbelegung des 6Pin und des 8Pin Steckers, vergleich doch mal bitte ob das mit deinem übereinstimmt.
pciegm1.png
 
Also der 6 Pin stimmt aber der 6+2 pin ist bei dir anders als meiner :confused:

Eagleone19
 
hab ichs dir gesagt oder hab ichs dir gesagt! :fresse:
glaub nem Ossi doch auch mal was...

Das ist ein Auszug vom Handbuch vom Enermax Galaxy.
Alles was anders ist, stimmt einfach nicht ;)

lass mich raten, bei dir sind die beiden Pins beim 8er Stecker die nicht so aussehen wie beim 6er Stecker nicht 2x Masse sondern, einmal Masse und einmal 12V. Und die Masse ist dort an der Seite wo die Haltenase einrastet und die 12V sind auf der anderen Seite, richtig?

Damit kanns auf gar keinen Fall laufen weil du nen kurzen verursachst.
 
Zuletzt bearbeitet:
hab ichs dir gesagt oder hab ichs dir gesagt! :fresse:
glaub nem Ossi doch auch mal was...

Das ist ein Auszug vom Handbuch vom Enermax Galaxy.
Alles was anders ist, stimmt einfach nicht ;)

lass mich raten, bei dir sind die beiden Pins beim 8er Stecker die nicht so aussehen wie beim 6er Stecker nicht 2x Masse sondern, einmal Masse und einmal 12V. Und die Masse ist dort an der Seite wo die Haltenase einrastet und die 12V sind auf der anderen Seite, richtig?

Damit kanns auf gar keinen Fall laufen weil du nen kurzen verursachst.

Wobei ich das nicht verstehn kann , auf dem ATI bild oben ist der Stecker und meiner sieht so aus halt nur das gegenstück ....

Ich mache nachher ma ein FOTO^^

Eagleone19
 
ja wie gesagt, das Aussehen ist relativ...
Warum das so ist kann ich dir nicht sagen, aber normalerweise sollte genau sowas mit den viereckigen und halbrunden Pins unterbunden werden.

Aber irgendwie läuft da was bei den 8Pin PCIe Steckern nicht richtig... denn sowas hab ich bis jetzt noch nie gesehen, das man einfach so die verschiedenen Stecker untereinander tauschen kann :(
 
mal schauen borge mir naher mal ne diggi dann kannste mir mal sagen ob der der richtige oder der falsche ist...

Eagleone19
 
jo mach mal, mal sehn wie lange ich noch on bin, weist ja 56K... :fresse:
Aber ich kann ja dann nachher noch mal reingucken ob das Pic schon da ist
 
man sollte zum 8800gts/x stromverbrauch noch dazu sagen, dass sich dieser um 20-30 watt senken läßt durch eine taktabsenkung im idle betrieb. praktisch jede karte läßt sich auf 200/200 (und weniger) stabil in windows betreiben.

und zu den stalker benchmarks:
das spiel ist an sich eine gf8 domäne, auch wenn ati zugelegt hat. allerdings haben die nvidia karten mit den letzten treibern ebenfalls stark zugelegt:

http://www.pcgameshardware.de/?menu...=-1&image_id=689023&mode=article&overview=yes

(mehr habe ich auf die schnelle nicht gefunden)
 
Zuletzt bearbeitet:
... dann kannste mir mal sagen ob der der richtige oder der falsche ist...

Eagleone19
Da die Karten kaputt sind wird es wohl der falsche gewesen sein, oder meinste nicht?
Alles andere wäre ja wirklich extremer Zufall, das dann auch grad beide Karten über den Jordan gehen!?
 
man sollte zum 8800gts/x stromverbrauch noch dazu sagen, dass sich dieser um 20-30 watt senken läßt durch eine taktabsenkung im idle betrieb. praktisch jede karte läßt sich auf 200/200 (und weniger) stabil in windows betreiben.

und zu den stalker benchmarks:
das spiel ist an sich eine gf8 domäne, auch wenn ati zugelegt hat. allerdings haben die nvidia karten mit den letzten treibern ebenfalls stark zugelegt:

http://www.pcgameshardware.de/?menu...=-1&image_id=689023&mode=article&overview=yes

(mehr habe ich auf die schnelle nicht gefunden)

kann ja sein, bestreite ich auch nicht, aber bei dem Link sollen die 39 bestimmt FPS sein oder ?
Bei diesen Einstellungen und der Auflösung bin ich mit einer karte immnoch fast doppelt so schnell;)
Ich weis nicht welche stelle sie gebencht haben, aber ich hab mit 1680x1080 4xAA 16AF min FPS 50, weniger hab ich noch NIE gesehen in dem Spiel und ioch hab Stalker 2x durch in der Zeit wo ich die ATI hab.

Und PCGH sollte man auch nichtmehr sooo ernst nehmen, seitdem ich den einen Test gesehen hab wo sie nen alten ATi Treiber genommen hab und den neusten NV Treiber und dann gebencht habn hab ich den Carsten gleich angepflaumt was das soll, aber darauf nicht geantwortet hat.:mad:
 
man sollte zum 8800gts/x stromverbrauch noch dazu sagen, dass sich dieser um 20-30 watt senken läßt durch eine taktabsenkung im idle betrieb. praktisch jede karte läßt sich auf 200/200 (und weniger) stabil in windows betreiben.

Und? Wir sind alle schlau genug und eine Taktabsenkung bringt sehr wenig, entscheident ist die GPU Vcore, die kann man beim G80 aber nicht senken per Software wie beim R600 ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh