[Sammelthread] Der Nostalgie Grafikkarten Thread

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das wusste ich nicht @Tzk leuchtet aber ein! Oftmals fliegen die Trümmer unterschiedlich durch die Gegend und das erklärt wohl die Unterschiede?!
 
IMG_6676.jpeg

Da ich ja neulich inspiriert wurde mir auch eine 9600GT zu holen werd ich das ganze mal ein wenig protokollieren.

Der Lüfter ist leider so nervig am rattern, dass ich direkt auf 120mm vor dem Kühler gewechselt hab. Die Karte wird also wohl ein gutes Stück kälter sein, als Stock.

Die Benchmarks für die nächsten Tage werden immer die gleichen sein, genauso wie die Basis:

3DMark 2001SE + Aquamark

i7 14900KF 6GHz, 32GB DDR5-8400 34-47-34-34
Gigabyte Z790 Aorus Tachyon
Forceware 197.45
Windows XP x64

Reihenfolge:
1. GPU Stock, keine tweaks
2. mit tweaks (Reihenfolge Tests, LOD etc.)
3. mit GPU OC, mem stock
4. mit GPU + mem OC
5. mit voltmods
6. GPU mit Chiller
7. GPU Trockeneis

Muss mich ja über das lange Wochenende beschäftigen. :Fresse:

Werd wohl immer mal wieder zwischendurch hier posten oder ggf. auch einfach nur diesen Beitrag ergänzen. Sollte interessant werden.

Die Ausgangswerte:

snaphsot0004.png

snaphsot0005.png

Edit: Interessant ist, dass die Karte - wie auch die von @Masterchief79 mit 700/1000 ab Werk kommt. Aber in dem Fall hier mit 1.1V auf dem Kern, dafür aber 2.0V auf dem Speicher. Hat hier Gainward eventuell im Zuge der Produktion umgestellt, weil man gemerkt hat, dass der Speicher die 1000 auch mit 1.9V packt, die GPU aber für die 700MHz zuverlässig durch alle Bins 1.2V benötigt?
 
Zuletzt bearbeitet:
Ne sind schon auch gemessene 1.1V unter Last.
Eben schnell einen sehr konservativen Vmod gemacht mit maximal 1.15V. Da war meine Berechnung um die Uhrzeit aus dem Kopf ein wenig daneben. :fresse:
Muss morgen mal den 10kOhm Widerstand noch entfernen. Mit 5k VR sollte es dann passen für alles.

1.1V: 780MHz
1.15V: 833MHz

Speicher sind 1130MHz drin, glaube aber da da lohnt ein Vmod eher weniger.

Edit: Doch noch kurz umgelötet.
Ansonsten skaliert die Karte dann oben rum doch weniger.

1.25V: 860MHz
1.35V: 885MHz


Morgen dann mit WaKü, dann hab ich bald auch alle Ergebnisse zusammen. :d
 
Zuletzt bearbeitet:
Also ein ganz ordentlicher Chip. Die Skalierung deckt sich mit meinen Ergebnissen, da kommts dann eher auf Temperatur an, als auf Spannung. Lötest du deine vMods nicht mit Poti?

Ansonsten wie immer krass, was mit einem 14900K in Legacy 3D möglich ist. Mal eben System angeschmissen, Karte mit bisschen Lukü und softem vMod druff und 8ter Platz in der Kategorie. :eek: Vor allem weil da ja auch kein stundenlanges tweaken dabei gewesen sein wird.
Auf der anderen Seite ist es wirklich keine einfache Sache, XP auf der Mühle zu installieren (oder wars zumindest damals nicht).
 
Auf der anderen Seite ist es wirklich keine einfache Sache, XP auf der Mühle zu installieren (oder wars zumindest damals nicht).
Das wollte ich sowieso mal fragen. UEFI Boot und Secure bekommt man ja noch irgendwie aus und so mit CSM geht auch was, aber WinXP, gibt es da taugliche Anleitungen, ggf auch für AM4/AM5?
 
Lötest du deine vMods nicht mit Poti?

Doch, schon. FB - GND waren 750 Ohm und hatte halt keinen 10k mehr da. 5K war dann halt rechnerisch nix unter 1.25V machbar, daher erstmal 10k Fest und 5k VR in Reihe. Der 10k ist jetzt raus.


Das wollte ich sowieso mal fragen. UEFI Boot und Secure bekommt man ja noch irgendwie aus und so mit CSM geht auch was, aber WinXP, gibt es da taugliche Anleitungen, ggf auch für AM4/AM5?

Also irgendwo gibt’s die sicher, aber in meinem Fall ist es ein Team-internes Macrium Backup. Die Arbeit hat mit Treiber integrieren usw. hat mir also jemand abgenommen.

Muss aber auch sagen, dass Booten egal ob CSM, MBR, GPT oder sonst was für Optionen auf dem Tachyon super einfach ist. Hab noch nicht einmal nen Bluescreen.
Auf den anderen (älteren) Plattformen ist das hingegen echt schmerzhaft. :fresse:
Und das selbst bei dem ein oder anderen Win7 Backup auf MBR Basis.

Also „installieren“ Start bis Post waren 3 Minuten Aufwand. :d
 
Ist es normal, dass bei einer Asus Extreme N7800GT Dual auf einem Nicht Nforce 4 SLI Mainboard nur eine GPU erkannt wird? Wenn ja, gibt es eine Möglichkeit beide GPUs zu aktivieren? Ich hab ein X58 und nforce 790i SLI Board hier, da läuft sie auch nur mit PCIe x8 anstatt x16. Ich hab noch weitere Boards da, nur eben kein Nforce4SLI




 
@TM30 Sind von den Kollegen alle anwesend oder ist einer heimlich auf der Toilette rauchen?

Sonst bin ich mir ziemlich sicher, dass du ein passendes SLI Mainboard aus der Ära brauchst. Irgendwo gab es auch ne Liste dazu, mit den passenden Modellen. Das geht nicht auf jedem beliebigen Mainboard und schon gar nicht wenn's kein SLI kann.

Edit:
  • Asus P5ND2-SLI
  • Asus P5ND2-SLI Deluxe
  • Asus P5N32-SLI (needs new BIOS)
  • Asus A8N-SLI
  • Asus A8N-SLI Deluxe
  • Asus A8N-SLI Premium
  • Asus A8N32-SLI Deluxe
  • DFI nF4 SLI-DR
  • Gigabyte GA-K8NXP-SLI
Quelle: https://pcper.com/2005/10/asus-n7800gt-dual-review-7800-sli-on-a-single-card/4/
 

Anhänge

  • 9-1080.1321238023.jpg
    9-1080.1321238023.jpg
    226,9 KB · Aufrufe: 31
Mist. Dann muss ich wohl ein passendes Board noch kaufen… Sind denn auch irgendwelche neueren Boards noch kompatibel?

Wie ist dein erster Satz zu verstehen?
 
Das wollte ich sowieso mal fragen. UEFI Boot und Secure bekommt man ja noch irgendwie aus und so mit CSM geht auch was, aber WinXP, gibt es da taugliche Anleitungen, ggf auch für AM4/AM5?
WinXP hat eigentlich nur ein Problem bei der HDD-Erkennung, weil es die ganzen aktuellen SATA-Controller nicht kennt.

Daher einfach einen SATA-Controller auf PCI(e)-Basis, für den es WinXP-Treiber gibt, und fertig.

Falls jemand die aktuellen SATA-Controller-Treiber für WinXP kompatibel genacht hat (Fernando?), dann klappt es damit. Ich kenne sowas aber nur für Intel.

Die ganzen gelben Ausrufezeichen im Geräte - Manager sollten dann nicht stören. :d

UEFI dürfte aber nicht klappen, weil XP nicht von GPT booten/lesen kann. Es sei denn, man findet ein entsprechend gemoddetes Image.
 
  • Danke
Reaktionen: Tzk
Wie ist dein erster Satz zu verstehen?
Auf das Bild bezogen - was sich durch den Edit nach unten verschoben hat.

@fortunes Meiner Erfahrung nach waren es eher die USB-Treiber, die ein Problem darstellten. Die Boards haben keinen PS2 Jack mehr und nur noch USB3.0+ Anschlüsse, wodurch man keine Eingabegeräte anschließen kann, die im Windows Setup erkannt werden.
Bei den SATA Treibern gab es immer irgendein passendes Image, in das der Treiber schon integriert war. Da musste man nur ein bisschen probieren.
 
Sonst bin ich mir ziemlich sicher, dass du ein passendes SLI Mainboard aus der Ära brauchst.
gab es nicht eine Software SLI Lösung für nicht unterstützte Boards?

im Endeffekt benötigt es ja nur min nen 2Stk 8X Steckplatz und die Freigabe im Treiber ...
 
Auf das Bild bezogen - was sich durch den Edit nach unten verschoben hat.

@fortunes Meiner Erfahrung nach waren es eher die USB-Treiber, die ein Problem darstellten. Die Boards haben keinen PS2 Jack mehr und nur noch USB3.0+ Anschlüsse, wodurch man keine Eingabegeräte anschließen kann, die im Windows Setup erkannt werden.
XHCI Handoff aktiviert die USB-Verwaltung via BIOS, USB Legacy aktiviert USB fürs WindowsXP-Setup.

USB3.0 ist eigentlich von Haus aus USB2.0-fähig, wenn die Treiber nicht geladen sind.

Das kann ich bei meinen A520- und B350-Platinen beobachten.

Ob das auf aktuellsten Plattformen noch immer so ist, kann ich dir leider nicht sagen.
 
Selbst ohne aktives SLI sollten beide GPUs im Gerätemanager erkannt werden. Ich tippe auch das Board muss Bifurcation können, sonst wird die zweite GPU nicht erkannt. Also mal so ein Board raussuchen und testen.
 
Leider gibt’s gar nicht mal so viele boards, die das unterstützen. Vor allem bei modernen Plattformen eher selten hab ich den Eindruck.

Übrigens doch noch eine weitere Stufe für die Karte gefunden :d

IMG_6683.jpeg

Muss demnächst mal wieder defekte Platinen plündern. Hab dafür jetzt schon auf die vorrätigen Kemets zurückgegriffen.
 
Selbst ohne aktives SLI sollten beide GPUs im Gerätemanager erkannt werden. Ich tippe auch das Board muss Bifurcation können, sonst wird die zweite GPU nicht erkannt. Also mal so ein Board raussuchen und testen.
Bist du sicher dass beide GPUs angezeigt werden müssen, egal welches Board man verwendet?

Edith: der8auer sagt, dass beide gpus nur mit nf4sli erkannt werden. Ab 11:47


HW-Legenden #5: 1000€ Dual GPU Grafikkarte aus 2005 mit externem Netzteil (ASUS 7800 GT Dual)
#Youtube
 
Zuletzt bearbeitet:
IMG_7024.jpeg

Passt hier wohl am besten rein.
Viele Kabel an einer kleinen Karte.

Schon auch interessant, wie weit die Karten damals schon waren. Software-Spannungsregelung dank Volterra Controller für VGPU, MVDDQ, MVDDC, VDDCI.

Zudem die Möglichkeit Mem-Timings direkt zu ändern. Da kann man schon echt viel Basteln.

Leider scheinen viele Karten bei ca. 840-860MHz dicht zu machen. Einige wenige haben wohl mehr geschafft, da muss ich mich mal schlau machen.
Wobei der vermutlich bei -40c noch nicht nötig sein wird, mehr einstellen zu können.

Mit neueren Plattformen merkt man dann auch, wie stark die Karte damals eingebremst wurde.
In den Reviews kam die Karte z.B. im 3DMark 05 damals nicht über die 10000 Punkte. Heute reden wir da eher von 14000+ bei Standard-Takt.

Edit: Und nein, ein 5.1GHz 4770K genügt leider nicht, selbst der bremst die Karte noch aus:


snap-08-08-15-31-2.png
 
Zuletzt bearbeitet:
Weil ich mal wissen wollte, wie sich der Parhelia-LX Chip gegen einen "echten" schlägt, habe ich gestern eine Matrox Millenium P750 gegen eine Parhelia 128MB (AGP8x) gebencht, bei niedrigen Auflösungen (800x600) schafft die P750 ungefähr 60% der Leistung der Parhelia, schraubt man die Auflösung hoch (1280x1024) gehts auf ca. 40% runter. Vermutlich ist das aber zum Teil auch den nur 64MB VRam der P750 zuzuschreiben.
Getestet wurden Aquamark 3, 3D Mark 2001SE und 2003 und als Open GL noch eine Timedemo in Quake 3. Eingebaut waren beide im selben System: AMD XP 3000+, A7N8XE-DLX, Windows XP SP3.
Anhang anzeigen 955775
Anhang anzeigen 955776
Warum die Parhelia diesen komischen "B" Aufkleber auf dem Lüfter hat und kein Matrox-Label weiß ich nicht. Lufter und Kühler sind jedenfalls original. Und ja, ich muss meinen Basteltisch mal wieder mit neuer Folie beziehen 😅
Die Parhelia LX glaube ich hatte einerseits nur ein 128 Bit Speicherinterface und auch nur 2 statt 4 Pipelines.

Aber das waren auf jeden Fall noch intressante Zeiten als es nicht nur ATI und Nvidea gab sondern auch noch Matrox, S3 und 3dfx. Glaube NumberNine und NEC haben sich schon etwas früher aus dem Markt zurückgezogen.
 
Ist das ein Auslesefehler mit den 64 TMUs ??? Die 8800 GTX müsste doch nur 32 TMUs haben.
 

Anhänge

  • Unbenannt.JPG
    Unbenannt.JPG
    136 KB · Aufrufe: 19
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh