[Sammelthread] Gigabyte GA-EP45[T]-UD3P / UD3R / UD3 (Intel P45) [7]

Status
Für weitere Antworten geschlossen.
ja, siehe den Link oben. Die benötigten Mods werden auch ständig weiterentwickelt. Auf dem Screenshot sieht man ganz gut das beide Karten laufen:



Habe mein Windwos nun nochmal neu aufgespielt, alles sorgfältig neu installiert, nun scheint momentan alles wieder normal zu laufen..
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Danke für die Tipps. Habe alles wie beschrieben laufen lassen. Einziger Unterschied nur 20 statt 25 Runs (wird ja kaum nen Unterschied machen) und bei Memory kann man nicht "all" eingeben, das steht neben dem Eingabefenster ohnehin. Im Eingabefenster habe ich ihn selbständig die größte verfügbare Menge Ram testen lassen. Das dürfte doch so ausreichen...hoff ich mal...

Ich kann's dir nicht sagen, außer, dass alle hier 25 statt 20 Runds einstellen. Deshalb habe ich es auch gemacht. Ob das einen großen Unterschied macht, weiß ich nicht. Möglicherweise zeigt die Erfahrung, dass fehler oft erst nach dem 20. Run auftreten, k. A.
Ja, aber du kannst das "all" anklicken und das sollst du auch. Dann ist es wie so ein in die Konsole versenkter Knopf.
Dauert ja nicht lange, so ein Test.

@SLI auf Intel-Chipsätzen:
http://www.hardwareluxx.de/community/showthread.php?t=655591

Sieht mir bisher aber irgendwie ganz schön kompliziert aus...oder gibt's das jetzt auch in einfach?
Nachteil ist nur, dass man immer etwas hinterherhängt mit aktuellen Nvidia-Treibern.
 
Ich glaub ich kauf mir näshsten monat eine 2t GTX 260 dazu und teste das mal^^ echt geile Sache;)
 
Würde ich so kurz vorm Launch neuer GPU-Technologie nicht mehr machen.
Ich verstehe ja euren Hype, nun, da SLI möglich ist.
Aber die GT200-Karten sind aufgrund der abgelaufenen Produktion einfach zu teuer geworden.

Wartet doch lieber auf günstige HD 58XX oder Fermi.
 
Die wird selbst wenn sie günstig ist 200-230 Euro kosten (Eine 5850),und das Geld was ich da draufzahlen müsste insgesamt das tu ich einfach nich,une eine gebrauchte GTX 260 kriegt man schon für 100-120 Euro jenachdem halt.
 
Verkauf deine für 110 €, und du kannst dir beim launsch der neuen nVidia auf jeden Fall eine 5850 Leisten.
Sind jetzt bei ungefähr 250€ mit 10 Tagen Wartezeit
 
Ja mal sehen,ist ja sowieso bisher nur eine Überlegung ob ich das wirklich mache steht in den Sternen,aber 250 EUro gebe ich für eine 5850er nich aus,sooo gut sind die nun auch wieder nicht;)
 
@SLI auf Intel-Chipsätzen:
http://www.hardwareluxx.de/community/showthread.php?t=655591

Sieht mir bisher aber irgendwie ganz schön kompliziert aus...oder gibt's das jetzt auch in einfach?
Nachteil ist nur, dass man immer etwas hinterherhängt mit aktuellen Nvidia-Treibern.

Ist einfach :) am besten hier http://forums.techpowerup.com/showthread.php?t=60844&page=114 schaun, da ist man eigentlich immer auf dem neusten Stand, Hilfe gibts da auch.

Kurz wie ichs inst. habe (und seitdem läuft Sli ohne Probleme) 1. SLiStringInstaller v2.0 installiert (slistringinstall - Rechtsklick, als Admin ausführen), dazu so vorgehen wie beschrieben (UAC aus). 2. Treiber installiert, bei mir grade der 195.62.
3. SLiPatch 0.5 (InstallSli - Rechtsklick, als Admin ausführen) für dein Betriebssystem installieren. Neustarten, Sli haben. Am besten im Hardwareluxx- und techPowerUpthread nochmal nachlesen.


Würde ich so kurz vorm Launch neuer GPU-Technologie nicht mehr machen.
Ich verstehe ja euren Hype, nun, da SLI möglich ist.
Aber die GT200-Karten sind aufgrund der abgelaufenen Produktion einfach zu teuer geworden.

Wartet doch lieber auf günstige HD 58XX oder Fermi.

Ist sicher richtig was du sagst, ich hab das ganze auch nur ausprobiert weil ich durch Zufall über den Thread gestolpert bin und extrem günstig an eine 2. GTX gekommen bin.
Kompletter Neukauf extra deswegen wäre wohl wirtschaftlich betrachtet Blödsinn.
 
Ja, deswegen.
Wie auch Mr Bo sagt, es ist eigentlich nicht sinnvoll, sich jetzt noch eine zweite Karte der alten Generation zu holen.

Okay, die 120 €, die Whitecker erwähnt, gehen ja gerade noch. Aber zumindest eine gebrauchte oder neue GTX 275 oder 285 würde ich nicht mehr kaufen, weil sie unrealistisch viel kosten, weil der Markt künstlich verschärft wurde, indem die Dinger nicht mehr produziert werden.

Ich kann das mit dem SLI-Wunsch absolut nachvollziehen. Man ist ja auch neugierig und zwei von den Karten, die man seit Monaten so lieb hat, wären ein supergeiles Ego-Gefühl.:bigok:
Aber wenn ich nüchtern drüber nachdenke, finde ich es halt Quatsch. Die Leistung steigt nicht so brachial an (erstrecht nicht mit GTX 260 im SLI) und der Preis ist zu hoch.
Und wenn man dann doch umsatteln will, muss man die GTX 260 quasi abgeben, weil die niemand mehr für teuer Geld kaufen will.

Edit:
Und die Preise für die HD5850, wo sich eine Neuanschaffung wirklich lohnen würde, werden schon sehr bald fallen. Nämlich dann, wenn ATI nicht mehr das Monopol auf die schnellsten GraKas hat und trotzdem weiter verkaufen möchte. Dann werden sie sich überlegen, ob nicht doch die ein oder andere Fabrik mehr Chips herstellen könnte.
Ich denke, in drei, vier Monaten zahlt man nicht mehr 250 € für eine 5850 und bekommt sie am übernächsten Tag nach Hause. Für eine GTX 260 bekommt man dann vielleicht noch 70, 80 €.
 
Zuletzt bearbeitet:
Ich glaub wenn wir das weiter diskutieren wollen müssen wir den Thread wechseln,aber ich möchte nicht weiter diskutieren und beende es so das ich sage das du nich Unrecht hast das SLI GTX 260 sich nich zu 100% auszahlt,aber ich denke mal 2 GTX 260 werden ca. gleich gut sein wie eine 5850 wo die 5850 halt ihren Vorteil hatt ist im Streomverbrauch aber auf sowas achte ich nicht so genau^^

Weitere Diskussion können wir dann gern per PM machen zb. wenn du möchtest....
 
sli genau wie cf sind nicht das optimum auf p45,da eben dann nur 2 x mal 8lanes zur verfügung stehen,da die grakas auch mittel pci slot miteinander kommunizieren gibt es da schon abbzüger im vergleich zu nem x48 oder x58 board,gabs schon genug tests darüber,auch hier im forum mit 2 5870,wo man teilsweise 20-40% weniegr leistung hat als auf o.g. referenzboards,gerade bei spielen,die extrem gpu ram fressen,wie gta4,crysis usw!

zu white...das sli funktioniert ist ja wunderschön,aber funktioniert das immer,gibt es wirklich keine problemen,nie...das muß man mal testen und nicht nur anhand eines games...lieber eine single graka,als 2 grakas,die die gleiche leistung kosten!
mein tip...fermi kommt bals,spätestens märz/april,wenn fermi wirklich da,wird wohl eine 5850 unter 200€ kosten,die 5830,welche von der leistung die 4890 ablöst soll um die 150€ kosten,da wird sich die 5850 bei 180-200€ einpendeln und die 5870 bei 230-250€!
die 5850 ist@stock schon gute 25% schneller als eine 285gtx,kannst mir glauben,bei oc auf 5870 niveau gerne auch 40-50%!
mit der 5850 erreiche ich das an min fps bei farcry2,was ich mit der 4890 toxic,welche ca. gleich schnell wie eine 280gtx/275gtx war an avg fps erreicht habe!
 
Zuletzt bearbeitet:
aber ich denke mal 2 GTX 260 werden ca. gleich gut sein wie eine 5850

Das glaube ich nicht mal. Die ist HD5850 ist sicher immer noch 'ne ganze Ecke schneller. Würde GTX 260 SLI eher mit einer GTX 285 vergleichen - hab aber jetzt keine Benches zur Hand.

Und wie Cole schon sagt, dann kommt noch die Lane-Problematik beim P45 dazu, die Kompatibilitätsproblematik mit diversen Spielen, usw.

Aber White, wenn du günstig an eine zweite ran kommst und das Geld hast, mach doch einfach! Kannst uns ja dann über die Leistungsunterschiede ausführlich informieren! ;)
 
Habe jetzt,denke ich mein Gamesetting gefunden,will mal eure Meinung hören!
Ziel war es Oc,aber soweit wie möglich strom sparen bzw. am besten nicht die VID (1,2375) überschreiten,für die Sparfunktionen,die sonst verloren gehen!

Intel Quad 9650

FSB 450
Multi x8
Takt 3,60Ghz
Vcore 1,20 BIos
Vcore Idle 1,168
Vcore Last 1,120
Ram 1080Mhz Turbo/Level8
Everest Read: 9000/Write: 9600/Copy 9700
VTT 1,20
MCH 1,16
GTL 1 & 2 0,80
VDimm 1,80
Rest Auto
Vantage 16600 (GPU 17300/CPU 14800)
3DMark 06 20600 (7900/10200/5500)
Vista 64Bit

Meinungen!!!






Nochmal kurz Off Topic:

2 260GTX ca. so schnell wie eine 5870@Stock,mal schneller,mal langsamer,aber auf fast gleichem Level um Leistung der 5870 mit der 5850 zu erreichen,muß man die 5850 von 725 auf 870 und von 1000 auf 1200 takten,meine läuft @ 5870 Vcore mit 900/1200,meisten laufen auch mit 950/1200...witer wollte ich aber noch nicht testen!

Link:

Graka Vergleich:

http://www.tomshardware.com/de/char...uality/3DMark06-v1.1.0-3DMark-Score,1697.html


hier noch was zur 5830!Wird wohl auf Niveau der 285GTX liegen,das bei ca. 150-180€...Echt gutes Preis/Leistungsverhältnis

http://www.pcgameshardware.de/aid,7...570/5450-Neue-Spekulationen/Grafikkarte/News/
 
Zuletzt bearbeitet:
Habe jetzt,denke ich mein Gamesetting gefunden,will mal eure Meinung hören!
Ziel war es Oc,aber soweit wie möglich strom sparen bzw. am besten nicht die VID (1,2375) überschreiten,für die Sparfunktionen,die sonst verloren gehen!

Intel Quad 9650

FSB 450
Multi x8
Takt 3,60Ghz
Vcore 1,20 BIos
Vcore Idle 1,168
Vcore Last 1,120
Ram 1080Mhz Turbo/Level8
Everest Read: 9000/Write: 9600/Copy 9700
VTT 1,20
MCH 1,16
GTL 1 & 2 0,80
VDimm 1,80
Rest Auto
Vantage 16600 (GPU 17300/CPU 14800)
3DMark 06 20600 (7900/10200/5500)
Vista 64Bit

Meinungen!!!

Sieht soweit gut aus ... ein ganz ähnliches Stromsparsetting teste ich aktuell auch! Was mir aufgefallen ist, bzw. ich fragen muss:

Ist die Vcore IDLE durch EIST u. C1E nicht bei 1,0xx Volt mit verringertem Multi? Nutzt du noch 8 GB RAM, oder sind es 4 GB? Und welchen RAM hast du? 1200'er? Welche Graka verbaut (durch den 06'er Score schließe ich mal auf deine übertaktete 5850)?

Hast du mal MCH @ 1,10 versucht? Einige der Extreme gehen @ 471 noch mit 1,10 Volt auf der MCH, wie wir letztens im Extreme Thread festgestellt haben.
 
Zuletzt bearbeitet:
Habe jetzt,denke ich mein Gamesetting gefunden,will mal eure Meinung hören!
Ziel war es Oc,aber soweit wie möglich strom sparen bzw. am besten nicht die VID (1,2375) überschreiten,für die Sparfunktionen,die sonst verloren gehen!

Intel Quad 9650

FSB 450
Multi x8
Takt 3,60Ghz
Vcore 1,20 BIos
Vcore Idle 1,168
Vcore Last 1,120
Ram 1080Mhz Turbo/Level8
Everest Read: 9000/Write: 9600/Copy 9700
VTT 1,20
MCH 1,16
GTL 1 & 2 0,80
VDimm 1,80
Rest Auto
Vantage 16600 (GPU 17300/CPU 14800)
3DMark 06 20600 (7900/10200/5500)
Vista 64Bit

Meinungen!!!

Hallo
schönes Setting meine Frage hast du mal den Stromverbrauch bei dem Sparsetting gegenüber einem Powersetting errechnet ? Und könntest du mal die Einsparung benennen.

Gruß herm
 
Sieht soweit gut aus ... ein ganz ähnliches Stromsparsetting teste ich aktuell auch! Was mir aufgefallen ist, bzw. ich fragen muss:

Ist die Vcore IDLE durch EIST u. C1E nicht bei 1,0xx Volt mit verringertem Multi? Nutzt du noch 8 GB RAM, oder sind es 4 GB? Und welchen RAM hast du? 1200'er? Welche Graka verbaut (durch den 06'er Score schließe ich mal auf deine übertaktete 5850)?

Hast du mal MCH @ 1,10 versucht? Einige der Extreme gehen @ 471 noch mit 1,10 Volt auf der MCH, wie wir letztens im Extreme Thread festgestellt haben.

1.Keine Ahnung!
2.8GB OCZ Blade LV 1066,da mein Board eh bei 500FSB keine 1200Mhz mehr so richtig wollte,da waren 8GB mit 1000Mhz maximal,bei 1200Mhz zickte das immer mal wieder rum!
3.5850 @ 900/1200
4.MCH 1,10V kein Boot 1,16V Large Stable
5.Ob sich das lohnt vom Strom keine Ahnung,aber zumindest liegt niegends viel Saft drauf,also tue meiner Hardware einen gefallen,bis auch vielleicht mal 1h oder 2h am Tag läuft der Rechner nur im Idle...da muß er nich mit 500FSB und 4Ghz rumlummern xD

Das mit dem 1. wundert mich jetzt auch wo du es sagst,zumindest liegt die VID (Strom Spar Vid) bei 1,10 laut CoreTemp
 
Zuletzt bearbeitet:
Hatte gerade das Glück mir ein UD3P im MP hier zu krallen.
Verkäufer schrieb 545 FSB mit Quad wäre möglich.

Still testing
 
Hatte gerade das Glück mir ein UD3P im MP hier zu krallen.
Verkäufer schrieb 545 FSB mit Quad wäre möglich.

Still testing

Naja 500 kann durchaus sein,510,wenn du ein gutes hast,aber 545...glaub ich eher nicht,zumindest nicht mit Lukü und Alltagstauglich!


@herm

habe gerade alles@default geboote,als 333x9=3,0Ghz und 1,2375V (Vid),regelt auch nur die Vid auf 1,10V laut coretemp runter,aber laut cpu-z bleibt voltage bei 1,20!
 
Zuletzt bearbeitet:
Lass mich mal überraschen.
Board war ursprünglich von einem gewisssen Yoshimura? gewesen.
 
1.Keine Ahnung!
2.8GB OCZ Blade LV 1066,da mein Board eh bei 500FSB keine 1200Mhz mehr so richtig wollte,da waren 8GB mit 1000Mhz maximal,bei 1200Mhz zickte das immer mal wieder rum!
3.5850 @ 900/1200
4.MCH 1,10V kein Boot 1,16V Large Stable
5.Ob sich das lohnt vom Strom keine Ahnung,aber zumindest liegt niegends viel Saft drauf,also tue meiner Hardware einen gefallen,bis auch vielleicht mal 1h oder 2h am Tag läuft der Rechner nur im Idle...da muß er nich mit 500FSB und 4Ghz rumlummern xD

Das mit dem 1. wundert mich jetzt auch wo du es sagst,zumindest liegt die VID (Strom Spar Vid) bei 1,10 laut CoreTemp

guck dir mal meine settings an, dann sollte auch wieder 1200 gehn
 
@herm
habe gerade alles@default geboote,als 333x9=3,0Ghz und 1,2375V (Vid),regelt auch nur die Vid auf 1,10V laut coretemp runter,aber laut cpu-z bleibt voltage bei 1,20!

war ja eigentlich nicht meine Frage wollte nur wissen ob die Einsparung sich nennenswert auswirkt und ich das auch mal versuchen werde obwohl mein Setting echt gut läuft.

Gruß herm
 
ja, siehe den Link oben. Die benötigten Mods werden auch ständig weiterentwickelt. Auf dem Screenshot sieht man ganz gut das beide Karten laufen:



Habe mein Windwos nun nochmal neu aufgespielt, alles sorgfältig neu installiert, nun scheint momentan alles wieder normal zu laufen..

Die Temps habt ihr aber gesehen ( White.)
ich finde die schon recht hoch und es ist Winter, das wird im Sommer evtl. noch mehr...
Hatte SLI 3 X und habs IMMER wieder aufgegeben Leistung TOP (MR außen vor, empfindet eh jeder anders) Aber die Temps waren IMMER hoch.
1. 2 X 7800 GTX ( 256er)
2. 2 X 8800GTS (512er)
3. 9800 GX2 ging der Lüffi Futsch...wenn die Karten dann nu enger aneinander liegen und kaum Luft bekommen, wird es wohl nicht BESSER...
Wenn ich mir da die Bilder die im moment rumschwirren ansehe, 3 - 4- SLI dann frag ich mich echt ob das gutgehn KANN.:

http://www.pcgameshardware.de/aid,6...GF100-Techdemos-auf-Youtube/Grafikkarte/News/

hier unten das 2. Bild...:
http://www.pcgameshardware.de/aid,6...GF100-Techdemos-auf-Youtube/Grafikkarte/News/

Z.b. :
http://www.pcgameshardware.de/aid,6...e/Grafikkarte/News/bildergalerie/?iid=1236923
Können die Grakas da noch Luftholen ?

Da geht es ohne Wakü ned oder seh ich das Falsch.

Hatte es die Tage auch im Reference Modell gesehn da dachte ich mir OH LECK...schöner Ofen ;-)
 
Zuletzt bearbeitet:
Sagt mal Leute, wie bekomme ich denn die Spezifikationen der PCIe-Slots raus. Ist nur so ne Überlegung bzgl. Sata III und PCIe-Controller.

Gigabyte schreibt schlau:

1. 1 x PCI Express x16 slot, running at x16
2. 1 x PCI Express x16 slot, running at x8
(The PCIEx16 and PCIEx8 slots support ATI CrossFireX technology and conform to PCI Express 2.0 standard.)
3. 3 x PCI Express x1 slot
4. 2 x PCI slots

Aber kann ich z.B. den x8 Slot eigentlich auch für was anderes als ne Graka nutzen, wenn im x16 eine drin ist? Und wie schnell sind die 3 Slots unter Ziffer 3.)?

Wenn die alle PCIe 2.0 sind, sind sie eh schnell genug, aber bei 1.0 nicht unbedingt. Jemand genauere Infos?

EDIT: Das hier hab ich noch woanders gefunden:

PCI-e (PCI-express) Ja
PCI-E 2.0 Yes
PCI-E 2.0 Slots 1
PCI-Express Slots 4
PCI-Express Typ 16x/1x
Anzahl der PCI-Slots 2

Danach sollen jetzt von den 4 Slots nur einer 2.0 sein? Oder wie jetzt?
 
Zuletzt bearbeitet:
Eine GTX 260 mit OC reizt den 8x PCI-E Slot nicht aus.
Habe das festgestellt, weil ich auf meinem UD3P noch eine 2te Graka für PhysX hatte, und keine Beeinträchtigung in der Punktezahl von Vanatge und auch 3DMark06 hatte
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh