Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptables Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.

image2.phpx5u.jpg


image.php7l5.jpg


gpu_x2_g200_5xn1.jpg


Danke Snoopy :wink:





Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
so hab mit mit NiBiTor jetzt ein Bios zusammengestellt, das 1.06v 2D/Extra gibt sowie die Taktraten der GTX285 hat.

Lüfter auf 25% im Idle und dann "Automatic Speed" für einen sanften anstieg der drehzahl.

Soll ich das jetzt einfach mal flashen? Das schlimmste was passieren kann, währe das die karte freezed oder grafikfehler verursacht und ich das original bios flashen muss, oder?!

Habe das Original-Bios mit GPU-Z gepspeichert (war eine .bin datei), laut anleitung auf pcgh soll ich das neue bios aber als .rom speichern und dann per nvflash flashen .. ist das richtig?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
jo ist richtig. es muss aber aufjedenfall gt200 heißen sonst geht es ned.
 
das mit gpu-z gespeicherte heißt "GT200.bin", ja.

das von mir gespeicherte heißt nun "oc.rom", das würde ich jetzt mit nvflash mit einer startdiskette flashen ..
 
nein wird nciht gehen da smuss immer gt200 heißen. hab ich auch probiert mit anderem namen ging ned. kannst ja trotzdem probieren.
 
also zahlen brauchste ned bei mir geb ich ein : nvflash.exe gt200.rom
drücke enter
dann ja
und fertig

wa smacht denn diene maximal speicher? bei meienr ist leider schon ab 1242 mhz ende.
 
Zuletzt bearbeitet:
ja genau den wert, den der gtx285, wollte ich flashen..

hab grad mal furmark laufen lassen und gesehen das bei 60% drehzahl die VDDC Slave #1-5 werte schon bei ~97° sind .. normal?

kann ich da dann trotzdem die 25% drehzahl im idle + "Automatic Speed" für die lüftersteuerung flashen?!
 
ui scheint mir ziemlich warm zu sein da hebn meine bei 80% nur um die 70°C.
 
also im 2D reichen 0,86V. 25% Lüftergeschwindigkeit sind genial. quasi nicht wahrnehmbar. Steuer das über rivatuner. unter 60° core 25%, ab 60° auto. Mit niedriger Spannung bleibt der Lüfter auch in 3D mehr als erträglich! 3D bekam ich mit 0,95V irgendwann nen freeze. Aber 0,98 sind auch toll! :d

Mal was anderes. Kann mir jemand sagen, wie gefährlich das übertakten des Ram bei der Karte ist? Mir ist nämlich eine kaputt gegangen, nachdem ich den Ram auf 1200 getaktet hab, was ja jetzt nich sooo viel ist.(1150 waren kein Problem) Danach Instabilität und Bildfehler. Jetzt weiß ich nicht, ob es ein Einzelfall war, oder die Karte da generell etwas empfindlich ist. Denn bisher hab ich alle Karten übertaktet und immer vorsichtig die Grenze ausgelotet. Im schlimmsten Fall traten Bildfehler auf.
 
Zuletzt bearbeitet:
wie haste denn im idle so ne niedrige soannung eingestellt? bei mri geht das iwie ned ich will auch 0,98vb im idle haben.
 
soweit runter mit den spannungen komme ich bei der colorful nicht, da brauch ich ein anderes bios .. hab jetzt den speicher erstmal wieder auf default gestellt und werde dann das bios mit default speicher flashen..
 
wie haste denn im idle so ne niedrige soannung eingestellt? bei mri geht das iwie ned ich will auch 0,98vb im idle haben.

ich wußte gar nichts von dem tool. Hab mir die Anleitung zum Rivatuner Plugin angesehen. Das geht über die comandozeile. Kannst dir dann ne batch basteln, die perknopfdruck oder automatisch umschaltet.

---------- Beitrag hinzugefügt um 21:03 ---------- Vorheriger Beitrag war um 21:02 ----------

soweit runter mit den spannungen komme ich bei der colorful nicht, da brauch ich ein anderes bios .. hab jetzt den speicher erstmal wieder auf default gestellt und werde dann das bios mit default speicher flashen..

Das war ne colorful. Mit dem Plugin kann man jede spannung einstellen. Deshalb ist vorsicht geboten. Der übernimmt auch 2V, wenn man sich vertippt. Dann macht die Karte 900/2000 mit ;P
 
achso, ich rede die ganze zeit vom NiBiTor und nicht von Riva Tuner, will die werte alle flashen.
 
das geht soweit ich weiß nicht. Man kann doch nur die VID's flashen. Ich sehe allerdings keinen grund zum flashen. Geht auch so alles automatisch, ohne das Bios zu verändern
 
hää .. ? tiefer als 1.03v gehen doch gar nicht ... flashen schon, aber GPU-Z zeigt tortzdem die 1.0375V an .. klärt mich mal jemand auf
 
hää .. ? tiefer als 1.03v gehen doch gar nicht ... flashen schon, aber GPU-Z zeigt tortzdem die 1.0375V an .. klärt mich mal jemand auf

Ja ließ doch mal genau. Mit Riva Tuner gehts. Halt nur bis zum nächsten neustart(wozu gibts autostart).
 
ode rmit dem evga voltage tuner + patch für die nicht evga Karten. uIch lasse meien nun auf standardtakt+ 50mhz auf gpu udn shader laufen, dafür aber auf genau 1V
 
hab gerade mal die gpu-z werte mit den "zu erwartenden" werten verglichen ..

auf jedem gpu-z screen in dem thread hier (also auf 9 seiten) habe ich die "Texture Fillrate" durch den Coretakt geteilt und müsste eigentlich auf die TMUs kommen (80), doch komme ich wie bei mir immer auf einen Wert ~73,125.

Wird das nicht richtig erkannt? oder fehlen uns Textureinheiten?!

EDIT: hab mir mal eine alte version gezogen -> 0.2.4 -> liest den korrekten wert für 80 TMUs aus !!

die 0.3.2 version ist also "fehlerhaft", schade ..
 
Zuletzt bearbeitet:
ui das weiß ich ned. aber ich finds fgeil das meine grade mit 1V und 635/1458/1150 läuft ohne fehler.

Edit: Jo ich werdemir auch nochmal die alte version laden. Weil das 55Nm angezeigt werden kann es ja auch ned sein.

was ich aber echt blöd fidne ist, warum haben denn die 280er standard soviel V, wenn die meisten eh standard takt mir 0,9-1,1V machen. Und meien macht mir 1V noch die taktung der GTX286 mit, ausser speicher hab ich auf 1188. So bleibt sie genau so kühl mit 80% Lüfter wie meine GTX266 55NM mit 100% Lüfter(729/1474/1215). Daher bin ich echt nun zufrieden. Ganzen morgen ab 7uhr hab ich furmark laufen lassen udn seit 2stiunden war crysis dran. Ist stable.

so und nun gehts zum faschingsumzug bin trommler.

Ach siond ferien schön endlich wieder zock nach einem monat ohne xd. Nur eider schreib ichauch arbeiten nach den ferien = heul.
 
Zuletzt bearbeitet:
Hey Trommler, warum bist du eigentlich von deiner heißgeliebten leadtech GTX260 weg? Sind die Karten gleichschnell bei den oben genannten Taktraten?

---------- Beitrag hinzugefügt um 14:18 ---------- Vorheriger Beitrag war um 13:22 ----------

Mal was anderes. Kann mir jemand sagen, wie gefährlich das übertakten des Ram bei der Karte ist? Mir ist nämlich eine kaputt gegangen, nachdem ich den Ram auf 1200 getaktet hab, was ja jetzt nich sooo viel ist.(1150 waren kein Problem) Danach Instabilität und Bildfehler. Jetzt weiß ich nicht, ob es ein Einzelfall war, oder die Karte da generell etwas empfindlich ist. Denn bisher hab ich alle Karten übertaktet und immer vorsichtig die Grenze ausgelotet. Im schlimmsten Fall traten Bildfehler auf, die nach runtertakten wieder verschwanden

Keiner?
 
Ram ist immer so eine sache, da wäre ich lieber zu vorsichtig .. ist der einmal im eimer hilft nichts mehr.

wisst ihr was die "VDDC Slave #5 Temperature" für eine ist, beim crysis spielen bricht die sehr weit aus .. satte 245° Max wenn ich mir das max. zeigen lasse, doch auf den letzen paar minuten des graphen ist kein ausschlag zu sehen und sonst auch wie die anderen #1-4 so bis maximal 80°

Crysis ist bisher einmal wegen bluescreen, dann "funktioniert nichtmehr" und gerade weil ich aus dem TAB zu windows zurückwollte abgestürzt.. kann aber auch damit zusammenhängen das ich von ATI zu nVidia gewechselt bin ohne OS neu zu machen.

EDIT: hab nun zu probe mal wieder das default oc geflasht, auch dort erreicht die "VDDC Slave #5 Temperature" beim crysis spielen 125° nur sehe ich es nicht auf dem graphen, entweder zu lange her oder ein auslesenfehler.. was denkt ihr?!

EDIT2: Screen angehängt, das sieht doch klar nach einem gpuz fehler aus oder?! gemeint ist der eine messwert andem die drehzahl 0 wird und die temperatur in die höhe schießt.

 
Zuletzt bearbeitet:
Hey Trommler, warum bist du eigentlich von deiner heißgeliebten leadtech GTX260 weg? Sind die Karten gleichschnell bei den oben genannten Taktraten?

---------- Beitrag hinzugefügt um 14:18 ---------- Vorheriger Beitrag war um 13:22 ----------



Keiner?

Weil ich die GTX280 für 234€ bekommen konnte, bekam nen gutschein bei notebooksbilliger(40€) geschenkt udn die kostete dann nur so viel udn die ledtake gtx260 verkaufe ich für 222€. Die ist noch da udn verpackt, geht morgen raus.
Ne GTX26 216Core ist mit 675/1458/2300 ungefähr, laut test mizt der gtx260 ssc von ebga knapp hinter der gtx 280 oder genau gleichauf. Also war meien leadtek ein wenig shcneller. Wobei meine GTX280 nun mit 1V udn 648/1458/2300 läuft iudn das ohne fehler. also hab ich es nciht bereut gewechselt zu ahben. Auch in gta4 ist es besser wnen man bisle vram mehr hatt.
 
lol hab nen neuen meister im oc testen gefunden, denn die taktung ist nicht stable. In empire total war demo gabs bluexcreens usw. so ein scheiß dreck aber auch nun. Naja unter last kann ich eh fast immer 100% Lüfter laufen lassen aber idle will ich iwie die 1v wieder hinbekommen aber kp wie ich das machen kann eienr ne idee?

wie kann ich nun im idle weniger spannung anliegen lassen als unter last mit rivatuner oder so? ode rkann ich im nibitor doch noch was einstellen das ich übersehen habe??
 
Zuletzt bearbeitet:
Das mit weniger Idle-Spannung ist eigentlich total easy! Du musst dafür 2 unterschiedliche Spannunen gür Idle und Last haben und dann setzt du mit Voltage Factory in den Optionen einmal den Last-Haken für die 2D Spannung und änderst diese dann und dann gehst du wieder zurück auf Last-Spannung und änderst dann die Last-Spannung.

Wenn du dann noch jeweils die Autostart (erzeugt eine Datei im System32 Ordner mit dem Namen autostart0.bat) Funktion aktivierst (aber nacheinander, sonst werden die Werte überschrieben), dann kannst du dir beide Einträge für Idle und Last in eine Batch kopieren und schon hast du beim Systemstart reduzierte Spannung für Last und Idle, bei mir sind es 0,9V und 1,0375V.

Noch Fragen? Wahrscheinlich! ;)
 
100%lüfter wtf? ich mag lieber 40% ja mit rivatuner kann man per batch die 2D und 3D spannung seperat einstellen. meine macht 0,86V

---------- Beitrag hinzugefügt um 02:10 ---------- Vorheriger Beitrag war um 02:08 ----------

Ram ist immer so eine sache, da wäre ich lieber zu vorsichtig .. ist der einmal im eimer hilft nichts mehr.

wisst ihr was die "VDDC Slave #5 Temperature" für eine ist, beim crysis spielen bricht die sehr weit aus .. satte 245° Max wenn ich mir das max. zeigen lasse, doch auf den letzen paar minuten des graphen ist kein ausschlag zu sehen und sonst auch wie die anderen #1-4 so bis maximal 80°

Crysis ist bisher einmal wegen bluescreen, dann "funktioniert nichtmehr" und gerade weil ich aus dem TAB zu windows zurückwollte abgestürzt.. kann aber auch damit zusammenhängen das ich von ATI zu nVidia gewechselt bin ohne OS neu zu machen.

EDIT: hab nun zu probe mal wieder das default oc geflasht, auch dort erreicht die "VDDC Slave #5 Temperature" beim crysis spielen 125° nur sehe ich es nicht auf dem graphen, entweder zu lange her oder ein auslesenfehler.. was denkt ihr?!

EDIT2: Screen angehängt, das sieht doch klar nach einem gpuz fehler aus oder?! gemeint ist der eine messwert andem die drehzahl 0 wird und die temperatur in die höhe schießt.


ist einer der spannungswandler. es ist so, dass die sensoren dieser teile sehr empfindlich sind und man sie am besten gar nicht dauerhaft auslesen sollte. fehlmessungen können deshalb auftreten.
 
Das mit weniger Idle-Spannung ist eigentlich total easy! Du musst dafür 2 unterschiedliche Spannunen gür Idle und Last haben und dann setzt du mit Voltage Factory in den Optionen einmal den Last-Haken für die 2D Spannung und änderst diese dann und dann gehst du wieder zurück auf Last-Spannung und änderst dann die Last-Spannung.

Wenn du dann noch jeweils die Autostart (erzeugt eine Datei im System32 Ordner mit dem Namen autostart0.bat) Funktion aktivierst (aber nacheinander, sonst werden die Werte überschrieben), dann kannst du dir beide Einträge für Idle und Last in eine Batch kopieren und schon hast du beim Systemstart reduzierte Spannung für Last und Idle, bei mir sind es 0,9V und 1,0375V.

Noch Fragen? Wahrscheinlich! ;)

wie funzt denn voltage factory? ich hab das proggi beim erstenmal ned gecheckt udn hab dann das evga voltage tuner tool genommen. geht das denn ned auch per flashen also mit dem hexeditor?
 
Das EVGA Tool habe ich noch nie benutzt und flashen kannst du nur bis min. kleinste VID.

Wenn du wie gesagt die beiliegende Redame zum Voltage Factory Tool durchliest, dann ist das auch alles halb so wild. Im Prinzip musst du nichts anders machen, als zur Konfiguration auf zwei Button zu klicken, abzulesen und in die Werte in die entsprechenden Fehler einzutragen.
 
kann ich denn ned im nibitor mit dem hexeditior das machen? Weil immer was mit software wo dann geladen wird ist iwie blöd da hab ich shcon so viel xD.
 
Du kannst dir zwar mit dem HEX-Editor eine neue VID basteln, aber die wird vom BIOS nicht übernommen. Naja, Sofware laden ist das nicht grad, der Befehl wird einmal beim Systemstart ausgeführt und das wars dann auch schon. Das Voltage Factory brauchst du an sich nicht dazu, wenn du dir Einträge für den Autostart erstellt hast.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh