[Sammelthread] Grafikkarten - Technikdiskussion

GloFo kocht wie TSMC auch nur mit "Wasser".
Ich finde es aktuell gut, bin von einer GTX 285 auf die 680 umgestiegen und bin erstaunt dass die 680 unter Last weniger braucht bei erheblicher Mehrleistung. Preise sind zwar aktuell hoch, aber die 285 habe ich auch für knapp 400€ erworben. Ich für meinen Teil befürworte weniger Verbrauch & Mehrleistung, die Zeiten wo ich mir einfach nur High End Hardware zugelegt habe, egal wie viel die verbraucht hat sind vorbei.
Aber gut, ich bin jetzt auch nicht der der jedes Jahr aufrüstet.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Im Moment sehe ich keine Grenzen der Technik. Wie gesagt, Intel liefert aktuel schon 22nm, wärend der Rest noch auf 32/28nm rumdümpelt, machbar ist da also definitiv noch was. Das eigentliche Problem ist, wie ich schon sagte, die Hersteller haben mittlerweile erkannt, das man in Sachen Leistungsaufnahme nicht weiter rauf kann. Blickt man mal zurück, die Karten seit G80/R600 haben sich nahezu alle in Sachen reiner Leistungsaufnahme gegenüber dem direkten Vorgänger verschlechtert. Auch wenn die Effizienz immer weiter gestiegen ist. Nun sind wir aber an dem Punkt wo es nicht weiter rauf geht. Ein Sprung wie von G200(b) zu GF100 in Sachen Leistungsaufnahme wäre bei Kepler mit weit über 300W verbunden. Nicht umsonst kamen Meldungen auf, das NV wohl die PCIe Spezifikation dahingehend erhöhen will. Zum Glück wurde dies nicht gemacht aktuell. Gezwungenermaßen musste NV also an ihrer Politik was drehen -> mit Erfolg.


sry hatte mich vertan da ist ja doch noch platz nach unten... hatte mich mit den größendimensionen eines silicium-atoms vertan ;)
 
Naja, dürfte aber auch etwas übertrieben sein. Was einem halt direkt ins Auge springt ist das Intel andere Fertigungsschritte als der Rest nutzt. Intel nimmt nurnoch Full-Nodes, TSMC macht nurnoch Half-Nodes mit um jeweils die Entwicklungskosten gering zu halten. Die Frage ist natürlich ob es dadurch eine längere Durststrecke gibt oder ob es insgesammt zu einer Entwicklungsbeschleunigung kommt.
CPUs sind ja (gerade bei Intel) eher tratitionel im Full-Node gefertigt. Wenn man das mal so über die letzten Jahre überblickt, Core2 gabs in 65 und 45nm. Bei den Nachfolgern waren es 45, jetzt sind wir bei 32nm und Ivy mit 22nm wäre auch nicht anders. Dennoch finde ich das Tempo von Intel ziemlich extrem. TSMC und GloFo sind gerade grob Anfang des Jahres bei 32/28nm angekommen. Intel fertigt heute aber munter schon in 22nm. Und wenn das so weiter läuft, passen die vier Jahre schon so halbwegs. Denn vor 2014 erwarte ich persönlich nichts unter 28nm von GloFo/TSMC. Wer weis wo Intel dann schon ist :fresse:



Naja, dafür kaufen sich die Leute heute ihre Karten als OC-Version bei den Herstellern die weit außerhalb der PCIe-Specs laufen. Man denke da an die ersten Karten mit 3x 8 Pin Stromversorgung :fresse:.

Man hat also nichts weiter gemacht als die Kunden regelrecht zu verarschen:d.

Die Lesen den Test und freuen sich wie wenig Strom der Chip doch verbraucht und bekommen gleichzeitig unter die Nase gerieben das der Chip ein OC-Wunder ist und man die Messlatte deswegen auch höher bei der Bewertung legen sollte. Die meisten Chips landen dann aber jenseits der ursprünglichen Verbrauchswerte.

Das kannst du so nicht sagen. Ob da nun 2x6Pin oder 3x8Pin drauf stecken, der Verbrauch wird ja dadurch nicht höher. Und die krassen OC Modelle werben ja auch eher nur mit dem Potential. Gebraucht wird das im Schnitt so nie werden. ;)
 
CPUs sind ja (gerade bei Intel) eher tratitionel im Full-Node gefertigt. Wenn man das mal so über die letzten Jahre überblickt, Core2 gabs in 65 und 45nm. Bei den Nachfolgern waren es 45, jetzt sind wir bei 32nm und Ivy mit 22nm wäre auch nicht anders. Dennoch finde ich das Tempo von Intel ziemlich extrem. TSMC und GloFo sind gerade grob Anfang des Jahres bei 32/28nm angekommen. Intel fertigt heute aber munter schon in 22nm. Und wenn das so weiter läuft, passen die vier Jahre schon so halbwegs. Denn vor 2014 erwarte ich persönlich nichts unter 28nm von GloFo/TSMC. Wer weis wo Intel dann schon ist :fresse:

14nm, zumindest nach Roadmap. Kann aber sein das die 15nm Atoms schon früher kommen.


Das kannst du so nicht sagen. Ob da nun 2x6Pin oder 3x8Pin drauf stecken, der Verbrauch wird ja dadurch nicht höher. Und die krassen OC Modelle werben ja auch eher nur mit dem Potential. Gebraucht wird das im Schnitt so nie werden. ;)

Da gings auch nicht um den Verbrauch, nur das sich da kein Pfifferling um die PCIe Specs schert. OC ist trotzdem zum Volkssport geworden und "Green-IT" zu einem mächtigen Verkaufswort. Der Kunde achtet auf beides obwohl es sich oft ausschließt.
 
Wie viele Stromstecker vorhanden sind, schreibt soweit ich das mitbekommen habe die Spezifikation aber nicht vor... Da gehts eher um die maximale Leistungsaufnahme von 300W pro Karte. Und das toppen die Single GPUs idR nicht, bzw. nur minimal in Extremsituationen. (GF100/110)

Von mir aus können die den ganzen Kartenrand mit 8Pin Stromsteckern vollspeicheln... ;) Solange die Karte unter ~250W verbraucht und es sich somit mit Luft kühlen lässt, ist alles schick :fresse:
 
Wie viele Stromstecker vorhanden sind, schreibt soweit ich das mitbekommen habe die Spezifikation aber nicht vor... Da gehts eher um die maximale Leistungsaufnahme von 300W pro Karte. Und das toppen die Single GPUs idR nicht, bzw. nur minimal in Extremsituationen. (GF100/110)

Von mir aus können die den ganzen Kartenrand mit 8Pin Stromsteckern vollspeicheln... ;) Solange die Karte unter ~250W verbraucht und es sich somit mit Luft kühlen lässt, ist alles schick :fresse:

Scheinst recht zu haben, allerdings kann man sich die Specs bei der PCIe-Sig nicht angucken weil man dazu registrierter Geschäftskunde sein muss :fresse:

würdest du das selbe sagen wenn wir schon bei 5nm wären ?

Zum einen dauert es noch einige Jährchen bis wir da sind, zum anderen hat man in der IT vieles für unmöglich gehalten nur um es dann wieder zu unterbieten. Vor ein paar Jahren hielt man 16nm noch für die physikalisch machbare Grenze...

Dazu kommt noch das schon seit Jahren an Ausweichtechnologien geforscht wird um aus einer Grenze bei der Fertigung nicht auch eine Grenze der IT zu machen.
 
iergentwie bin ich noch sehr skeptisch. was aber in erster linie daran liegt das es in der vergangenheit so oft verzögerungen und verschätzungen dabei gab die fertigungsprozesse in den griff zu bekommen.
 
würdest du das selbe sagen wenn wir schon bei 5nm wären ?

Keine Ahnung... Wer weis, was bei 5nm für Aussichten vorhanden sind.

Stand heute sehe ich aber klar noch keine absolute Grenze in absehbarer Zeit von sagen wir ~5 Jahren. Was danach kommt, ist offen, vllt dauerts auch länger.
Die Schritte, rein auf die absolute Fertigungsgröße gesehen werden ja auch immer kleiner. Dafür aber der prozentuale Verkleinerungsgrad immer größer. Wie war das? Von 45nm auf 32nm ist gerade mal eine Einsparung um 13nm, dafür aber ca. die vierfache mögliche Anzahl der Schaltungen bei gleicher Fläche. Oder wars die doppelte Menge? Weis nicht mehr genau, auf jedenfall gehts da gut vorran...


Viel mehr Schmerzen bereitet mir bei der ganzen Geschichte eher die Kühlbarkeit. Wenn die Fläche zur Wärmeübertragung zwischen DIE und Kühler immer kleiner wird, dabei aber die Leistungsaufnahme selbst nicht weiter groß sinkt, also bei maximalen 300W bestehen bleibt, wirds immer schwieriger dort anstädig die Wärme weg zu bekommen.
 
Keine Ahnung... Wer weis, was bei 5nm für Aussichten vorhanden sind.

Stand heute sehe ich aber klar noch keine absolute Grenze in absehbarer Zeit von sagen wir ~5 Jahren. Was danach kommt, ist offen, vllt dauerts auch länger.
Die Schritte, rein auf die absolute Fertigungsgröße gesehen werden ja auch immer kleiner. Dafür aber der prozentuale Verkleinerungsgrad immer größer. Wie war das? Von 45nm auf 32nm ist gerade mal eine Einsparung um 13nm, dafür aber ca. die vierfache mögliche Anzahl der Schaltungen bei gleicher Fläche. Oder wars die doppelte Menge? Weis nicht mehr genau, auf jedenfall gehts da gut vorran...

1,97 Fache ;)

Viel mehr Schmerzen bereitet mir bei der ganzen Geschichte eher die Kühlbarkeit. Wenn die Fläche zur Wärmeübertragung zwischen DIE und Kühler immer kleiner wird, dabei aber die Leistungsaufnahme selbst nicht weiter groß sinkt, also bei maximalen 300W bestehen bleibt, wirds immer schwieriger dort anstädig die Wärme weg zu bekommen.

Nicht direkt. Die Chipgrößen ändern sich ja nicht wirklich, also bleibt das Verhältniss Wärmeleistung in Watt pro Fläche unverändert. Ein GK110 mit 300 Watt bei ca. 500mm² erzeugt nicht mehr Wärmeleistung als ein GF110 mit ca 500mm² und 300 Watt, egal ob sie unterschiedliche Strukturgrößen besitzten.


Wirklich ein Problem bei der Kühlung wird man nicht durch Shrinking sondern durch Stacking bekommen, dann stimmt eben das Verhältniss nicht mehr.
 
Dennoch hast du bei viel mehr kleineren Schaltungen viel mehr kleinere HotSpots, wenn man es so nennen kann. Das die Gesamtwärmeabgabe im Schnitt ggf. ähnlich hoch bleibt, mag ja sein, die Fläche mag auch im Schnitt für einen Vergleich ähnlich sein, die Hitze erzeugenden Punkte in der GPU selbst schrumpfen aber immer weiter. Optimalerweise sollte die Fläche möglichst gleich mit Hitze belastet werden, das scheint aber gerade eben genau das Gegenteil zu passieren.
 
Naja, jain. Du musst ja überlegen das die Wärmeleistung pro Transistor durch die geringere Spannung auch wieder sinkt. Du hast zwar Hotspots in jedem Chip, aber zum einen verteilt sich die Wärme durchs Silizium (übrigens ein Vorteil von Chips mit deaktivierten Teilen) und zum anderen sollte ein Chip der einfach nur 1 zu 1 geshrinkt wird und mit gleichen Taktraten betrieben wird wie vorher keine höhere Wärmeabgabe pro Fläche besitzten aufgrund der gesenkten Spannung. Auch die Hotspots werden entsprechend kühler.
 
Wird die Spannung denn immer gesenkt?
Ich seh das so nicht...

R600 gabs in späten Versionen schon mit nur 1,05V VGPU Spannung. Und die Kepler GPUs drücken unter Last mal locker ihre 1,175V drauf ;)
Wir sprechen da von 80 vs. 28nm.

Es macht eher so den Eindruck, das ohne gewisse Spannungen da nicht viel läuft. Diese Beobachtung kannst du auch bei CPUs erkennen (siehe Bulldozer, 32nm und ordentlich Spannung auf dem Tacho) Und wenn man das maximal mögliche will, kann dort nicht gespart werden. Selbst die GF110 GPUs lagen per default ja unter den Kepler GPUs. Ja selbst meine alte GF100 GPU war mir ihren 0,95V Basisspannung per default da weit weit drunter :fresse:
 
Du lässt ein bisschen raus, dass zum einen der Takt hochgeht, und zum anderen die Transistorenzahl deutlich zunimmt.

Im Prinzip brauchst du nur die Schwellspannung von irgendwo um 0,7 Volt. Aber du musst sie mit zunehmendem Takt erhöhen, damit auch jeder Transistor in der damit vorgegebenen Zeit sicher schaltet. Und je mehr Einheiten dein Chip hat, desto öfter hast du die Chance auf eine Niete, die eben mehr Saft braucht. Und damit muss die Spannung für alle anderen auch mit angehoben werden.

Und dann ist da die Effizienzsache: Du willst heute mehr als je zuvor den Sweet Spot vom besten Rechenleistung-pro-Watt-Verhältnis abpassen. Rechenleistung skaliert grob linear mit dem Takt, abzüglich externer Einflüsse. Eine 7970 auf 20 MHz mag irre nahe am theoretischen Spannungslimit liegen, aber das ist halt ~0,7V und nicht 0V, daher hast du Mindestverbrauch bei gleichzeitig extrem bescheidener Leistung. Eine 2,5 GHz-Version ist doppelt so schnell wie eine auf Standardtakt, aber weder kühlbar, noch mit normalen Netzteilen betreibbar. Irgendwo dazwischen liegt der optimale Punkt, und da setzt man sich halt drauf. Eventuell mit leichter Korrektur nach unten und oben, je nach momentaner Konkurrenzsituation (muss besser sein als x) und Anforderungen an den Verbrauch (muss noch in Klasse y fallen, für Kühllösung z im Laptop soundso / erwischt noch 2x 6-Pin statt 6+8-Pin / etc)
 
Wird die Spannung denn immer gesenkt?
Ich seh das so nicht...

R600 gabs in späten Versionen schon mit nur 1,05V VGPU Spannung. Und die Kepler GPUs drücken unter Last mal locker ihre 1,175V drauf ;)
Wir sprechen da von 80 vs. 28nm.

Es macht eher so den Eindruck, das ohne gewisse Spannungen da nicht viel läuft. Diese Beobachtung kannst du auch bei CPUs erkennen (siehe Bulldozer, 32nm und ordentlich Spannung auf dem Tacho) Und wenn man das maximal mögliche will, kann dort nicht gespart werden. Selbst die GF110 GPUs lagen per default ja unter den Kepler GPUs. Ja selbst meine alte GF100 GPU war mir ihren 0,95V Basisspannung per default da weit weit drunter :fresse:

Ganz ehrlich, ich wusste das das kommt und wollte da erst schon gleich was zu schreiben :fresse:

Die Spannung ist natürlich auch Architekturabhängig. Da kommen Leckströme etc dazu die das einfache Pauschalrechnen verzerren. Aber schau dir doch mal die Tabelle hier an Technologieknoten . Hab ich jetzt nur auf die Schnelle gefunden, aber dort sieht man mal ganz gut in welche Richtung es geht.

Du lässt ein bisschen raus, dass zum einen der Takt hochgeht, und zum anderen die Transistorenzahl deutlich zunimmt.

Im Prinzip brauchst du nur die Schwellspannung von irgendwo um 0,7 Volt. Aber du musst sie mit zunehmendem Takt erhöhen, damit auch jeder Transistor in der damit vorgegebenen Zeit sicher schaltet. Und je mehr Einheiten dein Chip hat, desto öfter hast du die Chance auf eine Niete, die eben mehr Saft braucht. Und damit muss die Spannung für alle anderen auch mit angehoben werden.

Und dann ist da die Effizienzsache: Du willst heute mehr als je zuvor den Sweet Spot vom besten Rechenleistung-pro-Watt-Verhältnis abpassen. Rechenleistung skaliert grob linear mit dem Takt, abzüglich externer Einflüsse. Eine 7970 auf 20 MHz mag irre nahe am theoretischen Spannungslimit liegen, aber das ist halt ~0,7V und nicht 0V, daher hast du Mindestverbrauch bei gleichzeitig extrem bescheidener Leistung. Eine 2,5 GHz-Version ist doppelt so schnell wie eine auf Standardtakt, aber weder kühlbar, noch mit normalen Netzteilen betreibbar. Irgendwo dazwischen liegt der optimale Punkt, und da setzt man sich halt drauf. Eventuell mit leichter Korrektur nach unten und oben, je nach momentaner Konkurrenzsituation (muss besser sein als x) und Anforderungen an den Verbrauch (muss noch in Klasse y fallen, für Kühllösung z im Laptop soundso / erwischt noch 2x 6-Pin statt 6+8-Pin / etc)

Das kommt natürlich auchnoch hinzu. Im Moment versucht man ja die Mindestspannung noch weiter zu drücken, Fujitsu hat zB schon 0,4V SRAM getestet.
 
Auf Siliziumbasis?
 
Die Spannung ist natürlich auch Architekturabhängig. Da kommen Leckströme etc dazu die das einfache Pauschalrechnen verzerren. Aber schau dir doch mal die Tabelle hier an Technologieknoten . Hab ich jetzt nur auf die Schnelle gefunden, aber dort sieht man mal ganz gut in welche Richtung es geht.

Die Tabelle kenn ich schon, aber um auf das eigentliche zurück zu kommen, nach der Tabelle sind wir aktuell voll im Plan, zumindest wenn man die Intel Maßstäbe ranzieht.
Für GPUs sind ja unten nur die 40 und 28nm vorhanden... Aber selbst da passt der zwei Jahres Abstand noch. Genau so wie bei den CPUs schon seit ner ganzen Weile.

Vllt kommt es einem nur so vor, das die Entwicklung heute langsamer geht? Rein vom Gefühl her, würd ich auch sagen, das ging früher irgendwie schneller. Aber wenn man die nakten Zahlen sieht, scheints recht konstant vorran zu gehen. Lag vielleicht daran, das es früher mehr so zwischen Lösungen und deutlich geänderte Refreshs gab? Ich denk da zum Beispiel an die G70/71 GPUs, die es in vier Versionen gab. Oder die R500/520 GPUs mit immerhin drei Versionen und nem Refresh, der eigentlich eher ne Parallelentwicklung zur ersten Version war usw.
Auch weiter vorher, R300/350/360 gabs in mehr Versionen.
 
Die Tabelle kenn ich schon, aber um auf das eigentliche zurück zu kommen, nach der Tabelle sind wir aktuell voll im Plan, zumindest wenn man die Intel Maßstäbe ranzieht.
Für GPUs sind ja unten nur die 40 und 28nm vorhanden... Aber selbst da passt der zwei Jahres Abstand noch. Genau so wie bei den CPUs schon seit ner ganzen Weile.

Ich glaube es kommt dazu das die letzten Jahre ziemlich oft verschoben wird. Damals kam die Karte und gut, heute dagegen sind das alles Aktienunternehmen (ok, NV schon seit 1999) etc wo einem schon oft vorher der Mund wässrig gemacht wird usw. Da wird hoch gepokert und so gut wie nie eingehalten was versprochen wird. Just in Time FTW ;)

Vllt kommt es einem nur so vor, das die Entwicklung heute langsamer geht? Rein vom Gefühl her, würd ich auch sagen, das ging früher irgendwie schneller. Aber wenn man die nakten Zahlen sieht, scheints recht konstant vorran zu gehen. Lag vielleicht daran, das es früher mehr so zwischen Lösungen und deutlich geänderte Refreshs gab? Ich denk da zum Beispiel an die G70/71 GPUs, die es in vier Versionen gab. Oder die R500/520 GPUs mit immerhin drei Versionen und nem Refresh, der eigentlich eher ne Parallelentwicklung zur ersten Version war usw.
Auch weiter vorher, R300/350/360 gabs in mehr Versionen.

Naja, wie gesagt gab es da zum einen noch die Full- und Half-Nodes die alle mitgemacht wurden, was heute nicht mehr der Fall ist. Die Geforce 6 gab es da zB in 130 und 110nm, heute wird es keine Prozesse die so dicht zusammen liegen aufgrund der Entwicklungskosten nicht mehr geben.

Der andere Faktor, den wir ja schon hatte, ist die Diesize und TDP. Ein größerer Chip als 600mm² ist meines wissens nach nicht fertigbar, also bisher wirklich eine technologische Grenze. Die TDP von 300 Watt ist das nächste Limit dem sich ein Hersteller heute unterordnen muss.

Früher war das alles noch einfacher, da wurde soviel rausgeholt wie möglich war und es in den Markt geschmissen. Später wenn die Fertigung besser lief legte man einfach nach.

Gutes Beispiel ist hier die Geforce 2. Da kam erst die GTS mit 200 MHz und 5 Monate später folgte die Ultra, die mal eben 50 MHz (25%!) drauf legte, ganz einfach weil es machbar war. Heute würde auch GK110 an dem Prinzip scheitern, denn heute geht es darum soviel Power bei so wenig Verlustleistung wie möglich zu bekommen, egal ob ohne Probleme x% mehr Takt drin wären. Aber dafür gibts ja wie gesagt die Boardpartner.

Das nimmt man aber nicht so wahr. Es gibt zB schon lange schnelle Versionen der 7970 von den Boardpartnern. Kommt jetzt aber wirklich eine offizielle GHz Edition, fühlt sich das irgendwie wie was neues an :d
 
Moin,

habe bereits gesucht, aber nichts über Google dazu finden können (falsche Stichworte?) und auch hier im Thread ohne Erfolg.

Und zwar interessiert es mich, warum die Hersteller es alle nicht schaffen die Temperaturüberwachung für die Spannungswandler anzubieten, das nervt mich tierisch. Bei meiner damaligen AMD 4890 gab es diesen Sensor!

Bei der GTX 580 3GB gab es ausschließlich die GPU Temperatur, bei der GTX 470, die ich gerade teste, gibt es nur GPU&PCB zum Auslesen. Da alles im grünen Bereich war, habe ich mir den Spaß erlaubt (Alternativkühler auf der Karte), diese passiv zu betreiben und Heaven Benchmark anzuschmeißen. Nach etwa 5min. schmierte mir meine Kiste ab, obwohl bei der GPU nur 75C° anlagen und die PCB Temperatur sich unterhalb von 40C° bewegte, also alles Werte, die völlig im Rahmen liegen. Es müssen also die Spawas sein, die viel zu war wurden.

Gibt es irgendeine Chance, das Nvidia das irgendwann mal einführt? Bei AMD scheint es ja glaube ich normal zu sein, das dieser Sensor mit an Board ist?
 
Moin,

habe bereits gesucht, aber nichts über Google dazu finden können (falsche Stichworte?) und auch hier im Thread ohne Erfolg.

Und zwar interessiert es mich, warum die Hersteller es alle nicht schaffen die Temperaturüberwachung für die Spannungswandler anzubieten, das nervt mich tierisch. Bei meiner damaligen AMD 4890 gab es diesen Sensor!

Bei der GTX 580 3GB gab es ausschließlich die GPU Temperatur, bei der GTX 470, die ich gerade teste, gibt es nur GPU&PCB zum Auslesen. Da alles im grünen Bereich war, habe ich mir den Spaß erlaubt (Alternativkühler auf der Karte), diese passiv zu betreiben und Heaven Benchmark anzuschmeißen. Nach etwa 5min. schmierte mir meine Kiste ab, obwohl bei der GPU nur 75C° anlagen und die PCB Temperatur sich unterhalb von 40C° bewegte, also alles Werte, die völlig im Rahmen liegen. Es müssen also die Spawas sein, die viel zu war wurden.

Gibt es irgendeine Chance, das Nvidia das irgendwann mal einführt? Bei AMD scheint es ja glaube ich normal zu sein, das dieser Sensor mit an Board ist?

also meine hd5750 hat auch keinen spawa sensor... aber da gibts nen ganz einfachen test: finger dranhalten, wenn er noch ganz ist ist die Temp ok, wenns Brandblasen gibt ist sie zu hoch :d
 
Wie gesagt, die AMD 4890 damals hatte sie und AMD soll da generell besser aufgestellt sein. Ohne Temperaturanzeige der Spawa habe ich keine Kontrolle über das OC, da ich nicht weiß, wie weit ich gehen darf. Ich habe nämlich keine Ahnung, ob die Spawas deutlich wärmer werden, wenn ich ausschließlich Shader/Core übertakte, nicht jedoch die Speichergeschwindigkeit.

Das wäre alles ziemlich gefährlich, wenn sie ohne mein Wissen stets am Maximum arbeiten würden.
 
Eine Karte kann auch lange Zeit innerhalb der Spezifikationen fahren, auch wenn sie am Limit arbeitet. Dank Elektromigration ist dies jedoch wenig förderlich, da die Lebenszeit um ein Vielfaches verkürzt wird. Deshalb würde ich auch gerne die Temperatur wissen und hoffe somit auf eben solche Sensoren.

Wie schon gesagt, ich hätte die GTX 470 sogar PASSIV betreiben können, wenn es rein um GPU&PCB Temperatur ginge ;)

Die einzige Hochleistungskarte die ich kenne und sich passiv betreiben lässt, ist die AMD 5870, da es von Thermalright entsprechend gute Kühler gibt, welches dies ermöglichen (VRM Module)
 
Was bringt dir das Wissen denn schlussendlich?
Es ufert unterm Strich oft einfach nur in einem "Kontrollwahn" aus... Entweder es läuft oder es läuft nicht. Klar kann immer was kaputt gehen, aber wer OC betreibt oder eben irgendwelche teils abenteuerlichen Kühlkörperkonstruktionen drauf schraubt, fährt so oder so außerhalb der Spezifikationen.

PS: mir ist es reichlich wurscht, was da jeden noch so kleine Bauteil für ne Temp hat, wenn du so willst, müsstest du noch viel viel mehr überwachen. Entweder es geht, oder es geht eben nicht. Bis dato ist mir nicht eine einzige Grafikkarte in Sachen Spannungswandler gestorben. Und ich betreibe OC schon seit 10 Jahren+ mit den Komponenten.
 
Wieso sollte es Kontrollwahn sein, wenn man es 1x einstellen möchte und gut ist? Wenn du danach gehst, könnte man sämtliche Sensoren sein lassen, verbauen und "hoffen" das alles funktioniert? Tut mir Leid, aber das verbuche ich unter "abenteuerlich"

Ich kann auch mit einem Puls von 200 trainieren, mein Körper macht das mit, fragt sich nur wie lange das gut geht ;)

Nur weil Dir oder mir noch nichts abgeraucht ist, bedeutet es nicht, das es nicht stört. Ich hätte einfach gerne diese Info gehabt, um Gewissheit zu haben das alles ok ist. Danach ist mir die Info völlig Schnuppe. Das wird 1x getestet und das war es auch schon.
 
Aber selbst genau das bringt dir nichts... Was willst du heute mit der Info, wenn morgen die Situation gänzlich anders sein kann. Da sind dann auf einmal 20°C mehr Raumtemperatur, ggf. der Kühler etwas angestaubt und schon hast du locker dort mal 25-30°C mehr drauf. Und genau das ist in meinen Augen der Punkt. Entweder man macht permanente Kontrolle (besagter Kontrollwahn) oder eben, man lässt es. -> Meine Meinung.

PS: und hoffen musst du da so oder so. Denn wer OC betreibt, die Kühler tauscht usw. muss einfach hoffen, das das Teil hält. Die Spannungswandler sind da nur eine mögliche Fehlerquelle.
Und selbst wenn keine Sensoren vorhanden wären, wäre es auch nicht so schlimm. Das ging früher auch ohne ;)


Oder einfach gesagt, selbst mit dem Wissen, wie hoch die Temps der Wander sind, hast du in keinem Fall überhaupt eine Garantie, das es geht oder nicht. Es kann laufen, muss aber nicht. Selbst das hohe (zu hohe) Temperaturen an den Wandlern zu einem Defekt führen, ist nicht vollends geklärt.

PPS: deine Schlussfolgerung, das wenn PCB Temp und GPU Temp im Rahmen liegen, die Spannungswandler für deinen Abstürz verantwortlich wären, ist auch leicht blauäugig. Es gibt x viele Teile auf den Karten. Und alle sind mehr oder weniger Hitzeempfindlich. Die Spannungswandler sind teils mit 150-200°C noch spezifiziert und oft gar das geringste Problem.
 
Zuletzt bearbeitet:
Bei mir ist das anders, ich nutze einen Benchtable und habe spitzen Temperaturen und OC betreibe ich, wenn, nur in vernünftigen Maßstäben. Das bedeutet, dass ich mich innerhalb der Spezifikationen aufhalte. Das wird ganz zu Anfangs gemacht und verändert sich auch nicht, da der Rechner jedes WE geputzt wird und ich ganz genau meine Temperaturen kenne (Prime+Furmark) und diese Werte selbst im Sommer nicht erreiche, da Spiele den Rechner nie so auslasten.

Daher hätte ich eben auch gerne noch diesen einen Sensor, ganz einfach damit die Ersteinstellung vorgenommen werden kann, danach Schere ich mich einen Dreck darum, da Kontrolle einfach nicht mehr nötig ist, da sich bei mir Temperaturen grundlegend nicht ändern, da es sich ausschließlich und nur mit der Raumtemperatur ändert.

CPU bleibt weit unter 50C° und Grafikkarte unter 60C°

Wer gerne seinen PC Tag&Nacht kontrollieren möchte, darf das gerne tun, dazu zähle ich mich nicht. Es geht nur um die Ersteinstellung, da ich für alles Profile habe und diese entsprechend nutze wie ich sie benötige. Mir geht es dabei auch darum die Lüfter so weit wie möglich runter regeln zu können und im Rahmen zu bleiben, das ist auch schon alles und der einzige Grund dafür. Mein PC ist ab auf 5-10cm Entfernung nicht mehr zu hören.

Wo wir dabei sind, hat deine GTX 680 solch einen Sensor?
 
Na dann, wie gesagt, darf ja jeder selbst machen, mir würde das Wissen über die SpaWa Temp nix bringen, einfach weil sich die Gegebenheiten viel zu stark und häufig ändern. Entweder es läuft, oder eben nicht.
PS: ich hab eigentlich immer auf den zweiten Schirm den Afterburner laufen, nicht unbedingt wegen den Temps, viel eher wegen der RAM Auslastung der Karten... Auch wenn die Temps so oder so mit angezeigt werden. Machen bei zu viel Temp würde ich aber nichts können, denn die Lüfter drehen alle auf max. :fresse:

Ob meine 680er sowas haben, kann ich dir aus dem Hut gar nicht sagen, müsste ich gucken, sitz aber unter der Woche idR nicht an der Workstation, sondern nur am WE ;)
 
Was soll sich denn großartig ändern? Egal ob bei mir Sommer war oder nicht, so haben sich die Temperaturen maximal um die 10-12C° geändert, je nachdem, was für eine Raumtemperatur angesagt war. Abseits dessen hat sich nie etwas getan?

CPU 50C° Raum 20C° -> CPU 60C° Raum 30C° So und nicht anders, mich interessiert es also herzlich wenig, da ich später nicht mehr kontrollieren muss. Afterburner schalte ich auch nur die ersten 1-2min. ein um zu schauen, ob die fps Limitierung greift und alles in Ordnung ist. Wenn GPU&V-Ram Leistung nicht mehr reicht, merkt man das sowieso, da bringt auch OC nur etwas, wenn man an der Schwelle tritt und nur wenige fps für flüssigen Spielspaß fehlen, danach ist sowieso Schluss, ansonsten läuft mein System aktuell mit Standardtakt+Undervolting :)

Ich nutze wie gesagt ein lautloses System, der Rechner ist nicht zu hören, und ich habe keine Lust dauernd die Software (Aquasuite) anschmeißen zu müssen, um im Spiel die Lüfter alle um 20-40% Speed zu erhöhen, was immer noch sehr leise wäre. Im Spielgetümmel hört man das soewiso nicht mehr, da man in der Regel über Kopfhörer spielt oder die Lautsprecher ihren Job erledigen, aber das Umstellen nervt halt, 1x und gut ist :)

Wäre schön, wenn du bei der 680er am WE schauen könntest, wäre Dir dankbar. Ich möchte nämlich irgendwann die GTX 670, wenn sie ab 200€ zu haben ist, besorgen und da gibt es von Zotac das AMP! Modell, welches das Referenzdesign der 680er hat und das Verbauen des MK-13 zulässt, da der Kühler kurz genug ist und somit nicht mit dem Stromturm aneckt. Das Platinenlayout ist identisch und sie zieht weniger Strom als meine 470er, weshalb sie sogar besser zu kühlen sein müsste, theoretisch.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh