NVIDIA GeForce GTX 1070 und 1080 sollen im Mai auf GTX 970 und 980 folgen

Nur einfach was "annehmen" wird eher zu einer Entäuschung führen ;)
Stapelste tief, kannste nur gewinnen... :fresse:

Lag bisher recht gut mit dem anehmen ohne zu rechnen.

Und ganz im Gegenteil je langsamer sie wird um so länger hat meine Ti einen gewissen Wert und es macht das überbrücken zu den Grossen Chips einfacher.:fresse2:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sry aber ich beteilige mich sicher nicht an Linkbattles, ich hab als ich mir ne neue Karte holen wollte letzten Sommer etliche Benches von Zog seoiten verglichen und da war die 970 fast immer nen Tick schneller als die 780ti, die 980 sogar deutlich.
Mal vom mehr Vram und viel weniger Stromverbrauch ganz abgesehen..
Ich geh ma weiterzocken, die Besserwisserbattles hier öden mich an..
 
Zuletzt bearbeitet:
Ich weiss ja das ich recht habe, für das rumgelinke habe ich keine Zeit.
Führt ja zu nix, ändert eh keiner seine Meinung.

und gerne erwähne ich zum 3. mal das hier der Vergleich GTX 580 zur GTX 680 passender ist..
 
Das kannst du auch noch 5 mal wiederholen/erwähnen :) - verleiht deinen Aussagen keinen höheren Wahrheitsgehalt...
Aber als 970er Besitzer muss man sich eben die Dinge schön schreiben;)

Gesendet von meinem SM-G920F mit Tapatalk
 
@haudi
so ganz unrecht hat er aber auch nicht... GK110 verliert in neueren Titeln immer mehr Boden ggü. GM204. Die 3GB VRAM kommen noch oben drauf.
Um so älter die Titel, desto besser steht GK110 da. Um so neuer die Titel, desto mehr zieht GM204 an. Und wenn da schon 20% auf ne Stock 780TI drauf kommen, dann muss man dies erstmal raus OCen. Wie viele 780TIs machen im Alltag ohne groß Aufwand 1300 und mehr aus dem Stand? Das reguläre Limit, vor allem unter Luft liegt weiterhin bei um die 1150-1200. Mal mehr, mal weniger. Das sind 20-25% größer Stock/Basisboost. GM204 kannste aber auch noch treten, wenn gewünscht...
Und JEDE GM204 GPU rennt dem GK110 bei der 780TI davon, wenn Letzterer der Speicher voll läuft... Auch das passiert mittlerweile immer häufiger.

Ich betreibe meine beiden 780TIs weiter, bis die neue Gen. da ist. Ob ich allerdings bis zu den TopDogs warten werde/kann, ist eher fraglich :fresse:
Warscheinlich wirds dann im Sommer erstmal eine Mainstream und dann mit den Dickschiffen nochmal ein Wechsel.
 
Zuletzt bearbeitet:
Das muss dir nicht leid tun. War doch eh klar, dass von dir nichts fundiertes kommt;)...


Gesendet von meinem SM-G920F mit Tapatalk

Ich weiss ja das ich recht habe, für das rumgelinke habe ich keine Zeit.
Führt ja zu nix, ändert eh keiner seine Meinung.

und gerne erwähne ich zum 3. mal das hier der Vergleich GTX 580 zur GTX 680 passender ist..

:wayne: Wollt ihr eure Kleinkriege vielleicht via PM austragen? Das sich ein Upgrade auf das jeweilige Nachfolgemodel oft nicht lohnt, ist keine Neuerung. Das war schon immer so. Mal fällt der Unterschied ziemlich gering aus, mal etwas höher. Diesmal hofft man wegen des die-shrinks auf mehr spürbar Performance. Wie sich das in der Vergangenheit verhalten hat ist bestenfalls am Rande interessant. Harte Fakten werden wir haben, sobald die ersten realen Benshmarks vorliegen.
 
Wir haben hier nicht von Speicher volllaufen geredet sondern von der Rohleistung der gpu! Und da ist die 970 definitiv hinter der 780ti!!
Die 980er im vergleich zur custom 780ti in etwa gleich auf durch ihren Taktvorsprung.



Gesendet von meinem SM-G920F mit Tapatalk
 
@Naennon
Hmm - nur ein 6 Pin PCI-E Stromanschluß? Und auch die Spannungsversorgung sieht mir nicht sehr potent aus. Also entweder ist das ein Fake, oder ein Entwicklerboard welches untertaktet o.Ä. ist oder DER Wahnsinn schlechthin. Lt. Definition sind das ja dann max. 75W vom PCI-E 16x Slot und 75W vom 6 Pin Stecker = 150W.

Daß die neuen Karten von AMD und nV durch die kleineren Fertigungen effizienter sein sollten ist klar. Aber so viel? Vor allem will man das dann nicht nutzen und vielleicht mehr Takt rauszuholen bzw. länger Boost Taktraten zu halten o.Ä.?
Untertakte eine 390X auf 900MHz und Du hast 120W Verbrauch bei 85% der ursprünglichen Leistung! Die TDP lässt sich dann problemlos auf 150W locken. Dass AMD- Karten nicht effizient wären, ist deshalb Quatsch - Nur hat AMD aufgrund der Konkurrenzfähigkeit gegenüber den Nvidia- Karten keine andere Wahl gehabt und musste die Chips deutlich über ihrem optimalen Takt spezifizieren(Deshalb kann man sie auch nicht deutlich übertakten).
Die Effizienz steigt im 14nm FinFET bei AMD um ca. 2,5. Bedeutet somit bis zu 215% der aktuellen 390X- Leistung trotz 150W TDP- Limit - wenn AMD die Karte im optimalen Bereich betreiben könnte. Grund ist trivial: in dem Teil sind - wie in allen Halbleiterchips ;) - Dioden drin(in Form von Feldeffektransistoren), das bedeutet, dass der Stromverbrauch(VA) bei steigender Spannung/Takt exponentiell wächst. Natürlich ist vorher auch schon eine bestimmte Durchbruchsspannung nötig - somit liegt das Optimum knapp über der "Mindestspannung". Wer also eine möglichst effiziente Grafikkarte möchte, sollte sich die dickste Karte mit den meisten Recheneinheiten kaufen und die Spannung knapp über dem Minimum einstellen - also kurz bevor der Energieverbrauch richtig ab geht :d

Ob AMD aber tatsächlich die künftigen Karten im optimalen Bereich takten kann, hängt wieder von Nvidia ab. Wäre das konkurrierende Produkt von Nvidia im optimalen Betriebsbereich 10% schneller, müsste AMD reagieren und den Chip 10% über dem Optimaltakt betreiben, was dann bedeuten kann, dass der Chip dadurch wieder doppelt so viel Energie aufnimmt.
Umgekehrt würde auch Nvidia Probleme bekommen, wenn der AMD- Chip schneller ist und Nvidia ihre Karten im Suboptimalen Bereich betreiben muss - dann kann es gut sein, dass in der Praxis bei den neuen Nvidia - Karten nur 20% Effizienzsteigerung möglich wird. Bei AMD dagegen kann die Leistungseffizienz wegen der aktuellen nicht optimalen Situation nur deutlich besser werden - selbst wenn die neuen Karten auch wieder @Stock am Limit getaktet werden müssten.
 
gtx 970 @ 1400 oder 780ti @ 1100...ist dann auch egal was man drinne hat


ps.... in allen benchmarks bei tube ist ne 980 besser
 
Wir haben hier nicht von Speicher volllaufen geredet sondern von der Rohleistung der gpu! Und da ist die 970 definitiv hinter der 780ti!!
Die 980er im vergleich zur custom 780ti in etwa gleich auf durch ihren Taktvorsprung.

Kann man sich halt heute nur nix mehr von kaufen von der Rohleistung ;)
Das war auch damals abzusehen, wenn auch nicht so stark wie es heute ist.

Was die Rohleistung auf dem Papier angeht, ist GK110 klar im Vorteil. Aber das ist halt in der Praxis nicht relevant...

Untertakte eine 390X auf 900MHz und Du hast 120W Verbrauch bei 85% der ursprünglichen Leistung! Die TDP lässt sich dann problemlos auf 150W locken.

Du willst 50% des Verbrauchs bei nur 10% Takteinsparung verlieren? Halte ich für ein Gerücht... Das ist nicht machbar.
Allerbestenfall mit einer handverlesenen GPU, massivstem Undervolting und kalten Temperaturen.
Oder sollten es 220W und 250W Lock sein? -> dann wird eher ein Schuh draus.
 
Du willst 50% des Verbrauchs bei nur 10% Takteinsparung verlieren? Halte ich für ein Gerücht... Das ist nicht machbar.

Ist so :) Tatsächlich ist die Effizienz meiner 290X bei 900MHz nahezu auf GTX 980 - Niveau. Das "Quiet-Mode"- Bios habe ich auf 900MHz und das Uber- Mode auf 1125. Bei 1125 sind es ca. 400W in Furmark und 250W beim normalen Zocken. Und bei 900MHz ca. 125W im normalen Szenario. In Furmark bis (knapp) 200, aber TDP- Limit auf 150 ist kein Problem im normalen Gebrauch. Natürlich ist meine Spannung optimiert - könnte man eventuell in Industriefertigung nicht so exakt anpassen. Trotzdem: 150W- Limit halte ich für die Karte bei 900MHz für generell möglich!
 
Zuletzt bearbeitet:
Du weist aber, dass Furmark Softwareseitig seit Generationen schon eingedrosselt wird? -> das ist ein ziemlich abwegiger Vergleich.

Auch rein technisch kann das schlicht nicht stimmen. Takt skaliert idR ca. linear mit dem Verbrauch, bei Spannung geht es Quadratisch nach oben.
Kürze nun 10% Takt ein und dreh nix weiter rum, kommt da keine Effizienzsteigerung von fast 100% raus. Never... Unmöglich.

Das TDP Limit zu setzen ist halt eine andere Geschichte. Das kann man machen. Man büßt aber dann genau im falschen Moment Leistung ein -> nämlich in genau den Szenen, wo die FPS idR so schon runter gehen, weil die Last zu hoch ist wirds noch viel weniger Leistung geben.
Ansonsten, wie hast du eigentlich die Werte ermittelt? Vielleicht hat auch einfach dein Messgerät ein "Problem". Kommt nicht selben vor, vor allem bei den billig Dingern, dass zu wenig Last unrealistisch niedrige Werte zeigt. Messungen hinter dem NT sind dazu noch völliger Quark (Effizienz vom NT schwankt, CPU und Restsystemload ebenso mit inbegriffen)

Kurzum, Hawaii auf 120W mit nur ~10% weniger Takt zu bringen, ist nicht!
 
Du weist aber, dass Furmark Softwareseitig seit Generationen schon eingedrosselt wird?
Nein, war mir nicht bekannt. Was wird da gedrosselt? Bei mir steht immer 100% GPU, außer ich hebe im Bios das TDP- Limit nicht auf...

Auch rein technisch kann das schlicht nicht stimmen. Takt skaliert idR ca. linear mit dem Verbrauch, bei Spannung geht es Quadratisch nach oben.
Kürze nun 10% Takt ein und dreh nix weiter rum, kommt da keine Effizienzsteigerung von fast 100% raus. Never... Unmöglich.
Ich habe das wohl missverständlich ausgedrückt! Natürlich habe ich per Bios die Spannung auch noch angepasst. Das dürften ca. 1 - 1,05V vs 1,2 - 1,25V sein.


Das TDP Limit zu setzen ist halt eine andere Geschichte. Das kann man machen. Man büßt aber dann genau im falschen Moment Leistung ein
Habe ich im "Quiet Mode" auf 150W, weil der Modus sowieso nicht volle Leistung als Präferenz hat... Im Uber- Mode ist es auf 375W - Also gerade so viel, wie meine Stromanschlüsse aushalten.
Ansonsten, wie hast du eigentlich die Werte ermittelt?
GPU-Z(Also interne Grafikkartensensoren.) Die Angaben stimmen jedenfalls für die Grafikkarte, da ich durch runtersetzen der TDP die Karte auch zum Untertakten bewegen kann. Falls die Grafikkartensensoren also nicht vollkommener Müll sind, müssten die Angaben ziemlich stimmen.
 
Zuletzt bearbeitet:
@haudi
so ganz unrecht hat er aber auch nicht... GK110 verliert in neueren Titeln immer mehr Boden ggü. GM204. Die 3GB VRAM kommen noch oben drauf.
Um so älter die Titel, desto besser steht GK110 da. Um so neuer die Titel, desto mehr zieht GM204 an. Und wenn da schon 20% auf ne Stock 780TI drauf kommen, dann muss man dies erstmal raus OCen. Wie viele 780TIs machen im Alltag ohne groß Aufwand 1300 und mehr aus dem Stand? Das reguläre Limit, vor allem unter Luft liegt weiterhin bei um die 1150-1200. Mal mehr, mal weniger. Das sind 20-25% größer Stock/Basisboost. GM204 kannste aber auch noch treten, wenn gewünscht...
Und JEDE GM204 GPU rennt dem GK110 bei der 780TI davon, wenn Letzterer der Speicher voll läuft... Auch das passiert mittlerweile immer häufiger.

Ich betreibe meine beiden 780TIs weiter, bis die neue Gen. da ist. Ob ich allerdings bis zu den TopDogs warten werde/kann, ist eher fraglich :fresse:
Warscheinlich wirds dann im Sommer erstmal eine Mainstream und dann mit den Dickschiffen nochmal ein Wechsel.

Genau so siehts aus.
Ich klink mcih aus wenn hier jemand des profilierens Willen den Besserwisser raushängen lässt.
Da zock ich leiber ne Runde oder fahr ummen Block, aus dem Nerdlinkbattle Alter bin ich raus..
 
Neja, das klingt nun schon anders... Du weist nicht, was dort genau gemessen wird, noch dazu, ob vor oder hinter den Wandlern. Du weist nicht, was überhaupt alles ermittelt wird, also nur GPU, nur VRAM, ganze Karte usw.
Du hast dazu die Spannung recht stark gesenkt usw. usf.

Hat mit der ursprünglichen Behauptung von "Untertakte eine 390X auf 900MHz und Du hast 120W Verbrauch bei 85% der ursprünglichen Leistung!" nicht mehr viel gemein...
Aber selbst mit den nun genannten Mitteln halte ich es für unwarscheinlich.

Mal als simpler Vergleich. CB misst im Review der Nano bspw. 65W idle Verbrauch ohne Monitor -> GPU im ZeroPower Modus (-> nehmen wir mal als Basis), also effektiv quasi kein Verbrauch. Mit zwei/drei Monitoren, im Leerlauf, nur das die Taktraten anliegen, aber komplett ohne Last, legt die Hawaii GPU ~70-80W drauf und kommt auf 141-142W. Zu deinen angeblichen 120W würden da nur noch 40-50W absolut fehlen. Zwischen gar keiner Last im Multimonitortakt und Volllast in Games. Das ist nunmal unrealistisch.


Aber sei es drum, ist hier eh OT ;)
 
@haudi
so ganz unrecht hat er aber auch nicht... GK110 verliert in neueren Titeln immer mehr Boden ggü. GM204. Die 3GB VRAM kommen noch oben drauf.
Um so älter die Titel, desto besser steht GK110 da. Um so neuer die Titel, desto mehr zieht GM204 an. Und wenn da schon 20% auf ne Stock 780TI drauf kommen, dann muss man dies erstmal raus OCen. Wie viele 780TIs machen im Alltag ohne groß Aufwand 1300 und mehr aus dem Stand? Das reguläre Limit, vor allem unter Luft liegt weiterhin bei um die 1150-1200. Mal mehr, mal weniger. Das sind 20-25% größer Stock/Basisboost. GM204 kannste aber auch noch treten, wenn gewünscht...
Und JEDE GM204 GPU rennt dem GK110 bei der 780TI davon, wenn Letzterer der Speicher voll läuft... Auch das passiert mittlerweile immer häufiger.

Ich betreibe meine beiden 780TIs weiter, bis die neue Gen. da ist. Ob ich allerdings bis zu den TopDogs warten werde/kann, ist eher fraglich :fresse:
Warscheinlich wirds dann im Sommer erstmal eine Mainstream und dann mit den Dickschiffen nochmal ein Wechsel.

Durch Treiberoptimierung. Die Kepler-Treiber sind Müll, da Nvidia das nicht mehr interessiert. Es sind aber zumeist nur 3 FPS die keine Rolle spielen.

Jede GM204 mit echten 4 GB läuft der 780Ti davon. Die Exemplare mit gammeligen 224-bit und nutzbaren 3,5 GB machen da keinen großen Unterschied. Die Ti hat 384-Bit mit echten 3 GB, das ist mir deutlich lieber, zumal die höhere Rohleistung die auf dem Niveau einer 980 liegt. Natürlich mit OC, meine läuft auf 1250 MHz unter der höchsten Stock-Voltage.

Die 970 werden schnell absterben besonders sobald Pascal kommt und die Entwickler gnadenlos VRAM fordern dürfen. Auf 1080p ist das noch nicht so extrem wie auf 2K oder gar 4K. Ich betreibe meine 780Ti für 4K, weil ich nicht einsehe soviel Geld für eine 980 auszugeben (Zumal ich schonmal eine hatte), fürs Erste reicht das, BF4 läuft damit auf Hoch-Ultra mit konstanten 60 FPS. Vielleicht gibts eine 1070 wenn die billig ist und soviel kostet wie ich für meine Ti bekomme und eine billige 4K-Desktopkarte kostet, ansonsten führt um der neuen Bigchipkarte kein Weg herum.
 
Wie oft willst du dich denn jetzt noch ausklinken? Für mich warst du ehrlich gesagt noch nie wirklich eingeklinkt;).


Gesendet von meinem SM-G920F mit Tapatalk
 
Durch Treiberoptimierung. Die Kepler-Treiber sind Müll, da Nvidia das nicht mehr interessiert. Es sind aber zumeist nur 3 FPS die keine Rolle spielen.
Also erstens mal ist das einfach nur ein Gerücht und schlicht nicht belegbar und zweites war doch gar nicht die Rede nach dem Warum? Oder hab ich was auf den Augen...
Als geneigter Endkunde kannst du dir vom Warum nichts kaufen... Du stehst nur vor dem Problem, wenn es so ist.
Und was die angeblichen Treibergeschichten angeht. Es gibt zumindest bis heute keine stichhaltigen Belege dafür...
Das einzige, was wir wissen, Maxwell Shader sind effizienter in der Leistung pro Takt und das FrontEnd ist anders aufgebaut. Da nur eine Treiberschwäche zu sehen, halte ich für unsinnig und weit her geholt. GK110 ist nicht langsamer gewurden, was die Tests klar belegen. Und GM204 hat nicht sonderlich zugelegt, was ebenso die Tests belegen mit Treibern.
Was bis dato nirgends steht, warum GM204 in einigen Games schlicht schneller ist? Liegs am FrontEnd? Liegts an der Tesselation Power? Liegs an der Shadereffizienz? Liegs am anderen Aufbau -> und Kepler lastet nicht richtig die ALUs aus? Liegts an der Raster/Filter/Whatever Leistung? Liegts am Takt? usw. -> viele viele Fragen.

Jede GM204 mit echten 4 GB läuft der 780Ti davon.
Nein das war nicht die Aussage. Die Aussage war, dass jede GM204 dem GK110 mit 3GB davon läuft, wenn letzterer der Speicher zuläuft. Egal ob die 970er nun ein gammliges SI hat oder nicht. 3,5GB schnell ist mehr wie 3GB noch schneller.
Bewegst du dich haar scharf an der Grenze des VRAM Limits, reichen diese popligen 512MB mehr schon aus, um die Leistung umkippen lassen zu können.
Aktuelles Beispiel. neuestes TR mit FHD und max. Details, ohne SSAA, dafür SMAA. Textur Qualität Ultra = ~20FPS im VRAM Limit, zumindest phasenweise. Texturqualität hoch = 80-100 FPS, teils gedrosselt im CPU Limit.
Da ich aktuell keine 970er habe, kann ich es nicht direkt gegenmessen. Aber mir sind keine Fälle bekannt, die über derartige FPS Einbrüche (dauerhaft, wohlgemerkt!) in TR berichten mit 970er Karten.


Wieso habe ich immer das Gefühl, dass die Besitzer der Karten immer ihren eigenen Kauf versuchen in den Argumentationen zu rechtfertigen?
 
Zuletzt bearbeitet:
Du musst halt tr auch so einstellen, dass die 3gig reichen! Hab hier ebenfalls - allerdings problemlos tr auf 1080p mit nur einer 780ti gezockt. Und das ganze butterweich....
Und ne 970er wirklich mit ner 780ti vergleichen zu wollen - sry aber das ist lächerlich! Der kannst ne gute 780er dagegen stellen...
Gab genug User die die 780ti verscherbelt hatten zum 970er/980er Start um sich ne 970er zuzulegen. Einige haben daraufhin ihre 970er schnell wieder verkauft und sind zurückgekehrt... - die große Frage, warum;)

Gesendet von meinem SM-G920F mit Tapatalk
 
Zuletzt bearbeitet:
so weit liegen 780, 780Ti und 970 nun auch nicht auseinander.
 
Hat mit der ursprünglichen Behauptung von "Untertakte eine 390X auf 900MHz und Du hast 120W Verbrauch bei 85% der ursprünglichen Leistung!" nicht mehr viel gemein...
Aber selbst mit den nun genannten Mitteln halte ich es für unwarscheinlich.

Doch das komnmt schon hin. Nimm mal die FuryX und Nano also Vergleich. Ca 10% Leistungsunterschied aber fast annähernd 50% Differenz im Lastverbrauch. Wenn man nun noch berücksichtigt, dass die FuryX durch die Wakü und beseren Temperaturen nun sogar physikalisch bedingt etwas weniger verbraucht kommt das gut hin.

Eine 390x ist ja bereits ziemlich hoch getaktet. Mit manueller Spannungsoptimierung durchaus realistisch. Ob das nun 45% oder 50% sind ist doch Wumpe.

Launch-Analyse AMD Radeon R9 Nano | 3DCenter.org
 
Doch das komnmt schon hin. Nimm mal die FuryX und Nano also Vergleich. Ca 10% Leistungsunterschied aber fast annähernd 50% Differenz im Lastverbrauch. Wenn man nun noch berücksichtigt, dass die FuryX durch die Wakü und beseren Temperaturen nun sogar physikalisch bedingt etwas weniger verbraucht kommt das gut hin.

Eine 390x ist ja bereits ziemlich hoch getaktet. Mit manueller Spannungsoptimierung durchaus realistisch. Ob das nun 45% oder 50% sind ist doch Wumpe.

Launch-Analyse AMD Radeon R9 Nano | 3DCenter.org

1. Die Fury X hat noch ne Wasserpumpe und nen Leistungsfähigen Lüfter, die Verbrauchen wohl mehr als durch die niedrigeren Temperaturen im Chip gespaart werden.
2. Hat die Nano als einzige ein derart aggressives Powermanagement gegenüber der Fury X - das macht gewaltig viel aus.
3. Ist der Fiji Chip nicht so einfach mit dem Hawaii Chip vergleichbar! Die unterschiedlichen Architekturen und unterschiedlichen Fertigungsverfahren (innerhalb des 28nm Prozesses) verschieben den Sweet Spot der Effizienz.
4. War damals schon beim Lüfterdebakel der R9 290(X) klar, dass der Hawaii Chip nur von 850 - 900 Mhz gedacht war, aufgrund der starken 780 dann aber zugunsten der Leistung und zulasten der Effizienz erst auf die 950 bis 1000MHz getaktet wurde!
6. Hat die Nano wahrscheinlich selektierte Chips welche besonders wenig Leckströme aufweisen
5. Was ich vermute aber wäre toll wenn das jemand bestätigen / wiederlegen könnte (interessiert mich):
Die Nano hat nur eine 4 Phasige Spannungsversorgung, ich glaube umso mehr Phasen umso mehr Strom kannst du der Karte Stabil und ohne große Hitze geben, aber umso uneffizienter wird die Sache...

Generell scheint die GCN Architektur in 28nm allerdings ihren Effizienzsweetspot in Richtung 850-950 zu haben.
In 14/16nm scheint das aber anders zu sein, klein Polaris wird mit 1280 Shadern und der Leistung einer 380(X) erwartet also mehr Leistung u.A. durch Takt, und das Pascal HPC Modul läuft schon von >1300 bis fast 1500 MHz, und das in einem Bereich wo Effizienz das wichtigste ist!

Mich würde es nicht wundern wenn die Nvidida Karten bis 1700MHz OC mit normaler Luft/Wasserkühlung gehen so wie jetzt die 1400MHz der GTX980Ti und es bei AMD dieses mal ähnlich wird!
 
Zuletzt bearbeitet:
1. Die Fury X hat noch ne Wasserpumpe und nen Leistungsfähigen Lüfter, die Verbrauchen wohl mehr als durch die niedrigeren Temperaturen im Chip gespaart werden.
Die sind jedoch vernachlässigbar. Bei 1 Lüfter mit 1 Pumpe könnte es sogar sein, dass weniger Strom als mit z.B. 3 Lüftern verbraucht wird. Den anderen Punkten stimme ich zu.
Die Nano hat nur eine 4 Phasige Spannungsversorgung, ich glaube umso mehr Phasen umso mehr Strom kannst du der Karte Stabil und ohne große Hitze geben, aber umso uneffizienter wird die Sache...
Auch dort setzt man FETs ein, an denen die Wärme abfällt. Je höher der Strom, umso wärmer werden die und umso ungenauer wird die Spannung bereitgestellt und umso ineffizienter arbeiten sie: Temperaturverhalten von Halbleitern . Bedeutet letztlich, dass man eigentlich die beste Effizienz haben müsste, wenn man eine so große Menge an Phasen hat, dass die Effizienz pro Phase möglichst gut bleibt, indem der FET kühl bleibt, und gleichzeitig auch nicht mehr als nötig. -> Der Energieverbrauch der gesamten Karte wird natürlich auch dadurch bestimmt, wie viel bei der Spannungsumwandlung verloren geht und die sind meistens nicht auf die Stromstärken ausgelegt, die man da beim Übertakten gerne raussaugen will -> sollte man also wirklich kühl halten.

Mich würde es nicht wundern wenn die Nvidida Karten bis 1700MHz OC mit normaler Luft/Wasserkühlung gehen so wie jetzt die 1400MHz der GTX980Ti und es bei AMD dieses mal ähnlich wird!
So in etwa schätze ich das aktuell auch ein.
 
Zuletzt bearbeitet:
Nochmal für Laien: Wieso sollte die geringere Strukturbreite höhere Taktraten erlauben?
 
Durch die kleinere Strukturbreite kann man auf gleicher Fläche deutlich mehr Bauteile wie z.B. Transistoren etc. verbauen...vielleicht sorgt das alleine ja schon für höhere Taktraten.
 
Durch die kleinere Strukturbreite kann man auf gleicher Fläche deutlich mehr Bauteile wie z.B. Transistoren etc. verbauen...vielleicht sorgt das alleine ja schon für höhere Taktraten.
Ne - nicht wirklich...
Nehmen wir mal an, Deine Aufgabe wäre es, eine Tür zu öffnen und zu schließen. Fakt ist, dass Du nur begrenzte Energie hast. Wenn das jetzt eine sehr große, schwere Eisentür ist, bekommst Du das vielleicht alle drei Sekunden einmal hin, also mit 1/3 Hertz
Da uns nur interessiert, ob die Türe offen oder geschlossen ist, versuchen wir nun, das Öffnen und Schließen zu optimieren. Das bedeutet, dass wir eine kleinere Türe fertigen(handgroß), und vielleicht auch aus Carbon, damit sie leichter ist, aber immer noch stabil genug. Jetzt wirst Du die Türe sicherlich sehr oft öffnen und schließen können - vielleicht vier mal pro Sekunde, also mit 4 Hertz, und wahrscheinlich fällt es Dir sogar trotz der öfteren Wiederholung noch leichter. Schwierig ist natürlich, die Türe trotzdem noch so stabil zu fertigen, dass sie den Anforderungen Stand hält.
Jetzt passen aber auf die Fläche einer großen Türe noch viel mehr kleine Türen. Das bedeutet, wir erhöhen nicht nur die Frequenz, sondern auch die Menge.
Jetzt sind zwar in dem Halbleiterchip keine mechanischen Türchen, aber logische - jedenfalls wird Material leitend/unleitend, bzw. es wird entweder die eine oder die andere Seite leitend -> I/0. Und da die Wegstrecke des Stroms immer kürzer wird, müsste sich auch die Schaltzeit verringern - somit das Element mit mehr Schaltvorgängen pro Zeiteinheit belastbar sein.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh