Volcanic Islands nur so schnell wie GeForce GTX 780 und in 28 nm?

bei dem wir ja schon geklärt haben, dass Boost 2.0 eine Temperatur bis zum Maximalwert erlaubt und somit vollkommen temperaturunabhängig funktioniert.

Dann nehme ich mal an, dass das erhöhen von Powerlimit und Boost-Clock zu keinerlei Temperaturerhöhung führt. Deine Argumentation ist lächerlich, für eine Temperaturunabhängigkeit müsste das Ding auch bei 300 Grad einfach weiterlaufen. Tut es aber nicht, erreicht es sein Limit taktet es zurück. es besteht also eine Abhängigkeit von Temperatur und Boost...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann nehme ich mal an, dass das erhöhen von Powerlimit und Boost-Clock zu keinerlei Temperaturerhöhung führt. Deine Argumentation ist lächerlich, für eine Temperaturunabhängigkeit müsste das Ding auch bei 300 Grad einfach weiterlaufen. Tut es aber nicht, erreicht es sein Limit taktet es zurück. es besteht also eine Abhängigkeit von Temperatur und Boost...

Und hier fragt sich mein Gehirn: Wenn ich ein Durchschnittsmensch bin, mit was für Leute unterhalte ich mich dann dauernd im Internet?!...

Auf den Karten sitzen Kühlkörper. Diese besitzen eine Defaultlüfterkurve. Diese setzt meisten - ach was soll's - nein immer vor dem maximalen Schwellwert ein.
Oder anders ausgedrückt: Wenn du bei AMD Karte den Finger in den Lüfter hälst, wird diese Karte ebenfalls irgendwann anfangen zu throttlen, da die maximale Temperatur überschritten wird.

Boost 1.0 hatte hartverdrahtete Throttlesteps (70°C, 79°C, 85°C etc.). Boost 2.0 kennt nur noch das einstellbare TempTarget, dass bis zum Schwellwert von 94°C anwendbar ist. Temperaturunabhängig eben.
 
[/COLOR]"bis zum Schwellwert von 94°C " <=> "Temperaturunabhängig"
hmm ..

94°C sind das von Nvidia spezifizierte Maximum ab dem die Karte schaden nehmen kann. Das hat nichts mit den Abhängigkeiten eines innerhalb der Spezifikationen wirkenden, die Karte nicht beschädigenden Boost zu tun.
 
Das ist aber Haarspalterei. Das Erreichen der Maximaltemperatur ist natürlich umgebungstemperaturabhängig, und das hat selbstverständlich Auswirkungen auf den Boost.
 
Und hier fragt sich mein Gehirn: Wenn ich ein Durchschnittsmensch bin, mit was für Leute unterhalte ich mich dann dauernd im Internet?!...

Auf den Karten sitzen Kühlkörper. Diese besitzen eine Defaultlüfterkurve. Diese setzt meisten - ach was soll's - nein immer vor dem maximalen Schwellwert ein.
Oder anders ausgedrückt: Wenn du bei AMD Karte den Finger in den Lüfter hälst, wird diese Karte ebenfalls irgendwann anfangen zu throttlen, da die maximale Temperatur überschritten wird.

Boost 1.0 hatte hartverdrahtete Throttlesteps (70°C, 79°C, 85°C etc.). Boost 2.0 kennt nur noch das einstellbare TempTarget, dass bis zum Schwellwert von 94°C anwendbar ist. Temperaturunabhängig eben.

Keine Sorge du bist kein Durchschnittsmensch... :d Ich dachte bisher immer die AMD-Fanboys haben teilweise einen gewaltigen Schatten, aber das hier ist der Hammer. Alleine schon die Existenz einer Maximal-Temperatur und das Reagieren der Karte drauf zeigt eine Abhängigkeit von der Temperatur. Da kann man sich noch so viel hinter Spezifikationen verstecken, etwas Philosophie und da die Logik sollte man sich mal zu Gemüte führen...
 
Keine Sorge du bist kein Durchschnittsmensch... :d Ich dachte bisher immer die AMD-Fanboys haben teilweise einen gewaltigen Schatten, aber das hier ist der Hammer. Alleine schon die Existenz einer Maximal-Temperatur und das Reagieren der Karte drauf zeigt eine Abhängigkeit von der Temperatur. Da kann man sich noch so viel hinter Spezifikationen verstecken, etwas Philosophie und da die Logik sollte man sich mal zu Gemüte führen...
:lol::d
 
Wer bitte läst seine Karte wirklich mehr als 90C° erreichen :eek:
 
Sind ja alle unterschiedlich...Wenn ich an meine 8800gtx denke. Die hatte fast nie wirklich weniger als 85 und hat das ne gute Zeit ohne Probleme mitgemacht.:-D

@topic ich persönlich finde das halb so wild, wenn die Karte "nur" 780 Niveau erreicht. Die Titan verkauft sich in der Masse ja eh kaum und ist mehr Marketing als Umsatzträger. Ich bin eher auf den Verbrauch, Spielebundle etc gespannt.
 


für das Geld für ne Wakü steck ich lieber ne weitere GPU hinzu und verzichte auf ein paar MHz obenrum bei allen GPUs :fresse:

Hatte ich beispielsweise bei der 470 GTX so gehalten ;) So waren eben nur 750MHz drin unter Luft.
Zweite Karte rein und rennt wie hanne.
Fermi lüppt auch noch bei 110°C ;)
 
Habe meine jetzigen zwar auch nur unter Luft wenn ich aber an die GTX580er im SLI oder die 7970er im CF denke geht nichts über wakkü.
Bei mir lassen sich jetzt im Sommer die 780er im SLI nur wegen dem Keller super betreiben.
Die neuen Volcanic GPUs werden bestimmt auch ordentlich heizen.
So etwas wie ein tripple oder Quadfire Lösung ist auch unter Luft kaum zu betreiben.:d
Ich habe es ja life erlebt .
 
Sind ja alle unterschiedlich...Wenn ich an meine 8800gtx denke. Die hatte fast nie wirklich weniger als 85 und hat das ne gute Zeit ohne Probleme mitgemacht.:-D

@topic ich persönlich finde das halb so wild, wenn die Karte "nur" 780 Niveau erreicht. Die Titan verkauft sich in der Masse ja eh kaum und ist mehr Marketing als Umsatzträger. Ich bin eher auf den Verbrauch, Spielebundle etc gespannt.
genau,wenn die dann noch auf den für mich unnötigen boost verzichten und sie sich ähnlich gut wie die 7970(oc) lassen +1.
 
1200Mhz@2560shader wäre schon ordentlich.
 
Muss nicht sein irgendwo hatte man das schon mal inc möglichen verbesserungen hoch gerechnet bei ca.274 W.
Selbst wenn ich hätte auch lieber ne Titan oder GTX780 gehabt die von Haus aus mehr Takt bei 300 W bietet ohne diese software oc spielerein.
Mich tangiert der verbrauch mal gar nicht.
 
Na das ist doch klar mit oc verbrauchen die karten eh immer sau viel
 
Zuletzt bearbeitet:
Selbst wenn ich hätte auch lieber ne Titan oder GTX780 gehabt die von Haus aus mehr Takt bei 300 W bieten.
Mich tangiert der verbrauch mal gar nicht.

Meiner Meinung nach darf eine Karte auch gerne mehr fressen - nur muss die effizienz stimmen. Wenn die Radeon gut 50 bis 80 Watt mehr als ne Titan/780 frisst, aber kaum schneller ist - ist ja klar, welches das bessere Produkt ist (unabhängig vom Preis).

Muss nicht sein irgendwo hatte man das schon mal inc möglichen verbesserungen hoch gerechnet bei ca.274 W.
Klar, kann auch etwas weniger sein, für 1200 MHz würde man aber sicherlich (auch jetzt noch) gut und gerne 1,2 bis 1,25V benötigen - bei + 25% shader... das wird schon böse (und mit stärkerem Frontend werden die shader nochmals stärker ausgelastet), falls da nicht irgendetwas wirklich unglaubliches kommt, sind 2560 Shader + 900 bis 1000MHz deutlich realistischer.

Na das ist doch klar mit oc verbrauchen die karten eh immer sau viel
Klar, ich bin jetzt davon aber als referenzkarte ausgegangen :d
 
1200mhz wird das ding doch nie original haben eher mit max OC
 
Mit den neuen Auflösungen (Stichwort 4k) müssen AMD und Nvidia jedenfalls definitiv noch heftig ausbauen um für alle Topgames bis 2015 gerüstet zu sein. Bei Crysis 3 auf 2,5k x1,5k in very high Quality bietet ja selbst eine Titan mit rund 30 fps den meisten Gamern definitiv zu wenig bzw. so gerade noch erträgliches.
 
Wir brauchen halt neue engines die besser laufen.
Beispiel : Metro last light welches auf niedrigen settings kaum schlechter aussieht aber enorm besser läuft
 
Wir brauchen halt neue engines die besser laufen.
Beispiel : Metro last light welches auf niedrigen settings kaum schlechter aussieht aber enorm besser läuft
Dann gibt es für die Settings doch ne PS4.:fresse2:
 
jo wobei es auf dieser ja schon @ killzone besser ausehen soll als crysis 3
 
Wäre auch komisch, wenn man über einen der kommenden Premium-Artikel der neuen Konsolen anderes hören würde... :shot:
 
Die Tester sagten sie wahren selber erschrocken das es so gut aussah.
 
Du meinst die, die damit Geld verdienen, dass die Hersteller anzeigen bei ihnen schalten? :d Es ist natürlich gut möglich, dass es am Ende wirklich besser aussieht, aber das sollte es auch. Die Gubbel-Grafik-Nische gehört Nintendo... :d
 
Naja der unterschied ist halt das game lief dafür wohl mit 30FPS..

Naja kein plan ob Gamestar gekauft ist..
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh