nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
@7779
Finde das schon irgendwie komisch das zuerst eine "kleine" Karte Released wird und später erst die High-End Kunden besänftig werden war das eigentlich schon mal so? Oder habe ich da was übersehen?

Tick,Tock sollte dir von Intel bekannt sein? Ist auch ein Erfolgsmodell

Indem man Risiken minimiert und nicht unmittelbar DIE Shrink mit neuer Architektur zusammen klatscht

Bei diesem Modell (leicht abgewandelt von Intels Tick,Tock)first Midrange und dann Highend reduziert man auch in gewisser Weiße fertigungsbedingte Probleme

Fermi hat gezeigt was passieren kann,wenn neue Fertigung und Architektur noch nicht ganz ideal harmonieren,und man gleich mit dem Big Dog ins Haus fallen will

Darum erst der kleine Chip,um zu sehen obs funktioniert,und erst dann das volle Futter
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So, hab die erste Seite mal wieder nen bisschen überarbeitet. Feedback wie immer willkommen :d




Vorrangig ist das falsche Wort. Bereits seit G80 fließen Entwicklungen in den Chip ein die bei Spielen so gut wie nichts bringen, trotzdem den Transistorcount in die höhe treiben und letztendlich von uns mitbezahlt werden. Da sich aber ebenso vieles überschneidet wäre ein schneller Gamerchip auch ein schneller HPC-Chip und umgekehrt.

Sehe ich nicht so, Fermi war ein recht ausgeglichener Chip mit den bekannten Nachteilen, Energieverbrauch damit verbunden Hitzeentwicklung.... Das man auch andere Wege gehen Kann zeigt ja AMD, sie haben das Frontend der HD 79xx nur geringfügig aufgebohrt da dies bei den besagten Aufgaben nicht die Hauptrolle spielt, hier krankt meiner Meinung nach auch die HD 7970, rein von der Shaderleistung liegt die mit der neuen GCN Architektur um den Faktor von ca. 2 vor der HD 6970, bringt aber in Spielen nur einen Bruchteil der theoretischen Vorteile auf den Boden. Hier dürfte auch noch der Nachteil der Menge der Ausführungseinheiten eine Rolle spielen.
Mit steigender Anzahl, wird es nicht einfacher diese auch effizient Auszulasten die Gefahr eines Overhead ist auf jeden Fall latent vorhanden.
Da wird auch NV dran zu knabbern haben, bohrt man dort das Frontend und die Cashes weiter auf bekommt man einen riesigen Chip, oder geht man den Weg und bohrt das Frontend nur geringfügig auf und erhält einen kleineren Chip der jedoch für GPU Anwendungen abseits von Spielen eine herausragende Leistung bietet und mit einer besseren Energiebilanz aufwarten kann. Da der Energieverbrauch bei diesen Anwendungen sehr wohl eine Rolle spielt, ist die Entscheidung wo verballere ich meinen Transistoren sicherlich nicht einfach zu treffen.


Noch viel wichtiger als reine Leistung sind dort noch andere Dinge und eben da hat ATI bisher noch deutlich das nachsehen. Die 6xxx Generation und auch die 5xxx hatten ebenfalls schon mehr Shaderleistung.

Ja da gebe ich Dir Recht, aber der Vorsprung schrumpft, und mit einer höheren Akzeptanz der offenen Schnittstellen Thema open CL muss sich auch NV anfreunden.
Zu dem Thema HD 5xxx und HD 6xxx AMD hat doch erkannt das die Vliw5 und Vliw 4 Architektur bei extremer Parallelisierung punkten kann, aber sobald die Anweisungen länger und somit komplexer werden eben die Auslastung nicht mehr gegeben ist. Sie haben sich ja nicht umsonst mit der HD 79xx Serie auf GCN umgestellt, da Ihnen das wohl bewusst war. Ich gehe soweit, dass ich sage, die gezeigte Spieleleistung bei AMD währe nicht niedriger wenn man auf der Vliw 4 Architektur geblieben währe.

Wie gesagt, es gibt keinen Abfall. Nur Funktionen die du mitbezahlst aber nicht nutzt, was aber bei CPUs zB schon seit langem gang ung gäbe ist.

Dort geht man aber im High End Bereich auch den Weg das es Chips nur für diese speziellen Anwendung gibt, da man eben schon festgestellt hat das hier eine Spezialisierung Sinn macht.

Beide sowohl AMD wie auch Intel fahren eine Schiene die z.B. nur im Serverbereich zu finden ist und ich spreche nicht von den kleinen Lösungen da gibt es sehr wohl Überschneidungen. Aber einen Xeon i7 8830 wird man wohl kaum in einem Heimrechner finden genau so wenig wie einen 6200er Opteron.
 
FXAA glättet eben andere Sachen, wofür normales AA nicht zuständig ist. Also AA+FXAA= Optimum mMn.
 
Zuletzt bearbeitet:
Sehe ich nicht so, Fermi war ein recht ausgeglichener Chip mit den bekannten Nachteilen, Energieverbrauch damit verbunden Hitzeentwicklung.... Das man auch andere Wege gehen Kann zeigt ja AMD, sie haben das Frontend der HD 79xx nur geringfügig aufgebohrt da dies bei den besagten Aufgaben nicht die Hauptrolle spielt, hier krankt meiner Meinung nach auch die HD 7970, rein von der Shaderleistung liegt die mit der neuen GCN Architektur um den Faktor von ca. 2 vor der HD 6970, bringt aber in Spielen nur einen Bruchteil der theoretischen Vorteile auf den Boden. Hier dürfte auch noch der Nachteil der Menge der Ausführungseinheiten eine Rolle spielen.

Ähm, nö. Eigentlich ist die theoretische Rechenleistung um nichtmal 50% gestiegen.

Mit steigender Anzahl, wird es nicht einfacher diese auch effizient Auszulasten die Gefahr eines Overhead ist auf jeden Fall latent vorhanden.

Solange die ALUs simpel bleiben lässt sich ein Overhead halbwegs eindämmen.

Da wird auch NV dran zu knabbern haben, bohrt man dort das Frontend und die Cashes weiter auf bekommt man einen riesigen Chip, oder geht man den Weg und bohrt das Frontend nur geringfügig auf und erhält einen kleineren Chip der jedoch für GPU Anwendungen abseits von Spielen eine herausragende Leistung bietet und mit einer besseren Energiebilanz aufwarten kann. Da der Energieverbrauch bei diesen Anwendungen sehr wohl eine Rolle spielt, ist die Entscheidung wo verballere ich meinen Transistoren sicherlich nicht einfach zu treffen.

Erklär mir mal warum ein vernünftiges Frontend für einen HPC-Chip nicht wichtig ist?



Ja da gebe ich Dir Recht, aber der Vorsprung schrumpft, und mit einer höheren Akzeptanz der offenen Schnittstellen Thema open CL muss sich auch NV anfreunden.
Zu dem Thema HD 5xxx und HD 6xxx AMD hat doch erkannt das die Vliw5 und Vliw 4 Architektur bei extremer Parallelisierung punkten kann, aber sobald die Anweisungen länger und somit komplexer werden eben die Auslastung nicht mehr gegeben ist.

OpenCL bring erstmal garnichts. Die Unterstützung von NV bei den ENtwicklern ist wesentlich größer, die Khronos Group unterstützt niemanden. Sie gibt nur nen Weg vor, an die Hand nehmen wird dich aber nur NV.

Sie haben sich ja nicht umsonst mit der HD 79xx Serie auf GCN umgestellt, da Ihnen das wohl bewusst war. Ich gehe soweit, dass ich sage, die gezeigte Spieleleistung bei AMD währe nicht niedriger wenn man auf der Vliw 4 Architektur geblieben währe.

Sicherlich, trotzdem ist VLIW4 ebenso wie 5 nicht das Mittel zum Zweck. Auf dem Papier und in seltenen Fällen sah es gut aus, bei den meisten Realsettings hatte NV dann aber doch wieder die Nase vorne.


Dort geht man aber im High End Bereich auch den Weg das es Chips nur für diese speziellen Anwendung gibt, da man eben schon festgestellt hat das hier eine Spezialisierung Sinn macht.

Beide sowohl AMD wie auch Intel fahren eine Schiene die z.B. nur im Serverbereich zu finden ist und ich spreche nicht von den kleinen Lösungen da gibt es sehr wohl Überschneidungen. Aber einen Xeon i7 8830 wird man wohl kaum in einem Heimrechner finden genau so wenig wie einen 6200er Opteron.

Dann schau dir mal Bulldozer an der fast komplett am derzeitig Desktopmarkt vorbei entwickelt wurde. Auch die meisten Techniken bei Sandy Bridge wie Virtualisierung wird wohl von den wenigsten genutzt bzw ist nur in wenigen Chips nutzbar aber in allen Vorhanden.



FXAA glättet eben andere Sachen, wofür normales AA nicht zuständig ist. Also AA+FXAA= Optimum mMn.

Naja, FXAA funktioniert etwas anders als "normales" AA. Coding Horror: Fast Approximate Anti-Aliasing (FXAA)

Die Qualität ist niedriger als bei MSAA, aber der Performanceverlust in keinster Weise vergleichbar. Wenns um Geschwindigkeit geht = FXAA, gehts um Qualität = SSAA/Downsampling.
 
Werden die neuen NV-Karten eigentlich ähnliche Stromsparfeatures wie ZeroCore Power haben?
 
Super im Notebook, aber von PC ist da nicht die Rede.

Im Grunde mache ich sowas mit meiner steinalten FireGL5700 in meinem Notebook auch schon.
Nur muss ich manuell zwischen IGP und normaler Grafikkarte umschalten
 
Zuletzt bearbeitet:
Mit Zero Core oder etwas Ähnlichem von NV würde zumindest Virtu mit den Intel IGPs Sinn machen.
Ein niedriger Idle-Verbrauch ist ja auch nicht ganz unwichtig, bin mal gespannt, wie sich Kepler da schlägt.
 
Mit Zero Core oder etwas Ähnlichem von NV würde zumindest Virtu mit den Intel IGPs Sinn machen.
Ein niedriger Idle-Verbrauch ist ja auch nicht ganz unwichtig, bin mal gespannt, wie sich Kepler da schlägt.

Virtu kommt von Lucid und deaktiviert die GPU nicht vollständig,während Synergy(Optimus) die Karte komplett deaktiviert

Also zwei unterschiedliche Verfahren,die nichts miteinander zu tun haben
 
Für SLI wäre das einfach prima. Sehe nicht ein, warum jede Karte 25W fürs Nichtstun schlucken muss.
 
Dort geht man aber im High End Bereich auch den Weg das es Chips nur für diese speziellen Anwendung gibt, da man eben schon festgestellt hat das hier eine Spezialisierung Sinn macht.

Beide sowohl AMD wie auch Intel fahren eine Schiene die z.B. nur im Serverbereich zu finden ist und ich spreche nicht von den kleinen Lösungen da gibt es sehr wohl Überschneidungen. Aber einen Xeon i7 8830 wird man wohl kaum in einem Heimrechner finden genau so wenig wie einen 6200er Opteron.

Das stimmt so nur zum Teil... Zumindest auf die CPU bezogen.
Seit geraumer Zeit baut AMD im Performance Desktop Segment 1:1 die Servertechnik auf das Package. Einfach weil man sich somit die Kosten für eine zweite Produktionslinie spart und das wohl am Ende Kosteneffizienter ist, als wenn man es anders macht.
Das ganze lässt sich bis zum Phenom I zurück verfolgen und geht bis aktuell Bulldozer. Dedizierte Designs wie Llano/Bobcat mal außen vor...

Bei Intel läufts im HighEnd Bereich ähnlich. Zumindest seit Nehalem, welches eigentlich ein Serverdesign ist. S1156/S1155 sind dedizierte Desktop Produkte. Vor Nehalem (S775) wars noch einfacher das zu mischen bei Intel. Da gabs nur den FSB. Man hat einfach das Dual Sockel Serversegment mit den "gleichen" Designs betrieben wie die Desktop CPU Modelle.

Bei GPUs läufts da exakt genau so. Es gibt einfach keine dedizierten Produktlinien für die Profi Karten, sei es nun Tesla/FireStream oder Quadro/FirePro/FireGL... Das ist alles unter der Decke identisch, aber man deaktiviert unterm Strich im Desktop Markt ein paar Features bzw. bestückt die Karten RAM seitig deutlich knapper.
Der Profimarkt ist wohl der eigentliche Geldmarkt bei Grafikkarten. Desktop Performance/HighEnd absolut nicht. Bestenfalls noch die Margenreiche Einstiegsklasse... Aber selbst dort ists seit es CPUs mit GPUs an Board gibt, für die Büro PCs schonmal nicht nötig ne dedizierte Grafikkarte zu verbauen (wo die GPU Hersteller ATI/NV damals wenigstens noch ihre OnBoard Lösungen loswerden konnten)

Aber sei es drum, es ist absolut unwarscheinlich, das GK110 für den Profimarkt only kommt... Ein umswitchen auf die Desktop Schiene kost NV selbst nahezu nix im Vergleich.

Warten wir den 17ten bzw den offiziellen Launch ab,AMD hat mit Zero Core mehr oder minder gut vorgelegt,vielleicht spielt Nvidia ja nun den Ball zuück


Synergy: Nvidia bringt Optimus auf den Desktop

NV hat ja damals schonmal was in der Richtung angekündigt, was sich leider mehr oder weniger im Sand verlaufen hat, zumindest im Desktop Bereich. Optimus scheint ja zumindest im Notebook Bereich durchaus zu funktionieren.
Schau ich mir aber die Vergangenheit an, lässt mich arg zweifeln, das NV hier unbedingt sofort nachlegt und schon gar nicht, das sie was besseres finden als AMD. Der Verbrauch war bei NV immer schon etwas stiefmütterlich. Das fing damit an, das man lange brauchte um überhaupt 2D/3D Taktprofile einzuführen wo die Konkurenz das schon munter Betrieb und wird von der Tatsache, das man Optimus damals im Desktop Bereich wohl auf Eis gelegt hatte nicht unbedingt entkräftet ;)

Aber sei es drum, mich persönlich interessiert das Feature nicht die Bohne :fresse:
Da ich davon ausgehe, das NV ihre Multimonitoring Probleme nicht in den Griff bekommt, was mich dann wieder dazu zwingen wird, den zweiten Monitor an die zweite Karte zu klemmen. Sprich Karte gänzlich ausschalten ist sowieso nicht :fresse:
 
Zuletzt bearbeitet:
Ja die Ankündigung ist schon ewig her. Hoffen wir, es kommt mit Kepler.

@fdsonne: Benutzt du nicht den MDPS?
 
Zuletzt bearbeitet:
Ja die Ankündigung ist schon ewig her. Hoffen wir, es kommt mit Kepler.


Am Verfahren selber sollte eigentlich nichts sein was man nicht auch im Desktop bringen könnte

Ich würde eher vermuten das diese Lastwechsel Ein/Aus und damit einhergehenden sprunghaften Spannungen vielleicht Bauteile auf Mobo bzw Grafikplatine selber überbeanspruchen,bei so großen Karten wie der GTX 580
 
MDPS? Klär mich auf?

Multi Display Powersaver. Ist im Inspector drin, da kannst du die Karten auf P12 zwingen, auch bei mehreren Monitoren mit unterschiedlichen Auflösungen/Frequenzen. Kannst Ausnahmen setzen etc, sehr nettes Tool.



Rechtsklick auf "Overclocking". Ist ein bisschen versteckt die Option.
 
Zuletzt bearbeitet:
Das hab ich aufgegeben, weil durch das Tool im Multimonitoring Betreib ne extreme Schieflage der GPU Auslastungen zu stande kommt (teilweise 10%+ Unterschied)...
Dazu kommt, das die Arbeit auf dem Desktop teils merklich zäh wird, das Videobeschleunigung selbst ruckelt usw. Aber das ist nicht mein eigentliches Problem ;)

Mein Problem ist viel eher, das ich nen HDMI TV als Hauptschirm nutze und nen DVI Monitor als erweiterten Desktop. NV ist aber so clever und priorisiert den Spaß scheinbar. Das heist, beim Boot ist der Anschluss, auf dem der Monitor noch sichbar ist, fix vorgeschrieben (sprich dort wo der TV dran klemmt, kommt Bild beim Boot, so wie es soll)
Läd aber der Treiber, ist zwar die primäre Anzeige der TV (sprich Taskleiste auf TV) und die sekundäre Anzeige der DVI TFT, die Fokusanzeige liegt aber immer auf dem DVI Schirm. Was soviel bedeutet, das alle Fenster auf dem zweiten Schirm aufgehen. Ein Umstellen ist nur über einen Umweg möglich, nämlich extended Desktop kurz deaktivieren, sodass primärer Schirm und Fokusschirm auf dem TV liegen, dann wieder erweitern und es läuft bis zum nächsten Boot :fresse: Grundsätzlich könnte man das zwar sicher auch via Hotkey lösen oder wenigstens Scripten, nur zerhauts mir jedesmal meine Desktopsymbolanordnung...

Da mir der Aufwand zu groß ist, betreibe ich den DVI Schirm an der zweiten Karte... Und kann sogar auf den MDPS verzichten (zumindest für die primäre Karte)
Die zweite Karte bleibt übrigens immer im Multimonitoring 2D Profil im Desktop Profil, warum auch immer.
Mit AMD geht das übrigens und ich sehe es nicht ein, mir ne dedizierte Software zu kaufen (ala UltraMon, sofern das damit einstellbar wäre), weil NV meint, Settings zu definieren, die ich nicht will :fresse:
 
Zuletzt bearbeitet:
Stöpsel mal den DVI Monitor ab samt Kabelage,boote neu Cmos Clear und Defaults geladen,und belasse nur den HDTV dran

Wenn Windows dann hochgefahren ist,erneut neu booten und den anderen wieder dran,schau mal obs hilft;)


Edit:
dieses ewige Handyvertipperei hier geht mir langsam aber sicher auf die Weichteile:mad::fresse:
 
Zuletzt bearbeitet:
Ne, schon probiert ;)

und wie gesagt, es hat nix mit dem PC selbst zu tun. Das ganze ist nachstellbar auf verschiedener Hardware mit verschiedenen Treibern und verschiedenen Settings. Sobald es im Control Panal die Möglichkeit gibt, die Fokusanzeige zu sehen, ab dann funktioniert nur die eigenartige Konstellation.
Übrigens, wenn zwei als HDMI angesteckte Geräte dran klemmen, geht das auch. Ebenso wenn man den zweiten Monitor via VGA dran klemmt. Meine Vermutung nach der Erkenntnis ist, das eben HDMI niedriger priorisiert ist, als DVI. Aber höher als VGA. Die Konstellation vorher mit DVI Mainscreen + VGA extendet Desktop ging ja auch.

Vllt liegts aber auch daran, das ich nicht den nativen mini HDMI Anschluss nutze? Sondern ein DVI auf HDMI Adapterkabel. Der mini HDMI ist leider nicht benutzbar bei mir da das Case mit ner Plasteabdeckung den zur hälfte verdeckt :fresse:
 
Was haben wir denn hier,wieder die Nomenklatur für die Tonne

2008263dmycjnnoxjvjjl6.png

http://we.pcinlife.com/thread-1833778-1-1.html
 
Zuletzt bearbeitet:
Das hab ich aufgegeben, weil durch das Tool im Multimonitoring Betreib ne extreme Schieflage der GPU Auslastungen zu stande kommt (teilweise 10%+ Unterschied)...
Dazu kommt, das die Arbeit auf dem Desktop teils merklich zäh wird, das Videobeschleunigung selbst ruckelt usw. Aber das ist nicht mein eigentliches Problem ;)

Mein Problem ist viel eher, das ich nen HDMI TV als Hauptschirm nutze und nen DVI Monitor als erweiterten Desktop. NV ist aber so clever und priorisiert den Spaß scheinbar. Das heist, beim Boot ist der Anschluss, auf dem der Monitor noch sichbar ist, fix vorgeschrieben (sprich dort wo der TV dran klemmt, kommt Bild beim Boot, so wie es soll)
Läd aber der Treiber, ist zwar die primäre Anzeige der TV (sprich Taskleiste auf TV) und die sekundäre Anzeige der DVI TFT, die Fokusanzeige liegt aber immer auf dem DVI Schirm. Was soviel bedeutet, das alle Fenster auf dem zweiten Schirm aufgehen. Ein Umstellen ist nur über einen Umweg möglich, nämlich extended Desktop kurz deaktivieren, sodass primärer Schirm und Fokusschirm auf dem TV liegen, dann wieder erweitern und es läuft bis zum nächsten Boot :fresse: Grundsätzlich könnte man das zwar sicher auch via Hotkey lösen oder wenigstens Scripten, nur zerhauts mir jedesmal meine Desktopsymbolanordnung...

Da mir der Aufwand zu groß ist, betreibe ich den DVI Schirm an der zweiten Karte... Und kann sogar auf den MDPS verzichten (zumindest für die primäre Karte)
Die zweite Karte bleibt übrigens immer im Multimonitoring 2D Profil im Desktop Profil, warum auch immer.
Mit AMD geht das übrigens und ich sehe es nicht ein, mir ne dedizierte Software zu kaufen (ala UltraMon, sofern das damit einstellbar wäre), weil NV meint, Settings zu definieren, die ich nicht will :fresse:

Hmm, also bei meiner GTX 285 habe ich dieses Problem nicht.
Alle Fenster werden bei mir auf dem richtigen Bildschirm geöffnet.
Boot, Windows Ladebildschirm, Windows Login und alles andere auch auf meinem Hauptmonitor.

Allerdings, und daran wirds bei mir wohl liegen, hat meine Karte selbst keinen HDMI Anschluss. Ich verwende ein DVI -> HDMI Kabel.
Monitor wird aber mit Marke und Bezeichnung korrekt erkannt.


PS: danke für die Info mit dem MDS, habe es eingerichtet und nun mit 2 Monitoren nurnoch einen Leerlaufverbrauch von ~130W.
Nurnoch, weil ein Phenom X6 kein Stromsparwunder ist und WaKü mit 9 Lüftern auch noch dran hängt.


Nachtrag:
Vllt liegts aber auch daran, das ich nicht den nativen mini HDMI Anschluss nutze? Sondern ein DVI auf HDMI Adapterkabel. Der mini HDMI ist leider nicht benutzbar bei mir da das Case mit ner Plasteabdeckung den zur hälfte verdeckt :fresse:

Gerade erst gelesen, ich nutze, wie oben geschrieben, ja auch ein DVI -> HDMI Kabel.
 
Zuletzt bearbeitet:
Wenn die noch nichtmal blicken das es keinen GK100 mehr gibt wieviel Wahrheitsgehalt liegt wohl dann in dieser Folie
 
Hmm, also bei meiner GTX 285 habe ich dieses Problem nicht.
Alle Fenster werden bei mir auf dem richtigen Bildschirm geöffnet.
Boot, Windows Ladebildschirm, Windows Login und alles andere auch auf meinem Hauptmonitor.

Allerdings, und daran wirds bei mir wohl liegen, hat meine Karte selbst keinen HDMI Anschluss. Ich verwende ein DVI -> HDMI Kabel.
Monitor wird aber mit Marke und Bezeichnung korrekt erkannt.

Wie gesagt, ich weis nicht genau ob es eben an dem mini HDMI Anschluss liegt. Vllt erledigt sich das Problem mit anderer Portbelegung ja auch von selbst :fresse:
Oder aber es ist ein GF100 spezifisches Problem, ich hab halt ne 465er auf 470 geflasht und ne 470er. Wobei mittlerweile die 470er die Hauptkarte ist.

Vllt gibts ja bei kommenden Kepler Karten nen DP Anschluss? Oder wenigstens ist der mini HDMI nicht so weit am Rand, damit man den auch nutzen kann :fresse:

PS: das Problem selbst wie gesagt behabt sich irgendwie von selbst, wenn man den zweiten Monitor an die zweite Karte klemmt. Vllt ists auch nur in Verbindung mit SLI? Könnt ich jetzt gar nciht aus dem Hut sagen, hab ich nicht ohne SLI probiert, und tut aktuell auch nicht not :fresse:
 
Wenn ich nicht Angst hätte das ATI immer noch bei den Treibern scheisse ist und auch sonst immer wieder bei neuen Spielen Probleme hätten würde ich mich fast wagen eine zu Probieren allerdings sagt mir mein Verstand "Pöser Junge lass das sein " ;).

Und NEIN bin kein Fanboy und kein ATI hasser aber ich kenne so viele Leute wo nur Probleme haben (hatte vor vielen vielen Jahren sogar selber eine und ist nach 6 Monaten abgeraucht) vor allem ist die 7970 extrem laut da ist die 580er leise dagegen mit Stockkühlern versteht sich, selbst gehört.
 
Zuletzt bearbeitet:
Das kann aber auch ein Designproblem sein. Außerdem weiß ich nicht ob die Chips im gleichen Prozess wie die GPUs laufen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh