[Sammelthread] Grafikkarten - Technikdiskussion

Hallo Leute,

da ich mich mit Grafikkarten nicht so sehr auskenne, nur diverse Test gelesen, stellen sich mir nun einige Fragen.

Vorweg...
Ursprünglich war nur ein Monitor angedacht, es sollte die MSI 5770Hawk sein, doch zuletzt dann die MSI 5870 Lightning werden. Angedacht ist der 30" Dell U3011.

Nun Hab ich mir aber überlegt das ich wohl doch auch noch eine andere Anwendung auf der Kiste laufen lassen möchte, bei der ich wohl gerne mit 4 Monitoren a 1920x1200 arbeiten würde, oder aber bestenfalls mit 4 x 30"!
Platzmäßig würde natürlich 30" besser sein, dafür kann man aber bei 1920x1200 wohl deutlich schnellere (und auch deutlich billigere) Monitore bekommen.
(Derzeit hab ich schon einen Dell 2709 der grundsätzlich toll ist, nur im Vergleich zu meiner 24" Röhre ist leider eine deutliche Verzögereung zu spüren!!!, was mich a) stört und B) für meinen Anwendungsfall auch kritisch ist.)

Nun zu den Fragen:
1.) Wenn ich nun 30" plus 4x 1920x1200 betreiben würde wollen... wird es wohl schwierig vermute ich... Wie könnte man das lösen?

2.) Was kann man mit einer MSI 5870 Lightning betreiben? Also Anzahl und Auflösung Monitore?

3.) Als Alternative ist mir die MSI R5870 Eyefinity 6 aufgefallen.
Verstehe ich das richtig das diese Karte 6 x volle 30" Auflösung zugleich ausgeben kann? Könnte ich aber auch zwei oder gar drei verschiedene Auflösung zugleich damit ausgeben? Z.B. 1x 2560x1600, 4x 1920x1200, 1x 1600x1000. ?

4.) Alternativ hab ich noch die MSI Radeon HD 6970 gefunden. bei der kann man wohl 4 Monitore zugleich anschließen, wobei die dann max 1920x1200 haben dürfen. Kann dann immer noch einer Blu-ray abspielen?

5.) Aber Lösungen mit zwei Grafikkarten wären wohl nicht nur sehr Stromhungrig sondern natürlich auch recht teuer? Von anderen Problemen mal ganz abgesehen....

6.) Könnte man denn Zeitweise, sei es bei zwei Karten oder auch einer der anderen Lösungen einige Monitore abschalten? Also die Ansteuerung, oder gleich die ganze zweite Grafikkarte, damit nicht unnütz Leistung verbraten wird, während vielleicht gerade die nächste Blu-ray läuft?

Vielen Dank an die Experten

Mecki
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Mecki:

1. Wäre es gut zu wissen, was deiene Andwendungen sind.

Zu punkt 1: schwierig nicht, brauchst nur die Passende Karte/Karten.
2. Hatte selber eine und zwar maximal 3 Monitore, wobei einer über Displayport angeschlossen sein muss, da die Karte nur 2Taktgeber hat, außerdem klappert bei der ab 50%Lüfter bei der Karte bauartbedingt der Lüfter, echt nervig.
3.Ja die Karte kann 6 Monitore gleichzeitig ansprechen, und dass in verschiedenen auflösungen, jedoch sind Monitore mit Displayport Pflicht.
4.Sollte bei den Displayeinstellungen problemlos klappen, sicher bin ich aber nicht.
5.Also 2x ne HD 5450 Kostet keine 100€ und verbrät unter Volllast keine 60W.
Von dem Vorteil der leisen Passivkühlung ganz zu schweigen. Was wären die anderen Probleme?
6. Bei 20W unter Last, würde ich mir keinen Kopf machen, sind bei 24/7 villeicht 15€ mehr.
Wenn aber eine der beiden nix zu tun hat, geht sie in Idle und verbrät so wenig, dass du von hand Kurbeln könntest.
 
Zwar halte ich beide Posts für OT, aber ich kanns nicht lassen:

6. Bei 20W unter Last, würde ich mir keinen Kopf machen, sind bei 24/7 villeicht 15€ mehr.
Wenn aber eine der beiden nix zu tun hat, geht sie in Idle und verbrät so wenig, dass du von hand Kurbeln könntest.

20 Watt * 24h/Tag * 365 Tage/Jahr = 175 kWh/a
Bei nem Strompreis von 22 Cent die Kilowattstunde macht das 38,54€ im Jahr. Soviel zum Thema Elektrokleinvieh.

Nebenbei kann ein Mensch gut und gerne 70 Watt Dauerleistung erbringen. Wieviel davon mit dem Arm ein einer Kurbel, und welche Bizepsdifferenz nach einigen Wochen damit verbunden ist...dazu bitte eigene Experimente anstellen, danke ;)
 
@Mecki:

1. Wäre es gut zu wissen, was deiene Andwendungen sind.

Zu punkt 1: schwierig nicht, brauchst nur die Passende Karte/Karten.
2. Hatte selber eine und zwar maximal 3 Monitore, wobei einer über Displayport angeschlossen sein muss, da die Karte nur 2Taktgeber hat, außerdem klappert bei der ab 50%Lüfter bei der Karte bauartbedingt der Lüfter, echt nervig.

Wenn aber eine der beiden nix zu tun hat, geht sie in Idle und verbrät so wenig, dass du von hand Kurbeln könntest.

Hi Chezzard,

vielen Dank für Deine Antwort.
Der Hauptmonitor, wohl der 30" Dell, wird dann für alles außer Ballerspiele eingesetzt werden. Internet, Foto (erstmal noch im "normalen" Rahmen), Video Blu-Ray - hoffe das gibt keine Enttäuschung.., eventuell auch Fernsehen.
Die weiteren Monitore sollen dann für Charts, Listen und so sein. Brauche die also nicht beständig sondern nur Zeitweise.
Hier würde ich aber eben gerne so viel Arbeitsfläche wie möglich haben.
Allerdings 6x 30" wäre nicht gerade ein Pappenstiel... ;-))
Und nicht nur darum ist die überlegung Teilweise auch mit kleineren Monitoren...

Am Ende könnten aber trotzdem mal 6x30" dran hängen. Ich muß da noch ein paar Dinge zum tatsächlichen Bedarf klären.
Die Frage ist jetzt nur, leidet dann unter Umständen auch die Bildqualität?
Oder ist das heute im Digital Zeitalter kein Thema mehr?


Ansonten hab ich mich in den letzten Stunde durchs Internet gelesen...
An 5770 ?, 5870, kann man immer drei Monitore ran hängen, aber mit welcher Auflösung max? bei der Lightning steht 3x 2560x1600 aber bei der 5770 steht nur 2560x1600. Kann die das dann auch 3x?

Bei der 7970 gingen laut Angabe halt nur 4x 1920x1200 also nix mit 30" das wäre käse...
und weiter Auflistung was möglich wäre kann ich nirgends finden.


Zu Eyefinity 6 hab ich dann noch rausgefunden das es die auch von Gigabyte gibt, und das für praktisch halbes Geld...
Jetzt stellt sich mir nur die Frage, wo sind Unterschiede? zur MSI oder anderen?


Übrignes Lightning wurde ja abgedatet und hat einen neuen Kühlkörper und wohl auch größere Lüfter bekommen, vielleciht ist damit das klappern auch weg? Hab davon bisher nämlich noch nirgends gelesen gehabt.


Und zum Verbrauch, du meinst, wenn man nur einen von 5 oder 6 Monitoren anmacht, dann merkt das die Grafikkarte und läuft damit an den Ports mit ausgeschlateten Monitoren im idle Betrieb?
Es stimmt schon, kommt bei der ganzen Hardware die da in Einsatz ist nicht auf 20Euro mehr oder weniger an, nur wenn man deutlich die Stromkosten mit wenig Aufwand senken kann, würde ich das schon gerne machen.

Übrigens die normalen Verbrauchsangaben sind in aller Regel immer für nur einem Monitor gemacht. Wenn man aber mehr dran hängen hat, verbrauchts auch schon im idle Betreib ne ganze Ecke mehr. 5870 normal 27Watt mit 6Moni 60Watt, oder wars sogar nich mehr? Bei Last sollens 188 sein aber mit 6 Monis sinds dann 561 gewesen... Ok letzteres ist mehr extrem denke ich... aber insgesammt zeigt es eben doch einen deutlichen Unterschied.

Displayport... bei den Dell Monitoren kein Problem... (Auch 30")
Leider gibts nur den Dell 2709 ja nicht mehr, und nu such mal alternativen dafür!
Also nen 16:10 Monitor mit idealer Weise 27" (26") und das nun auch noch mit Dem Anschluß!
Samsung nix, Nec nix, die billigen HansG natürlich auch nicht... nur die kleinen 24" Dinger... ja da überall... :-/
Oder eben den 30" Dell.... ;-)
Aber kann man nicht auch einige Monitore über die entsprechenden Adapter betreiben?

Meine Sorge ist wirklich, wenn man zu viel große Monis, also 36" dran hängt und damit die Karte ausreizt, das dann die Bildqualität irgendwann zu sehr drunter leidet, und alles unschärfer wird... so einen Mist will ich nicht haben!
Vielleicht auch noch irgendwie langsam und so... wäre alles nicht so toll...
Und zwei Eyefinity Karten ist dann auch wieder heftig...

Schöne Grüße

Mecki
 
Hi Chezzard,

vielen Dank für Deine Antwort.
Der Hauptmonitor, wohl der 30" Dell, wird dann für alles außer Ballerspiele eingesetzt werden. Internet, Foto (erstmal noch im "normalen" Rahmen), Video Blu-Ray - hoffe das gibt keine Enttäuschung.., eventuell auch Fernsehen.
Die weiteren Monitore sollen dann für Charts, Listen und so sein. Brauche die also nicht beständig sondern nur Zeitweise.
Hier würde ich aber eben gerne so viel Arbeitsfläche wie möglich haben.
Allerdings 6x 30" wäre nicht gerade ein Pappenstiel... ;-))
Und nicht nur darum ist die überlegung Teilweise auch mit kleineren Monitoren...
Mustt du entcheidne wie es sich mit € und Anschluss ausgeht.

Am Ende könnten aber trotzdem mal 6x30" dran hängen. Ich muß da noch ein paar Dinge zum tatsächlichen Bedarf klären.
Die Frage ist jetzt nur, leidet dann unter Umständen auch die Bildqualität?
Oder ist das heute im Digital Zeitalter kein Thema mehr?
Keine Sorge, die Quali leidet nicht, dafür wurde ja genau das Entwickelt


Ansonten hab ich mich in den letzten Stunde durchs Internet gelesen...
An 5770 ?, 5870, kann man immer drei Monitore ran hängen, aber mit welcher Auflösung max? bei der Lightning steht 3x 2560x1600 aber bei der 5770 steht nur 2560x1600. Kann die das dann auch 3x?
Ja dann kann sie es 3 mal, außerdem könntest du eine HD 5450 nehmen, die verbraucht recht wenig und da kannst du Monitore ohne Displayportzwang anschließen.

Bei der 7970 gingen laut Angabe halt nur 4x 1920x1200 also nix mit 30" das wäre käse...
und weiter Auflistung was möglich wäre kann ich nirgends finden.
1. Gibt eskeine HD 7970, meint du die 6970?
2. Wieso ginge der 30 Zöller nicht? Wenn seine native auflösung 2560x1200 wäre könntest du ihn trotzdem mit 1920 pixel ansprechen. Hättest nur etwas
weniger Platz.

Zu Eyefinity 6 hab ich dann noch rausgefunden das es die auch von Gigabyte gibt, und das für praktisch halbes Geld...
Jetzt stellt sich mir nur die Frage, wo sind Unterschiede? zur MSI oder anderen?
Wenn sie als AMD EYEFINITY Beworbenwird, muss sie gewisse Standard´s erfüllen, ein LInk wäre hier recht nett.


Übrignes Lightning wurde ja abgedatet und hat einen neuen Kühlkörper und wohl auch größere Lüfter bekommen, vielleciht ist damit das klappern auch weg? Hab davon bisher nämlich noch nirgends gelesen gehabt.
Meinst die 6000er Lightning?


Und zum Verbrauch, du meinst, wenn man nur einen von 5 oder 6 Monitoren anmacht, dann merkt das die Grafikkarte und läuft damit an den Ports mit ausgeschlateten Monitoren im idle Betrieb?
Es stimmt schon, kommt bei der ganzen Hardware die da in Einsatz ist nicht auf 20Euro mehr oder weniger an, nur wenn man deutlich die Stromkosten mit wenig Aufwand senken kann, würde ich das schon gerne machen.
Ja genau, die erkennt wieviel Monits dranhängen und past sich entsprechend an.

Übrigens die normalen Verbrauchsangaben sind in aller Regel immer für nur einem Monitor gemacht. Wenn man aber mehr dran hängen hat, verbrauchts auch schon im idle Betreib ne ganze Ecke mehr. 5870 normal 27Watt mit 6Moni 60Watt, oder wars sogar nich mehr? Bei Last sollens 188 sein aber mit 6 Monis sinds dann 561 gewesen... Ok letzteres ist mehr extrem denke ich... aber insgesammt zeigt es eben doch einen deutlichen Unterschied.
Ja wenn an einer Karte 6 Monitore hängen,verbraucht sie etwas mehr, aber miteiner HD 5450 wärst du da sehr gut gestellt. Vorallem gegenüber einer HD5/6 8/9 xx
Und dass eine Karte 561W bei 6 Monis verbrät....:lol:
die 188 Watt beziehen sich auf vollast unter 3d.

Displayport... bei den Dell Monitoren kein Problem... (Auch 30")
Leider gibts nur den Dell 2709 ja nicht mehr, und nu such mal alternativen dafür!
Also nen 16:10 Monitor mit idealer Weise 27" (26") und das nun auch noch mit Dem Anschluß!
Samsung nix, Nec nix, die billigen HansG natürlich auch nicht... nur die kleinen 24" Dinger... ja da überall... :-/
Oder eben den 30" Dell.... ;-)
Aber kann man nicht auch einige Monitore über die entsprechenden Adapter betreiben?
Ja gibt einen AKtiven Adapter von Sapphire für 20 Kröten.

Meine Sorge ist wirklich, wenn man zu viel große Monis, also 36" dran hängt und damit die Karte ausreizt, das dann die Bildqualität irgendwann zu sehr drunter leidet, und alles unschärfer wird... so einen Mist will ich nicht haben!
Vielleicht auch noch irgendwie langsam und so... wäre alles nicht so toll...
Und zwei Eyefinity Karten ist dann auch wieder heftig...
Siehe Punkt 1.
 
Zuletzt bearbeitet:
Hi,

Dank Dir nochmal für die Antwort.

Das mit dem HD 5450 verstehe ich noch nicht so ganz…
Du meinst zwei von denen rein und die könnten auch bis zu 3x 2560x1600?
Hast Du von der eine bestimmte im Auge?

Jup verschribselt… natürlich 6970 war gemeint!
Ja vermutlich geht auch ein 30“ und der Rest dann irgenwie weniger… oder dann nur zwei Monitore? Vielleicht bis 2x 2560x1600 ?

Ich glaube mittlerweile mit der Eyefinity bin ich am besten dran. Vorrausgesetzt das die bei mehreren 30“ern dann nicht irgendwie völlig lahm wird, und in der Bildquali einbricht.

Eyefinitiy
Schau mal hier
Eyefinity 6 Edition bei idealo.de
die verschiedenen Modelle.
Von MSI kostet ab 428,90
Das Teil von Gigabyte ab 219,90
Ist doch ein Unterschied, oder? Auch im Vergleich zu den anderen Angeboten.
Stellt sich nur die Frage, sind auf einer MSi vielleicht viel bessere Bauteile verbaut? Viel leiserer Lüfter? Fehlen der Gigabyte vielleicht irgendwelche Dinge? Treiber, Funktionsumfang bei MSI vielleicht viel besser? Oder eben bei der „billigen“ Gigabyte schlechter?

Lightning:
MSI Technology GmbH - Insist on the Best
Bilder anschauen… neue Version mehr Headpipes veränderter Aufbau des Kühlkörpers.
Und ich meine irgendwo gelesen zu haben das die Lüfter auch etwas größer geworden sind.


5870 Eyefinitiy 6 im Verbrauch
Ok war im Verbrauch noch etwas anders das ganze…
6 Monitore im Leerlauf 160Watt!
Unter Last bis zu 359 Watt….
Und die 581 Watt waren bei zwei Karten… sorry!
Aber siehe selbst:
Leistungsaufnahme : AMD Radeon HD 5870 Eyefinity 6 Edition: ATIs Vielauge

Und nu kommst Du! :-)

Schöne Grüße

Mecki
 
Zuletzt bearbeitet:
Die letzten paar Beiträge mögen ja durchaus sinnvoll und informativ sein, nur gehört das nicht wirklich hier in den Technik-Diskussionsthread hinein

:wink:
 
Tja was ist das dann wenn keine Technik, und in welchen besseren Thread hätte ich es dann rein tun sollen???

Sowas wie einen SSD Kaufberatungs und Diskusions Thread hab ich hier nicht gefunden... und dachte das es schon etwas Technisches ist... sorry!

Und nu?

beste Grüße

Mecki
 
Zuletzt bearbeitet:
Das ist doch überhaupt nicht schlimm ;)

Solange es nicht in eine Kaufberatung ausartet, passt es doch halbwegs.


:wink:
 
Hallo,

hab ne kurze Frage zu meiner Heizung (4890) im idle hab ich ca. 47-52°C, bei NFS 75-85°C und bei 3DMark 80-90°C. Ist das noch okey?
 
ja... GPUs werden wohl im Bereich 100-110°C dicht machen und anfangen Taktaussetzer zu produzieren um nicht zu überhitzen.
 
gut, ich bekomm das ding mit "leisen" mitteln kein Grad kühler, aber wenns ok is ^^
 
ich hab monate lang eine geforce 7 bei 115° ohne probs betrieben.

btw wann kommt eig 32nm bei den grafik karten ?
 
normal setzen die Karten dann einzelne Takte aus. Um sich selbst zu schützen. Das nennt man Throttlen ;) Ob es Gesund für die Karte ist, steht auf nem anderen Blatt. Wobei normal darf ja nix passieren, sofern die Schutzschaltung eben greift.

32nm wirds wohl außer für ein paar IGPs nicht geben. Also die Intel SB Integrierte Grafik kommt ja in 32nm.
Weiter im AMD/NV Bereich wirds wohl mit 28nm gehnen. Und das wohl nicht vor Ende 2011/Anfang 2012. Vllt gar später, sofern die Probleme sich wieder häufen.
 
Also wenn ihr wüßtet, welche Schwierigkeiten bei immer kleineren Strukturen auftreht.... - also diese herstellen zu können, ist dabei gemeint - ... dann würde wohl so mancher nicht mehr so ohne weiteres nach immer kleiner rufen... auch wenn die Ing. das immer wieder gelöst bekommen... Das grenzt aber manchmal schon an Wunder...
Ging mir nur gerade so durch den Kopf, komme nämlich son bissel aus dem Halbleiter Bereich... ;-)


Aber ne andere Frage, wie, wo, oder womit lest ihr die Temperatur der GPU aus??? CPU, Board.. alles kein Problem, aber die GPU?
 
Ati Tray Tools ^^ da zeigts alle Temps der Graka einzeln an
 
Dank Dir, in den nächsten Desktop kommen auch ATIs, aber hier im Notebook ist ne Nvida Quadro FX, gibts da auch so eine Möglichkeit?

Meine bisher nichts dergleichen gesehen zu haben.

Gibts andere Möglichkeiten?

---------- Beitrag hinzugefügt um 21:51 ---------- Vorheriger Beitrag war um 21:42 ----------

Ah nochmal gesucht...
in dem "NVIDIA Control Panel"
Unter der letzten Kategorie "Workstation"...
Da muß man "Expand all" anklicken, und dann kommen noch ein paar Info mehr, unter anderem zeigt er dann auch "Temperatur: 43°C" an...
Nicht viel aber immerhin!
 
Moinsen,
ich hoffe, meine Frage ist hier an der richtigen Stelle:

Ich habe schon mitbekommen, dass es bei der NV GTX 580 (und auch deren Untermodellen, wie 570/560 etc) starke Streuungen geben soll. Ein guter Chip soll nicht nur ein besseres OC Potential haben sondern auch einen geringeren IDLE-Stromverbrauch. Für mich klingt es zusammenfassend erst einmal so, dass ein "besserer" Chip effizienter ist.

Nun habe ich mich gefragt, ob es nicht eine Möglichkeit gibt, die Katze, die da im Sack liegt etwas genauer definieren zu können. In den meisten fällen geht man zum nächsten Händer, kauft sich dort seine Grafikkarte und könnte die dann durchmessen um zu gucken, wie "gut" diese ist - also ob man einen guten oder schlechten Chip erwischt hat.

Frage #1:
Gibt es irgendwo eine Referenztabelle, wo man mit recht schnellen Mitteln feststellen kann, ob man eine "gute" oder "schlechte" abbekommen hat? Ich habe mal so etwas wie Ausgangsspannungen gelesen. Je niedriger die bei einer Grafikkarte sind, desto besser. Sind die bei jeder Grafikkarte gleich "eingestellt" oder kann man dort schon beim ersten draufgucken was feststellen? Falls nicht, gibt es da ne andere möglichkeit um die qualität festzustellen?

Frage #2:
Die Qualität könnte evtl. auch mit dem Produktionsfortschritt zusammenhängen. Heißt: Je länger dieser Chip produziert wird, desto mehr wird der Produktionsprozess optimiert, was zu besseren Yields und evtl. auch zu einer besseren Qualität der Chips an sich führen könnte. Kann man also davon ausgehen, dass "später" produzierte Grafikchips "besser" sind? Natürlich hängt das auch davon ab, wo genau der Chip auf dem Die war (in der mitte soll es besser sein als außen). Und dann ist da vielleicht noch eine Portion Zufall mit enthalten.
Bekommt man also, falls die Vermutung stimmt irgendwo heraus, aus welchem Wurf der Chip entstammt? Falls ja, würde ich immer nach dem letzten suchen.

Frage #3:
Gibt es bestimmte Hersteller/Modelle, wo man sicher sein kann, dass diese "gut" sind?

LG,
dat Schaf
 
Kurz um, sowas gibts alles nicht...
OC ist immer Glück, auch sagt die Ausgangsspannung nix über das OC Potential aus. Auch wenn man das vermuten würde.
IdR schaffen die Durchschnittskarten in etwa wohl alle gleiches Taktniveau mit gleicher anliegender Spannung.

Auch müssen später produzierte Karten nicht besser sein. Kann aber, bei CPUs, wo man die Herstellungswoche sieht, sind manche Wochen gut und manche eher nich. Bei GPUs ist das ahnlich.
 
Moinsen,
ich hoffe, meine Frage ist hier an der richtigen Stelle:

Ich habe schon mitbekommen, dass es bei der NV GTX 580 (und auch deren Untermodellen, wie 570/560 etc) starke Streuungen geben soll. Ein guter Chip soll nicht nur ein besseres OC Potential haben sondern auch einen geringeren IDLE-Stromverbrauch. Für mich klingt es zusammenfassend erst einmal so, dass ein "besserer" Chip effizienter ist.

Nun habe ich mich gefragt, ob es nicht eine Möglichkeit gibt, die Katze, die da im Sack liegt etwas genauer definieren zu können. In den meisten fällen geht man zum nächsten Händer, kauft sich dort seine Grafikkarte und könnte die dann durchmessen um zu gucken, wie "gut" diese ist - also ob man einen guten oder schlechten Chip erwischt hat.

Frage #1:
Gibt es irgendwo eine Referenztabelle, wo man mit recht schnellen Mitteln feststellen kann, ob man eine "gute" oder "schlechte" abbekommen hat? Ich habe mal so etwas wie Ausgangsspannungen gelesen. Je niedriger die bei einer Grafikkarte sind, desto besser. Sind die bei jeder Grafikkarte gleich "eingestellt" oder kann man dort schon beim ersten draufgucken was feststellen? Falls nicht, gibt es da ne andere möglichkeit um die qualität festzustellen?

Frage #2:
Die Qualität könnte evtl. auch mit dem Produktionsfortschritt zusammenhängen. Heißt: Je länger dieser Chip produziert wird, desto mehr wird der Produktionsprozess optimiert, was zu besseren Yields und evtl. auch zu einer besseren Qualität der Chips an sich führen könnte. Kann man also davon ausgehen, dass "später" produzierte Grafikchips "besser" sind? Natürlich hängt das auch davon ab, wo genau der Chip auf dem Die war (in der mitte soll es besser sein als außen). Und dann ist da vielleicht noch eine Portion Zufall mit enthalten.
Bekommt man also, falls die Vermutung stimmt irgendwo heraus, aus welchem Wurf der Chip entstammt? Falls ja, würde ich immer nach dem letzten suchen.

Frage #3:
Gibt es bestimmte Hersteller/Modelle, wo man sicher sein kann, dass diese "gut" sind?

LG,
dat Schaf

Hi,

also der DIE ist der Chip.
Die ganze Scheibe nennt sich Wafer, und besteht eben aus den vielen DIEs.
Der Wafer wird am Ende zersägt und dann hat man die einzellnen Chips oder eben DIEs zur Verwendung oder eben Verschrottung parat.

Das die Mitte der beste Punkt ist kann man so generell nicht sagen, auch das der Rand Grundsätzlich immer schlechter ist kann man nicht sagen.
Rein gefühlsmäßig würde ich sagen irgendwo zwischen Mitte und Rand dürfte wohl meistens der Beste Punkt sein. Aber das kann man eben nicht generell sagen.

Es gibt in der Produktion von Halbleitern immer alles. Also Wäfer die haben in der Mitte beständig Ausfall oder eben mehr am Rand. Ebenso kannst Du einen Mittleren Ring auf jedem Wäfer haben der schlecht ist. Oder auch das Wäfer immer zu einer Ecke hin schlecht sind, und zur gegenüberliegenden Seite hin besser.

Und letztlich wenn Du so ein Map Dir anschaust, naja du könntest aus der "Mitte" nen Die haben. Deiner ist beim Test noch gut weggekommen, die drum herum waren zufällig gerade alle schlecht... und nu? Sagt alles nichts aus. Der einzellne Chip ist das Ding, und immer Individuell.

Natürlich könnte man rein Theoretisch sich Chips direkt vom Wafer aussuchen... wenn man den entsprechende Kontakte in Produktion und weiterem Verarbeitungs Prozess bis zur Grafikkarte hätte.... Alles machbar...:d Kein Quatsch! Wird ja letztlich bei der Entwicklung quasi so gemacht.
Aber das können im Grunde nur die Ing. und der Auftraggeber so Anfordern.

Denke da müßtest Du das so machen wie so manch einer das schon mit Netzteilen oder auch Grafikkarten hier schon gemacht hat. Sich einen Berg der Dinger bestellen, alle durchtesten, z.B. auf Fiepen... und die welche dann am Ruhigsten war, genommen. Oder in Deinem Fall am wenigsten warm wird.

Schöne Grüße

Mecki

Edit: Aber ob das nun die optimale Feine Art ist, wenn man alles schon mal ordendlich in Betrieb hatte und dann wieder zurück schickt... Irgendwer bekommt es dann ja praktisch schon als gebraucht... und jeder möchte aber in der Regel immer gerne nur neu haben...
Das steht auf einem anderen Blatt, genauso wie Dein berechtigter Wunsch nach gleichmäßigkeit eines Produkts bei dem Du Dich generell auf weitestgehend Optimum verlassen kannst.
 
Zuletzt bearbeitet:
hallo zusammen,

Ich spiele mit dem Gedanken mir eine geforce gtx 570 zu kaufen.
Was ich mich frage ist, brauche ich eigentlich zwingend ein neues system damit alles zusammen harmoniert? Ich habe das System was in der Sig abgebildet ist immer noch.

Was würde passieren wenn ich da so eine "moderne" Karte einbaue?
Ich mein: PCI-E x16 Plätze sind ja vorhanden.

Kann es da zu massiven Problemen / Leistungsverlust kommen?

Gruß
POTUS
 
Falscher Thread ;)
Hier gehts um Technik. Wünscht du eine Kaufberatung/Kartenberatung, so mach bitte einen separaten Thread auf... Oder wende ich an den jeweiligen Sammelthread.
 
Morgen,

vielleicht kann mir ja hier jemand helfen:

Habe eben Furmark starten wollten, und dann kommt die Fehlermeldung (nicht wortwörtlich) "Furmark requires a OpenGL 2.0 Card, for example...". Soweit so gut, aber sollte meine GTX 260 nicht schon OpenGL 2.0 unterstützten? Falls ja, wo kann das Problem dabei liegen?

Danke,
Sebastian
 
wisst ihr wie heiß so eine 9600m gt werden darf?

hab grade in css 88°c gehabt und das ja nun echt nicht das aller vordernste spiel..
könnte mir vorstellen das es im hochsommer in crysis 95-100 werden .. macht die das mit?
 
ja 100c° sind kein Ding

erst ab 107° Wird es kritisch

solltest aber bedenken das die Lebensdauer bei so hohen Temperaturen nicht unbedingt positiv begünstigt wird.

Kurze frage

es gibt nun schon länger 32nm cpu,s (sandy bridge)

ist es warscheinlich im sommer-herbst diesen jahres, 32nm Grafik karten von amd und NV zu sehen ?

wenn nein, frage ich mich, wie lange die noch warten wollen.
aber ich bin mir sicher, das der Leistungs zuwachs ab 2011 keine Quanten sprünge mehr bis 2013 machen wird. weil 32nm wohl nicht vor 2014 abgelöst wird, und Extreme architektur veränderungen auch nicht jährlich der fall sind.
 
Temperaturmäßig ist das oft von Generation zu Generation verschieden...
Die 2900XT Karten von AMD damals gingen ab 105°C ins Notprogramm... (throttelten ihre Leistung und Lüfter auf 100%)
Andere Karten gehen schon bei knapp unter 100°C ins Notprogramm usw.
Pauschal kann man das nicht sagen...

Zum Thema 32nm... Es wird wohl keine 32nm GPUs eben. Das wurde verworfen. Es wird wohl ende 2011/anfang 2012 28nm GPUs von AMD und NV geben. Welche dazu zumindest bei AMD auch eine nochmals neue Architektur mitbringen. Bzw. weiter aufsetzend auf die Änderungen von den 4D Einheiten aktueller AMDs.

Wies bei NV ausschaut weis so recht keiner. Der Kepler steht ja im Raum. Wann der kommt und was das wird, weis so recht niemand. Ich rechne aber wie gesagt vor Ende 2011/Anfang 2012 mit keinem Leistungszuwachs auf dem GPU Markt.
 
Zum Thema 32nm... Es wird wohl keine 32nm GPUs eben. Das wurde verworfen. Es wird wohl ende 2011/anfang 2012 28nm GPUs von AMD und NV geben. Welche dazu zumindest bei AMD auch eine nochmals neue Architektur mitbringen. Bzw. weiter aufsetzend auf die Änderungen von den 4D Einheiten aktueller AMDs.

vor gut 2-3 monaten kahm Cayman.

es wäre untypisch in 8-9 monaten nichts neues raus zu bringen.

glaubst du es werden in 6-7 monaten nochmal neue 40nm refresh chips mit leichten optimierungen angeboten ?
 
vor gut 2-3 monaten kahm Cayman.

es wäre untypisch in 8-9 monaten nichts neues raus zu bringen.

glaubst du es werden in 6-7 monaten nochmal neue 40nm refresh chips mit leichten optimierungen angeboten ?

Nein, zumindest nicht anhand aktueller Roadmaps ableitbar...
Bei NV könnte eventuel der Kepler noch in 40nm kommen, glaube ich aber ehrlich gesagt nicht...
Bei AMD scheint nix mehr in 40nm in Sicht...

Es steht und fällt sozusagen alles mit der Schnelligkeit von TSMC bzw. vllt bei AMD Karten auch von GloFo.
Auch wäre es wohl etwas untypisch im GPU Bereich vier Generationen mit dem gleichen Herstellungsverfahren zu bringen... Die 40nm gibts bei AMD ja schon in den 4000ern. (HD4770)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh