Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Hi,
ich habe meine Grafikkarte (HD 3870 Ultimate) übertaktet (im Catalast Control Center), ich takte die Speichertakrate z.Bsp. auf 1176, aber unten in "aktuelle Werte" steht immer noch der normale Wert. Wieso ist das so? Kann mir einer helfen?
MfG
Boby
Boby_fan schrieb:Hi,
ich glaub ich hab ein Problem, bei Spielen wie Battlefield Heroes oder Arma 2 wird meine HD 3870 Ultimate sehr heiß. Laut Everest jetzt 76 Grad!! Ist das nicht zu viel?
MfG
Boby
So, eine weitere Universitätswoche ist vorbei und der liebe Lord integriert jetzt nicht nur fröhlich in drei komplexen Dimensionen vor sich hin, sondern hat auch (endlich) konkretes zum PCIe-Takt-Problem herausgefunden
Mal ganz kurz ne Nubfrage weiß nicht ob ich hier im richtigen Thread bin.
Wenn meine GPU zu heiß wird burnt die dann irgendwann durch oder schaltet der PC sich aus wie es bei CPU Überhitzung ist?
Und auch für dich noch einmal: Das ist nicht der passende Thread für solche Anfragen. Wir diskutieren hier interessante Fragen zur Grafikkartentechnologie, keine Userprobleme. Konsultiere bitte die Suchfunktion und poste in einem Sammelthread oder mach einen eigenen auf.
Cache hast du an einigen Stellen doch schon in den GPUs, schau dich dazu mal in den Technik-Reviews auf bekannten Seiten um, da wird derartiges idR recht gut erklärt.
fdsonne schrieb:Könnte man die 64Bit Einzellcontroller der aktuellen GPUs auch mit nur je einem VRam Chip bestücken?
Cache in GPUs? Wo denn?
Ja, das ist korrekt. Ist halt nur nicht dasselbe wie der klassische Cache im Stil einer Harvard-Architektur (L1, Instr. und Data getrennt), sowohl in Aufbau als auch Funktion. Ist auch nicht ganz so nötig wie bei CPUs, weil der Zugriff auf den VRAM schneller ist als der auf den RAM. Und man ist natürlich anders als bei CPUs daran interessiert, das ganze möglichst kompakt ( => klein) zu halten, weil Cache Unmengen an Transistoren frisst und in GPUs, wie schon gesagt, nicht so nötig ist (insbesondere bei klassischer Grafikberechnung nicht, soweit ich weiß, bei GPGPU schon eher - drum hatten das die älteren GPUs auch alle nicht).
edit: Mich würde an dieser Stelle eigentlich mal interessieren, wie Takt und Assoziativität bei den GPU-Caches geregelt sind.
Siehe letzter Beitrag. Aber wie Cache Out-Of-Order-Requests durchführen soll, musst du mir nochmal erklären. Und das, was du mit "wird dazu benutzt, um Bandbreite zu sparen" meinst, ist auch das, warum ich erst so scheinheilig gefragt habe "Cache? Wo?" - weil der Cache hier viel eher die Funktionen von Registern erfüllt als von Cache. Der Assemblercoder weiß, was ich meine.
Gleichsam die Problematik mit dem aufkommenden Dualcore-Vorderungen im GPU Bereich, nur weil das CPUs nun bieten...
...
Ich denke mal früher oder später wird kein weg an multicore plattformen im grafiksektor vorbeiführen,da es so langsam aber sicher eng wird mit Strukturverkleinerungen aus physikalischer Sicht u Taktfrequenzrekorden
Andere Technologien sind ja leider noch in weiter Ferne u imo noch nicht greifbar
die dinge die du erwähnst kritisieren aber genau so deinen vorschlag.
mehr kerne = mehr transistoren, mehr strom verbrauch, ist quasi nichts anderes wie eine vergrößerte recheneinheit im ganzen.
iergentwie auch keine wirkliche effizienz steigerung.
mit architektur verbesserung lässt sich in zukunft noch am meisten leistung raus holen.
11nm...vorher sollten 16nm kommen.
Das Problem scheint dann aber noch immer nicht die Atombreite sondern dieFertigung zu sein. Physikalische ginge also evtl noch weniger.
Es ist einfach so das mit Strukturverkleinerung physikalisch bedingt nicht mehr lange fortgefahren werden kann,die kleinste strukturbreite waren glaube ich 20 oder 15 nm die laut Aussagen noch realisierbar sind(korrigiert mich wenn ich mich irre)ohne das die elektronen flüchtig werden u die vorgegebenen Leiterbahnen verlassen
Und Quantentechnologie existiert mehr oder weniger noch in den Köpfen als in der Realität.
Also welche anderen Möglichkeiten bestehen noch (in naher Zukunft) ausser auf Multicoreplattformen zu wechseln,um die Performance noch weiter nach oben zu treiben
Wenn ich mir anschaue was TSMC jetzt schon für massive probleme mit der 40nm Strukturbreite hat sehe ich 11nm für eher unwahrscheinlich als machbar
davon hab ich nichts bestritten.
nur kann man auch nicht einfach mehr kerne implementieren da dadurch auch die strom und hitze entwicklung immer mehr zunimmt.
stell dir vor du hast nen dual core in der größe einer heutigen karte
oder einen 20 core mit der karten größe deines towers
da kannst du dir sicher vorstellen welche strom mengen da benötigt werden.
einfach mehr chips und kerne dran pappen ist eben auch kein weg um dem nm stopp auszuweichen.
die entwicklung wird sicher schlagartig verlangsamt und alle paar jahre wird es dann architektur verbesserungen geben, und alle 5-10 jahre eine komplett neu entwickelte architektur.
Bei sowas musst du Intel als Standard nehmen. Sie haben meines wissens die besten Fabs zur Fertigung und sind eigentlich auch die Maßangabe was sowas betrifft.
---------- Beitrag hinzugefügt um 16:57 ---------- Vorheriger Beitrag war um 16:54 ----------
Das ist schwer zu sagen. Ich denke nicht das das ganze verlangsamt wird oder zumindest nicht schon wesentlich langsamer als jetzt.
Ich denke durch den Umschwung auf andere Materialien die wesentlich Temperaturunempfindlicher sind oder verbesserte Transistoren ermöglichen wird in Zukunft noch einiges bei den Taktraten passieren.