scully1234
Banned
Soweit ich weiß scheint die Intel's Yield Rate bei 32nm auch nicht so toll zu sein; also einfach ist es jedenfalls nicht.
Jepp aber sie sind halt schon bei 32nm angelangt wohingegen sich TSMC noch mit 40nm schwer tut
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Soweit ich weiß scheint die Intel's Yield Rate bei 32nm auch nicht so toll zu sein; also einfach ist es jedenfalls nicht.
Ob man bei einem feineren Fertigungsverfahren angelangt ist und noch optimiert oder schon die fertigen Chips ausgeliefert werden ist aber ein Unterschied
Ich denke mal früher oder später wird kein weg an multicore plattformen im grafiksektor vorbeiführen,da es so langsam aber sicher eng wird mit Strukturverkleinerungen aus physikalischer Sicht u Taktfrequenzrekorden
Andere Technologien sind ja leider noch in weiter Ferne u imo noch nicht greifbar
11nm...vorher sollten 16nm kommen.
Das Problem scheint dann aber noch immer nicht die Atombreite sondern dieFertigung zu sein. Physikalische ginge also evtl noch weniger.
Bei sowas musst du Intel als Standard nehmen. Sie haben meines wissens die besten Fabs zur Fertigung und sind eigentlich auch die Maßangabe was sowas betrifft.
Soweit ich weiß scheint die Intel's Yield Rate bei 32nm auch nicht so toll zu sein; also einfach ist es jedenfalls nicht.
Intel liefert schon in 32nm, nur noch keine CPUs. Intel war auch der erste neben Toshiba, TSMC, Samsung, IBM usw der einen Wafer zeigen konnte auf denen sich Chips mit immerhin 2 Milliarden Transistoren befanden. Um aber mahl was zu der Zeitachse zu zeigen, das war bereits 2007.
Wenn man jetzt aber nochmal die Parallelen zu den CPUs zieht, bietet eine G200 GPU beispielsweise 240 Recheneinheiten, dazu noch Textureinheiten usw., eine CPU beispielsweise nur 4 Recheneinheiten in Summe...
fdsonne schrieb:Jupp, so schauts aus, 11nm waren das...
Aber da gabs irgend ne Grenze, die physikalisch dagegen gesprochen hat noch weiter runter zu gehen. Ich glaub das war im Bezug auf das heute verwendete Material sprich Silizium.
fdsonne schrieb:Wie gesagt, Speicherzellen herzustellen ist erheblich einfacher als Logik zu schaffen
highko schrieb:GPU-Chip-Strukturen sind deutlich homogener und deutlich leichter durch eine höhere Anzahl von Pipelinestufen für höhere Frequenzen optimierbar.
Da selten gesprungen wird, sollten lange Pipelines im worst case einer falschen Vorhersage auch nicht so weh tun wie bei CPUs.
Schon vom Aufbau und der Produktion bzw. den Schritten, die dazu nötig sind um so eine Zelle herzustellen, ist es wesentlich einfacher im Vergleich zu reinen Logikeinheiten...Da bin ich mir garnichtmal sicher. Speicherzellen designen ist einfacher als arithmetische oder sonstige Logik zu designen, das ist richtig, aber in der Herstellung? Globalfoundries-Insider, wo seid ihr?
Schon vom Aufbau und der Produktion bzw. den Schritten, die dazu nötig sind um so eine Zelle herzustellen, ist es wesentlich einfacher im Vergleich zu reinen Logikeinheiten...
Schau dir mal die Architektur an (und die Schritte die in der Herstellung nötig sind um z.B. ein Teil vom Cache im Prozessor herzustellen)
Nighteye schrieb:vorallem in der software steckt noch sehr viel potential.
wenn man eine gpu mit einer cpu vergleicht, und sich vorstelle es gäbe eine software die es erlauben würde eine gpu als cpu zu nutzen. wären die cpu,s wie wir sie kennen wohl auf einen schlag nutzlos.
Wenn du behauptest, dass in der Software noch viel Potential steckt, dann wäre es doch günstig, das auch mal konkret zu erläutern. Bist du mit Systemprogrammierung vertraut?
Die Vorstellung, eine GPU als CPU zu benutzen, ist ... naiv. Nur die Tatsache, dass GPUs ebenso wie CPUs "rechnen" können und eine vielfach größere Gleitpunktleistung haben, spricht noch überhaupt nicht dafür, dass sie in irgendeiner Weise CPUs ersetzen können (was sie NICHT können).
FD Sonne hat einen super beitrag gemacht, genau so ist es.
ich denke die zukunft der Hardware entwicklung wird sich nicht mehr so Rapide weiter Entwickeln wenn wir bei 16nm angekommen sind.
ab dann werden ati und NV eigentlich nur 2 dinge optimieren können.
1. architektur.
2. treiber
vorallem in der software steckt noch sehr viel potential.
bin ich nicht.
vieleicht irre ich mich ja auch, ich kenne zz ein beispiel.
supreme commaner forged alliance.
das spiel ist so hardware lastig das ein i7 @ 4,4 ghz nichtmal 1 fps bringt bei 2 brutalen cpu,s auf 81x81km maps nach einer gewissen zeit.
und bei supreme commander 2 haben die programmierer die software so effizient gemacht das bei besserer optik weniger poligone verwendet werden und die benötigte rechenpower stark runter geschraubt wird.
ich denke es wird immer noch viel potential in sachen verbesserung in der software geben.
vieleicht kommt es mir auch so vor und ich gebe der sache einen zu hohen wert, bin leider kein spezialist.
habe ich auch nie behauptet. habe nur die möglichkeit in betracht gezogen.
wenn es keine möglichkeit mittels software gibt sowas eines tages zu realisieren, ist es mein fehler gewesen. wobei ich nicht wüsste was dagegen sprechen würde. also meine unwissenheit.
Neja von Nutzerseite betrachtet schon...Ist nicht ganz korrekt. Ein Prozessor wie der Core2 ist zwar vierfach superskalar, hat deswegen aber nicht nur vier Recheneinheiten. Anders als bei GPUs wird dort für gewöhnlich zwischen ALUs, FP-Recheneinheiten und Vektorrecheneinheiten (für SSE z.B.) unterschieden.
Da bin ich mir garnichtmal sicher. Speicherzellen designen ist einfacher als arithmetische oder sonstige Logik zu designen, das ist richtig, aber in der Herstellung? Globalfoundries-Insider, wo seid ihr?
Ich würde es für ziemlich kurzsichtig halten so zu denken. Ich kann nicht das Gegenteil behaupten, aber ich weiß das es bestimmt mehr möglichkeiten gibt Mikrochips in Zukunft schneller zu machen als sie jetzt sind ohne einfach nur die Struktur zu verkleinern. Zwar gibts da einige wilde Dinge wie Quanten bei, aber vieles ist nicht unbedingt so weit her geholt.
Ich erinner mich auch ein klein wenig dunkel daran, als ich damals mir HighLive die Produktion von Qimonda in Dresden angeschaut hab, das der Führer dort auch was erwähnte von, das beim Speicherzellenproduktion deutlich laschere Tolleranzwerte gelten als bei Sachen wie GPUs oder CPUs. Genaues dazu müsste ich mal in Erfahrung bringen, da Qimonda aber nun mehr oder weniger zu ist, muss ich mal schauen, ob ich da noch jemanden ran bekomm
fdsonne schrieb:Neja von Nutzerseite betrachtet schon...
Wenn der User einen normalen Task mit einem Thread ausführt, der dauerhaft Volllast erzeugt, kann bei egal was man macht kein zweiter Task mit ähnlichen Anforderungen in der gleichen Zeit ausgeführt werden.
Dafür gibts ja dann Methoden, welche die verfügbare Zeit aufteilen, über das OS noch Priorisierungen setzen lassen usw.
Unter der Decke hast du wohl schon recht, aber für den Nutzer am Ende spielt das keine Rolle...
Dort (und unter anderem auch in den AMD-Werken, die jetzt Globalfoundries gehören) hab ich auch schon Praktika gemacht. Mal gucken, ob sich da die alten Kontakte reaktivieren lassen, aber ich zweifle ein bisschen daran.
Vorsicht! Die Anzahl der Threads korreliert in keiner Weise mit der Anzahl der Recheneinheiten. Übrigens, wenn wir schon beim Begriffe schwurbeln sind: Ein Prozessor arbeitet, wenn er denn arbeitet, grundsätzlich unter "Vollast". Die Auslastung im Taskmanager beispielsweise zeigt nur, wie lang der Prozessor pro Zeiteinheit unter Vollast arbeitet. Teilweise arbeitende Prozessoren gibt es nicht (naja, schon, aber das hat hiermit erstmal nichts zu tun).
(Disclaimer: Bitte diesen Text nicht meinem Chip-Design Prof zeigen)
Ich denke eher, man sollte das etwas anders "interpretieren". Den Chip und das Design, wozu es eigentlich konzipiert war, mal eben so von heute auf morgen umzuändern wird nicht möglich sein. Kleine Einzelheiten hingegen schon. Da wird man sich auch das eine oder andere von der Konkurrenz ab gucken und daraus lernen.
Zitat:
weil ?Auch wenn der verbaute RAM sich nun gut übertakten lässt, wird das performancemäßig relativ wenig bringen...
Das ist mir klar, nur wollte ich das ganze nicht all zu komlex erklären
Man kann es sehr gut bei der HD 4890 beobachten, etwas mehr VRAM Takt wirkt sich kaum auf die FPS aus, auch mit AA.