Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Ich glaube deswegen hat Intel schon auf die Mehrkern-Prozzessoren umgeschwenkt, da eine reine Takterhöhung in Zukunft nicht mehr machbar scheint mit bisheriger Technologie bzw genau wie Du es beschreibst, irgendwann ist Ende. Da kommt Mehrkerntechnologie gerade recht.
Die bisherige Technik wird wohl ca. bis 10nm funktionieren, dann gibt es physikalische Grenzen, die nicht weiter überwunden werden können. Außer mit anderen Ansätzen.
Ich glaube deswegen hat Intel schon auf die Mehrkern-Prozzessoren umgeschwenkt, da eine reine Takterhöhung in Zukunft nicht mehr machbar scheint mit bisheriger Technologie bzw genau wie Du es beschreibst, irgendwann ist Ende. Da kommt Mehrkerntechnologie gerade recht.
Neurosphere schrieb:Spin, Licht, Quanten.
Oder halt andere Architektur (als x86 bei der CPU).
Bei Grafikkarten wird sich auch nochwas ändern. Ich glaube nicht das wir bei den Shadereinheiten stehen bleiben werden sondern auch die bald überholt sind...
Spin, Licht, Quanten? Weißt du, wovon du da sprichst? Tatsächlich ist die Nutzung von Elektronenspins bereits eine Möglichkeit, um Qubits zu realisieren (zumindest erfüllt die Realisierung alle Anforderungen an ein Qubit, d.h. 2-Tupel aus einem Hilbertraum über den kompl. Zahlen, dessen Skalarprodukte bestimmte Eigenschaften erfüllen müssen) und damit das, was viele unter dem Unwort Quantencomputer glauben zu verstehen. Allerdings ist da alles so radikal anders - damit jetzt schon zu argumentieren macht keinen Sinn. Für Licht gilt Ähnliches; allerdings gehts hier auch nicht unbegrenzt klein, weil auch photoaktive Transistoren eine bestimmte Größe haben.
Was du gegen die x86-Architektur hast, frage ich mich - klar, die ist alt, aber nicht grundlegend verkehrt. Dekodieren musst du sowieso und da machen die paar Befehle das Kraut auch nicht mehr Fett. Damit schiebst du das Problem vielleicht nach hinten, aber Lösen wirst du es nicht.
Und wenn du Theorien dazu hast, was sich an Shadercores ändern soll, bin ich gespannt, sie zu hören.
Ganz ehrlich, ich weiß es nicht. Aber warum sollte es bei Shadereinheiten enden und man versucht nurnoch die Zahl der Einheiten zu steigern? Vielleicht setzt sich ja auch ein Paralleldesign durch die aus wesentlich komplexeren Einzeleinheiten besteht wie LRB.
Larrabee klingt zwar derzeit richtig gut, aber ich frage mich ehrlich gesagt, ob die angepeilte Leistung zum Release der ersten Endkundenlösung immernoch ausreicht um gegen die hochoptimierte Hardware Lösungen von AMD/NV anzukommen...
Heist also, ohne die nötige Software wird wohl auch die beste x86 kompatible "Grafikkarte" dem Endanwender nix nutzen...
Den gleichen Zweifel hege ich auch. Allerdings finde ich es ziemlich interessant was Intel da macht. Die Hardwarekrone müssen sie meiner Meinung nach garnicht ergattern.
Wahrscheinlich. Immerhin gibt es aber wohl schon einige Titel die für LRB optimiert werden.
Daher meine bedenken, ob es sich lohnt imho x86 Kompatible Karten zu bauen!?
Ich glaube die x86 Kompatibilität ist mehr ne Nebenerscheinung. Intel hat ganz einfach auf Technik zurückgegriffen die sie bereits hatten anstatt etwas Grundlegend neues designen zu müssen. Das spart Kosten und Entwicklungszeit.
Der Vorteil ist halt das man theoretisch sämmtliche x86 Befehle auf den LRB auslagern kann. Also nicht nur Physik (in Form von Havok) sondern zB auch KI-Berechnungen usw.
Im Prinzip sollte jede Software die sich paralellisieren lässt so einfach von LRB Profitieren können. OB das jetzt dem Anwender viel Bringt sei erstmal dahingestellt, aber allein die Möglichkeit ist interessant.
Du musst bedenken, dass x86-Kompatibilität noch lange keine taugliche CPU macht.
Ich denke mal wir sollten sowieso erstmal abwarten, wie Larrabee überhaupt ankommt. Wenn die Leistung zum Release schon wieder zu weit zurück liegt, dann nutzt auch der beste Ansatz nix...
War Intel eigentlich auf der Cebit mit dabei? Haben die was gezeigt?
Mir gehts hier nicht um die Generelle Größe des VRams und auch nicht darum, wie viel ist wo wichtig, sondern zum Beispiel um das Thema, warum brechen NV G92 und G200 GPUs bei 8xAA überdurchschnittlich stark ein, und warum ist das bei AMD GPUs nicht der Fall.
Die ankommenden 16 PCIe-Lanes teilt der PEX 8647 auf zwei x16-Signale auf und leitet diese zu den beiden RV770-GPUs. Somit gibt es keinen Bandbreitenverlust, obwohl das Mainboard auf einem Slot nur 16 Lanes zur Verfügung stellen kann.
Naja, wenn wir mal bei einem Monitor bleiben sollten die Daten dank AFR doch eigentlich bei beiden Karten die Selben sein die im VRam liegen.
Von daher berechnen beide GPUs im Prinzip das selbe, da ich ja von mind 25 FPS ausgehe brauchen beide GPUs daher auch die gleichen Daten über Geometry, Texturen etc...