[Sammelthread] Grafikkarten - Technikdiskussion

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ob man bei einem feineren Fertigungsverfahren angelangt ist und noch optimiert oder schon die fertigen Chips ausgeliefert werden ist aber ein Unterschied :p
 
Ob man bei einem feineren Fertigungsverfahren angelangt ist und noch optimiert oder schon die fertigen Chips ausgeliefert werden ist aber ein Unterschied :p

Intel liefert schon in 32nm, nur noch keine CPUs. Intel war auch der erste neben Toshiba, TSMC, Samsung, IBM usw der einen Wafer zeigen konnte auf denen sich Chips mit immerhin 2 Milliarden Transistoren befanden. Um aber mahl was zu der Zeitachse zu zeigen, das war bereits 2007.
 
Ich denke mal früher oder später wird kein weg an multicore plattformen im grafiksektor vorbeiführen,da es so langsam aber sicher eng wird mit Strukturverkleinerungen aus physikalischer Sicht u Taktfrequenzrekorden;)

Andere Technologien sind ja leider noch in weiter Ferne u imo noch nicht greifbar

Neja ne, das Problem ist doch viel eher, das es wenig Sinn macht eine massiv auf parallel arbeitende Architektur doppelt oder x-fach auszulegen...
Für Leistungssteigerung mit einfachen Mitteln und vergleichsweise wenig Kosten, sprich zwei/drei/vier Grafikkernen auf verschiedenen Karten oder von mir aus auf einem PCB ist das ne schöne Sache.
Aber für 99% der Enduser ist sowas "unbrauchbar", da es einfach viel zu viele Probleme mitbringt. Vor allem, was Signalwege und Speicheranbindung betrifft.
Sprich es würde im besten Fall in meinen Augen noch eine Art "Dualcore" aus zwei DIEs auf einem Trägermaterial Sinn machen, also analog zu Intels Pentium D CPUs.
Einen nativ Dual oder Multicore wie der Phenom oder i7 es ist, mit vier vollwertigen Rechenkernen macht im GPU Bereich keinen Sinn...
Da man hätte einfach die Recheneinheiten auch nur in einen dicken DIE packen können und alles andere was mehrfach vorhanden ist, weglassen können... (nur hat das dann nix mehr mit Dualcore oder Multicore in dem Sinne zu tun, weils eben nur noch eine einige dicke GPU ist)


Aber wie schon angesprochen wurde, das Fertigungsproblem besteht weiterhin, sprich irgendwo müssten die mehr Kerne ja auch hin, wenns nicht kleiner geht müssen andere Mittel und Wege ran...
Wenn man jetzt aber nochmal die Parallelen zu den CPUs zieht, bietet eine G200 GPU beispielsweise 240 Recheneinheiten, dazu noch Textureinheiten usw., eine CPU beispielsweise nur 4 Recheneinheiten in Summe...
Noch vor wenigen Jahren war bei den CPUs ein einziger Kern Standard wohingegen GPUs schon lange über mehr als eine Recheneinheit verfügten...

Das Problem vieler ist wohl, die GPU (welche intern aus mehreren Ausführungseinheiten besteht) als nur einen Core anzusehen, stimmt aber so nicht. Wenn man das verinnerlicht, erkennt man auch, das mehr als eine GPU sozusagen wenig Sinn macht.

11nm...vorher sollten 16nm kommen.

Das Problem scheint dann aber noch immer nicht die Atombreite sondern dieFertigung zu sein. Physikalische ginge also evtl noch weniger.

Jupp, so schauts aus, 11nm waren das...

Aber da gabs irgend ne Grenze, die physikalisch dagegen gesprochen hat noch weiter runter zu gehen. Ich glaub das war im Bezug auf das heute verwendete Material sprich Silizium.
Mit anderen Meterialien geht da sicher noch bisschen was ;)

Bei sowas musst du Intel als Standard nehmen. Sie haben meines wissens die besten Fabs zur Fertigung und sind eigentlich auch die Maßangabe was sowas betrifft.

Ne eigentlich nicht, Intel baut vllt schneller und kleiner, dafür bestehen deren CPUs beispielsweise nur aus verhältnismäßig wenig Logik, man schaue sich nur mal nen DIE Shot des i7 an, da ist über die hälfte der CPU nur für den Cache da, Cache hingegen ist deutlich einfacher zu produzieren als echte Logikeinheiten. Daher sind meist die Speicherhersteller auch mit deutlich kleineren Fertigungsverfahren vorreiter, dann die CPU Hersteller und danach erst die GPU Hersteller.
Mittlerweise gibts zwar im GPU Bereich schon 40nm, aber auch nur für ein Modell mit eher schlechter Ausbeute...

Soweit ich weiß scheint die Intel's Yield Rate bei 32nm auch nicht so toll zu sein; also einfach ist es jedenfalls nicht.

Das mag sein, aber Intel produziert auch noch nicht für Endkunden in 32nm, sprich die Technik ist noch in der Erprobung und somit "weit" von wirklich Marktreif entfernt.

Intel liefert schon in 32nm, nur noch keine CPUs. Intel war auch der erste neben Toshiba, TSMC, Samsung, IBM usw der einen Wafer zeigen konnte auf denen sich Chips mit immerhin 2 Milliarden Transistoren befanden. Um aber mahl was zu der Zeitachse zu zeigen, das war bereits 2007.

Das mag ebenso sein, aber hat wiederum wenig mit derart komplexen Logikeinheiten zu tun, wie sie in GPUs stecken.
Wie gesagt, Speicherzellen herzustellen ist erheblich einfacher als Logik zu schaffen ;)

Soweit mir bekannt gibts sogar schon lauffähige Speicherzellen in 22nm und 28nm, damals bei Infineon/Qimonda bzw. auch bei AMD und IBM... Die sind doch alle samt in so einer Technikgruppe drin...
 
Wenn man jetzt aber nochmal die Parallelen zu den CPUs zieht, bietet eine G200 GPU beispielsweise 240 Recheneinheiten, dazu noch Textureinheiten usw., eine CPU beispielsweise nur 4 Recheneinheiten in Summe...

Ist nicht ganz korrekt. Ein Prozessor wie der Core2 ist zwar vierfach superskalar, hat deswegen aber nicht nur vier Recheneinheiten. Anders als bei GPUs wird dort für gewöhnlich zwischen ALUs, FP-Recheneinheiten und Vektorrecheneinheiten (für SSE z.B.) unterschieden.

fdsonne schrieb:
Jupp, so schauts aus, 11nm waren das...

Aber da gabs irgend ne Grenze, die physikalisch dagegen gesprochen hat noch weiter runter zu gehen. Ich glaub das war im Bezug auf das heute verwendete Material sprich Silizium.

Das Problem ist bei 11nm Strukturbreite logischerweise die dünnste Stelle des zu fertigenden Bauelements und das ist bei einem Halbleitertransistor das Gatedielektrikum. Bei einer so geringen Strukturbreite liegen da kaum noch 5 Atome übereinander und wie olle Schrödinger (der mit der Gleichung) uns schon vor Jahren nähergebracht hat, durchtunneln Elektronen solche Hindernisse gerne mal.

fdsonne schrieb:
Wie gesagt, Speicherzellen herzustellen ist erheblich einfacher als Logik zu schaffen ;)

Da bin ich mir garnichtmal sicher. Speicherzellen designen ist einfacher als arithmetische oder sonstige Logik zu designen, das ist richtig, aber in der Herstellung? Globalfoundries-Insider, wo seid ihr? :)

highko schrieb:
GPU-Chip-Strukturen sind deutlich homogener und deutlich leichter durch eine höhere Anzahl von Pipelinestufen für höhere Frequenzen optimierbar.

Da selten gesprungen wird, sollten lange Pipelines im worst case einer falschen Vorhersage auch nicht so weh tun wie bei CPUs.

Pipelining braucht in erster Linie jede Menge Register als Puffer und für die findet man in GPUs selten Platz. Ein weiteres Problem ist auch bei aktuellen GPUs der hohe Entkopplungsfaktor zwischen einzelnen Pipelinestufen, da ist ja (übertrieben gesagt) jede von überall aus ansteuerbar. Das würde das klassische Konzept locker über den Haufen werfen. Und du hast zwar Recht, dass das mit den Sprungvorhersagen nicht so problematisch ist, aber Kontrollflussabhängigkeiten sind ja nicht die einzigen Abhängigkeitprobleme in Pipelines. Insbesondere Datenabhängigkeiten problematisieren bei einer Throughput-orientierten Architektur wie der einer GPU ziemlich krass das Pipelinekonzept.
 
Zuletzt bearbeitet:
Da bin ich mir garnichtmal sicher. Speicherzellen designen ist einfacher als arithmetische oder sonstige Logik zu designen, das ist richtig, aber in der Herstellung? Globalfoundries-Insider, wo seid ihr? :)
Schon vom Aufbau und der Produktion bzw. den Schritten, die dazu nötig sind um so eine Zelle herzustellen, ist es wesentlich einfacher im Vergleich zu reinen Logikeinheiten...
Schau dir mal die Architektur an ;) (und die Schritte die in der Herstellung nötig sind um z.B. ein Teil vom Cache im Prozessor herzustellen)
 
FD Sonne hat einen super beitrag gemacht, genau so ist es.

ich denke die zukunft der Hardware entwicklung wird sich nicht mehr so Rapide weiter Entwickeln wenn wir bei 16nm angekommen sind.

ab dann werden ati und NV eigentlich nur 2 dinge optimieren können.

1. architektur.
2. treiber

vorallem in der software steckt noch sehr viel potential.

wenn man eine gpu mit einer cpu vergleicht, und sich vorstelle es gäbe eine software die es erlauben würde eine gpu als cpu zu nutzen. wären die cpu,s wie wir sie kennen wohl auf einen schlag nutzlos.

lange jahre waren die festplatten der flaschenhals im pc bereich.

heute denke ich ist es die software.
 
Schon vom Aufbau und der Produktion bzw. den Schritten, die dazu nötig sind um so eine Zelle herzustellen, ist es wesentlich einfacher im Vergleich zu reinen Logikeinheiten...
Schau dir mal die Architektur an ;) (und die Schritte die in der Herstellung nötig sind um z.B. ein Teil vom Cache im Prozessor herzustellen)

Bitte konkret werden. In der Herstellung sind beide (Cache und "sonstige" Logik, denn Cache ist ebenso Logik wie alles andere!) auf demselben Chip und durchlaufen insofern ja wohl auch dieselben Fertigungsstufen (mit denen ich vertraut bin). Und als ich vor wenigen Wochen noch auf die Schaltbilder der ALUs und L1-Caches vom MIPS gucken durfte, sahen die beide nicht sonderlich verschieden aus. Caches sind aus SRAM und der wird, soweit ich weiß, als 6-Transistor-Zelle hergestellt (CMOS). Großartig anders sind die Gatter einer ALU auch nicht gefertigt. Die Verdrahtung ist beim Cache sogar aufwendiger, würde ich sagen.

Nighteye schrieb:
vorallem in der software steckt noch sehr viel potential.

wenn man eine gpu mit einer cpu vergleicht, und sich vorstelle es gäbe eine software die es erlauben würde eine gpu als cpu zu nutzen. wären die cpu,s wie wir sie kennen wohl auf einen schlag nutzlos.

Wenn du behauptest, dass in der Software noch viel Potential steckt, dann wäre es doch günstig, das auch mal konkret zu erläutern. Bist du mit Systemprogrammierung vertraut?
Die Vorstellung, eine GPU als CPU zu benutzen, ist ... naiv. Nur die Tatsache, dass GPUs ebenso wie CPUs "rechnen" können und eine vielfach größere Gleitpunktleistung haben, spricht noch überhaupt nicht dafür, dass sie in irgendeiner Weise CPUs ersetzen können (was sie NICHT können).

Ich will außerdem nochmal darauf hinweisen, dass Software und Hardware äquivalent sind. Alles, was mit einem davon realisierbar ist, kann man auch auf die andere Art implementieren.
 
Zuletzt bearbeitet:
Wenn du behauptest, dass in der Software noch viel Potential steckt, dann wäre es doch günstig, das auch mal konkret zu erläutern. Bist du mit Systemprogrammierung vertraut?

bin ich nicht.

vieleicht irre ich mich ja auch, ich kenne zz ein beispiel.

supreme commaner forged alliance.

das spiel ist so hardware lastig das ein i7 @ 4,4 ghz nichtmal 1 fps bringt bei 2 brutalen cpu,s auf 81x81km maps nach einer gewissen zeit.

und bei supreme commander 2 haben die programmierer die software so effizient gemacht das bei besserer optik weniger poligone verwendet werden und die benötigte rechenpower stark runter geschraubt wird.

ich denke es wird immer noch viel potential in sachen verbesserung in der software geben.

vieleicht kommt es mir auch so vor und ich gebe der sache einen zu hohen wert, bin leider kein spezialist.


Die Vorstellung, eine GPU als CPU zu benutzen, ist ... naiv. Nur die Tatsache, dass GPUs ebenso wie CPUs "rechnen" können und eine vielfach größere Gleitpunktleistung haben, spricht noch überhaupt nicht dafür, dass sie in irgendeiner Weise CPUs ersetzen können (was sie NICHT können).

habe ich auch nie behauptet. habe nur die möglichkeit in betracht gezogen.

wenn es keine möglichkeit mittels software gibt sowas eines tages zu realisieren, ist es mein fehler gewesen. wobei ich nicht wüsste was dagegen sprechen würde. also meine unwissenheit.
 
FD Sonne hat einen super beitrag gemacht, genau so ist es.

ich denke die zukunft der Hardware entwicklung wird sich nicht mehr so Rapide weiter Entwickeln wenn wir bei 16nm angekommen sind.

ab dann werden ati und NV eigentlich nur 2 dinge optimieren können.

1. architektur.
2. treiber

vorallem in der software steckt noch sehr viel potential.

Ich würde es für ziemlich kurzsichtig halten so zu denken. Ich kann nicht das Gegenteil behaupten, aber ich weiß das es bestimmt mehr möglichkeiten gibt Mikrochips in Zukunft schneller zu machen als sie jetzt sind ohne einfach nur die Struktur zu verkleinern. Zwar gibts da einige wilde Dinge wie Quanten bei, aber vieles ist nicht unbedingt so weit her geholt.

bin ich nicht.

vieleicht irre ich mich ja auch, ich kenne zz ein beispiel.

supreme commaner forged alliance.

das spiel ist so hardware lastig das ein i7 @ 4,4 ghz nichtmal 1 fps bringt bei 2 brutalen cpu,s auf 81x81km maps nach einer gewissen zeit.

und bei supreme commander 2 haben die programmierer die software so effizient gemacht das bei besserer optik weniger poligone verwendet werden und die benötigte rechenpower stark runter geschraubt wird.

ich denke es wird immer noch viel potential in sachen verbesserung in der software geben.

vieleicht kommt es mir auch so vor und ich gebe der sache einen zu hohen wert, bin leider kein spezialist.




habe ich auch nie behauptet. habe nur die möglichkeit in betracht gezogen.

wenn es keine möglichkeit mittels software gibt sowas eines tages zu realisieren, ist es mein fehler gewesen. wobei ich nicht wüsste was dagegen sprechen würde. also meine unwissenheit.

Supreme Commander 2 liegt noch in weiter ferne und wie gut die Software wirklich arbeitet werden wir erst wissen wenn das Spiel erhältlich ist.
 
Ist nicht ganz korrekt. Ein Prozessor wie der Core2 ist zwar vierfach superskalar, hat deswegen aber nicht nur vier Recheneinheiten. Anders als bei GPUs wird dort für gewöhnlich zwischen ALUs, FP-Recheneinheiten und Vektorrecheneinheiten (für SSE z.B.) unterschieden.
Neja von Nutzerseite betrachtet schon...
Wenn der User einen normalen Task mit einem Thread ausführt, der dauerhaft Volllast erzeugt, kann bei egal was man macht kein zweiter Task mit ähnlichen Anforderungen in der gleichen Zeit ausgeführt werden.

Dafür gibts ja dann Methoden, welche die verfügbare Zeit aufteilen, über das OS noch Priorisierungen setzen lassen usw.
Unter der Decke hast du wohl schon recht, aber für den Nutzer am Ende spielt das keine Rolle...

Bei den GPUs hingegen solltest du denke ich mal zwei GPGPU Anwendungen gleichzeitig fahren können, beispielsweise wenn du Operationen in den ROPs berechnen lässt und gleichzeitig die ALUs mit anderen Dingen fütterst, sollte das zeitgleich machbar sein, ohne Leistungsverlust... Soweit meine Theorie ;)

Da bin ich mir garnichtmal sicher. Speicherzellen designen ist einfacher als arithmetische oder sonstige Logik zu designen, das ist richtig, aber in der Herstellung? Globalfoundries-Insider, wo seid ihr? :)

Die Produktion am Ende ist denke ich mal 1:1 die selbe...
Aber der Vorteil im Cachebereich ist doch, das man defekte Speicherzellen beispielsweise problemlos deaktiveren kann, und beispielsweise ein Stück (ich nenns mal) Reserve dafür aktiveren kann...
Ein möglicher Fehler in der Produktion macht sich somit deutlich weniger bemerkbar als bei reiner Logik, wo bei nem potentiellen Fehler idR nix mehr machbar ist...

Aber dennoch, man sieht ja recht gut, das neueste Fertigsgrößen eigentlich immer zuerst an kleinsten Schaltkreisen oder SRAM Zellen getestet werden, welche vom Aufbau her wenig komplex sind...
Bis die Fertigung dann irgendwann mal soweit fortgeschritten ist um auch sehr komplexe Chips zu produzieren...

Ich erinner mich auch ein klein wenig dunkel daran, als ich damals mir HighLive die Produktion von Qimonda in Dresden angeschaut hab, das der Führer dort auch was erwähnte von, das beim Speicherzellenproduktion deutlich laschere Tolleranzwerte gelten als bei Sachen wie GPUs oder CPUs. Genaues dazu müsste ich mal in Erfahrung bringen, da Qimonda aber nun mehr oder weniger zu ist, muss ich mal schauen, ob ich da noch jemanden ran bekomm ;)

Ich würde es für ziemlich kurzsichtig halten so zu denken. Ich kann nicht das Gegenteil behaupten, aber ich weiß das es bestimmt mehr möglichkeiten gibt Mikrochips in Zukunft schneller zu machen als sie jetzt sind ohne einfach nur die Struktur zu verkleinern. Zwar gibts da einige wilde Dinge wie Quanten bei, aber vieles ist nicht unbedingt so weit her geholt.

Es muss ja nichtmal zwingend ne gänzlich andere Technik sein, ich denke da zum Beispiel an das dreidimensionale Aufbauen der Chips...
Sprich mehrere Lagen Recheneinheiten übereinander, das würde sicher auch sehr viel Optimierungsspielraum lassen, weil durch den Mehrlagigen Aufbau Signalwege deutlich kürzer gehalten werden könnten.

Nachteil ist halt die Kühlung, wird das ganze zu dick, kommt man sicher in Temperaturregionen von jenseits von gut und böse ;)
 
Ich erinner mich auch ein klein wenig dunkel daran, als ich damals mir HighLive die Produktion von Qimonda in Dresden angeschaut hab, das der Führer dort auch was erwähnte von, das beim Speicherzellenproduktion deutlich laschere Tolleranzwerte gelten als bei Sachen wie GPUs oder CPUs. Genaues dazu müsste ich mal in Erfahrung bringen, da Qimonda aber nun mehr oder weniger zu ist, muss ich mal schauen, ob ich da noch jemanden ran bekomm ;)

Dort (und unter anderem auch in den AMD-Werken, die jetzt Globalfoundries gehören) hab ich auch schon Praktika gemacht. Mal gucken, ob sich da die alten Kontakte reaktivieren lassen, aber ich zweifle ein bisschen daran. :)

edit:

Achja -

fdsonne schrieb:
Neja von Nutzerseite betrachtet schon...
Wenn der User einen normalen Task mit einem Thread ausführt, der dauerhaft Volllast erzeugt, kann bei egal was man macht kein zweiter Task mit ähnlichen Anforderungen in der gleichen Zeit ausgeführt werden.

Dafür gibts ja dann Methoden, welche die verfügbare Zeit aufteilen, über das OS noch Priorisierungen setzen lassen usw.
Unter der Decke hast du wohl schon recht, aber für den Nutzer am Ende spielt das keine Rolle...

Vorsicht! Die Anzahl der Threads korreliert in keiner Weise mit der Anzahl der Recheneinheiten. Übrigens, wenn wir schon beim Begriffe schwurbeln sind: Ein Prozessor arbeitet, wenn er denn arbeitet, grundsätzlich unter "Vollast". Die Auslastung im Taskmanager beispielsweise zeigt nur, wie lang der Prozessor pro Zeiteinheit unter Vollast arbeitet. Teilweise arbeitende Prozessoren gibt es nicht (naja, schon, aber das hat hiermit erstmal nichts zu tun).
 
Zuletzt bearbeitet:
Dort (und unter anderem auch in den AMD-Werken, die jetzt Globalfoundries gehören) hab ich auch schon Praktika gemacht. Mal gucken, ob sich da die alten Kontakte reaktivieren lassen, aber ich zweifle ein bisschen daran. :)

Na mal gucken, da meine Mum bei Qimonda gearbeitet hat und wir ebenso bekannte aus der Produktion und Forschung haben, könnte da durchaus was machbar sein ;)


Vorsicht! Die Anzahl der Threads korreliert in keiner Weise mit der Anzahl der Recheneinheiten. Übrigens, wenn wir schon beim Begriffe schwurbeln sind: Ein Prozessor arbeitet, wenn er denn arbeitet, grundsätzlich unter "Vollast". Die Auslastung im Taskmanager beispielsweise zeigt nur, wie lang der Prozessor pro Zeiteinheit unter Vollast arbeitet. Teilweise arbeitende Prozessoren gibt es nicht (naja, schon, aber das hat hiermit erstmal nichts zu tun).

Letzteres ist mir schon klar, mit Volllast meinte ich hingegen eher die Tatsache, das es ja Tasks gibt, welche beispielsweise angenommen 70% Last auf nem Singlecore erzeugen, sprich 70% der Zeit x wird gearbeitet, im Rest wird nix gemacht.
Bei Volllast hingegen liegt über die gemessene Zeit immer Arbeit an...
Ich meine eben damit letztere Tasks, wo bei Last eben keine andere Anwendung Rechenzeit bekommen würde, es sei denn, sie ist prioritätstechnisch mindestens gleichrangig ;)



Ersteres ist übrigens ebenso klar ;)
 
Um mal etwas das Unwissen zu lichten:

Der wesentliche Unterschied zwischen CPU und GPU liegt darin, dass CPUs WESENTLICH besser mit bedingten Sprüngen (zwei optionale Sprungziele) von einer Stelle des Programmcodes zu einer anderen umgehen können.

Riesige Mengen Chipfläche in einer CPU geht dafür drauf Sprünge vorherzusagen und die bereits gerechneten Sachen wieder fallen zu lassen, falls falsch vorausgesagt wurde.
Eine CPU vermutet einen Weg und rechnet schon mal was auf diesem Weg passiert. Falls es aber der falsche Weg war muss natürlich alles wieder rückgängig gemacht werden. Solche Logik braucht sehr viel Platz.

CPUs sortieren Befehle ausserdem um, damit sie Effizienter (unabhängiger, also ohne bedingten Sprung dazwischen) voneinander berechnet werden können. Diese Out-Of-Order-Execution braucht auch sehr viel Platz, deshalb wurde sie z.B. beim Atom weggelassen.

Zu erwähnen ist auch noch der Cache, der oft die Hälfte der Chipfläche einnimmt.

Die eigentliche Recheneinheit macht dann weniger als 1/10 der CPU aus. Alles dient nur dazu diese Recheneinheit zu füttern.



Für eine GPU schmeisst man nun Sprunglogik, OOOE, Cache und andere Dinge weg und baut statt einer Rechenheit halt 10 ein oder 100 kleinere.

Am Ende kann die GPU dann z.B. sehr viel schneller auf viele Objekte Code a anwenden, aber wenn sie zwischen a und z für jedes dieser Objekte entscheiden muss und dafür völlig anderen Code ausführen, dann wird die CPU das schneller machen.

Es gibt im übrigen auch einen GPU/CPU Hybridprozessor.
Nämlich den Cell-Prozessor von IBM, der in der PS3 verbaut ist.
Der enthält zwei General-Purpose Rechenheinheiten (IBM-Power-PCs)
und er enthält 7 Special-Purpose Recheneinheiten (SPUs)

Der gute alte Print-befehl, der nichts macht ausser Text anzeigen braucht mehr als die hälfte des Cache, den eine SPU zur Verfügung hat, weil er quasi nur aus bedingten Sprüngen besteht. Niemand bei Verstand würde das auf einer SPU oder GPU laufen lassen.


Kurzzusammenfassung:
Viele bedingte Sprünge (und andere Abhängigkeiten) -> CPU hui, GPU pfui
wenig Sprünge, viel Rechnen -> GPU hui, CPU pfui

(Disclaimer: Bitte diesen Text nicht meinem Chip-Design Prof zeigen)
 
Zuletzt bearbeitet:
im schönen Darmstadt, warum ist der Thread eigentlich plötzlich tot?

Gerüchteweise soll die neue Ati-Karte verbessertes AF haben. Ich bin gespannt.
 
In englisch:

http://www.fudzilla.com/content/view/15315/1/

In deutsch:

http://www.gamestar.de/hardware/news/grafikkarten/1958820/grafikkarten.html

Kann es sein das das ziemliches tünnef ist was die da schreiben?! Zwar wird es gut möglich sein das technische Entwicklungen bereits Jahre vor ihrem Einsatz fertig sind, aber komplette Chips dürften wohl nicht schon mehrere Jahre vor dem ersten Wafer unverändert Feststehen. Klar, es wird viele Designs geben die auf dem Papier gedanklich schon Jahre vorher entstanden sind, aber jene sind weder unabänderbar noch wirklich bis zu einem Marktreifen Produkt entwickelt.
 
Glaub ich persönlich auch nicht. Es wird für R&D ungleich schwerer, etwas für den richtigen Zeitpunkt zu entwickeln, wenn man früher anfängt als nötig. Ich denke, was schon Jahre vorher feststeht, ist, was der Chip "werden soll". Inklusive Budgetabsteckungen, Derivaten, angepeiltem Release und so weiter. Das Design selber wird aber wohl nicht schon so zeitig final sein.
 
Ich denke eher, man sollte das etwas anders "interpretieren". Den Chip und das Design, wozu es eigentlich konzipiert war, mal eben so von heute auf morgen umzuändern wird nicht möglich sein. Kleine Einzelheiten hingegen schon. Da wird man sich auch das eine oder andere von der Konkurrenz ab gucken und daraus lernen.
 
So, nachdem das letzte Update des Startposts doch schon eine Zeit lang zurück lag, gabs soeben mal wieder eine kleine Aktualisierung! :wink:
 
Ich denke eher, man sollte das etwas anders "interpretieren". Den Chip und das Design, wozu es eigentlich konzipiert war, mal eben so von heute auf morgen umzuändern wird nicht möglich sein. Kleine Einzelheiten hingegen schon. Da wird man sich auch das eine oder andere von der Konkurrenz ab gucken und daraus lernen.

Daran zweifelt ja auch niemand. Nur die Zeitangabe die Fuzilla da macht ist eine ziemliche Übertreibung für ein festehendes Design.
 
Aus dem HD5000 Thread:

Zitat:
Auch wenn der verbaute RAM sich nun gut übertakten lässt, wird das performancemäßig relativ wenig bringen...
weil ?


@Grinsemann:



ich übertreibe mal ganz stark damit auch klar wird was ich meine.
Stell dir vor deine GPU taktet mit 500MHz und dein Speicher mit 1200MHz. Während die GPU nun fröhlich berechnet und arbeitet braucht sie Daten aus dem Speicher. Diese können auch relativ "schnell" abgerufen und weiter verarbeitet werden. Aber das sind keine Daten a lá ein halbes Bild was schon fertig ist. Dort werden Infos zwischengespeichert und zu einem späteren Zeitpunkt wieder aufgerufen und mit dem gerade berechneten weiter verrechnet. Wenn die GPU nun so "langsam" die einzelnen Schritte abarbeitet, die Infos aus dem Speicher aber sehr schnell erhält, bringt das relativ wenig. Ein gesteigerter GPU-Takt hingegen macht sich schon bemerkbar.

Oder ein anderes Beispiel: eine Fabrik baut Komplettrechner per Hand zusammen. Jeder hat seinen eignen Tisch, der an einem Laufband angeschlossen ist. Jeder bekommt auch die einzelnen Komponenten per Laufband geliefert. Was macht nun mehr Sinn? Die Geschwindigkeit vom Laufband steigern? Dann stapelt sich die Hardware am Tisch und der Mitarbeiter kommt nich so schnell hinterher. Oder den Mitarbeiter "übertakten" bzw. unter Druck setzten. Dann arbeitet dieser schneller und der Komplett-PC steht eher im Regal.
 
@PCZeus
so ganz kannst du das nicht pauschalisieren...
Es gibt Anwendungen die massiv an der Speicherbandbreite hängen, auch AA im Spiel wäre so ein Fall, andererseits gibt es Anwendungen die sogut wie gar nicht an der Speicherbandbreite hängen...

Aber die Diskusion hatten wir damals hier schon mal ;)
 
Das ist mir klar, nur wollte ich das ganze nicht all zu komlex erklären ;)
Man kann es sehr gut bei der HD 4890 beobachten, etwas mehr VRAM Takt wirkt sich kaum auf die FPS aus, auch mit AA.
 
Das ist mir klar, nur wollte ich das ganze nicht all zu komlex erklären ;)
Man kann es sehr gut bei der HD 4890 beobachten, etwas mehr VRAM Takt wirkt sich kaum auf die FPS aus, auch mit AA.

Es kommt halt stark auf die Anwendung drauf an...
Man kann aber wohl schon sagen, im Schnitt gesehen ist eine HD4890 oder auch HD4870 nicht Bandbreitenlimitiert...
Einer HD4850 hingegen fehlen teilweise um die 20% bis zur großen Schwester bei gleichem GPU Takt...

Aber sei es drum, mit der richtigen Anwendung bekommst du auch ne HD4890 dazu, das sie 1:1 mit steigender Bandbreite staliert ;)
 
Hallo, bringt es was bei GDDR3 Chips mit 1000MHz Ramkühler drauf zumachen? Werden die heiß oder ist das unnötig? Es geht um eine 8600 GTS.
 
Falscher Thread, das ist nicht die Art von Technikfrage, die hier diskutiert werden wird.
 
Ich habe mal eine Frage. Bin seit mindestens einem Jahr komplett raus aus den Grafikkarten und deren Architektur und Spezifikationen.

Gibt es jetzt Karten die Crysis in DX10 komplett auf vollen Details mit einer mindestsens konstanten Framerate von 60 vsync Bildern bei 1680* darstellen ?
 
schon wieder falcher thread!

hier geht es um die technik von Grafikkarten und nicht um benchmarks und kaufberatungen!
 
Nein ich will keine Benches oder sonstwas sehen.

Das ist für mich eine technische Hürde die für mich in kein Crysis, Nvidia oder ATI Thread gehört sondern eine aktuelle Leistungsstandardfrage ist die genau hier reingehört.

Schafft der aktuelle Stand der Technik das ?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh