Gewagte Frage: Warum gibt es noch CPUs?

Assembler ist auch keine Lösung.

Wenn du für eine Aufgabe einen Assemblerbefehl brauchst, dann ist das schneller, als wenn du dich dazu verbiegen mußt und für die selbe Sache mal eben 1000Zeile code hinbasteln mußt um das gleiche Ergebnis zu bekommen.

Und genau das spiegelt in etwas die Problemmatik CPU vs GPU wieder. Beides kannst du in Assembler coden, für den einen brauchst du 1mins, für das andere eine Woche.

@haden
Nö, ein Quantencomputer ist erstmal eine andere Art und Weise der Art und Weise wie Prozessoren gebaut werden. Wenn man das heute schon könnte, dann könnte man aktuelle CPUs einfach nachbauen. Diese wäre dann nur bedingt schneller. Sie können zwar, auf Grund der anderen Architektur, Sachen an sich schneller verarbeiteten, das Grundgerüst wäre aber grob das gleiche.

Das was du meinst, ist das theoretische Ziel dieser Sache, weil man gelernt hat, was dieser sequentielle Ablauf für Nachteile bringt.
Leider ist das in der Form alles noch Zukunftsmusik.

(man wird sicherlich anfangen erstmal klassische Strukturen nachzubauen und dann zusehen, dass man das besser hinbekommt und diese Technik, die schon Steinalt ist, endlich mal ablegt)

Bis dahin werden wohl noch die ein oder andere Generation an klassischen CPUs durch unsere Rechner wandern.

EDIT:
Wobei ich aber auch gestehen muß, dass diese ganzen Quantensache und n-dimensionaler Raum dann noch meine Vorstellung. Fakt ist, dass man von diesen alten Strukturen weg will. Sowas mit aktuellen Sachen zu realisieren ist irgendwann nicht mehr machbar, da man quasi in einer Dimension arbeitet, die ihre Grenzen hat.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Assembler ist auch keine Lösung.

Wenn du für eine Aufgabe einen Assemblerbefehl brauchst, dann ist das schneller, als wenn du dich dazu verbiegen mußt und für die selbe Sache mal eben 1000Zeile code hinbasteln mußt um das gleiche Ergebnis zu bekommen.

Und genau das spiegelt in etwas die Problemmatik CPU vs GPU wieder. Beides kannst du in Assembler coden, für den einen brauchst du 1mins, für das andere eine Woche.

@haden
Nö, ein Quantencomputer ist erstmal eine andere Art und Weise der Art und Weise wie Prozessoren gebaut werden. Wenn man das heute schon könnte, dann könnte man aktuelle CPUs einfach nachbauen. Diese wäre dann nur bedingt schneller. Sie können zwar, auf Grund der anderen Architektur, Sachen an sich schneller verarbeiteten, das Grundgerüst wäre aber grob das gleiche.

Das was du meinst, ist das theoretische Ziel dieser Sache, weil man gelernt hat, was dieser sequentielle Ablauf für Nachteile bringt.
Leider ist das in der Form alles noch Zukunftsmusik.

(man wird sicherlich anfangen erstmal klassische Strukturen nachzubauen und dann zusehen, dass man das besser hinbekommt und diese Technik, die schon Steinalt ist, endlich mal ablegt)

Bis dahin werden wohl noch die ein oder andere Generation an klassischen CPUs durch unsere Rechner wandern.

EDIT:
Wobei ich aber auch gestehen muß, dass diese ganzen Quantensache und n-dimensionaler Raum dann noch meine Vorstellung. Fakt ist, dass man von diesen alten Strukturen weg will. Sowas mit aktuellen Sachen zu realisieren ist irgendwann nicht mehr machbar, da man quasi in einer Dimension arbeitet, die ihre Grenzen hat.

Fakt ist doch, dass dieser Thread ein ziemlich philosophisches Eigenleben bekommen hat. Das Problem ist also nicht CPU/GPU sondern eher die Unsicherheit, was wohl demnächst alles so kommen mag was von der heutigen, klassischen Hardware abweichen wird.
 
Um den TE mal ganz einfach zu erklären:

Deine CPU macht das Hier : A+B=C, C+c=d, d+D= E usw......
Da Nützen wenige, extrem schnelle kerne enfach mehr, weil du nciht d+D rechnen kannst wenn du erst die vorherigen rechnungen machen musst um zu wissen was "d" ist.

Eine Grafikarte macht aber Dass hier: A+A=A´ B+A =C
D+A=F C+D= B
usw.

Da nützen viele, "Dumme" langsame Kerne mehr, da hier einfach die Masse gebraucht wird.

Übrigens gibt es mit Fermi ja die Möglichkeit ein Spezielles OS auch auf der Grafikkarte laufen zu lassen, aber wer alles kann, kann nicht alles gut...
 
Die eierlegende Wollmilchsau wird es nie geben. Spezialisierung ist immer besser, als wenn einer alles können muß.

Definiere Eierlegende Wollmilchsau!?
Im Grunde ist eine CPU eine Eierlegende Wollmilchsau, denn man kann jede Art von Berechnungen auf ihr ausführen... Unabhängig vom Speed.

Theoretisch wäre gar ne heutige GPU auch eine, denn auch diese könnte jegliche Art von Berechnungen (teils über Umwege) eben bewerkstelligen...

Was aber, wie ich finde eben hier noch unterzugehen scheint, eine GPU ist alleine ziemlich doof. Denn sie kann eben nicht alleine agieren. Eine CPU ansich schon. (vor allem, wenn man sich mal vom heutigen Computer und heutigen CPUs löst und mal zu den Anfängen geht)

Der eigentliche Knackpunkt hier in der Frage ist wohl eher, das man sich hier fragt, warum man die Ausführungseinheiten einer CPU nicht mit dehnen einer GPU tauscht, da diese offensichtlich schneller sind.
Was aber nur die halbe Wahrheit ist, weil eben nicht überall schneller, sondern nur in speziellen Bereichen...
Und aus dem Grund vereint man aktuell eine GPU mit einer CPU. Bzw. packt diese beiden Teile zusammen. Wenn alles in einem DIE ist, könnte man sozusagen davon ausgehen, das die CPU mit den Ausführungseinheiten der GPU aufgebohrt wurde...

Das noch stehende Problem, das die CPU selbst mit der GPU nicht viel anfangen kann bleibt aber aktuell. Der nächste Schritt wäre, die Ausführungseinheiten der GPU native in die CPU zu integrieren. Das eben die CPU bzw. die Einheit im Ganzen selbst die dem "GPU Part" schmeckenden Berechnungen eben auf diese aufteilt. Denn jetzt wird der Part durch den Treiber der GPU übernommen, der eine Schnittstelle bereit stellt um der GPU Aufgaben überzuhelfen.

Zum Thema PS3 und Cell... Im Grunde ist ja der Cell so ne Art Mischmasch zwischen CPU und GPU. Die PS3 hat zwar ne dedizierte Grafikeinheit. Dennoch werden teile der eigentlichen Grafikberechnung auf die Einheiten des Cells ausgelagert... Und das scheint supi zu funktionieren.
 
Was meint ihr den eigentlich zu denver? (Cpu in der gpu)
 
Die Spiele z.B. sind ja heute nicht unbedingt 100 mal so gut/hochauflösung oder was auch immer, obwohl die GPU's entsprechendes zu leisten vermögen als vor 15 Jahren oder so.)

Imo solltest du dich aus der Diskussion raushalten da dir eindeutig die Grundlagen fehlen.
Alleine diese Aussage oO

320x160 = 51200 pixel
2580x1600 = 4128000 pixel

4128000/51200 = 80.2

Also genau das was du wolltest, nicht? Fast 100 mal so hochauflösend!
 
@fdsonne

Die Sau:
Schnelle Berechnungen und dabei der Befehlssatz der CPU. Und das wird so nicht gehen, eben weil jede Recheneinheit diesen Befehlssatz unterstützen müßte. Würde man sowas bauen, würden wir schon heute in ganz anderen Geschwindigkeitsregionen arbeiten.
Das ist der Grund, warum das mit dem Tauschen der Units net geht. Da könnte die CPU nicht mehr die Sachen machen, die sie heute kann.

Die Aufgabe einer CPU ist es nicht stupide irgendwas auszurechnen, sie soll ein OS zum Laufen bringen und dazu braucht es kein 1+1.

Wenn man anfängt in CPUs Vektorunits zu integrieren ändert das aber nichts an der Tatsache, von der wir hier reden.
Damit wäre nur ganz bestimmte Software in der Lage schneller zu arbeiten und zwar genau die, die es heute schon auf GPUs macht.

Nehmen wir mal ein Spiel.
Eine unendlich starke GPU.
Wenn ich eine aktuelle CPU nehmen, dann komme ich auf 100fps.
Wenn ich diese CPU doppel so stark machen, komme ich auf 200fps.
Wenn ich dagegen der AusgangsCPU Units einer GPU einpflanze, kommen dennoch nur 100fps raus. Aus dem einfachen Grund, dass man nur ganze bestimmte Rechenaufgaben von einem Vektorprozessor ausführen lassen kann. Im Groben sind das Sachen die immer gleich aufgebaut sind, nur mit anderen Werten.

Daher wird sowas nicht viel bringen, im Bereich der allgemeinen Performance.
Man geht lediglich den Weg weg von Insellösungen hin zu Chips, die alles integriert haben, eben weil man so auf externe Bussysteme verzichten kann.

Ziel wird es wohl sein, dass man ein SoC baut, der unsere grauen Kisten ersetzen kann und dabei nicht wesentlich größer ist und dennoch eine nicht zu verachtenen Rechenleistung hat.

Da nimmt man nur noch das SoC, schließ seine Monitor, Tastatur, Maus, ODD, Audio an und das wars.
Bauen könnte man sowas schon heute, nur wäre die Rechenleistung nicht zu gebrauchen, bzw würde wohl nicht so gut am Markt landen, cool wärs trotzdem.
 
Zuletzt bearbeitet:
Diese ist ja augenscheinlich um ein vielfaches potenter als die CPU und damit dürfte bei weniger Stromverbrauch mehr Leistung möglich sein, was in jeder Hinsicht ein voller Gewinn wäre.
Vielleicht sollte man zuerst einen Blick auf die Green500 werfen. Dort führt das Prototypsystem für die neuen BlueGene/Q von IBM mit einem PowerPC A2 Derivat im Performance/Watt Vergleich. Das ist eine klassische CPU mit 16+1 Kernen (16Kerne zum Rechnen einer für die Verwaltung) und vierfach SMT, d.h. 64 nutzbare Threads. Diese CPU kann 64 unterschiedliche Threads ausführen, bei einer GPU ist man immer daran gebunden, daß die Threads auf Vektoren oder Matrizen arbeiten müssen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh