CPU-Entwicklung zu langsam!

BinniBanni schrieb:
zwischen intel und amd lag nie ein großer unterschied! intel war halt da ein bissl schneller und amd dafür in spielen!
"spielen" das wars was die meisten wollte und auch die größten resourcen verbrauchte, darum, aus genau diesem grund ist amd momentan beliebter.

was echt helfen würde wäre eine komplette neuentwicklung in der softwarebranche OHNE RÜCKSICHT AUF ABWÄRTSKOMPATIBILITÄT, alles von neu aufbauen, hardware und software aufeinander optimieren! ich denke daraus könnte man einen leistungszuwach gewinnen der enorm wäre!

überlegt euch doch mal, ich kann software verwenden die schon fast 15jahre alt ist!! da kann ja nur die ausnutzung der hardware schlechter werden.

ein neu beginn, auf andere architektur setzen (z.B. cell) die möglichkeiten wären fast unbegrentzt ohne die rücksicht auf die software.

stellt euch doch mal vor eine völlig neue grafikschnittstelle (wie alt ist eigentlich direct3D?)

betriebssystem und anwendungen von anfang an auf mehrere kerne *träum*

könnte z.B. so aussehen:

Cell-Prozessor mit 8-Kernen a 3.2 Ghz
2GB XDR Ram
Grafikkarte mit 20MB embedded ram.....

und dann eine auf solche systeme abgestimmte, neuentwickelte hardware!

PS: bischen fantasie darf man noch haben, oder ;)


eine neuentwicklung ist in dem system nicht möglich wovon du rest nennt sich MAC oder Sparc, das sind systeme die aus einem guss sind. du kannst nicht verlangen das eine X86 neumann architektur sich von ihren grundsätzen trennt. weil wenn sie es tut ist es eine andere. und wenns eine andere ist, ist sie nicht mehr so populär. und wenn was nicht so populär ist bekommst du dafür schwer spiele oder programme.

ich denke darum steigt ja auch intel kommplett um und sucht sich einen anderen weg. weil die x86 architektur wird nicht mehr lange leben können, da die grenzen 2010 erreicht sein werden, was nicht mehr lange ist.
und das was du dir vorstellst ist schon möglich aber halt nicht als PC (personal computer) sondern eher als workstation oder als firmen pc bzw. server. weil 1. teuer und 2. die software zugeschnitten werden muss.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was ist eigentlich aus der quantenmechanik geworden?
vor 1-2 jahren gabs da mal regelmäßig was in der c't zu, seitdem die da nicht mehr so viel drüber bringen ist mir das thema auch mehr oder minder aus dem gedächtnis gefallen.

ich denke wenn etwas als absolute neuentwicklung angepriesen werden könnte, dann das. damit dürfte man jedoch leider erst in 20-30 jahren rechnen können, oder gibt es hier jemanden, der sich mit der materie etwas auskennt und mehr berichten kann? würde mich echt mal brennend interessieren darüber mehr zu erfahren.
 
"Wiederverwendung ist ein POSITIVES Qualitätsmerkmal von Software!"
Im Fall von Windows und einigen Grafiklastigen EA Spielen wohl eher nicht (!!!)
Soweit ich mich an meine 2 Semester erinnern kann war Perfektionismus, saubere, einfachste Codes wichtiger als von anderen zu klauen (=wiederverwertung).
Und wenn "Können" beim Programmieren durch schlechte Masse ersetzt wird, dann brauchen wir wirklich noch weiterhin schnellere GPUs CPUs.... nicht um wirklich mehr Leistung zu bekommen, sondern damit Vista auch flüssig läuft und hübsch anzusehen ist.. und damit MS weiter Informationen Sammeln kann :d
damit auch der 10te Aufguß von COD, BF oder MoH nicht zu arg ruckelt weil die uralt Engine überreizt wird um dem dummen Käufer etwas Neues zu bieten.

Ein klares Konzept müsste her, aber dafür will weder MS noch irgendwer sonst wirklich Geld ausgeben.. Stattdessen werden wir Kunden am laufenden Band mit Superlativen beworben während das Rennen dann doch das Bessere macht (z.B. der Mp3 Codec; das gilt natürlich nicht für "packen wir's zum KomplettPC"; da zählt die Nutzermasse die den Markt bestimmt).
Von den TV Rechnern sind wir noch weit entfernt, ich sage einmal "Gottlob" dazu, weil's mich wirklich nerven würde wenn's nur noch Fertigrechner gäbe, ohne viel Einstellmöglichkeiten, die man auch direkt in den Müll wirft statt den Lüfter auszutauschen....
 
NackterGolfer schrieb:
Von den TV Rechnern sind wir noch weit entfernt, ich sage einmal "Gottlob" dazu, weil's mich wirklich nerven würde wenn's nur noch Fertigrechner gäbe, ohne viel Einstellmöglichkeiten, die man auch direkt in den Müll wirft statt den Lüfter auszutauschen....

fällt dir auf das du genauso redest wie die administratoren der rechner der 60er jahre?
die sagten damals wie kann man nur computer zum spielen verwenden, das wäre doch glatte verschwendung.
was brauchst du für einstellungen?
du brauchst dann keine neue hardware mehr alle paar jahre. du kannst die spiele on demand haben. das heißt das du nix installieren musst. die spiele und alles andere läuft immer flüssig, weil du dich da nicht drum kümmern musst. es scheint so als hättest du mich nicht verstanden, oder du kannst es dir nicht vorstellen was ich versuche auszudrücken. wozu das ganze klimbim wenn es nur da drum geht dieses oder jenes vernünftig zum laufen zu bekommen.
 
Hi !

Nun ich begruesse die "neue" Richtung der CPU Entwicklung:

Ich finds gut, das man nun mehr und mehr auf den Energieverbrauch Ruecksicht nimmt (daher finde ich es auch gut, das die Effizenz der Netzteile im Grunde drastisch erhoeht wurde), desweiteren das SMP (Multikern) find ich auch richtig.

Denn das Problem ist doch, das viele Softwareentwicklungen in der letzten Jahren davon gepraegt waren, uneffektiv und verschwenderisch mit den Resourcen umzugehen. Da wird nicht mehr optimiert, da wird das so gelassen wie es ist, kostet doch nur noch Zeit und der Kunde soll gefaelligst die neuste und schnellere Kiste ordern, wenn das "Hello World" mal nicht schnell genug laeuft. Praktisches Beispiel bei uns in der Firma: Da wurde eine Software getauscht, die nun unter Windows laeuft, die macht aber nichts mehr oder besser. Trotz schneller Maschinen ist es schnarchlangsam, uneffektiv, unflexibel und nur ein wenig bunter. Achso, unstabiler hatte ich vergessen. Das mit dem Unstabil kann man ja immer noch dem Windows unterjubeln, das es schnarchlangsam, dann kauft euch schnellere Rechner... unflexibel und uneffektiv -> war so gewuenscht :d Und diese Mentalitaet zieht sich durch alle Bereiche der EDV. Mal schlimmer, mal weniger schlimm... ausserdem, auch in der EDV gelten die Regeln der Physik, das die Entwickler der CPUs Genies sind, die es immer wieder schaffen, trotz den physikalischen Gesetzen immer wieder die Grenze nach oben zu verschieben, sollte beeindrucken... schon vor 10 Jahren hat man gesagt, das das Ende der Taktzeit in allernaechster Zukunft bereit stehen wuerde (die magischen 1000 Mhz vor Augen) Jetzt sind wir kurz vor den 5000 MHz und all den anderen Punkten wie Energiesparen und Multicore...

Cu.
 
flyingjoker, nein ich will gar keine Spiele "on demand" spielen.. wozu? Nie mehr selber an Spielen herumwerkeln, Maps bauen, Grafik verbessern, nie mehr Tonspuren optimieren, DVDs von Konzertmitschnitten erstellen, im Internet nie mehr Fotos perfekt bearbeiten?! Nie mehr viel Software zur verfügung haben die ihren Sinn hat, alles nur für die Schnarchnasen die keine Entwicklung mehr mitmachen wollen und gerne den 0815 Rechner am TV hängen haben? Ich wäre froh wenn andere Elektrogeräte wie PCs aufgebaut wären, dann könnte man kräftig an den Details sparen.. z.B. bei TVs selber, oder auch DVD Playern in die man eine Festplatte integrieren kann.. wenn man will. (Das ist Kundenfreundlich!! Modularer Aufbau..). Aber eine Box im TV zu haben.. nein, was die Spiele betrifft darfst du dir dann trotzdem wohl jedes halbe Jahr eine neue kaufen, an dieser Entwicklung wird sich vorher nichts ändern.
 
eine Frage hätte ich noch, und zwar: anscheinend wird die zukunft ja multicore sein, die ersten quadcores sind schon für anfang 07 geplant usw.
Aber... Die Programme werden jetzt auf Dualcore angepasst so das die Aufgaben auf zwei Kerne verteilt werden doch wie sieht es dann wieder aus wenn mehr Kerne ins Spiel kommen :fresse: ? ist es dann wieder das gleiche wie von singlecore zu dualcore? wird sich das immer so fortsetzen?
oder lieg ich mit der vermutung ganz falsch und es wird von anfang an auf multicore programmiert und fertig is das ganze für die zukunft??
 
@ binni banni

also ich denke, dass es von Dual- auf Quadrocore zwar ne Umstellung, aber die Entwickler dann wenigstens schon nen Ansatz haben, den man auf Quadro oder mehr umbauen kann :)
 
so eine komplette neuentwicklung der PC plattform würde bestimmt unheimlich viel an performance bringen, wäre aber blödsinn.

1) die X86 PC Architektur steht dafür, dass sie eben abwärtskompatibel ist
2) Kannst du nicht die ganzen X86 User im regen stehen lassen

Das was du dir vorstellst ist eine plattform die aufs spielen optimiert is... hey man, kauf dir ne PS3 und lass es gut sein.. PCs waren, sind und werden nie spielzeuge sein.
 
coconut schrieb:
Genau das ist aber der Punkt.
Seit aufkommen von z.b. Visual Basic blähen die Programmcodes immer mehr auf, ohne besser zu sein.
Hast du schon mal versucht nen Pascal Programm mit 5.000 Codezeilen zu verstehen und dann mal nen C++ Programm mit der gleichen Anzahl an Codezeilen die beide die gleiche Aufgabe erfüllen? Ich glaube bei dem C++ Code kommst du um ein vielfaches schneller voran!
coconut schrieb:
Ein aufgeblähter Code läuft nun mal langsamer, als es sein müßte.
Grundsätzlich FALSCH! Es kommt darauf an, welcher Algorithmus implementiert wird. Eine Matrix Multiplikation nach der Schulmethode implementiert braucht n^3 Multiplikationen, wenn es sich um eine n x n Matrix handelt. Bei Strassen sind es dagegen nur n^2,781 Multiplikationen. Nur der Unterschied ist halt, das die Schulmethode in 3 Zeilen aufgeschrieben werden kann und das man für Strassen halt mindestens 10 Zeilen schreiben muss. Die Anzahl an Instruktionen oder Befehlen ist kein Maß für die Qualität von Software. Genausowenig ist sie ein Maß für die Effizienz eines Programms.

coconut schrieb:
Vor vielen Jahren kam ja das damals sog. "Russen DOS" auf.
Rein in Assembler programmiert. Viel schneller als das MS-Dos und statt 5 disketten, paßte das auf eine.....ohne weniger zu können...
Und warum ists wieder verschwunden? Weils keiner warten konnte...

coconut schrieb:
Möglich wäre das auch noch heute, Maschienennah programmieren. Kostet halt mehr Zeit und man braucht richtige Programmierer.
Du antwortest dir quasi selbst. Willst du für ne einfache Windowslizenz 1 Million € bezahlen? Ich glaube nicht!

coconut schrieb:
Es wird immer schlampiger programmiert
Ich weiss ja nicht wo du arbeitest, aber ich glaube du solltest dich mal schnell nach ner neuen Stelle umsehen, denn die Firma bei der du arbeitest wirds nicht mehr lange geben.

m0rf schrieb:
was ist eigentlich aus der quantenmechanik geworden?
vor 1-2 jahren gabs da mal regelmäßig was in der c't zu, seitdem die da nicht mehr so viel drüber bringen ist mir das thema auch mehr oder minder aus dem gedächtnis gefallen.

ich denke wenn etwas als absolute neuentwicklung angepriesen werden könnte, dann das. damit dürfte man jedoch leider erst in 20-30 jahren rechnen können, oder gibt es hier jemanden, der sich mit der materie etwas auskennt und mehr berichten kann? würde mich echt mal brennend interessieren darüber mehr zu erfahren.
Sowas fliesst schon längst mit in die CPU Entwicklung mit ein, wenn auch nicht in derart starkem Maße, dass es das Marketting schon für sich entdeckt hat. Inwieweit kann ich aber auch nicht sagen.

NackterGolfer schrieb:
Im Fall von Windows und einigen Grafiklastigen EA Spielen wohl eher nicht (!!!)
Soweit ich mich an meine 2 Semester erinnern kann war Perfektionismus, saubere, einfachste Codes wichtiger als von anderen zu klauen (=wiederverwertung).
Wie ich schon oben erwähnt hat. Ich will keine Million Euro für meine Windowslizenz bezahlen (naja, gut ich hab sie ja auch für umsonst gekriegt - Stichwort Campuslizenz :cool: )
Mich würde echt mal Interessieren wo du studiert hast. Es kann keine fehlerfreie Software geben (das kann man Mathematisch beweisen!). Ja natürlich ist es wichtig saubere einfache Codes zu schreiben. Aber Wiederverwendung hat bestimmt nichts damit zu tun etwas von anderen zu "klauen". Wiederverwendung zeichnet sich durch Abstrakte Programmierung aus, die dann für den konkreten Anwendungsfall spezialisiert wird (Stichwort Templates bei C++).

@BinniBanni
Es kommt darauf wann wie die Software designt wurde. Wurde sie speziell für nur 2 Cores ausgelegt, dann ist es das selbe wie von Single zu Dualcore. Wurde sie hingegen völlig unabhängig von einer Kernanzahl für mehrere Kerne designt, dann bedarf es keiner Änderung. Ein gutes Design ist deshalb eines der herausragensten Qualitätsmerkmale von Software.

Noch mal was zur CPU Entwicklung allgemein:
Ich komm grad aus der Vorlesung Rechnerarchitekturen 2. Unser Prof meint, dass die RISC Prozessoren demnächst wieder vermehrt aufkommen werden. Schon jetzt sind die Pentium K8 Modelle ja eher verkappte RISC Prozessoren, als CISC. Der Grund liegt daran, das Optimierungen vom Compiler her viel besser möglich sind. Auch die Mikroparallelität (bit oder wortparalleles arbeiten) lässt sich dadurch viel einfacher verwirklichen. CISC gibt es jetzt nur noch aus den Gründen die MajPay schon erwähnt hat.
 
SpaceTrucker schrieb:
Grundsätzlich FALSCH!

Widerspruch. Ich habe mich vielleicht nicht klar genug ausgedrückt. Für mich stellt sich die Frage ob ich z.B, den ganzen Firlefantz brauche.
Vergleich doch einfach mal Multiplan mit Excel beide mit der gleichen Aufgabe betraut. Dann merkst Du schnell was ich meine.

Und warum ists wieder verschwunden? Weils keiner warten konnte...

gab's länger als MS DOS und taucht manchmal sogar noch heute auf.....

Du antwortest dir quasi selbst. Willst du für ne einfache Windowslizenz 1 Million € bezahlen? Ich glaube nicht!

Leicht übertrieben... :cool: Gibt es da nicht z.B. sowas wie Linux? Nur mal so als Anmerkung. Ist schon deutlich besser als z.B. Windows. Warum? Weil intelligenter aufgebaut, auch wenn es nicht Maschinennah programmiert ist, ist es dennoch besser programmiert und fühlbar schneller. Mit Maschinennah, sollte eh nur als Beispiel stehen, wo überall (System-)recourcen verbraten werden

Ich weiss ja nicht wo du arbeitest, aber ich glaube du solltest dich mal schnell nach ner neuen Stelle umsehen, denn die Firma bei der du arbeitest wirds nicht mehr lange geben.

Irrtum, die wachsen und wachsen....und wer sagt dir das ich schlampig arbeite? Ich behaupte ja auch nicht von Dir Du würdest das tun. Also bitte nicht persönlich werden, nur weil ich anderer Meinung bin.
Es war nur eine allgemeine Anmerkung. Du brauchst doch nur mal zu beobachten, wieviel fehlerhafte Software auf den Markt geworfen wird. Bestimmt nicht, weil sorgsam gearbeitet worden ist. Perfekt ist zwar eh nicht möglich, aber zumindest sollten grobe Fehler nicht auftreten.
Am wenigsten Probleme habe ich witzigerweise mit Freeware!! Warum wohl?
Weil die Jungs das aus Freude und mit Begeisterung machen und nicht nach optimierten Gewinnen schielen.


Noch mal was zur CPU Entwicklung allgemein:
Ich komm grad aus der Vorlesung Rechnerarchitekturen 2. Unser Prof meint, dass die RISC Prozessoren demnächst wieder vermehrt aufkommen werden. Schon jetzt sind die Pentium K8 Modelle ja eher verkappte RISC Prozessoren, als CISC. Der Grund liegt daran, das Optimierungen vom Compiler her viel besser möglich sind. Auch die Mikroparallelität (bit oder wortparalleles arbeiten) lässt sich dadurch viel einfacher verwirklichen. CISC gibt es jetzt nur noch aus den Gründen die MajPay schon erwähnt hat.

Das stand vor ca. 8 Jahren schon mal so da. So langsam glaub ich nicht mehr dran. Im Prinzip wäre das von Anfang an die bessere Basis gewesen.
Das Problem bleibt halt immer das gleiche, jede Grundsätzliche Änderung würde den Firmenkunden sagenhafte Summen kosten. Da machen die einfach nicht mit. Sei es Hardware oder Software. Ich glaube, das ist auch mit ein Hauptgrund, warum es machen so erscheint, das es kaum noch vorran geht.
Man braucht sich doch nur mal vorzustellen, was für immense Investitionen nötig wären.
Wenn das Ganze dann einfach wirtschaftlich abgewogen wird, bleibt große Innovation immer auf der Strecke. Weil das keiner bezahlen will und damit seine Gewinne schmälern und damit die Aktionäre vergrellen möchte.
Dann wäre auch ganz schnell schluß mit lustig.
So nach dem Motto, wir sind irre innovativ, aber Pleite....

Meine Hoffung geht eher dahin, das zumindest systeminterne Flaschenhälse, wie z.B. Festplatten und Busprotokolle u.ä. gründlich renoviert, bzw. ersetzt werden.
Bei Festplatten z.B. durch optische Speicher oder evt. Flash drives. Vor Jahren hat IBM schon mit optischem Speicher (Kristalle) geforscht. Das wäre mal ein richtiger Leistungsschub in der Systemperformance und viel effizienter als eine 50% schnellere CPU.......
 
huuuuhhiii... da gehts ja zur sache. Ich glaub manche leben hier im traumland. Aber geile vorschläge sind schon dabei... obs funktioniert sei mal ne ganz andere sache :fresse:
 
Sobald die neuen UV-Standarts industriefähig sind, wird man auf industrieller Basis auch mehr Transistoren auf den cm2 bringen.

Habe letztens eine Doku gesehen. Darin wurde der Fertigungsprozess eines Prozzis gezeigt.

In erster Linie hängt das Ganze ja davon ab, wie klein man die Architektur projezieren kann.

Darin sind Osram und Phillips die führenden Firmen weltweit. Die entwickeln ständig neue UV-Blitze... im Nanometerbereich. (Sind wahrscheinlich bei 65nm, nehme ich an, da Intel ja mittlerweile produziert)

Das einzige Problem beim Projezieren sind die Lupen, da es sozusagen kein natürliches Materiel gibt um diese Lupen herzustellen.

Hatten sie bei der 130 nm Technologie noch 30 Materialien um die Lupen herzustellen, (das sind übrigens Lupenblöcke von ca. 30- 50 Lupen in einem 2 - 3 Meter hohen Block, alle ineinanderverschachtelt, welche das "Bild" der Transistoren auf die Platinen brennen), dann haben sie für die 90nm Technologie nur noch 2 Materialien gehabt.

(Wie's dann weiterging, weiss ich nicht mehr genau, sie muüssen glaube ich komplett umdenken, um noch mit noch kürzeren UV-Blitzen arbeiten zu können. (Projektion der Pläne)

....

Diese Materialien (Kristalle) müssen sie selber monatelang wachsen lassen und dann noch extrem lange und auf millionstel genau wochenlang schleiffen.

In diesem Beitrag hiess es, dass wenn dieser neue Standart industriefähig würde, dann die Prozessoren theoretisch bis 1000x schneller sein können.

Es geht ja schlussendlich nur darum, wieviel Transistoren man auf einen cm2 bringt.

Kürzere Wege = schneller = weniger Strom (eben wegen dem kürzeren Weg).

Dies kann man ja verfolgen. Man schaue nur die Entwicklucng seit den Athlon XP an.

Und bei den Grafikkarten ging's ja massiv zu und her.

Um zurückzukommen...

Diese UV-Technik wird übrigens auch bei neuen Lösungsmittelfreien Lacken verwendet.

Da haben sie von ca. 30 cm Lacktropfen zwischen 2 Blitzapparaten fallen lassen. Als der Lacktropf da durch fiel, wurde der Blitz ausgelöst, und der "Tropf" kam unten (20 cm später) bereits völlig getrocknet an. (Dies ist auch UV-Blitz Technologie abhängig.

(UV-Licht mit bereits einigen längeren Zeiten sind zum Beispiel Antiseptisch. Da überlebt kein Virus.)

....

Ja... die UV-Technologie hat's in sich.... je weiter sie da voran kommen, desto schneller werden auch unsere Prozzis.

Klar müssen sie nach dem "Brennen" auch noch das Ganze Fertigen, aber das geht schon... irgendwann dann. AMD ist ja mittlerweile dran. In Dresden wurde ja vor einigen Tagen das neue Werk eröffnet, wo AMD bereits erste Serien von Prozzis in 65nm herstellt. (Nachzulesen bei AMD Homepage, Datum ca. 7.4.2006)


Diese Sendung war, wenn's mir Recht ist, auf NANO.

Es ist jetzt zu spät. Aber ich werde mich dann noch dranmachen einen Filmbeitragslink zu finden oder einfach einen Bericht.

Bei Phillips oder OSram sollte man auch was finden.

Dies sind je spezielle eigenständige Firmen der beiden Konzerne...

Heissen irgendwas mit Phillips + UV. Bei Osram das Gleiche.

Übrigens geht ein Grossteil der Kosten zur Herstellung von Chips auf die UV-Technologie.

Das ist ein MultiMilliarden-Geschäft für Osram und Phillips.

Deswegen machen sie sich auch daran weiterzukommen.

Wie gesagt, das war eine Spitzendoku.

Wenn ich was finde, setze ich's hier sichtbar ein.

Aber jetzt muss ich mich mal erst auf's Ohr legen.

Melde mich wieder, wenn ich was finde...
 
simkess schrieb:
Ich behaupte jetzt einfach mal, dass man mit aktuellen System PS3 Grafik darstellen könnte. Locker. Es fehlt einfach an der sauberen Programmierung. (Zeitdruck, Wer würde schon ein Game für 100€ kaufen? und die große erwartete Kompabilität sind natürlich das Hauptproblem). Siehe PS2 -> Für die paar Mhz und wenig Ram unglaubliche Grafik! Jedoch auch erst mehrere Jahre nach deren Release -> Entwickler wissen die Hardware zu nutzen. (Dreamcast auch gutes bsp).
&
fooki schrieb:
also wenn amd und intel mich mal in die entwicklungslaboratorien herein lassen würden.. ich glaube ich würde dann vor schock umkippen was für prozis die da drinne haben ;)
Jepp *zustimm*

NackterGolfer schrieb:

Aber wenn ich sehe das Firefox schonmal 250MB RAM braucht (sich einfach so mopst) denke ich das heutige Software viel zu verschwenderisch mit der "High End" Hardware umgeht..früher gings auch mit 20MB RAM; wahrscheinlich könnte man noch heute das meiste mit einem 600Mhz Rechner erledigen, wenn die Programmierer mal sauberer und durchdachter arbeiten würden.
...
Ja das sehe ich auch so. Entweder haben die Entzwickler nicht genug Zeit um das ganze Effizienter zu Progen oder die meisten haben einfach keine Ahnung vom Richtigen Progen. Es könnte aber mit Sicherheit auch daran Liegen, das WinXP der Flaschenhals ist und deswegen mehr Ressourcen verschwendet werden müss, um annehmbare Geschwindigkeiten zu erreichen.

storm.web schrieb:
also die grafikpower der ps2/3 mit einem PC zu vergleichen hinkt total....haste schoma probiert, wirklich auch nur annähernd mit jetziger hardware ne ps2 zu emulieren? da scheitert auch noch so aktuelle hardware kläglich, da die SPIELEkonsolen eben auch nur genau darauf programmiert werden....das ist einfach nicht mit einem PC (allround system) zu vergleichen...
wir brauchen jetzt schon riesige resourcen um ne ps2 emu am laufen zu halten....ps3 wird wohl nich hinhauen... auch nicht mit zukünftiger hardware ausser es gibt dann themenspezifische hardware ala spiele pc, multimedia pc, office pc (und auch wirklich nur auf diese gebiete ausgerichtet)
HALT! Ich glaube du hast simkess nicht richtig verstanden! Es geht nicht darum die PS2 oder SP3 auf dem PC zu emulieren ;) sondern darum das es bestimmt möglich wäre Spiele zu Programmieren die auf heutiger PC-HW genauso geil aussehen würden wie auf na PS3. Wen sich die Programmiere mehr Zeitlassen würden um ihren Source-Code zu Optimieren (dazu zählt sicherlich auch MS DirectX-Shit gecode ;) ), dann hätten wir schon Längst diese Grafik die es auf der PS3 zu sehen geben wird. Das ist aber alles nicht so einfach zu Realisieren weil es sehr viel Entwicklungszeit und Geld erfordert um so ein Spiel zu Programmieren das auch wirklich zu 97% mit jeder HW Konstellation kompatibel ist. Es wäre aber durchaus machbar!

Man sieht doch schon das die Grafikkarten heutzutage nicht richtig ausgereizt werden oder ? Kaum wahr die GF7800 draußen kommt schon die GF7900. Und die PS3 wir auch nur ein Speziell angepassten GF7800 Graka-Chip haben, und viel geilere Grafik auf den Bildschirm Zaubern als jedes PC-Spiel was bis dato rausgekommen ist --> da kann ich nur sagen *lööööööööööööööööl*. Und genau das ist der Tenor von simkess Ausagge (Mutmaßung meiner seits? ;) NÖ, denke mal nicht!).

Wenn ne PS3 mit GF7800 so was kann dan kann es ein PC mit GF7800 auch ;) Bloß der Aufwand ist größer und ob es sich rechnet??? Hmmm, ich denke schon. Wenn das Game so ne endgeile Grafik hinzaubert (Wie auf na PS3) dan bin ich auch bereit 100€ zu löhnen! Die Shit-Box Games kosten ja auch so ca. 70€ ;)

EDIT
@Topic: Ich bin auch der Meinung das die Physikalischen grenzen von SingleCores CPUs schon lange erreicht worden sind. Die Protonen (? Oder wie sich die teile nennen ^^) fangen bei noch geringere Abmessung an (von der chip struct jetzt ;) ), aus ihren bahnen zu hüpfen ^^ (Ob es stimmt weiß ich nicht, hat mir mal einer erzählt )


Des weiteren ist die Verlustleistung jetzt schon viel zu groß. Noch höhere Verlustleistung ist mit Konventioneller LuKü nicht mehr zu Kühlen. (Die jetzigen Standardkühler von AMD/intel sind jetzt schon nicht mehr in Stande für vernünftige Tems)

Deshalb denke ich das den Mulit-Cores CPUs die Zukunft gehört und das Single CPUs, in 2 Jahren, ein Relikt der frühen PC-Zeit sein wird, über die 2010 nur noch gelacht werden wird von der Jüngeren Generation ;) In sehr ferner Zukunft (2015) werden wir es dan wohl auch mit 16 Core zu tun haben die mit KompKü auf Minus Temps gehalten werden…

Bloss bis das dan so weit ist, muss die CPU Architektur total vom alte x86 wegkommen, um es zu erlauben auf einfacher art und weiße ein Code zu schreiben für ein Programm. Diese jetzige Herangehensweise Code zu Progen um den Cores ihre aufgaben zuzuweißen ist total beschießen, Ineffizient und fehleranfällig. Das ganze müsste von der CPU selbständig verteilt werden. Ob das Möglich währe so ne Architekutr zu erzeugen weiß ich nicht, da ich kein Proger oder CPU Hersteller bin, aber wo ein Wille auch ein weg oder?

My 5 Cent zu dem Thema…
 
Zuletzt bearbeitet:
Hi !

Ohje... also fangen wir mal damit an, DualCore zu QuadCore, umstellung des Codes ? Im Grunde nein, wenn einmal ein Source sauber auf SMP umgestellt ist, dann profitiert dieser dann auch von mehreren CPUs. Nur muss man dann eben vieles in Threads verlagern um die Moeglichkeit der Multicoretechnik auch auszunutzen. Wobei, hier liegt ein grosses Problem bei Windows in meherer Hinsicht: einerseits ist das SMP von Windows zwar innovativ aber auch recht ineffektiv programmiert, haetten sie damals als sie damit anfingen jemanden fragen sollen, der sich damit auskennt :d Naja, MS hat viel Overhead in seinen SMP hineingezaubert was das Ganze ein wenig ausbremst, aber man kanns heutzutage _fast_ vernachlaessigen. Ein Problem bei den Multicore und Windows seh ich im Bereich Treiberentwicklung, da auch die Treiber SMP tauglich sein muessen, Stichwort Spinlock etc.pp. Und wenn ich mir so ansehe, wie lange die Treiberprogrammierer gebraucht haben von WinDOS auf NT/XP umzustellen :d Das andere Problem sind die Programmierer unter Windows: ein heisses Eisen, es gibt unter Windows eine Menge Programmierer, viele Gute und sehr Gute aber auch eine Menge Schlechte. Unterstutzt wird das Ganze noch von solchen Dingen wie VB und den ganzen Buntiklicki RAD Systemen, wo man eine Anwendung innerhalb von ein paar Minuten zusammenklicken kann. Das verleitet den Programmierer aber auch die Geschaeftsleiter oefters dazu ueberhastet was hinzurotzen bzw. was zu schnell zu verkaufen (Kaufleute verkloppen gerne schneller als das was sie haben, finden das auch noch geil und meinen, sie haetten Lagerkosten eingespart :d )
Das Problem mit aus der Leiterbahn hopsenden Elemente hat man ein wenig nach hinten verschoben, indem man andere Stoffe genutzt hat.
RISC/CISC... Compiler fuer RISC zu optimieren ist schwerer als fuer CISC :d Aber es wurden schon in den letzten Jahren viele RISC Techniken in den modernen CPUs verwendet. IMHO ist es sogar so, das es im Grunde ein RISC CPU ist, wo nur noch eine CISC Emulation drueber geflanscht ist. Denke mal, der naechste Schritt ist wieder die Materialforschung, Optische/Oganische Materialien/Signale. Schneller bzw. zielgerichterer und fehlertoloranter. Das wird noch einiges rausholen.
Und das immer speziellere CPUs (die von der GraKa ist ja auch nur ein spezielle CPU) fuer gewisse Anforderungen eingebracht bzw. verbessert wird, erhoeht auch die Geschwindigkeit...wir werden auch in Zukunft viel Geld in die CPU Technik stecken koennen, ohne uns zu fragen, sit der wirklich schneller als mein Vorhergehender :d

Cu.
 
theblind schrieb:
.....
Und das immer speziellere CPUs (die von der GraKa ist ja auch nur ein spezielle CPU) fuer gewisse Anforderungen eingebracht bzw. verbessert wird, erhoeht auch die Geschwindigkeit...wir werden auch in Zukunft viel Geld in die CPU Technik stecken koennen, ohne uns zu fragen, sit der wirklich schneller als mein Vorhergehender :d

Cu.

Hat doch eigendlich schon angefangen :rolleyes:
Schau mal was AMD (vermutlich) vorhat. Einen gesonderten Co-Pro einzubinden, der nichts anderes als FP Berechnungen macht....! Nachdem was bisher bekannt ist, ist der ca.5x so schnell wie die z.Zt. integrierte FPU....
Das wird sicher auch ein Weg sein. Vielleicht braucht es in der Zufunft keine gesonderte GraKa mehr..16 Core's sind schon in der mache, also warum nicht 1 oder 2 oder 3....für die Grafikberechnung nutzen....
Dann werden GraKa zum Luxus :d
Wäre doch denkbar, eine CPU die aus vielen spezialisierten Einheiten besteht...
 
coconut schrieb:
...
Wäre doch denkbar, eine CPU die aus vielen spezialisierten Einheiten besteht...
jo das fide ich cool. :) bloss was sol den so ne cpu kosten? bestimmt nicht billig...

EDIT: Oh man, ich habe mir mal jetzt den thread komplett durchgelesen. Jetzt merke ich das ich mir
meinen ersten post hätte sparen können ^^ das meiste wurde ja schon vorher gesagt ^^
Des weiteren stele ich fest das einige ansichten von mir nicht ganz richtig wahren (Sorry :(). Aber gott sei dank gibt es so eine Tolles Forum wie HW-luxx bei den man sich richtig informieren lassen kann, von Kompetenten usern *schleim :d*

Ich wede den Thread gespannt weiter verfolgen :)

Macht weiter so und LG Xtra9 :)
 
Zuletzt bearbeitet:
xtra9 schrieb:
jo das fide ich cool. :) bloss was sol den so ne cpu kosten? bestimmt nicht billig...
Worauf Du einen ....kannst. Billiger wird es damit nur theoretisch :motz:
Aber kleinere Systeme, sparsamer im Stromverbrauch ??? :rolleyes:
Laßen wir uns alle überraschen. Ich bin jedenfalls gespannt auf das was da kommt. ;)
 
coconut schrieb:
Widerspruch. Ich habe mich vielleicht nicht klar genug ausgedrückt. Für mich stellt sich die Frage ob ich z.B, den ganzen Firlefantz brauche.
Vergleich doch einfach mal Multiplan mit Excel beide mit der gleichen Aufgabe betraut. Dann merkst Du schnell was ich meine.
Solche Software ist aber für ne breite Masse von Anwendern geschrieben. Deshalb sind da Funktionen drin die halt die Masse braucht. Und die Masse braucht sie halt dann, wenn genau einer (oder halt auch nur relativ wenige) sie braucht.

coconut schrieb:
Leicht übertrieben... :cool: Gibt es da nicht z.B. sowas wie Linux? Nur mal so als Anmerkung. Ist schon deutlich besser als z.B. Windows. Warum? Weil intelligenter aufgebaut, auch wenn es nicht Maschinennah programmiert ist, ist es dennoch besser programmiert und fühlbar schneller. Mit Maschinennah, sollte eh nur als Beispiel stehen, wo überall (System-)recourcen verbraten werden
Richtig, natürlich kostet Linux nichts. Aber der Wert den eine Linuxlizenz hat ist nun mal in dem Bereich angesiedelt den ein entsprechendes Windowsprodukt hat. Na gut die Angabe mit der Million ist zu oberflächlich. Aber im Prinzip ist ja Linux nur kostenlos, weil viele (alle? hab keine Ahnung, bin kein Linux user) freiwillig und unentgeldlich daran gearbeitet haben. Deswegen steckt aber trotzdem der ganze Wert dieser Arbeit in dem Produkt.

coconut schrieb:
Irrtum, die wachsen und wachsen....und wer sagt dir das ich schlampig arbeite? Ich behaupte ja auch nicht von Dir Du würdest das tun. Also bitte nicht persönlich werden, nur weil ich anderer Meinung bin.
Es war nur eine allgemeine Anmerkung. Du brauchst doch nur mal zu beobachten, wieviel fehlerhafte Software auf den Markt geworfen wird. Bestimmt nicht, weil sorgsam gearbeitet worden ist. Perfekt ist zwar eh nicht möglich, aber zumindest sollten grobe Fehler nicht auftreten.
Am wenigsten Probleme habe ich witzigerweise mit Freeware!! Warum wohl?
Weil die Jungs das aus Freude und mit Begeisterung machen und nicht nach optimierten Gewinnen schielen.

War auch eher bissl ironisch gemeint, weil ich nicht davon ausgegangen war, dass du tatsächlich in der Branche arbeitest.
Die Tatsache, dass grobe Fehler nicht auftreten sollten ist zwar trivial, aber sie ist eben nicht umsetzbar. Warum sollten sonst arme Informatikstudenten, wie ich, sich in Vorlesungen wie Softwaretechnik rumquälen, wo ihnen eingetrichtert wird, das besonders auf die Entwurfsphase der Software ein besonders großes Augenmerk zu legen ist. Schon heute sind über 60% der Fehler die in einem Softwareprojekt gemacht werden Designfehler. Die werden wohl nicht weniger werden. Das ist dann keine schlampige Arbeit sondern halt die Komplexität die ein Softwareprojekt an sich hat.

coconut schrieb:
Das stand vor ca. 8 Jahren schon mal so da. So langsam glaub ich nicht mehr dran. Im Prinzip wäre das von Anfang an die bessere Basis gewesen.
Das Problem bleibt halt immer das gleiche, jede Grundsätzliche Änderung würde den Firmenkunden sagenhafte Summen kosten. Da machen die einfach nicht mit. Sei es Hardware oder Software. Ich glaube, das ist auch mit ein Hauptgrund, warum es machen so erscheint, das es kaum noch vorran geht.
Man braucht sich doch nur mal vorzustellen, was für immense Investitionen nötig wären.
Wenn das Ganze dann einfach wirtschaftlich abgewogen wird, bleibt große Innovation immer auf der Strecke. Weil das keiner bezahlen will und damit seine Gewinne schmälern und damit die Aktionäre vergrellen möchte.
Dann wäre auch ganz schnell schluß mit lustig.
So nach dem Motto, wir sind irre innovativ, aber Pleite....
Da muss ich mich anschließen. Dass das schon vor 8 Jahren so da war zeigt eigentlich auch, dass wir uns in einem Teufelskreis befinden. Bleibt nur zu hoffen das sich kleine Innovative Firmen da so langsam ihren Platz auf dem Markt schaffen, damit sich die großen dann auch mal bewegen.

Arkos schrieb:
In diesem Beitrag hiess es, dass wenn dieser neue Standart industriefähig würde, dann die Prozessoren theoretisch bis 1000x schneller sein können.
Das nützt dir auch nichts, wenn du im System irgendwo anders einen Flaschenhals hast. Die sind halt maximal so schnell wie ihr schwächstes Glied.
Das sieht man ja jetzt schon an den neueren GPUs. Die sind in 95% aller Anwendungen speicherlimitiert.

xtra9 schrieb:
dazu zählt sicherlich auch MS DirectX-Shit gecode
So schlecht ist DirectX nicht. Wenn man in der Spieleentwicklung tätig ist, wird man froh sein, sowas nutzen zu können, denke ich.

xtra9 schrieb:
Es wäre aber durchaus machbar!
Aus wirtschaftlicher sicht nicht. Und das ist doch das worauf es ankommt.

theblind schrieb:
Compiler fuer RISC zu optimieren ist schwerer als fuer CISC
Eigentlich ist genau das umgekehrte der Fall. Bei derzeitigen Prozessoren wie der Pentium und K8 Generation hat man keinen Einblick in den MikroProgrammspeicher. Deshalb tappen die Compiler oft im dunkeln welche Befehlsfolge von Makrobefehlen günstiger ist. Ein Probelm bei CISC Prozessoren ist auch, das viele Befehle unterschiedliche Laufzeit haben. Es kann sogar sein, dass ein und derselbe Befehl unterschiedliche Laufzeit hat, je nach Eingabedaten. Das macht es für einen Compiler schwerer vorherzusagen wann die nächste Aktion ausgeführt wird. Das ist zum Beispiel wichtig bei Speicherzugriffen. Wenn der Befehl in seiner maximalen Zeit ausgeführt wird, dann wird der Compiler es so einrichten, dass gleich danach das benötigte Datum vorhanden ist um weiter zu rechnen. Ist der Befehl jedoch kürzer liegt der Prozessor erst mal brach. All diese Probleme hat RISC nicht. Zudem kommt hinzu, dass die kleine Instruktionszahl das schreiben von Compilern erleichtert und deshalb mehr Zeit auf die Optimierung gelegt werden kann.

MfG
SpaceTrucker
 
@Space Trucker
Eigendlich sind wir ja ein wenig vom Thema abgekommen. Ich glaube wir wollten beide darauf hinweisen, sooo langsam sind heutige CPU's garnicht.
Die werden halt nur in vielen Bereichen ausgebremst. Sei es auf der Softwareseite, oder durch Hardwaremäßige Flaschenhälse. Würde man diese beseitigen (können) sähe das alles noch viel besser aus.
Andererseits, wer muß heute schon, wie es durchaus vor "ein paar" Jahren noch der Fall war, noch mit der Eingabe seine nächsten Wunsches (Befehl) warten, weil die CPU noch nicht fertig ist :p

PS. Ich war allein 16 Jahre bei Big Blue (IBM), aber nicht als "Softi", sondern als Techniker.... :drool:
Habe sozusagen den "Einstand" des PC's von der technischen Seite begleitet. Als erstes waren die Uni's dabei. Direkt gegenüber der (ehemaligen?) Geschäftsstelle ist die TU Berlin. Man, wenn ich daran denke. Allein ein MoBo kostete damals 3500,-DM....:eek:
Was haben wir doch jetzt für eine tolle Zeit... :)
 
xtra9 schrieb:
Deshalb denke ich das den Mulit-Cores CPUs die Zukunft gehört und das Single CPUs, in 2 Jahren, ein Relikt der frühen PC-Zeit sein wird, über die 2010 nur noch gelacht werden wird von der Jüngeren Generation ;) In sehr ferner Zukunft (2015) werden wir es dan wohl auch mit 16 Core zu tun haben die mit KompKü auf Minus Temps gehalten werden…

meiner meinung nach wird es da gar keine desktop rechner mehr in diesem sinne wie heute geben. ich bin eher der meinung, dass es nur so eine art terminals gibt, die ihre rechenleistung und alles nur übers netzwerk oder internet von riesengroßen servern beziehen. sowas in der art gibts ja heute schon
 
coconut schrieb:
Eigendlich sind wir ja ein wenig vom Thema abgekommen. Ich glaube wir wollten beide darauf hinweisen, sooo langsam sind heutige CPU's garnicht.
Die werden halt nur in vielen Bereichen ausgebremst. Sei es auf der Softwareseite, oder durch Hardwaremäßige Flaschenhälse. Würde man diese beseitigen (können) sähe das alles noch viel besser aus.
Andererseits, wer muß heute schon, wie es durchaus vor "ein paar" Jahren noch der Fall war, noch mit der Eingabe seine nächsten Wunsches (Befehl) warten, weil die CPU noch nicht fertig ist :p
Da hast du recht. Man sollte auch noch darauf hinweisen, dass die CPU Entwicklung ja nicht nur geprägt ist vom Gigahertzwahn sondern, vorallem auch in letzter Zeit, durch Neuentwicklungen wie Presidio oder Pacifica.

coconut schrieb:
PS. Ich war allein 16 Jahre bei Big Blue (IBM), aber nicht als "Softi", sondern als Techniker.... :drool:
Habe sozusagen den "Einstand" des PC's von der technischen Seite begleitet. Als erstes waren die Uni's dabei. Direkt gegenüber der (ehemaligen?) Geschäftsstelle ist die TU Berlin.
Krass. Hätte ich jetzt gar nicht erwartet. Aber vielleicht ist ja deswegen die Nostalgie noch so in dir (wegen dem Russen Dos ;) )

MfG
SpaceTrucker
 
SpaceTrucker schrieb:
Krass. Hätte ich jetzt gar nicht erwartet. Aber vielleicht ist ja deswegen die Nostalgie noch so in dir (wegen dem Russen Dos ;) )

MfG
SpaceTrucker

Nee. eigendlich gar nicht nostalgisch. Im Gegenteil.
Sonst hätte ich auch immer die falschen Job's gemacht. :cool:
Kenne das halt noch. Fand das damals irgenwie cool, das ein, mit mehr Funktionen ausgestattetes Betriebssystem als das MS-DOS, auf nur eine Diskette paßte.
MS hatte damals glaub ich schon 5 !!! :fresse:

Im Grunde genommen ist ja iBM "Schuld", das wir uns jetzt mit der X86 Architektur "rumärgen" müßen....
Trotzdem gut, das die damals damit angefangen haben. Wer weiß schon was wir sonst "schönes" hätten :hail:

Ich wünsche uns allen jedenfalls noch viele spannende Entwicklungen. Wenns geht, werde ich mir demnächst mal einen Intel D-805 zulegen. Für den Preis muß ich den einfach mal quälen :love:
Denke so 3400-3600 MHz sollte sicher drin sein. Dann dauert das Rendern meiner Filmaufnahmen nicht mehr so lange und es blockiert mir nicht immer den ganzen Rechner :d
 
Ich könnte mir folgendes Vorstellen:

Statt mit Transis und Strom zu schalten, wird sicher irgendwann mal die Zeit kommen wo die Lichtleiterwellentechnik alles ersetzt. Wäre doch mal ein vollkommen anderer weg; keine Abwärme/ el. Widerstand -auch wenn noch sehr weit weg.
Oder mit der Hilfe von Nanotechnologie, ich glaube damit kann man heute schon Supraleiter herstellen die bei ca. -160°C laufen. Was auch ideal für Prozessoren wäre.

Es tut sich was -keine Sorge!
 
Zuletzt bearbeitet:
ach, ich hab mal einen grafikengine programmierer getroffen (vor nem halben jahr) von der älteren generation (ca. 50 jahre oder so), hab mich mit ihm bestimmt 2 stunden unterhalten und er hat wirklich gesagt das es möglich ist mit gut geschriebenen code aktuelle spiele mit einem pentium 3 500 mhz und einer geforce 3 flüssig darzustellen.

das was ihn richtig angekotzt hat war das directx von microsoft, es wird zwar dem entwickler leicher gemacht aber man sieht es ja an der hardwareverschwendung.

er fand das opengl doch um vieles besser sei, aber leider es kaum noch jemand verwendet.

ich kann es ja bestätigen, spielt mal hl1 mit direct3d und dann mit opengl, bzw. unreal tournament bis einschließlich 2004

aber der hardwaremarkt muss ja ausgebaut werden, auch mit irsinnig vielen standard´s/entwicklungen/features die dann nie gebraucht werden :haha:
 
also ich finde es ist nicht schlimm das die cpus die aktuellen grafikkarten ausbremsen, schlimm finde ich für eine highend cpu 1000€ zu verlange die aber dabei nicht ansatzweise soviel transistoren hat wie eine X1900 die "nur 500-600€" kostet

ich wünsche mir eigentlich nur das man die preise entsprechent der leistung anpassen sollte also die schnellen cpus auch so teuer machen wie die schnellen grafikkarten...
 
Slicer schrieb:
also ich finde es ist nicht schlimm das die cpus die aktuellen grafikkarten ausbremsen, schlimm finde ich für eine highend cpu 1000€ zu verlange die aber dabei nicht ansatzweise soviel transistoren hat wie eine X1900 die "nur 500-600€" kostet

ich wünsche mir eigentlich nur das man die preise entsprechent der leistung anpassen sollte also die schnellen cpus auch so teuer machen wie die schnellen grafikkarten...
dann kosten die Grakas auch noch 1000 € ;)
 
King Bill schrieb:
das was ihn richtig angekotzt hat war das directx von microsoft, es wird zwar dem entwickler leicher gemacht aber man sieht es ja an der hardwareverschwendung.
:bigok: sag ich doch -> MS DirectX-Shit :xmas:
 
also nur mal so für mein verständniss:

mal angenommen wir hätten jetzt mein sys(siehe sig) nur mit einer ppu. wie stark wäre es maximal möglich die cpu zu entlasten?

was genau ist der unterschied zwischen risc(ibm?) und cisc(auch ibm?)???

fragen über fragen, aber diese diskussion darf niemand als sinnlos bezeichnen!
immerhin darf man ja nicht vergessen, dass wir nicht nur auf ms angewiesen sind und evtl. es bald gar nicht mehr sein werden(==>reactOS?)

da vorhin auch dx gefallen ist, was ist am dx10 so neu?

@king bill
und ja du hast recht mit openGL laufen die von dir genannten spiele schneller, (aber irgendwie hat mich die diskussion verwirrt)warum?

der fortschritt ist nicht aufzuhalten und so ist marketing das einzige, was uns erstaunen sollte(==>intel yonah=kein em64t/merom=em64t!!! reine geldmacherrei und zeitopferung!). was wären denn die möglichkeiten an ausweicharchitekturen im hinblick auf das angeblich baldige des x86(falls ich falsch ausdrücke,sry!)?
 
]Doom[PRAYER schrieb:
also nur mal so für mein verständniss:

mal angenommen wir hätten jetzt mein sys(siehe sig) nur mit einer ppu. wie stark wäre es maximal möglich die cpu zu entlasten?
was ist eine PPU ?

]Doom[PRAYER schrieb:
was genau ist der unterschied zwischen risc(ibm?) und cisc(auch ibm?)???

fragen über fragen, aber diese diskussion darf niemand als sinnlos bezeichnen!
immerhin darf man ja nicht vergessen, dass wir nicht nur auf ms angewiesen sind und evtl. es bald gar nicht mehr sein werden(==>reactOS?)
RISC --> http://de.wikipedia.org/wiki/RISC

Ein RISC-Befehlssatz verzichtet zugunsten einer hohen Ausführungsgeschwindigkeit und eines niedrigeren Decodierungsaufwands auf Seiten der CPU, konsequent auf komplexe Befehle, wodurch die Ausführung schneller als bei einem CISC-Befehlssatz ist.
Das ist nun mal der Vorteil. Mittlerweile sollten aber alle CPUs RISCs sein mit einer aufgesetzten CISCs "Oberfläche" (soweit ich die Ausführungen des threads hier verstanden habe).

]Doom[PRAYER schrieb:
da vorhin auch dx gefallen ist, was ist am dx10 so neu?
Siehe DX thread. Dort sollten einige Links gepostet sein. zB. Sol das neu DX Shader 4 unterstützen. Desweiteren wird RICHTIG aufgeräumt! Es sollen alle Grakas unter GF8 (schätze ich mal) nicht mehr unterstützt werden. Der Code wird wohl wider (meiner einung nach) nicht besoders Effizient Arbeiten --> Es wird Wohl wider sehr ressourcenverschwenderisch sein --> Eben M$ Shice Style!!!

]Doom[PRAYER schrieb:
@king bill
und ja du hast recht mit openGL laufen die von dir genannten spiele schneller, (aber irgendwie hat mich die diskussion verwirrt)warum?

der fortschritt ist nicht aufzuhalten und so ist marketing das einzige, was uns erstaunen sollte(==>intel yonah=kein em64t/merom=em64t!!! reine geldmacherrei und zeitopferung!). was wären denn die möglichkeiten an ausweicharchitekturen im hinblick auf das angeblich baldige des x86(falls ich falsch ausdrücke,sry!)?
Naja, die x86 Arch(E):-)D) wird uns wohl noch einige jahre verfolgen ;) Der Vorteil Ist ja nun mal die Abwärtskompatibilität. Ich denke das es sich aber auf dauer nicht halte kann, weil es eben zu Ineffizient gegenüber anderer Archs ist ;) Siehe Cell-CPU :d

und ja du hast recht mit openGL laufen die von dir genannten spiele schneller, (aber irgendwie hat mich die diskussion verwirrt)warum?
Weil das oGL Inter. viel sauberer geprogt ist und dadurch Effizienter arbeitet als das "Verbuggte" DX von M$-Shice ;)
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh