CPU-Entwicklung zu langsam!

BinniBanni schrieb:
Also ich hab jetz mir mal die neuesten prozessoren angesehn und hab festgestellt das die entwicklung von cpu's immer langsamer voranschreitet :hmm:.Also der schnellste singlecore prozessor bis jetzt ist ja der fx 57 und der is grade so schnell genug das er ne 7800gtx gerade mal so ausreitzt und das für 1000€!! im bezahlbaren segment 100-300€ stecken die prozessoren immer noch in der 3000-3500 mhz marke (intel äquivalent), und die können eine moderne grafikkarte nun wirklich nicht ausreitzen! früher war das doch so das immer die grafikkarten die grenze angaben! wie kommts nun dazu?? es soll ja nun noch sowas wie ne physikkarte geben die man sich dazukaufen muss um die nächsten spieletitel in bestem genuss spielen zu können obwohl die physik eigentlich komplett von der cpu berechnet werden kann! also ist die grenze von prozessoren erreicht????? helfen nur noch mehrere kerne weiter?????? also wie seht ihr das???
CPUs sind wesentlich komplexer als GPUs, weil deren Aufgabenfeld sehr beschränkt ist. Dafür haben sie eine sehr hohe reine Rechenleistung. Die 5950 Ultra hatte schon ca 20GFlops, aktuelle CPUs haben gerade mal 3 oder 4
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was is eigentlich mit dem Cell? Da gibts ja einiege Monate schon nichts mehr neues. Ob der nicht auch für PCs genutzt werden kann?
Linux haben die Leute von Apple doch auch schon drauf zum laufen bekommen, obwohl die Cellarchitektur ja grundlegend anders ist, als bei x86 CPUs.
 
Ehrlich gesagt finde ich das genauso.

In den letzten 2 Jahren ist relativ wenig in Sachen Geschwindigkeit gegangen. Vor 2 Jahren hab ich mir einen 2500+ Barton gekauft der seitdem auf 3200+ läuft.

Was aber besonders auffällt ist das vor allem AMD die 64Bit und Dual Core Technologie auf dem Markt wirft. Aber der Markt ist noch nicht bereit dafür und deshalb wird es einige Zeit dauern bis sich da auch mehr tut.
 
warum soll der markt nicht bereit dafür sein?

besteht der markt nur aus zockern?
nein? siehste!
 
Papercut59075 schrieb:
warum soll der markt nicht bereit dafür sein?

besteht der markt nur aus zockern?
nein? siehste!

Gibt es irgendeine Software die wirklich ernsthaft die 64Bit oder DualCore unterstützt! NEIN

Beim DualCore profitieren heute Leute die Grafik oder Videos bearbeiten.
 
von was hängt es eigentlich ab ob 64bit unterstützt wird?

OS?
Anwendung?
Beidem?

genau das selbe frag ich mich bei dualcore
 
Die meisten kaufen Dualcore einfach, weil es was neues ist, wissen aber nicht wirklich, obs was in Zukunft bringen wird... Hauptsache halt mal das neuste und gut ist.

Bei Videoschnittleuten, Grafikanwendungen oder solchen High-End-Anwendungen mag es jetzt einen Performance-Unterschied bringen, bei den anderen nicht. Nur die meisten denken: Yeah Dual-Core, klingt gut, kauf ich mir
 
Ja es hängt primär vom OS ab und dann natürlich von den Programmen.

Bei den Dualcores die gleiche Geschichte, nur dass die CPUs schon vom OS unterstützt werden.
 
GFlops hin oder her. Aktuelle 3 GHz P4 rechner hamm so um die 6 GFlops, dass sind halt 32´bitler (evtl. 64) mit der x86 architektur. Das eine GPU mehr GFlops hats is ja klar, hier muss ja schließlich etwas grafisch dargestellt werden.

Momentan sieht die zukunft der cpus eher nach mulit-cores aus. Beim Takt wirds glaub ich nicht mehr so schnell so große sprünge geben wie vor ein paar jahren(monaten).
 
Es gibt eignetlich nur 2 Dinge, die den Fortschritt verlangsamen.

1. Physikalische Grenzen

2. Finanzielle Grenzen

Punkt 2. könnte man mit viel Mut und/oder gutem Marketing eventuell "umgehen", allerdings funktioniert das bei Punkt 1 absolut nicht.

Desweiteren ist eine hohe Mhz Leistung ansich nicht unbedingt wünschenswert, da es bei hohen Hz Zahlen immer zu gößeren Problemen kommt was die Signalquali angeht.

Das Problem ist, dass es einfacher und billiger ist die Leistung einer CPU nur über den Takt zu erhöhen als über die wichtigere "Pro-Takt-Leistung"

Und was das Thema Software angeht:

Ich habe 64bit und MultiCore Support!
gentoo-badge3.png
 
also ich hab mir nicht alles durchgelesen, aber meiner meinung nach liegt der grund für die nicht austreichende performance ganz klar auf der anderen seite der leitung. an der programmierung... CPUs wie D965XE oder FX60 hätten leicht genug power für alles... aber die programmierer wissen nicht, wie sie sie am besten nutzen. Ich würde langsam mit der entwicklung für eine art hardware-multicore-controller beginnen. also kurz CPU. nur, dass diese CPU 2(vorerst) prozessoren zur verfügung hat, denen sie die aufgaben zuteilt.

dann bräuchten sich die programmierer auch nicht anpassen ;).
 
BinniBanni schrieb:
Also ich hab jetz mir mal die neuesten prozessoren angesehn und hab festgestellt das die entwicklung von cpu's immer langsamer voranschreitet :hmm:.Also der schnellste singlecore prozessor bis jetzt ist ja der fx 57 und der is grade so schnell genug das er ne 7800gtx gerade mal so ausreitzt und das für 1000€!! im bezahlbaren segment 100-300€ stecken die prozessoren immer noch in der 3000-3500 mhz marke (intel äquivalent), und die können eine moderne grafikkarte nun wirklich nicht ausreitzen! früher war das doch so das immer die grafikkarten die grenze angaben! wie kommts nun dazu?? es soll ja nun noch sowas wie ne physikkarte geben die man sich dazukaufen muss um die nächsten spieletitel in bestem genuss spielen zu können obwohl die physik eigentlich komplett von der cpu berechnet werden kann! also ist die grenze von prozessoren erreicht????? helfen nur noch mehrere kerne weiter?????? also wie seht ihr das???

Ich weiss nicht genau was du für nen Prozessor du hast, aber um meinen NV43-GT auszulasten brauch ich nur 5% Prozessorlast auf meinem A64 3000+. Der G70 is gut geschätzt 4 mal so schnell wie der NV43-GT. Damit bin ich bei ner Prozessorlast von rund 20%.
Du kannst nicht einfach sagen, dass die CPU Leistung jetzt nicht mehr ausreicht um die Grafikkarte zu bedienen. Gerade im Kontext von Spielen sind da noch viel mehr Dinge zu beachten.

MfG
SpaceTrucker
 
also wenn amd und intel mich mal in die entwicklungslaboratorien herein lassen würden.. ich glaube ich würde dann vor schock umkippen was für prozis die da drinne haben ;)
 
wie wird eigenzlich die 64bit unterstützung und multicore bei windowws vista sein? werden dann 64bit und mehrere cores dann voll ausgenützt?
 
-MAtRiX- schrieb:
Gibt es irgendeine Software die wirklich ernsthaft die 64Bit oder DualCore unterstützt! NEIN

Beim DualCore profitieren heute Leute die Grafik oder Videos bearbeiten.


:lol: du hast dich selber wiederlegt
 
Ich behaupte jetzt einfach mal, dass man mit aktuellen System PS3 Grafik darstellen könnte. Locker. Es fehlt einfach an der sauberen Programmierung. (Zeitdruck, Wer würde schon ein Game für 100€ kaufen? und die große erwartete Kompabilität sind natürlich das Hauptproblem). Siehe PS2 -> Für die paar Mhz und wenig Ram unglaubliche Grafik! Jedoch auch erst mehrere Jahre nach deren Release -> Entwickler wissen die Hardware zu nutzen. (Dreamcast auch gutes bsp).
 
Ich denke BinniBanni hat Recht :d
Wenn ich heute meinen alten Thunderbird anschmeisse und ihn mit meinem A64 vergleiche.. Außer bei Spielen, 3D Anwendungn und bei aufwendigen Speicherintensiven Dingen braucht man den A64 nicht wirklich. Da liegen ca.4-5 Jahre entwicklungszeit dahinter, 64Bit bringt noch nicht wirklich etwas, WinXP ist noch immer dasselbe: Darin sehe ich das Hauptproblem, früher überlebte eine Rechnergeneration meist das neue Betriebssystem nicht, heute krüppeln wir noch immer mit dem uralten herum: Daran ist also Microsoft Schuld!! Die waren auch schon die Schuldigen als ich den 486 gegen einen Pentium 166Mhz getauscht habe.. oder von dem auf den Donnervogel umgestiegen bin. MsDos5.0/6.0/6.2/Win3.1/Win 3.11/Win95/Win98/WinMe/Win2000/WinXP.. und jetzt... nulllinie ;) bis Vista kommt; da sehe ich aber das nächste Problem, es wird wohl wieder so ein dahindümpeln geben wenn es dann erschienen ist, man sieht bereits heute wie lange es dauert was besseres zu bringen, darum warten wir..
Aber wenn ich sehe das Firefox schonmal 250MB RAM braucht (sich einfach so mopst) denke ich das heutige Software viel zu verschwenderisch mit der "High End" Hardware umgeht.. früher gings auch mit 20MB RAM; wahrscheinlich könnte man noch heute das meiste mit einem 600Mhz Rechner erledigen, wenn die Programmierer mal sauberer und durchdachter arbeiten würden.

Was Spiele betrifft sieht's doch rosig aus, in Zukunft, heute haben die GPU Hersteller die Nase vorn, das wird irgendwann mal wieder anders sein. Garantiert.
 
Naja, der Firefox wird in der Version 2.0 nur noch die Hälfte des jetzigen RAM Verbrauchs haben. Ist mit der aktuellen Alpha Version schon so.
 
hach ja, unser Freund Firefox,

hatte ich vor kurzem auch, auf der Suche nach ner Digicam ca. 30 Tabs mit Testbildern auf, auch so knapp 200 MB ;)

aber der Verschwendung kann ich nur zustimmen, wenn man sich mal ankuckt, wie "groß" manche Programme sind, die man noch in Assembler schreibt. Ca. 400 kb Datei aber Power wie ein großer :p
 
NackterGolfer schrieb:
Aber wenn ich sehe das Firefox schonmal 250MB RAM braucht (sich einfach so mopst) denke ich das heutige Software viel zu verschwenderisch mit der "High End" Hardware umgeht.. früher gings auch mit 20MB RAM; wahrscheinlich könnte man noch heute das meiste mit einem 600Mhz Rechner erledigen, wenn die Programmierer mal sauberer und durchdachter arbeiten würden.

Zu dem Thema hatte mein Prof für Effiziente Algorithmen mal in ner Vorlesung ein paar interesante Ausführungen gemacht. Das ganze lief unter der Rubrik rautavistische Informatik. Ein paar Erläuterungen dazu gibts hier:
http://www.ru-eschweilerhof.de/cs/fb17/algodat/skript.pdf

Ist einfach nur herrlich wenn man sich ein bissl mit der Materie auskennt ;)

MfG
SpaceTrucker

EDIT
@tigger:
Wer schreibt bitte heute noch in Assembler :confused:
 
Zuletzt bearbeitet:
ich weiß nicht mehr, welches Programm das war, irgend ein Tool ;) ala Xp-Antispy, aber wie gesagt, der Name will nicht mehr einfallen :p
 
also die grafikpower der ps2/3 mit einem PC zu vergleichen hinkt total....haste schoma probiert, wirklich auch nur annähernd mit jetziger hardware ne ps2 zu emulieren? da scheitert auch noch so aktuelle hardware kläglich, da die SPIELEkonsolen eben auch nur genau darauf programmiert werden....das ist einfach nicht mit einem PC (allround system) zu vergleichen...
wir brauchen jetzt schon riesige resourcen um ne ps2 emu am laufen zu halten....ps3 wird wohl nich hinhauen... auch nicht mit zukünftiger hardware ausser es gibt dann themenspezifische hardware ala spiele pc, multimedia pc, office pc (und auch wirklich nur auf diese gebiete ausgerichtet)
 
also meine theorie ist eine ganz andere.

1. zieht intel gewaltig geld zurück aus dem Desktop und Mobile marktentwicklung und kommt deswegen nicht so gut hinter AMD hinterher.

2. hat AMD zur zeit kaum konkurenz, warum sollten die dann eine bessere CPU rausbringen um sich selber die preise kaputt zu machen? dann doch lieber die älteren CPUs länger geld scheffeln lassen, wer will der hat schon.


3. denke ich das AMD noch ganz gut was in reserve hat für den fall der fälle, und Intel nächstes jahr vielleicht nur mal kurz den markt aufmöbeln kann um wieder die marktwirtschaft, und somit die konkurenz kurz aufleben zu lassen.


4. warum intel sich zurückzieht? ich denke Intel schlägt einen neuen weg ein den der orakle Chef mal gesagt hatte. die zukunft ist das Internet, wo man alles aus dem Internet bekommt. man braucht keinen rechner mehr, keine software und kein betriebsystem. alles kommt aus dem internet.

ich denke Intel steckt gerade viel geld in die sache weil es die zukunft ist, stellt euch so eine art fernseher vor der mit dem internet gekoppelt ist, wo man alles bekommt, also spiele, programme usw. ohne es installieren zu müssen. wie so eine art terminalserver. man braucht nicht mehr aus dem hause gehen usw. ich weiß ist kaum vorstellbar, aber sowas ist in planung, wann sowas kommt keine ahnung.

und meine vermutung ist das intel gerade viel geld da in die entwicklung steckt und dafür in anderen sachen das geld entzieht. weil für so eine sache braucht man eine starke muli CPU die viel leistung hat (ca. ein 15000+ bis 30000+) heutzutage kaum vorstellbar. wo in einem gerät alles vereint ist, wie eine art spielkonsole und computer mischling.

und daher ist die konkurenz auf dem desktop markt fast eingeschlafen....

ich würde gerne eure meinung dazu hören?
ansonsten habe ich eine doku wo das von dem Orakle Chef mit drauf ist.
 
zwischen intel und amd lag nie ein großer unterschied! intel war halt da ein bissl schneller und amd dafür in spielen!
"spielen" das wars was die meisten wollte und auch die größten resourcen verbrauchte, darum, aus genau diesem grund ist amd momentan beliebter.

was echt helfen würde wäre eine komplette neuentwicklung in der softwarebranche OHNE RÜCKSICHT AUF ABWÄRTSKOMPATIBILITÄT, alles von neu aufbauen, hardware und software aufeinander optimieren! ich denke daraus könnte man einen leistungszuwach gewinnen der enorm wäre!

überlegt euch doch mal, ich kann software verwenden die schon fast 15jahre alt ist!! da kann ja nur die ausnutzung der hardware schlechter werden.

ein neu beginn, auf andere architektur setzen (z.B. cell) die möglichkeiten wären fast unbegrentzt ohne die rücksicht auf die software.

stellt euch doch mal vor eine völlig neue grafikschnittstelle (wie alt ist eigentlich direct3D?)

betriebssystem und anwendungen von anfang an auf mehrere kerne *träum*

könnte z.B. so aussehen:

Cell-Prozessor mit 8-Kernen a 3.2 Ghz
2GB XDR Ram
Grafikkarte mit 20MB embedded ram.....

und dann eine auf solche systeme abgestimmte, neuentwickelte hardware!

PS: bischen fantasie darf man noch haben, oder ;)
 
Ich denke der breite Markt wird bei "alles von neu aufbauen" das :kotz: bekommen, vor allem alle Freewarefreaks die man hier und mal dort was nützliches programmiert haben. Ich sehe das Hauptproblem noch immer im OS, auch XP ist zusammengeschustert auch wenn MS gerne das Gegenteil behauptet, da wurden Sicherheitslücken geschaffen nur um mit aller Macht des Monopols eigene Ideen, vorbei am Benutzer!!, zu verwirklichen. Das sowas Leistung kostet dürfte klar sein.
Die "Revolution" bei Rechnern müsste in der Tat "Rückwärts" laufen, wie es der Name sagt, back to the roots, ein OS was nur auf das ausgefeilte bestmögliche orientiert ist, ebenso bei Programmen.. Wenn ich mir ansehe was momentan für schnell gemachte Spiele den Markt überschwemmen, die zwar immer höhere HW Anforderungen haben aber nicht wirklich etwas neues bringen. Da zieht auch der Konsolen Vergleich nicht, normale Rechner könnten mehr.. wenn sich mehr Leute gedanken darüber machen würden wie es besser ginge. Ich sehe nur seit Jahrzehnten viele Innovationen kommen, aber genauso auch wieder verschwinden.. SLI Crossfire und Co gebe ich auch keine Überlebenschance.. Trueform war genial.. wo ist es hin?
 
Zuletzt bearbeitet:
BinniBanni schrieb:
Cell-Prozessor mit 8-Kernen a 3.2 Ghz
2GB XDR Ram
Grafikkarte mit 20MB embedded ram.....

und dann eine auf solche systeme abgestimmte, neuentwickelte hardware!

PS: bischen fantasie darf man noch haben, oder ;)


meinst sicher wohl ehr , neuentwickelte Software .



also ich denke der trend bei den Cpu´s ist richtig , aufteilung der aufgaben auf Kerne und die Tendenz weniger Strom zu verbrauchen ( Leistungsaufnahme ) .
was aber mehr nerft sind diese ständigen wechselspielchen der "Industrie" mit den verschiedenen Slots , sei es für Ram , GraKa oder Cpu ... teils ja auch schon HDD ... Also am extremsten ist´s ja bei Cpu Sockel und Chipsätzen bzw. die Kombi aus beidem ... wenn man jetzt schonwieder lesen muss das 939 wieder vor dem Ende steht ...
Finde da sollte mal angesetzt werden , das Cpus länger auf einem Sockel laufen können .

Die nächsten Großen "Schritte" denke ich mal werden sowieso nur dann geschen wenn man mit dem Fertigungsprozess noch weiter runter geht .

und irgendwann mal , die cpus winzig klein sind bzw. die leiterbahnen ... das man im atom bereich ist ... solche zukunftsvisionen gibt es ja ... und wo ein kompletter PC auf einem Raum verbaut ist der nicht grösser ist wie ein heutiger Prozessor :xmas:
 
Das ist Quatsch mit alles neu programmieren. Das wird nie im leben was. Das einzige was das bringen würde sind nur Millionen an neuen Bugs und sonstigen Fehlern.

Das wird dir im jeden noch so popeligem Informatikstudium beigebracht, das Code auf Wiederverwendung ausgelegt werden muss. Wiederverwendung ist ein POSITIVES Qualitätsmerkmal von Software!

Das Problem sind halt die derzeit verwendeten Tools, Programmiersprachen und Compiler, die halt nicht für den Multiprozessor und Parallelbetrieb ausgelegt sind (zumindest nicht die für die übliche Anwendungsentwicklung) bzw. ausgelegt waren.

MfG
SpaceTrucker
 
SpaceTrucker schrieb:
.......
@tigger:
Wer schreibt bitte heute noch in Assembler :confused:

Genau das ist aber der Punkt.
Seit aufkommen von z.b. Visual Basic blähen die Programmcodes immer mehr auf, ohne besser zu sein.
Ein aufgeblähter Code läuft nun mal langsamer, als es sein müßte.
Vor vielen Jahren kam ja das damals sog. "Russen DOS" auf.
Rein in Assembler programmiert. Viel schneller als das MS-Dos und statt 5 disketten, paßte das auf eine.....ohne weniger zu können...

Möglich wäre das auch noch heute, Maschienennah programmieren. Kostet halt mehr Zeit und man braucht richtige Programmierer.

Von daher leider wenig Chancen für all die Wünsche.
Es wird immer schlampiger programmiert und die Hardware zieht nach, damit dann alles dennoch vernünftig läuft.
Seid doch froh, das erhält Arbeitsplätze :drool:

Cell wird wohl kaum für die Allgemeinheit kommen, zumindest nicht in absehbarer Zeit. IM ist einfach MultiCore angesagt. Ist einfach zu realisieren und mit relativ leicht anzupassender Software (wenn die Compiler es dann können) bringt es auch was.

Für meinen Bedarf, sind die Systemem (Hardware) heutzutage schon richtig gut. Erst recht wenn ich an das Preis- Leistungs Verhältniss denke.
Nur mal so zur Erinnerung: Oktober 1990, Hight End System (von Escom, sind inzwischen Pleite): Intel 486-DX66 CPU, 4MB?? RAM, 40 MB Festplatte für nur 9999,-DM............

Also wer mosert da :d
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh