[Sammelthread] Piledriver Core (Vishera & Trinity) Bulldozer & Llano Nachfolger 2012

@fdSonne

also wäre durch quadchannel durchaus die bandbreite einer hd 5770 aka 6770 schon so gut wie möglich?

Gibt es eine art komprimierungsverfahren,dass mehr daten durch den flaschenhals gehen ohne großartigen arbeitsaufwand oder verhältnissmaßigen arbeitsaufwand?

oder geht das dann nur noch über den takt des speichers ?

---------- Beitrag hinzugefügt um 13:00 ---------- Vorheriger Beitrag war um 12:58 ----------

Interessante Frage, mir kommen BD und Llano so ein weing wie Brücken-Generationen vor, wenn man mal deren Verfügbarkeit übers gesamte Portfolio betrachtet. Haben ja auch beide ihre Defitzite. Die Piledriver-Kerne schein ja schon relative weit zu sein, kommt Trinity früh in 2012 dürfte die Vishera-Plattform bald nachziehen.

denke auch, das es mehr ein praxisbasierendes forschungsprojekt ist, wie larrebee blos das es sich verkauft und einen rellativen nutzen hat.

Die nachfolger alias trinity denke ich wird dann wohl das eigentliche produkt sein. bzw. pilldriver
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bisschen Zeit brauchen die wohl auch noch...
Einerseits scheint es etwaige Lieferschwierigkeiten zu geben, andererseits siehts auch mit dem Verbrauch nicht 100% rosig aus (unter Last)
Vllt hält man sich deswegen noch bedeckt?

Beim polnischen Ableger von Notebookcheck gibt es einen interessanten Test zwischen einem HP 6465b (AMD) und dem nahe zu baugleichen Schwesternotebook HP 6460b (Intel).
Der Lastverbrauch von einem Mobil-Llano bewegt sich in den Regionen eines mobilen Sandybridge. Dafür sind die anderen Akkuwerte beim AMD-Notebook besser.
Notebookcheck.pl: Recenzja HP ProBook 6465b

Der Verbrauch ist nicht das Problem von Llano sondern die Verfügbarkeit.
 
Zuletzt bearbeitet:
Die HD5770 kommt mit 128Bit Interface, dafür aber GDDR5 Speicher...
Einerseits bietet der Speicher auf Grafikkarten im Vergleich zu herkömmlichen RAM deutlich höhere Taktraten, andererseits das oft auch breitere SI.

Mit nem Quadchannel Interface kommt man bei DDR3-1866 wohl auf grobe 60GB/sec in der Theorie. Ne stino HD5770 schafft theoretische ~76GB... Problematisch ist wohl auch, das von dem Theoretischen nur vergleichsweise wenig übrig bleiben.


@DrSeltsam
also mein polnisch ist äußerst schlecht :fresse:
Aber ich sehe dort das das AMD Book mit nem Display von 13xxer Auflösung getestet wird, und das Intel Book mit 1600er Auflösung. Zumindest gibts nen Link zu nem dedizierten Test des Intels. Ich gehe davon aus, die haben die Daten somit verglichen anstatt zwei mal das gleiche (Intel Book) zu testen.
Ergo Test ziemlich sinnfrei... Ich lese auch nix davon, das man das Display abgeklemmt hat oder was zu sonstigen Sachen, die man ausgeschalten hat.
Bei meinem Arbeits sowie privat Book gibts himmelweite Unterschiede in Sachen Displayhelligkeit im Verbrauch. -> um mal ein Argument zu bringen.
 
Wobei ich mich eher frage, ob auch im Entertainment Bereich die GPU Leistung der APU von nöten ist, wenns nicht ums spielen geht.

Ich denke es geht ums Spielen, ansonsten sehe ich das auch nicht.

Die Möglichkeit gelegentlicher Spielchen sollte man marketingtechnisch allerdings nicht unterbewerten.

Im Businessbereich bin ich mir hinsichtlich CAD-Fähigkeit nicht sicher, ob man da im Rahmen einer allround-Lösung noch was mit der IGP anfangen kann..

Beim Grafikspeicher ist aktueller GDDR5-Ram zum einen eben "Quad-Pumped", hat also vier Datenübertragungen je Takt, zum anderen hat man hier oft 256bit Busbreite, im Gegensatz zu 128bit (oder 2x64 bit) beim Dualchannel-Ram.

Insgesamt bei gleichem Takt haben aktuelle GraKa's daher bis zu 8x mehr Speicher Bandbreite als ein Desktop-System. Quad-Channel würde das Defizit nur halbieren...
 
Zuletzt bearbeitet:
sobald mal Converter-Programme anfangen Cuda oder Stream zu nutzen, würde das auch massive Vorteile bringen, aber da das einfach ein relativ kleiner Markt ist, ist es halt oft nicht rentabel das in die Richtung zu optimieren.
 
SDKs und Co gibts seitens AMD ja genug. Selbst Java-Anwendungen kann man per OpenCL an die Graka übergeben. Es müssten nur mehr Programmierer geben, welche derartige Werkzeuge auch nutzen. Wenn unser Programmierlehrer in der Berufsschule nicht aus der Workstationsparte kommen würde, würden wir laut Lehrplan unsere (Java/.Net)-Programme nichtmal in Threads aufteilen, geschweige denn komplett Richtung GPU schieben. Dank OpenCL hat man nun wenigstens eine Möglichkeit, dies mehr oder weniger Grafikhardwarunabhängig zu gestalten. Der Markt muss sich eben erst entwicken. Gibt zwar schon einige Programme die Grafikkarten nutzen (Photoshop, Excel, etc.), aber auch hier meist noch in geringem Umfang. Und es gibt genug Otto-Normal-User, welche nicht das Geld für eine 200 Euro CPU haben, aber dennoch ihre Urlaubsvideos in einer vertretbaren Zeit rendern oder ganze Fotoserien vom Urlaub mit bestimmten Filtern ratzfatz bearbeiten wollen. Wie gesagt, die Softwareentwickler brauchen auch Zeit. Wenn man bedenkt, dass viele, heute genutzte Programme teilweise jahrelange Zyklen hinter sich haben...da wird nicht von jetzt auf gleich massiv für GPGPU in das Produkt investiert.
 
@fdsonne
Ich glaube mein polnisch ist auch nicht besser. :rolleyes:
Ok, die unterschiedlichen Displays habe ich übersehen. Ich glaube nicht, das es einen so großen Unterschied macht, da sie unteranderem ähnliche Helligkeitswerte haben. Vielleicht testet Notebookcheck.com irgendwann die 1600x900er-Version des 6465b, dann wären es baugleiche Displays. ;)
 
@fdsonne
Ich glaube mein polnisch ist auch nicht besser. :rolleyes:
Ok, die unterschiedlichen Displays habe ich übersehen. Ich glaube nicht, das es einen so großen Unterschied macht, da sie unteranderem ähnliche Helligkeitswerte haben. Vielleicht testet Notebookcheck.com irgendwann die 1600x900er-Version des 6465b, dann wären es baugleiche Displays. ;)

Will da nun nicht drauf rumreiten, aber ich halte es für fraglich sowas dann explizit zu vergleichen um Produkt A oder B mit dem Ergebnis zu schmücken ;)
Es ist und bleibt halt unklar...

Ich denke es geht ums Spielen, ansonsten sehe ich das auch nicht.

Die Möglichkeit gelegentlicher Spielchen sollte man marketingtechnisch allerdings nicht unterbewerten.

Im Businessbereich bin ich mir hinsichtlich CAD-Fähigkeit nicht sicher, ob man da im Rahmen einer allround-Lösung noch was mit der IGP anfangen kann..

Nein eben nicht. mr.dude sprach die mangelnde Geschwindigkeit, den mangelnden Support und die mangelnde Qualität aktueller Intel GPU Lösung an, woraufhin ich frage, in welchen Anwendungen außer Spielen, Browserbeschleunigung und HD Videobeschleunigung es an Speed mangelt...
Ich sehe davon aktuell nichts, lasse mich aber gerne eines besseren belehren, wenn ich was übersehen habe.

Zum Thema CAD und Business, neja CAD ist nun auch eher ein Nischenprodukt im OEM bzw. Businessbereich. Der größte Teil sind dort wohl eher stino Bürokisten. Und auch in diesem Markt sehe ich keinen Vorteil von mehr GPU Leistung... ;)

sobald mal Converter-Programme anfangen Cuda oder Stream zu nutzen, würde das auch massive Vorteile bringen, aber da das einfach ein relativ kleiner Markt ist, ist es halt oft nicht rentabel das in die Richtung zu optimieren.

Gibts doch schon, Problem ist, Qualitätstechnisch gehts gut bergab... Ein NoGo Kriterium bei dem Thema. Da nutzt jeglicher Speed nix. ;)
 
Zuletzt bearbeitet:
Eine HD 6550D hat die Hälfte der ALUs einer HD 5770 und deutlich weniger Chiptakt (somit gerade mal ein Drittel der GFLOPS), nur gut ein Drittel der Speicherbandbreite und keinen dedizierten Speicher. Aber hey, "AMD fehlt doch nicht mehr viel zu HD 5700 Niveau" ... selbst die HD 5750 ist meilenweit entfernt.
Von einer HD 5770 hat auch keiner gesprochen. Es war die Rede, dass man zwischen HD 5600 und 5700 landen könnte. Für genauere Prognosen müsste man aber natürlich die Specs kennen. Wenn wir analog zu HD 5870 vs 6970 von 20% mehr Stream Cores ausgehen, bei knapp 10% mehr Takt für die HD 5670, wäre das jedenfalls mehr Potenzial als Redwood. Wobei natürlich noch weitere Faktoren berücksichtigt werden müssen, wie Speicheranbindung, höhere Geometrieleistung bei NI, Treibersupport, etc. Wie gesagt, die HD 5670 halte ich für machbar. Und die HD 5700 ist dann mMn auch nicht mehr so weit entfernt. Und nur um das nochmal klarzustellen, die HD 5700 Serie beginnt mit der HD 5750 und nicht mit der HD 5770.
Aber danke für einen weiteren Beweis, wie du dir immer wieder Aussagen zurechtbiegst, nur um spammen und provozieren zu können. :rolleyes: Du beschwerst dich darüber, dass ich jede Gelegenheit nutzen würde, dir eins reinzuwürgen. Tatsache ist aber vielmehr, dass DU genau das machst. Wie wäre es endlich mal mit Sachlichkeit und sorgfältigerem Lesen von Beiträgen?


Ich warte nach wie vor auf ein paar fundierte Anwendungsbeispiele, die den Otto Normalo im Moment Intel/AMD IGP Käufer einen Vorteil bringen würden, durch die stärkere GPU.
Ich habe dir bereits ein Beispiel genannt. Gibt zB auch im B3D Forum einen Thread für GPGPU Anwendungen (OpenCL, AMD Stream/APP, Nvidia CUDA). Such dir was aus.

Dazu sprach ich mich als Beispiel an. Du sagtest oben ja, Intel ist in Sachen Leistung, Qualität und Support hinter AMD und NV hinterher hinkt. Ich sehe nur davon nichts, wenn es nicht um Games geht. Und der Otto Normalo wohl auch nicht.
Tja, nur weil du nichts davon siehst, heisst das ja nicht, dass es nicht so ist. Wie gesagt, wenn für die Ansprüche von Otto Normalos eine Intel IGP reicht, dann reicht eine AMD CPU dafür genauso locker. Warum vergleicht man dann überhaupt noch AMD CPUs mit Intel CPUs?

Und zum Thema AMD CPU, wenn ich mir anschaue, wie die CPU Last im Schnitt über den Takt auf der CPU meines Arbeitsnotebooks anliegt, will ich bestimmt nicht auf ne VIA oder ARM CPU gehen...
Deshalb sagte ich auch "eventuell". ;) Hängt halt immer vom System ab. Es gibt auch schlanke Betriebssysteme, zB diverse Linux Derivate, die nicht viele Ressourcen benötigen. Es muss ja nicht immer Windows sein.

So recht kann ich deiner Argumentationen aber nicht ganz nachvollziehen, du versuchst mir was von Vorteilen bei schnellen GPUs einzureden, bringst im Gegenzug aber Argumente, für langsamere CPUs...
Nein. Ich sage, wenn dir die Performance der iGPU egal ist, dann solltest du dich auch nicht über die Performance von CPUs beschweren. Zumindest nicht was AMD oder Intel betrifft. Leider machst du genau das schon mal ganz gerne, siehe Trinity Thread.

Es gibt auch Intel CPUs unterhalb der Quadcore Riege, sollte dir das entfallen sein?
Natürlich nicht. Aber um die geht es ja auch nicht. Warum verpflanzt man aber eine so schwache IGP auf ein 4C/8T CPU Die? Technologisch sehe ich da keinen Sinn. Man macht das nur aus Eigennutz (mehr Marktanteile, weniger IGPs der Konkurrenz). Am Markt und am Verbraucher geht das irgendwie vorbei. Bei Fusion ist das anders, da es eben als ausgewogenes Design konzipiert ist. Sowohl CPU als auch GPU sind für Mainstream Ansprüche dimensioniert.

Ich denke in dem Punkt daran, das die CPU selbstständig die ihr gegebenen Aufgaben auf die ALUs verteilt, anstatt diese auf ihren eigentlichen Cores zu berechnen. Dabei spielt es dann keine Rolle, wie das ganze Programmiert ist, und es würden quasi alle Anwendungen daraus nutzen ziehen.
Heute musst du noch dediziert der Anwendung mitteilen, nutze für Part xy eben die GPU. Das würde bei native in die CPU integrierten Einheiten wegfallen. Spart somit dem Programmierer Arbeit und bringt dem unwissenden trotzdem die Vorteile. Im Moment hast du so oder so die Schnittstelle zur GPU, und diese muss gefüttert werden, sonst passiert nix. Würde die CPU selbst die Arbeit übernehmen, Berechnungen über die ALUs eines GPU Parts laufen zu lassen, umgeht man dieses gekonnt.
Nein, das spart dem Programmierer keine Arbeit. Es ist doch lediglich eine Frage des verwendeten Werkzeugs. Diesen Aufwand hat man so oder so. Alles weitere, und damit auch die Zuweisung des Codes an bestimmte Hardwareeinheiten, übernehmen Compiler, Runtime, etc.
Später sollen die Shader der GPU aber tatsächlich direkt in die CPU Pipleline wandern. So sehen zumindest die Pläne aus. Ob sich das vernünftig realisieren lässt, wird man sehen. Nur bringt das eben keine direkten Vorteile für den Programmierer, sondern macht die Hardware einfach effizienter (mehr Lokalität, kürzere Wege, geringere Latenzen, etc). Der Programmierer selbst wird auch dann dazu gezwungen sein, auf neue Lösungen zurückzugreifen, um diese Hardware nutzen zu können. Nur könnten das nicht mehr separate Lösungen wie OpenCL & Co sein, sondern direkt in die ISA integrierte Erweiterungen. Genau das hatte zB Intel mit LRBni vor. Ich denke, das ist grundsätzlich der richtige Weg. Das Problem ist nur, dass keiner wirklich mehr Assembler programmieren will, gerade auch im Hinblick auf Portabilität. Es muss also eine entsprechende Unterstützung für Hochsprachen geschaffen werden. Was uns wieder zurück zu OpenCL & Co bringt. Die Frage ist nur, inwiefern sich das in Zukunft alles automatisch vom Compiler parallelisieren lässt, ohne dass man auf nicht eingebaute Sprachfeatures bzw komplizierte Erweiterungen zurückgreifen muss.

PS: weil es auch angesprochen wurde, APU gut und schön, wie will man das in Zukunft mit der Speicherbandbreite machen?
CPUs selbst profitieren eher wenig von Speicherbandbreite, die APU hingegen in Games zum Beispiel doch recht stark (vergleichsweise), siehe Llano zwischen DDR3-1333 vs. DDR3-1866 oder mehr.
Noch deutlich schnellere GPUs würden das noch weiter vorrantreiben. Ich sehe da im Moment bald Ende im Gelände. Weil schnellere Speicher gibts auf absehbare Zeit doch nicht.
Mehr Speicherkanäle ist sicherlich eine Option. Letztendlich ist das eine Kostenfrage. Erst kürzlich wurden aber Infos zu einer anderen Option bekannt, Memory Stacking. Damit könnte man den VRAM direkt auf den Prozessor verfrachten, was natürlich auch eine wesentlich schnellere Anbindung ermöglicht, also mehr Bandbreite. Und so wie es ausschaut, ist man da wohl schon reicht weit bei der Entwicklung. Gut möglich, dass das schon in ein bis zwei Jahren marktreif ist.

mr.dude sprach die mangelnde Geschwindigkeit, den mangelnden Support und die mangelnde Qualität aktueller Intel GPU Lösung an
Ich sprach nicht von "mangelnd", sondern davon, dass man der Konkurrenz hinterherhinkt, in praktisch allen Bereichen. Das ist ein objektiver Fakt und wurde hinlänglich beleuchtet. Mangelhaft ist hingegen eine subjektive Bewertung, die von den Ansprüchen jedes einzelnen abhängt. Was für den einen mangelhaft ist, ist für den anderen völlig ausreichend.

Gibts doch schon, Problem ist, Qualitätstechnisch gehts gut bergab...
Das ist dann aber der Implementierung geschuldet. Da die Shader aktueller GPUs mittlerweile ausnahmslos IEEE konform sind, gibt's eigentlich keinen technischen Grund mehr für Qualitätsverluste. Mir ist zumindest keiner bekannt. Was anderes ist das natürlich, wenn man auf dedizierte Hardware für's De-/Enkodieren zurückgreift, wie zB UVD. Dort muss IEEE Konformität nicht garantiert sein.
 
Ich habe dir bereits ein Beispiel genannt. Gibt zB auch im B3D Forum einen Thread für GPGPU Anwendungen (OpenCL, AMD Stream/APP, Nvidia CUDA). Such dir was aus.
Du sprachst von "DC"... Was ist "DC"? Ich komme aus dem Serverumfeld, und da steht DC für DomainController. Beim Elektriker hat es was mit Strom zu tun...

Aber fassen wir mal zusammen, ich fragte nach ner Anwendung jenseits von Games, Browser und Videoplayer.
Im Thread sind im Post 1 51 Anwendungen aufgeführt.
- 5 Benches
- 6 Renderer/Raytracing
- 8 Passwort Recovery Tools
- 4 MediaPlayer
- 3 unter "other"
Macht in Summe, 26 die in Summe nix mit dem Otto Normalo Menchen zu tun haben... bleiben 28 im Bereich Videoumcodierung, Photobearbeitung und Audiobearbeitung.
Weiter runter gebrochen, 11 davon mit AMD STREAM Support. Überwiegend aber Cuda.

Ich denke wir sehen hier deutlich, das wir deutlich davon entfernt sind, das starke GPUs für den Otto Normalo User nötig sind, als hier Intel bringen kann. Es sei denn man bewegt sich explizit in diesen Anwendungsbereichen und nutzt explizit diese Software.
Ich für meinen Teil würde getrost die 21 Videoumwandlungstools gleich mitstreichen, da mir von keinem bekannt ist, ähnlich hohe Qualität nach dem umwandeln zu bekommen, wie es mit ner CPU möglich ist.

Tja, nur weil du nichts davon siehst, heisst das ja nicht, dass es nicht so ist. Wie gesagt, wenn für die Ansprüche von Otto Normalos eine Intel IGP reicht, dann reicht eine AMD CPU dafür genauso locker. Warum vergleicht man dann überhaupt noch AMD CPUs mit Intel CPUs?
Dein Versuch die Argumentation in diese Richtung zu lenken ist ziemlich sinnfrei in meinen Augen. Es ging keinen Milimeter um CPU Power, sondern um die Sinnhaftigkeit der GPU Power.

Nein. Ich sage, wenn dir die Performance der iGPU egal ist, dann solltest du dich auch nicht über die Performance von CPUs beschweren. Zumindest nicht was AMD oder Intel betrifft. Leider machst du genau das schon mal ganz gerne, siehe Trinity Thread.
Nochmal die Frage, was willst du mit CPU Leistung? Es geht immernoch um den GPU Part und bezogen auf diese Mehrleistung zur Konkurenz dessen mögliche Sinnhaftigkeit...

Natürlich nicht. Aber um die geht es ja auch nicht. Warum verpflanzt man aber eine so schwache IGP auf ein 4C/8T CPU Die? Technologisch sehe ich da keinen Sinn. Man macht das nur aus Eigennutz (mehr Marktanteile, weniger IGPs der Konkurrenz). Am Markt und am Verbraucher geht das irgendwie vorbei. Bei Fusion ist das anders, da es eben als ausgewogenes Design konzipiert ist. Sowohl CPU als auch GPU sind für Mainstream Ansprüche dimensioniert.
Wenn diese langsame GPU für den Überwiegenden Teil der Käufer doch ausreichend ist? Eben weil man nicht spielt vllt?
Ob es am Verbraucher vorbei geht, kannst du nicht einschätzen... Und wie im ersten Quote erläutert, scheint es am Markt bestenfalls anzufangen... Mit nichten aber ist es nötig stärkere GPU Leistung in Sandy zu liefern. Und Ivy wird ja nachlegen -> ist aber anderes Thema...
Nächster Punkt ist, ich sehe aktuell viel NV dedizierte auf Cuda basierte Software, wenig auf STREAM und nur den geringsten Teil überhaupt auf OpenCL oder ähnliches.
Aber so recht erschließt sich mir dein Argument nicht... Wer definiert schwach? Und wer definiert Mainstream? Wir beide bestimmt nicht ;)

Ich sprach nicht von "mangelnd", sondern davon, dass man der Konkurrenz hinterherhinkt, in praktisch allen Bereichen. Das ist ein objektiver Fakt und wurde hinlänglich beleuchtet. Mangelhaft ist hingegen eine subjektive Bewertung, die von den Ansprüchen jedes einzelnen abhängt. Was für den einen mangelhaft ist, ist für den anderen völlig ausreichend.
Wie du es nun nennen magst ist doch völlig nebensächlich, im Vergleich zur Konkurenz liefert Intel klar weniger GPU Leistung... In Sachen Support und Qualität bleibt bei nicht Games aber nach wie vor die Frage wo? Und die Leistung wie angesprochen muss auch gebraucht werden...


Das ist dann aber der Implementierung geschuldet. Da die Shader aktueller GPUs mittlerweile ausnahmslos IEEE konform sind, gibt's eigentlich keinen technischen Grund mehr für Qualitätsverluste. Mir ist zumindest keiner bekannt. Was anderes ist das natürlich, wenn man auf dedizierte Hardware für's De-/Enkodieren zurückgreift, wie zB UVD. Dort muss IEEE Konformität nicht garantiert sein.

Woher das kommt ist doch ebenso irrelevant... Es mag Ausnahmen geben, die Software der GPU Hersteller, die "groß" beworben wurde, ala Badaboom, oder auch AMDs AVIVO Umwandler bestechen nicht gerade mit Featureumfang und schon gar nicht mit Qualität. Daran gibts nix zu rütteln. Wo ist also der Vorteil des Speeds, wenns scheinbar keine Tools gibt, die es bei CPU Qualität können?
 
Du sprachst von "DC"... Was ist "DC"? Ich komme aus dem Serverumfeld, und da steht DC für DomainController. Beim Elektriker hat es was mit Strom zu tun...

Aber fassen wir mal zusammen, ich fragte nach ner Anwendung jenseits von Games, Browser und Videoplayer.
Im Thread sind im Post 1 51 Anwendungen aufgeführt.
- 5 Benches
- 6 Renderer/Raytracing
- 8 Passwort Recovery Tools
- 4 MediaPlayer
- 3 unter "other"
Macht in Summe, 26 die in Summe nix mit dem Otto Normalo Menchen zu tun haben... bleiben 28 im Bereich Videoumcodierung, Photobearbeitung und Audiobearbeitung.
Weiter runter gebrochen, 11 davon mit AMD STREAM Support. Überwiegend aber Cuda.
Den Spieß kann man aber auch umdrehen - suche eine Anwendung für Normalverbraucher, die einen Sandy oder Ivy-Kern ggü. einem K10-Kern notwendig macht - ist das gleiche Spiel...
Ich denke wir sehen hier deutlich, das wir deutlich davon entfernt sind, das starke GPUs für den Otto Normalo User nötig sind, als hier Intel bringen kann. Es sei denn man bewegt sich explizit in diesen Anwendungsbereichen und nutzt explizit diese Software.
Ich für meinen Teil würde getrost die 21 Videoumwandlungstools gleich mitstreichen, da mir von keinem bekannt ist, ähnlich hohe Qualität nach dem umwandeln zu bekommen, wie es mit ner CPU möglich ist.
Eine starke CPU aber mittlerweile ebensowenig - nicht übersehen...
Dein Versuch die Argumentation in diese Richtung zu lenken ist ziemlich sinnfrei in meinen Augen. Es ging keinen Milimeter um CPU Power, sondern um die Sinnhaftigkeit der GPU Power.
Nochmal die Frage, was willst du mit CPU Leistung? Es geht immernoch um den GPU Part und bezogen auf diese Mehrleistung zur Konkurenz dessen mögliche Sinnhaftigkeit...
Es geht um die Ausgewogenheit. Im Grunde ist es letztendlich egal, ob man eine stärkere CPU mit einer schwächeren GPU oder gleichwertige CPU und GPU verbindet. Letzteres hat aber den Vorteil, dass ein gelegentliches Spielchen sogar auf einem Netbook möglich wird... Und das tut auch Ottonormalverbraucher mal gerne. Deswegen ist Fusion in meinen Augen ein Erfolg. OEMs können sowas einfach gut verkaufen.
Wenn diese langsame GPU für den Überwiegenden Teil der Käufer doch ausreichend ist? Eben weil man nicht spielt vllt?
Ob es am Verbraucher vorbei geht, kannst du nicht einschätzen... Und wie im ersten Quote erläutert, scheint es am Markt bestenfalls anzufangen... Mit nichten aber ist es nötig stärkere GPU Leistung in Sandy zu liefern. Und Ivy wird ja nachlegen -> ist aber anderes Thema...
Nächster Punkt ist, ich sehe aktuell viel NV dedizierte auf Cuda basierte Software, wenig auf STREAM und nur den geringsten Teil überhaupt auf OpenCL oder ähnliches.
Aber so recht erschließt sich mir dein Argument nicht... Wer definiert schwach? Und wer definiert Mainstream? Wir beide bestimmt nicht ;)
CUDA ist im Prinzip eher wir GLIDE damals, eine Spezialschnittstelle, die nur wenige Programme wirklich verwenden. Nur dass man einen Markt (den Servermarkt) gefunden hat, in dem man es auch unterbringen kann. Dafür fehlt der revolutionäre optische Effekt, den GLIDE bot. Ohne den Servermarkt wäre CUDA längst tot. Im Desktop ist CUDA mittlerweile so gut wie tot, jedenfalls beschert es dort keinen wirklichen Vorteil (PhysX-Spielerein und Schnickschnack vllt, halte ich als NV(!) Kartenbesitzer aber für komplett überflüssig). Erst wenn man den genzen GPGPU-Kram vereinheitlicht und auf Hochsprachen simpel programmieren kann, wird es Alltag. Mit dem Schnittstellenwirrwarr wird auch NV nicht weit kommen. Da müssen sich alle Beteiligten mehr anstrengen. Noch aber gibt es keine wirkliche Integration, sondern nur GPUs neben CPUs. GPGPU wird wowieso erst dann richtig interessant, wenn es in die CPU-ISA wandern wird.
Wie du es nun nennen magst ist doch völlig nebensächlich, im Vergleich zur Konkurenz liefert Intel klar weniger GPU Leistung... In Sachen Support und Qualität bleibt bei nicht Games aber nach wie vor die Frage wo? Und die Leistung wie angesprochen muss auch gebraucht werden...
Games reicht schon. Untereschätze Games nicht ;).
 
Zuletzt bearbeitet:
@ [Hot]: fdsonne gehts es um den Benutzerbereich, der quasi garnicht spielt, da sind Spiele und eine entsprechende GPU-Leistung relativ nebensächlich. Und wenn die OEM vob Llano so überzeugt wären wie einige hier würde es im übrigen auch weit mehr Notebooks damit geben.. ;)

Aber ich denke die Diskussion kann man sich sparen fdsonne und mr.dude drehen sich auch schon seit Ewigkeiten im Kreis.. :d
 
@ [Hot]: fdsonne gehts es um den Benutzerbereich, der quasi garnicht spielt, da sind Spiele und eine entsprechende GPU-Leistung relativ nebensächlich. Und wenn die OEM vob Llano so überzeugt wären wie einige hier würde es im übrigen auch weit mehr Notebooks damit geben.. ;)

Aber ich denke die Diskussion kann man sich sparen fdsonne und mr.dude drehen sich auch schon seit Ewigkeiten im Kreis.. :d

vergiss nicht, das die 65w TDP modelle immernoch nicht verfügbar sind, die fehlende verbreitung an llano notebooks liegt wohl eher an der fehlenden verfügbarkeit der apus.

desktop systeme gibt es doch mittlerweile an mass mit den 100w TDP modellen.
 
Den Spieß kann man aber auch umdrehen - suche eine Anwendung für Normalverbraucher, die einen Sandy oder Ivy-Kern ggü. einem K10-Kern notwendig macht - ist das gleiche Spiel...

Eine starke CPU aber mittlerweile ebensowenig - nicht übersehen...
Bitte versteh mich nicht falsch, mir geht es in keiner Weise darum, mögliche Sinnhaftigkeit von Sandy CPUs im Vergleich zu AMD CPUs zu beleuchten oder hervorzuheben. Spielt mir bei der Sache absolut keine Rolle und soll nicht Thema sein... Die Diskusion führt sowieso zu nichts.
Es geht rein um die GPU und das mr.dude sagte, im Vergleich zu AMD/NV Lösungen ist Intel in Sachen Support, Qualität und Leistung hinten dran.

Das die Leistung klar schlechter ist, unterschreibe ich voll und ganz im Vergleich zu Llano. Ich frage mich eher, wo diese Leistung von nöten ist bzw. welchen Sinn es macht, hier noch weiter hoch zu gehen. Und das meine ich voll und ganz ernst, weil ich keine Vorteile von schnelleren GPUs aktuell sehe, wenn man nicht spielt. Videobeschleunigung und Browserbeschleunigung geht mit Intel absolut Stressfrei und von schlechterer Qualität sowie schlechterem Support sehe ich auch nichts.

Es geht um die Ausgewogenheit. Im Grunde ist es letztendlich egal, ob man eine stärkere CPU mit einer schwächeren GPU oder gleichwertige CPU und GPU verbindet. Letzteres hat aber den Vorteil, dass ein gelegentliches Spielchen sogar auf einem Netbook möglich wird... Und das tut auch Ottonormalverbraucher mal gerne. Deswegen ist Fusion in meinen Augen ein Erfolg. OEMs können sowas einfach gut verkaufen.
Das bestreitet ja niemand ;)
Es gibt aber auch ein Haufen Leute, die können/dürfen/wollen nicht spielen. Ich schiele da nach wie vor auf den riesigen Markt der Büroarbeitsplätze. Als Gegenargument kommt bei dem Punkt immer, das man hier auch keine fetten Quads braucht. -> was ebenso völlig unverständlich ist, da es auch Sandy Dualcore in klein gibt. Oder auch Notebooks idR mit 2C/4T kommen. In den Firmen, wo ich bis dato tätig beschwerte sich niemand über zu wenig GPU Leistung. Dazu kommt, das oft gar auf Aero und sonstige KlickiBunti Sachen verzichtet wird um das als Beispiel zu bringen.

CUDA ist im Prinzip eher wir GLIDE damals, eine Spezialschnittstelle, die nur wenige Programme wirklich verwenden. Nur dass man einen Markt (den Servermarkt) gefunden hat, in dem man es auch unterbringen kann. Dafür fehlt der revolutionäre optische Effekt, den GLIDE bot. Ohne den Servermarkt wäre CUDA längst tot. Im Desktop ist CUDA mittlerweile so gut wie tot, jedenfalls beschert es dort keinen wirklichen Vorteil (PhysX-Spielerein und Schnickschnack vllt, halte ich als NV(!) Kartenbesitzer aber für komplett überflüssig). Erst wenn man den genzen GPGPU-Kram vereinheitlicht und auf Hochsprachen simpel programmieren kann, wird es Alltag. Mit dem Schnittstellenwirrwarr wird auch NV nicht weit kommen. Da müssen sich alle Beteiligten mehr anstrengen. Noch aber gibt es keine wirkliche Integration, sondern nur GPUs neben CPUs. GPGPU wird wowieso erst dann richtig interessant, wenn es in die CPU-ISA wandern wird.

Meine Rede... Und in Sachen Support scheint es mir mit Stream gar noch etwas schlimmer auszuschauen. Blickt man mal über den Tellerrand von Passwordknackern und Videorendertools, die dazu noch idR maue Qualität liefern, gibts in meinen Augen nix, was wirklich von Interesse für den Markt ist. Außer bei ein paar Spezialfällen... Und das ist der Punkt, für den ich ein Gegenbeispiel erwarte. Trotz allem Gegenwind kommt aber nix ;)

Aber ich denke die Diskussion kann man sich sparen fdsonne und mr.dude drehen sich auch schon seit Ewigkeiten im Kreis.. :d

Was heist sparen... Solange ich Gegenwind bekomme mit Argumenten die ich nicht nachvollziehen kann, frage ich nach.
Beispiele für angesprochen schlechtere Qualität, Support und Leistung in Vergleich zu AMD Llano vermisse ich nach wie vor und solange da nix fundiertes kommt, werde ich weiterhin meinen Standpunkt vertreten, wenn man von Vorteilen durch die schnelle GPU von Llano und Nachfolger spricht ;)
 
Zuletzt bearbeitet:
Was heist sparen... Solange ich Gegenwind bekomme mit Argumenten die ich nicht nachvollziehen kann, frage ich nach.
Beispiele für angesprochen schlechtere Qualität, Support und Leistung in Vergleich zu AMD Llano vermisse ich nach wie vor und solange da nix fundiertes kommt, werde ich weiterhin meinen Standpunkt vertreten, wenn man von Vorteilen durch die schnelle GPU von Llano und Nachfolger spricht ;)

Ich stimme dir inhaltlich auch zu, nur weiß ich wo das mit deinem Gespächspartner hinläuft. ;) Hätte AMD das doppelte an CPU-Leistung und eine IGP, die nur 800x600 darstellen könnte, würde er dahin argumentieren, dass das vollkommen ausreicht er eh nur in 640x480 arbeitet und die CPU-Leistung eh wichtier ist als die GPU-Leistung...

---------- Beitrag hinzugefügt um 12:35 ---------- Vorheriger Beitrag war um 12:32 ----------

@ Gustav007: Aber laut Meldungen hat AMD an die OEMs bereits Millionen Llanos verkauft, was wohl auch die Verfügbarkeit am Endkundenmarkt drückt. ;) Ich will Llano-Notebooks ja auch nicht ihre Daseinsberechtigugn absprechen, aber die OEm sehen deren Bedeutung eindeutig etwas nüchterner als einige Forenmitglieder. ;)
 
Zuletzt bearbeitet:
Ich denke so eine Diskussion kann man sich sparen.
Genauso könnte ich die Sinnhaftigkeit eines schnellen Intel Prozessors ebenso in Frage Stellen.
"Braucht ja schließlich keiner".
 
Du sprachst von "DC"... Was ist "DC"?
DC == Distributed Computing

Aber fassen wir mal zusammen, ich fragte nach ner Anwendung jenseits von Games, Browser und Videoplayer.
Im Thread sind im Post 1 51 Anwendungen aufgeführt.
- 5 Benches
- 6 Renderer/Raytracing
- 8 Passwort Recovery Tools
- 4 MediaPlayer
- 3 unter "other"
Macht in Summe, 26 die in Summe nix mit dem Otto Normalo Menchen zu tun haben...
Es werden nicht nur im ersten Beitrag Anwendungen aufgeführt. Du solltest dir schon den gesamten Thread anschauen. Und mehrere Dutzend Anwendungen mit GPU Support bezeichnest du als "deutlich entfernt" davon, dass performante GPUs für Normalos nötig seien? Was definierst du denn als nötig? Ein X6, FX6/8 oder 4C/4T-8T Nehalem/SB ist auch nicht nötig für Normalos. Warum werden/wurden sie dann trotzdem gekauft? Ich denke, man sieht mehr als deutlich, dass Normalos auch abseits von Spielen mittlerweile von performanten GPUs profitieren, sofern man eben Ambitionen in einem dieser Anwendungsfelder hat. Wenn das für dich nicht zutrifft, schön. Nur gibt's auch andere Leute. Und das solltest du vielleicht mal akzeptieren.

Dein Versuch die Argumentation in diese Richtung zu lenken ist ziemlich sinnfrei in meinen Augen. Es ging keinen Milimeter um CPU Power, sondern um die Sinnhaftigkeit der GPU Power.
Natürlich ist das nicht sinnfrei. Man kann nicht ständig davon reden, wie viel besser angeblich CPU A gegenüber CPU B sein soll. So wie du das eben ganz gerne mal machst. Bei GPUs heisst es dann aber nur, "ist doch egal für Normalos". Also bitte mit gleichem Maszstab bewerten und nicht hier mal so und da mal so. Das war der eigentliche Punkt.

Wenn diese langsame GPU für den Überwiegenden Teil der Käufer doch ausreichend ist? Eben weil man nicht spielt vllt?
Der überwiegende Teil der Käufer, der sich eine 4C/8T CPU kauft, wird sich ganz gewiss nicht mit der IGP begnügen. Mal davon abgesehen, wenn nach deiner Sichtweise die IGP für die einfachsten Ansprüche dimensioniert sein soll, warum baut man dann Funktionen wie Quick Sync ein oder liefert eine grössere Variante oberhalb der HD 2000? Das wäre für Normalos alles nicht notwendig. Natürlich will auch Intel anspruchsvollere Nutzer ansprechen. MMn mit einem bisher aber ziemlich unbalanciertem Design, eben vor allem beim 4C/8T Ableger. Dort hätte man sich die IGP eigentlich komplett sparen können.

Wer definiert schwach? Und wer definiert Mainstream? Wir beide bestimmt nicht
Och, durchaus. Wenn du dir mal einen Überblick über das gesamte Portfolio verschaffst, kannst du recht gut einordnen, was was ist. Dafür brauchst du nicht mal irgendwelche Marketingfolien. Die Behauptung, die CPU in Llano wäre Low-End, wohingegen die iGPU Performance wäre, ist jedenfalls nicht korrekt. Beides ist wie gesagt Mainstream. Meine Aussage lässt sich also mitnichten einfach auf AMD umkehren.

Wie du es nun nennen magst ist doch völlig nebensächlich
Wenn du andere zitierst, dann solltest du trotzdem richtig zitieren. In andere Ausdrücke kann ganz schnell eine andere Bedeutung interpretiert werden. Gerade du solltest das doch wissen. Nebensächlich ist das keineswegs.

Woher das kommt ist doch ebenso irrelevant...
Nicht unbedingt. Wenn die Ursachen in der Software liegen, sind Verbesserungen möglich. Wenn sie in der Hardware liegen, nicht. Bzw sind Verbesserungen dann erst mit neuen Hardwaregeneration möglich.

Wo ist also der Vorteil des Speeds, wenns scheinbar keine Tools gibt, die es bei CPU Qualität können?
Es geht auch nicht immer nur um Qualität. Wer professionell damit arbeitet bzw sein Geld damit verdient, wird sicherlich der Qualität den Vorrang geben. Wer hingegen zB privat ein Video auf ein entsprechendes Portal laden möchte oder einfach nur an Freunde schicken möchte, der braucht bei eventueller Umwandlung nicht unbedingt die maximale Qualität. Da kann dann auch der Speed Vorrang haben. Wie schon zuvor, auch hier hängt es von den Anforderungen ab.


Den Spieß kann man aber auch umdrehen - suche eine Anwendung für Normalverbraucher, die einen Sandy oder Ivy-Kern ggü. einem K10-Kern notwendig macht - ist das gleiche Spiel...
So ist das. Man sieht, wo solche Diskussion leider hinführen, wenn immer wieder einseitig argumentiert wird. Leider gibt's auch hier wieder zwei Leute, die, hätte Intel die Hälfte an CPU Performance und eine IGP, die 1920x1200 darstellen könnte, dahin argumentieren würden, dass die CPU Performance vollkommen ausreicht und GPU Performance eh viel wichtiger ist. Halt immer so, wie man es gerade braucht.


Und wenn die OEM vob Llano so überzeugt wären wie einige hier würde es im übrigen auch weit mehr Notebooks damit geben.
Na anscheinend gehen die Llanos bei den OEMs weg wie warme Semmeln. Problem ist nur, dass AMD wohl mit der Fertigung nicht hinterherkommt. ;)
 
Zuletzt bearbeitet:
Was definierst du denn als nötig? Ein X6, FX6/8 oder 4C/4T-8T Nehalem/SB ist auch nicht nötig für Normalos. Warum werden/wurden sie dann trotzdem gekauft? Ich denke, man sieht mehr als deutlich, dass Normalos auch abseits von Spielen mittlerweile von performanten GPUs profitieren, sofern man eben Ambitionen in einem dieser Anwendungsfelder hat. Wenn das für dich nicht zutrifft, schön. Nur gibt's auch andere Leute. Und das solltest du vielleicht mal akzeptieren.
So langsam kommst du mit Argumenten, wo ich durchaus mitgehen würde...
Mittlerweile bist du vom Standpunkt des Otto Normalos scheinbar abgewichen und beziehst dich schon auf spezielle Fälle ;)
Da gibts nix gegen einzuwenden und würd ich so unterschreiben...

Übrigens interessiert die CPU Leistung nach wie vor nicht... Weil es ne ganz andere Baustelle ist. Nur weil jemand ne 8T CPU voll auslasten kann und somit diese einen Nutzen für ihn bringt heist das lange nicht, das er das gleichsam im selben Atemzug auch mit ner GPU schafft und somit diese für ihn ebenso wichtig ist. Und das ist der Punkt andem sich diese Beiden Parts nicht in ein Argument fassen lassen. Mir gehts um die GPU und um nix anderes...

Natürlich ist das nicht sinnfrei. Man kann nicht ständig davon reden, wie viel besser angeblich CPU A gegenüber CPU B sein soll. So wie du das eben ganz gerne mal machst. Bei GPUs heisst es dann aber nur, "ist doch egal für Normalos". Also bitte mit gleichem Maszstab bewerten und nicht hier mal so und da mal so. Das war der eigentliche Punkt.
Warum sollte man das nicht können? Du hast nach wie vor kein fundiertes Argument gebracht, was diese zweigeteilte Argumentationsweise in CPU und GPU als falsch darstellt. Ich hab dir aber nun schon x mal geschrieben, das Person Otto Normalo keinesfalls bei benötigter CPU Leistung gleichsam die GPU Leistung brauchen muss. Warum willst du mir dieses Argument aufdrängen? Das heist nicht, das es solche Personen nicht gibt, keinen Frage, nur ist das wohl nicht die Regel aktuell. Sonst hätten sich IGP Lösungen vor Llano nicht verkauft, weil dessen GPU Leistung noch viel schwächer im Verhältnis zur möglichen CPU Power war als es jetzt mit Llano der Fall ist.

Der überwiegende Teil der Käufer, der sich eine 4C/8T CPU kauft, wird sich ganz gewiss nicht mit der IGP begnügen. Mal davon abgesehen, wenn nach deiner Sichtweise die IGP für die einfachsten Ansprüche dimensioniert sein soll, warum baut man dann Funktionen wie Quick Sync ein oder liefert eine grössere Variante oberhalb der HD 2000? Das wäre für Normalos alles nicht notwendig. Natürlich will auch Intel anspruchsvollere Nutzer ansprechen. MMn mit einem bisher aber ziemlich unbalanciertem Design, eben vor allem beim 4C/8T Ableger. Dort hätte man sich die IGP eigentlich komplett sparen können.
Warum sollte man die komplett sparen?
Wenn ich als Basis meine Arbeitsstelle ranziehe, wir haben grob über den Daumen ca. 100 PC Systeme, Notebooks, PCs und Workstations... Außer ne Hand voll dieser Systeme hat kein einziges dedizierte Grafikkarte. Und diese Hand voll macht arbeitet mit AutoCAD inkl. 3D Modellierung. Komischerweise beschwert sich niemand über mangelnde GPU Leistung. Selbst bei den Modelle mit älteren CPUs kommt eher das Argument der zu schwachen CPU als der mangelnden GPU Leistung.

So ist das. Man sieht, wo solche Diskussion leider hinführen, wenn immer wieder einseitig argumentiert wird. Leider gibt's auch hier wieder zwei Leute, die, hätte Intel die Hälfte an CPU Performance und eine IGP, die 1920x1200 darstellen könnte, dahin argumentieren würden, dass die CPU Performance vollkommen ausreicht und GPU Performance eh viel wichtiger ist. Halt immer so, wie man es gerade braucht.
Unterlasse bitte Unterstellungen über Situationen die du nicht überblicken kannst... Wir haben keine Intel CPUs die nur die hälfte der aktuellen Intel CPUs leistet und dafür mehr GPU Performance bietet.
 
Eure zerpflückerei von Beiträgen macht mich leicht unglücklich. Ich mag das garne mehr alles lesen.
 
mr.dude und fdsonne, woher nehmt ihr euch die zeit für diesen riesigen beiträge, oder passiert das während der arbeit?^^

ich komme nicht mal mit dem lesen hinterher. :fresse:
 
die beiden wollen sich endlich einmal gegenseitig verstehen, scheinbar kostet das etwas mühe :p
 
fdsonne
Definiere Ottonormalo!
Hab hier ein paar Möglichkeiten:
1.) Der Normalnutzer, der nur im i-net surft und ab und zu mal ein Video anklickt
2.) Der Normalnutzer, der surft, ab und zu mal ein seichtes Spielchen oder FTP-Spiel anschmeisst
3.) Der Normalnutzer, der surft, mehr oder weniger oft Fotos und Vidos bearbeitet
4.) Der Normalnutzer, der den Rechner nur für Office nutzt
5.) Der Normalnutzer, der viel spielt (das ist auch ein gern unterschätzter Normalnutzer)

Für 1 und 4 reicht Bobcat, z.B. BrazosII mit nativem USB3
Für 2 ist Llano optimal und
3 kann mit Sandy am meisten anfangen (oder - huch - etwa doch mit BD?!)
5 kann mit Sandy wirklich am meisten anfangen (oder mit ner Konsole :d, wovon 2 alte und alle neuen (!) auf AMD-Technik setzen)

Ich frag mich wer hier besser aufgestellt ist...
 
Zuletzt bearbeitet:
Mittlerweile bist du vom Standpunkt des Otto Normalos scheinbar abgewichen und beziehst dich schon auf spezielle Fälle
Nein, tue ich nicht. Ich rede von ganz normalen Leuten. Also nicht von "Freaks" wie in diesem Forum, Profis und dergleichen. Wenn du mit Normalos die Leute meinst, die nur im Internet surfen oder mal eine E-Mail schreiben, dann redest du lediglich von einem Teilbereich. Normalos sind für mich erstmal alle Heimanwender, die gängige Hardware haben, unabhängig davon, was sie nun damit machen wollen. Wobei selbst Browser recht anspruchsvoll sein können. Das merkst du, wenn du mal mehrere Seiten mit viel Media-Inhalt offen hast.

Warum sollte man das nicht können? Du hast nach wie vor kein fundiertes Argument gebracht, was diese zweigeteilte Argumentationsweise in CPU und GPU als falsch darstellt. Ich hab dir aber nun schon x mal geschrieben, das Person Otto Normalo keinesfalls bei benötigter CPU Leistung gleichsam die GPU Leistung brauchen muss. Warum willst du mir dieses Argument aufdrängen?
Wieso willst du mir dieses Argument aufdrängen? Du hast dich doch in die Diskussion eingemischt, nicht umgekehrt. Ich verweise gerne nochmal auf den Anfang deiner Einmischung. Meine Aussagen bezogen sich bis dahin jedenfalls auf Duplex. Also solltest du auch beim Thema bleiben und nicht einfach etwas erfinden, nur damit es zu deiner Argumentation passt. Und ursprünglich ging es bei meinen Aussagen eben um CPU und GPU. Da kannst du nicht einfach eines davon unter den Tisch fallen lassen. Deshalb interessiert hier die GPU genauso wie die CPU, gerade im Hinblick auf Trinity und IB, welche Duplex ja erwähnte. Und deshalb sollte man auch beides mit gleichem Maszstab bewerten. Was du leider nicht tust. Du hast auch nach wie vor kein fundiertes Argument gebracht, was deine zweigeteilte Argumentationsweise in CPU und GPU als richtig darstellt.

Warum sollte man die komplett sparen?
Weil man dadurch Transistoren sparen kann? Oder was meinst du? ;) Dieses Budget kann man dann wiederum anderweitig nutzen. Entweder wird die CPU sparsamer und kostengünstiger in der Herstellung. Oder man macht die CPU schneller, zB durch weitere Kerne.

Wenn ich als Basis meine Arbeitsstelle ranziehe, wir haben grob über den Daumen ca. 100 PC Systeme, Notebooks, PCs und Workstations... Außer ne Hand voll dieser Systeme hat kein einziges dedizierte Grafikkarte. Und diese Hand voll macht arbeitet mit AutoCAD inkl. 3D Modellierung.
Komisch, du redest immer von "Normalos" und bringst dann sowas. Kein wirklich glaubwürdiger Standpunkt.

Unterlasse bitte Unterstellungen über Situationen die du nicht überblicken kannst... Wir haben keine Intel CPUs die nur die hälfte der aktuellen Intel CPUs leistet und dafür mehr GPU Performance bietet.
Danke, dass du meine Aussage zur einseitigen Argumentation quasi bestätigst. Falls du es nicht mitbekommen hast, die Aussage war leicht ironisch. Schau mal 3 Beiträge über deinen. Beschwere dich also erstmal dort für solche Provokationen, dann können wir uns weiter unterhalten. ;)
 
Ein Otto Normalo ist wohl der jenige, der Standard Programme nutzt. Unter Standard Programmen zähle ich Officegeschichten, Browser, Videoplayer und hier und da mal ein Packprogramm. Das schließt einerseits Privatpersonen ein, sowie einen riesigen Anteil an Personen tätig in Unternehmen... (simple Büroarbeitsplätze)

Foto/Videobearbeitung stelle ich eine Schwelle drüber, da gibts sicher viele, aber eben nicht nahezu jeder nutzt das. Gerade im Unternehmensbereich eher uninteressant, es sei denn, das Unternehmen hat damit was zu tun...
Spiele stelle ich gleich auf eine Schwelle mit Foto/Videobearbeitung, da ebenso wenig von jedem getätigt und im Firmenumfeld auch nahezu vollständig uninteressant.

Die Frage ist nun seit Anfang an, für was ist für diesen Otto Normalo nun die mehr GPU Power von Belang?

Mich würde übrigens auch interessieren wie du @mr.dude, nen Otto Normalo deklarierst ;)

Komisch, du redest immer von "Normalos" und bringst dann sowas. Kein wirklich glaubwürdiger Standpunkt.

Weil?
Ich sehe ein Unternehmensstandort, der quasi von Buchhaltung über Finanzbereich, Projektplanung, Projektausführung usw. verfügt durchaus für einen Durchschnitt, den es in sehr sehr vielen Unternehmen genau so geben wird...
Auch war das dort ein Beispiel... ;)

Aber OK, halten wir also fest, es gibt nach wie vor sehr wenige Programme, die überhaupt erstmal nutzen aus starker GPU Leistung ziehen können, schlechterer Support liegt in den überwiegenden Fällen an den Programmierern der Software, welche wohl den Support nicht einräumen können/wollen, schlechte Qualität kommt idR nur in Games zum tragen und ist sonst nicht sonderlich anzutreffen. Also ist Intel aktuell trotzdem ganz brauchbar aufgestellt. Wohingegen AMD mehr Leistung der GPU bietet, dafür je nach Modell weniger Leistung bei der CPU.
Unterm Strich wird sich zeigen, ob GPUs im nicht Spielerbereich über die nächsten Jahre weiter von Vorteil werden, als sie es jetzt sind... -> Meine Meinung ;)
 
Zuletzt bearbeitet:
Na dann reden wir offenbar aneinander vorbei. Unternehmen sind für mich keine Normalos. Das zähle ich zum Bereich Business / professionelle Umgebungen. Und Foto- und Videobearbeitung sind für mich genauso Standardprogramme. Zumal sie heutzutage in fast jedem Betriebssystem integriert sind. Ich sehe da keinen Unterschied zu Browser, Office, Media-Player, Packer, etc. Diskussionswürdig wäre dann schon eher, ob sowas wie DC zu Standardprogrammen gehört. Wenn es nur darum geht, was flächendeckend genutzt wird, dann hat auch deine Liste keinen Bestand. ZB Packer oder Media-Player nutzt auch nicht jeder. Nicht mal Office könnte man dann noch dazurechnen, zumindest wenn es um Sachen wie Word, Excel, PowerPoint oder Outlook geht.

Die Frage ist nun seit Beginn, wo ist für diesen Normalo mehr CPU Performance von Belang, wo GPU Performance nichts bringt? Genau die Einsatzgebiete, wo nach schnellen CPUs verlangt wird (Transkodierung, DC, Spiele, etc), sind doch genau die Einsatzgebiete, wo auch schnelle GPUs was bringen und sogar mehr Potenzial bieten.


Aber OK, halten wir also fest, es gibt nach wie vor sehr wenige Programme, die überhaupt erstmal nutzen aus starker GPU Leistung ziehen können, schlechterer Support liegt in den überwiegenden Fällen an den Programmierern der Software, welche wohl den Support nicht einräumen können/wollen, schlechte Qualität kommt idR nur in Games zum tragen und ist sonst nicht sonderlich anzutreffen. Also ist Intel aktuell trotzdem ganz brauchbar aufgestellt. Wohingegen AMD mehr Leistung der GPU bietet, dafür je nach Modell weniger Leistung bei der CPU.
Sehe ich nicht so. AMD bietet grundsätzlich bessere GPUs, das sollte klar sein. Bei CPUs hingegen ist das nicht so eindeutig zu beantworten. Wie man sieht, wenn man Bulldozer voll auslasten kann, und ggf auch noch ISA Erweiterungen nutzen kann (AVX, FMA, XOP), ist man gleichwertig bzw wird sogar mehr Performance geboten.
 
Zuletzt bearbeitet:
Bisher liefern Grafikkarten beim Rendern aber eine schlechtere Qualität ab als CPUs ...
 
Die Frage ist nun seit Beginn, wo ist für diesen Normalo mehr CPU Performance von Belang, wo GPU Performance nichts bringt? Genau die Einsatzgebiete, wo nach schnellen CPUs verlangt wird (Transkodierung, DC, Spiele, etc), sind doch genau die Einsatzgebiete, wo auch schnelle GPUs was bringen und sogar mehr Potenzial bieten.

Meine Frage war viel eher, wen unabhängig der CPU Leistung die stärkere GPU Leistung von Llano und möglichen Nachfolgern Vorteile bringt... Man hat nach wie vor die Wahl zwischen verschieden starken APUs in Sachen CPU Leistung, kann also sehr gut entscheiden wo man sich in Sachen CPU ansiedelt. Bei der GPU bleibt besagte Frage nach dem Vorteil nach wie vor ungeklärt, trotz aller ausflüchte, Themenwechseln usw.

Und diese Frage konntest du mir nach wie vor nicht beantworten, obwohl mehrfach gestellt ;)
 
zum zocken ist die gpu :p
 
Zuletzt bearbeitet:

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh