Konsolen-Deals laut AMD gut für Grafikperformance auf dem PC

wobei "schlecht" in dem Fall ja nur für den schlecht ist, der darauf Erwartungen gelegt hatte ;)

Thema GPGPU, neja, wenn man schon zu SLI/CF greifen muss bei HighEnd GPUs, um die BQ Qualität ein wenig über das normale Maß zu steigern, dann sehe ich in der Mittelklasse keinen Platz für irgendwelche GPGPU Spielereien... Wie oft muss man denn bei ner Mittelklasse GPU im Bereich 100-200€ (was wohl für einen sehr großen Käuferbereich der angestrebte Preisbereich sein sollte) schon einfach Details runter schrauben, damit überhaupt genügend FPS bei rum kommen? Auch im Zuge der 4K Monitore sowie auch 3D bzw. sogar Surround Gaming halte ich das noch mehr zupflastern der GPU mit Aufgaben für dahingehend den falschen Weg...
Es wäre die CPU heute mehr den je für extra Berechnungen aus meiner Sicht brauchbar(er)... Wir haben seit kurzem 12 Kern Intel CPUs im absoluten HighEnd für S2011... Wärend die Mittelklasse sich auf vier Cores begnügen muss. Was auch damit zusammen hängt, das die Software oftmals mit den Cores nix anfangen kann. Wärend die CPUs also beispielsweise immer mehr Rohpower liegen lassen, wird die Belastung auf den GPUs immer größer.

Ein paar Spieleschmieden gehen/gingen ja schon den Weg, mehr Berechnungen auf die Cores zu packen -> steigert die Auslastung und macht das ganze "hübscher".
Beispielsweise würde mir ein BF3 oder Crysis3 mit ner Mittelklasse GPU (bei maximal sinnvoll eingestellten Details) mehr Spielspaß durch mehr FPS bereiten, wenn die CPU die Physikberechnung übernimmt, als wenn ich noch ein paar Prozent der so schon mauen GPU Power einbüße um PhysX per GPU zu berechnen. Sicher muss man hier differenzieren, ab wann der Mehrwert den Aufwand rechtfertigt. Aber idR ist es ja immernoch so, das egal was man an zusätzlichen Effekten in ein Spiel bringt -> am Ende ist IMMER die GPU diejenige, die den Effekt visuel darstellen muss. Bei GPGPU ist also die GPU doppelt gefragt. Einmal für die Berechnung unter der Decke und zum anderen für das visuelle Darstellen. Um so niedriger die GPU Power, desto weniger hat der Endanwender von dem Vorhaben ;) (wärend die CPU sich immernoch langweilen wird)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
richtig sonne

und genau das will hsa ja auch lösen
hsa entscheidet on the fly welcher prozessor am besten geieignet is für die jeweilige berechnung und wenn grad nett genug leistung auf der gpu vorhanden is geht die gpgpu berechnung automatisch an den nächst geeineten prozessor was in der regel die x86 cpu sein wird
 
AMD bestückt die Konsolen, damit die auch erschwinglich bleiben.
Punkt.
Nix mit: weil voll schnell.
nur: Billig.

In diesem Falle +1 von mir.

Vorteil für AMD ist lediglich das die Games auf ihre Hardware hin optimiert werden - nicht mehr und nicht weniger.

Für AMD User heißt dass, das sie u.u. mehr Performance aus ihren Systemen quetschen können - muss aber nicht sein.



Für nVidia gehts weiter wie bisher - ich sehe da keinen sonderlich großen Punkt warum nVidia zu nem "Nischenhersteller" verkommen sollte wie hier prophezeit worden ist. :confused:



Leute... das sind Konsolen! ... Klar laufen die mehrere Jahre, im Endeffekt ändert sich aber an der Grundkonstellation nicht viel.


X86 Hardware in Konsolen - das ist der einzige Punkt der Relevant ist und der uns PC Gamer hoffen lassen kann. Nämlich das die ach so grottigen Konsolenports in Zukunft besser abgestimmt sind.


Das wars.



Just my 2 Cents.





P.S: Alles in allem freue ich mich riesig für AMD das sie diesen Deal an Land gezogen haben... ich warte sehnsüchtig auf eine "Habenwill" APU...
 
wobei "schlecht" in dem Fall ja nur für den schlecht ist, der darauf Erwartungen gelegt hatte ;)

Thema GPGPU, neja, wenn man schon zu SLI/CF greifen muss bei HighEnd GPUs, um die BQ Qualität ein wenig über das normale Maß zu steigern, dann sehe ich in der Mittelklasse keinen Platz für irgendwelche GPGPU Spielereien... Wie oft muss man denn bei ner Mittelklasse GPU im Bereich 100-200€ (was wohl für einen sehr großen Käuferbereich der angestrebte Preisbereich sein sollte) schon einfach Details runter schrauben, damit überhaupt genügend FPS bei rum kommen? Auch im Zuge der 4K Monitore sowie auch 3D bzw. sogar Surround Gaming halte ich das noch mehr zupflastern der GPU mit Aufgaben für dahingehend den falschen Weg...
Es wäre die CPU heute mehr den je für extra Berechnungen aus meiner Sicht brauchbar(er)... Wir haben seit kurzem 12 Kern Intel CPUs im absoluten HighEnd für S2011... Wärend die Mittelklasse sich auf vier Cores begnügen muss. Was auch damit zusammen hängt, das die Software oftmals mit den Cores nix anfangen kann. Wärend die CPUs also beispielsweise immer mehr Rohpower liegen lassen, wird die Belastung auf den GPUs immer größer.

Ein paar Spieleschmieden gehen/gingen ja schon den Weg, mehr Berechnungen auf die Cores zu packen -> steigert die Auslastung und macht das ganze "hübscher".
Beispielsweise würde mir ein BF3 oder Crysis3 mit ner Mittelklasse GPU (bei maximal sinnvoll eingestellten Details) mehr Spielspaß durch mehr FPS bereiten, wenn die CPU die Physikberechnung übernimmt, als wenn ich noch ein paar Prozent der so schon mauen GPU Power einbüße um PhysX per GPU zu berechnen. Sicher muss man hier differenzieren, ab wann der Mehrwert den Aufwand rechtfertigt. Aber idR ist es ja immernoch so, das egal was man an zusätzlichen Effekten in ein Spiel bringt -> am Ende ist IMMER die GPU diejenige, die den Effekt visuel darstellen muss. Bei GPGPU ist also die GPU doppelt gefragt. Einmal für die Berechnung unter der Decke und zum anderen für das visuelle Darstellen. Um so niedriger die GPU Power, desto weniger hat der Endanwender von dem Vorhaben ;) (wärend die CPU sich immernoch langweilen wird)

Handelsübliche Grafikkarten sind deutlich billiger wie deine 12-Kerner ;)
Klar ist die GPU gefordert, anders geht es nicht, wenn du richtig klotzt. Berechnet mal Hunderttausende Haare oder Partikel auf der CPU -> Ruckelorgie. Die aktuellen GPGPU-Effekte, auch was man so an Techdemos sieht, u.a. von PS4, laufen aber alle flüssig und das mitunter schon bei maximalen Details auf einer 200-Euro-Grafikkarte (Dirt Showdown, Grid 2, Tomb Raider usw.). Wo also ist jetzt das Problem? Ich finde es gut, dass Hardware weiter gefordert wird.
Die CPU langweilt sich oft, das stimmt schon. Das heißt aber nicht, dass sie all diesen GPGPU-Kram deshalb zufriedenstellend stemmen könnte. Und übrigens: Nächstes Jahr haben wir sicher 30-50% mehr Leistung zum selben Preis wie heute. Und in 2 Jahren drauf wieder. Da sehen die Sprünge, die die CPUs machen, alt aus dagegen.
 
Zuletzt bearbeitet:
und genau das will hsa ja auch lösen
hsa entscheidet on the fly welcher prozessor am besten geieignet is für die jeweilige berechnung und wenn grad nett genug leistung auf der gpu vorhanden is geht die gpgpu berechnung automatisch an den nächst geeineten prozessor was in der regel die x86 cpu sein wird

Rein aus Programmierersicht frage ich mich, wie kann ein "dummes" Stück Hardware die Logik eines Programmablaufes, die es noch absolut so gar nicht kennt (und auch nicht kennen kann!), im VORFELD! wohlgemerkt dahingehend zu beeinflussen um die Berechnungen auf die GPU anstatt die CPU zu legen... Des weiteren stellt sich die Auslastungsfrage durch Hintergrundtasks, die vollkommen losgelöst vom konkreten Programm, das ganze zunichte machen kann. Ebenso wie die Frage, ab wann die GPU überhaupt schneller agiert -> denn das ist faktisch nur bei einem gewissen Part von Berechnungen der Fall.
Denk mal drüber nach ;)

Dazu kommt, HSA ist nicht der heilige Gral im Hardwareumfeld. Daran gibts nix zu rütteln. Mit ner diskreten GPU hast du schon gleich mal einen Haufen Nachteile im Gegensatz zu einer APU Lösung (wo CPU und GPU Part verschmelzen). Die diskrete GPU hingegen hat dafür den deutlichen Gesamtperformancevorteil. Das ganze Konzept selbst steht sich somit schon von der Warte her selbst im Weg ;)

Unterm Strich? So wird das nix werden...

Auf AMD selbst bezogen (Fusion) wird es doch wohl aller vorraussicht darauf hinaus laufen, das GPU und CPU mehr und mehr miteinander verschmelzen. Also vergleichbar seinerzeit, wo es noch "Co" Prozessoren zur CPU selbst gab, mit beispielsweise externer FPU. Oder wo der Cache noch extern von der CPU war.
Es werden wohl Teile (der GPU einer heutigen APU) immer näher mit der CPU selbst verschmelzen, so dass die CPU irgendwann dediziert "Zugriff" auf die Einheiten hat... So ne Art Coprozessor eben. Das Design selbst müsste sich also dahingehend verändern, das die "CPU" also dann quasi GPU und CPU zugleich ist und selbst Schnittstellen ala Direct3D oder OpenCL usw. bereit stellt. Ich könnte mir vorstellen, das man dafür Befehlserweiterungen ala SSE und Co. nutzt. -> was aber auch wiederum Software notwendig macht, die sowas anspricht/nutzt. Von nix, kommt nix... Und hier sind wir wieder an dem Punkt der Software angekommen, wo sich der Kreis schließt. Denn das ist genau die Software, die es heute schon nicht hinbekommt, die GPU für die Berechnungen stark einzubeziehen :wink:

Auch ist es absolut unklar, wie es dann weiter laufen wird. Die GPU könnte immernoch diskret bleiben (wird sie mit größter Warscheinlichkeit auch), aber der "CPU" könnten dann Einheiten aus einer GPU für gewisse Berechnungen zur Seite stehen... Nur wie geht es dann weiter? Die Diskrete Grafikkarte wäre wohl immernoch schneller. Stellt sich also die Frage, warum die CPU quelen? Oder doch ganz anders?

Handelsübliche Grafikkarten sind deutlich billiger wie deine 12-Kerner ;)
Klar ist die GPU gefordert, anders geht es nicht, wenn du richtig klotzt. Berechnet mal Hunderttausende Haare oder Partikel auf der CPU -> Ruckelorgie. Die aktuellen GPGPU-Effekte, auch was man so an Techdemos sieht, u.a. von PS4, laufen aber alle flüssig und das mitunter schon bei maximalen Details auf einer 200-Euro-Grafikkarte (Dirt Showdown, Grid 2, Tomb Raider usw.). Wo also ist jetzt das Problem? Ich finde es gut, dass Hardware weiter gefordert wird.
Die CPU langweilt sich oft, das stimmt schon. Das heißt aber nicht, dass sie all diesen GPGPU-Kram deshalb zufriedenstellend stemmen könnte. Und übrigens: Nächstes Jahr haben wir sicher 30-50% mehr Leistung zum selben Preis wie heute. Und in 2 Jahren drauf wieder. Da sehen die Sprünge, die die CPUs machen, alt aus dagegen.

Die großen Xeons sind so teuer, weil diese keine Massenware sind, wie die Mainstreamer...
Ja wie auch, die Cores kann doch niemand nutzen außer im Serverumfeld bzw. im Workstationbereich.
Alles eine Frage von Nachfrage und Absatz... Würde man die CPUs vollends ausnutzen können, hätten wir heute flächendeckend deutlich mehr wie vier Cores... Man schaue auf die Zeit, wie lange Dualcores gerade mal "Standard" waren und wie lange der Quadcore heute schon drüber ist.

Was die Games angeht, gibt genügend Gegenbeispiele, wo das anders läuft... :wink:

Was die "Partikel" oder "Haare" angeht, das ist doch alles eine Frage der Menge, mit der man rangeht. Klar kann die GPU potentiell mehr, absolut gesehen, aber sie kann eben auch nur dann diese Leistung auf die Straße bringen, wenn Power über ist... Eine GPU am Limit hat keine Power über. -> Fakt. Das gilt im konkreten Fall für TressFX oder PhysX zum Beispiel. 100.000 Partikel berechnet auf der GPU sehen sicher besser aus, als nur 30.000 auf der CPU. Aber wenn 100.000 Partikel auf der GPU sagen wir 20% Leistung kosten wärend die 30.000 auf der CPU für "lau" gehen? Was würdest du lieber nutzen? Beispiel Metro im CB Rating auf ner 660TI/760 -> nimmst du bei nichtmal 30 FPS in FullHD noch lieber GPU PhysX als CPU PhysX? ;)
Ich finde die Argumentation (GPU gut, CPU schlecht -> weil ruckelt) immer lustig. Vor allem dann, wenn die Komplexität der Berechnung so hoch gedreht wird, das die CPU nur lahm sein kann, wärend man faktisch nie so hoch geht, das die GPU ebenso dieses Schicksal erleidet. -> denn Millionen PhysX Partikel bringen auch HighEnd GPUs in die Knie. Und es sieht immernoch besser aus, als nur 100.000 beispielsweise. Wo zieht man hier also objektiverweise den Cut?
Die Wahlmöglichkeit wäre nicht schlecht und der beste Kompromiss denke ich...

PS: was die Leistungssteigerung der Zukunft angeht, da hast du recht. Dem gegenüber stehen aber immernoch 4K Auflösung, möglicherweise irgendwann mal flächendeckender 3D Support, Surround Gaming usw.
-> Möglichkeiten gibts viele, die die Leistung noch stark fordern...
 
Dann musst du dich halt entscheiden, ob du Effekt A oder Effekt B haben willst, wenn die Leistung nicht für alles reicht.
Es ist auch die Frage, ob die CPU auch stark reduzierte Effekte dieser Art zufriedenstellend berechnen kann - garantiert ist das nämlich nicht. Eventuell sieht es mit der Partikelzahl, die die CPU noch packt, einfach nicht realistisch aus, und man sagt sich hier "ganz oder gar nicht"?

Compute und Grafikeffekte generell werden immer Vorang haben zu diesen Extra-Schmankerln. Einfach weil dafür teures Equipment nötig ist und nur wenige sowas haben.
 
Neja, wenn der Hersteller mit als Endkunden nur die Wahl gibt, entweder friss (GPU PhysX, teils sogar als übertriebene Effekte angesehen) oder strib (kein PhysX, respektive auf nur einem Core) fällt mir das zumindest schwer ;)
PhysX ist halt an der Stelle ein tolles Beispiel, weil man mit Fluidmark die Rellation der Skalierung zwischen CPU und GPU auch ermitteln kann bei fixer Komplexität.
Hier sehe ich zumindest noch sehr viel ungenutztes Potential, was man von der Seite gern mal als unzureichend hinstellt bei der CPU. Zwischen Core2Quad und Haswell i5 liegen pauschal inkl. Taktsteigerung minimum 50% bei gleicher Threadanzahl... Wärend eine Mittelklasse GPU 2007 bestenfalls ausreichend für die damals aktuellen Titel war, wie heute eine Mittelklasse GPU es für heutige Titel ist. :wink: Da dieser Umstand idR mit voller GPU Last einhergeht, ist damals auch genau so wenig GPU Power über gewesen wie heute in dieser Leistungsklasse. -> die CPU hat also pauschal mal 50% zugelegt, zwar auch 7 Jahre gebraucht, aber immerhin... ;) Könnte potentiell also auch von sagen wir oben genannten 30.000 Partikeln in der Zeit auf 45.000 Partikeln anwachsen. Zieht man den Hexacore i7 Ivy-E ran, sinds wohl eher gar 60.000 oder noch mehr, weil doppelte Performance zu damals (minimum)
Irgendwann kommt der Punkt definitiv, wo man das sehen muss...

Aber du wirst wohl recht haben, mit der CPU kann zumindest NV PhysX per GPU nicht verkaufen. Für andere Geschichten auf der GPU würde das wohl auch gelten, wenn es irgendwie in Verbindung mit einem GPU Hersteller steht...
Mal abwarten...
Ich bin ja nach wie vor für dedizierte Beschleunigerkarten für soddes Zeugs :wink:
 
Rein aus Programmierersicht frage ich mich, wie kann ein "dummes" Stück Hardware

Code:
if [ $(( $(grep processor /proc/cpuinfo | wc -l) / 2 )) -ge $( cat /proc/loadavg | awk '{print $1}' | cut -d. -f1 ) ]; then
	echo "Insert CPU Code here"
else
	if [ "$(( nvidia-settings -t -q CurrentLoad ))" -gt 50  ]; then
		echo "Insert GPU Code here"
	else
		echo "NOOP"
	fi
fi
 
Aha? Und damit hat es die Hardware selber entschieden, weil der "code" vom Himmel fällt?
 
Ja, und MS guckt einfach zu wie eine neue Schnittstelle von AMD auf ihrem Windows XP/Vista/7/8 dem hauseigenen DirectX den Rang abläuft und unterstützt diese Schnittstelle zu 100% als wäre es ihre eigene.... :rolleyes:
 
Hat Microsoft denn eine Wahl?

Oder soll die ohnehin wohl schon etwas langsamere XBox One gegenüber der PS4 durch Beharren auf eine eventuell langsamere DX11 Schnittstelle noch schlechter abschneiden.

Der Stillstand bei DirectX von Windows 7 auf 8 und das Rumdoktorn an DX11 mit marginalen .x-Versionen deutet eher darauf hin, dass Microsoft das Schnittstellenmonopol eventuell freiwillig aufgibt. Auch Microsoft weiß, daß man mit alten Strategien im Zeitalter von steigenden Marktanteilen bei iOS, Android und noch kommenden Systemen wie eventuell SteamOS oder weiteren Linuxdistributionen mit Beschränkungen zukünftig nicht mehr weiter kommen wird. Ohne Hardware kann auch Microsoft kein Betriebssystem mehr verkaufen.
Warten wir mal die nächsten fünf Jahre ab.
Die 10er Jahre bringen wohl viel Bewegung in den eingefahrenen Markt. :)
 
Es könnte theoretisch darauf hinauslaufen, dass sich der Spiele-Markt auf dem PC aufteilt, je nachdem welche Hardware man besitzt. Ein Szenario, bei dem einige Spiele besser (oder nur) auf AMD-Hardware mit Windows/Mantle laufen und andere besser/nur mit Nvida-Hardware unter SteamOS (Linux) ist theoretisch denkbar. Es bleibt natürlich immer noch DirectX. Wie bereits in einem anderen Thread geschrieben, hat MS vermutlich kein Problem mit Mantle, sofern es nur auf den neuen Konsolen und Windows genutzt werden kann. Das kann sich natürlich unter folgenden Bedingungen durchaus anders darstellen:

  • Nvidia (oder auch Intel?) bekommt wirklich einen fairen Zugang zu Mantle (und nutzt diesen auch)
  • Mantle kann auch unter Linux/SteamOS genutzt werden

Es könnte also durchaus spannend werden :)
 
So wie ich das verstehe wird "Mantle" dann aber auch auf der PS4, der großen Konkurrenz der Xbox One ein Thema sein oder nicht ?
 
ich würde sagen AMDs Fortbestand wurde durch den Konsolendeal überhaupt erst gesichert...nvidia muss sich warm anziehen wo soll der Absatz herkommen..im klassischen Markt wohl kaum noch..mittel bis langfristig...nicht dass ich das gut finden würde...wenn nvidia stirbt wäre das ne katastrophe für den fortschritt.

nVidia ist mehr als nur aussreichend gut Aufgestellt. AMD's Deal tut da kaum einen abrieb dazu.
Im Professionellen Servermarkt arbeitet nVidia nun mit IBM & Google an einem Projekt. Und im mobilen Markt sind die Tegra Chips auch im kommen.
also don't panic ;)

AMD ist es mal zu gönnen sich mal ein gesichertes Standbein aufgestellt zu haben.


@JockelB
der Gamemarkt wird sich bestimmt nicht aufteilen. Es wird sicherlich exoten geben, wohl PC-Exklusiv Titel.
Aber überall dort wo auch ein Release auf Konsole erscheint wird Mantle der weg zum Ziel sein.
AMD hat hier einen kleveren Schachzug gezogen - bravo.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh