Benchmarks von AMDs neuer High-End-CPU Vishera

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Du verwechselst hier irgendwie den Idle-Modus mit Standby, ein PC im Leerlauf ist ein laufendes System, das muss nie nur 1 Watt verbrauchen. Und Dudi redet über den Betrieb...

Oh Gott, recht hast Du und schlimmer noch: Es ist nichts wert. WOL und USB-PowerOn muessen dazu auch noch ausgeschaltet sein.
Die ganze Diskussion ist brotlos, niemand hat Interesse (ausser Oese) und vor allem nicht die Hersteller.

Mr. Dude schrieb:
Also mit den AMD APUs und mit Abstrichen, bestimmt. Ich kenne aber auch nicht jedes Spiel. Kannst uns gerne mal ein Beispiel zeigen, wo ein Spiel nicht flüssig läuft, egal wie weit man die Einstellungen runterschraubt.
AMD A8 3850 Fusion APU im Test bei GameStar.de

Seit wann sind den Konsolenports hoch optimiert? Ist mir noch gar nicht aufgefallen. Ich dachte immer, dass die bei geringer Qualitaet trotzdem recht unverschaemte Hardwareanforderungen haetten.

Schonmal gespielt? Dann wirst Du feststellen, dass einige Spiele schonmal nicht wirklich Aenderungen in der Aufloesung zulassen sondern stur deine Desktopaufloesung beibehalten. Viel Spass beim staendigen Umschalten inclusive Icon-Neuanordnung.
Ich versuche seit Tagen, Sniper Elite 2 mit einer anderen Aufloesung als nativ zu betreiben. Laesst er mich auch einstellen.
Nur ist visuell keine Aenderung wahrzunehmen. Und das Infomenue vom Monitor bestaetigt 1920x1080.
MW3 ist machbar.

Aber es geht hier nicht um machbar. Machbar ist es, einen Marsrover in sein Zielgebiet zu bringen. Hier geht es darum, was
in einem Durchschnittshaushalt benutzbar ist ohne groessere Abstriche. Niemand kauft ein Geraet, nur weil eventuell geradeso
mit Abstrichen das meiste machen kann von dem was es soll. Es geht darum, den PC in ein massentaugliches Geraet zu verwandeln, es muss koennen, was die Konkurrenz kann und ein wenig mehr (Verkaufsargument?).
Sonst verschwindet er nach und nach aus den Haushalten und dann wird es wohl auch keinen Highendmarkt mehr geben.
Lohnt sich halt nicht.

Und recht hat Mr. Dude auch, es gibt keinen A8-3120. Vermutlich hatte ich dann den den A4-3400 gemeint? Oder einfach nur einen A8 3820?

Was soll jemand mit so einem stromsparenden System auch anfangen. Niemand laesst seinen PC an. Hat doch heute jeder ein Handy. Ein Pad. Und eine Konsole. Und einen Fernseher. Und eine Settopbox/Recorder. Niemand braucht (so) einen PC mehr.
Und wenn doch jemand so einen PC wollte, ginge es nicht weil doch die CPU nicht darauf ausgelegt ist. Und weil das der Fall ist kann es auch nicht solch einen PC geben. Und deswegen muss sich derjenige nach einer Alternative umsehen. Und braucht deswegen so einen PC nicht. Deswegen brauchen auch die Hersteller sowas nicht zu entwickeln. Und die anderen machen das ja auch nicht.

Bastel doch was? Ich dachte ich hatte den Unterschied zwischen einem Bastelprojekt und einem kommerziellen Projekt schon mal angerissen?

Ich frage mich manchmal wie jemand auf solche Ideen kommt, wie zum Beispiel zu prognostizieren, dass der PC-Markt rasant schwinden wird.
 
Zuletzt bearbeitet:
Aber es geht hier nicht um machbar. Machbar ist es, einen Marsrover in sein Zielgebiet zu bringen.

Die neueste Marssonde ist übrigens mit einem 27 Jahre alten BS dort oben unterwegs und jedes billig Smartphone bietet mehr High-Tech. :d Alles eine Frage des Einsatzgebietes.^^ :d
 
Die neueste Marssonde ist übrigens mit einem 27 Jahre alten BS dort oben unterwegs und jedes billig Smartphone bietet mehr High-Tech. :d Alles eine Frage des Einsatzgebietes.^^ :d

27 jahre ?
den rad750 im curisoityrover gibts seit 2001 und basiert auf dem ibm powerpc750 von 1997, die hälfte, 11-15 jahre kommt eher hin.
mit den anderen beiden punkten hast du aber durchaus recht wenn es nur um "rechenpower" geht.
mfg
 
Zuletzt bearbeitet:
da geht es aber nicht um die rechenpower sondern um die zuverlässigkeit
 
Die neueste Marssonde ist übrigens mit einem 27 Jahre alten BS dort oben unterwegs und jedes billig Smartphone bietet mehr High-Tech. :d Alles eine Frage des Einsatzgebietes.^^ :d

Darueber laesst sich trefflich streiten. Da Du Handy und Hi-tech erwaehnst. Ich wuerde sagen, dass meine Handykamera ganz gut ist. Aber so eine wie im Rover haette ich schon viel lieber.
Zum Thema Strukturbreite und Strahlungssicherheit brauche ich sicher nichts zu schreiben.
Ist hier jemand schuldig, einen BSD-Rechner zu betreiben? So viel zu alten BSs.

Aber der Punkt war eher, dass eben nicht jede Familie ihren Marsrover, trotz scheinbar antiquierter Technik, da hoch schickt.
Obwohl es doch ganz offensichtlich machbar ist.

Vielleicht hast Du gerade eine Marktluecke entdeckt, wir schicken den ganzen alten Elektronikplunder nicht nach China,
wo er teils unter menschenunwuerdigen Bedingungen recycled wird sondern auf andere Planeten zum Erkunden ;).

Add-on: Irgendwelche neuentwickelten RT-OSs in der Queue?
 
Zuletzt bearbeitet:
27 jahre ?
den rad750 im curisoityrover gibts seit 2001 und basiert auf dem ibm powerpc750 von 1997, die hälfte, 11-15 jahre kommt eher hin.
mit den anderen beiden punkten hast du aber durchaus recht wenn es nur um "rechenpower" geht.
mfg

BS == Betriebssystem: Inside NASA’s Curiosity: It’s an Apple Airport Extreme… with wheels | ExtremeTech

Ist mit Garantie überarbeitet, aber der Kern ist alt.^^ :d

@XdevilX: Deswegen sagte ich ja alles eine Frage des Einsatzgebietes. ;)
 
Und was genau soll ich mir da jetzt anschauen? Bei den Auflösungen und "hohen Details" sehe ich noch genügend Spielraum, mehr FPS rauszuholen. Deine ursprüngliche Frage war ja:
Kann man mit einer APU spielen und zwar so ziemlich alle Titel die man moechte, wenn auch mit Abstrichen?

Ich weiss auch nicht, wo du jetzt hochoptimierte Konsolenports herholst? Der Punkt ist, dass Konsolenspiele eh mit weniger Hardwarehunger (geringere Auflösung, weniger Polygone, matschigere Texturen, etc) implementiert werden, da eben nicht so viel Leistungsfähigkeit wie auf dem PC zur Verfügung steht. Was im Endeffekt der Spielbarkeit mit APUs zugute kommt bei einer 1:1 Portierung.

Mir ist in den letzten Jahren auch kein Spiel untergekommen, wo sich die Auflösung nicht anpassen lässt. Manchmal sind sowas auch nur Treiber- oder Einstellungsprobleme. Ist mir mit Torchlight passiert. Und selbst wenn sich die Auflösung nicht runterschrauben lässt, warum auch immer, Details sollten sich trotzdem noch anpassen lassen.
 
In der Praxis ist es leichter Faktor 10 zu verschenken, als Faktor 10 zu gewinnen. Meiner Erfahrung nach sitzt das größte Beschleunigungspotential nicht in der Implementation der Mathematik in Programmiercode, sondern in der Mathematik selbst bzw. der numerischen Umsetzung derselben.
Von nichts anderes rede ich. Man muß die Algorithmen auf die Hardwarearchitektur anpassen, nur das wird viel zu wenig getan, unter anderem weil das Optimieren von Algorithmen richtig teuer ist. Vereinfachte Ansätze mit Berücksichtigung der wichtigsten Designelemente modernen CPUs können das Problem vereinfachen, so daß man für neue CPUs nur einen neuen Compiler und die entsprechenden Größen für die Cache Lines, etc. pp. braucht. Aber das setzt voraus, daß man immer für die gleichen Typ von Architektur Programme erstellt. Aktuell gibt es mit den den GPGPUs einen Ansatz der vollständig anders funktioniert als klassische CPUs. HPC Programmcode für CPUs ist für GPGPUs ziemlich wertlos.

---------- Post added at 20:21 ---------- Previous post was at 20:15 ----------

Und ja das Potential sitzt tatsaechlich in den Algorithmen bzw. deren Umsetzung.
Ich lese schon regelmäßig Publikationen wie TOMS, um die optimalen Algorithmen zu verwenden. Trotzdem hat man irgend wann den Punkt erreicht, daß man am Algorithmus nicht mehr optimieren kann und es nur noch um die Programmierung eben dieses Algorithmus geht.
 
*Hust* Konsolenports werden auf PC uebliche Aufloesungen portiert, nur weil das Artwork fuer die jeweilige Konsole runtergerechnet wird, heisst das noch lange nicht, dass die Leute dort 100x100 jpeg sprites produzieren.
Die Portierung erfolgt gerne unter Uebernahme grosser Teile des (Zwischen)Codes. Nur mit rudimentaerer Anpassung.
Da ist ueberhaupt nix daran sonderlich gering leistungshungrig. Nur weil z.B. ein JIT-Compiler relativ flotte Ergebnisse bringt, heisst das noch lange nicht, dass er mit nativem Code zu vergleichen ist und erst recht nicht, dass das dann aus irgendeinem Grund gar noch resourcensparend ist.

Viel haeufiger ist es eher so, dass der PC dann Schwierigkeiten hat, die geforderten Aktionen z.B. Input ueberhaupt brauchbar abzubilden.

Dem Argument zufolge muessten dann Konsolenemulationen ja ultraressourcensparend sein.
 
*Hust* Konsolenports werden auf PC uebliche Aufloesungen portiert, nur weil das Artwork fuer die jeweilige Konsole runtergerechnet wird, heisst das noch lange nicht, dass die Leute dort 100x100 jpeg sprites produzieren.
Die Portierung erfolgt gerne unter Uebernahme grosser Teile des (Zwischen)Codes. Nur mit rudimentaerer Anpassung.
Da ist ueberhaupt nix daran sonderlich gering leistungshungrig. Nur weil z.B. ein JIT-Compiler relativ flotte Ergebnisse bringt, heisst das noch lange nicht, dass er mit nativem Code zu vergleichen ist und erst recht nicht, dass das dann aus irgendeinem Grund gar noch resourcensparend ist.

Viel haeufiger ist es eher so, dass der PC dann Schwierigkeiten hat, die geforderten Aktionen z.B. Input ueberhaupt brauchbar abzubilden.

Dem Argument zufolge muessten dann Konsolenemulationen ja ultraressourcensparend sein.

Du ignorierst aber gerade die Hardware der Konsolen, die ist ca 5 Jahre alt. In der Xbox werkelt sowas wie eine ATI HD 2600 oder so ähnlich, auf jedenfall asbach uralt und ultra schwach. Die nächste Generation bekommt auch keine GTX 680 eingebaut. Würden Konsolen-Spiele vernünftig portiert werden, könnte sie jeder Nerd mit einem 5 Jahre alten PC mit hohen Einstellungen spielen.

Und Konsolenemulation ist nicht ressourecendsparend, weil da wieder die Software-Problematik rein spielt...

Unterschätze nicht was Software in einem System aus macht...
 
Und Konsolenemulation ist nicht ressourecendsparend, weil da wieder die Software-Problematik rein spielt...

Unterschätze nicht was Software in einem System aus macht...
Aber genau das ist auch das Problem bei den Portierungen. Am Ende ist das auch nur eine High Level Emulation.
 
So ist es. Aber wenn Sony und Microsoft da wirklich AMD APUs reinbrutzeln, wird sich das wohl bessern, weil das ja klassiche CPUs sind im CPU-Part...
 
Jupp, vom Prozessor her sind die APUs von AMD ja brauchbar, aber auf der Grafikseite braucht es da schon noch was anderes. Keine derzeitige APU kann Spiele in HD auch nur annaehernd vernuenftig darstellen. Selbst auf minimalsten Einstellungen verkommt alles Neuere zu Dia-Show.
Aber schauen wir mal was mit einigem Zeitaufwand da rauszuholen ist.
 
So ist es. Aber wenn Sony und Microsoft da wirklich AMD APUs reinbrutzeln, wird sich das wohl bessern, weil das ja klassiche CPUs sind im CPU-Part...
Die XBOX hatte auch einen 700Mhz Celeron verbaut wenn ich mich nicht irre. Trotzdem liefen Emulationen selbst auf einem Core2Duo mit 3,0Ghz eher schlecht.
Also ich weiß nicht ob das so viel ausmacht...
 
Jupp, vom Prozessor her sind die APUs von AMD ja brauchbar, aber auf der Grafikseite braucht es da schon noch was anderes. Keine derzeitige APU kann Spiele in HD auch nur annaehernd vernuenftig darstellen. Selbst auf minimalsten Einstellungen verkommt alles Neuere zu Dia-Show.
Aber schauen wir mal was mit einigem Zeitaufwand da rauszuholen ist.

Wie? Jetzt hat AMD in einem Segment mal die Nase vorne und das ist aber auch schon schlecht weil nicht genug? Ich raffs nicht.
 
So ist es. Aber wenn Sony und Microsoft da wirklich AMD APUs reinbrutzeln, wird sich das wohl bessern, weil das ja klassiche CPUs sind im CPU-Part...
An anderer Stelle ist die Rede von 16 Core CPUs, und die hat IBM im Angebot -> PowerPC A2. Die Dinger sind momentan absolut konkurrenzlos, wenn es um Performance/Watt geht, und sie lassen sich mit ganz normalen SMP-Programmcode versorgen. Keine teuren Sonderlösungen wie noch beim Cell.
 
Konsolenports werden auf PC uebliche Aufloesungen portiert, nur weil das Artwork fuer die jeweilige Konsole runtergerechnet wird, heisst das noch lange nicht, dass die Leute dort 100x100 jpeg sprites produzieren.
Doch, diese Low-Res Texturen werden dann oft übernommen.

Da ist ueberhaupt nix daran sonderlich gering leistungshungrig.
Besonders was die GPU betrifft, doch. Siehe Punkte zuvor. Wie schon gesagt wurde, würden bei Portierungen nicht so viele Optimierungen auf der Strecke bleiben, würde kein Spiel aktuelle PC Hardware auch nur ansatzweise ausnutzen.

Dem Argument zufolge muessten dann Konsolenemulationen ja ultraressourcensparend sein.
Emulationen sind doch wieder ein ganz anderes Thema. Konsolenports sind jedenfalls keine Emulationen. Die werden schon noch teilweise angepasst und neu kompiliert.
 
Wie? Jetzt hat AMD in einem Segment mal die Nase vorne und das ist aber auch schon schlecht weil nicht genug? Ich raffs nicht.

Naja, Nase vorn sieht einfach gefaelliger aus als Nase an der Seite, wird wahrscheinlich vom Marketing gefordert.
Habe ich einen Benchmark verpasst, wo die CPU einer gaengigen APU ueber Mittelmasz hinauswaechst?
Tut aber, was sie soll.
Die Gesamtpackung ist nicht fit for purpose, wenn es um das Spielen geht.
Wer hat denn heutzutage noch einen Fernseher mit HDMI/DVI der nicht FullHD nativ hat?
Da hast Du bessere Chancen eine alte Roehre mit Scart zu finden.

Eine Zweichiploesung waere da wohl eher geeignet. Wenn ich das so richtig ueberblickt habe ist wohl die Performanceschwaeche zu grossen Teilen einfach mal darauf zurueckzufuehren, das die GPU die Daten gar nicht erst rechtzeitig bekommt, dank Speicheranbindung. Inwiefern die gewaehlte GPU mit einer ordentlichen Anbindung sich dort steigern koennte, darueber mag ich nicht spekulieren.

Ich bleibe nach wie vor der Meinung, dass AMD sich dort eine Bundelloesung (Plattform) fuer den Heimmarkt einfallen lassen koennte. Ganz offensichtlich geht das fuer Mobilloesungen ja auch. Oder hat AMD einfach die Kapazitaeten nicht?

---------- Post added at 01:15 ---------- Previous post was at 00:56 ----------

Und diese dann auch unter Heimelektronikgesichtspunkten weiterentwickeln. Da waeren: Stromsparen (nicht jeder hat einen 24h Heiztarif). Performance die sich an der vorhandenen Peripherie orientiert. Erweiterbarkeit ist nur eingeschraenkt erforderlich. Wer hat hier schonmal seiner XBox einen neuen Prozessor spendiert? Einen schnelleren? Benutzbarkeit, wer will schon erstmal zwei Stunden im Bios, dann im Uebertaktungsprogramm rumfrickeln und das ganze dann mit Prime und Konsorten auf Stabilitaet ueberpruefen und/oder stundenlang frickeln, ob es nicht doch noch eine niedrigere Einstellung gibt, die dann eventuell benutzbar waere? "Fertig, laeuft halbwegs, aber alle Anderen sind nun schon zu Bett gegangen. Na Super!"
 
Zuletzt bearbeitet:
Habe ich einen Benchmark verpasst, wo die CPU einer gaengigen APU ueber Mittelmasz hinauswaechst?
Welch ein Zufall, dass APUs genau für dieses Marktsegment dimensioniert sind, Mainstream. Gibt aber bestimmt auch Leute, die eine High-End CPU und High-End GPU auf einem Chip bei 100 W TDP unterbringen können. :rolleyes:

Die Gesamtpackung ist nicht fit for purpose, wenn es um das Spielen geht.
Doch, ist es.

Eine Zweichiploesung waere da wohl eher geeignet.
Nein. Das verteuert nur wieder die Herstellung, erhöht Latenzen, ist kontraproduktiv für GPGPU/HSA, usw. Genau das ist nicht das Ziel von Fusion.

Wenn ich das so richtig ueberblickt habe ist wohl die Performanceschwaeche zu grossen Teilen einfach mal darauf zurueckzufuehren, das die GPU die Daten gar nicht erst rechtzeitig bekommt, dank Speicheranbindung. Inwiefern die gewaehlte GPU mit einer ordentlichen Anbindung sich dort steigern koennte, darueber mag ich nicht spekulieren.
Es gibt keine Performanceschwäche. Für die Dimensionierung der iGPU ist die Performance iO. Da die APUs allerdings keinen eigenen VRAM mirbringen, hängt die Performance auch am RAM. Hier sollte man auf ausreichend performante Module achten. Das könnte sich mit Die Stacking allerdings ändern. Dann könnte der VRAM mit aufs Die wandern. Und überblickt hast du das nicht richtig. Die Anbindung der iGPU hat mit Llano ein extra Interface bekommen (Onion/Garlic), welches auf hohe Bandbreite und niedrige Latenzen optimiert wurde. Trinity erfuhr hier Verbesserungen, die sicherlich auch in zukünftigen APUs fortgesetzt werden.
 
Was ich nicht verstehen kann ist, warum viele nicht einmal in der Lage sind OFFIZIELLE Dokumente und Aussagen von AMD zu lesen und dann hier größten Dünnschiss labern.
AMD hat ganz deutlich gesagt wofür eine APU gedacht ist, was das Konzept dahinter ist und wohin das ganze führen soll.
Der GPU-Part soll eine Art Co-Prozessor für parallele Aufgaben sein. Das Ziel ist gerade, dass diese iGPU auf den selben Speicher zugreift wie der CPU-Part, um mit den selben Daten, ohne umkopiererei arbeiten zu können.
High-End-Gaming war nie das Ziel, höchstens in sofern, dass die iGPU ausserhalb der Grafikausgabe Berechnungen übernehmen soll.

Und HSA zielt eben genau darauf aus, dass die iGPU ihre enorme Rechenleistung als Co-Prozessor zur Verfügung stellt.
Und genau deswegen arbeitet AMD mit ihren Partnern fleissig daran die Entwicklungstools so zu optimieren, dass die Programmierer mit vorhandenen Tools, mit der gewohnten Sprache und den gewohnten Arbeitsweisen die GPU nutzen kann, damit sowohl die Leistung der CPU, wie auch der GPU zusammen genutzt wird.

Und sollte es so sein, dass ein Grossteil der Software dann auch GPUs nutzen kann, dann ist eine APU auch HighEnd und zwar mehr HighEnd als es eine reine CPU jemals sein könnte.
Das eine APU AUCH zur Grafikausgabe genutzt werden kann heisst ja nicht, dass sie hier ebenfals das HighEnd-Segment abstecken muss.
Für diesen Zweck kann man auch weiterhin eine dedizierte Grafikkarte verwenden.

Momentan mangelt es schlicht an der Softwareunterstützung und ob AMD es schafft den Grossteil der Programmierer zu überzeugen wird die Zeit zeigen, aber WENN das klappt, dann ist eine APU eben mehr HighEnd als eine reine CPU, weil sie eine DEUTLICH höhere Rechenleistung bietet.
Der CPU-Teil muss in erster Linie daher klein und sparsam gehalten werden (was momentan nicht so richtig funktioniert).

Das es zur Zeit anders aussieht und man in erster Linie die iGPU nur für die Grafikausgabe benutzt und ohne GPGPU die Leistung der APUs dürftig aussieht und der CPU-Teil alleine ohne Nutzung von FMA noch düftiger aussieht ist sicherlich richtig, aber ohne zu beachten wohin das ganze führen soll sind alle Mutmassungen einfach nur total schwachsinnige Blubbereien.

Wie gesagt, ob die Strategie aufgeht steht auf einen ganz anderen Blatt, aber die iGPU SOLL ein Co-Prozessor sein und kein HighEnd Grafikausgabegerät.

EDIT: Eigentlich past dieser Post eher in eine der zahlreichen Threads die dem Untergang der AMD HighEnd-CPUs gewitmet sind, da aber eh überall die selben Leute immer genau die gleichen Sachen schreiben passt es auch hier :-)
 
Zuletzt bearbeitet:
Es ist ja sowieso immer dasselbe, der substanzlose und polemische Lobbyismus geht halt weiter, mich wundert da gar nichts mehr.
 
Was ich nicht verstehen kann ist, warum viele nicht einmal in der Lage sind OFFIZIELLE Dokumente und Aussagen von AMD zu lesen und dann hier größten Dünnschiss labern.

EDIT: Eigentlich past dieser Post eher in eine der zahlreichen Threads die dem Untergang der AMD HighEnd-CPUs gewitmet sind, da aber eh überall die selben Leute immer genau die gleichen Sachen schreiben passt es auch hier :-)

Das sind mal ziemlich fundierte Aussagen, da kann man nichts hinzufuegen.

Und das die GPU eigentlich ja gar keine GPU ist hab ich irgendwie tatsaechlich verpeilt. Aber da es ohnehin keine Performanceschwaeche gibt, ist die APU ja auch bestens fuer ihren Einsatz in Buerorechnern geeignet.
Erklaert mir hier noch mal jemand, wie die GPU mit der CPU ohne Umweg ueber den Speicher kommuniziert.
So ein Teil will ich haben. Unbedingt! Tausende von Registern. Man stelle sich das mal vor.
Man kann RC4 massiv parallel von der GPU direkt ueber die 64bit Register der CPU abarbeiten.
Rainbowtables sind ein Relikt der Vergangenheit.
Ich glaube es nicht. Das ist wirklich mal was anderes. Argumente hoechst fundiert.

Und ich warte immer noch auf ein Codesnippet das irgendeine dieser Behauptungen belegt.

---------- Post added at 22:06 ---------- Previous post was at 22:00 ----------

Ich fuehle mich tatsaechlich versucht, das Ganze auf Faekalniveau nochmal zu erklaeren. Ich weiss nur nicht wie ich anfangen soll.

Auf jedenfall brauchen wir dann die Sandwichtechnologie um alleine den benoetigten Cache in mehreren Schichten huckepack auf die APU zu kleben.
Noch interessanter wird ein Taskswitch mit voller Sicherung der beteiligten Register.
 
Zuletzt bearbeitet:
Das sind bisher Konzepte. Code der das nutzt wird bisher nur bei AMD vorhanden sein.

Aber genau das soll Fusion/HSA für das APU-Konzept bringen..

Hinzu kommt dann noch eine gewisse Grafikfähigkeit, die die APUs allroundfähig machen. Für höhere Anforderungen kommt dann eben noch ne GPU dazu wenn nötig. Diese soll dann übrigens ebenfalls HSA nutzen können :)

Gesendet von meinem GT-I9001 mit der Hardwareluxx App
 
Erklaert mir hier noch mal jemand, wie die GPU mit der CPU ohne Umweg ueber den Speicher kommuniziert.

Einfach an den selben Bus hängen?! Intel setzt mWn dazu einen Ringbus ein, damit die interne GPU direkt in den Cache der CPU schreiben kann. Also kein Hexenwerk.


Als Info in eigener Sache:
Google mal bitte nach APARAPI...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh