9 Monate danach: Wo AMD mit Mantle steht

Du weißt ja, was ich meine, Mick ;)
Für den Rest: Help! Linux ate my RAM!

Verhält sich mit VRam ähnlich. Wozu etwas löschen, wenn ich es noch einmal brauchen könnte und es dann langsam neu laden oder sogar neu berechnen müsste.
Sollte ich später mal mehr VRam brauchen, kann ich es immer noch löschen. 0en überschreiben sich genauso schnell wie anderer Datensalat.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sollte ich später mal mehr VRam brauchen, kann ich es immer noch löschen. 0en überschreiben sich genauso schnell wie anderer Datensalat.

Klingt erstmal sehr sinnvoll, ja, aber woher weiss die GPU dann bei Bedarf, welchen Teil des Speicher sie überschreiben darf und welchen nicht? Würde das dafür erfoderliche Konstrukt die eine Art Priorisierung des Rams fest hält, nicht Vorteil der Idee zunichte machen?...
Windows benutzt in Form der "pages" die sich ein Proggramm reserviert übrigens ein ähnliches Prinzip, glaube ich...
 
Wieso soll es ein Problem von einer Low Level Api sein, die direkten Speicherzugriff erlaubt, dass der RAM vollläuft?
Da kann ich genau so sagen die Programmiersprache C hat ein Bug weil sie nicht wie Java einen Garbage Collector hat.
Wenn ich als Entwickler eine API fordere, die direkten Speicherzugriff erlaubt, diese auch bekomme, und dann damit nicht umgehen kann, ist das doch ein Armutszeugnis des Entwicklers und nicht der Schnittstelle.
 
aber woher weiss die GPU dann bei Bedarf, welchen Teil des Speicher sie überschreiben darf und welchen nicht?

Einfach die "Löschoperation" mit einer "Mark as available but used" Operation ersetzen ;)

- - - Updated - - -

Wieso soll es ein Problem von einer Low Level Api sein, die direkten Speicherzugriff erlaubt, dass der RAM vollläuft?

Du hast also genauere Kenntnisse, wie Mantle aufgebaut ist? Dann lass uns mal nicht im Dunkeln. Würde mich schon interessieren. :)
Wer sagt denn, dass sich bei Mantle nicht trotzdem Mantle um die Speicherverwaltung kümmert, bzw. eben Operationen zur Speicherverwaltung zur Verfügung stellt, die eben buggy sind?
 
DSmon schrieb:
Du hast also genauere Kenntnisse, wie Mantle aufgebaut ist? Dann lass uns mal nicht im Dunkeln. Würde mich schon interessieren.
Natürlich nicht wie wahrscheinlich jeder bisherige Diskussionsteilnehmer.
Deshalb habe ich mich an der Diskussion bisher ja auch nicht beteiligt. Aber als dann die Experten hier Mantle verteufelt haben für etwas, wofür es wenn es eine Low Level Api ist, überhaupt nichts kann, habe ich halt mal angemerkt, dass in einer Low Level Api der Entwickler für das Speichermanagment verantwortlich ist.

Also schaut man sich die bisherigen Mantle Informationen an.
1 schrieb:
Applications controls almost all GPU Memory
Ziemlich eindeutig oder?
2 schrieb:
Das ist nun mal eine Low Level Funktion. Klar das ist auch nur eine Vermutung meinerseits, dass sich das Ding ähnlich wie die C Funktion alloc verhält. Aber das muss ich als Programmierer wieder freigeben.
Wenn du alloc nicht kennst. Du bist doch Linux Nutzer man alloc. Und was siehst du? Richtig die Funktion alloc_free. Speicher den man reserviert muss man auch wieder frei geben. Mantle wird das Rad auch nicht neu erfinden und bekannte Funktionen nun nicht plötzlich umbenennen, um die Programmierer nicht zu verwirren. Also ist es sehr wahrscheinlich, dass eine Funktion die alloc im Namen trägt auch Speicher reserviert und genau so logisch ist es, dass man diesen auch wieder freigeben muss. Gerade wenn man seine API Low Level schimpft.

Quelle: Mantle - Introducing a new API for Graphics - AMD at GDC14
1: Folie Seite 21
2: Folie Seite 22

Edit:
Ich glaub das die low-level luden api in ein paar Jahren nichts mehr reißen wird ... Wetten das ??
Glaub ich auch aber die einzige vernünftige plattformübergreifende API OpenGl reißt ja bis heute leider auch nicht viel.
 
Zuletzt bearbeitet:
Natürlich nicht wie wahrscheinlich jeder bisherige Diskussionsteilnehmer.
Deshalb habe ich mich an der Diskussion bisher ja auch nicht beteiligt. Aber als dann die Experten hier Mantle verteufelt haben für etwas, wofür es wenn es eine Low Level Api ist, überhaupt nichts kann, habe ich halt mal angemerkt, dass in einer Low Level Api der Entwickler für das Speichermanagment verantwortlich ist.

Mal davon ab, dass "Almost" auf der ersten der beiden Folien steht. Was meinst du denn wie eine API diesen Low Level-Zugriff ermöglicht? Das muss ja irgendwie in Mantle implementiert sein, oder? Also warum kann man da keine Fehler machen? Mal davon ab, glaube ich nicht, dass Mantle auch nur halb so low Level ist wie AMD es gerne kommuniziert. Mantle holt null Leistung aus den GPUs heraus, es ermöglicht nur das vorhanden Potenzial auszuschöpfen, wenn die CPU es limtiert. Die Konsolen agieren Low Level und da Leisten die GPUs mehr als ihre "Desktop"-Pendants, meiner Meinung nach.
 
Mantle holt null Leistung aus den GPUs heraus, es ermöglicht nur das vorhanden Potenzial auszuschöpfen, ...
den verstehe ich nicht so ganz. wie soll es denn mehr leistung rausholen, wenn nicht durch prozessoptimierungen also "potential ausschöpfen"? die alternative wären ja hardwareeingriffe wie übertakten. und das kann wohl kaum die aufgabe einer api sein ^_^

Ich glaub das die low-level luden api in ein paar Jahren nichts mehr reißen wird ... Wetten das ??
naja länger als physx wirds sich vermutlich schon halten ^_^, aber gegen m$ dx hat es letztlich schon aus monetären gründen keine chance. m$ wird seine eigenen standards durchsetzen, das steht wohl außer frage. wobei eine plattformübergreifende api imho schon was wünschenswertes wäre...
 
Zuletzt bearbeitet:
den verstehe ich nicht so ganz. wie soll es denn mehr leistung rausholen, wenn nicht durch prozessoptimierungen also "potential ausschöpfen"? die alternative wären ja hardwareeingriffe wie übertakten. und das kann wohl kaum die aufgabe einer api sein ^_^

Die Konsolen greifen wesentlich direkter auf die Hardware zu, weil Hardwarenah umgesetzt. Eine PS4 knatter mit der Kombination "solider" FPS auf den TV, als eine eine formal ähnlich Leistungstarke CPU-GPU-Kombination täte. Auf den Desktop-PC hast du das Problem BS bzw Windows, da liegen zwischen Hardware und Software mehr Anwendungsschichten, der Zugriff ist also weniger direkt. Eine Low Level API sollte dies theoretische aufheben/mildern, also auch auf GPU-Seite mehr Leistung bringen. Guckst du dir mal die von neuli verlinkte Slide an, kannst du auf Seite 15 Mantle "Innovationen" sehen, ich hab hier irgenwo ein Video zu DX 12 verlinkt, die gehen viele der Punkte auch an und nennen es dabei nicht Low Level API.
 
das is schon klar, aber deine definition von "leistung aus den gpus holen" ist mir schleierhaft. genau das ist doch der effekt, den du beschreibst. es wird overhead reduziert und die hardware direkter angesprochen. die folge ist mehr leistung durch potential ausschöpfen. das widerspricht sich nicht, das eine setzt das andere quasi vorraus. Oô
 
Mal davon ab, dass "Almost" auf der ersten der beiden Folien steht. Was meinst du denn wie eine API diesen Low Level-Zugriff ermöglicht? Das muss ja irgendwie in Mantle implementiert sein, oder? Also warum kann man da keine Fehler machen?
Klar können da fehler drin sein, aber woher willst du das ohne Zugriff auf den Quellcode wissen?
Die Problemquellen können ebensogut in der Umsetzung in der Software liegen.

Mal davon ab, glaube ich nicht, dass Mantle auch nur halb so low Level ist wie AMD es gerne kommuniziert. Mantle holt null Leistung aus den GPUs heraus, es ermöglicht nur das vorhanden Potenzial auszuschöpfen, wenn die CPU es limtiert. Die Konsolen agieren Low Level und da Leisten die GPUs mehr als ihre "Desktop"-Pendants, meiner Meinung nach.
Auf was stützst du diesen Glauben und woher kommt diese Schlusfolgerung?
Durch echtes Low Level kann man ebenso wenig "mehr leistung" aus der GPU raus holen - man kann nur dessen Potential besser ausschöpfen! Generell werden Konsolenports leider weniger gut optimiert als auf den Konsolen. Das wird sich auch mit Mantle wohl nicht ändern.
 
das is schon klar, aber deine definition von "leistung aus den gpus holen" ist mir schleierhaft. genau das ist doch der effekt, den du beschreibst. es wird overhead reduziert und die hardware direkter angesprochen. die folge ist mehr leistung durch potential ausschöpfen. das widerspricht sich nicht, das eine setzt das andere quasi vorraus. Oô

Für mich ist Leistung aus der GPU heraus holen, wenn man aus der Hardware, durch direkteren Zugriff mehr raus holt. Frag mich nicht nach konkreten Methoden, neuli hat ja oben schon den Speicher Zugriff erwähnt. Gibt bestimmt noch andere Ding, der Kern ist halt die Hardware effizienter zunutzen -nicht den Weg dahin frei zu schaufeln. Nimmst du Mantle und "beseitigst" hardwaretechnisch, das CPU-Limit, verhält sich der Spaß unter Mantel auch nicht mehr schneller, aber so eine CPU wird ja nicht nur durch die reine Rechenzeit limitiert. Natürlich nur meine Meinung.
 
@Mick_Foley: ich glaube jetzt hab ich geschnallt wo du einen widerspruch in leistung herausholen und potential ausschöpfen siehst. du meinst nur das cpu-potential, richtig?
das kann man natürlich gelten lassen, allerdings finde ich den effekt wirklich schon allerhand. hier wird quasi ein graka-externer flaschenhals kompensiert. ich für meinen teil begrüße diese entwicklung sehr. in wie weit eine low-level-api jedoch "schlampige" programmierung kompensieren kann, kann ich nicht einschätzen. ich sag nur gta IV konsole vs. pc.
 
Klar können da fehler drin sein, aber woher willst du das ohne Zugriff auf den Quellcode wissen?
Die Problemquellen können ebensogut in der Umsetzung in der Software liegen.

Wer sagt, denn dass ich es weiß. Es ist meine Annahme, begründet, aber ich schreibe nirgendswo, dass es ein öffentlicher Fakt ist. ;) Was meine Annahme begründet: Warum gibt es das Problem in Thief und BF4? Zu Garden Warefare finde ich leider bis heute keine aussagekräftigen Benches...^^ Wäre aber eh Frostbite-Engine. Aber warum gibt es das selbe Problem in zwei unterschiedlichen Spielen bei zwei unterschiedlichen Entwicklern?

Auf was stützst du diesen Glauben und woher kommt diese Schlusfolgerung?
Durch echtes Low Level kann man ebenso wenig "mehr leistung" aus der GPU raus holen - man kann nur dessen Potential besser ausschöpfen! Generell werden Konsolenports leider weniger gut optimiert als auf den Konsolen. Das wird sich auch mit Mantle wohl nicht ändern.

Den Glauben udn die Schlussfolgerung habe ich oben schon erläutert, aber an dich eine Gegenfrage: Was an Mantle ist denn Low Level? Bei Nvidia ist die High Level API DX11 irgendwie nicht langsamer...
 
@Mick_Foley: ich glaube jetzt hab ich geschnallt wo du einen widerspruch in leistung herausholen und potential ausschöpfen siehst. du meinst nur das cpu-potential, richtig?
das kann man natürlich gelten lassen, allerdings finde ich den effekt wirklich schon allerhand. hier wird quasi ein graka-externer flaschenhals kompensiert. ich für meinen teil begrüße diese entwicklung sehr. in wie weit eine low-level-api jedoch "schlampige" programmierung kompensieren kann, kann ich nicht einschätzen. ich sag nur gta IV konsole vs. pc.

Richig. ;) Die Leistung als solches stelle ich auch nicht in Abrede Mantle ist im CPU-Limit einfach gut. Spätestens mit Multi-GPU einfach sehr gut. Ich glaube keine API kann schlampige Programmierung kompensieren. Aber auch in APIs können Fehler sein und Mantle ist ja noch jung. ;)

- - - Updated - - -

demnach könnte es auch ein privater fakt sein, ja? :confused:

Nein ich wollte damit nur heraus streichen, das es meine persönliche Meinung ist. Wenn ich wüsste, dass es stimmt würde ich es auch kundtun. ;)
 
Wer sagt, denn dass ich es weiß. Es ist meine Annahme, begründet, aber ich schreibe nirgendswo, dass es ein öffentlicher Fakt ist. ;) Was meine Annahme begründet: Warum gibt es das Problem in Thief und BF4? Zu Garden Warefare finde ich leider bis heute keine aussagekräftigen Benches...^^ Wäre aber eh Frostbite-Engine. Aber warum gibt es das selbe Problem in zwei unterschiedlichen Spielen bei zwei unterschiedlichen Entwicklern?

Den Glauben udn die Schlussfolgerung habe ich oben schon erläutert, aber an dich eine Gegenfrage: Was an Mantle ist denn Low Level? Bei Nvidia ist die High Level API DX11 irgendwie nicht langsamer...
Wenn du mir noch ein paar Tage Zeit lässt, kann ich Werte von Garden Warfare liefern.
Allerdings soll hier die Wiederholbarkeit im Eimer sein, mal sehen was ich herausfinden kann.

nvidia nutzt ja kein DX11.2a/b, da fehlen dann auch ein paar Effekte, also 50% mit Legacy DX11 ist jetzt nicht so der burner!
Bei Thief sind es immerhin +100% bei mir im GPU Limit.
 
ich weiß, ich stichel nur gerne :d

Habe ich kein Problem mit, nur wie doof hättest du geguckt, wenn ich "ja" gesagt hätte. :d

Wenn du mir noch ein paar Tage Zeit lässt, kann ich Werte von Garden Warfare liefern.
Allerdings soll hier die Wiederholbarkeit im Eimer sein, mal sehen was ich herausfinden kann.

nvidia nutzt ja kein DX11.2a/b, da fehlen dann auch ein paar Effekte, also 50% mit Legacy DX11 ist jetzt nicht so der burner!
Bei Thief sind es immerhin +100% bei mir im GPU Limit.

Da ging es gerade um den VRAM-Bug, deine Karte hat 3GB, das hilft uns da weniger. ;) Aber trotzdem danke. :)
 
nur wie doof hättest du geguckt, wenn ich "ja" gesagt hätte.
das hängt von den zur verfügung stehenden smilies ab ugly33.gif
 
Da ging es gerade um den VRAM-Bug, deine Karte hat 3GB, das hilft uns da weniger. ;) Aber trotzdem danke. :)
GPUz hat bei mir nur eine VRAM Anzeige und die ist bei GPU 1 von zwei.
Werte über 3GB lassen sich leicht konfigurieren, zur Not werden nochmal 2 Monitore angeschlossen für 5760x1080. :cool:

Ah, das update kommt just in time:

ea_gamesoprm9.jpg
 
Zuletzt bearbeitet:
Dann erkläre mir mal die gravierenden Unterschiede. Multiplayer erzeugt mehr Last, aber warum sollte das da anders skalieren? Warum bekommt man denn im Singleplayer mit vier Kernen und 2GHz quasi genauso viel FPS wie mit 4,4 Ghz, sowohl unter Mantle wie DX jeweils?

Ich bin nicht da, um für deine verquere Sicht der Lage Argumente zu finden und etwas zu erklären.
Ich setze vorraus, dass zumindest etwas Basiswissen vorhanden ist und dass die Last der CPU im Multiplayer drastisch ansteigt, das zeigte die PCGH mehrmals und bei den Themen hast du an forerster Front mitdiskutiert.
Und selbst im Singleplayer sind untersch. Szenen und untersch. Versionen von Software BF DLC vs. BF4 nicht vergleichbar.

Multiplayer erzeugt mehr Last, aber warum sollte das da anders skalieren?

Skalierung ist Belanglos, es ging um Performance und FPS, lese selbst nach.

Warum bekommt man denn im Singleplayer mit vier Kernen und 2GHz quasi genauso viel FPS wie mit 4,4 Ghz, sowohl unter Mantle wie DX jeweils?

Verstehe die Fragestellung nicht. Tatsache ist, unter Mantle bekommst du doppelt soviel FPS wie in BF4 Hardware, wenn ein CPU Limit vorliegt.
Suche eine fette Szene und das schlägt bei einem i3, Mittelklasse i5 eben durch, bei einem i7 4,6ghz eher weniger.

Du mit deinem Anwendungsprofil kann so nicht spielen, ist legitim, aber ein subjektives empfinnden. Es gibt hier genug Leute mit CPUs unter den von dir angesprochenen und zufrieden spielen.

Wenn die Spiele nicht auf der Agenda stehen, oder mit stark heruntergedrehten Settings betrieben werden ( sofern eine CPU davon überhaupt profitiert) dann mag das wohl stimmen.
Gibt auch Leute die es nicht stört wenn alles ruckelt.

Mal im Ernst, da sparen wir uns jetzt aber die Diskussion oder? Im selben Satz...

Beziehe dich in Zukunft einfach auf das was dahsteht und da ist in den letzten beiden Jahren ein FX-8150 oder FX-8350 eben immer mehr zum Flaschenhals geworden, bin ja nicht umsonst gewechselt.
Und da ist auch nichts subjektiv. wer flüssig spielen will, der sucht sich Spiele die mit einem FX-8350 problemlos laufen, oder man orientiert sich um und setzt auf Intel.

Nur wo habe ich gesagt, die wollen etwas was sie nicht haben? Die Spielen einfach, die sind im normal Fall komplett zu frieden, die denken weder über Mantle noch DX nach.

Wen interessiert das, was Leute, die du dir hypothetisch ausdenkst, wollen oder nicht wollen.
Du brachtest das Argument im Zusammenhang mit deinen Low Power Prozessoren und argumentierst im Anschluss, dass Mantle eigentlich niemand brauche.
Valide ist diese Argumentation nicht, sondern eher ein Widerspruch.

Wie definierst du denn das Funktionieren einer API wie Mantle? Offensichtlich fällt es unter funktionierend, wenn das Resultat schlechter als unter dem vernachlässigten DX-Pfad ist. Eventuell würdest du die Aufgabe von MAntle noch mal skizzieren?

Ich zitiere dazu einfach mal Gubb3L, denn das hast du ja eh schon gelesen, siehst es aber trotzdem nicht ein, liegt wohl an deiner "norddeutschen Art", sich in Bedeutungen von Begrifflichkeiten entweder zu irren, oder absichtlich Bashing zu betreiben.

Natürlich sollte der Fehler so nicht da sein aber generell die brauchbarkeit von Mantle bei 2gb Karten abzusprechen ist wieder was anderes. Da habe ich damals auch lieber die Texturen nur auf high gehabt bei der ersten Mantle Version als mit DX11 weiter zu spielen. Natürlich liegt das auch an der mieserablen DX umsetzung.

Da diese unter DX nicht auftreten muss es wohl an Mantle oder dem dazu gehörigen Treiber liegen. Das ist ein Fehler, nicht mehr und nicht weniger, würde das unter DX auch nachweislich passieren würde ich es ebenso ansprechen.

Du sprichst es ja nicht an, sondenr behauptest es funktioniere nicht richtig und beziehst das vordergründig auf Mantle. Wenn du dazu bitte mal die nachweise liefern würdest.
Dice könnte schlicht und einfach durch fehlende Entwicklungszeit zu wenig V-ram einsparen.
Und API´s sind zudem unterschiedlich. Nur weil eine mehr V-ram saugt wie die andere hat das nichts mit " funktioniert nicht" zu tun.

Der Abschnitt skizziert wohl eher dein Verhalten und ich argumentiere nciht gegen einen Strohmann, wie mir scheint, sondern gegen einen Strohkopf.

Beleidigungen werden hier im Forum geahndet und ich werde nicht zögern die Kommentare zu melden.

Ein Kaufargument (was ich für total falsch halte, insofern man nicht ausschließlich BF4 und/oder Thief zockt).
und den möchte-gern-güldenen-Gral für Schaffes und Pickebuhs Nvidia-Hasstiraden.

Du siehst doch GPU- Physx auch als Kaufargument. Insofern solltest du die gleichen Maßstäbe ansetzen.
Hasstiraden auf Nvidia möchte ich gerne mal zitiert von mir sehen, ich bashe keineswegs gegen Nvidia und schon gar nicht in diesem Thread.
Wenn ich in einem KaufberatungsThread den steigenden V-ram Verbrauch erwähne und daher eine 280x gegen eine GTX 770 stelle und natürlich deswegen erstere empfehle, sind das also gleich Hasstiraden.

Zudem ist P/L für die meisten ein wichtiges Argument, für dich scheinbar dann nicht.

und nimm keine 2GB-Karte, weil WatchDog.

Titanfall, Watchdogs, Wolfenstein und die genrelle Entwicklung zu mehr V-ram Bedarf.

Und berät Leute bei den Kaufberatungen mit Mantle wirds bringen

Dann zeige mir mal, wo ich Mantle als besonderes Kaufargument heraushebe, da bin ich aber gespannt.
Ich beschränke mich eher auf V-ram Leistungsfähigkeit und P/L, also ganz simple Dinge.
Also hör auf mir hier einen Bias anzudichten ohne valide Argumente.
Zudem, hast du schonmal auf den Topic geguckt?!

wenn mich das für manche "gegen Mantle" macht, ok.

Es macht sich auf jeden Fall nicht gut, wenn du dich Verkaufsthreads lächerlich abfällig gegenüber Mantle äußerst, mache ich schließlich auch nicht gegenüber Nvidias Directx11 Implementierung.
Wenn ich dann Mantle verteidigen muss, ist das eher deine Schuld.

Oh das ist mir bewusst, das verschiebt die Lastgrenze quasi nach hinten.

Offenbar ist es dir nicht bewusst, sonst würdest du dich nicht demenstprechend äußern.

ur wird die Skalierung ab Punkt x dann analog sein. Was meist um wie viel steigt die Last beim Multiplayer? 50%- 75% gegenüber dem Singleplayer? Wären von den 2Ghz Basistakt aus dann 3-3,5Ghz Takt, das liefert jeder i5. Was passiert mit den restlichen, von Schaffe89, monierten 1,1 Ghz, wenn der Leistungsbedarf gedeckt ist? Im Singleplayer verpufft er, wieso sollte er im Multiplayer extra Leistung bringen?

Zuerst einmal habe ich die 1,1ghz nicht moniert, sondern nur darauf hingewiesen wie im CPU Limit die Leistung aussieht.
Moniert habe ich, dass es keine valide Argumentation ist zu behaupten, mantle bringe nichts, wenn dabei ein 4,6ghz I7 unter Directx11 arbeitet.
Sinn würde es machen, einen i5 zu nehmen oder den Takt des i7 im Multiplayer mal auf 3,2 ghz zu senken und SMT zu deaktivieren, um einen immernoch flotten i5 zu simulieren, schließlich haben auch die wenigste Gamer die aktuelle Intel CPU aufs Maximum getaktet.

Zudem ist der Singleplayer kein Maßstab.
Und da finde ich deine Einwand eher lächerlich, wenn du dann sagst, die Skalierung bleibe im Multiplayer dieselbe, das interessiert niemanden.
Relevant sind nur FPS und wenn ich in einem Test lediglich mit einem i7 argumentieren, dann muss man sich nicht wundern wenn jemand merkt dass das nicht sonderlich brauchbar ist, so zu argumentieren, besonders wenn Mantle im Vordergrund steht.
 
Zuletzt bearbeitet:
Ich mag dich. :banana: :haha:



Es wäre hilfreicher, wenn du 1GB VRAM auslöten könntest... :d
Lübke ist ok! Hab mir die alten Videos wieder angeschaut, hab ich früher gern geschaut!

Scherzkeks, VRAM auslöten? Wohl eher reinlöten für die Zukunft bestimmt nicht verkehrt!
 
Für die Zukunft bestimmt, aber um den 2GB VRAM-Bug zu überprüfen nicht. Kannst ihn ja nachher wieder einbauen. :d

P.S.: Was ist Peggle?
Gut ich frag mal nach ob mir eine 2GB Karte gestellt wird. Da wird sich mein FX wohl etwas verarscht vorkommen, die GPU wird wohl glühen!

Peggle ist einfach Klasse, selten so ein gut laufendes Spiel gehabt. Da geht es um Steine kaputt machen mit einem Ball, irre Unterhaltsam!
 
oh du machs mich ja ganz verlegen blush.gif

Lübke ist ok! Hab mir die alten Videos wieder angeschaut, hab ich früher gern geschaut!
bin überrascht, dass das außer mir überhaupt noch wer kennt :d

Gut ich frag mal nach ob mir eine 2GB Karte gestellt wird.
wer stellt dir die karten denn?
Da wird sich mein FX wohl etwas verarscht vorkommen, die GPU wird wohl glühen!
ist das nicht sinn der übung?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh