Welche Spiele erwarten Quad-Core?

Status
Für weitere Antworten geschlossen.
Ok dann lade lieber weiter sinnlose Videos von deiner unvorteilhaften Visage hoch, wo du leere Versprechen machst "wie es denn nun weiter geht".
Aber genau wegen solchen Leuten wie dir, schäme ich mich einfach nur.

Was für ein Stuss, ich kann es mir zum Glück erlauben mich zu zeigen, bart weg und ich sehe noch aus wie ich ca. 12 bis 14 jahre jung gewesen bin ;-)
Schönheit ist im übrigen "relativ" wenn du ein kerl bist, kannst du alle kerle hässlich finden, oder du bist eben doch homosexuell und das würde das selbe mit Frauen aus deiner Sichtweise bewirken.

@digitalbath:

da ist nichts zerstört, das "gpu braucht cpu" ist zu diesem Thema von absoluter Relevanz, ebenfalls auch das man maximal möglichst konstante 60 FPS braucht für ein vernünftig flüssiges Gamingbild mit möglichst vielen oder noch besser allen Details.

Abgesehen davon ist DualCore so oder so absolut outdatet, das wäre die FreakShow wovon man heute ja FanBoy-artig immernoch behauptet sich nen AMD zu kaufen, wäre was für Freaks.
Freaks sind diejenigen die solchen Bullshit verbreiten wie das mit dem letzten vergleich per Video zwischen dem FX und dem Intel....

Ich habe beides schon immer besessen und eingesetzt, ich betrachte den ganzen Elektroschrott ganz einfach unvoreingenommen von oben herab, so wie das jeder Mensch tun sollte mit gesundem Menschenverstand.


Gruss
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"Schönheit ist im übrigen "relativ" wenn du ein kerl bist, kannst du alle kerle hässlich finden, oder du bist eben doch homosexuell und das würde das selbe mit Frauen aus deiner Sichtweise bewirken."

Soso, jemand der Homosexuell (der Begriff, lieber Dennis, beinhaltet Schwule UND Lesben)ist, findet also automatisch alle des jeweils anderen Geschlechts hässlich bzw. unattraktiv?! :rofl:

Immer wenn man denkt dein persönliches Maximum ist erreicht, setzt du noch nen Haufen oben drauf! Danke für die Art der Unterhaltung, bringt einen immer gut durch den Arbeitstag :xmas:
 
@dennis

Ein Intel DualCore mit HT reicht durchaus um bei manchen heutigen Spielen einen FX zu überholen. Wie es in Zukunft aussehen wird, weiß keiner. Ich persönlich würde mir keinen DualCore mehr kaufen. Das liegt aber eher im Auge des Betrachters.

Meinen FX habe ich seit 2012 und bin damit auch glücklich. Wenn ich mir heute einen neuen Prozessor kaufen müsste, würde ich sicherlich keinen FX kaufen, da dieser schlicht zu alt ist. Die AM3+ Plattform ist veraltet. AMD wird bis zen nichts neues mehr bringen. Bis dahin bleiben die Intel Prozessoren aus Preis/Leistung Sicht die einzige Empfehlung. Daran kannst du nichts verbiegen. So ehrlich sollte man sein.
 
Zuletzt bearbeitet:
Es sind freds wie diese, die dieses Forum ausmachen :bigok:

Quasi das Salz in der Suppe.

Sollte man nicht vergessen ;)
 
Zuletzt bearbeitet:
ich verstehe nicht ganz was der TE will? alle games die 4kerner voraussetzen? quadcore schlecht machen?

fühlt sich hier schon bissl an wie bei CB
 
Genau das ist es was ich gerne wissen wollte. Was soll der Thread aussagen, was will er genau hören?
 
Uhhhhhhhhhh, Du wagst es den einzig wahren "Meister" zu kritisieren! Obacht denn nun wirst Du erbarmungslos in den virtuellen Boden Ge-Dennist :fresse:

Selbiges habe ich ja aber auch schon in Post #38 angemerkt...

Das das lediglich 2 übertriebene variationen waren dürftest selbst du mit deinem IQ erkannt haben....

- - - Updated - - -

@dennis

Ein Intel DualCore mit HT reicht durchaus um bei manchen heutigen Spielen einen FX zu überholen. Wie es in Zukunft aussehen wird, weiß keiner. Ich persönlich würde mir keinen DualCore mehr kaufen. Das liegt aber eher im Auge des Betrachters.

Meinen FX habe ich seit 2012 und bin damit auch glücklich. Wenn ich mir heute einen neuen Prozessor kaufen müsste, würde ich sicherlich keinen FX kaufen, da dieser schlicht zu alt ist. Die AM3+ Plattform ist veraltet. AMD wird bis zen nichts neues mehr bringen. Bis dahin bleiben die Intel Prozessoren aus Preis/Leistung Sicht die einzige Empfehlung. Daran kannst du nichts verbiegen. So ehrlich sollte man sein.

Ja sicherlich, schon alleine das ist Quark, wenn du Cinebench betrachtest...., im praktischen Nutzen noch viel weniger.

Nunja stelle mal etwa über 100€ gegen wenigstens über 200€, öhm 100% Mehr Geld für eine nicht vorhandene Leistung oder eben Leistung die nicht gebraucht wird... siehe GTA V auf 8300er ;-)
FPS-Story ist ja ohne Gegenargumente geklärt...

- - - Updated - - -

ich verstehe nicht ganz was der TE will? alle games die 4kerner voraussetzen? quadcore schlecht machen?

fühlt sich hier schon bissl an wie bei CB

100 Punkte :bigok: :cool:

- - - Updated - - -

Genau das ist es was ich gerne wissen wollte. Was soll der Thread aussagen, was will er genau hören?

Die einzige vernünftige Antwort die versucht auf ihn einzugehen kommt irgendwie meiner-Seits, ich hab nen waschechten DualCore hier inkl. Performance-Plus da er nen L3 Cache hat weils nen um defekte, beschnittene 3/4 Kerner ist, Kuma-kern


Gruss

- - - Updated - - -

Max Payne 1 sowie der 2. Teil dürften darauf sicherlich bombastisch laufen auf erwähntem Kuma, davon könnte man nun ableiten...
TDU1 müsste ich einst auch noch darauf komplett durchgespielt haben und zwar so richtig schön flüssig mit vollen Details und derzeit waren wir dann wohl wenigstens mal bei HD-Ready-Auflösung angelangt.
 
es gibt zu jedem Geld ein System, und wenn ich mich erinnere war 2013 Plant vs Zombie Game des Jahres, das läuft ja auch auf den Smartphones.
 
Ja sicherlich, schon alleine das ist Quark, wenn du Cinebench betrachtest...., im praktischen Nutzen noch viel weniger.

Nunja stelle mal etwa über 100€ gegen wenigstens über 200€, öhm 100% Mehr Geld für eine nicht vorhandene Leistung oder eben Leistung die nicht gebraucht wird... siehe GTA V auf 8300er ;-)
FPS-Story ist ja ohne Gegenargumente geklärt...

Ja, wenn man nur GTA V spielt.

Nicht alle Spiele wurden und werden auf möglichst viele Prozessorkerne optimiert.
Z.B. bei Starcraft 2 sind die intel dualcores schneller als der FX. Bei Ashes of the Singularity sieht der FX besser aus.
 
es gibt zu jedem Geld ein System, und wenn ich mich erinnere war 2013 Plant vs Zombie Game des Jahres, das läuft ja auch auf den Smartphones.

Jops, es ist sicherlich aber alles andere als sinnvoll ein Game auf einem Kuma mit 2.8ghZ (DualCore) laufen zu lassen der bei 95W TDP total am schwitzen und Strom verbraten ist wo schon ein 4Kerne b.z.w. richtige "moderne" CPU das mit um die 30 Watt im IDLE abhandelt.
Wie man darauf kommt, tja Windows machts dir ;-)

Deswegen ist der HT von Intel und HT-optimiertes Zeugs vorallem in benchmarks für vergleich so Irrelevant wie'n Schaltjahr.
Ich kann ja mal das dämliche HT deaktivieren, AMD hat kein HT, wollen mal sehen wie es dann 4 Kerne ohne virtuelle weitere kerne aussieht gegen 8 echte Kerne obwohl jede zweite nur ne FPU darstellt und keinen ebenfalls vollwertigen CPU-Kern.
Dann sieht es nämlich erst Recht so richtig bitter aus für Intel.


Gruss Dennis50300
 
Zuletzt bearbeitet:
Ich kann ja mal das dämliche HT deaktivieren, AMD hat kein HT, wollen mal sehen wie es dann 4 Kerne ohne virtuelle weitere kerne aussieht gegen 8 echte Kerne obwohl jede zweite nur ne FPU darstellt und keinen ebenfalls vollwertigen CPU-Kern.
Dann sieht es nämlich erst Recht so richtig bitter aus für Intel.

ich weiß nicht was mit dir los ist, eine so schwachsinnige Argumentation liest man selten

jedenfalls impliziert deine Aussage dass Intel vor AMD liegt, ob nun echte unechte virtuelle pinke oder scheinheilige Kerne verwendet werden
 
Deswegen ist der HT von Intel und HT-optimiertes Zeugs vorallem in benchmarks für vergleich so Irrelevant wie'n Schaltjahr.
Ich kann ja mal das dämliche HT deaktivieren, AMD hat kein HT, wollen mal sehen wie es dann 4 Kerne ohne virtuelle weitere kerne aussieht gegen 8 echte Kerne obwohl jede zweite nur ne FPU darstellt und keinen ebenfalls vollwertigen CPU-Kern.
Dann sieht es nämlich erst Recht so richtig bitter aus für Intel.

Dann setze den FX aber bitte auch vom Takt so, dass er 90W TDP (wie ein 6600K) einhält. Wenn fair, dann fair. Und komm mir jetzt nicht mit ausreden...
Spätestens wenn der FX mit 90W TDP haushalten muss, sieht es sicher ganz "bitter" für Intel aus :fresse:

Un die Hälfte der "krüppel" Cores vom FX schaltest du dann bitte auch ab.
Immerhin hat er keine 2 vollwertige und vollständige Kerne pro Modul, genauso wie der i7.

Zen wird übrigens genauso wie derzeit die i7 SMT bekommen. Du "darfst" also auch bald "HT" mit AMD nutzen.
Ob das dann immenoch doof ist?
 
Zuletzt bearbeitet:
Deswegen ist der HT von Intel und HT-optimiertes Zeugs vorallem in benchmarks für vergleich so Irrelevant wie'n Schaltjahr.
Ich kann ja mal das dämliche HT deaktivieren, AMD hat kein HT, wollen mal sehen wie es dann 4 Kerne ohne virtuelle weitere kerne aussieht gegen 8 echte Kerne obwohl jede zweite nur ne FPU darstellt und keinen ebenfalls vollwertigen CPU-Kern.

Das ist schlicht und ergreifend technischer Unsinn, was du hier fabrizierst. Wie oben erwähnt, du machst dich lächerlich. Und merkst es nichtmal.

Aber ich gern bereit, dir den Quatsch auch mal verständlich zu machen:
1) "HT-optimiertes Zeugs" gibt es nicht. Es ist aus programmiertechnischer Sicht Unsinn. Man optimiert nicht auf HT/SMT oder wie auch immer man das nennen will. Sondern man optimiert auf die Threadanzahl. Und acht nunmal größer vier. Jede Software! Ich wiederhole, JEDE!!!, welche mit SMT ansatzweise mehr Leistung raushaut, wird dies auch bei CPUs machen, welche diese Threadanzahl native in Hardware bereit stellt. Warum? Weil es KEINE SMT/HT Optimierung ist, sondern stink normales Nutzen der Multithreadingfunktionalitäten. Das lernt man als Programmierer ziemlich schnell...
2) acht echte Kerne. -> er definiert, was ein Kern ist? Und wer definiert, was echt ist? Du? Ich denke nicht... AMD bietet mit der Modulbauweise und unter Nutzung von CMT CPUs mit vier Modulen, diese bieten acht Threads. Der Decoder ist in der Lage bis zu vier Operationen gleichzeitig rauszuhauen und damit technisch in der Lage beide Threads des einen Moduls abzudecken. Die FPU hat damit erstmal nix zu tun. Das ist eine ganz andere Einheit.
3) jeder zweite "Core" bei AMD stellt keineswegs "nur" eine FPU dar. -> das ist quatsch. Schau dir die Blockschaltbilder von AMD an. Solltest du wirklich mal tun. Das Modul besteht aus 2x Integer "Cores" zu je 2x ALU/AGUs, einer shared Decoder Einheit sowie einer shared FPU. Diese FPU kann mit 1x256Bit oder 2x128Bit arbeiten. Ist also Teilbar... Die FPU ist aber NICHT bestandteil eines der Integer Cores sondern einfach, wie üblich, ein "Coprozessor".
4) SMT sind keine "virtuellen weiteren Kerne". SMT ist ein Mittel zum Zweck und soll dazu dienen, die Hardwareeinheiten besser auslasten zu können. Im Unterschied zu CMT verwendet SMT dabei keine dedizierten Recheneinheiten.


So jetzt habe ich fertig. Hör bitte auf diesen Quatsch zu verbreiten... Das geht über keine Kuhhaut!
 
Das video schau ich mir mal an, das mit den Min FPS ist Bullshit, oder willst du behaupten GTA IV mit konstanten 20FPS wäre saugeil anzugucken.... das ist lächerlich....
[...]

Ja genau, der kranke Bullshit, das sind FPS die keiner braucht ohne VSYNC/Freesync, solange man letzteres noch nicht hat ist VSYNC An und Triple Buffering das Maß der Dinge für hohe Grafikansprüche und da haben wir konstante 60fps, mit sehr geringfügigem Drops etwas unter 50 FPS
Das deutlich höhere FPS die dir praktisch absolut 0 bringen am menschlichen Auge, natürlich auch grössere Drops verursacht die durchaus sehr wahrnehmbar sind für das menschliche Auge ist logisch.

Das sind genauso die typischen total hohlgedrehten Videos, genauso wie das GTA IV auf nem E-450 APU von AMD flüssig laufen würde, wer das ernsthaft mit der Grafik spielt hat ein beschisseneres Bild als auf einer Konsole wie der Playstation *facepalm*

Also wenn du wirklich so wie in deinem LetsPlay da spielst, dann ist jede Diskussion überflüssig. Die regelmäßigen Aussetzter die du die ganze Zeit hast sind die min FPS!




Mir wird da schon schlecht vom nur zugucken.
 
:rofl: Das ist aber nur, weil YT die Videos mit ihren Intel Krüppel CPUs komprimiert!

Du bist doch ein Lüger!

Das ruckelt gar nicht :)
 
Zuletzt bearbeitet:
GPU braucht CPU, das ist legitim und "Deine Röhre" ist eh altbacken software-shit *facepalm* hätten die mal VSYNC + Triple Buffering + Freesync benutzt... aber was schreibe ich, eh nur alles Marketingopfer mit Intel I5 Taschenrechner + HT aber ohne L3 Cache in der CPU, das ist FAKT! - Oder so ähnlich :fresse:
 
Fixed.

Das Let's Play da oben Microruckelt aber ziemlich... So könnte ich definitiv nicht spielen, ohne das mir schlecht wird (physisch schlecht ;) )

Lustig, das wollt ich sogar schreiben, ist dann aber irgendwo auf der Strecke geblieben. SuperTechnikFreak Homie hol ich meine Brüdis!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh