Welche Spiele erwarten Quad-Core?

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bedauerlicher Weise ist wenig konkretes heraus gekommen.

Mitgenommen habe ich, dass es idT Spiele gibt (genannt wurde magere vier), welche schwachsinniger Weise (Atom Z3735D ist auch Quad) angeblich die Kernzahl abfragen (und ihnen egal ist, ob es echte oder logische sind).

Angesichts des Niveaus erwarte ich auch nichts mehr. Ich habe keine Lust, einzelne Postings zu zerlegen, aber Arroganz, Ignoranz, Starrsinn und schlichtes Unvermögen (man könnte auch sagen Dummheit) quillt einigen Usern echt aus den Ohren. Trolle oben drauf. Das Hardwareluxx-Forum hat sich in den letzten Jahren leider nicht zum Besseren hin entwickelt. Schade. Wirklich.
 
Hier nochmal, da man die Wahrheit für Massenblödsinn wiedermal unterstützt...

AMD:
cat amd oc.jpg - directupload.net

Intel:
cat intel.jpg - directupload.net

GPU braucht CPU, so einfach ist das

Dennis

- - - Updated - - -

Einen reinen Dual-Core ohne HT würde ich heutzutage nicht mehr kaufen - aktuelle i3s mit HT gehen aber gut ab:



D.h. bei z.B. einem 400 Euro Budget für CPU und Graka würde ich aus Preisleistungsgründen eher zum i3 + GTX 970 als zum i5 + GTX 960 greifen. Und Upgraden kann man bei Bedarf ja immer noch, denn weder der i3 noch der i5 sind das Ende der Fahnenstange auf ihrer Plattform.

Kauf dir ne PlayStation 3 wenn dir das an Details ausreicht, der i7 2600 (ohne K) bekommst du auf OC nicht an die Leistung eines FX-8300 heran wie du siehst, der 1080p von Catzilla ist aber relevant, weil ordentlich Auflösung und Details.
Diese kleinen Taschenrechner kannste in der Pfeiffe rauchen, denn die "min FPS" interessieren kein Schwein, wir Zocken doch auf nem PC weil die Grafik um Welten besser ist anstatt mit einer Konsole und da gilt nunmal nach wie vor "GPU braucht CPU"
In einem Screenshot von mir sieht man ausserdem das eine 7970 bei 99% läuft wie also bitte soll ein kleiner i5 da bitte besser sein, das ist Blödsinn sondergleichen, lächerlich sind diese Screenshots... und Benches...

Zumal wenn man bei einem anderen da beachtet das man dafür sogar ein SLi braucht, wie wird das wohl im Vergleich i7 2600 gegen den FX-8300 aussehen wenn man das nun mit Crossfire/SLi betreibt und vergleicht wo der i7 2600 jetzt schon bremmst wird er da dann bei mindestens 2 Karten im Rechner legitim noch mehr limitieren im Vergleich zum FX.

Altbacken Software die durchweg HT optmiert ist wie 3DMark 05/06/ Vantage und auch der 11er ist vollkommen irrelevant wie'n Schaltjahr, das läuft auf jeder mondernen "Schraube" vernünftig.


Gruss
 
@Kickaha2
Was hattest du denn überhaupt erwartet?

ich mein, deine konkrete Anfrage mal außen vor, aber schon im zweiten Absatz lässt du dich über die anderen aus, und was dir alles so auf den Geist geht. Ich denke schon, dass es Gründe hat, WARUM man eine breitere CPU empfiehlt anstatt der schmaleren. Gerade unter dem Gesichtspunkt Spiele ist es idR häufig doch auch so, dass auch Grafikkartentreiber in die Breite skalieren können und es da bspw. teils massive Unterschiede gibt, ob man eine AMD oder NV GPU im System stecken hat...

Warum sollte man unter diesen Gesichtspunkten nicht das schnellere Produkt empfehlen? Das kann ich ehrlich gesagt nicht ganz nachvollziehen. Zumal du ja selbst sagst, dass es damit wohl deutlich FPS Verlust gibt, wenn man da zu viel einspart.

Die Frage ist eher, was willst du am Ende genau wissen? Worauf kommt es am Ende an?
Der CPU Unterbau in einem System ist ja nun nicht unbedingt das Hauptkriterium, wenn es ums Spielen geht. Aber sparst du dort am falschen Ende, dann ist ggf. viel früher Schicht im Schacht.


Übrigens, der Part mit ein Dualcore, der so schnell ist wie ein Quad alter/anderer CPU Generationen ist da auch so bisschen zwiespältig. Das Problem dabei ist, dass die Teile der Software schlicht nicht in allen Lebenslagen und zu jeder Zeit exakt gleich über den Takt/die pro Core Leistung sowie die Coreanzahl skalieren. Einzelnen Codezeilen sind idR sogar oftmals nur sequenzieller Natur und werden auch so gehändelt. Wenn du nun also während der Berechnung dem Thread das Zeitfenster entziehst, wartet der Rest. Nur was passiert, wenn du dann den Content des anderen Threads noch gar nicht benötigst? Dieser sogar möglicherweise, wenn das Programm weiter fortschreitet schon zu alt ist?
Zumindest ist diese gleiche Skalierung definitiv in Games idR nie der Fall. Es gibt häufig Abhängigkeiten zueinander. Und das Spiel tickt dazu noch in einer eigenen Zeit, damit eben das Spiel intern immer gleich schnell läuft, egal wie schnell die CPU selbst ist. -> das zieht Abhängigkeiten nachsich. Dagegen steht der Grafikpart, der idR so schnell berechnet wird, wie es geht. Sprich Threads werden aufeinander warten. Wenn nun durch einen Prozessor das Abarbeitungsverhalten drastisch geändert wird (was bei Quadcore zu gleichschnellem Dualcore der Fall wäre), geht das ggf. einfach nach hinten los. Dazu fingert das OS noch mit in der Suppe rum um vergibt Zeitfenster für die Berechnung. Ein CPU "Kern" kennt normal nur Last oder keine Last. Da gibts nicht, 33,8675% Last oder 87,623% Last. -> das sind Durchschnittsangaben des OS, welches einfach eine Zeiteinheit durch die Anzahl der CPU Belegung in dieser Zeit errechnet.

Grundsätzlich müsste theoreteisch jede Software auch auf nem SingleThread Prozessor laufen, sofern dieser die Befehlserweiterungen kennt, die notwendig sind. Nur wird die Performance dabei wohl (aktuelle Titel) desaströs schlecht ausfallen, vor allem bei Software, welche Multithreaded agiert und dieses Multithreading nicht durch Optimierung im Code, sondern durch Zusatzberechnungen erzeugt. In Games fallen mir da spontan Sachen wie KI, Physik und Co. ein -> lässt sich bis der Arzt kommt auf MT auslegen. Hat mit dem eigentlichen Game aber nichts zu tun. Wie stellt man nun sicher, dass all diese Zusatzberechnungen nicht die eigentlichen Spielethreads derart beeinflussen, dass es in einer Ruckelorgie endet? Indem man bspw. einfach die Threadanzahl vorgibt... Dann besteht zumindest zwingend das KANN (von der Gameseite), dass die Zusatzberechnungen auch zusätzlich laufen. Das sagt zwar nicht aus, dass der Prozessor generell schnell genug für spielbare FPS ist. Aber es nimmt dem Problem schonmal eine Menge Wind aus den Segeln. Dann fingert auch das OS nicht mehr so drastisch drin rum, da es einfach die Threads mit entsprechend Arbeit zuweist...
Ich denke schon, dass man das als Entwickler so machen kann...

Hier nochmal, da man die Wahrheit für Massenblödsinn wiedermal unterstützt...

Dann ließ mal die Zahlen genauer... Ich kenne dieses Tool nicht, aber schon auf den zweiten Blick fällt auf, dass offenbar der Wert oben Fett gedruckt einfach ein Score ist, der aus den einzel Werten unten drunter erzeugt wurde.
Der CPU PhysX Test ist auf dem FX drastisch schlechter, die GPU Werte auf dem Intel trotz gleichem Modell ebenso.

Entweder taugt der Bench nicht, oder aber die Grafikkarte des FX Systems ist einfach schneller und überdeckt damit schlicht und ergreifend den mauen CPU Wert.
 
@thom_cat
Kann mich nicht daran erinnern Beleidigungen geschrieben zu haben, trotzdem sind meine Posts weg.

Gut dann mal Tacheles Intel will 16 Threader verkaufen, das geht mit Quad-Core Programme nicht. ;)

Anscheinend wird hier marketing sowie Geblubber von Möchtergerns bevorzugt, die bewiesen haben das sie nur Bullshit schreiben ;-)

"Elchupacabre" und Konsorten... meine Aussagen beziehen sich auf Fakten und die Wahrheit, das schmeckt dann natürlich nicht.


Gruss Dennis

- - - Updated - - -

Dann ließ mal die Zahlen genauer... Ich kenne dieses Tool nicht, aber schon auf den zweiten Blick fällt auf, dass offenbar der Wert oben Fett gedruckt einfach ein Score ist, der aus den einzel Werten unten drunter erzeugt wurde.
Der CPU PhysX Test ist auf dem FX drastisch schlechter, die GPU Werte auf dem Intel trotz gleichem Modell ebenso.

Das ändert nichts daran das GTA V genauso gut auf dem FX-8300 läuft wie auf dem i7, zu sagen das würde auf dem FX im Vergleich schlechter laufen ist Blödsinn, denn was machen wir denn, hinsichtlich der Konfiguration auf das GPU-Limit ?
Genau wie gehen an Details etwas runter um konstante 60 FPS zu bekommen und das war es dann für das Möchtegern-Intel-Argument für die "min FPS" denn die interessieren keine Sau ;-)

Dafür brauche ich keine Zahlen lesen, sondern habe HWInfo in Verbindung mit dem MSI Afterburner per OSD, siehe Screenshot in einem anderen Thread von mir.
GPU bei 99% ist GPU bei 99%, da gibt es nichts zu diskutieren denn "GPU braucht CPU", das steht also überhaupt garnicht zur Debatte.

So ne bescheuerte FreakShow wo die "min FPS" interessant sind, sind nunmal altbacken-Schrott-Software, für sowas sollte man keinen einzigen Cent irgendwo lassen *facepalm*


Gruss
 
Zuletzt bearbeitet:
dennis, deine screenshots zeigen übrigens auch klar auf, dass die graka-treiber je nach system unterschiedlich sind, die taktraten der grafikkarte sind anders, speichertimings usw usw. WENN du hier schon der meinung bist klugscheißen zu müssen, dann vermeide bitte solche anfängerfehler :fresse:

Vllt. solltest du dir deinen neuen Lieblingsspruch "GPU braucht CPU" auf ein T-Shirt drucken lassen. Der taucht momentan in fast jedem deiner Posts auf, egal obs zum Thema passt oder nicht :xmas:
 
@Dennis50300
du solltest aufhören solchen Quatsch zu fabrizieren... Du machst dich damit ziemlich lächerlich. Nur als kleiner Hinweis ;)
 
Diesen "Hinweis" bekommt er seit Jahren, von zig Usern (quasi überall wo er etwas schreibt), in diversen Foren, immer und immerwieder. Es fruchtet nicht sondern wird mit den immer gleichen Phrasen, ohne Sinn und Verstand versucht in Grund und Boden zu reden. Dieser Mensch scheint (ohne das jetzt böse zu meinen) unter einer nicht unerheblichen Persönlichkeitsstörung zu leiden und benötigt professionelle Hilfe.
 
dennis, deine screenshots zeigen übrigens auch klar auf, dass die graka-treiber je nach system unterschiedlich sind, die taktraten der grafikkarte sind anders, speichertimings usw usw. WENN du hier schon der meinung bist klugscheißen zu müssen, dann vermeide bitte solche anfängerfehler :fresse:

Vllt. solltest du dir deinen neuen Lieblingsspruch "GPU braucht CPU" auf ein T-Shirt drucken lassen. Der taucht momentan in fast jedem deiner Posts auf, egal obs zum Thema passt oder nicht :xmas:

Kann man mal sehen das du absolut 0 Plan hast, die 7970 läuft in beiden Fällen schon höher getaktet per Treiber als Asus das auf dieser DCII 7970 selber geflasht hat *facepalm*

- - - Updated - - -

@Dennis50300
du solltest aufhören solchen Quatsch zu fabrizieren... Du machst dich damit ziemlich lächerlich. Nur als kleiner Hinweis ;)

Diejenigen die sich lächerlich machen seit ihr die keine Ahnung haben

GPU braucht CPU = FAKT

Da ein FX-8300 mit höheren Taktraten dazu in der Lage ist bessere Ergebnisse zu bringen als ein i7 mit geringfügig niedriegeren Taktraten bei derselben Grafikkarte ist das einfach ein Beweis, ein weiterer Fakt, nicht wiederlegbar weil es schlichtweg keine Argumente dagegen gibt.

GTA V läuft auf dem FX 8300 genauso und zwar exakt genauso flüssig wie auf dem i7, ihr labert Bullshit macht euch lächerlich ja, ich hab euch bislang immer plattgewalzt und wiederlegt mit Fakten und Wahrheiten das ihr keine Ahnung habt und jetzt strampelt ihr wie kleine Kinder...

Ich seid lächerlich .... :popcorn: :coffee:


Gruss

- - - Updated - - -

CPU Limitierung aufdecken/CPU Stats Ingame anzeigen

Kapieren und einsehen... ,mehr ist das nicht

- - - Updated - - -

Screenshot im letzten Posting von mir

Und es offenbarte sich exakt das was ich mir schon gedacht habe, Intel-FanBoy gequatsche, da es auf dem i7 nämlich kein Stück besser läuft mit der 7970

Als offiziell empfohlen auf der OVP und diese hielt ich schon real in den Händen im GameStop steht übrigens als Empfohlen "7870" ;-)


Gruss
 
Nachtrag:
Ich habe zufällig den Artikel wieder gefunden, auf welchen ich mich bzgl. begrenzter Sinnhaftigkeit teurer CPUs insbesondere bei Verwendung schwächerer GPUs bezog: Intel Core i3 vs. Core i5 vs. Core i7: A Value and Performance Analysis - TechSpot

Die Ergebnisse sprechen für sich. Selbst wenn man Voreingenommenheit oder grenzwertigen Testparcours annimmt (was imho nicht der Fall ist - dann hätte man 'zufällig' Metro Redux ersetzt). Man beachte, dass 4370 günstiger ist als 4350 und >5% höher taktet.

Als Seitenhieb noch Then and Now: Almost 10 Years of Intel CPUs Compared - TechSpot dazu.
 

Was ich in Post #39 lese sind vorallem Beleidigungen und Größenwahnsinn und eine riesige Portion mimimi. Aber hauptsache "Recht" gehabt.

Zum sensationellen "GPU braucht CPU" Spruch:
Du kannst auch weiterhin hier ganz viele tolle Benchmarks zeigen, jedoch solltest du dir auch vor Augen halten was ein Cpu Limit ist und wie du es zum Aufzeigen der Leistungsfähigkeit einer Cpu nutzen kannst.
i3, i5, i7 und FX mit einer GTX950 in 4K mit UHQ ist nicht wirklich sinnvoll um herauszukehren das dein toller FX der Weisheit letzter Schluss ist.
Bevor du mir jetzt vorwirfst das du einen solchen Benchmark nicht gepostet hast: Das war nur ein Beispiel zur Verdeutlichung.

Am Rande:
Wie schon in meinem (mittlerweile leider gelöschten) Post vermutet rede ich wohl doch mit einer Wand.
Oder um ganz präzise zu bleiben: nun rede ich mit keiner Wand mehr.

@Kickaha2
Hast du wirklich was anderes erwartet als dieses Ergebnis? ;)
 
Zuletzt bearbeitet:
Tzk:

Dann verstehst du die Intention einfach nicht.
Wenn es nur ums Zocken alleine geht und man beweist das in jeder Situation irgendein i5 auch ausreicht für stabile 60FPS mit VSYNC und Triple Buffering, so sei es, günstiger als zum Bleistift ein 8350 ist er aber dennoch nicht und schon garnicht wenn es ein neues Skylake Modell sein soll.

Dieses Taktgeschwafel von "towatai" und natürlich mache ich mich über die gewissen Leute lustig.... denn GTA V läuft mit denselbigen Details sicherlich auf garkeiner Grafikkarte die lediglich 2Gb Speicher hat, weil sie schlichtweg zu wenig Speicher hat.
Ich RAM(me) ;-) ja schon die 3GB meiner 7970 fast ganz voll für soviele Details wie sie bei diesem Spiel schafft, tja und ob das nun mit dem i7 2600 sandiger Brücke als Unterbau läuft oder mit dem FX-8300 zuvor macht da keinen Unterschied.

High-End gut und gerne, aber es gibt ein gesundes Maximum beim PC's Stuff wo sich alles so rasant entwickelt, bei Audiosachen und HiFi ist das anders, beispielsweise Lautsprecher ist das Physikalische Entwicklungsmaximum eh erreicht, dort von Wirkungsgrad zu schwafeln ist genauso hohl als würde man sagen ich könne mit einem Käfer-Motor in einem Porsche, damit Porscheleistung auf die Strasse bringen. (Wirkungsgrad kann die Endstufe nen guten haben, ist nämlich im Vergleich zum KFZ mehr der Motor und die Lautsprecher die Reifen nur das Automotoren im vergleich dazu einen pervers beschissenen Wirkungsgrad haben, wer mit dem Wort und den Fakten zu Leistung nichts anfangen kann... *facepalm*)

NV hat meines Wissens nach für die PhysX Geschichte das ganze mal aufgekauft und in ihre Grafikkarten integriert, also wenn man dann anstatt einer AMD-Karte ne NV nimmt, was aber auch nur wieder bei Spielen etwas bringt wie z.B. die neue Version von "Rise of the Triad" was das auch benutzt, dann und auch nur dann hätte man pauschal mal einen Vorteil. Die Mehrdetails halten sich allerdings immens in Grenzen, vielleicht kennt ihr ja auch das Spiel "Infernal" also ich vermisse nichts auf meiner AMD Grafikkarte und das kam zu einer Zeit raus und war bombastisch spielbar gewesen auf einer 9800GT (synergy Edition von Zotac), natürlich waren wir "damals" noch nicht auf 1080p.....

Nur weil es beweist das es die pure Wahrheit aufzeigt will man das nun nicht mehr Lesen oder was ?
der i7 2600 rendert in MeGUI übrigens gleichschnell wie der FX-8300, aber Intel ist ja soviel besser weil soviele die dem Marketing hinterherrennen soviel besser, Fakt ist das da garnix besser ist.

Speedshift ist die Erkenntnis das AMD's APM "sehr geil" ist und da hier das es vorbei ist mit den 4 Kernern:
CB-Link

Aha, jetzt gibt es anscheinend auch 6 Kerner und sogar auch 8 kerne sowie 10 kerne von Intel, als i7.... sicherlich nicht ohne Grund... nur der Preis ist der letzte Sche***

Gruss Dennis
 
Zuletzt bearbeitet:
Nur so am Rande. Der Käfer wurde von Ferdinand Porsche entwickelt. Daher ist der Motor eines Käfer auch ein "Porsche". Daher baust du also einen Käfer(Porsche)motor in einen Porsche und erwartest die Leistung eines Porsche...... Na, merkste was?
Der Rest ist leider wie üblich zurechtkonstruiertes Gebrabbel, was aber leider den Normalzustand in deinen Posts darstellt und damit jeden Thread versaut.
 
2015 und wir diskutieren über DC vs QC?
Die Duskussion hab ich vor 7 Jahren verstanden, aber heute? ernsthaft?

Oftmals mag es sinnvoller sein, einen DC mit einer besseren Grafikkarte zu kombinieren, meist wird das mit dem Aufrüsten ein paar Jahre später dann aber schwierig.
Neu gibts nix mehr, gebraucht will nicht jeder, Verfügbarkeit des gewünschten Modells auch nicht so prickelnd.
Lieder heute einen QC und eine schlechtete GPU, als morgen vielleicht die ganze Plattform tauschen zu müssen.

Bei den ganzen "Tests" gibts immer noch die selben Probleme wie SC vs DC, einzel Benchs sind ganz nett, aber ich zumindest mach mit meinem PC mehr als nur ein Game starten.
Und sollte auch ein Programm mit 2-3Threads zurfreden sein, hat man mit nem QC immer noch Reseven im Hintergrund Aufgaben zu erledigen.
 
Bedauerlicher Weise ist wenig konkretes heraus gekommen.

Mitgenommen habe ich, dass es idT Spiele gibt (genannt wurde magere vier), welche schwachsinniger Weise (Atom Z3735D ist auch Quad) angeblich die Kernzahl abfragen (und ihnen egal ist, ob es echte oder logische sind).

Angesichts des Niveaus erwarte ich auch nichts mehr. Ich habe keine Lust, einzelne Postings zu zerlegen, aber Arroganz, Ignoranz, Starrsinn und schlichtes Unvermögen (man könnte auch sagen Dummheit) quillt einigen Usern echt aus den Ohren. Trolle oben drauf. Das Hardwareluxx-Forum hat sich in den letzten Jahren leider nicht zum Besseren hin entwickelt. Schade. Wirklich.
Habe mir alles durchgelesen und ich verstehe aber leider immer noch nicht den Ursprung der Frage. Was willst du den hören/wissen?
Wenn ein Spielehersteller sich dafür entscheidet, dass seine Software für Quad optimiert wurde ist es doch sein gutes Recht, eine Abfrage einzubinden.
1. Auch wenn ein alter Dualcore eventuell höher getaktet ist, wird der nicht unbedingt mehr Leistung (FPS) bringen wenn das Spiel mit einem Quad mehr anfangen kann. Mehr Mhz heisst nicht mehr Leistung.

2. Lässt man die Abfrage weg und man kann das Spiel starten, jedoch wegen der fehlenden Leistung muss ich das Spiel zb. bei 1024x768, min. Einstellungen und 10FPS spielen. Macht das Sinn? Macht das Spass? Hauptsache ich konnte es starten?

3. Es gibt nunmal nicht nur Spiele, wenn ich jemandem also einen Quad empfehle anstatt einem Dualcore im Jahre 2015, dann bin ich arrogant, ignorant und einfach dumm?? Nur weil ich jemandem eine CPU empfehle die im Moment vielleicht ein paar Euro mehr kostet diese jedoch für ein paar Jahre länger hält? Wenn ich jetzt noch mit Dualcores daher kommen, weiss ich ganz genau in 1-2 Jahre wird derjenige herumheulen weil ihm die Leistung fehlt.

4. Wie gesagt, es gibt nicht nur Spiele und ich habe keine Lust mir 2 PC's zuzulegen. Ausserdem, im Jahre 2015 gibt es tatsächlich Spiele die mit mehr als 4 Threads (ob virtuell oder nicht) auskommen können und extrem davon profitieren. Warum soll ich das nicht ausnutzen wenn ich dementsprechend auch die GPU-Power habe?

5. Grundlage solcher Diskussionen sind genau der Grund warum man solange 32 / 64 Bit nebeneinander laufen lässt. Man könnte meinen, man will mit biegen und brechen keinen Fortschritt erlangen. Würde man endlich OS, Software , Treiber nur noch auf 64 Bit programmieren, wären wir meiner Meinung nach besser bedient. Aber eben, weil gewisse Leute immernoch denken man soll lieber auf dem alt bewerten bleiben, seucht man sich durch Kompromisse.

Ich will keinen Streit, ich würde gerne wissen "WAS IST DIE FRAGE?"
 
Zuletzt bearbeitet:
Anscheinend wird hier marketing sowie Geblubber von Möchtergerns bevorzugt, die bewiesen haben das sie nur Bullshit schreiben ;-)

"Elchupacabre" und Konsorten... meine Aussagen beziehen sich auf Fakten und die Wahrheit, das schmeckt dann natürlich nicht.


Gruss Dennis

- - - Updated - - -



Das ändert nichts daran das GTA V genauso gut auf dem FX-8300 läuft wie auf dem i7, zu sagen das würde auf dem FX im Vergleich schlechter laufen ist Blödsinn, denn was machen wir denn, hinsichtlich der Konfiguration auf das GPU-Limit ?
Genau wie gehen an Details etwas runter um konstante 60 FPS zu bekommen und das war es dann für das Möchtegern-Intel-Argument für die "min FPS" denn die interessieren keine Sau ;-)

Dafür brauche ich keine Zahlen lesen, sondern habe HWInfo in Verbindung mit dem MSI Afterburner per OSD, siehe Screenshot in einem anderen Thread von mir.
GPU bei 99% ist GPU bei 99%, da gibt es nichts zu diskutieren denn "GPU braucht CPU", das steht also überhaupt garnicht zur Debatte.

So ne bescheuerte FreakShow wo die "min FPS" interessant sind, sind nunmal altbacken-Schrott-Software, für sowas sollte man keinen einzigen Cent irgendwo lassen *facepalm*


Gruss
Erklär mir doch mal eben wieso deri5 4690k den fx in gta5 im vergleich ständig/immer übertrumpft?


Der i7 2600 liegt mind auf Augenhöhe mit dem 4690k. Ein FX ist einfach nicht so flott wie ein i5/i7 ab Sandy Bridge. Und wie der Kollege schon gesagt hat: du machst dich mit solchen Aussagen lächerlich. Ich möchte nicht behaupten, dass man das Spiel nicht auch auf dem FX spielen kann, aber die FPS mit dem Intel sind einfach höher und damit stabiler (min fps sind das was das Spielgefühl ausmachen und nix anderes).
 
Zuletzt bearbeitet:
Die Hoffnung stirbt zuletzt.

Zumindest scheint es bei manchen kein Problem zu sein, wenn sie Andere laufend beleidigen.
 
Weil ich so lächerlich bin, hab ich auf einem Zweitkanal für's Gaming zuerst noch ohne auch nur einem Video auch direkt 7 Abo's :d

Hier das Spiel gibt es umsonst, also kein Marketing...
Wing Commander - Saga, bald auf Deutsch

dreimal dürft ihr raten warum man wenn ein AMD anstatt der Intel angegeben ist lustigerweise der AMD weniger Takt braucht...
Etwas das Intel mittlerweile wohl mal gerafft hat, PIII 750 vs AMD 500 SuperSockel7 , 256KB L2 Cache vs. 2MB auf Mainboard.... Intel sucked...

Das video schau ich mir mal an, das mit den Min FPS ist Bullshit, oder willst du behaupten GTA IV mit konstanten 20FPS wäre saugeil anzugucken.... das ist lächerlich....


Gruss

- - - Updated - - -


Ja genau, der kranke Bullshit, das sind FPS die keiner braucht ohne VSYNC/Freesync, solange man letzteres noch nicht hat ist VSYNC An und Triple Buffering das Maß der Dinge für hohe Grafikansprüche und da haben wir konstante 60fps, mit sehr geringfügigem Drops etwas unter 50 FPS
Das deutlich höhere FPS die dir praktisch absolut 0 bringen am menschlichen Auge, natürlich auch grössere Drops verursacht die durchaus sehr wahrnehmbar sind für das menschliche Auge ist logisch.

Das sind genauso die typischen total hohlgedrehten Videos, genauso wie das GTA IV auf nem E-450 APU von AMD flüssig laufen würde, wer das ernsthaft mit der Grafik spielt hat ein beschisseneres Bild als auf einer Konsole wie der Playstation *facepalm*
 
Zuletzt bearbeitet:
Der Einzige, der wirklich lächerlich ist, bist du! Aber das merkst du nichtmal.

- du hast 0 Diskussionskompetenz
- du bist nur am provozieren
- du meinst mit deinem vermeintlichen "Wissen" um dich zu werfen, bringt dir Bonuspunkte
- du merkst anscheinend gar nicht, dass dich sowieso kaum einer mehr ernst nimmt

Außer rumpöbeln kannst du nicht viel, deshalb bekommst du in den meisten Foren auch den entsprechenden Response.

Nur weil ich nicht's zum Thema schreibe, bin ich weder dämlich, noch lächerlich, noch hohlgedreht, wie du es so schön geschrieben hast, sondern es ist einfach sinnfrei, eine Diskussion mit dir zu führen, da du das nie gelernt hast.
 
- du hast 0 Diskussionskompetenz
- du bist nur am provozieren
- du meinst mit deinem vermeintlichen "Wissen" um dich zu werfen, bringt dir Bonuspunkte
- du merkst anscheinend gar nicht, dass dich sowieso kaum einer mehr ernst nimmt

aha, jemand der nur Marketingblödsinn erzählt, hat auch die Glaubwürdigkeit
dann geh mir nicht auf den Sender mit deinem Quatsch
Tja Wissen haben oder eben nicht, Gehirn einschalten
wer mich nicht ernst nimmt folgt solchen Leuten wie dir, was einfach Blödheit ist

Setzen 6

keine Argumente, aber ne grosse Klappe bis nach Meppen.... *facepalm*

- - - Updated - - -

Was bitte provoziert dich denn ?

DIE WAHRHEIT DIE DU EINFACH NICHT AKZEPTIEREN WILLST SOWAS NENNT MAN LERNRESISTENT, GESELLSCHAFTLICH SCHROTT

- - - Updated - - -

übrigens "ehrlich währt am Längsten", von mir gibt es lediglich Fakten und Wahrheiten nichts weiter

Und Freesyn/Gsync und sowas ist noch genauso wenig zu einem guten Preis/Leistungsverhältnis zu bekommen wie 4K, 2K ist übrigens dann mal der Downsampling zumindest brauchbar anwendbar, ist gut für YouTube-Video-Capturing, da man auf YouTube mit 2560x1440 den besseren Codec bekommt Stichwörter "wird Berarbeitet" wenn man auf YouTube ein Video hochgeladen hat.

PUNKT

- - - Updated - - -

abgesehen davon, muss ich nichts und niemandem etwas Beweisen, schon garnicht mir selbst, ich nutze mein Wissen für andere, wer intelligent ist nutzt das, wer nicht und Geld verblasen will sowie eben nicht sinnvoll etwas haben möchte so sei es
PECH GEHABT UND SELBST SCHULD
 
Zuletzt bearbeitet:
Sorry Dennis, das ich so direkt frage, aber hast du eine geistige Behinderung oder steckst du noch in der Pubertät? Dein Geschreibsel ala"sandige Brücke",*facepalm*, permantentes Beleidigen und die nicht vorhandene Kritikfähigkeit lassen leider sehr darauf schließen. Jedenfalls wirkt alles in deinen Texten sehr emotional Unreif mit einem Schuß aufgesetzter Coolness.
Das dazu deine "Erkenntisse" auch fachlich falsch sind, macht die Sache nicht besser für dich.
 
Uhhhhhhhhhh, Du wagst es den einzig wahren "Meister" zu kritisieren! Obacht denn nun wirst Du erbarmungslos in den virtuellen Boden Ge-Dennist :fresse:

Selbiges habe ich ja aber auch schon in Post #38 angemerkt...
 
Zuletzt bearbeitet:
Und Freesyn/Gsync und sowas ist noch genauso wenig zu einem guten Preis/Leistungsverhältnis zu bekommen wie 4K, 2K ist übrigens dann mal der Downsampling zumindest brauchbar anwendbar, ist gut für YouTube-Video-Capturing, da man auf YouTube mit 2560x1440 den besseren Codec bekommt Stichwörter "wird Berarbeitet" wenn man auf YouTube ein Video hochgeladen hat.

Hat wenig mit dem Thema hier zu tun. Aber Freesync gibt es ja für Lau wenn der Monitor den Standart erfüllt :hmm:
Das Nvidia mit ihrem Gsync-Modul viel Geld verlangt hat, kein Wunder. Erfindungen müssen von jemandem bezahlt werden. Ist aber mit allem so, bei Release kann man P/L vergessen. Wer aber das neuste vom neusten will bezahlt es.
 
Ich geh auf den Quatsch jetzt garnicht mehr weiter ein...
Schaut mal hier... Cache und so.... der i5 hat keine Chance... FAKT

Non-Amiga: PC Komponenten Empfehlungen? a1k.org Forum...

Was du machst RoBBe07 ist genauso "strampeln" wie ein kleine Kind was seinen Willen nicht bekommt wie "elchupacabre", "ich will aber recht haben, wäääh" , aber was solls es ist lustig :popcorn:

Im übrigen zählte auch damals schon wenn man AMD500 SuperSockel 7 vs. PIII 2MB vs. 256KB Cache miteinander vergleicht genauso wie beim RAM, wo es wirklich spürbar ist, lediglich die Menge des Cache eine Rolle, oder wollt ihr etwa behaupten der L2 Cache vom Mainboard wäre schneller an der CPU angebunden beim SuperSockel7 als der der beim PIII damals in der CPU saß wie heute die Memory Controller....

Ich hole an Fachwissen mal noch weiter aus, einfach nur weil ihr es sicherlich noch nicht wisst, denn genau das zeigt ihr hier mit euren Nicht-Fachwissen...


Gruss

- - - Updated - - -

Hat wenig mit dem Thema hier zu tun. Aber Freesync gibt es ja für Lau wenn der Monitor den Standart erfüllt :hmm:
Das Nvidia mit ihrem Gsync-Modul viel Geld verlangt hat, kein Wunder. Erfindungen müssen von jemandem bezahlt werden. Ist aber mit allem so, bei Release kann man P/L vergessen. Wer aber das neuste vom neusten will bezahlt es.

Jops, dann zähle mal die Bildschirme auf, bin mal gespannt was die kosten sollen im vergleich zu meinen die ich auch in meinem SysProfile habe.

Preis/Leistung = 100 Prozent

Stromverbrauch klasse, 40 Zoller braucht maximal 60 Watt, Monitor 30, ein Wunder der Technik, LED's haben nen verdammt "geilen" Wirkungsgrad
40er etwas über 200€, Monitor bisschen mehr als 100€

Über subjektivem Bullshit wenn man von einem auf den anderen Bildschirm guckt zumal in einem Geschäft, vom Verkäufer dann auch noch verstellt, legitim damit man deswegen dann den "besseren" *hust* teureren kauft muss ich mich jetzt nicht auslassen :d
 
Zuletzt bearbeitet:
Schon klar wenn du zufrieden bist mit deinem aktuellen Monitor, wäre es Sinnfrei einen neuen zu kaufen, nur wegen Freesync/Gsync.
 
Schon klar wenn du zufrieden bist mit deinem aktuellen Monitor, wäre es Sinnfrei einen neuen zu kaufen, nur wegen Freesync/Gsync.

Right...

@Invd:

Sicherlich nicht, aber die dämliche Gesellschaft steht nunmal mehr auf Marketing und Voodoo....

Ich habe als Hobby, lieber an die 150 Abo's mit denen ich mich grössten-Teils interessant und auf wirklich intelligentem Niveau unterhalten kann, als 3000 oder noch mehr "Deppen" wie dir mit ihrem Unwissen nur ständig auf den Zeiger gehen, genauso wie du gerade hier mit diesem Posting mit Inhalt = Nonsens
Wer bist du "NoName" überhaupt ?!??, verstehste ? die geballte Ladung was die Gesellschaft so tagtäglich an den Tag legt....
....
Edit:
Ahja noch ein FanBoy dem die Wahrheit nicht gefällt :popcorn:


Gruss

- - - Updated - - -

Um hier nochmal richtig Salz in die Wunder zu streuen...

Warum 4K....

Der Junge Mann ist Student und hat Wissen aus Leidenschaft, so wie ich nur das ich kein Student bin....

So und jetz ?!???

Edit:
Zitat: "Farben...." aha, also gibt es keinen perfekten Bildschirm für irgendwas genauso wenige wie Lautsprecher am Frequenzgang, sie können lediglich gut genug sein uns den Eindruck zu vermitteln.
Jetzt soll mal Einer erzählen das sein Bildschirm der doppelt so teuer war tatsächlich besser wäre, obwohl er genauso eben bewiesen kein echtes Bild darstellen kann.

Kannst du ja auf Japan nen 8K zukommen lassen und importieren, viel Spass was das Teil kostet :bigok:


Gruss
 
Zuletzt bearbeitet:
Ok dann lade lieber weiter sinnlose Videos von deiner unvorteilhaften Visage hoch, wo du leere Versprechen machst "wie es denn nun weiter geht".
Aber genau wegen solchen Leuten wie dir, schäme ich mich einfach nur.
 
@ dennis.... Du trollst doch offensichtlich. Mit fast 27 Jahren schreibt man doch nicht so unreif, oder? Du hast es geschafft diesen thread zu zerstören. Der TE dürfte sich dafür wohl bedanken.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh