Vielleicht wars einfach ein Bug im NV-Treiber. Meine Quelle ist die PCGH. Da war neulich ein HTT-Test drin.kann ich nicht bestätigen.
grade mal beim hexer 6 von 8 threads deaktiviert, läuft noch mit fps von über 30.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Vielleicht wars einfach ein Bug im NV-Treiber. Meine Quelle ist die PCGH. Da war neulich ein HTT-Test drin.kann ich nicht bestätigen.
grade mal beim hexer 6 von 8 threads deaktiviert, läuft noch mit fps von über 30.
Einen reinen Dual-Core ohne HT würde ich heutzutage nicht mehr kaufen - aktuelle i3s mit HT gehen aber gut ab:
D.h. bei z.B. einem 400 Euro Budget für CPU und Graka würde ich aus Preisleistungsgründen eher zum i3 + GTX 970 als zum i5 + GTX 960 greifen. Und Upgraden kann man bei Bedarf ja immer noch, denn weder der i3 noch der i5 sind das Ende der Fahnenstange auf ihrer Plattform.
Hier nochmal, da man die Wahrheit für Massenblödsinn wiedermal unterstützt...
@thom_cat
Kann mich nicht daran erinnern Beleidigungen geschrieben zu haben, trotzdem sind meine Posts weg.
Gut dann mal Tacheles Intel will 16 Threader verkaufen, das geht mit Quad-Core Programme nicht.
Dann ließ mal die Zahlen genauer... Ich kenne dieses Tool nicht, aber schon auf den zweiten Blick fällt auf, dass offenbar der Wert oben Fett gedruckt einfach ein Score ist, der aus den einzel Werten unten drunter erzeugt wurde.
Der CPU PhysX Test ist auf dem FX drastisch schlechter, die GPU Werte auf dem Intel trotz gleichem Modell ebenso.
dennis, deine screenshots zeigen übrigens auch klar auf, dass die graka-treiber je nach system unterschiedlich sind, die taktraten der grafikkarte sind anders, speichertimings usw usw. WENN du hier schon der meinung bist klugscheißen zu müssen, dann vermeide bitte solche anfängerfehler
Vllt. solltest du dir deinen neuen Lieblingsspruch "GPU braucht CPU" auf ein T-Shirt drucken lassen. Der taucht momentan in fast jedem deiner Posts auf, egal obs zum Thema passt oder nicht
@Dennis50300
du solltest aufhören solchen Quatsch zu fabrizieren... Du machst dich damit ziemlich lächerlich. Nur als kleiner Hinweis
-snip-
Habe mir alles durchgelesen und ich verstehe aber leider immer noch nicht den Ursprung der Frage. Was willst du den hören/wissen?Bedauerlicher Weise ist wenig konkretes heraus gekommen.
Mitgenommen habe ich, dass es idT Spiele gibt (genannt wurde magere vier), welche schwachsinniger Weise (Atom Z3735D ist auch Quad) angeblich die Kernzahl abfragen (und ihnen egal ist, ob es echte oder logische sind).
Angesichts des Niveaus erwarte ich auch nichts mehr. Ich habe keine Lust, einzelne Postings zu zerlegen, aber Arroganz, Ignoranz, Starrsinn und schlichtes Unvermögen (man könnte auch sagen Dummheit) quillt einigen Usern echt aus den Ohren. Trolle oben drauf. Das Hardwareluxx-Forum hat sich in den letzten Jahren leider nicht zum Besseren hin entwickelt. Schade. Wirklich.
Erklär mir doch mal eben wieso deri5 4690k den fx in gta5 im vergleich ständig/immer übertrumpft?Anscheinend wird hier marketing sowie Geblubber von Möchtergerns bevorzugt, die bewiesen haben das sie nur Bullshit schreiben ;-)
"Elchupacabre" und Konsorten... meine Aussagen beziehen sich auf Fakten und die Wahrheit, das schmeckt dann natürlich nicht.
Gruss Dennis
- - - Updated - - -
Das ändert nichts daran das GTA V genauso gut auf dem FX-8300 läuft wie auf dem i7, zu sagen das würde auf dem FX im Vergleich schlechter laufen ist Blödsinn, denn was machen wir denn, hinsichtlich der Konfiguration auf das GPU-Limit ?
Genau wie gehen an Details etwas runter um konstante 60 FPS zu bekommen und das war es dann für das Möchtegern-Intel-Argument für die "min FPS" denn die interessieren keine Sau ;-)
Dafür brauche ich keine Zahlen lesen, sondern habe HWInfo in Verbindung mit dem MSI Afterburner per OSD, siehe Screenshot in einem anderen Thread von mir.
GPU bei 99% ist GPU bei 99%, da gibt es nichts zu diskutieren denn "GPU braucht CPU", das steht also überhaupt garnicht zur Debatte.
So ne bescheuerte FreakShow wo die "min FPS" interessant sind, sind nunmal altbacken-Schrott-Software, für sowas sollte man keinen einzigen Cent irgendwo lassen *facepalm*
Gruss
Datenschutzhinweis für Youtube
An dieser Stelle möchten wir Ihnen ein Youtube-Video zeigen. Ihre Daten zu schützen, liegt uns aber am Herzen: Youtube setzt durch das Einbinden und Abspielen Cookies auf ihrem Rechner, mit welchen sie eventuell getracked werden können. Wenn Sie dies zulassen möchten, klicken Sie einfach auf den Play-Button. Das Video wird anschließend geladen und danach abgespielt.
Youtube Videos ab jetzt direkt anzeigen
- du hast 0 Diskussionskompetenz
- du bist nur am provozieren
- du meinst mit deinem vermeintlichen "Wissen" um dich zu werfen, bringt dir Bonuspunkte
- du merkst anscheinend gar nicht, dass dich sowieso kaum einer mehr ernst nimmt
Und Freesyn/Gsync und sowas ist noch genauso wenig zu einem guten Preis/Leistungsverhältnis zu bekommen wie 4K, 2K ist übrigens dann mal der Downsampling zumindest brauchbar anwendbar, ist gut für YouTube-Video-Capturing, da man auf YouTube mit 2560x1440 den besseren Codec bekommt Stichwörter "wird Berarbeitet" wenn man auf YouTube ein Video hochgeladen hat.
Hat wenig mit dem Thema hier zu tun. Aber Freesync gibt es ja für Lau wenn der Monitor den Standart erfüllt
Das Nvidia mit ihrem Gsync-Modul viel Geld verlangt hat, kein Wunder. Erfindungen müssen von jemandem bezahlt werden. Ist aber mit allem so, bei Release kann man P/L vergessen. Wer aber das neuste vom neusten will bezahlt es.
Tja Wissen haben oder eben nicht, Gehirn einschalten
Schon klar wenn du zufrieden bist mit deinem aktuellen Monitor, wäre es Sinnfrei einen neuen zu kaufen, nur wegen Freesync/Gsync.