Ab 469 Euro: Intels Core i7-11700K vor offiziellem Launch verfügbar

Beispiel:
Display Port Kabel also nicht mehr direkt an die, z. B. die RTX 3080 anschließen, sondern direkt am Display Port des Boards, Bild wird dann direkt über die Intel Iris Xe iGPU des 11700K ausgeben, sobald ein Spiel gestartet wird, wird dann die RTX 3080 aktiviert und für's rendern der Bilder genutzt, also wie im Notebook quasi. Adaptibe Sync mit Freesync Monis funktioniert einwandfrei, ich habe jetzt mal zeitgleich meinen 4K LG über Display Port am Board angeschlossen und meinen WQHD Zweitmoni am HDMI Ausgang des Boards, Adaptive Sync läuft auch auf beiden, also über HDMI und Dispaly Port.
Wurde das nicht vor 2 Jahren schon genutzt, bspw. um gebrauchte Mining GPUs (ohne Display Ausgang) zum spielen zu nutzen? (mit modifiziertem Treiber)
Ich erinnere da ein Linus Video :unsure:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hoffe ja AMD bringt sowas für die 3000/5000er Serie auch noch :d
 
@Don
Habe hier noch was sehr interessantes entdeckt; muss wohl auch alles beim Review durchgetestet werden. Ich weiß jetzt nicht wie es bei Z490 und 10er Core Serie ist bzw. ob das dort auch schon ging, aber mit 11700K und Z590 ist es jetzt möglich über die iGPU Adaptive Sync zu nutzen und die Bildausgabe auch mit verbauter Hauptgrafikkarte komplett über das Board bzw. die iGPU laufen zu lassen.
Das geht meines Wissens nach auch jetzt schon. So kannst du beispielsweise bei den Mining-Karten ohne Display-Ausgang einfach das Signal über die iGPU ausleiten – auch mit Sync.
 
Funktioniert denn auch G-Sync über diese Option?
 
Es ist eine Aussage, eine Persönliche, aber eine Aussage, die so, wie sie da steht, sowohl viel zu pauschal formuliert, als auch erwiesenermaßen falsch ist. Ergo eine pauschale Falschaussage.
Sorry, aber ich sehe das anders. In meinen Augen ist dies rein sein Meinung. Ob sie nun richtig ist oder nicht. Querdenker haben auch ihre Meinung. Ob sie nun richtig ist oder falsch. (Nur als Beispiel)
 
@Don
Habe hier noch was sehr interessantes entdeckt; muss wohl auch alles beim Review durchgetestet werden. Ich weiß jetzt nicht wie es bei Z490 und 10er Core Serie ist bzw. ob das dort auch schon ging, aber mit 11700K und Z590 ist es jetzt möglich über die iGPU Adaptive Sync zu nutzen und die Bildausgabe auch mit verbauter Hauptgrafikkarte komplett über das Board bzw. die iGPU laufen zu lassen.

Beispiel:
Display Port Kabel also nicht mehr direkt an die, z. B. die RTX 3080 anschließen, sondern direkt am Display Port des Boards, Bild wird dann direkt über die Intel Iris Xe iGPU des 11700K ausgeben, sobald ein Spiel gestartet wird, wird dann die RTX 3080 aktiviert und für's rendern der Bilder genutzt, also wie im Notebook quasi. Adaptibe Sync mit Freesync Monis funktioniert einwandfrei, ich habe jetzt mal zeitgleich meinen 4K LG über Display Port am Board angeschlossen und meinen WQHD Zweitmoni am HDMI Ausgang des Boards, Adaptive Sync läuft auch auf beiden, also über HDMI und Dispaly Port.

Die RTX 3080 wird so im Desktopbetrieb komplett abgeschaltet, verbraucht dann gerade mal 5 Watt und alles auf dem Desktop oder auch Youtube, Videos usw. wird dann nur über Iris Xe iGPU des 11700K ausgegeben, so was von Genial, wie gesagt, Grafikkarte wird erst zugeschaltet wenn ein Game startet oder man es in Windows für ein bestimmtes Programm so festglegt - Frameverlust konnte ich auch keinen feststellen. Idle Desktopvebrauch so mit RTX 3080, vier verbauten M.2 SSDs (bei allen ASPM aktiviert), eine davon mit 4.0 und RTX 3080 in x16 4.0, externe USB Soundkarte, drei weitere USB 3.0 Hubs - 62 Watt, während eines Youtube Videos schauen um die 75 Watt!
Das ist mal richtig geil, jede Grafikkarte, die ein Zero-Fan-Modus besitzt, profitiert da mal richtig von, zurzeit ist glaube jede Grafikkarte mit Zero-Fan-Modus fasst immer an der Grenze im Idle von 50-60° und mal kurz ein YouTube Video angeschmissen und schon laufen die Lüfter, das wäre ja alles nicht so schlimm, wenn es auch gescheite Karten geben würde, die den Zero-Fan-Modus richtig umsetzten, da gibt es welche die laufen, mal kurz an, dann wieder stopp und dann wieder an, jedes Mal natürlich mit einem Klackern oder der Lüfter heult kurz auf bis er dann wieder ausgeht, es gibt nicht viele Karten, die den Zero-Fan-Modus richtig umsetzten.

Und das Ganze würde dann wegfallen, bzw. wäre es mir egal, wenn die Karte bei einem Spiel Start kurz aufheult, Hauptsache so bleibt die Karte dann Leise und das System heizt sich auch nicht unnötig auf, da die Karte ja fast immer im Idle 50-55° hat.
 
4350G, 4650G und 4750G sollten nach Biosupdate eigentlich laufen...
Basiert auf Zen2, also sollte das auch klappen. Sofern ein Brett die 4000er denn unterstützt, aber das steht ja irgendwo geschrieben...
 
  • Danke
Reaktionen: Tzk
Ja, hier müssen wohl aber auch noch die Treiber usw. optimiert werden, z. B. startet das Nvidia Control Panel ja nicht, wenn kein Moni an der Karte angeschlossen ist, das eine oder andere Game wird bestimmt auch ein paar Frames verlieren. Das ist alles noch nicht richtig optimiert, ist eben der Preis der verfrühten Verfügbarkeit der CPU.
Ja wenn das dann mal richtig funktioniert, wäre es super, ich persönlich warte ja immer noch auf eine CPU mit der Leistung eins 8700K mit integrierter GPU, die dann eine Leistung von einer GTX 1060 hat, bei 65Watt:banana:
 
von wie viel watt einsparung sprechen wir?
 
@Phantomias88

Dabei vergisst du aber, dass bei dir dann wahrscheinlich 12 echte Kerne + 4 SMT genutzt werden statt 8+8
Stimmt, das habe ich nicht bedacht. Glücklicherweiße werden dann die ersten Kerne mit SMT angefahren, die können auch mehr Takt.
So lang nicht alle Kerne ausgelastet werden boosten die Arbeiter weiter hoch (~4.2GHz-4.4GHz) beim CPUz Bench.
 
von wie viel watt einsparung sprechen wir?
Denke mal, dass das dann auf die Karte ankommt, wie viel sie im Idle verbraucht und wie viel sie bei gelegentlichen YouTube Videos verbraucht, mir persönlich ging es dann aber eher um die Wärmeentwicklung und die nicht anlaufenden Lüfter.
 
Sooooooo :)

Da isser. Die “illegale” CPU

Ich bin echt gespannt
 

Anhänge

  • B1F02606-EB8D-42E4-BB71-3C1B60E41DCA.jpeg
    B1F02606-EB8D-42E4-BB71-3C1B60E41DCA.jpeg
    1,3 MB · Aufrufe: 235
wie sieht es mit Stromverbrauch unter Last bei der 11700k aus?

Gibt es da auch schon Ergebnisse?


Lg
 
wo bekommt man das tool her?
 
Es lässt sich ja auch nicht von der Hand weisen das einige Leute Probleme mit ihrer Hardware haben, andere sind zufrieden und sind sogar so wahnsinnig diesen "Schrott" im Produktiveinsatz zu nutzen
a010.gif
c022.gif
darum gings mir nicht. sondern um die auffaellig ungleiche reaktion auf AMD posts im intel thread durch das team unserer 'neutralen' jungs.

'amd ist doof' passt anscheinend hervorragend zum thema einer intel news.
'amd ist cool' zaehlt dagegen als offtopic.
 
Hier noch mein Beitrag zum Vergleich real world Performance:
 
Zuletzt bearbeitet:
'amd ist doof' passt anscheinend hervorragend zum thema einer intel news.
'amd ist cool' zaehlt dagegen als offtopic.
Ja ist halt leider so, kennt man aber auch von der anderen Seite...
Ich weiß noch wie ich es wagte den Bulldozer zu kritisieren :fresse:

Berechtigte Kritik wird generell dann gern mal mit "Guck ma was andere für Probleme haben!" weggewischt!
Ich habe nun den 5800X und den 11700K vor mir und bin von beiden nicht begeistert 🤷‍♂️
Wüsste aber auch nicht was ich dem Kollegen der einen von beiden bekommen soll nun empfehlen sollte.... :unsure:

Mal sehen was in den nächsten Tagen von den Ersteindrücken übrig bleibt!
 
^^Kann man in etwa Vergleichen mit nem 9900K, mit optimierten Volt liegt man z. B. im CBR20 Run je nach Allcoretakt @4,8 - 5GHz bei um die 170 - 180 Watt Packagepower. Kann man aber alles wie immer nicht verallgemeinern, kommt auf die Güte des Chips an und was die Boards drauf knallen - die automatische Einstellung kann man keinem empfehlen, da wird wie immer 30 - 40 Watt mehr verballert, keine Ahnung, was die Bretter die letzte Zeit da veranstalten, an die VID der CPU halten die sich alle nicht mehr, geben alle viel zu viel Vcore drauf. Optimiert verbraucht er in Games je nach Last nicht mehr als ein 9900K oder auch 5800X.

Für mich ist der Stromverbrauch schon wichtig, werde abwarten bis erste Ergebnisse da sind. Und dann überlegen, ob ein Upgrade von 7770K zu Rocketlake möglich ist. :-)


Lg
 
Wie begründet man das?
Okay ich drücke es mal so aus, alles Erste Eindrücke:
Leistungsmäßig nehmen sich die beiden so gut wie nichts nach dem ersten ausprobieren!
Der 11700K schluckt bei Vollast mehr Strom, spart dafür aber im Idle und bei Youtube z.B., dazu bleibt er kühler unter Vollast!

Für mich wären beide CPUs nichts, weil ich nicht nur daddel 🤷‍♂️
Aber da eine der CPUs für einen Kumpel gedacht ist, wird es echt schwierig zu entscheiden welche der CPUs man nehmen soll.
Den 5800X habe ich günstiger bekommen, aber das ist im Moment ja eh Glückssache und wie sich die Preise für den 11700K entwickeln wird sich erst noch zeigen müssen!

OC muss ich nochmal ausprobieren, wobei der 5800X scheinbar zu den nicht so guten Samples gehört, da er so schon fast an der Grenze zum (für mich erträglichen!) läuft was die Temps angeht.
Aber wäre das ein gutes Chiplet wäre es wohl auch in einem 5950X gelandet :hmm:🤷‍♂️

Ich werde mir das nochmal in Ruhe ansehen, mich hetzt ja keiner und das CB Pro Abo ist auch schon wech :fresse:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh