[Sammelthread] Intel Ivy Bridge (Sockel 1155) Gerüchte + FAQ + Infos

Also bringt ja nicht wirklich was, interessant wäre es wenn in Zukunft sich die GPU im 2D Betrieb abschalten würde.

So ist es, kann man auch im Fazit Lesen :
Beim Energieverbrauch zeigt sich dann schlussendlich, dass auch Lucid nur mit Wasser kocht. So bringt der Einsatz von Virtu im Idle rein gar nichts, was daran liegt dass die diskreten Beschleuniger aktuell nicht abschaltbar sind. Einzig in Zwischenlast-Bereichen wie etwa bei der Video-Beschleunigung bringt die Verlagerung der Aufgabe von der diskreten hin zur integrierten Grafikeinheit eine deutlich Verbesserung beim Energieverbrauch.

Alles in allem muss man somit schlicht festhalten, dass Lucids Virtu-Technologie erst der Anfang sein darf. Vielmehr sind die beiden großen Grafikchip-Hersteller nun gefordert zusammen mit Intel einen gemeinsamen Standard zu erarbeiten mit dem diskrete Grafikkarten sowohl auf Intel- als auch auf AMD-Platinen abgeschaltet werden können. Erst dann wird das Konzept wirklich Erfolg haben.
So lange die diskrete GK sich nicht abschalten lässt, ist es Müll ;)

Wird echt mal Zeit. dass ein gemeinsamer Standard kommt .....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Moin, ich verfolge den Thread schon länger und hätte da mal ne kleine Frage. Wenn ich das richtig sehe, wird es bei Ivy weiterhin keine volle SLI/Crossfire 16/16 fach Lösung geben, oder? Konnte das aus der ersten Seite nicht rauslesen...
Wenn dem so ist, würde sich ein Umstieg auf ein Z77 Mainboard und/oder einen neuen Prozessor nicht lohnen. Das wäre der einzige Grund, warum ich wechseln würde ;)
Von diesen ganzen Zusatzchips, die dann mehr Lanes bereit stellen, halte ich sowieso nichts ^^

So wie ich es sehe reichen die Lanes nicht und es bleibt weiterhin bei 16x/8x ohne Zusatzchip. Aber der Performance Unterschied zwischen 16x/16x und 16x/8x macht sich erst bei Auflösungen um 4k+ bemerkbar und beträgt da um die 1-5% bei nem 580 SLI Gespann. Also derzeit noch total unnötig, genau wie PCI-E 3.0... Denke auch nicht, dass sich da mit Kepler etwas ändern wird.


Warum sollte es am Bios liegen ? Die meisten Mainboards haben ihren Support für Ivy bekommen, glaube eher das es ihm an der nötigen Zeit fehlt. Er war auch im
Urlaub wenn ich das richtig verstanden habe und die Webseite wurde auch umgebastelt . Vielleicht will er auch mit einen neuen Board ala 7x benchen, wer weiß .

Schätze mal zum Wochenende werden wohl ein paar Ergebnisse kommen ;)


Ja, wäre schön. Gehen tun sie sicher, aber optimal laufen ist halt was anderes. Bei dem bisher aufgetauchten Facts sah es ja eher dünn aus:
http://www.hardwareluxx.de/communit...eruechte-faq-infos-861522-4.html#post18240956

Cliffs: Schwer zu kühlen (kleines DIE), ab 4,8 Ghz schluss und da schon nahe der 100°C Grenze + Tj Max. Darüber nur noch mit weniger Kernen usw.

Aber will das nicht aufwärmen, kann bzw. wird nen mieser/bereits durchgenudelter ES Chip sein und/oder eben noch keine perfekte BIOS Versionen (kennt man ja von den anfänglichen SB Zeiten, da konnte man nach gewissen BIOS Updates nochmal deutlich runter mit der VCore).


So ist es, kann man auch im Fazit Lesen :

So lange die diskrete GK sich nicht abschalten lässt, ist es Müll ;)

Wird echt mal Zeit. dass ein gemeinsamer Standard kommt .....

Naja, die neuen ATI Kartne können ja in den ZeroCore Modus schalten, also sich abschalten, wenn Windows kein Signal mehr an den Monitor sendet. Ist halt die Frage ob die VIRTU Jungs das einbauen/ansteuern können
 
Zuletzt bearbeitet:
Bin gespannt ob sich eine Aufrüstaktion mit Ivy Bridge für mich lohnt. Also 4,5 GHz +

Ich bin von deiner Config auf Sandy Bridge umgestiegen und das hat sich schon definitiv gelohnt!
Und ich rede nicht von Benchmarks ;-)
Wichtiger wäre bei dir mal ne neue Graka, damit du was merkst von Ivy :-P
 
was soll dann schneller sein als 2 x GTX 480 ? außer 2 x 7970 ?
 
So ist es, kann man auch im Fazit Lesen :

So lange die diskrete GK sich nicht abschalten lässt, ist es Müll ;)

Wird echt mal Zeit. dass ein gemeinsamer Standard kommt .....
Da hat mal jemand getestet und so schlecht hört es sich ja nicht an, zumindest ein kleines Sparpotential ist vorhanden.
3DCenter Forum - Einzelnen Beitrag anzeigen - AsRock Z68 Pro3 - Review - Lucid Virtu / Nvidia
Bin aber auch mal gespannt, ob Virtu mit den aktuellen ATI-Karten besser in Fahrt kommt.
 
Ich bin auch schon gespannt.

Da ich die OC-Zeit hinter mir habe wird es bei mir am wahrscheinlichsten ein i5-3570s.
 
Laut aktueller Fudzilla-news gibts zum Launch nur folgende Prozessoren: ( also kein 3570s für henni :'< )

- i7 3770k
- i7 3770
- i7 3770s
- i7 2770t

- i5 3570k
- i5 3570t
- i5 3550
- i5 3550s
- i5 3450
- i5 3450s

Die Zweikerner i3 sollen laut fudzilla dann einen Monat nach launch folgen

Quelle
 
Je mehr ich überlege desto eher tendiere ich dazu doch keinen k zu kaufen. Übertakten werde ich zumindest am Anfang eh nicht, und wenn es sich doch bewahrheiten sollte, dass Übertakten mit IB nicht so der Bringer ist, dann wird es wohl zugunsten von dem Virtualisierungszeugs ein nicht-k.
 
Also mir wären es die 10 - 20€ Aufpreis wert, selbst für geringe OC-Reserven. 4 Ghz bekommt man mit Garantie unter Luft raus. Bei den Non-Ks wirds wieder Essig sein. ;)
 
Das stimmt wohl. Ich frage mich allerdings was ich mit der Mehrleistung tatsächlich anfange. Benchmarkpunkte interessieren mich nicht so sehr, und ein GTX790 Octa-SLI werde ich nicht fahren. Sprich ich bezweifle, dass mir die theoretische Mehrleistung (durch OC) bei meinem GraKa-Beuteschema (max. 200W TDP) mir tatsächlich auch praktische Mehrleistung bringt.
 
Du musst langfristiger denken, in dein GPU-Beute-Schema werden irgendwann auch GPUs passen, die von 4 Ghz profitieren. ;) Gibt doch hier auch noch genug die jetzt Sockel 775 etc ausquetschen. Da ist bei den non-ks schneller Ende. ;)
 
Dann kauf ich mir einen neuen. Ich hab auch eine GTX275 durch eine GTX560ti ersetzt. Geld ist nicht das Problem.
 
Aber wenn Geld nicht das Problem ist kannste auch die 20 Ocen ausgeben. ;) Aber jedem seine eigene Entscheidung. :)
 
Da hab ich aber Virtualisierungszeugs (VT-d) nicht. Sonst klar ein k.
 
bin die ganze Zeit am überlegen, ob ich meinen Q6600 jetzt oder erst gegen April in Rente schicken sollte für ne neue CPU + Board + RAM ... vor allem weil manche prognostizieren, dass der RAM Preis wieder steigen wird :S
 
Bin auf die i3 gespannt... mein H61m braucht neues Futter :fresse:
 
War nichtmal die Rede davon, dass für die H61-Boards keine Ivy-Unterstützung geben wird? Kann mich auch irren...
 
Das könntest du dann ja in ca zwei Monaten von seinem Dasein erlösen, oder du kaufst dir jetzt Sandy Brdige, das ist auch nicht schlechter als Ivy... :d
 
;) okay gutes Argument ;) Eher die 1600er oder reichen dann die 1333er auch? :) Profitiert Ivy von den 1600er oder wird man keinen Unterschied merken?
 
War nichtmal die Rede davon, dass für die H61-Boards keine Ivy-Unterstützung geben wird? Kann mich auch irren...

Wenn in den neueren BiosVersionen "22nm cpu support" als Erweiterung steht gehe ich davon aus das ivy unterstützt wird :wink:

getippt auf meinem Defy (@1,2Ghz + CM7.1) mit der HardwareLuxx-App :hail:
 
@ Th4R4t: die 1333er reichen, hab ich auch drinne, waren vorher 1600er den Unterschied merkt man nicht. Mess- aber nicht spürbar, wie es so schön heißt. ;)

@ Pirate85: Ja dann sollte das wohl so sein... :d
 
Deswegen ^^ war ganz kurz wieder beim ASRock Z68pro3-M ... aber was will ich mit so nem Board in meinem [G]HTPC?

Das H61er ist perfekt ... nen 16x PCIe 2.0 (mit Ivy 3.0) Slot und 3 PCIe 1x Slots... ohne Atiken PCI Slot & Controller... der spart auch nochmal 2-3W :)

Das Z68 liegt jetz hier blöd rum :(
 
Laut aktueller Fudzilla-news gibts zum Launch nur folgende Prozessoren: ( also kein 3570s für henni :'< )
- i7 3770k
- i7 3770
- i7 3770s
- i7 2770t
Hmm. Der 3770S oder der 3770T ist prinzipiell auch interessant, allerdings brauche ich kein HT. Und die Preisdifferenz beträgt wahrscheinlich immerhin 90 Dollar // Euro. Ist ja fast ein drittel Mehrpreis.

Mal abwarten ob und wann der 3570S kommt...
 
Kann man die Ivy-Prozessoren wieder über FSB übertakten, oder muss man zum übertakten auf jedenfall zu einem "K"-Modell greifen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh