Haswell-CPUs verkaufen sich mit geringer Nachfrage

Ja, der 4820k wird kein Haswell das ist auch gut so ^^
Für mich ist das Produkt die CPU und die wird bewertet.
Man kann sich auch alles schön reden und hinbiegen.....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
?? Was hat es damit zu tun?
Ob da nun Haswell oder Ivy oder weis der Teufel drauf steht, ist doch vollkommen wumpe, das was hinten bei rum kommt, wird verglichen.

Aber ja, scheinbar kann man sich die Sachen schon so hinbiegen wie man sie braucht.
Das alleinige Betrachten der CPU bei gleichzeitigem Ausblenden aller anderen Geschichten gehört dort definitiv dazu ;) Denn die CPU läuft schlicht nicht ohne Board und RAM sowie NT. In der Gesamtbetrachtung gibts im Grunde nix, was Haswell nicht besser macht, als Ivy und vor allem Sandy.

Muss halt jeder für sich entscheiden, ob man es nötig hat, ein Produkt "schlecht zu reden"... ;)
 
?? Was hat es damit zu tun?
Ob da nun Haswell oder Ivy oder weis der Teufel drauf steht, ist doch vollkommen wumpe, das was hinten bei rum kommt, wird verglichen.

Aber ja, scheinbar kann man sich die Sachen schon so hinbiegen wie man sie braucht.
Das alleinige Betrachten der CPU bei gleichzeitigem Ausblenden aller anderen Geschichten gehört dort definitiv dazu ;) Denn die CPU läuft schlicht nicht ohne Board und RAM sowie NT. In der Gesamtbetrachtung gibts im Grunde nix, was Haswell nicht besser macht, als Ivy und vor allem Sandy.

Muss halt jeder für sich entscheiden, ob man es nötig hat, ein Produkt "schlecht zu reden"... ;)

Schade, das es hier keinen "Gefällt mir" Button gibt wie auf Facebook.
 
Wenn man sich gebraucht hier im Forum einen pretested Ivy holt, bekommt man fürs gleiche Geld eben eine CPU, die bei gleicher Spannung und Temperatur ein gutes Stück mehr Mhz macht und zwar wesentlich mehr, als alleine zum Ausgleichen der etwas geringeren IPC benötigt wird. Das war beim Start von Ivy bei den Sandys aber auch so. Das hat eben was mit Angebot und Nachfrage zu tun. Bei den neueren Plattformen hat man eben auch mehr Features, wenn man die natürlich außer Acht lässt, fährt man mit einer älteren gebrauchten Plattform immer besser. Das Spiel kann man auch weiter treiben und sagen, dass man sich ja am besten nur einen gebrauchten Sandy holt, da gibt es gut gehende (>4,5Ghz) schon unter 150€. Dann muss man aber sagen, dass man für einen i5-750 gebraucht auch nur so 50-60€ zahlt, der Sandy hat bei gleichem Takt ungefähr 25% mehr IPC, kommt mit der vermutlich etwas höheren maximalen Übetaktung auf 30-40% raus, bei über 100% Preisaufschlag.

Also Leute, wenn ihr sparen wollt, kauft einen i5 der ersten Generation!

Upps, der schafft ja gar nicht die Minimumframes, die ich haben will...
 
Zuletzt bearbeitet:
Naja 10% mehrleistung gegenüber ivy, da brauch ivy schon zwischen 400-500mhz mehr um gleich schnell zusein und gute ivy bekommt man auch nicht geschenkt
 
Zuletzt bearbeitet:
@lookout: Erkläre Intel doch mal, wie man auf einer kleineren DIE mit mehr Transen kühlere Temperaturen bekommt - Am besten im Beispiel mit Sandy vers. Haswell, da hat ja Sandy weniger Transen auf einer viel größeren Fläche als Hasewell auf einer viel kleineren :d
Autsch, der hat voll gesessen! :fresse:

Just my 5 Cent:
Gut das es ein Patentabkommen gegeben hat, zur Zeit geht der Desktop Markt doch stark zurück, war aber klar irgendwann ist der Markt auch mal gesättigt.
Jetzt hängt halt viel an den Software Entwicklern, hier schlummert immer noch einiges an Potential, was Haswell zur Zeit wie ein Witz upgrade dastehen lässt.

Nur blöd das ausgerechnet jetzt HSA dazwischen funkt, 50% vs 100% Leistungs + wer macht das rennen? :d
 
HSA an sich macht 0 Leistungsplus. Aber wenn man Anwendungen dafür designt werden Systeme, die kein hUMA beispielsweise können, mächtig Leistungseinbußen haben ;).
 
HSA an sich macht 0 Leistungsplus. Aber wenn man Anwendungen dafür designt werden Systeme, die kein hUMA beispielsweise können, mächtig Leistungseinbußen haben ;).

Das Entscheidende Wort ist wenn. ;) Die Idee ist gut, aber HSA wird sich in der Form mit den Antreibern eher im ARM-Markt breit machen. Aber auf den Monolog von mir habe ich gerade keine Lust... :d
 
Nunja, die neuen Konsolen zb beherrschen glaube ich ebenfalls HSA - in dem Fall gäbe es schon eine Chance.

Lg Marti (gesendet von unterwegs)
 
Naja aber die Konsolen dürften bei Spielen für HSA ausfallen, die GPU dürfte mit den FPS in FULLHD genug zu tun haben... :d Und bei Anwendungen hast du nur so lustige Pippi-Apps, nichts was den Desktop-Markt berühren würde in der Breite. Über den Aspekt Huma hat fdsonne hier im Forum schon mal philosophiert und wurde von der AMD-Crew dafür angekackt... :d Unterm Strich ist HSA im Moment und Mittelfristig erstmal nicht mehr als eine nette Idee.
 
Wenn HSA auf der PS4 zum Einsatz kommt, wird auch auf dem PC zum Einsatz kommen, darauf kann man sich verlassen. Es gibt jetzt schon Spielehersteller, die die XB1 außen vor lassen und PS4+PC bevorzugen. Das wird sicher nicht besser werden für die XB1, eher viel schlimmer. In meinen Augen ist das Ding ein Rohrkräpierer und wird in spätestens 2 Jahren durch was besseres ersetzt werden müssen.
Der HSA-Einsatz bei Spielen hat mit AMD nicht viel zu tun, das ist Sonys Show. Der PC bekommt die fertige Frucht dann serviert, da Sony ja erstmals auch einfache PC-Portierungen supportet. Das Gaming Evolved-Programm wird da sein übriges tun, Frostbyte-Spiele wie BF4 werden aufgrund der AMD-Nähe auch BD-Optimierungen mitbekommen haben.
Epic ist davon noch am weitesten weg, Crytek und Dice sind ja schon voll dabei. Aber die Epic-Leute haben schon echt ne Menge scheiss verbal verzapft und später dann doch das genaue Gegenteil getan. Grad Tim Sweeny hat echt ne Menge Müll erzählt in der Vergangenheit. HSA kommt auf dem PC durch die PS4-Hintertür.
hUMA hilft beispielsweise beim Einsatz von Megatexturing enorm, sorgt also dafür, dass, wenn diese Features eingesetzt werden, die FPS eben nicht abfallen. Grad bei großen Datentransfers zwischen CPU und GPU limitiert bei hUMA nichts, was die Programmierung vereinfacht und nicht verkompliziert, darum geht es bei HSA - Einsatz möglichst aller Ressourcen bei redziertem Entwicklungsaufwand. Deswegen fährt Sony ja auch so darauf ab, aus leidvoller Cell-Erfahrung.

Und bei Anwendungen setzen viele Hersteller ja sogar das komplizierte OpenCL ein, die werden HSA mit Freuden begrüßen.
 
Zuletzt bearbeitet:
Wenn es bei der PS4 relevant zum Einsatz kommt, für Berechnungen durch die GPU müssen auch Ressourcen frei sein. Das dürfte bei Spielen weniger der Fall sein als bei Anwendungen und von den Anwendungen wird man die meisten nicht im Desktop-Markt finden. HSA läuft halt erstmal unter dem Aspekt "schaun mer mal..." ;)
 
hUMA hilft beispielsweise beim Einsatz von Megatexturing enorm, sorgt also dafür, dass, wenn diese Features eingesetzt werden, die FPS eben nicht abfallen. Grad bei großen Datentransfers zwischen CPU und GPU limitiert bei hUMA nichts, was die Programmierung vereinfacht und nicht verkompliziert, darum geht es bei HSA - Einsatz möglichst aller Ressourcen bei redziertem Entwicklungsaufwand.

Die Frage ist doch, an welcher Stelle wird der hUMA Vorteil potentiel ansetzen!?

Wenn man das mal nüchtern betrachtet, ist es doch alles eine Frage, wo die Quelle liegt. Speziell auf dein Beispiel bezogen heist das, der Vorgang, die Daten in den "VRAM" zu schaufeln, würde durch hUMA und die entfallende Datenübertragung zwischen RAM und VRAM Bereich beschleunigt werden. Nur was passiert, wenn die Daten einmal im VRAM sind? -> dann hilft hUMA nicht mehr... Da einzig und allein die Zugriffsgeschwindigkeit auf den Speicher zählt.

Der Knackpunkt an der ganzen Geschichte ist aber aus meiner Sicht folgender:
Der VRAM ist genau dafür da, Daten schnell verfügbar zu machen. Das heist folglich auch, das die Daten dort möglichst lange gehalten werden sollten. (was sie in der Praxis scheinbar auch tun) Somit würde zwar hUMA auf dem Papier einen Vorteil bieten, aber genau dort, wo der VRAM seinen eigentlichen "Sinn" ausspielt, keine Vorteile mehr bereitstellen können. Denn die Daten sind schon dort, wo man den schnellsten Zugriff drauf hat.

Um nochmal konkret auf dein Beispiel zurück zu kommen. Normal sollte es doch so sein, diese besagten Daten kommen irgendwo am Anfang von der HDD, wandern in den RAM und werden (bei aktueller Umsetzung) vom RAM in den VRAM übertragen. Auf der APU kostet letzteres Bandbreite, die so schon knapp ist. hUMA würde also genau dort zwar auf dem Papier einen Vorteil bringen, wenn sich die "Ausführungseinheiten" für die 3D Berechnung permanent aus dem RAM bedienen müssten. -> dies sollte in der Praxis aber nur dann beim spielen eintreten, wenn der VRAM Bereich entweder zu klein ist (um alle benötigten Daten zu fassen) oder wenn sich permanent die Daten derart ändert, das von irgendwo extern nachgeladen werden muss.
Ersteres kann man ausschließen, indem man einfach mehr VRAM deklariert und letzteres? Neja, kommt faktisch nie vor. Zumal sich dann immernoch die Frage stellt, woher stammen die Daten. hUMA greift ja erst, wenn diese im RAM liegen. Kommen sie von der HDD/SSD, gibts immernoch massivste Leistungsverluste durch noch deutlich langsamere Zugriffe. Es bleibt also darauf aufbauend die Frage, warum liegen die Daten also nur im RAM und nicht im VRAM? Aus meiner Sicht ist in dieser Konstellation also der VRAM Bereich zu klein gewählt wurden, da scheinbar potentiell genügend RAM an der APU steckt um die Daten im RAM zwischen zu puffern.

-> heist also weiterhin, wählt man hier mehr VRAM Größe (bis die Daten dort alle reinpassen), müssen die Daten nur einmalig dorthin übertragen werden. Und dann hat man schlicht vollen Zugriffsspeed, den die Hardware bereit zu stellen im Stande ist. Und der Initialdatenimport in den VRAM Bereich geschieht idR beim Spielstart und überträgt gefühlt/geschätzt 90-95% der benötigten Daten direkt in den VRAM.
 
Huma & HSA ist beides bullshit, bei Prozessoren zählt nur die Integer Leistung & Leistungsaufnahme, entweder man ist konkurrenzfähig oder nicht.
 
@fdsonne

Bei HSA geht es doch nicht nur um den VRAM. Der Vorteil eines kohärenten Speichers ist doch, dass die Daten von der CPU und GPU gemeinsam genutzt werden können. Also der Vorgang, dass Daten im RAM von der CPU bearbeitet werden und in den VRAM geschrieben werden, oder umgekehrt von der GPU und dann in den RAM enfällt. Da hilft dir unendlich VRAm oder RAM eben nicht um dieses Feature gleichertig zu ersetzen.
 
Verabschiedet euch von den Gedanken, dass es in den kommenden Jahren Leistungsexplosionen geben wird. Warum auch??? Monopol und so, gibt ja eh keine Konkurrenz.

Als wenn ein i7 2600k mit über 4GHz für irgendwas zu langsam wäre.
 
@fdsonne

Bei HSA geht es doch nicht nur um den VRAM. Der Vorteil eines kohärenten Speichers ist doch, dass die Daten von der CPU und GPU gemeinsam genutzt werden können. Also der Vorgang, dass Daten im RAM von der CPU bearbeitet werden und in den VRAM geschrieben werden, oder umgekehrt von der GPU und dann in den RAM enfällt. Da hilft dir unendlich VRAm oder RAM eben nicht um dieses Feature gleichertig zu ersetzen.

Er geht aber doch auf Huma ein, was ein Bestandteil von HSA ist. ;)

Als wenn ein i7 2600k mit über 4GHz für irgendwas zu langsam wäre.

Jedes Stück Hardware ist für irgendwas zu langsam, man bekommt alles an die Wand gefahren... :d
 
das kommt wie schon gesagt wurde, auf die anwendung an.

wenn ich per wettersimulationsprogramm wetervorhersagen berechnen will, wird keine desktop-cpu der welt die anforderungen erfüllen können.
also, erste anwendung gefunden ;)

aber:
natürlich besteht für viele besitzer von core i3-i7, egal welcher generation, in den meisten fällen gar kein aufrüstbedarf.

die allermeisten pc-user sind sowieso mit leistungs-klassen um die erste i7 generation eh schon voll zureichend versorgt und der rest der käufer, wie technikfreaks, gamer und eine hand voll poweruser kaufen ja auch haswell ;)
intel musste ja nun die fabriken noch nicht stillegen, denn noch verkaufen se ja was ;)
 
@fdsonne

Bei HSA geht es doch nicht nur um den VRAM. Der Vorteil eines kohärenten Speichers ist doch, dass die Daten von der CPU und GPU gemeinsam genutzt werden können. Also der Vorgang, dass Daten im RAM von der CPU bearbeitet werden und in den VRAM geschrieben werden, oder umgekehrt von der GPU und dann in den RAM enfällt. Da hilft dir unendlich VRAm oder RAM eben nicht um dieses Feature gleichertig zu ersetzen.

Das habe ich auch nicht geschrieb. Sondern es ging um hUMA.
Aber sei es drum ;) für mich das ist alles noch eine Spielerei, die sich stand heute wohl wenn überhaupt sehr sehr schwer durchsetzen kann bzw. können wird.
Denn die Anwendungen müssen mitziehen. Ob AMD da puschen kann? Steht auf nem ganz anderen Blatt.

Noch kurz zum letzten. Ja an welchen konkreten Beispielen machst du denn das fest? Wo wird denn dieser Umstand so stark zum Tragen kommen, das wir durch hUMA deutlichen Mehrwert sehen?
Es macht so langsam den Eindruck, als hätte AMDs Marketing diesmal echt was richtig gemacht. Denn scheinbar fahren viele auf hUMA ab... Obwohl nichtmal klar ist, was man damit überhaupt gewinnen kann.

PS: normal sollte es übrigens so sein, das die GPU ihren Datenbestand (VRAM) selbst verwaltet. Sprich da kommt nicht von extern irgend ein Programmteil und will dort Daten umschreiben ;) Das macht die GPU schön selbst... Hier liegt denke ich ein dezentes Verständnisproblem vor.
 
Am besten Intel entwirft demnächst Föhne, mit Heizwell haben sie dafür die perfekte Grundlage geschaffen mit möglichst wenig Stromverbrauch eine maximale Abwärme zu erzeugen lol
 
Hab erst mal nen FX, dann weißt du was ne Heizung ist. Schlimmer können die Haswell auch net sein
 
Bei hUMA gibt es keinen VRAM mehr, darum geht es ja. Die GPU kann direkt aus dem SystemRAM lesen und auch darin schreiben und umgekehrt. Anders als bei bisherigen UMA-Lösungen ist im SystemRAM kein VRAM reserviert, beide Bereiche haben vollen Zugriff auf einen Adressbereich. Man kann also Daten direkt über den Grafikchip rechnen und dessen Ergebnisse direkt mit der CPU weiterverwenden. Dieser Vorteil kann enorm sein, zumal bei dedizierten Lösungen der Weg zurück vom Grafikchip zum Systemram extrem lang ist. Beispielsweise ist damit sehr einfach echte Physik und nicht nur Grafikblingbling wie bisher bei PhysX möglich, da die Objekte untereinander interagieren können, was bei bisherigen GPU-Lösungen einfach nicht geht. Auch sehr große Texturen kann man nutzen, man könnte mit der CPU sogar direkt Texturen manipulieren, die Einsatzgebiete sind grenzenlos. Es zählt eben doch nicht nur Leistung sondern zunehmend Integration. Leistung ist ja massig da. Ich bin davon überzeugt, dass Intel bei Skylake ebenfalls hUMA realisieren wird. Die Vorteile sind nunmal echt enorm, einzige Voraussetzung ist 64Bit, da bei 32Bit der Adressraum zu klein ist.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh