Ich hätte nichts dagegen. AMD hat leider extrem nachgelassen, außer für Lowendlösungen und als Notfall-Gebrauchtkauf liefern die nichts mehr. Das Problem ist nur dass Nvidia jetzt mit seiner dreisten Abzocke durchkommt und dafür auch noch gefeiert wird. Kein Wunder, für kompromisslose Leistung und Energieeffizienz kommt man um Nvidia nicht herum, außer man ist bereit komplett auf Grafikbeschleuniger zu verzichten.
Völliger Unsinn. Wieso schaffst du es irgendwie alle Nase lang, sich mit solchem Pauschalen Mist hier in den Diskusionen zu platzieren!?
Vega ist angekündigt und wird mindestens mal mithalten können. Auf welches Modell (1080 oder TitanX), ist noch offen und wohin die Reise geht.
Aber LowEnd only bei AMD ist irgendwie was anderes...
AMD wird sich mit dem Lowend- und Konsolenmarkt wohl noch eine Weile halten, den Rest hat Nvidia inzwischen vollständig eingenommen. Wenn Intel etwas auf Höhe des GP102 bringen würde mit besseren Treibern würde ich es eher kaufen - Vor allem wenn die Karte dann nach Release der nächsten Generation nach einem Jahr nicht als "Legacy" einsortiert wird und treibermäßig vernachlässigt wird.
Auch das ist quark. Bei dir ist irgendwie alles "Legacy", was deine eigene Fehlentscheidung zwischen Monitorwahl und GPU Wahl nicht befriedigen kann habe ich so das Gefühl... Nochmal für dich zum Mitschreiben, was gibt Hardwaretechnische Gründe, WARUM Kepler nicht so fix ist wie Maxwell. Und es gibt effektiv sogut wie keine Gründe, warum Pascal deutlich besser sein soll als Maxwell (wenn man den GP100 außen vor nimmt)
Wohin die Reise bei NV also gehen wird, ist völlig offen und wird sich zeigen müssen.
z.b. sind die 30w oder wieviel es sind, die eine 480 auf eine 1060 mehr verbraucht ne riesen nummer, die selben leute haben aber einen 2700k auf 4,5ghz laufen, der im vergleich zu nem skylake gute 50w mehr verbrät. mal abgesehen von dmi3, pcie3, m.2 usw. usf.
Es geht und ging bei dem Verbrauchsargument doch NIE um den absoluten Verbrauch, nichtmal um die Relation. Sondern viel eher um die Kühlung... Kühle 120W weg oder kühle 160W weg, das ist ein ziemlich deutlicher Unterschied.
Das gleiche gilt für all die anderen Verbrauchsargumentationen -> und dort wirds es noch deutlich schlimmer.
Wenn du schonmal eine Fermi GK110 GPU, am Besten mit OC und OV im PC hattest, weist du WARUM der Verbrauch nicht primär ein Thema des Geldes durch Leistungsaufnahme ist, sondern eher der Kühlung
Glaube ich nicht. Wenn sich das abzeichnet werden weder AMD noch Nvidia irgendwelche GPU IP Lizenzen an Intel vergeben und dann können sie dort nichts bauen.
Intel baut schon GPUs, nur nicht dGPUs... Was für Lizenzen sollen das sein?
Das Problem von LRB ist, wie man auch im Artikel nachlesen kann eher ein ganz anderes gewesen. Nämlich das man die Eierlegende Wollmilchsau mit Softwarerendering auf einer PCIe Beschleunigerkarte bringen wollte... Das geht nunmal nicht auf.
Der aktuelle Ansatz im Mainstream mit bspw. der Skylake GT4(e) ist ein Stück weit anders als NV und AMD, aber sooo anders auch wieder nicht.
Dieser Part würde sich technisch auch skalieren lassen, gepaart mit einem dedizierten Speicherinterface und dedizierter PCIe Anbindung... Das KnowHow dafür hätte Intel. Im Moment scheint eher aber gar kein Interesse dafür da zu sein. Zumal, welche Märkte sollen die damit bedienen?? Das Treiberthema schwebt schon über den IGPs. Und Intel kommt nur kläckerweise vorran.
Anders im Profibereich... Da geht es deutlich größere Gelder und entsprechend lassen sich auch mal ein paar Entwickler abstellen um dedizierte Probleme lösen zu können.
Interessant dabei dürfte eher werden ob Intel nicht irgendwann die Puste ausgehen wird. Nämlich wenn bspw. der Fertigungsvorteil vielleicht irgendwann verpuffen wird... Die aktuellen Xeon Phi Modelle sind in der absoluten Performance und der Effizienz im Moment dem P100 unterlegen von NV. Bieten dafür aber durch den Softwareansatz eben ggf. deutlich bessere/einfachere/weitreichendere Möglichkeiten. Auch interessant ist, dass die Teile alleine laufen können, sprich ohne dedizierten Server, wo man die Dinger rein steckt.
@Topic
Interessant zu sehen daß es eigentlich möglich gewesen wäre da im GPU Sektor mitzumischen. Würde ich sehr gerne sehen so einen Prototypen in Aktion vs. den damaligen High End nVidia und AMD (ATI) Größen. Wenn man sich die Xeon Phi so ansieht wäre jedoch die Frage gewesen ob die Karten damals in vertretbaren preislichen Rahmen zu verkaufen gewesen wären. Mit passender RAM Ausstattung und in Massenfertigung denke ich jedoch schon.
Ich würde nicht zu viel Wert auf die Aussagen zur Einordnung und der Machbarkeit geben... Wenn ich das recht in Erinnerung habe, so krankte LRB für GPUs ein Stück weit gerade unter dem Softwareansatz. Die Effizienz war damals schon recht mau und von der absoluten Rohleistung ggü. den damaligen NV/AMD Modellen war man auch nicht soooo exorbitant gut aufgestellt. Das war die Zeit RV770/G200(b). Ich glaube LRB hatte den 45nm Ansatz bei der Fertigung und erreichte damit in etwa das Leistungsniveau der genannten AMD/NV GPUs (die auf 65/55nm basieren). Das war ~2009 rum...
Das Teil hätte im ersten Ansatz wohl nicht für ein HighEnd Modell gereicht, vom Verbrauch (Effizienz) diese Stellung aber eingenommen...
Vorteil dieser/einer solchen Lösung ist aber ganz klar, in Software kann man effektiv alles machen. Das hätte eine Karte sein können, die auch mit damaliger Hardware DX12 und Vulcan ohne zu mucken abfedern hätte können. (sofern man das gewollt hätte)
Und selbst heute, die aktuellen Xeon Phi Dinger mit Intels aktuellem 14nm Prozess (der immernoch kleiner als GloFo und TSMC mit ihren Prozessen 14/16nm ist, wenn ich das richtig sehe), packt von der absoluten GFLop/s Performance in Sachen Rohleistung den P100 von NV nicht. Selbst ggü. dem GP102 in der TitanX sieht es eher mau aus, zumindest in FP32... Zwischen der großen 7290er Xeon Phi und dem P100 von NV liegen 245W vs. 250W TDP...