Offizieller AMD Phenom (K10) *Sammel- & Infothread* (4)

und warum sollte es keinen grund dafür geben?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
aha, mal wieder editiert deinen post...
trotzdem lässt sich noch mehr geld verdienen, wenn man es freigeben würde...
 
aha, mal wieder editiert deinen post...
trotzdem lässt sich noch mehr geld verdienen, wenn man es freigeben würde...

Nö, sicher nicht. CF macht nur einen winzigen Teil des Marktes aus, auch der kleine Vorteil, dass auf Intel nur CF geht, reisst das nicht raus. Real wird AMD da nicht mehr Radeons von verkaufen. Das Prestige für die einen CPUs durch CF/SLI-Unterstützung ist jedoch enorm, hat eine gewaltige psychologische Wirkung. Man stelle sich vor, dass die Topplätze bei Futuremark plötzlich voll mit Phenoms sind, aber kein einziger Intel-Prozessor da zu finden ist. Was wäre das für AMD wert? Man darf nicht vergessen, dass SLI auch weit mehr zählt als CF in der Hinsicht.
 
Zuletzt bearbeitet:
Habe bisher nur gelesen, dass Intel und AMD in der Hinsicht sehr eng Zusammenarbeiten. Alles andere erscheint mir als große Spekulation.
AMD spielt es sicher eher in die Karten so exclusiv für Nehalem ein 2GPUen System anbieten zu können.
Und selbst wenn, werde ich wohl mit meiner Single Nvidia Karte glücklich. :)
 
Habe bisher nur gelesen, dass Intel und AMD in der Hinsicht sehr eng Zusammenarbeiten. Alles andere erscheint mir als große Spekulation.
AMD spielt es sicher eher in die Karten so exclusiv für Nehalem ein 2GPUen System anbieten zu können.
Und selbst wenn, werde ich wohl mit meiner Single Nvidia Karte glücklich. :)

Die Grenzen von Single GPU Karten sind bald erreicht, in 2-3 Jahren wird es nur noch MultiGPU Karten geben, das selbe Spiel wie bei den CPU's.

Wiedereinmal ist AMD technologisch in die richtige richtung engagiert und überaus fortschrittlich.
 
Glaube ich nicht bis zum heutigen Tag gibt es nur ein Spiel und kaum programme die Multi Cpu/gpu fähig sind.
Das ist im vergleich echt nur eine Hand voll.

Leider ist der trennt ja leider so das ich für einen x2 3 euro weniger bezahle als für einen normalen bei gleichem Takt.
 
was heist da leider? du bekommst die doppelte leistung für den selben preis, is doch super, wenn der dc jetzt das doppelte vom sc kosten würde, würden alle wieder jammern weil er so teuer ist, und ein kleiner x2 wird undervoltet auch zum stromsparwunder also was willst doch noch mit nem singlecore?
 
Die Grenzen von Single GPU Karten sind bald erreicht, in 2-3 Jahren wird es nur noch MultiGPU Karten geben, das selbe Spiel wie bei den CPU's.

Wiedereinmal ist AMD technologisch in die richtige richtung engagiert und überaus fortschrittlich.

Glaube ich net. Es gab immer mal Phasen wo Dual GPU Karten kamen, aber nur kurze Zeit später wieder durch Single GPUs ausgekontert wurden (ATI Rage Fury Maxx, Voodoo2 SLI, Voodoo 5 etc., 7900 GX2 etc.). Und bei was für einem Chiptakt sind Grafikkarten? 700 MHz? Da ist noch viel rauszuholen...
 
was heist da leider? du bekommst die doppelte leistung für den selben preis, is doch super, wenn der dc jetzt das doppelte vom sc kosten würde, würden alle wieder jammern weil er so teuer ist, und ein kleiner x2 wird undervoltet auch zum stromsparwunder also was willst doch noch mit nem singlecore?

Da erstens die leistung bei 90% der anwendungen garnicht gebraucht wird und zweitens der jenige welche sowas garnicht benötigt für den ich das raus gesucht habe.
Von daher ist ein kern überflüssig und verbraucht unnütz Strom.
 
Von daher ist ein kern überflüssig und verbraucht unnütz Strom.

Das ist nicht korrekt bei AMD. Ein aktuelles Single-Core-System verbraucht keinen Watt weniger im Leerlauf als ein Dual-Core-System. Und bei Last ist man mit einem Dual-Core je nach Nutzung insgesamt sogar sparsamer unterwegs. Die Single-Cores haben nicht selten eine um 0,05-0,10V höhere Vcore. Bei Anwendungen die nicht von Dual-Cores profitieren wird dann auch nur ein Kern des Dual-Cores belastet, welcher immer sparsamer sein dürfte als der Kern eines Single-Cores.

Edit:
Beim Vergleich Dual-Core vs. Quad-Core ist das etwas anders, ein Quad-Core sorgt tatsächlich für etwas Mehrverbrauch im Vergleich zum Dual-Core, das liegt aber auch zum Teil an den deutlich stärker belasteten Spannungswandler, nicht nur an den zusätzlichen Kernen.
 
Zuletzt bearbeitet:
außerdem arbeitet sich´s meiner meinung nach mit 2 kernen einfach angenehmer als mit nur einem. der ganze windows betrieb usw. is einfach viel flüssiger
 
Die Grenzen von Single GPU Karten sind bald erreicht, in 2-3 Jahren wird es nur noch MultiGPU Karten geben, das selbe Spiel wie bei den CPU's.

Ich denke MultiGPU ist das falsche Wort oder? MultiGPU heißt doch 2 oder 3 oder 4(...) GPUs mit je einem Core, oder? Geht der Trend nicht eher mal in richtung, eine GPU mit vielen Cores, ähnlich der CPU!?

Ich würde heute für nen Standard Spiele Rechner immer min. DualCore verbauen. Klar, wenn nur Office oder so benutzt wird reicht auch heute und wohl auch in ferner Zukunft ein SingleCore.
Außerdem um mal aufs Thema zurück zu kommen benötigen Multi-GPU Grakas doch keine CF/SLI Unterstüzung oder? Allerdings waren Grakas mit 2 GPUs für mich bisher durch die Bank uninteressant.
 
Hab da mal ne Frage zwecks Kauf eines 5000+ Black Edition.

Muss es wirklich die Black Edition des 5000+ sein? Was hat die denn für Vorteile gegenüber eines 5000+ G2? Also Multiplikator offen... Heißt für mich, ich kann ihn frei einstellen, aber inwiefern kann man das bei einem G2 nicht? Groß über/untertakten werde ich da sowieso nicht, höchstens untervolten...
 
dann nimm den G2
 
der black edition ist doch kaum teuer.. lässt sich in der regel aber besser übertakten und untervolten. würde deshalb dazu raten
 
Hab da mal ne Frage zwecks Kauf eines 5000+ Black Edition.

Muss es wirklich die Black Edition des 5000+ sein? Was hat die denn für Vorteile gegenüber eines 5000+ G2? Also Multiplikator offen... Heißt für mich, ich kann ihn frei einstellen, aber inwiefern kann man das bei einem G2 nicht? Groß über/untertakten werde ich da sowieso nicht, höchstens untervolten...

der multiplikator der be ist auch nach oben offen, von dem normalen nur nach unten.
 
Ich denke MultiGPU ist das falsche Wort oder? MultiGPU heißt doch 2 oder 3 oder 4(...) GPUs mit je einem Core, oder? Geht der Trend nicht eher mal in richtung, eine GPU mit vielen Cores, ähnlich der CPU!?

Da sind wir doch schon längst. Ein GPU Core ist nicht mit einem CPU Core zu vergleichen. Es sind doch massigst Stream-Prozessoren bzw. Shader-Einheiten in jedem Die verbaut, von denen jeder einzelnen Effektiv ein eigener Core ist.
 
Kein Dual-Core Phenom und Phenom FX mehr in 65 nm?

Gerüchte dazu gibt es schon länger, nun jedoch scheinen die Vorahnungen zur Gewissheit zu werden. Wie <a href="http://www.hkepc.com/?id=1290&fs=news" TARGET="_blank">HKEPC</a> unter Berufung auf Quellen aus dem Kreise der Mainboard-Hersteller berichtet, soll AMD seinen Dual-Core Phenom auf K10-Basis (Codename Kuma) noch vor Markteinführung gestrichen haben. Der Dual-Core K10 hätte unter dem Label <i>Athlon X2 6x00</i> laufen und mittelfristig die alten Dual-Cores auf Basis des <a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=321677">K8 Brisbane (G1- und G2-Stepping)</a> ablösen sollen. Neben den Kernverbesserungen des K10 hätte der neue Dual-Core auch HyperTransport 3.0 und u.U. sogar den Level 3 Cache bekommen sollen. Nun jedoch müssen die alten K8 Dual-Cores noch eine Weile die Stellung halten, während die K10 Dual-Core erst nach der Umstellung auf 45 nm auf Basis des <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1204648113">Shanghai</A> erscheinen sollen.

Das selbe Schicksal ereilte offenbar den "Obendrüber" Phenom mit dem Zusatz FX. Ähnlich wie zur Athlon 64 Zeit war ursprünglich eine Phenom-FX-Variante vorgesehen, die als hochpreisiges Topmodell den High-End Markt abgrasen soll. Auch dieser Agena FX ist nun anscheinend gestrichen worden. Noch im ersten Halbjahr 2008 soll ja noch der <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1211019769">Phenom X4 9950</a> erscheinen. Offenbar ist über diesem Modell keine Luft mehr, um ein noch schnelleres Modell in 65 nm mit vertretbarer TDP darzustellen.
Danke Chris für den Hinweis.

Quelle: Planet 3D Now

Die Spekus ob vllt. ein Griffin Desktop modell kommt finde ich interessant.
 
Zuletzt bearbeitet:
hm, besitzt der Griffin wirklich einen UR-K8 Kern mit 64bittiger SSE Einheit, dem nur die neue K10 Northbridge spendiert wurde?
Anstatt die DC zu streichen, hätten die AMD Jungs einen K8,5 bauen soll, der dem Core2 besser Paroli bieten kann. Damit hätte man weniger Druck und kann ungestörter am Phenom (45nm Prozess) zu feilen.
 
Kuma erscheint doch

Toms Hardware schrieb:
AMD beeilt sich, aktuelle Spekulationen zu widerlegen. Anders als asiatische Magazine kolportierten, soll der Dual-Core-Prozessor...

Quelle: http://www.tomshardware.com/de/Kuma-Phenom-FX-65nm-Gerucht,news-241145.html

Computerbase schrieb:
Nachdem in den vergangenen Tagen asiatische Seite teilweise von der Einstellung der kommenden Zwei-Kern-Prozessoren...

Quelle: http://www.computerbase.de/news/hardware/prozessoren/amd/2008/juni/amd_geruechte_kuma-einstellung

Planet3dnow schrieb:
Gestern hatten wir unter Berufung auf Informationen von HKEPC...

Quelle: http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1213264877
 
Zuletzt bearbeitet:
Fragt sich nur was Kuma wird, vielleicht weiß es AMD selbst noch nicht?
K10-basierter Dual-Core... wird er K10-Kerne besitzen oder nur K10-Northbridge (ähnlich dem Griffin)? L3 Cache ja oder nein? L2 Cache 1024kB oder 512kB pro Kern?
 
Ehrlich gesagt seh ich momentan keinen Markt für einen Kuma auf 65nm Basis. Die G2 Stepping Brisbanes sind immernoch absolut Top für ihren Preis, ein Dual Phenom müsste schon ziemlich hoch takten und zumindest in Schlagweite des Core2 kommen, dann macht man sich aber ja wieder selber Konkurrent zu den X3s. Denke es wird eher interessant auf 45nm mit den "IPC Verbesserung" des K 10.5.
 
Zuletzt bearbeitet:
Naja, wenn der Kuma eventuell wirklich ein eigenes Layout hat und somit kein "halber" Phenom" wird,
dann könnte der in Konkurrenz zu den E8x00 C2Ds von Intel treten.

Die K10 Architektur bietet immerhin mehr Leistung pro Watt als die K8er.

Ich für meinen Teil würde mir so 'nen Kuma recht gerne in den PC einbauen,
da ich für Quads keine Verwendung habe...
 
Der Kuma ist ein eigenes Design.
 
Naja, wenn der Kuma eventuell wirklich ein eigenes Layout hat und somit kein "halber" Phenom" wird,
dann könnte der in Konkurrenz zu den E8x00 C2Ds von Intel treten.

Das wäre schön einen K10 Dual Core mit 2x1MB L2 3MB L3 und über 3GHz oder einfach den Griffin fürn Desktop bringen, und noch mehr Leitung bei 45W schaffen als mit dem normalem K8.
 
Der Kuma ist ein eigenes Design.

Ist er nicht. Das ist ein teildeaktivierter K10, der eine Nische im Markt besetzt und die K10 Ausbeute erhöht, mehr nicht. Das wäre so sinnlos wie sonst was ein eigenes Design für den Kuma zu bringen. Stattdessen wird bald die K8 Rev.H die Rev.G ersetzen und den K8 ebenfalls auf AM2+ bzw. AM3 Niveau heben, bevor Kuma und K8 dann endgültig vom Swift abgelöst werden. Weitere native DualCores wird es von AMD nicht mehr geben und das ist auch sinnvoll so.
 
Zuletzt bearbeitet:
AMD sagt da aber was anderes... :hmm:
 
Was sagt AMD? Die sagen es wird den Kuma geben zum angepeilten Termin (Q3), mehr sagen die nicht.
für 2 (!) CPUs (6150, 6250) und den geringen Preisen für Quads und Triples, würde der Kuma eh nur eine Nische besetzen - dafür lohnt beim besten Willen keine eigene Maske geschweige denn eine eigene Produktion. Man sollte sich einfach damit abfinden: AMD hat keine DualCore-Antwort auf den Core2, außer mehr Kerne.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh