AMD Radeon RX Vega 64 und RX Vega 56 im Test

Das ist echt ziemlich verrückt, weiß den schon jmd. wann mal ein richtiger Treiber für Vega kommt :confused:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn AMD einfach "Release Driver" dranschreibt, ist er dann fertiger als vorher? ;)

Geht mehr um den Inhalt, man sieht ja im Beta Treiber das viele Funktionen nicht zur Verfügung stehen, aber das ist schon ein wenig erschreckend ...
 
Das ist ein Widerspruch in sich.
Hardware ist nicht automatisch "aktuell", nur weil sie gerade erst released worden ist. Und ein 50% höherer Verbrauch bei unterm Strich (gerade so) vergleichbarer Leistung (wie eine 1080 non-TI) wird bei rationaler Betrachtung niemals als "technisch gleichwertig" durchgehen.
Klar (Glaskugel an) mag VEGA noch in den nächsten Monaten ein paar Prozentpunkte zulegen durch Treiberoptimierung und noch deaktivierte Features, aber dabei sollte man nicht unterschlagen, dass, was immer dabei rauskommt, schon durch die 1080TI überholt ist und bleibt.

Der einzige Widerspruch ist dein Post. Lese ihn einfach nochmals selber und du wirst es vielleicht merken.
Ich schreibe, dass der Releaseszeitpunkt keine Rolle spielt, solange die Technik dem heutigen Standard entspricht.
Und du schreibst genau das selbe, nur meinst du das dies falsch wäre, was deinen eigenen Widerspruch bestätigt.

VEGA ist Up-To-Date + vielen Zukunfts-Features. Wie oft muss man das hier eigentlich noch sagen/schreiben ?
Stromverbrauch ist zwar ein Manko gegenüber der Konkurrenz aber es ist kein Zeichen dafür, dass die Technik veraltet ist.
Über den Stromverbrauch einer Custom GTX1080Ti, die bis zu 400 Watt betragen kann, wird schließlich auch keine Diskussion darüber geführt, ob diese Zeitgemäß ist.
Geforce GTX 1080 Ti: Custom-Designs in der Herstellerübersicht - Taktraten, Kühlung, Powerlimit [Update 16.06.]
Aber bei VEGA ist das plötzlich ein Problem, wenn 300 Watt verbraten werden...

VEGA bietet alle modernen Standards wie DX12.1 Tier 3 Support, Shader Model 6, FreeSync - was noch nicht einmal NVIDIA beherrscht, Asyncron-Shaders ect. AMD sprich von 200 weiteren Features, die kommende Titel erst nutzen werden.
Wo da die Reise hingeht, sieht man schon an den heutigen Titeln, wo schon ein Teil dieser Features ausnutzen, siehe Doom, BF1 ect. Da kann sich VEGA sogar mit der GTX1080Ti anlegen! FC5, Wolfenstein 2 ect. werden dies noch weiter treiben.
Also Rohleistung ist genügend vorhanden. Ebenfalls Up-To-Date.

Daher zieht das Argument eben nicht, dass VEGA später als Pascal erschienen ist und daher VEGA schlecht sei. ;)
 
Öhmm doch das zieht nach wie vor. In deiner eigenen kleinen verqueren Welt vllt nicht, in unserer aber schon.
 
Das Vega technisch Top ist, ist doch wohl unbestritten.
So top kann es nicht sein, denn dazu gehören sowohl Leistung als auch Effizienz und keine Features, die praktisch niemand nutzen kann.

Würd mich jetzt nicht zu sehr auf ein bench verlassen in dem eine 1070 mehr min fps liefert als eine 1080...
V.a. sagen die min. FPS nicht mehr aus als die Avg. FPS. Ein deutlicher aber kurzer Drop und die Aussage ist für den Popo.
Abgesehen cherrypicked wie man es vom Smoothie gewohnt ist.

Geht mehr um den Inhalt, man sieht ja im Beta Treiber das viele Funktionen nicht zur Verfügung stehen, aber das ist schon ein wenig erschreckend ...
Die entscheidende Frage ist doch, ob es denn etwas bringt wenn diese Funktionen aktiv sind.

Ich schreibe, dass der Releaseszeitpunkt keine Rolle spielt, solange die Technik dem heutigen Standard entspricht.
Damit ist doch die Sache geklärt. Vega entspricht nämlich nicht dem aktuellen Standard, ist in jeglicher Hinsicht näher an Maxwell als an Pascal.

VEGA ist Up-To-Date + vielen Zukunfts-Features. Wie oft muss man das hier eigentlich noch sagen/schreiben ?
Wie oft muss man hier noch schreiben, dass der Kunde von superdupertollen Features die er praktisch nicht nutzen kann, nichts hat?
 
Zuletzt bearbeitet:
Nap, das wird sich schleicht zeigen müssen, aktuell wirkt es seltsam. Wenn die Features wirklich greifen sollten, dürfen wir alle wohl später sagen, Vega war zu früh. Wenn nein, war es Murks.
 
@Pickebuh, ich bin nicht auf Streit oder völliges Niederreden Deiner Argumente aus. Vielleicht verstehe ich Dich auch stellenweise einfach falsch. Meine 2 Kernaussagen sind (sollen sein):
1. Lassen wir es dann mal so stehen: "VEGA ist Up-To-Date + vielen Zukunfts-Features". Was bringt ihr das gerade unterm Strich? Nichts. Weil es den Leistungslevel (und mehr) schon von anderer Seite seit langer Zeit gibt. Sie würde vielleicht ein paar System-Neuzusammensteller anlocken, wenn sie preislich interessanter wäre (ich rede jetzt von der 64, eigentlich rede ich schon die ganze Zeit von der 64) und nicht einen 50% höheren Stromverbrauch hätte. Aber niemand (selbst ich nicht, und mir war AMD zumindest vor dieser bescheuerten Tarnen-und-täuschen Marketing-Taktik der letzten Monate sympathischer als NV) wird seine GTX1080 für die VEGA64 weg tun.
Okay, die Vega64 ist vielleicht nicht schlecht (das ist ja Deine Aussage). Aber sie ist auch nicht "gut", und schon gar nicht besser. Und das ist für die Vega64 schlecht (und ihren Absatz. Und AMDs Ansehen.)

2) Wir müssen uns bei unserer Diskussion entscheiden, ob wir zur Beurteilung der Vega64 diese mit dem "logischen" Gegner GTX1080 vergleichen wollen oder nicht. Wenn ja, kann man ihr zugute halten, dass sie dessen Leistungen praktisch erreicht. Aber dann muss man halt auch den Verbrauch vergleichen, was Dir nicht schmeckt.
Und der Mehrverbrauch hat ja nicht nur erhöhte Stromkosten zur Folge, sondern bedeutet im Falle meines Systems z.B. auch die Notwendigkeit, ein neues Netzteil anzuschaffen.
Wenn wir sie nicht mit der GTX1080 vergleichen wollen ... womit dann?

Mein Fehler war vielleicht auch, dass ich immer nur auf die Vega64 gucke. Ich bin ein HighEnd-Snob. Die 56 interessiert mich nicht, aber wenn man die mit der 1070 vergleicht, kommt VEGA gegen PASCAL offenbar besser weg. Das will ich nicht unter den Tisch kehren.
 
Zuletzt bearbeitet:
Hier sogar die kleine vega an der TI also sollen die mal hinnmachen ihre viel höhere rohleistung auch umzusetzen geht ja.
https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1468/bench/Dirt_1080p.png

Gibt ein schönes Video dazu:

Dort wird gezeigt das es am Multisampling CMAA liegt mit 8x SMAA sieht das Bild anders aus.
Ob jetzt CMAA oder SMAA besser ist keine Ahnung wollte es nur mal erwähnt haben ;)
 
@celsi

lass dich nicht anmachen - es kann Vega noch so vollgestopft mit neuen Features - und die Architektur an sich noch so up to date sein - am Ende zählt das was hinten rauskommt und das ist das man es mit Biegen und Brechen und dementsprechend hohem Energieaufwand gerade einmal schafft zu einer über 1 Jahr alten (also nach Aussagen einiger hier ja quasi schon veralteten :d ) Pascal Architektur aufzuschliessen und selbst da reicht es nur für das 2tschnellste Modell.

Was nützt mir die tollste, neuste Technik der Welt, wenn sie nicht besser ist als die über 1 Jahr alte - ich würde ja noch nichts sagen wenn sie dafür weniger Strom brauchen würde, aber nein das Gegenteil ist der Fall :fresse2:
 
Das hat nichts mit anmachen lassen zu tun (trotzdem danke für die Unterstützung).
Ich bin schon ne Nummer älter und gewöhnlich in anderen Foren unterwegs, höherer Altersdurchschnitt, höheres Realitätsbewußtsein, und auch etwas strikter moderiert als dieses hier.
Was mich hier erschreckt, ist einfach diese stellenweise Verbohrtheit und das bewußte Augenverschließen gegenüber offensichtlichen Fakten (sicherheitshalber: Ich meine damit nicht direkt Dich, Pickebuh).
Ich will einfach vermeiden, dass ich auch als "verbohrt" wahrgenommen werde.
Aber wenn ich mir so manche Äußerung und so manche Signatur ansehe, die versucht, absolute Verbohrtheit durch Farbenpracht zu kaschieren, frage ich mich, ob ich da nicht etwas blauäugig rangehe ...
 
@celsi
naja es ist einfach die Objektivität die manche nicht im Stande sind an den Tag zu legen, ich zb hatte wirklich auch bis zuletzt gehofft das Vega für mein Einsatzgebiet was taugt (ist im übrigen dasselbe wie bei dir 4K Gaming) und ich hab einen 4K Freesync Monitor und hab mir sogar Fury in guten Glauben an Amds Marketingversprechen gekauft und mich damit die letzte Zeit nur noch geärgert - trotzdem wollte ich auf Vega warten bzw. dann mit dem Erscheinen von Vega wieder von Nvidia auf Amd zurückwechseln, einfach weil ich Nvidia (als Firma ) und vor allem ihre proprietären Entwicklungen (Gsync) nicht mag und ich froh bin wenn es Konkurrenz gibt.

Aber irgendwann muß man sich einfach eingestehen, das Amd für High End und 4K einfach nichts zu bieten hat und das kann man sich auch nicht schönreden oder auf irgendwelche Treiber warten, denn das ist verschenkte Gaming Zeit mußte ich mit einer Fury auf die harte Tour lernen.

Fakt ist nunmal, wer, aus welchem Grund auch immer aktuell die maximale Grafikleistung braucht warum auch immer (144 HZ Monitor, 4K) der kommt an Nvidia nicht vorbei und ist bei Amd leider falsch aufgehoben. Alle anderen können durchaus auch bei Amd was finden mit Vega nun zumindest auch wieder im Bereich von 60-100fps in 1080 und 1440p
 
Zuletzt bearbeitet:
Der einzige Widerspruch ist dein Post. Lese ihn einfach nochmals selber und du wirst es vielleicht merken.
Ich schreibe, dass der Releaseszeitpunkt keine Rolle spielt, solange die Technik dem heutigen Standard entspricht.
Und du schreibst genau das selbe, nur meinst du das dies falsch wäre, was deinen eigenen Widerspruch bestätigt.

VEGA ist Up-To-Date + vielen Zukunfts-Features. Wie oft muss man das hier eigentlich noch sagen/schreiben ?
Stromverbrauch ist zwar ein Manko gegenüber der Konkurrenz aber es ist kein Zeichen dafür, dass die Technik veraltet ist.
Über den Stromverbrauch einer Custom GTX1080Ti, die bis zu 400 Watt betragen kann, wird schließlich auch keine Diskussion darüber geführt, ob diese Zeitgemäß ist.
Geforce GTX 1080 Ti: Custom-Designs in der Herstellerübersicht - Taktraten, Kühlung, Powerlimit [Update 16.06.]
Aber bei VEGA ist das plötzlich ein Problem, wenn 300 Watt verbraten werden...

VEGA bietet alle modernen Standards wie DX12.1 Tier 3 Support, Shader Model 6, FreeSync - was noch nicht einmal NVIDIA beherrscht, Asyncron-Shaders ect. AMD sprich von 200 weiteren Features, die kommende Titel erst nutzen werden.
Wo da die Reise hingeht, sieht man schon an den heutigen Titeln, wo schon ein Teil dieser Features ausnutzen, siehe Doom, BF1 ect. Da kann sich VEGA sogar mit der GTX1080Ti anlegen! FC5, Wolfenstein 2 ect. werden dies noch weiter treiben.
Also Rohleistung ist genügend vorhanden. Ebenfalls Up-To-Date.

Daher zieht das Argument eben nicht, dass VEGA später als Pascal erschienen ist und daher VEGA schlecht sei. ;)
Ich hab dir jetzt schon mehrfach gesagt das TDP oder Powerlimit nicht Verbrauch bedeutet. Keine 1080 Ti zieht auch nur annähernd 400 Watt. Ich hab den Test selber verlinkt. Und selbst wenn die Ti 400 Watt (und das dann sogar mit maximalem Powerlimit) verbrauchen würde, wäre sie immer noch schneller als eine Vega 64 die nicht weniger schluckt.
 


Genau das habe ich auch gehofft.
Ich habe meine 290 mit 290x Bios als Ref Karte für gute 220€ vertickt und bin dann auf ne gebrauchte 1080 umgesteiegen und wolle diese dann eigentlich wieder verkaufen und auf Vega umsteigen.
Bei mir bleibt die 1080 aber jetzt definitiv im Rechner.
Mehr Leistung brauche ich nicht, und bei AMD bekomme ich nicht diese Leistung die ich jetzt habe.
Zum Kühlen hätte ich einen Morpheus da, aber keine Ahnung ob der auf die Ref Karten passt und vor allem wie es damit dann Temperaturmäßig aussieht etc.

AMD hat mit VEGA leider kein, für mich, rundes Produkt abgeliefert auf das ich setzen würde.
Evtl haben sie sich aber selbst damit die Grundlage geschaffen eine gute nächste Gen zu releasen. Wer weiß....
Ich kaufe jetzt jedenfalls auch nichts, was dann erst in 1 Jahr so läuft wie es hätte jetzt laufen sollen.
Leider vermisse ich wirklich schmerzlich den AMD Treiber muss ich sagen. Die NVidia Systemsteuerung ist grauenhaft. Alleine schon das Warten von 5 Sekunden wenn man etwas in den Einstellungen geändert hat nervt extrem. Dazu ist es hässlich und unübersichtlich. Automatische Updates nur per Experience und neuem Account...das ist halt einfach fail.
 
Ich hab dir jetzt schon mehrfach gesagt das TDP oder Powerlimit nicht Verbrauch bedeutet. Keine 1080 Ti zieht auch nur annähernd 400 Watt. Ich hab den Test selber verlinkt. Und selbst wenn die Ti 400 Watt (und das dann sogar mit maximalem Powerlimit) verbrauchen würde, wäre sie immer noch schneller als eine Vega 64 die nicht weniger schluckt.

Und wenn du es noch 1000 mal sagst, wird es nicht wahrer.
Die TDP ist eine Power-Target-Deckelung. Wer das noch nicht verstanden hat, versteht wohl recht wenig von der Technik hinter dem ganzen Boost.
Der Boost taktet die maximale mögliche Grenze aus, wo eben die Deckelung einsetzt. Sag mir nicht, das wüstest du nicht. Und die liegt eben bei dem eingestellten Limit.
Erreicht die Karte ihren maximalen Boosttakt schon früher, weil das Game eben nicht so fordernd ist, so verbraucht die Karte eben weniger an TDP.
Ist also von Game zu Game unterschiedlich bzw. an den Anforderungen des Users gebunden. V-Sync, was die Frames auf den Monitor-Refresh deckelt, ist da schon recht hilfreich, wenn es ums Sparen geht.

Jetzt endlich den Durchblick ?

Und hier nochmals zusammengefasst, warum VEGA Up-To-Date ist und sogar weit darüber hinaus:
Radeon RX Vega 64 56 im Test: Der helle Stern wirft lange Schatten - ComputerBase

P.S. Bitte Mod lösche doch mal den ganzen Kindergarten hier. Kommentare wie, der eine ist doof und der anderen ist dümmer, passen hier nicht rein ! Die NV-Kandidaten kennen wir ja schon hier zu genüge. :rolleyes:
 
Zuletzt bearbeitet:
Im Gegnsatz zu dir hab ich Tests verlinkt. Aber du kannst gerne mal einen Test mir einem Spiel verlinkten wo das Powerlimit ausgeschöpft werden muss, damit die Karte ihren Boost hält. Deine Erklärung ist auch nicht richtig.
 
Vega64 für 500€ war ein Marketinggag, unter 600€ werden wir die Karte in absehbarer Zeit so wie es aussieht nicht mehr sehen:
Die Preissituation um die Radeon RX Vega 64 (3. Update) - Hardwareluxx

Bei Vega56 sieht es demnach nach 500€ aufwärts aus, denn die 400€ werden auch nur ein Marketinggag für für eine handvoll Exemplare sein.

Das ist schon sehr ernüchternd. AMD hat wohl die Miner als neue Hauptzielgruppe. Ein großer Fehler, denn im Gamingmarkt werden sie dadurch noch mehr an Bedeutung verlieren. Es wird hier im Forum trotzdem wieder welche geben die meinen, dass die Spieleentwickler für die paar Hanseln freiwillig die ganzen Vega Features einbauen...


Und wenn du es noch 1000 mal sagst, wird es nicht wahrer.
Die TDP ist eine Power-Target-Deckelung. Wer das noch nicht verstanden hat, versteht wohl recht wenig von der Technik hinter dem ganzen Boost.
Der Boost taktet die maximale mögliche Grenze aus, wo eben die Deckelung einsetzt. Sag mir nicht, das wüstest du nicht. Und die liegt eben bei dem eingestellten Limit.
Erreicht die Karte ihren maximalen Boosttakt schon früher, weil das Game eben nicht so fordernd ist, so verbraucht die Karte eben weniger an TDP.
Ist also von Game zu Game unterschiedlich bzw. an den Anforderungen des Users gebunden. V-Sync, was die Frames auf den Monitor-Refresh deckelt, ist da schon recht hilfreich, wenn es ums Sparen geht.
Nur wird eine Vega dadurch im Schnitt nicht besser dastehen:
Radeon RX Vega 64 56 im Test: Der helle Stern wirft lange Schatten (Seite 6) - ComputerBase
Wenn du meinst, dass Vega die hohe TDP nur aus Rekordjagd hat und in Wirklichkeit allenfalls die Hälfte verbraucht, bei Nvidia aber nie gedeckelt wird, dann bleibe bei deinem Glauben der AMD-Kirche, aber versuche nicht Vega schöner zu reden als es ist.

P.S. Bitte Mod lösche doch endlich mal den ganzen Kindergarten hier. Kommentare wie, der eine ist doof und der anderen ist dümmer, passen hier nicht rein ! Die NV-Kandidaten kennen wir ja schon hier zu genüge. :rolleyes:
Und das AMD-Fanboygelaber bei dem u.a. AMD-Karten mit Nvidia-Karten aus älterer Generation verglichen werden lassen wir natürlich brav stehen... :stupid:
 
@Pickebuh

Sorry, nicht korrekt. Boost 3.0 arbeitet mit weit mehr Kennzahlen und nur weil das PT nicht erreicht wird, boostet die Karte nicht zwangsweise weiter. Zotac z.B. kann PT bis 382 Watt oder so haben. Kann die Karte aber mit Luft (aber auch unter Wasser) selten ausnutzen weil vorher schon andere Limits greifen. Ich bekomme meine Aorus Extreme jedenfalls mit keinen Mitteln dazu, das 350 Watt PT Limit auszureizen. Also ja PT KANN eine Verbauchsgrenze sein und so ist das Standard PT nahezu immer ein echtes Limit und daher kann man den Verbrauch daraus ableiten. Aber eben nur dann, wenn die Karte tatsächlich am PT limitiert, ansonsten kann der Verbrauch nicht am PT abgeleitet werden.
 
L_u_k_e,

warscheinlich ist dieses bild hier mit 300% firefox zoom für dich auch gefälscht oder ? :hust:

ansonsten, du hast echte probleme junge sowie viele andere nv jungs.

zb was man da alles auf dein post 792 so alles raus liest, da wird echt einen sehr schlecht :kotz:

ich gebe aber euch einen tip, wenn ihr doch so probleme habt wegen den treibern oder euch über den stromverbrauch gedanken macht, so emfehle ich euch dringen den pc desktop zu verlassen und auf einer konsole umzusteigen.
 
Zuletzt bearbeitet von einem Moderator:
ich glaub es wird Zeit dass es ForenBans regnet. Ist ja nicht mehr auszuhalten das Hennen-Gegacker.

Stellt euch vor:
(ich vermute hier mal) AMD verdient mit Vega mit recht hoher Wahrscheinlichkeit mehr Geld als NV mit der 1080 & 1080 Ti zusammen.

Der HighEnd/enthusiast-PCGaming-Markt wird oder ist bereits einigermassen gesättigt aber auch recht klein. Trotzdem wird AMD mithilfe von BlockChains wie schon bei Polaris geringe Lagerkosten mit hohem Absatz kombinieren können und auf Dauer wird das schwarze Zahlen bringen, was sich dann bestenfalls in den nächsten Hardwaregenerationen niederschlagen könnte - besser als wenn AMD pleitegeht. Wenns mir darum geht ne Firma am Laufen zu halten mache ich das eben auch mit MiningGPUs.


PS: würd mich nicht wundern wenn jede Vega vor der Auslieferung erst ihre Produktionskosten erschürfen darf :d :d :d

Bzgl. Firma retten, gebe ich dir recht, das würde wohl jeder machen, nur:

1. Werden die Miner bei den Boardparntern kaufen, und nicht bei AMD selbst.
2. Ist Vega für Mining selbst in Billigstromländern nur bedingt interessant, soweit man es bisher sieht
3. Unterschätzt du die Fertigungskosten vom größten Grafikprozessor mit dem Substrat und HBM2 glaub etwas.

So schön ist die Situation für AMD auch wieder nicht.
 
Ich frag einfach mal hier, sorry für OT:

Kennt jmd. eine Alternative zum MSI Afterburner, für onscreen Hardware Monitoring?
 
Ich habe das Problem das mein win10 sagt, dass die App nicht mehr funktioniert, wenn ich den MSI AB starte (Version 4.30 neuste), kennt das jmd.?

@Knurecht
Danke, HWinfo kann aber doch nichts onsceen in game anzeigen
 
@Mustis
Ich bin weder NV noch AMD Fanboy. Ich hatte jetzt jahrelang ne AMD Karte, so what. Die Leistung passte, und die Preise auch. Jetzt bin ich mal wieder bei NV weil ich meine R9 290x gut losbekommen habe.
Also keine Ahnung. Ansonsten: Ja ich habe AMD noch ein wenig verteidigt weil es nichts offizielles zu den Vega Karten gab.
Dazu habe ich eine AMD CPU welche top läuft bei mir und da verteidige ich AMD auch gerne weiter, weil Ryzen wirklich gelungen ist. Im Gegensatz zu Vega, leider.

@Crynis
Ich habe dein System eher gelobt, aber ok. Nur deine beweihräucherung ist einfach dumm.
Aber wie gesagt, ich könnte mir gut vorstellen, dass Vega die Grundlage für gute weitere GPUs gelegt hat.
Dann wechsle ich auch gerne wieder zu AMD, wie ich es ja auch eigentlich vor hatte, nur läuft meine 1080 jetzt halt deutlich besser als die Vega 64 und warum sollte ich also JETZT wechseln? Macht doch keinen Sinn.

Ich habe das Problem das mein win10 sagt, dass die App nicht mehr funktioniert, wenn ich den MSI AB starte (Version 4.30 neuste), kennt das jmd.?

@Knurecht
Danke, HWinfo kann aber doch nichts onsceen in game anzeigen

Doch, kann es in gewisser Weise. Der RTSS kann Daten aus HWinfo anzeigen. Glaube dafür brauchts auch keinen Afterburner.
Ansonsten mal Afterburner neu installieren? bei mir funktioniert der einwandfrei
 
Zuletzt bearbeitet:
PS: würd mich nicht wundern wenn jede Vega vor der Auslieferung erst ihre Produktionskosten erschürfen darf :d :d :d
sind denn wirklich grakas besser als spezialhardware was schürfen betrifft? vor 2-3 jahren hatte man mining-rigs ohne grakas bei den profis.

edit: aber irgendwo muss man sich ja festhalten. wenn alle werte schlecht sind, dann nimmt man eben das mining, auch wenn es wegen der stromkosten total sinnlos ist in deutschland :d
 
Zuletzt bearbeitet:
Das kommt drauf an welche Coins man schürfen will - der Großteil geht am besten auf GPUs. Für BitCoins gibts sogenannte ASICs.
 
Luke, war weniger gegen dich. Es ist halt nur eben genau der haarsträubende unsinn wie wenn man dich zum nv fanboy erklärt mangels echter argumente, die die skurilität der argumenationsweise mancher hier unterstreicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh