blake256 Berechnung schnellste Karte

  • Ersteller Gelöschtes Mitglied 248626
  • Erstellt am
G

Gelöschtes Mitglied 248626

Guest
Hallo Leute,

mein Hobby ist cryptomining (ähnlich wie Bitcoin, nur mit GPU's statt ASICS).

Aktuell gibt es einen Coin der nennt sich Decred und basiert auf dem blake256 Algorithmus.

Man kann diesen Coin selbst "erstellen" indem man ihn mit einer leistungsstarken GPU mined.

Die schnellste Karte die ich hierfür kenne (bzw. deren Werte ich kenne) ist die 980ti - sie erreicht ca. 3.000 Mh/s.

Aktuell nutze ich 3 HD 6990 Karten, wobei jeder Kern "nur" ~ 820 Mh/s erreicht und zustäzlich frisst jede Karte ca. 400 Watt Strom.


Die Frage ist nun, ob es irgendwelche Karten gibt die ähnlich schnell sind wie die 980ti - dafür aber keine 600 € kosten?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Die Vermutung liegt nahe, da sie das AMD Gegenstück zur 980ti ist... aber mir ging es eher darum ob sich jemand mit blake256 beschäftigt hat und weiß worauf es ankommt?

Der einzige Vorteil der Fury ist der HBM ... und Blake256 greift überhaupt nicht auf den VRAM zu.

Soweit ich das bisher verstanden habe kommt es auf den Core clock an. Um so höher der ist um so mehr Leistung bringt die Karte.

Ich kann meine 6990 zwar auch auf 1 Ghz übertakten... allerdings frisst dann jede Karte ca. 550 Watt.
Dann dürfte ein Core ca. 900 Mh/s liefern was 1.800 Mh/s in Relation zu 550 Watt setzt.

Die 980ti hat ca. den halben Stromverbrauch und dabei die doppelte Leistung.
 
Zuletzt bearbeitet von einem Moderator:
Wenn du Effizienz haben möchtest, dann bist du wohl mit untervolteten Karten am Besten bedient.

Ich würde wenn Nvidia deutlich schneller ist als AMD eher eine kleinenre Nvidia Karte vorziehen oder sogar zwei kleinere kaufen.
P/L ist bei kleineren Karten fast immer besser. Ich denke da an 960gtx (als 2gb Karte günstiger zu bekommen, Ram brauchst du ja eh nicht) oder 970gtx.
 
Danke, ich schaue mal ob ich die günstig bekomme.

Habe meine 6990 schon bis ans maximum undervolted, so laufen sie sehr kühl und stabil - aber Stromsparwunder werden sie dadurch trotzdem nicht.
 
Wie wärs mit GTX960? Bei 1200MHz GPU Takt liefert diese Karte ca. 1150Mh/s (Blake256) :)
 
Von der Rohleustung müsste AMDs GCN (7000, 200 und 300 Serie) schneller sein. Ich weiß halt nicht, ob sie das in blake256 auch "auf die Straße" bringen.

Wäre der Takt allein ausschlaggebend, würde man das ganze auf der CPU berechnen, da aber GPUs genutzt werden, werden die shader genauso Teil der Rechnung sein.

Eine weitere Frage ist ob single- oder double-precision genutzt wird. Bei letzterem, dürfte eine 290/390 oder sogar 280x/7970 schneller sein als die Fury
 
•6.4GH/s - 6.9GH/s on a AMD Radeon R9 295X2
•3.3GH/s - 3.5GH/s on a AMD Radeon R9 290X
•2.9GH/s - 3.1GH/s on a AMD Radeon R9 290
•2.6GH/s - 2.8GH/s on a AMD Radeon R9 280X
•2.2GH/s - 2.4GH/s on a AMD Radeon R9 280
•1.2GH/s - 1.5GH/s on a AMD Radeon R9 270
•4.8GH/s - 5.1GH/s on a AMD ATI Radeon 7990
•2.2GH/s - 2.8GH/s on a AMD ATI Radeon 7970
•2.1GH/s - 2.4GH/s on a AMD ATI Radeon 7950
•2.6GH/s - 2.9GH/s on a AMD ATI Radeon 6990
•1.4GH/s - 1.5GH/s on a AMD ATI Radeon 6970
•1.4GH/s on a AMD ATI Radeon 6950
•900MH/s on a AMD ATI Radeon 6870
•800MH/s on a AMD ATI Radeon 6850
•1.3GH/s on a AMD ATI Radeon 5870
•1.1GH/s on a AMD ATI Radeon 5850
•1.6GH/s on a ZTEX USB-FPGA 1.15y Quad Spartan-6 LX150 Development Board
•1.5GH/s on a Enterpoint Cairnsmore 1 Quad Spartan-6 LX150 Development Board
•960MH/s on a Lancelot Dual Spartan-6 LX150 Development Board
•360MH/s on a ZTEX USB-FPGA 1.15x Spartan-6 LX150 Development Board
•4.1GH/s on a NVIDIA GeForce 980ti
•3.05GH/s on a NVIDIA GeForce 980
•2.63GH/s on a NVIDIA GeForce 970
•1.71GH/s on a NVIDIA GeForce 960
•930MH/s on a NVIDIA GeForce 750ti


https://bitcointalk.org/index.php?topic=306894.0

2 Minuten Google bemüht

- - - Updated - - -

http://www.mininghwcomparison.com/list/nvidia/index.php?algo=blake256

sieht auch noch ganz interessant aus. Nano ist hier auch gelistet
 
Warum genau kauft man jetzt teure Hardware zum minen von so nem witzcoin ? Schau dir mal ethereum an da kommt wenigstens was bei rum ... eine 280x schaufelt dir da 5-6$ am Tag..

(DCR Mining average 280x = 1.5 GHz / Income on 18,89 GHz = 24.7 DCR/day = 0.13 btc/day / == Mining on 280x @ 1.5 GHz = 1,15 DRC/day = 0.0061655755 BTC = ~ 2,56 USD)
 
Zuletzt bearbeitet:
•6.4GH/s - 6.9GH/s on a AMD Radeon R9 295X2
•3.3GH/s - 3.5GH/s on a AMD Radeon R9 290X
•2.9GH/s - 3.1GH/s on a AMD Radeon R9 290
•2.6GH/s - 2.8GH/s on a AMD Radeon R9 280X
•2.2GH/s - 2.4GH/s on a AMD Radeon R9 280
•1.2GH/s - 1.5GH/s on a AMD Radeon R9 270
•4.8GH/s - 5.1GH/s on a AMD ATI Radeon 7990
•2.2GH/s - 2.8GH/s on a AMD ATI Radeon 7970
•2.1GH/s - 2.4GH/s on a AMD ATI Radeon 7950
•2.6GH/s - 2.9GH/s on a AMD ATI Radeon 6990
•1.4GH/s - 1.5GH/s on a AMD ATI Radeon 6970
•1.4GH/s on a AMD ATI Radeon 6950
•900MH/s on a AMD ATI Radeon 6870
•800MH/s on a AMD ATI Radeon 6850
•1.3GH/s on a AMD ATI Radeon 5870
•1.1GH/s on a AMD ATI Radeon 5850
•1.6GH/s on a ZTEX USB-FPGA 1.15y Quad Spartan-6 LX150 Development Board
•1.5GH/s on a Enterpoint Cairnsmore 1 Quad Spartan-6 LX150 Development Board
•960MH/s on a Lancelot Dual Spartan-6 LX150 Development Board
•360MH/s on a ZTEX USB-FPGA 1.15x Spartan-6 LX150 Development Board
•4.1GH/s on a NVIDIA GeForce 980ti
•3.05GH/s on a NVIDIA GeForce 980
•2.63GH/s on a NVIDIA GeForce 970
•1.71GH/s on a NVIDIA GeForce 960
•930MH/s on a NVIDIA GeForce 750ti


https://bitcointalk.org/index.php?topic=306894.0

2 Minuten Google bemüht

- - - Updated - - -

Mining Hardware Comparison

sieht auch noch ganz interessant aus. Nano ist hier auch gelistet

Ich weiß nicht genau wer diese Liste erstellt hat - aber anscheinend ist es nicht der gleiche Algorithmus.

Ich habe eine 6990 die in der Liste mit mind. 2,6 GH/s angegeben wird.
Effektiv bekomme ich aber (selbst bei Übertaktung auf 1 GHz) maximal 880 MH/s pro Chip - also 1,76 GH/s und nicht 2,6

Ich habe auch eine 6950 die dort mit Standardtakt mit 1,1 GH/s angegeben wird - effektiv bringt die Karte aber selbst mit 20% Übertaktung nichtmal 0,9 GH/s


EDIT:
Mir fällt jetzt auch wieder ein wieso die 6950 in der einen Liste sogar mit 1,4 GH/s steht - bei der Karte gibt es einen Bug der exakt 200% anzeigt - effektiv hat die Karte also 700 MH/s auf Standardtakt - das passt dann auch.

Gleiches gilt für die 6990 - sie liefert keine 2,6 sondern 1,3 GH/s auf Standardtakt.

Alle Werte in der Liste oben müssen /2 geteilt werden.

- - - Updated - - -

Warum genau kauft man jetzt teure Hardware zum minen von so nem witzcoin ? Schau dir mal ethereum an da kommt wenigstens was bei rum ... eine 280x schaufelt dir da 5-6$ am Tag..

(DCR Mining average 280x = 1.5 GHz / Income on 18,89 GHz = 24.7 DCR/day = 0.13 btc/day / == Mining on 280x @ 1.5 GHz = 1,15 DRC/day = 0.0061655755 BTC = ~ 2,56 USD)

Ethereum ist nur eine Blase, die langsam schon beginnt zu platzen.
Der Wert ist innerhalb von 2 Tagen um 20% eingebrochen.
Aueßrdem gibt es viel zu viele Leute die das minen - viel Angebot und eher geringe Nachfrage.

Ich interessiere mich auch nicht für Decred - ich minde den Coin weil es profitabel ist und verkaufe ihn anschließend gegen Bitcoin.

Meine 2 6990 + 1 6970 liefern zusammen 4100 MH/s.
Man benötigt ca. 900 MH/s für 1 DCR am Tag.
D.h. 4100 / 900 = 4,56 DCR/Tag * 30 = 136,8 DCR / Monat
Wert eines DCR = 0,006 BTC bei gutem Kurs
136,8 * 0,006 = 0,8208 BTC / Monat

BTC Kurs: 375 € * 0,8208 = 307,8 €


Stromkosten: 0,25 € / KW
Stromverbrauch: 1,1KW / Stunde
1,1 * 24 *30 * 0,25 = 198 € / Monat


307,80 - 198 = 109,80 € Gewinn / Monat


Wenn man die Hardware mit einrechnet + den ungewissen Kursverlauf von Decred ist das natürlich kein gutes Geschäft mehr - aber das ganze ist ein Hobby für mich.
Andere spielen Golf, Fußball, Mountainbiken oder spielen ein Musikinstrument - das dürfte auf Dauer sogar noch teurer sein als mein Hobby.
 
Zuletzt bearbeitet von einem Moderator:
Lies dich mal ein was Bitcoin und Litecoin waren/sind. Diese Coins von denen hier gesprochen wird sind so genannte Altcoins die meist eine recht kurze Lebenserwartung haben. Sie werfen viel am Anfang ab aber der Kurs ist sehr instabil und man weiß nicht wie genau sichdas verhält. Daher auch der Tausch in Bitcoin die recht stabil ist. Das Prinzip ist bei allen Coins aber das gleiche außer das es je nach Coin und vorallem bei Bitcoins spezielle Hardware zum minen gibt die das GPU mining unrentabel macht.
 
Ich würde sagen, da googelst du mal lieber... Das würde den Rahmen dieses Thread um einiges sprengen ;)
 
Lies dich mal ein was Bitcoin und Litecoin waren/sind. Diese Coins von denen hier gesprochen wird sind so genannte Altcoins die meist eine recht kurze Lebenserwartung haben. Sie werfen viel am Anfang ab aber der Kurs ist sehr instabil und man weiß nicht wie genau sichdas verhält. Daher auch der Tausch in Bitcoin die recht stabil ist. Das Prinzip ist bei allen Coins aber das gleiche außer das es je nach Coin und vorallem bei Bitcoins spezielle Hardware zum minen gibt die das GPU mining unrentabel macht.

Richtig - die Sache ist nur, dass entsprechende ASICS für Bitcoin direkt auch mal 3-8K Euro kosten können und nicht selten 2-5 KW / Stunde Strom ziehen.
Mit den deutschen Stromkosten kann man Bitcoinmining selbst mit den modernsten Geräte nichtmehr profitabel betreiben.

Die Altcoins haben oft nur eine geringe Halbwertszeit. Aber wenn eins sicher ist dann ist es der Fakt, dass für jeden Coin der wieder verschwindet mindestens ein neuer "auftaucht".

Irgendeinen coin gibt es eigentlich immer den man mehr oder weniger profitabel minen kann.
Und wenn man die Erträge in BTC wechselt ist man recht sicher.

Bitcoins kann man als Wertanlage behalten, man kann sie gegen echtes Geld (Fiatmoney) verkaufen oder direkt mit den Bitcoins Dinge kaufen.

Da die meisten Algorithmen besser auf AMD laufen als auf Nvidia kaufe ich iegentlich nur AMD Karten, so dass ich nach dem Ableben eines Coins direkt auf einen anderen wechseln kann.

Zudem bin ich einfach begeistert von der Technik und bastle gerne an Computern.
 
Zuletzt bearbeitet von einem Moderator:
Ich hätte da mal noch eine Frage zu der Thematik.

Ich habe meine GPUs aktuell alle auf 1,065 V und 870 MHz getaktet. So bekomme ich 775 mh/s pro GPU.

Wenn ich nun auf 1,12 V und 920 MHz anhebe bekomme ich pro GPU 730 mh/s ... wie kann das sein?

Der Algorithmus zielt nur auf Stream Prozessoren und core clock ab.
Wenn ich den core clock anhebe müsste doch theoreitsch die Leistung deutlich steigen?

Anscheinend spielt die Spannung aber auch noch eine Rolle.
Wenn ich die 870 MHz mit 1,12V laufen lasse komme ich nur noch auf 850 mh/s.

Oder laufe ich bei 870 MHz mit 1,12V schon ins Powerlimit und werde dadurch begrenzt?

Standardtakt ist 830 MHz bei 1,12 V


EDIT:
Hat sich erledigt.. lag wirklich am Powerlimit. Mit +5% läuft jeder Chip mit 830 mh/s

Ganzschön krass. Von 870 MHz bei 1,070V auf 930 MHz musste ich die Spannung nur auf 1,080V anheben und das Powerlimit auf +5% setzen.
Ich hätte gedacht, dass der benötigte Spannungsunterschied größer ist.
 
Zuletzt bearbeitet von einem Moderator:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh