[Sammelthread] ZFS Stammtisch

Meine Beobachtung ist, dass ESXi da nicht so geil ist. Ist aber auch vollkommen klar, ist ne abgespeckte Version des ESX und halt mal Business Software. Da zählt Performance, sonst nix...

ESXi läßt sich durchaus über Konfiguration-Energieverwaltung auf geringe Leistungsaufnahme optimieren. Aber klar ist natürlich, dass ESXi die Resourcen durchreicht. Sparsamer Umgang mit CPU und Disks ist dann Sache der Gastsysteme.

Wenn aber Energiesparen angesagt ist, dann am Besten bei sparsamen CPU's, Mainboard mit RAM und möglichst wenig/ sparsamen Platten ansetzen. Man darf aber nicht vergessen, dass Energie sparen und Performance nicht gleichzeitig zu haben sind.

Gea
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hallo zusammen,


ich habe immer noch probleme, das das openindiana nas seine netzwerkeinstellungen komplett vergisst. er steht zwar weiter auf "manuell", aber die ip adressen stehen auf 0.0.0.0 und die adapter sind nicht aktiv.
kann das sein, das sich nappit und die einstellungen, die man in der systemsteuerung machen kann nicht vertragen?
weiterhin wollte ich frage, ob einer von euch eine nge netzwerkkarte mit jumbo frames hinbekommen hat, denn das umstellen auf "default_mtu=9000" in der nge.conf hat nicht geholfen.
ähm nochwas, das oracle solaris 11 läuft bei mir in der vm ohne solche probleme und ich wollte mal fragen, ob das einen bestimmen nutzungszeitraum hat, nicht das wenn ich jetzt aus sol 11 umstelle und dann nur 120tage zum testen hab ;)

vielen dank,
david
 
hallo zusammen,


ich habe immer noch probleme, das das openindiana nas seine netzwerkeinstellungen komplett vergisst. er steht zwar weiter auf "manuell", aber die ip adressen stehen auf 0.0.0.0 und die adapter sind nicht aktiv.
kann das sein, das sich nappit und die einstellungen, die man in der systemsteuerung machen kann nicht vertragen?
weiterhin wollte ich frage, ob einer von euch eine nge netzwerkkarte mit jumbo frames hinbekommen hat, denn das umstellen auf "default_mtu=9000" in der nge.conf hat nicht geholfen.
ähm nochwas, das oracle solaris 11 läuft bei mir in der vm ohne solche probleme und ich wollte mal fragen, ob das einen bestimmen nutzungszeitraum hat, nicht das wenn ich jetzt aus sol 11 umstelle und dann nur 120tage zum testen hab ;)


vielen dank,
david

OpenIndiana ist eine Enwicklerversion.
Die hakelt manchmal etwas, da ist teils noch etwas Handarbeit nötig.
(erste stable eventuell noch im Februar)

Es gibt da bei Solaris eh das Problem, dass es zwei völig verschiedene
Konfigurationsmöglichkeiten gibt, nämlich auto-magic

-damit ist Vollautomatic gemeint, was ich gerne aber mit auto-Magie umschreibe,
weil es immer neue unerwartete Hasen aus dem Hut zaubert
Network Auto-Magic (Project nwam.WebHome) - XWiki

-das andere ist network/default, also manuelle Konfiguration.
Napp-it schaltet immer manuell ein, OpenIndiana hat auto-magic
als default. meistens macht das Umschalten keine Problem, manchmal
muss man die config-files in /etc/ manuell kontrollieren

-> opensolaris-bible ist ein nettes Buch

zu SE11
es gibt keine zeitliche Beschränkung, wohl aber eine
lizenzrechtliche. SE11 darf nur nichtkommerziell und zu
Demo/Testzwecken genutzt werden, ansonst will Oracle
Geld sehen.


apropos nge und Jumbo frames
ist das eine Realtek?

die machen doch auch ohne Extras gern schon Probleme

Gea
 
Zuletzt bearbeitet:
betr. All-In-One

ZFS-NAS/SAN (OpenIndiana) virtualisiert auf ESXi
(als Info, passt nicht nur in den ESXi thread, sondern auch hierher)

ich habe dazu mal einen Entwurf für Teil 2 meines mini HowTo
hochgeladen. Wens interessiert, der kanns ja mal anschauen
und mir Fehler rückmelden

(ich habs in Englisch verfasst, sollte aber nicht zu schwer zum lesen sein)

Teil 2: ESXi all-in-one
http://www.napp-it.org/doc/downloads/all-in-one.pdf


Gea
 
ich hab nun das automagic abgestellt, so wie es im heise artikel steht.

svcadm disable network/physical:nwam
svcadm enable network/physical:default

und nun stellen wir nur noch mit nappit oder per hand an den einstellungen rum. so.

ich hab aber gleich schon wieder was neues, nämlich den benchmark des pools. dazu muss ich sagen das der grade schon sehr voll ist (88%) und das auch 4 vms drauf liefen, aber trotzdem sind die werte mies, oder?
[IMG=http://img33.imageshack.us/img33/2233/nas2raid1.jpg][/IMG]

ciao,
david
 
Zuletzt bearbeitet:
was habt ihr alle gegen automagic?

Da kann man auch fixe IPs einstellen.
nwamcfg
ncp auswählen
altes ncu für das interface löschen und nen neues anlegen mit z.B. fixer ip.
und dann commiten.

:)

Und wenn man nen Xserver hat ist sowieso einfach.
 
Zuletzt bearbeitet:
Es ist alles ziemlich interessant was ich hier lese.

Ich verwende ZFS seit fast 2 Jahren aktiv unter Ubuntu/ZFS-FUSE. Ich habe es auch direkt unter OpenSolaris nativ getestet und auch mit Windows als Host-System und eine OpenSolaris VMWare. Aber merkbar schneller war es nicht. Ich hätte gedacht dass FUSE das System bei weitem mehr ausbremst.

Mich würde interessieren, ob jemand einen ESXi mit oder auch ohne IOMMU bzw. Vt-d am laufen hat und auf derselben Maschine neben einer ZFS-Box auch arbeitet (z.B. WinXP, Win7, Linux, etc) und wie da die Erfahrungen sind.

Wenn ich alles richtig verstanden habe, könnte ich schon Vorteile darin sehen ESXi am laufen zu haben und dann immer wieder neue Betriebsysteme zu testen (ohne jemals den Rechner herunterzufahren).
 
OenIndiana in einer virtuellem Umgebung auszuprobieren ist kein Problem.

Wenn man jedoch ein richtig gutes Nas, schnell oder schneller wie eine aktuelle Festplatte, haben möchte, geht das nur ohne Virtualisierung oder eben mit vt-d, bei der das NAS-OS neben genügend RAM einen direkten Plattenzugriff hat.


Gea
 
Hat von euch einer mal das Problem mit der nexentastore community edition gehabt das der Webinterface nicht mehr erreichbar ist?

Ich schalte die Kiste ein und nach ca. 15-20min. geht das Webinterface nicht mehr.
Die Freigaben gehen dann allerdings noch.
 
hm, das das napp-it nicht mehr erreichbar ist, hab ich auch manchmal, dann über ssh auf die maschine und :

#sudo su
pw: ****
#/etc/init.d/nappit-it stop
#/etc/init.d/nappit-it start

und fertig.

meine frage für heute: muss ich was beachten wenn ich aus einem raid1 ein raid 10 machen will? vdevs als mirror hinzufügen ist schon klar, aber danach ? verteilt der die daten dann automatisch oder muss/kann ich irgendwelche befehle eingeben, damit alles superflink läuft?

ciao und danke,
david
 
hm, das das napp-it nicht mehr erreichbar ist, hab ich auch manchmal, dann über ssh auf die maschine und :

#sudo su
pw: ****
#/etc/init.d/nappit-it stop
#/etc/init.d/nappit-it start

und fertig.

meine frage für heute: muss ich was beachten wenn ich aus einem raid1 ein raid 10 machen will? vdevs als mirror hinzufügen ist schon klar, aber danach ? verteilt der die daten dann automatisch oder muss/kann ich irgendwelche befehle eingeben, damit alles superflink läuft?

ciao und danke,
david

zu Problemen mit der NexentaStor community
eventuell mal bei nexentastor.org nachfragen

zu napp-it
der mini-http Webserver den napp-it momentan mitinstalliert wäre ideal.
Leider stüzt er manchmal ab. Ich überlege noch, ob ich z.b. auf lighttpd wechsle.

zu raid-10
mun muss und kann nichts einstellen. Geht alles von alleine.
Ich vermute aber schon, dass ein Performancegewinn erst mit neuen oder
geänderten Dateien auftritt.

Gea
av
 
zu raid-10
mun muss und kann nichts einstellen. Geht alles von alleine.
Ich vermute aber schon, dass ein Performancegewinn erst mit neuen oder
geänderten Dateien auftritt.

Wenn der bestehende Pool bereits (annähernd) voll ist, werden weitere Writes auf das neue vdev gehen. Sowas passiert auch, wenn man vdevs unterschiedlicher Größe benutzt - da wird das größere vdev mehr Writes abbekommen als das kleinere, ist also nicht mit einem normalen x0 Raid vergleichbar. Rebalancing gibt es soweit ich weiss nicht. Ausgleichen würde es sich über die Zeit nur, wenn auch genug alte Daten gelöscht werden.
 
Welche Sata Controller werden eigentlich unterstützt?
Mein Board hat nur 5 SATA Ports. Ich wollte jetzt das System auf einer Platte installieren die an einem Adaptec 1210 hängt.
Der Installer erkennt den Controller, sagt aber das er keine Treiber dafür hat. Kann ich die irgendwie einbinden?
 
Wenn der bestehende Pool bereits (annähernd) voll ist, werden weitere Writes auf das neue vdev gehen. Sowas passiert auch, wenn man vdevs unterschiedlicher Größe benutzt - da wird das größere vdev mehr Writes abbekommen als das kleinere, ist also nicht mit einem normalen x0 Raid vergleichbar. Rebalancing gibt es soweit ich weiss nicht. Ausgleichen würde es sich über die Zeit nur, wenn auch genug alte Daten gelöscht werden.

danke für die info, das hab ich mir schon fast gedacht, wäre aber trotzdem schön gewesen. das chaos geht hier weiter, nicht nur das sich esxi und nas auf den pci-e karten nicht mehr sehen, aber von esxi(pci-e) zu nas(2.karte,pci) schon, wäre nur halb so schlimm, wenn nicht auch noch der pool degraded ist
zum glück hat ich gleich noch eine sparedisk hinzugefügt, aber nun muss schnell was neues her.
kann ich die defekte platte irgendwie prüfen bevor ich sie ausbaue? und wie geht man dann vor, wenn man die spare hdd in den pool holen will um dann die andere aus selbigen zu entfernen?

Code:
[size=1]
root@nas2:~# zpool status
  pool: esxi
 state: DEGRADED
status: One or more devices are faulted in response to persistent errors.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Replace the faulted device, or use 'zpool clear' to mark the device
        repaired.
 scan: resilvered 431M in 0h3m with 0 errors on Thu Feb 24 21:11:12 2011
config:

        NAME          STATE     READ WRITE CKSUM
        esxi          DEGRADED     0     0     0
          mirror-0    ONLINE       0     0     0
            c1t1d0    ONLINE       0     0     0
            c2t0d0    ONLINE       0     0     0
          mirror-1    DEGRADED     0     0     0
            spare-0   DEGRADED     0     0     0
              c0t0d0  FAULTED      0     0     0  too many errors
              c2t1d0  ONLINE       0     0     0
            c0t1d0    ONLINE       0     0     0
        spares
          c2t1d0      INUSE     currently in use

errors: No known data errors

  pool: rpool
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          c1t0d0s0  ONLINE       0     0     0

errors: No known data errors
[/size]

achso die benches haben sich minimal verbessert, der nvidia controller scheint einfach nicht für ein nas zu taugen, oder in dem moment hat sich die eine platte verabschiedet.

Code:
[size=1]root@nas2:~# time dd if=/dev/zero of=/esxi/bigfile bs=8k count=1048576
1048576+0 records in
1048576+0 records out
8589934592 bytes (8,6 GB) copied, 282,038 s, 30,5 MB/s

real	4m42.059s
user	0m0.765s
sys	0m19.111s

root@nas2:~# time dd if=/esxi/bigfile of=/dev/null bs=8k
1048576+0 records in
1048576+0 records out
8589934592 bytes (8,6 GB) copied, 162,794 s, 52,8 MB/s

real	2m42.797s
user	0m0.595s
sys	0m6.578s
[/size]

napp-it, bonnie++



EDIT : Ermitteln des Gerätefehlertyps
ich habe grade folgenden link gefunden:
http://download.oracle.com/docs/cd/E19253-01/820-2313/gbbvf/index.html
"Administratorfehler – Administratoren können versehentlich Datenträgerbereiche mit ungültigen Daten überschreiben (z. B. das Kopieren von /dev/zero auf bestimmte Datenträgerbereiche) und so Daten auf dem Datenträger dauerhaft beschädigen. Solche Fehler sind stets vorübergehend"

meint ihr, dass das bei mir auch passiert ist? die platte lief ja vorher ein jahr lang im esxi und ich kann mir eigentlich nicht vorstellen, das sie kaputt ist.

und nun der horror:
scan: scrub in progress since Thu Feb 24 23:12:30 2011
16,6G scanned out of 413G at 2,66M/s, 42h27m to go
0 repaired, 4,02% done


ciao und danke,
david
 
Zuletzt bearbeitet:
Ich will mein system mal neu aufsetzen.
Welches OS würdet ihr mir empfehlen? Bin blutiger Anfänger. :)
OpenIndiana? NexentaCore, SolarisExpress, EON, oder doch was anderes?
 
Ich will mein system mal neu aufsetzen.
Welches OS würdet ihr mir empfehlen? Bin blutiger Anfänger. :)
OpenIndiana? NexentaCore, SolarisExpress, EON, oder doch was anderes?


Ich würde mit OpenIndiana (Live-Version mit GUI) beginnen.
Ist am Anfang einfacher als CLI only.

Solaris Express 11 ist nicht frei aber zu Hause eine Alternative.

Gea
 
Ich würde mit OpenIndiana (Live-Version mit GUI) beginnen.
Ist am Anfang einfacher als CLI only.

Solaris Express 11 ist nicht frei aber zu Hause eine Alternative.

Gea

OK.
Für die Konfiguration dann am besten napp it benutzen oder hat OI ein vernünftiges Tool onboard?
 
danke für die info, das hab ich mir schon fast gedacht, wäre aber trotzdem schön gewesen. das chaos geht hier weiter, nicht nur das sich esxi und nas auf den pci-e karten nicht mehr sehen, aber von esxi(pci-e) zu nas(2.karte,pci) schon, wäre nur halb so schlimm, wenn nicht auch noch der pool degraded ist
zum glück hat ich gleich noch eine sparedisk hinzugefügt, aber nun muss schnell was neues her.
kann ich die defekte platte irgendwie prüfen bevor ich sie ausbaue? und wie geht man dann vor, wenn man die spare hdd in den pool holen will um dann die andere aus selbigen zu entfernen?
Ich weiss jetzt natürlich nicht, was du genau gemacht hast, aber wenn die Spare-Platte automatisch herangezogen wurde und das Resilver durch ist, sollte man die defekte Platte einfach mit 'zpool detach' aus dem Pool nehmen und ausbauen können. Die Spare-Platte wird damit zur normalen Platte des Pools und der Eintrag 'spares' verschwindet.
Testen tue ich meine Platten immer durch ausbauen und anklemmen an meinen Windows-Rechner - da gibt es genug Tools, von denen ich weiss, dass und wie sie funktionieren.

Bzgl. Nvidia-Controller: hab ich auf meinem benutzen Board auch einen Nvidia-Chipsatz. Damit geht kein AHCI, da die Controller wohl nicht ganz Standard-Konform sind. Sieht man schön mit iostat, wie immer nur ein Request abgesetzt wird und x in der Queue warten. Die Performance ist bei mir aber trotzdem kein Problem.
 
Kann mir auch einer erklären wie ich das OpenIndiana dazu bekomme das es DNS benutzt.
NWAM habe ich schon ausgestellt und der Maschine eine Feste-IP gegeben.
Leider geht noch kein DNS.

Jmd ne Idee?
 
@Snuskhammer betreibst du einen eigenen DNS oder läuft alles über den Router? Wenn du nur einen Router hast, dann trage doch den DNS Namen für dein OS z.B. storage / nas bei der IP im Router ein. So mache ich das immer.
 
Egal ob DNS oder Router habe beides. :)
In diese Richtug geht ja DNS.

Nur andersherum nicht. Openindiana kann keine Namen auflösen.
Ping ich eine öffentliche IP an, bekomme ich die antwort "Ip is alive"

Pinge ich z.b. web.de an bekomme ich die Meldung "unknow host"
 
Egal ob DNS oder Router habe beides. :)
In diese Richtug geht ja DNS.

Nur andersherum nicht. Openindiana kann keine Namen auflösen.
Ping ich eine öffentliche IP an, bekomme ich die antwort "Ip is alive"

Pinge ich z.b. web.de an bekomme ich die Meldung "unknow host"

tja automagic=auto-Magie,
ich weiss auch nicht, was sich OpenIndiana/Sun/Oracle dabei gedacht haben.

es geht auf jeden Fall wenn man in der Datei /etc/resolf.conf folgendes einträgt:
nameserver 8.8.8.8

(8.8.8.8 und 4.4.4.4 sind freie Google DNS Server)

siehe FAQ, letzte Seite
http://www.napp-it.org/doc/downloads/napp-it.pdf


ich würde OpenIndiana ansonst auf nwam lassen
- auch mit fester ip, manuell macht eher mehr Ärger


Gea
 
Zuletzt bearbeitet:
hallo,

noch einmal ein update zu dem gestrigen chaos, welches sich nun langsam auflöst, wenn auch wahrscheinlich durch zufall.

die defekte platte(c0t0d0) wurde von mir detached und im pool stand nun der ehemalige spare und alles sah gut aus, nach ausbau und neustart war alles degraded und der pool wurde ordentlich gescrubbed, allerdings sah danach auch alles noch schlecht aus(filesystem corrupt,c0t1d0) und als ich dann aus verzweiflung die inzwischen mit seatools getestete platte wieder eingebaut hatte um die neue defekte damit zu replacen, war der pool in ordnung, alles wieder gut und ich konnte die ehemalige c0t0d0 als spare hinzufügen. so.
seltsam an der geschichte ist nun das sich die bezeichnungen der platten zwischenzeitlich getauscht haben, obwohl ich am gleichen port geblieben bin. erst als ich alle platten wieder angeschlossen hatte sah es aus wie man es sich wünscht.

Code:
[size=1]pool: esxi
 state: ONLINE
 scan: resilvered 21.0M in 0h0m with 0 errors on Fri Feb 25 23:06:14 2011
config:

	NAME        STATE     READ WRITE CKSUM
	esxi        ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    c1t1d0  ONLINE       0     0     0
	    c2t0d0  ONLINE       0     0     0
	  mirror-1  ONLINE       0     0     0
	    c2t1d0  ONLINE       0     0     0
	    c0t1d0  ONLINE       0     0     0
	spares
	  c0t0d0    AVAIL   

errors: No known data errors[/size]

etwas schneller isses nun auch, oder seh ich das falsch?
[IMG=http://img820.imageshack.us/img820/483/r10resilverdvsraid10vsr.th.jpg][/IMG]

ciao und danke an alle,
david
 
Zuletzt bearbeitet:
hallo zusammen,

der stress geht doch noch weiter, das openindiana schein mit unseren intel ct desktop karten nicht klarzukommen und der pool ist schon wieder degraded, diesmal an einer anderen stelle, wahrscheinlich durch das viele rauf und runterfahren, weil die verdammten einstellungen der netzwerkkarte nicht immer durch restart service übernommen werden.

gibt es eine möglichkeit den ganzen pool offline zu schalten um weiteren schaden zu vermeiden?
"zpool offline P00lName" geht leider nicht, da es wohl nur für einzelen devices ist.

vielen dank,
david
 
zpool export <POOLNAME>

das ist schon etwas heftig, oder? ich hab das mit meinem degradeden pool in der vm gemacht und als ich ihn wieder importiert hatte war er angeblich wieder tiptop in schuss, also keine spares mehr benötigt usw...

aber nun zu einem weiteren problemchen. unser nas ist ja nicht das schnellste ;) aber wie kann ich nun herausfinden wo die engpässe genau sind. die beiden esxi maschinen sind manchmal superschnell, dann aber haben sie hänger.. als ob sie aus einem cache lesen oder schreiben, der mit einem mal leer ist..

Code:
[size=1]root@nas2:~# zpool status -v
  pool: esxi
 state: ONLINE
 scan: resilvered 280G in 12h41m with 0 errors on Sun Feb 27 05:42:55 2011
config:

        NAME        STATE     READ WRITE CKSUM
        esxi        ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            c1t1d0  ONLINE       0     0     0
            c2t0d0  ONLINE       0     0     0
          mirror-1  ONLINE       0     0     0
            c2t1d0  ONLINE       0     0     0
            c0t1d0  ONLINE       0     0     0
        spares
          c0t0d0    AVAIL

errors: No known data errors

  pool: rpool
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          c1t0d0s0  ONLINE       0     0     0

root@nas2:~# iostat -xceMn 2 2
     cpu
 us sy wt id
  9  8  0 83
                            extended device statistics       ---- errors ---
    r/s    w/s   Mr/s   Mw/s wait actv wsvc_t asvc_t  %w  %b s/w h/w trn tot device
    0,3    1,7    0,0    0,0  0,0  0,0    2,4    1,1   0   0   0   0   0   0 c1t0d0 (system)
   14,8   87,8    1,8    5,1  0,8  0,2    8,0    1,6  21  16   0   0   0   0 c1t1d0
   14,5  115,8    1,7    7,5  1,2  0,2    9,4    1,5  29  19   0   0   0   0 c2t1d0
   38,7   66,6    4,7    2,5  1,1  0,2   10,1    2,2  25  24   0   0   0   0 c2t0d0
    0,0    0,0    0,0    0,0  0,0  0,0    0,0    0,0   0   0   0   0   0   0 c0t0d0 (spare)
   14,4  116,2    1,7    7,5  0,8  0,2    6,4    1,3  19  17   0   0   0   0 c0t1d0
    0,0    0,0    0,0    0,0  0,0  0,0    0,0    0,0   0   0   0   5   0   5 c3t1d0 (dvd)
     cpu
 us sy wt id
  5  8  0 87
                            extended device statistics       ---- errors ---
    r/s    w/s   Mr/s   Mw/s wait actv wsvc_t asvc_t  %w  %b s/w h/w trn tot device
    0,0    0,0    0,0    0,0  0,0  0,0    0,0    0,0   0   0   0   0   0   0 c1t0d0 (system)
   21,5   33,0    2,7    1,5  0,3  0,3    4,7    5,2  18  28   0   0   0   0 c1t1d0
   28,5   42,0    3,4    3,0  1,5  0,4   21,5    6,1  42  43   0   0   0   0 c2t1d0
   24,0   33,0    2,9    1,5  0,5  0,3    8,3    5,1  28  29   0   0   0   0 c2t0d0
    0,0    0,0    0,0    0,0  0,0  0,0    0,0    0,0   0   0   0   0   0   0 c0t0d0 (spare)
   25,0   41,5    3,1    3,0  1,2  0,3   18,1    3,9  23  26   0   0   0   0 c0t1d0 
    0,0    0,0    0,0    0,0  0,0  0,0    0,0    0,0   0   0   0   5   0   5 c3t1d0 (dvd)

root@nas2:~# zpool iostat
               capacity     operations    bandwidth
pool        alloc   free   read  write   read  write
----------  -----  -----  -----  -----  -----  -----
esxi         716G   212G     90    247  9,64M  10,0M
rpool       14,1G   135G      0      1  18,8K  18,6K
----------  -----  -----  -----  -----  -----  -----
root@nas2:~# vmstat 3
 kthr      memory            page            disk          faults      cpu
 r b w   swap  free  re  mf pi po fr de sr s0 s1 s3 s4   in   sy   cs us sy id
 0 0 0 1944664 343660 5  27  0  0  0  0  5  2 103 130 105 3841 1153 6444 9 8 83
 0 0 0 1984040 364512 7  21  0  0  0  0  0  0 143 166 121 3215 773 4242 8 7 85
 0 0 0 1980900 361592 132 1061 0 0 0  0  0 33 67 88 64 1919 3810 2548  8  5 87
 0 0 0 1980232 360652 169 1006 0 0 0  0  0  8 102 74 96 2193 3926 3005 7  6 87
 1 0 0 1983392 363576 0   0  0  0  0  0  0 54 110 139 102 2920 634 4186 6 6 88
 0 0 0 1981016 361200 0   0  0  0  0  0  0  0 55 78 54 2723  716 4234  6  5 89
 0 0 0 1955076 335260 0   0  0  0  0  0  0  0 115 132 121 2930 679 3992 6 6 88
 1 0 0 1937148 317332 0   0  0  0  0  0  0  0 109 148 110 6940 729 4784 6 8 86
 0 0 0 1988204 368388 0   0  0  0  0  0  0  0 104 142 94 3239 625 4823 6  6 88
 0 0 0 1987776 367960 0   0  0  0  0  0  0  0 81 112 83 2536 687 3473  6  6 88
 0 0 0 1987468 367656 0   0  0  0  0  0  0  0 87 160 95 3319 755 4797  6  6 88
 0 0 0 1986676 366932 0   0  0  0  0  0  0  0 108 104 113 1974 833 2682 6 5 89
 0 0 0 1986304 366816 0   0  0  0  0  0  0  0 98 130 94 3269 659 4708  6  6 88
 0 0 0 1985352 365912 0   0  0  0  0  0  0  0 115 150 128 3687 771 6017 6 7 87
 0 0 0 1984820 365388 0   0  0  0  0  0  0  0 147 155 141 3286 757 4283 6 6 88
 0 0 0 1984376 364944 0   0  0  0  0  0  0  0 48 63 42 2349  770 3406  6  5 89
 0 0 0 1983284 363852 0   0  0  0  0  0  0  0 103 105 102 2478 635 3160 6 5 89
 0 0 0 1983216 363784 0   0  0  0  0  0  0  0 87 106 89 3068 743 4740  6  6 88
 0 0 0 1983072 363644 0   0  0  0  0  0  0  0 68 80 60 2022  775 2975  6  4 91

root@nas2:~# netstat -rni
Name  Mtu  Net/Dest      Address        Ipkts  Ierrs Opkts  Oerrs Collis Queue
lo0   8232 127.0.0.0     127.0.0.1      35051  0     35051  0     0      0
e1000g1 1500 192.168.1.0   192.168.1.12   98243595 812   55517456 0     0      0
e1000g2 1500 192.168.1.0   192.168.1.13   491499849 0     487049805 0     0      0
nge0  1500 192.168.11.0  192.168.11.16  61292816 0     86232438 0     0      0

Name  Mtu  Net/Dest                    Address                     Ipkts  Ierrs Opkts  Oerrs Collis
lo0   8252 ::1                         ::1                         35051  0     35051  0     0

Routing Table: IPv4
  Destination           Gateway           Flags  Ref     Use     Interface
-------------------- -------------------- ----- ----- ---------- ---------
default              192.168.11.11        UG        2       3133
127.0.0.1            127.0.0.1            UH        3       5164 lo0
192.168.1.0          192.168.1.13         U         5  486845412 e1000g2
192.168.1.0          192.168.1.12         U         2          0 e1000g1
192.168.11.0         192.168.11.16        U        13   86224998 nge0

Routing Table: IPv6
  Destination/Mask            Gateway                   Flags Ref   Use    If
--------------------------- --------------------------- ----- --- ------- -----
::1                         ::1                         UH      2      32 lo0


[/size]

ciao und danke schon einmal,
david
 
AMD board? Supermicro H8SCM-F.
Der 65W TDP 6 Kerner kommt gut!
habe da nen 4170er HE opteron drauf, da sollen
aber auf die bulldozer opterons drauf passen.
Wenn sie verfügbar sind werde ich wechseln.

bei weniger budget:
Asus/Biostar 890fx Board
die haben auch ecc unterstützung.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh