Offiziellen FH-Aachen Ubuntu Mirror
Montag, September 28th, 2009Die FH-Aachen hat nun endlich einen offiziellen Ubuntu Mirror. Nach langen warten wurde unser Mirror endlich auf launchpad.net veröffentlicht.
Die FH-Aachen hat nun endlich einen offiziellen Ubuntu Mirror. Nach langen warten wurde unser Mirror endlich auf launchpad.net veröffentlicht.
Um eth1 in eth0 umzubenennen braucht man nur aus der folgenden Datei den wert NAME editieren. Alle Überflüssigen Netzwerkkarten können gelöscht werden.
nano /etc/udev/rules.d/70-persistent-net.rules
# PCI device 0x8086:0x10b9 (e1000)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:1b:21:22:e5:f4", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0"
# PCI device 0x8086:0x10b9 (e1000)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:1b:21:22:e5:f3", ATTR{type}=="1", KERNEL=="eth*", NAME="eth1"
Heute habe ich die Vorbereitungen für ein Raid1 über LAN getroffen. Zunächst habe ich für eine schnelle Netzwerk-Performance gesorgt, in dem ich 2x Intel Dualport Netzwerkkarten miteinander gekoslinkt habe. Darüber habe ich einen Trunk mit dem 802.3ad verfahren gelegt.
Folgende Pakete waren dafür nötig:
sudo apt-get install ifenslave-2.6 ethtool pv
Danach Kernelmodule laden:
sudo modprobe bonding
echo "bonding" >> /etc/modules
Dann habe ich /etc/network/interfaces editiert:
auto bond0
iface bond0 inet static
address 10.0.0.1
netmask 255.255.255.0
network 10.0.0.0
broadcast 10.0.0.255
slaves eth1 eth2
Nach einem ifup bond0
auf beiden Servern stand das Netz und ich habe ein Leitungstest gemacht. Dafür habe ich auf einer Maschine Port 5000 geöffnet.
nc -ulp 5000 > /dev/null
auf der anderen habe ich dann Zufallsdaten erzeugt und gesendet.
pv < /dev/zero | nc -u 10.0.0.1 5000
12,4GB 0:01:00 [ 212MB/s] [ <=> ]
Dabei habe ich einen Spitzenwert von 212MB/s gemacht also 12,4 GiB in 60 Sekunden. Das sollte für das Raid 1 ausreichen.
Das geht ambesten mit scponly.
apt-get install scponly
adduser --home /home/user --shell /usr/bin/scponly user
Dann noch eine Konfigdatei „~/.config“ im Heimverzeichnishinterlegen
--disable-restrictive-names
--disable-wildcards
--disable-gftp-compat
--enable-winscp-compat
--enable-sftp-logging-compat
--enable-unison-compat
--enable-scp-compat
--enable-rsync-compat
--enable-chrooted-binary
--disable-chroot-checkdir
--default-chdir=/home/user
Und man kann nur noch per SCP zugreifen und den Pfad nicht mehr hinauf wandern.
Das anlegen eines Raid5 schlug bei mir fehl.
Komisch erschien mir das schon beim anlegen der Partition. Das lieferte mir folgende Waring:
WARNING: Re-reading the partition table failed with error 16: Device or resource busy.
The kernel still uses the old table.
The new table will be used at the next reboot.
Syncing disks.
Das anlegen schlug dadurch fehl:
#mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 64K
mdadm: Cannot open /dev/sdc1: Device or resource busy
mdadm: Cannot open /dev/sdd1: Device or resource busy
mdadm: create aborted
Mir einem blick in mdstat war klar das da was schief läuft.
#cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md5 : inactive sdc1[1](S) sdd1[2](S)
488391808 blocks
unused devices:
Abhilfe hat da das stoppen des eigentlich nicht vorhandenem Raid gebracht:
#mdadm --manage --stop /dev/md5
mdadm: stopped /dev/md5
Dann konnte ich ohne problem das Raid anlegen:
#mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 64K
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Fri Jul 10 18:08:56 2009
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Fri Jul 10 18:08:56 2009
mdadm: size set to 244195904K
Continue creating array?
Continue creating array? (y/n) y
mdadm: array /dev/md0 started.
# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdd1[3] sdc1[1] sdb1[0]
488391808 blocks level 5, 64k chunk, algorithm 2 [3/2] [UU_]
[>....................] recovery = 1.6% (4089472/244195904) finish=114.4min speed=34948K/sec
unused devices: