Kategori Ubuntu

Offiziellen FH-Aachen Ubuntu Mirror

Montag, September 28th, 2009

Die FH-Aachen hat nun endlich einen offiziellen Ubuntu Mirror. Nach langen warten wurde unser Mirror endlich auf launchpad.net veröffentlicht.

Mirrors of Ubuntu

Hier geht’s zum Mirror: FTP HTTP

eth1 in eth0 umbenennen

Dienstag, September 22nd, 2009

Um eth1 in eth0 umzubenennen braucht man nur aus der folgenden Datei den wert NAME editieren. Alle Überflüssigen Netzwerkkarten können gelöscht werden.

nano /etc/udev/rules.d/70-persistent-net.rules

# PCI device 0x8086:0x10b9 (e1000)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:1b:21:22:e5:f4", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0"

# PCI device 0x8086:0x10b9 (e1000)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:1b:21:22:e5:f3", ATTR{type}=="1", KERNEL=="eth*", NAME="eth1"

802.3ad

Donnerstag, September 3rd, 2009

Heute habe ich die Vorbereitungen für ein Raid1 über LAN getroffen. Zunächst habe ich für eine schnelle Netzwerk-Performance gesorgt, in dem ich 2x Intel Dualport Netzwerkkarten miteinander gekoslinkt habe. Darüber habe ich einen Trunk mit dem 802.3ad verfahren gelegt.

Folgende Pakete waren dafür nötig:

sudo apt-get install ifenslave-2.6 ethtool pv

Danach Kernelmodule laden:

sudo modprobe bonding
echo "bonding" >> /etc/modules

Dann habe ich /etc/network/interfaces editiert:

auto bond0
iface bond0 inet static
address 10.0.0.1
netmask 255.255.255.0
network 10.0.0.0
broadcast 10.0.0.255
slaves eth1 eth2

Nach einem ifup bond0 auf beiden Servern stand das Netz und ich habe ein Leitungstest gemacht. Dafür habe ich auf einer Maschine Port 5000 geöffnet.

nc -ulp 5000 > /dev/null

auf der anderen habe ich dann Zufallsdaten erzeugt und gesendet.

pv < /dev/zero | nc -u 10.0.0.1 5000 12,4GB 0:01:00 [ 212MB/s] [ <=> ]

Dabei habe ich einen Spitzenwert von 212MB/s gemacht also 12,4 GiB in 60 Sekunden. Das sollte für das Raid 1 ausreichen.

WinSCP user auf heimverzeichnis beschänken

Donnerstag, Juli 23rd, 2009

Das geht ambesten mit scponly.
apt-get install scponly
adduser --home /home/user --shell /usr/bin/scponly user

Dann noch eine Konfigdatei „~/.config“ im Heimverzeichnishinterlegen
--disable-restrictive-names
--disable-wildcards
--disable-gftp-compat
--enable-winscp-compat
--enable-sftp-logging-compat
--enable-unison-compat
--enable-scp-compat
--enable-rsync-compat
--enable-chrooted-binary
--disable-chroot-checkdir
--default-chdir=/home/user

Und man kann nur noch per SCP zugreifen und den Pfad nicht mehr hinauf wandern.

mdadm: Cannot open /dev/sdc1: Device or resource busy

Dienstag, Juli 14th, 2009

Das anlegen eines Raid5 schlug bei mir fehl.

Komisch erschien mir das schon beim anlegen der Partition. Das lieferte mir folgende Waring:
WARNING: Re-reading the partition table failed with error 16: Device or resource busy.
The kernel still uses the old table.
The new table will be used at the next reboot.
Syncing disks.

Das anlegen schlug dadurch fehl:
#mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 64K
mdadm: Cannot open /dev/sdc1: Device or resource busy
mdadm: Cannot open /dev/sdd1: Device or resource busy
mdadm: create aborted

Mir einem blick in mdstat war klar das da was schief läuft.
#cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md5 : inactive sdc1[1](S) sdd1[2](S)
488391808 blocks

unused devices:

Abhilfe hat da das stoppen des eigentlich nicht vorhandenem Raid gebracht:
#mdadm --manage --stop /dev/md5
mdadm: stopped /dev/md5

Dann konnte ich ohne problem das Raid anlegen:
#mdadm --create --verbose /dev/md0 --level=5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 64K
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Fri Jul 10 18:08:56 2009
mdadm: /dev/sdd1 appears to be part of a raid array:
level=raid5 devices=3 ctime=Fri Jul 10 18:08:56 2009
mdadm: size set to 244195904K
Continue creating array?
Continue creating array? (y/n) y
mdadm: array /dev/md0 started.

# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdd1[3] sdc1[1] sdb1[0]
488391808 blocks level 5, 64k chunk, algorithm 2 [3/2] [UU_]
[>....................] recovery = 1.6% (4089472/244195904) finish=114.4min speed=34948K/sec

unused devices: