30.10.2008 18:51
Na straně budoucího síťového datového úložiště
stáhnout
http://www.openfiler.com/
Je to hezká appliance, umí kromě iSCSI i další věci kolem síťových
storage, nechá se rozchodit jako cluster – většinu z toho přes webové
rozhraní.
Ale v případě problémů se bude hodit dobrá znalost mdadm, ietadm a věcí
kolem LVM (můj případ: neodzálohovaná konfigurace, divný diskový raid
řadič který – kvůli HW problémům s více disky najednou –
nenastartoval svůj bios a nezpřístupnil ani zbylé disky. Výsledkem bylo že
jsem přišel o nadefinované volumy a targety a byla spousta práce to obnovit
a na straně initiatorů přemapovat)
Takže doporučuji odzálohovat konfiguraci po každé
úpravě. Je to jeden klik ve webovém rozhraní.
nainstalovat, naklikat dle potřeb, vytvořit target
Osobně používám dva malé rychlé disky, nad nimi sw raid1, na tom
nainstalovaný OpenFiler.
Všechny další disky jsou použity jako datové, nad nimi SW Raid 1 až 6,
nad tím LVM (jedna PG, jedna VG, volumy vytvářím/měním velikost až dle
potřeby a mapuji je na iSCSI target(y) dle potřeby)
Na straně počítače který má síťové disky využívat je potřeba
nainstalovat initiatory, třeba linuxový open-iscsi nebo MS iSCSI Initiator
Např:
apt-get install open-iscsi
#nainstalovali jsme si ovladač a utilitky
iscsiadm -m discovery -t sendtargets -p 192.168.5.5
#podíváme se jaké "řadiče s připojenými disky" máme na IP adrese openfileru (nebo jiného targetu) k dispozici
iscsiadm -m node -p 192.168.5.5 -T iqn.2008-12.cz.xtatuv:san1.tsn.7ae92d2ab2c8 -l
#připojili jsme si jeden "řadič s připojenými disky" (target)
fdisk -l
#podívali jsme se že máme disky k dispozici, stejně jako by byly fyzicky nainstalované v počítači
echo "- - -" > /sys/class/scsi_host/host0/scan
echo "- - -" > /sys/class/scsi_host/host1/scan
echo "- - -" > /sys/class/scsi_host/host2/scan
#Pokud na straně již namapovaného iSCSI targetu přidám další LUN (volume) a neobjeví se mi automaticky v fdisk -l tak si vynutím přeskenování SCSI sběrnice abych viděl i nově přidané disky.
A disky používáme, vytváříme filesystémy atd.
Jenom upozorňuji že není vhodné s ext3 filesystémem jeden disk namountovat
pro zápis na více počítačích současně :-D
Je to opravdu jako by jeden fyzický disk umožňoval více kabely být
připojený do více počítačů.
Pokud chcete i takovou funkcionalitu tak doporučuji začít třeba zde:
http://en.wikipedia.org/…_File_System
— Martin Kiklhorn
Linux, Sítě
30.10.2008 17:23
nainstaluji z repo open-iscsi,
podívám se jaké iSCSI targety mám k dispozici na SAN
iscsiadm -m discovery -t sendtargets -p 192.168.15.101
Jeden si připojím
iscsiadm -m node -p 192.168.15.101 -T
iqn.2008-12.cz.suuv:san1.tsn.7aed2ab2c8 -l
podívám se jak jej vidí počítač
fdisk -l
pokud si přidám další LUN do tohoto targetu a chci aby se mi obnovil
seznam disků tak
echo "- - -" > /sys/class/scsi_host/hostX/scan
Chci virtualizovat MS Server 2003 R2, získám ISO image obou disků třeba
z MS Volume Licensing Service Center a uložím do /mnt/testdisk
instaluji na stroj bez GUI, chci se připojovat VNC z jiného PC, musím
povolit přístup pro vnc i zvenku (defaultně jen localhost)
nano /etc/xen/xend-config.sxp
kde doplním jeden řádek
(vnc-listen '0.0.0.0')
vytvořím si konfiguraci virtuálního stroje, jako disk C na něm chci mít
/dev/sde a připojené obě CD s obrazy OS.
nano /etc/xen/win2003test
s obsahem
import os, re
arch = os.uname()[4]
if re.search('64', arch):
arch_libdir = 'lib64'
else:
arch_libdir = 'lib'
kernel = "/usr/lib/xen/boot/hvmloader"
builder='hvm'
vcpus = 2
memory = 512
shadow_memory = 8
#device_model = '/usr/lib/xen/bin/qemu-dm'
# Hostname
name = "win2003test"
# Disks
disk = [ 'phy:sde,hda,w','file:/mnt/testdisk/2003R2stdX64CD1.ISO,ioemu:hdc:cdrom,r','file:/mnt/testdisk/2003R2stdX64CD2.ISO,ioemu:h$
# Networking
vif = ['type=ioemu, bridge=xenbr0']
# Behaviour
boot='dc'
vnc=1
#vncviewer=1
sdl=0
acpi = 1
apic = 1
device_model = '/usr/' + arch_libdir + '/xen/bin/qemu-dm'
stdvga = 0
serial = 'pty'
usbdevice = 'tablet'
spustím virtuální stroj
xm create win2003test
a již se k němu připojím odjinud přes VNC na portu přibližně 5900
(viz níže) a instaluji windows. Po instalaci povolím přístup přes RDP, je
přeci jen lepší.
možná se bude hodit i pár následujících příkazů:
xm create -p NazevSouboruSkonfiguraci
#spustil jsem virtualni stroj v pozstavenem stavu, hodi se pro instalaci
#abych se stihl pripojit z jine masiny pres VNC drive nez vyprsi timeout bootu z CD
xm list
#vypis bezicich virtualnich stroju
xm list -l NazevNeboCisloVirtualnihoStroje | grep -b2 location | grep -b2a2 vnc
#zjistim port na kterem mi bezi VNC server konkretniho virt. stroje
#a pripojim se treba pres UltraVNC z jineho PC
xm unpause NazevNeboCisloVirtualnihoStroje
#jsem uz pripojen pres VNC, tak necham pokracovat nabihani virtualniho stroje
To je vše.
— Martin Kiklhorn
XEN,
30.9.2008 12:29
stáhnout stable debian http://cdimage.debian.org/…d64-CD-1.iso
nainstalovat, rozdělit disky – původně jsem zkoušel oba disky celé
jako sw raid 1, nad tím lvm a nad lvm celý filesystem. Klasický Grub je
absolutně nepoužitelný v této konfiguraci, nenajde stage2 ležící až nad
lvm. Se spuštěním Xen jsem nebyl úspěšný ani s Lilo při použití
nástroje pro multiboot a ani s Grub2. K úspěchu možná chyběl jen
kousek.
(konfigurace viz http://www.hej.cz/…ad-sw-raid-1
)
Takže jsem se ve finále rozhodl dělit disky jako malý raid1 (5GB) a na něm
ext3 do kterého je mountovaný / bez dalšího dělení.
Zbytek prostroru na discích použiji jako druhý raid1, nad ním lvm, nad tím
už vlastní filesysytémy jednotlivých domU.
S instalací vycházím z návodu: http://www.howtoforge.com/…etch_xen_3.1
1 apt-get install linux-source-2.6.26 mercurial build-essential gawk
libssl-dev libX11-dev gettext ncurses-dev python-dev tetex-bin gs-common
transfig bcc
2 apt-get update
4 cd /usr/src
5 wget http://bits.xensource.com/…elease/3.3.0
&& tar -zxf xen-3.3.0.tar.gz && cd xen-3.3.0
6 wget http://bits.xensource.com/…3.3.0.tar.gz
&& tar -zxf xen-3.3.0.tar.gz && cd xen-3.3.0
7 wget http://bits.xensource.com/…3.3.0.tar.gz
&& tar -zxf xen-3.3.0.tar.gz && cd xen-3.3.0
8 apt-get remove exim4 exim4-base lpr nfs-common portmap pidentd pcmcia-cs
pppoe pppoeconf ppp pppconfig
9 apt-get install iproute bridge-utils python-twisted binutils zlib1g-dev
python-dev transfig bzip2 screen ssh debootstrap libcurl3-dev libncurses5-dev
x-dev build-essential gettext
10 apt-get install texinfo
11 make world
12 make install
13 apt-get install ssh
14 update-rc.d xend defaults 20 21
15 update-rc.d xendomains defaults 21 20
16 depmod 2.6.18.8-xen
17 update-initramfs -vck 2.6.18.8-xen
18 update-grub
19 reboot
#konečně nabootuji do xenu, s grub2 ani s lilo jsem to nebyl schopný
rozchodit
#kontrola
20 xm list
21 ifconfig
#tím mám nainstalovanou dom0, příště pokračuji s vytvářením
virtuálních strojů domU
//návod editován 30.10.2008, bez instalace bcc se mi nevytvořil
hvmloader
— Martin Kiklhorn
,
19.9.2008 05:49
Až doteď jsem si poznánky dělal v čistém textu, ale sám jsem se již
začal v té spleti ztrácet. Ozývali se mi na mail i lidé kteří shledali
obsah zajímavým, ale s poněkud zmateným tříděním (spíše jeho
naprostou absencí).
Takže jsem měl na výběr, buď si nakódovat něco sám, nebo použít
nějaký hotový redakční systém. Jen velmi málo mých zákazníků chtělo
na své weby něco co je už hotové, takže s RS mám pramalé praktické
zkušenosti.
Pár systémů jsem si prohlédl a vyzkoušel, Textpattern se mi zatím líbí
nejvíc a tak jej zkusím používat. Postupně do něj převedu obsah
původních stránek a samozřejmě přidám další.
Jejich strukturu jinak ponechávám nezměněnou z důvodu platnosti odkazů
vracených Google.
Technické věci jsou umístěny trochu zastrčeně –
přímý odkaz: http://www.hej.cz/poznamky
Snad to jednou převedu do RS, se vzhledem časem něco udělám – mám nyní
jiné priority.
— Martin Kiklhorn
,
19.9.2008 04:42
V počítači dva disky, které bych rád měl odolnější proti poruše
jednoho z nich a zároveň bych rád měl možnost za chodu zvětšovat
partitions a měl také jednoduchou možnost zálohování pomocí
snapshotů.
Rozhoduji se pro SW RAID1 + LVM
V instalátoru ruční rozdělění disků, vytvořím nové bootovací
partition o velikosti celých disků, použití physical volume for Raid,
hotovo.
Teď vidím na obou discích „K Raid“
V menu přibyl příkaz „configure software raid“
Takže „vytvořit MD“, počet zařízení 2, spare 0, vyberu oba disky,
finish.
Teď mám vytvořen jeden Raid svazek, který vyberu, zvolím použít jako:
volume pro LVM, hotovo. Objevil se svazek s příznaky „K LVM“
V menu přibyl příkaz „create volume group“
volba je jediná – vyberu /dev/md0, jméno dávám stejné jako jsem si
zvolil jméno počítače (u mne astra)
Teď vytvořit logické svazky:
vyberu v předchozím kroku vytvořenou volume group, vytvořím logical
volumes, jeden pro každou partition kterou budu chtít používat a pojmenuji
si je aby se mi to nepletlo podle mountpointů které budu chtít vytvářet
(třeba astra_root, astra_boot, astra_home, astra_swp) s velikostí o které
si myslím že bude pro teď dostatečná, kdykoliv v budoucnu bude potřeba si
mohu kterýkoliv logical volume za chodu zvětšit, finish.
(Pojmenování nijak nesouvisí s mountpointy které si tam budu vytvářet,
ale raději jsem si je pojmenoval podle nich – třeba v případě nové
instalace systému je uvidím pojmenované tak jak byly a vím pro co jsem je
předtím zamýšlel)
Teď už se celkem rozrostl seznam partitions, a zbývá už jen vybrat
jednotlivé LV, takže vyberu astra_root, použít jako /, astra_home použít
jako /home atd.
Filesystémy si zvolím dle potřeby s ohledem na možnost změny velikosti.
ext3 se nebude za chodu dát zmenšovat, ale zvětšovat ano.
Dokončit a zapsat změny na disk, pokračovat v instalaci.
po instalaci mám jádro 2.6.24–1-amd64
apt-get update
apt-get install ssh #a jdu si sednout do pohodlnější židle
apt-get dist-upgrade #jádro se aktualizuje na 2.6.26-1-amd64
reboot
a po restartu končím s kernel panic (VFS not syncing)
Oprava nějakou chvilku zabrala – hlavně najít co s tím.
Restart, esc pro vyvolání nabídky zavaděče, vybírám LinuxOLD a
update-initramfs -u -k 2.6.26-1-amd64
nano /etc/lilo.conf
kde jsem doplnil řádky:
#osdtranění Warning: LBA32 addressing assumed
lba32
#povolení >8MB obrazů
large-memory
Uložím a pokračuji v terminálu
lilo
cd /usr/src
mkdir lilo_22.8-6
cd lilo_22.8-6
wget http://debian.cs.binghamton.edu/debian/pool/main/l/lilo/lilo-doc_22.8-6_all.deb
wget http://debian.cs.binghamton.edu/debian/pool/main/l/lilo/lilo_22.8-6.diff.gz
wget http://debian.cs.binghamton.edu/debian/pool/main/l/lilo/lilo_22.8-6.dsc
wget http://debian.cs.binghamton.edu/debian/pool/main/l/lilo/lilo_22.8-6_amd64.deb
dpkg -i *.deb
lilo
reboot
A konečně nabíhá jak má i do nového jádra
(pokud by nezabralo tak menší obraz je možné dostat takto:
1. edit /etc/initramfs-tools/initramfs.conf and change the default
„MODULES=most“ to „MODULES=dep“
2. run „update-initramfs -k 2.6.25–2-amd64 -u -v“
3. reboot
)
odkazy:
- LVM nad Raid
http://www.root.cz/…icke-ukazky/
http://www.debian-administration.org/articles/512
- kernel panic (VFS not syncing)
http://bugs.debian.org/…ugreport.cgi?…
http://bugs.debian.org/…ugreport.cgi?…
— Martin Kiklhorn
Linux,