Linux KVM: различия между версиями
Sirmax (обсуждение | вклад) |
Sirmax (обсуждение | вклад) |
||
Строка 391: | Строка 391: | ||
echo "info usb" | nc -w1 192.168.15.198 4445 |
echo "info usb" | nc -w1 192.168.15.198 4445 |
||
echo "usb_del 0.3 " | nc -w1 192.168.15.198 4445 |
echo "usb_del 0.3 " | nc -w1 192.168.15.198 4445 |
||
+ | </PRE> |
||
+ | По большому счету работа с udev достаточно однообразна, подробности в отдельной статье: http://wiki.sirmax.noname.com.ua/index.php/Udev <BR> |
||
+ | Тут приведу только правило и скрипт: |
||
+ | <PRE> |
||
+ | BUS=="usb", SUBSYSTEM=="block", KERNEL=="sd[a-z]", ACTION=="add", NAME="%k", GROUP="disk", ATTRS{serial}=="576B63C4", RUN+="/etc/udev/udev-VM.sh %k %s{idVendor} %s{idProduct}" |
||
+ | BUS=="usb", SUBSYSTEM=="block", KERNEL=="sd*", ACTION=="add", NAME="%k", GROUP="disk", RUN+="/etc/udev/udev-flash-mount.sh add %k" |
||
+ | BUS=="usb", SUBSYSTEM=="block", KERNEL=="sd*", ACTION=="remove", RUN+="/etc/udev/udev-flash-mount.sh remove %k" |
||
+ | </PRE> |
||
+ | Второе и третье правила - монтируют "известные" устройства в соответствующие точки монтирования. sd[a-z] - что бы избежать вызова скрипта для sdf1. |
||
+ | <PRE> |
||
+ | #!/bin/bash |
||
+ | |||
+ | LOGGER="/usr/bin/logger -t [udev-VM.sh]" |
||
+ | |||
+ | sleep 3 |
||
+ | |||
+ | echo "Parameters are: "${1}" "${2} | $LOGGER |
||
+ | env | $LOGGER |
||
+ | echo "usb_add host:"${2}":"${3} | $LOGGER |
||
+ | echo "\"usb_add host:${2}:${3}\"" | /usr/bin/nc -w 1 192.168.15.198 445 | $LOGGER |
||
+ | echo $? | $LOGGER |
||
+ | exit |
||
</PRE> |
</PRE> |
||
Версия 13:05, 2 июля 2011
KVM
KVM - система виртуализации котороая включена в состав ядра linux начиная с 2.6.20. Вероятно, наиболее прогрессивная система, т.к. RedHat переключилась на нее с XEN. Задача - запускать внутри виртуальных машин ОС отличную от хостовой (в моем случае - win32, FreeBSD, linux но другие версии ядра отличные от хостовых).
Сейчас использую VMWare, решил отказаться из-за следующих недостатков
- Неудобство управления (нужно держать под рукой vmware-console)
- Большие накладные расходы.
- VMWare не позволяет эмулировать более 2 процессоров (проверить!)
- Иногда - проблемы при обновлении ядра.
- Нет механизмов ограничения процессорного времени. (или я о них не знаю)
Hardware
KVM требует наличия x86-совместимого процессора с поддержкой одной из технологий аппаратной виртуализации — Intel VT либо AMD SVM. На данный момент KVM в состоянии запускать в качестве гостевых ОС GNU/Linux (32-битные и 64-битные), Windows (32-битные и 64-битные) и другие системы.
Для полноценной работы немодифицированных гостевых ОС потребуется процессор с поддержкой аппаратной виртуализации: Проверить наличие поддержки можно по наличию соответвующих флагов - комманда ниже должна дать непустой результат
В моем случае это
#cat /proc/cpuinfo processor : 0 vendor_id : AuthenticAMD cpu family : 15 model : 107 model name : AMD Athlon(tm) 64 X2 Dual Core Processor 4400+ stepping : 1 cpu MHz : 2310.439 cache size : 512 KB physical id : 0 siblings : 2 core id : 0 cpu cores : 2 apicid : 0 initial apicid : 0 fpu : yes fpu_exception : yes cpuid level : 1 wp : yes flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt rdtscp lm 3dnowext 3dnow rep_good pni cx16 lahf_lm cmp_legacy svm extapic cr8_legacy 3dnowprefetch bogomips : 4620.87 TLB size : 1024 4K pages clflush size : 64 cache_alignment : 64 address sizes : 40 bits physical, 48 bits virtual power management: ts fid vid ttp tm stc 100mhzsteps processor : 1 vendor_id : AuthenticAMD cpu family : 15 model : 107 model name : AMD Athlon(tm) 64 X2 Dual Core Processor 4400+ stepping : 1 cpu MHz : 2310.439 cache size : 512 KB physical id : 0 siblings : 2 core id : 1 cpu cores : 2 apicid : 1 initial apicid : 1 fpu : yes fpu_exception : yes cpuid level : 1 wp : yes flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt rdtscp lm 3dnowext 3dnow rep_good pni cx16 lahf_lm cmp_legacy svm extapic cr8_legacy 3dnowprefetch bogomips : 4621.05 TLB size : 1024 4K pages clflush size : 64 cache_alignment : 64 address sizes : 40 bits physical, 48 bits virtual power management: ts fid vid ttp tm stc 100mhzsteps
Конфигурация ядра
Что бы включить поддержку KVM, следует включить следующие опции ядра (я использовал модули):
Linux Kernel Configuration: Поддержка KVM |
Device Drivers ---> [*] Virtualization ---> --- Virtualization <M> Kernel-based Virtual Machine (KVM) support <M> KVM for Intel processors support <M> KVM for AMD processors support |
Необходимое ПО
Для работы с kvm нужны следующие пакеты:
- app-emulation/kvm
- sys-apps/usbutils (только если нужна поддержка USB. Мне - не нужен)
- net-misc/bridge-utils (только если планируется bridged-net)
- sys-apps/usermode-utilities (нужен для управлениея tap-устройствами)
Еще я использовал:
- app-misc/screen
Запуск первой виртуальной машины
Добавляю в /etc/modules.autoload.d/kernel-2.6:
kvm-amd tun
и загружаю модули (tun нужен для работы сети, на этапе запуска виртуальной машины и установки гостевой WinXP - не нужен)
Далее, создаю диск с именем test1 размером 10G
Что бы посмотретьинформацию о диске можно воспользоваться следующей коммандой
image: ./test1.img file format: qcow2 virtual size: 10G (10737418240 bytes) disk size: 1.4G cluster_size: 4096
Далее пробую установить WinXP с образа установочного диска:
Т.к. все эксперементы я провожу на удаленном сервере, где нет ничего связанного с Х, то получаю следующее сообщение
Could not initialize SDL - exiting
Очевидно, что kvm попробовал вывести на экран какую-то графику и у него это не получилось. Отмечу, что я не сразу нашел решение, наиболее простое и правильное - перенаправить вывод графики на vnc. Соответвенно, комманда приобретает вид
Теперь можно подключиться к серверу на порт 5910 по vnc и пронаблюдать загрузку виртуальной машины.
Далее, наблюдаю за установкой и жму "далее" через vnc.
Если ОС не использует графику совсем - то запускать с параметром -curses вместо -vnc. В этом случае вывод будет праямо на текущюю консоль, что в большенстве случаев достаточно удобно.
Натройка сети на хост-системе и виртуальных машинах
Вцелом схема сети выглядит так: (вторая гостевая система пока только в процессе подготовки)
HOST KVM Гостевая система 1 (WinXP) +-----------------------+ +-----------------+ | 95.69.хх.xx | | | INET---+---- eth0 | | | | | | | KVM Гостевая система 2 (FreeBSD 7.2) | +------+ +--+---+---- nic0 | +--------------+ | |kvm_tap0---------+ | |172.16.254.6 | | | | | 172.16.254.5 | | | | | | |kvm_tap0---------+ | +-----------------+ | | | | 172.16.254.9 | | | | | +------+ | | | | | +--+-------------------------+---- nic0 | | | |172.16.254.10 | +-----------------------+ +--------------+
Конфигурация ядра для поддержки сети
Понадобиться поддержка в ядре TUN/TAP устройств и возможно VLAN (не уверен что это необходимо). Я в своей конфигурации предпочел использовать routed а не bridged соеднение, и поддержка birdge обязательной не является. Поддержка VLAN мне необходима в любом случае, выключить ее я не могу.
Linux Kernel Configuration: Поддержка bridging, TUN и VLAN |
Device Drivers ---> [*] Network device support ---> <M> Universal TUN/TAP device driver support Networking support ---> Networking options ---> <M> 802.1d Ethernet Bridging <*> 802.1Q VLAN Support |
Настройка сети в хост-системе
- Загружаем соответвующий модуль)
[433164.306111] tun: Universal TUN/TAP device driver, 1.6 [433164.306114] tun: (C) 1999-2004 Max Krasnyansky <maxk@qualcomm.com>
- Добавляем соответвующие интерфейсы и именуем их как нравится.
[ Searching for packages matching sys-apps/usermode-utilities... ] [ Colour Code : set unset ] [ Legend : Left column (U) - USE flags from make.conf ] [ : Right column (I) - USE flags packages was installed with ] [ No USE flags found for sys-apps/usermode-utilities-20040406-r1]
В результате имеем 2 интерфейса в системе.
#ifconfig -a kvm_tap0 Link encap:Ethernet HWaddr 1e:56:79:e2:41:eb BROADCAST MULTICAST MTU:1500 Metric:1 RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:500 RX bytes:0 (0.0 B) TX bytes:0 (0.0 B) kvm_tap1 Link encap:Ethernet HWaddr 1e:56:79:e2:41:eb BROADCAST MULTICAST MTU:1500 Metric:1 RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:500 RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)
Настраиваем адреса на них:
Теперь нужно перезапустить виртуальную машину для того что бы включить в ней поддержку сети.
При запуске можно указать какая именно сетевая карта будет сэмулирована для гостевой ОС (по умолчанию - реалтек) и куда его подключить (в моем случае к kvm_tap0). Обязательно указать что никаких скриптов при старте выполнять не нужно (script=no,downscript=no)
Вторая виртуальная машина (FreeBSD 7.2)
Наcтроил dhcpd что бы не прописывать адрес руками
option domain-name "noname.com.ua"; option domain-name-servers 193.33.48.33, 193.33.49.160; default-lease-time 36000; max-lease-time 72000; ddns-update-style none; log-facility local7; subnet 172.16.254.8 netmask 255.255.255.252 { range 172.16.254.10 172.16.254.10; option routers 172.16.254.9; option domain-name "virtual.noname.com.ua"; option broadcast-address 172.16.254.9; default-lease-time 60000; max-lease-time 720000; } Запускаю на установку:
Windows 7 (тест)
Ну, есть и хорошая новость - она работает )
ToDo
- Ограничение процессорного времени
- Приоритезация (возможно ли?)
- Разделение памяти
Видеокарты
я использую
т.к.эта видеокарта позволяет наиюолее гибко менять разрешение под WinXP (что мне, собственно, и нужно)
Управление виртуальными машинами
Предварительная настройка (-monitor)
Для управления виртуальными машинами используется консоль. По-умолчанию она доступна из графики (в примере выше - из сессии VNC) с помощью ctr-alt-2 (ctr-alt-1 - возврат в графику )
Но гораздо удобнее использовать сеть для подключении к консоли. Это позволит в будущем использовать скрипты и т.п. "вкусности".
Приведу цитату, думаю этого более чем достаточно для понимания для использования сети:
There are two basic options for redirecting your monitor to tcp sockets, namely raw socket and using the telnet protocol. I’ll go ahead and show the syntax for both options then discuss the options you have. For redirecting your monitor to raw tcp socket you use the following syntax:
-monitor tcp:192.168.1.1:4444,server,nowait
For redirecting to a socket supporting telnet protocol you use the following syntax
-monitor telnet:192.168.1.1:4444,server,nowait
The options are
- tcp – raw tcp sockets
*telnet – the telnet protocol is used instead of raw tcp sockets. This is the preferred option over tcp as you can break out of the monitor using Ctrl-] then typing quit. You can’t break out of the monitor like this after connecting with the raw socket option
- 192.168.1.1 – Listen on this port only. You can use 127.0.0.1 if you want to only allow connections locally. If you want to listen on any ip address on the server, just leave this blank so you end up with two consecutive colons ie “::” .
- 4444 – port number to listen on.
- server – listening in server mode
- nowait – qemu will wait for a client socket application to connect to the port before continuing unless this option is used. In most cases you’ll want to use the nowait option.
Второй вариант - использовать сокеты, как в примере ниже:
-monitor unix:/tmp/socket,server,nowait
Для работы использовать сто-то вроде:
echo 'info' | nc -v -U /tmp/socket
Сейчас я тестирую такую конфигурацию:
Добавление устройств на-лету
Нужно пробросить в ВМ флешку:
usb_add device -- add USB device (e.g. 'host:bus.addr' or 'host:vendor_id:product_id') usb_del device -- remove USB device 'bus.addr'
Например - добавление флешки:
(qemu) usb_add host:058f:6387 usb_add host:058f:6387 husb: using sys file-system with /dev/bus/usb
В консоли где запущена виртуальная машина вижу:
usb_create: no bus specified, using "usb.0" for "usb-host" husb: open device 2.8 husb: config #1 need -1 husb: 1 interfaces claimed for configuration 1 husb: grabbed usb device 2.8 husb: config #1 need 1 husb: 1 interfaces claimed for configuration 1 husb: config #1 need 1
Посмотреть устройства можно или
или из консоли виртуальной машины:
info usb info usb Device 0.1, Speed 12 Mb/s, Product QEMU USB Tablet Device 0.3, Speed 12 Mb/s, Product QEMU USB Hub Device 0.4, Speed 480 Mb/s, Product Mass Storage
(qemu)info usbhost info usbhost Device 1.1, speed 12 Mb/s Hub: USB device 1d6b:0001, OHCI Host Controller Device 2.1, speed 480 Mb/s Hub: USB device 1d6b:0002, EHCI Host Controller Device 2.2, speed 480 Mb/s Hub: USB device 05e3:0605, USB2.0 Hub Device 1.2, speed 12 Mb/s Class e0: USB device 0a12:0001 Device 2.4, speed 12 Mb/s Class 00: USB device 0403:6001, usb serial converter Device 2.5, speed 480 Mb/s Class 00: USB device 05e3:0710, USB2.0 card Reader Device 2.8, speed 480 Mb/s Class 00: USB device 058f:6387, Mass Storage Auto filters: Device *.* ID 058f:6387 (qemu)
При этом я получил доступ к флешке из виртуальной машины.
Аналогично, если я хочу отключить устройство:
(qemu) usb_del 0.4 usb_del 0.4 (qemu)
Идентификатор 0.4 - я взял из листинга выше
Device 0.4, Speed 480 Mb/s, Product Mass Storage
udev и автоматизация процесса
Естественно, все это можно обернуть в скрипт и, например, всегда автоматически пробрасывать устройство в ВМ.
. Обратить внимание на ключ -w1 - нужно что бы закрывать соединение после команды. У меня -w не работало в пакете nc6 , только в оригинальном nc.
echo "usb_add host:058f:6387" | nc -w1 192.168.15.198 4445 echo "info usb" | nc -w1 192.168.15.198 4445 echo "usb_del 0.3 " | nc -w1 192.168.15.198 4445
По большому счету работа с udev достаточно однообразна, подробности в отдельной статье: http://wiki.sirmax.noname.com.ua/index.php/Udev
Тут приведу только правило и скрипт:
BUS=="usb", SUBSYSTEM=="block", KERNEL=="sd[a-z]", ACTION=="add", NAME="%k", GROUP="disk", ATTRS{serial}=="576B63C4", RUN+="/etc/udev/udev-VM.sh %k %s{idVendor} %s{idProduct}" BUS=="usb", SUBSYSTEM=="block", KERNEL=="sd*", ACTION=="add", NAME="%k", GROUP="disk", RUN+="/etc/udev/udev-flash-mount.sh add %k" BUS=="usb", SUBSYSTEM=="block", KERNEL=="sd*", ACTION=="remove", RUN+="/etc/udev/udev-flash-mount.sh remove %k"
Второе и третье правила - монтируют "известные" устройства в соответствующие точки монтирования. sd[a-z] - что бы избежать вызова скрипта для sdf1.
#!/bin/bash LOGGER="/usr/bin/logger -t [udev-VM.sh]" sleep 3 echo "Parameters are: "${1}" "${2} | $LOGGER env | $LOGGER echo "usb_add host:"${2}":"${3} | $LOGGER echo "\"usb_add host:${2}:${3}\"" | /usr/bin/nc -w 1 192.168.15.198 445 | $LOGGER echo $? | $LOGGER exit
Ссылки
Есть некоторая доля вероятности, что какую-то из ссылок которой я воспользовался я забыл указать. Потому, если такое вдруг случиться - укажите мне на ошибку. Я исправлю.
- http://www.ibm.com/developerworks/ru/library/l-linux-kvm/
- http://tyom.blogspot.com/
- http://jack.kiev.ua/docs/qemu-doc-ru.html
- http://www.pivpav.ru/2011/05/406.html
- http://www.ossportal.ru/technologies/kvm?page=1
- http://www.opennet.ru/openforum/vsluhforumID3/63200.html
- http://mydebianblog.blogspot.com/2008/09/qemu-usb.html