|
Users' manual 사용자의 '매뉴얼' |
Xen v2.0 for x86 x86을위한 Xen v2.0 |
Xen is Copyright (c) 2002-2004, The Xen Team Xen은 저작권 c 2002-2004,Xen 팀이다. |
University of Cambridge, UK 케임브리지,영국 대학 |
DISCLAIMER: This documentation is currently under active development and as such there may be mistakes and omissions -- watch out for these and please report any you find to the developer's mailing list. Contributions of material, suggestions and corrections are welcome.
기권:이 문서화가 현재 활발한 발전 아래 있고 그 자체로서 그 곳 실수와 생략일 지도 모르고-이것들을 조심하고 좋으시다면 당신이 발견하는 아무 것 개발자의 것 편지 발송 목록에 출두한다.재료와 제안과 수정의 기부는 반갑다.
=10000 =10000 1.1
=10000 =10000 1.1
Xen is a paravirtualising virtual machine monitor (VMM), or `hypervisor', for the x86 processor architecture. Xen can securely execute multiple virtual machines on a single physical system with close-to-native performance. The virtual machine technology facilitates enterprise-grade functionality, including:
Xen은 'x86 프로세서 건축을 위한' VMM이나 hypervisor paravirtualising 실질적인 기계 모니터이다.안전하게 Xen은 close to 네이티브 퍼포먼스를 가지고 단하나의 물리적 시스템 위의 다중 가상의 기계를 수행할 수 있다.실질적인 기계 기술은 포함하면서 기업 등급 기능을 용이하게 한다:
Paravirtualisation permits very high performance virtualisation, even on architectures like x86 that are traditionally very hard to virtualise. The drawback of this approach is that it requires operating systems to be ported to run on Xen. Porting an OS to run on Xen is similar to supporting a new hardware platform, however the process is simplified because the paravirtual machine architecture is very similar to the underlying native hardware. Even though operating system kernels must explicitly support Xen, a key feature is that user space applications and libraries do not require modification.
Paravirtualisation은 매우 높은 퍼포먼스에게 심지어 전통적으로 virtualise에(게)매우 단단한 x86와같은 건축 위의 virtualisation을 허락한다.이 접근의 결점은 그것을 Xen 위의 런에 포팅해 지기 위해 오퍼레이팅 시스템이야 하겠는 것이다.운영체제를 Xen 위의 런에 포팅하는 것은 paravirtual 기계 건축이 매우 밑에 놓인 네이티브 하드웨어와 비슷하기 때문에 프로세스가 간단하게 해 질지라도 새로운 하드웨어 플랫폼을 지지하는 것과 비슷하다.솔직하게 시스템 커넬을 작동하는 것이 Xen을 지지해야 할지라도 주요 특징이 사용자 스페이스 응용 프로그램과 도서관이 변경을 필요로 하지 않는 것이다.
Xen support is available for increasingly many operating systems: right now, Linux 2.4, Linux 2.6 and NetBSD are available for Xen 2.0. A FreeBSD port is undergoing testing and will be incorporated into the release soon. Other OS ports, including Plan 9, are in progress. We hope that that arch-xen patches will be incorporated into the mainstream releases of these operating systems in due course (as has already happened for NetBSD).
Xen 지원은 더욱 더 많은 운영 체제가 가능하다:지금 리눅스 2.4와 리눅스 2.6와 NetBSD은 Xen 2.0이 가능하다.FreeBSD 포트가 테스팅을 경험하고 있고 곧 릴리스를 합체해 질 것이다.계획 9을 포함하면서 다른 운영체제 포트는 진행 중이다.우리는 arch xen이 고치는 그것이 NetBSD을 위해 벌써 발생했을 때 때가 되면 오퍼레이팅 시스템 이것들의 주류 릴리스를 합체해 질 것을 바란다.
Possible usage scenarios for Xen include:
Xen을위한 가능한 사용 시나리오는 포함한다:
A Xen system has multiple layers, the lowest and most privileged of which is Xen itself. Xen in turn may host multiple guest operating systems, each of which is executed within a secure virtual machine (in Xen terminology, a domain). Domains are scheduled by Xen to make effective use of the available physical CPUs. Each guest OS manages its own applications, which includes responsibility for scheduling each application within the time allotted to the VM by Xen.
Xen 시스템이 다중 계층을 가지고 있다.가장 낮고 가장 특권을 가지는 것은 그 자체로 Xen이다.턴의 Xen은 각이 안전한 가상의 기계 안에서(Xen 전문용어,도메인에(서))수행된 오퍼레이팅 시스템 다중 손님을 주최할 수 있다.도메인이 Xen에 의하여 효과적인 CPUs 사용가능한 physical을 이용할 예정이다.각 운영체제 손님은 Xen에 의하여 VM에게 할당해 진 시간 안에서 각 응용의 스케쥴을 작성하기 위한 책임을 포함하는 그것의 자신의 응용 프로그램을 관리한다.
The first domain, domain 0, is created automatically when the system boots and has special management privileges. Domain 0 builds other domains and manages their virtual devices. It also performs administrative tasks such as suspending, resuming and migrating other virtual machines.
시스템이 특별한 관리 특권을 부팅하고 할 때 첫째 도메인,도메인 0이 자동적으로 만들어 진다.도메인 0이 다른 도메인을 세우고 그들의 가상장치 장치를 관리한다.또한 그것은 다른 가상의 기계를 보류하고 다시 시작하고 이주시키 같은 행정상의 일을 한다.
Within domain 0, a process called xend runs to manage the system. Xend is responsible for managing virtual machines and providing access to their consoles. Commands are issued to xend over an HTTP interface, either from a command-line tool or from a web browser.
도메인 0 안에서 프로세스가 xend 런을 시스템을 관리하는 것이라고 불렀다.Xend은 가상의 기계를 조종하고 그들의 콘솔에 대한 액세스를 제공하는 것에 책임이 있다.명령이 HTTP 인터페이스 위로 또는 또한 커맨드라인 도구로부터 또는 웹 브라우저로부터 xend에 지급된다.
Xen currently runs only on the x86 architecture, requiring a `P6' or newer processor (e.g. Pentium Pro, Celeron, Pentium II, Pentium III, Pentium IV, Xeon, AMD Athlon, AMD Duron). Multiprocessor machines are supported, and we also have basic support for HyperThreading (SMT), although this remains a topic for ongoing research. A port specifically for x86/64 is in progress, although Xen already runs on such systems in 32-bit legacy mode. In addition a port to the IA64 architecture is approaching completion. We hope to add other architectures such as PPC and ARM in due course.
현재 Xen은 단지 P6을 필요로 하고 있는 x86 건축이나 '더 새로운 프로세서나(예를 들면 펜티엄 프로나 Celeron이나 Pentium II이나 Pentium III이나 Pentium IV이나 Xeon이나 AMD Athlon이나 AMD Duron)' 위에서 달린다.다중처리기 기계가 지지해 지고 비록 이것이 계속하고 있는 리서치를 위해 토픽으로 남아 있기는 하지만 또한 우리는 HyperThreading(SMT)을 위해 기초적인 지지를 받고 있다.비록 벌써 Xen이 32 비트 유산 방식의 그러한 시스템 위에서 달리기는 하지만 명확하게 x86/64을위한 포트가 진행 중이다.게다가 IA64 건축에 대한 포트가 완성에게 접근하고 있다.우리는 PPC 같은 다른 건축을 더하고 때가 되면 무장하기를 바란다.
Xen can currently use up to 4GB of memory. It is possible for x86 machines to address up to 64GB of physical memory but there are no current plans to support these systems: The x86/64 port is the planned route to supporting larger memory sizes.
현재 Xen은 메모리의 4GB까지을 사용할 수 있다.그것이 64GB까지에게 말할 물리적인은 메모리의 x86 기계를 위해 가능하지만 이 시스템을 지원하기 위한 현재 계획이 없다:x86/64 포트는 더 큰 메모리 사이즈를 지지하는 것에(게)계획된 루트이다.
Xen offloads most of the hardware support issues to the guest OS running in Domain 0. Xen itself contains only the code required to detect and start secondary processors, set up interrupt routing, and perform PCI bus enumeration. Device drivers run within a privileged guest OS rather than within Xen itself. This approach provides compatibility with the majority of device hardware supported by Linux. The default XenLinux build contains support for relatively modern server-class network and disk hardware, but you can add support for other hardware by configuring your XenLinux kernel in the normal way.
Xen offloads 하드웨어 지원 중 대부분은 도메인 0 뛰어들면서 손님에게 운영체제를 내준다.그 자체로 Xen은 2차은 프로세서를 탐지하고 시작하고 샅샅이 뒤지고 있는 인터럽트를 세우고 PCI 버스 열거를 행하여야 한 코드만을 가지고 있다.디바이스 드라이버는 특권을 가진 손님 안에서 Xen 안에서보다는 그 자체로 운영체제를 달린다.이 접근은 대부분의 리눅스가 지원하는 장치 하드웨어를 가지고 호환성을 제공한다.정상적이게 디폴트 XenLinux 체격이 비교적 모던 서버 클래스 네트워크와 디스크 하드웨어를 위해 지원을 가지고 있지만 당신이 당신의 XenLinux 중심부를 만듬으로써 다른 하드웨어를 위해 지원을 더할 수 있다.
Xen was originally developed by the Systems Research Group at the University of Cambridge Computer Laboratory as part of the XenoServers project, funded by the UK-EPSRC. XenoServers aim to provide a `public infrastructure for global distributed computing', and Xen plays a key part in that, allowing us to efficiently partition a single machine to enable multiple independent clients to run their operating systems and applications in an environment providing protection, resource isolation and accounting. The project web page contains further information along with pointers to papers and technical reports: http://www.cl.cam.ac.uk/xeno
원래는 Xen이 XenoServers 프로젝트의 부분으로서 영국 EPSRC에의하여 자금이 조달되어서 대학교의 시스템 리서치 케임브리지 컴퓨터 실험실 그룹에 의하여 개발되었다. '키가 우리가 다중 독립적인 고객을 보호와 리소스 고립과 회계를 제공하 그들의 일하고 있는 시스템과 환경의 응용을 달릴 수 있게 하기 위해 능률적으로 단하나의 기계를 분할하도록 허락하면서 그것에(서)갈라놓는' 컴퓨팅, 'Xen' 세계적인 분배된 '연극'을 위해 공공의 기반을 제공할 XenoServers 목표.프로젝트 웹페이지는 기록과 기술적인 리포트의 지침과 함께 더 먼 정보를 가지고 있다:http://www.cl.cam.ac.uk/xeno
Xen has since grown into a fully-fledged project in its own right, enabling us to investigate interesting research issues regarding the best techniques for virtualising resources such as the CPU, memory, disk and network. The project has been bolstered by support from Intel Research Cambridge, and HP Labs, who are now working closely with us.
since Xen은 자라서 그것의 자신의 옳게 우리를 중앙 처리 장치와 메모리와 디스크와 네트워크 같은 virtualising 리소스를 위한 가장 좋은 기술에대한 재미 있는 리서치 이슈를 상세히 조사할 수 있게 하는 데 있어서의은 다 자란 프로젝트가 되었다.지금 우리를 가지고 면밀하게 작업하고 있는 케임브리지와 HP 인텔 리서치 실험실로부터 지원이 프로젝트를 받쳤다.
Xen was first described in a paper presented at SOSP in 20031.1, and the first public release (1.0) was made that October. Since then, Xen has significantly matured and is now used in production scenarios on many sites.
SOSP에(서)20031.1 년에 준 종이에(서)처음으로 Xen을 묘사했고 처음으로 공공의 릴리스(1.0)이 그 10 월 만들어 졌다.그때 이후로 의미심장하게 Xen이 성숙했고 지금 많은 사이트에있는 생산 시나리오에(서)사용된다.
Xen 2.0 features greatly enhanced hardware support, configuration flexibility, usability and a larger complement of supported operating systems. This latest release takes Xen a step closer to becoming the definitive open source solution for virtualisation.
Xen 2.0은 대단히 더 나아진 하드웨어 지원과 구성 융통성과 유용성과 지원해 진 운영 체제의 더 큰 보완을 특별히 다룬다.이 최근의 릴리스는 Xen을 virtualisation을 위한 definitive 열려 있는 소스 솔루션이 되는 것에(게)더 가까운 스텝 가지고 간다.
The Xen distribution includes three main components: Xen itself, ports of Linux 2.4 and 2.6 and NetBSD to run on Xen, and the user-space tools required to manage a Xen-based system. This chapter describes how to install the Xen 2.0 distribution from source. Alternatively, there may be pre-built packages available as part of your operating system distribution.
Xen 분배는 3 주요한 성분을 포함한다:Xen 그 자체와 리눅스 2.4와 2.6의 포트와 Xen와 사용자 위에서 달릴 NetBSD은 Xen에 기초를 둔 시스템을 관리해야 한 도구를 간격을 두고 배치한다.이 챕터는 소스로부터 Xen 2.0 분배를 설치하는 방법을 설명한다.대안으로 그 곳은 당신의 시스템 분배를 작동하는 부분과같은 미리 만들어 진 사용가능한 패키지일 지도 모른다.
The following is a full list of prerequisites. Items marked `
지지자는 필요조건의 완전한 목록이다.마크를한 아이템
' are required by the xend control tools, and hence required if you want to run more than one virtual machine; items marked `*' are only required if you wish to build from source.
'xend 컨트롤 도구가 필요로 하고 만약 당신이 1 개 이상 가상의 기계를 작동하고 싶다면 그러므로 요구해 진다' ; '만약 당신이 바란다면 단지' 현저한 *'을 필요로 하는' 아이템'은 소스로 짓는다' .
Once you have satisfied the relevant prerequisites, you can now install either a binary or source distribution of Xen.
일단 당신이 적절한 필요조건을 만족시키면 지금 당신은 또한 2진수나 Xen의 소스 분배를 설치할 수 있다.
Pre-built tarballs are available for download from the Xen download page
미리 만들어 진 tarballs은 Xen 다운로드 페이지로부터 다운로드가 가능하다.
http://xen.sf.net
http://xen.sf.net
Once you've downloaded the tarball, simply unpack and install:
일단 당신이 tarball을 다운로드하면 간단히 짐을 풀면 설치해라:
# tar zxvf xen-2.0-install.tgz # cd xen-2.0-install # sh ./install.sh
# tar zxvf xen-2.0-install.tgz # cd xen-2.0-install # sh ./install.sh
Once you've installed the binaries you need to configure your system as described in Section 2.4.
일단 당신이 당신이 당신의 시스템을 만들어야 하는 2.4 섹션에(서)묘사된 2진수를 설치하면.
This section describes how to obtain, build, and install Xen from source.
이 섹션은 널리 유행하고 소스로 Xen을 짓고 설치하는 방법을 설명한다.
The Xen source tree is available as either a compressed source tar ball or as a clone of our master BitKeeper repository.
Xen 소스 나무는 압축된 소스 타르가 둥글게 뭉치는 어느쪽으로서 또는 우리의 BitKeeper 마스터의 클론으로서 저장고 사용가능하다.
http://xen.sf.net
http://xen.sf.net
http://www.bitmover.com/cgi-bin/download.cgiThe public master BK repository for the 2.0 release lives at:
http://www.bitmover.com/cgi-bin/download.cgi
bk://xen.bkbits.net/xen-2.0.bkYou can use BitKeeper to download it and keep it updated with the latest features and fixes.
bk://xen.bkbits.net/xen-2.0.bk
Change to the directory in which you want to put the source code, then run:
그때 밝혀 져서 당신이 소스 코드를 어느 것에 놓고 싶은 것을 디렉토리로바꿔라:
# bk clone bk://xen.bkbits.net/xen-2.0.bk
# bk clone bk://xen.bkbits.net/xen-2.0.bk
Under your current directory, a new directory named xen-2.0.bk has been created, which contains all the source code for Xen, the OS ports, and the control tools. You can update your repository with the latest changes at any time by running:
당신의 현재 디렉토리 아래 xen 2.0.bk이라고 명명된 새로운 디렉토리가 어느 것이 모든 Xen을 위한 소스 코드와 운영체제 포트와 컨트롤 도구를 가지고 있 만들어 졌다.당신은 언제든지 달림으로써 당신의 저장고를 가장 최근의 체인지로 업데이트할 수 있다:
# cd xen-2.0.bk # to change into the local repository # bk pull # to update the repository
# cd xen-2.0.bk # to change into the local repository # bk pull # to update the repository
The top-level Xen Makefile includes a target `world' that will do the following:
최고 수준인 Xen Makefile은 '지지자를 할' 타겟 세계를 포함한다:
After the build has completed you should have a top-level directory called dist/ in which all resulting targets will be placed; of particular interest are the two kernels XenLinux kernel images, one with a `-xen0' extension which contains hardware device drivers and drivers for Xen's virtual devices, and one with a `-xenU' extension that just contains the virtual ones. These are found in dist/install/boot/ along with the image for Xen itself and the configuration files used during the build.
체격이 완료한 후에 당신은 최고 수준인 디렉토리를 모든 발생하고 있는 타겟을 둘 dist/이라고 불리게 되어야 한다;특별한 관심의 2 중심부는 단지 실질적인 사람들을 가지고 있는 '-xenU' 확장'을 가지고 Xen의 실질적인 장치와 하나를 위해 하드웨어 장치 드라이버와 드라이버를 가지고 있는' -xen0 '확장'을 가지고 XenLinux 중심부 이미지,하나입니까.이것들이 그 자체와 구성 파일이 체격 동안 사용한 Xen을위한 이미지와 함께 dist/install/boot/에서 발견해 진다.
The NetBSD port can be built using:
NetBSD 포트는 사용하게 만들어질 수 있다:
# make netbsd20NetBSD port is built using a snapshot of the netbsd-2-0 cvs branch. The snapshot is downloaded as part of the build process, if it is not yet present in the NETBSD_SRC_PATH search path. The build process also downloads a toolchain which includes all the tools necessary to build the NetBSD kernel under Linux.
# make netbsd20
To customize further the set of kernels built you need to edit the top-level Makefile. Look for the line:
세워 진 중심부 세트를 더욱 더 사용자의 요구에 맞추기 위해 당신은 최고 수준인 Makefile을 편집해야 한다.라인을 찾아라:
KERNELS ?= mk.linux-2.6-xen0 mk.linux-2.6-xenU
KERNELS ?= mk.linux-2.6-xen0 mk.linux-2.6-xenU
You can edit this line to include any set of operating system kernels which have configurations in the top-level buildconfigs/ directory, for example mk.linux-2.4-xenU to build a Linux 2.4 kernel containing only virtual device drivers.
당신은 모든 구성 최고 수준인 buildconfigs/ 디렉토리에(서)을 가지고 있는 시스템 커넬을 작동하는 세트,유일하게 실질적인 디바이스 드라이버를 가지고 있고 있는 리눅스 2.4 중심부를 세울 예를 들면 mk.linux 2.4 xenU을 포함하기 위해 이 라인을 편집할 수 있다.
If you wish to build a customized XenLinux kernel (e.g. to support additional devices or enable distribution-required features), you can use the standard Linux configuration mechanisms, specifying that the architecture being built for is xen, e.g:
만약 당신은 예를 들면 추가된 장치를 지지하거나 분배 필요로 한 특징을 가능하게 하기 위해 사용자 요구에맞춘 XenLinux 중심부를 세우기 위해 당신이 기준이 된 리눅스 구성 장치를 사용할 수 있기를 바란다면 xen,e.g은 건축 존재가 건축업에 종사한 것을 명시하고 있다:
# cd linux-2.6.11-xen0 # make ARCH=xen xconfig # cd .. # make
# cd linux-2.6.11-xen0 # make ARCH=xen xconfig # cd .. # make
You can also copy an existing Linux configuration (.config) into linux-2.6.11-xen0 and execute:
또한 당신이 리눅스 2.6.11-xen0으로 기존의 리눅스 구성(.config)을 카피할 수 있고 수행할 수 있다:
# make ARCH=xen oldconfig
# make ARCH=xen oldconfig
You may be prompted with some Xen-specific options; we advise accepting the defaults for these options.
당신이 Xen 특정한 몇몇의 옵션을 가지고 자극을 받을 수 있다;우리는 이 옵션을 위한 채무 불이행을 받아들이면서 상의한다.
Note that the only difference between the two types of Linux kernel that are built is the configuration file used for each. The "U" suffixed (unprivileged) versions don't contain any of the physical hardware device drivers, leading to a 30% reduction in size; hence you may prefer these for your non-privileged domains. The `0' suffixed privileged versions can be used to boot the system, as well as in driver domains and unprivileged domains.
만들어지는 유형의 리눅스 중심부 2 명 사이의 차이만이 각각을 위해 사용해 진 환경설정 파일이다는 것을 언급해라. "U" 덧붙여 진 특권이 없는 버전은 사이즈에(서)30% 축소에 이르면서 육체적 하드웨어 디바이스 드라이버 모두를 가지고 있지 않다;그러므로 당신은 당신의 non-privileged 도메인을 위해 이것들을 더 좋아 할 수 있다. '드라이버 도메인과 특권이 없는 도메인에(서)일 뿐만 아니라 덧붙여 진 특권을 가진 버전' 0 권'이 시스템을 부팅하는 데 이용될 수 있다' .
The files produced by the build process are stored under the dist/install/ directory. To install them in their default locations, do:
체격 프로세스가 내보인 파일이 dist/install/ 디렉토리 아래 저장해 진다.그들의 디폴트 위치에(서)그들을 설치하기 위해 해라:
# make install
# make install
Alternatively, users with special installation requirements may wish to install them manually by copying the files to their appropriate destinations.
대안으로 특별한 설치 요건이있는 사용자는 파일을 그들의 적합한 목적지로 복사함으로써 손으로 그들을 설치하고 싶을 수 있다.
The dist/install/boot directory will also contain the config files used for building the XenLinux kernels, and also versions of Xen and XenLinux kernels that contain debug symbols (xen-syms-2.0.6 and vmlinux-syms-2.6.11.11-xen0) which are essential for interpreting crash dumps. Retain these files as the developers may wish to see them if you post on the mailing list.
dist 또한 설치/부트 디렉토리는 XenLinux 중심부를 세우기 위하여 사용해 진 config 파일과 충돌 덤프를 해석하는 것을 위해 필수적인 디버그 심볼(xen syms 2.0.6와 vmlinux syms 2.6.11.11-xen0)을 가지고 있는 Xen와 XenLinux 중심부의 또한 버전을 가지고 있을 것이다.개발자가 만약 당신이 우송 위에서 목록을 알린다면 그들을 보고 싶을 수 있을 때 이 파일을 계속 유지해라.
An entry should be added to grub.conf (often found under /boot/ or /boot/grub/) to allow Xen / XenLinux to boot. This file is sometimes called menu.lst, depending on your distribution. The entry should look something like the following:
엔트리가 /boot/이나 /boot/grub/ 아래 종종 Xen/XenLinux이 부팅하도록 허락할 찾아 지어서 grub.conf에 추가되어야 한다.때때로 이 파일이 당신의 분배에 따라 menu.lst이라고 불린다.엔트리는 지지자 같은 것 보아야 한다:
title Xen 2.0 / XenLinux 2.6 kernel /boot/xen-2.0.gz dom0_mem=131072 module /boot/vmlinuz-2.6-xen0 root=/dev/sda4 ro c0nsole=tty0
title Xen 2.0 / XenLinux 2.6 kernel /boot/xen-2.0.gz dom0_mem=131072 module /boot/vmlinuz-2.6-xen0 root=/dev/sda4 ro c0nsole=tty0
The kernel line tells GRUB where to find Xen itself and what boot parameters should be passed to it (in this case, setting domain 0's memory allocation in kilobytes and the settings for the serial port). For more details on the various Xen boot parameters see Section 8.2.
중심부 라인은 땅벌레에게 어디에서 Xen에게 그 자체를 찾아 주어야 할 지 부트 파라미터가 틀림없이 무엇일 것이었는지가 그것에게 전해졌고(도메인을 놓 이 경우에는 킬로바이트의 0's 메모리 할당과 시리얼을 위한 세팅이 왼편으로 꺽는 것)이었는지를 말한다.왜냐하면 더 많은 다양한 Xen 부트 파라미터에 대한 세부사항이 8.2 섹션을 보기 때문에.
The module line of the configuration describes the location of the XenLinux kernel that Xen should start and the parameters that should be passed to it (these are standard Linux parameters, identifying the root device and specifying it be initially mounted read only and instructing that console output be sent to the screen). Some distributions such as SuSE do not require the ro parameter.
구성의 모듈 라인은 Xen이 시작해야 하는 XenLinux 중심부와 그것이 그것에게 전해져 져야 하고(이것들이 기준이 된 리눅스 파라미터이고 뿌리를 확인하면서 단지 읽혀서 처음에 장치 그것을 명시하는 것에 오르고 그 콘솔 아웃풋을 가르치는 것이 스크린으로 보내게 지는 것)이었던 파라미터의 위치를 묘사한다.SuSE 같은 몇몇의 분배는 ro 파라미터를 필요로 하지 않는다.
If you want to use an initrd, just add another module line to the configuration, as usual:
만약 당신이 initrd을 사용하고 싶다면 일상의 때 단지 구성에 다른 모듈 라인을 추가해라:
module /boot/my_initrd.gz
module /boot/my_initrd.gz
As always when installing a new kernel, it is recommended that you do not delete existing menu options from menu.lst -- you may want to boot your old Linux kernel in future, particularly if you have problems.
새로운 중심부를 설치할 때 As 언제나 그것이 특히 문제가 있다면 당신이 기존의 메뉴 옵션을 menu.lst에서 지우지 않고-당신이 미래의 당신의 오래된 리눅스 중심부를 부팅하고 싶을 수 있는 것 추천된다.
In order to configure Xen serial console output, it is necessary to add an boot option to your GRUB config; e.g. replace the above kernel line with:
Xen 연속 콘솔 아웃풋을 만들기 위해 당신의 config 땅벌레에 부트 옵션을 추가하는 것은 필요하다;예를 들면 상기한 중심부 라인을 바꾸어라:
kernel /boot/xen.gz dom0_mem=131072 com1=115200,8n1
kernel /boot/xen.gz dom0_mem=131072 com1=115200,8n1
This configures Xen to output on COM1 at 115,200 baud, 8 data bits, 1 stop bit and no parity. Modify these parameters for your set up.
이것은 115,200 baud와 8 데이터 비트와 1 정지 비트와 패리티에(서)COM1 위에서 출력하지 않기 위해 Xen을 만든다.당신의 셋업을 위한 이 파라미터를 부분 수정해라.
One can also configure XenLinux to share the serial console; to achieve this append ``c0nsole=ttyS0'' to your module line.
또한 하나는 연속적인 콘솔을 함께 나누기 위해 XenLinux을 만들 수 있다;이것을 얻기 위해 당신의 모듈 라인에 c0nsole=ttyS0을 첨가해라.
If you wish to be able to log in over the XenLinux serial console it is necessary to add a line into /etc/inittab, just as per regular Linux. Simply add the line:
만약 당신이 XenLinux 연속적인 콘솔에 관한 로그인할 수 있고 싶다면 단지 레귤러 리눅스당일 때 /etc/inittab으로 라인을 추가하는 것은 필요하다.간단히 라인을 추가해라:
c:2345:respawn:/sbin/mingetty ttyS0
sbin/mingetty ttyS0 c:2345:respawn:
and you should be able to log in. Note that to successfully log in as root over the serial line will require adding ttyS0 to /etc/securetty in most modern distributions.
그리고 당신이 로그인할 수 있음에 틀림 없다.성공적으로 뿌리로서 시리얼에 관한 로그인하기 위해 라인을 가장 모던 분배에(서)/etc/securetty에 ttyS0을 추가하는 것 하겠을 것이다는 것을 언급해라.
Users of the XenLinux 2.6 kernel should disable Thread Local Storage (e.g. by doing a mv /lib/tls /lib/tls.disabled) before attempting to run with a XenLinux kernel2.3. You can always reenable it by restoring the directory to its original location (i.e. mv /lib/tls.disabled /lib/tls).
XenLinux kernel2.3을 채택하려고 하기 전에 XenLinux 2.6 중심부의 사용자는 예를 들면 mv /lib/tls /lib/tls.disabled을 함으로써 실 로컬 저장을 억제해야 한다.디렉토리를 그것의 원래의 위치(즉 mv /lib/tls.disabled /lib/tls)에 돌려보냄으로써 당신 언제나 그것 reenable일 수 있다.
The reason for this is that the current TLS implementation uses segmentation in a way that is not permissible under Xen. If TLS is not disabled, an emulation mode is used within Xen which reduces performance substantially.
이것에 대한 이유는 현재 TLS 실행이 그것이 Xen 아래 허용되지 않은 방법에(서)분할을 사용하는 것이다.만약 TLS이 장애가 없다면 에뮬레이션 모드가 실지적으로 퍼포먼스를 줄이는 Xen 안에서 사용된다.
We hope that this issue can be resolved by working with Linux distribution vendors to implement a minor backward-compatible change to the TLS library.
우리는 리눅스 분배 판매자와 함께 TLS 도서관에 대한 뒤 compatible 작은 체인지를 실행하도록 노력하는 것이 이 이슈를 결심할 수 있는 것을 희망한다.
It should now be possible to restart the system and use Xen. Reboot as usual but choose the new Xen option when the Grub screen appears.
지금 시스템을 재개시키고 Xen을 사용하는 것은 가능해야 한다.땅벌레 스크린이 발행될 때 일상의 때 Reboot이어라지만 새로운 Xen 옵션을 선택해라.
What follows should look much like a conventional Linux boot. The first portion of the output comes from Xen itself, supplying low level information about itself and the machine it is running on. The following portion of the output comes from XenLinux.
뒤따르는 것은 많이 협정 리눅스 부트처럼 보아야 한다.첫째 아웃풋의 일부는 그 자체로 그 자체에 대한 낮은 균일한 정보와 그것이 계속 이어지고 있는 기계를 공급하는 Xen에서 온다.다음 아웃풋의 일부는 XenLinux에서 온다.
You may see some errors during the XenLinux boot. These are not necessarily anything to worry about -- they may result from kernel configuration differences between your XenLinux kernel and the one you usually use.
당신은 XenLinux 부트 동안 몇몇의 오류를 볼 수 있다.이것들이 반드시 걱정할 아무것도 아닌 것은 아니고-그들이 당신의 XenLinux 중심부와 보통은 당신이 사용하는 하나 사이의 중심부 구성 차이에 기인할 수 있다.
When the boot completes, you should be able to log into your system as usual. If you are unable to log in to your system running Xen, you should still be able to reboot with your normal Linux kernel.
부트가 완료할 때 일상의 때 당신은 당신의 시스템으로 벌목할 수 있음에 틀림 없다.만약 당신이 Xen을 달리고 있는 당신의 시스템에(게)로그인할 수 없다면 아직도 당신은 당신의 정상적인 리눅스 중심부를 가지고 reboot일 수 있음에 틀림 없다.
The first step in creating a new domain is to prepare a root filesystem for it to boot off. Typically, this might be stored in a normal partition, an LVM or other volume manager partition, a disk file or on an NFS server. A simple way to do this is simply to boot from your standard OS install CD and install the distribution into another partition on your hard drive.
새로운 도메인을 만드는 데 있어서의은 첫째 스텝은 그것이 벗어나는 부팅하는 것 filesystem 뿌리를 준비하는 것이다.전형적으로 정상적인 분할,LVM이나 다른 볼륨 매니저 분할,디스크 파일에(서),이것이 NFS 서버에 저장해 질 수 있다.간단히 이것을 하기 위한 간단한 방법은 당신의 기준으로부터 운영체제 CD 설치를 부팅하고 당신의 단단한 드라이브 위에서 다른 분할로 분배를 설치하는 것이다.
To start the xend control daemon, type
xend 컨트롤 악마를 시작하기 위해 타이프를 쳐라
If you wish the daemon to start automatically, see the instructions in Section 6.1. Once the daemon is running, you can use the xm tool to monitor and maintain the domains running on your system. This chapter provides only a brief tutorial: we provide full details of the xm tool in the next chapter.# xend start
# xend start
Before you can start an additional domain, you must create a configuration file. We provide two example files which you can use as a starting point:
당신이 추가된 도메인을 시작할 수 있기 전에 당신은 환경설정 파일을 만들어야 한다.우리는 당신이 출발점으로서 사용할 수 있는 2 예 파일을 제공한다:
Copy one of these files and edit it as appropriate. Typical values you may wish to edit include:
이 파일 중의 하나를 카피하면 적합할 때 그것을 편집해라.당신이 편집하고 싶을 수 있는 전형적인 가치관은 포함한다:
You may also want to edit the vif variable in order to choose the MAC address of the virtual ethernet interface yourself. For example:
너 스스로 실질적인 이더넷 인터페이스의 맥 주소를 선택하기 위해 또한 당신은 vif 변수를 편집하고 싶을 수 있다.예를 들면:
If you do not set this variable, xend will automatically generate a random MAC address from an unused range.vif = ['mac=00:06:AA:F6:BB:B3']
vif = ['mac=00:06:AA:F6:BB:B3']
The xm tool provides a variety of commands for managing domains. Use the create command to start new domains. Assuming you've created a configuration file myvmconf based around /etc/xen/xmexample2, to start a domain with virtual machine ID 1 you should type:
xm 도구는 경영하는 도메인을위해 다양한 명령을 제공한다.사용 새로운 도메인을 시작할 명령을 만들어라.당신이 myvmconf이 /etc/xen/xmexample2 주위에서 쌓은 환경설정 파일을 만들었는지를 가정했을 때 도메인을 실질적인 기계 ID 1부터 시작하기 위해 당신은 타이프를 쳐야 한다:
# xm create -c myvmconf vmid=1
# xm create -c myvmconf vmid=1
The -c switch causes xm to turn into the domain's console after creation. The vmid=1 sets the vmid variable used in the myvmconf file.
-c 스위치로 xm이 창조 후에 도메인의 콘솔로 바뀌게 된다.vmid=1은 myvmconf 파일에(서)사용된 vmid 변수를 놓는다.
You should see the console boot messages from the new domain appearing in the terminal in which you typed the command, culminating in a login prompt.
당신은 새로운 도메인으로부터 콘솔 부트 메시지가 당신이 로그인 프롬프트가 되면서 명령을 타이핑한 터미널에 나오는 것을 보아야 한다.
Ttylinux is a very small Linux distribution, designed to require very few resources. We will use it as a concrete example of how to start a Xen domain. Most users will probably want to install a full-featured distribution once they have mastered the basics3.1.
Ttylinux은 매우 거의 리소스를 필요로 하지 않도록 만들어져서 매우 작은 리눅스 분배이다.우리는 어떻게 Xen 도메인을 시작하는지의 구체적인 예로서 그것을 사용할 것이다.일단 그들이 basics3.1을 정복하면 아마 대부분의 사용자는 완전한 특집 분배를 설치하고 싶을 것이다.
kernel = "/boot/vmlinuz-2.6-xenU" memory = 64 name = "ttylinux" nics = 1 ip = "1.2.3.4" disk = ['file:/path/to/ttylinux/rootfs,sda1,w'] root = "/dev/sda1 ro"
kernel = "/boot/vmlinuz-2.6-xenU" memory = 64 name = "ttylinux" nics = 1 ip = "1.2.3.4" disk = ['file:/path/to/ttylinux/rootfs,sda1,w'] root = "/dev/sda1 ro"
xm create configfile -c
xm create configfile -c
It is possible to have certain domains start automatically at boot time and to have dom0 wait for all running domains to shutdown before it shuts down the system.
어떤 도메인이 부트 시간에 자동적으로 시작되게 하는 것 그것이 시스템을 잠그기 전에 dom0이 모든 달리고 있는 도메인이 휴업하기를 기다리게 하는 것은 가능하다.
To specify a domain is to start at boot-time, place its configuration file (or a link to it) under /etc/xen/auto/.
도메인을 명시하는 것은 부트 시간,장소에(서)그것의 환경설정 파일이나 /etc/xen/auto/ 아래 그것에 연결된 링크를 시작할 것이다.
A Sys-V style init script for RedHat and LSB-compliant systems is provided and will be automatically copied to /etc/init.d/ during install. You can then enable it in the appropriate way for your distribution.
init이 RedHat와 LSB 유순한 시스템을 위해 쓰는 Sys V 스타일에 제공하고 자동적으로 설치 동안 /etc/init.d/으로 복사해 질 것이다.그때 당신은 적합하게 당신의 분배를 위해 그것을 가능하게 할 수 있다.
For instance, on RedHat:
RedHat 위의 예를 들어:
# chkconfig --add xendomains
# chkconfig --add xendomains
By default, this will start the boot-time domains in runlevels 3, 4 and 5.
부재중의 이것은 runlevels 3와 4와 5의 부트 시간 도메인을 시작할 것이다.
You can also use the service command to run this script manually, e.g:
또한 당신은 손으로 이 스크립트를 달릴 서비스 명령,e.g을 사용할 수 있다:
# service xendomains start
# service xendomains start
Starts all the domains with config files under /etc/xen/auto/.
/etc/xen/auto/ 아래 모든 도메인을 config 파일부터 시작한다.
# service xendomains stop
# service xendomains stop
Shuts down ALL running Xen domains.
모든 달리고 있는 Xen 도메인을 잠근다.
The previous chapter described a simple example of how to configure and start a domain. This chapter summarises the tools available to manage running domains.
앞의 챕터는 어떻게 도메인을 만들고 시작하는지의 간단한 예를 묘사했다.도메인을 달리는 것을 관리하는 것 사용가능한 도구 이 summarises 챕터.
Command line management tasks are also performed using the xm tool. For online help for the commands available, type:
xm 도구를 사용하면서 또한 명령 라인 관리 일을 한다.사용가능한 명령을 위한 온라인 도움을 위해 타이프를 쳐라:
# xm help
# xm help
You can also type xm help
또한 당신은 더 많은 주어진 명령에 대한 정보를 위한 xm 도움을 타이핑할 수 있다.
The most important xm commands are:
가장 중요한 xm 명령은 있다:
# xm list
: Lists all domains running.
# xm list:모든 달리고 있는 도메인을 기입한다.# xm consoles
: Gives information about the domain consoles.
# xm consoles:도메인 콘솔에 대한 정보를 준다.# xm console
: Opens a console to a domain (e.g.# xm console myVM
# xm console:예를 들면 도메인에게 콘솔을 연다.# xm console myVM
The output of xm list is in rows of the following format: name domid memory cpu state cputime console
xm 목록의 아웃풋은 다음 포맷의 줄에 있다:이름 domid cpu 메모리는 cputime 콘솔을 말한다.
The xm list command also supports a long output format when the -l switch is used. This outputs the fulls details of the running domains in xend's SXP configuration format.
-l 스위치가 사용될 때 또한 xm 목록 명령은 긴 아웃풋 포맷을 지원한다.이것은 xend의 SXP 구성 포맷의 달리고 있는 도메인의 fulls 디테일을 출력한다.
For example, suppose the system is running the ttylinux domain as described earlier. The list command should produce output somewhat like the following:
예를 들면 시스템이 ttylinux 더 일찍 묘사될 때 도메인을 달리고 있다고 가정해라.목록 명령은 지지자처럼 somewhat 아웃풋을 만들어야 한다:
# xm list Name Id Mem(MB) CPU State Time(s) Console Domain-0 0 251 0 r---- 172.2 ttylinux 5 63 0 -b--- 3.0 9605
# xm list Name Id Mem(MB) CPU State Time(s) Console Domain-0 0 251 0 r---- 172.2 ttylinux 5 63 0 -b--- 3.0 9605
Here we can see the details for the ttylinux domain, as well as for domain 0 (which, of course, is always running). Note that the console port for the ttylinux domain is 9605. This can be connected to by TCP using a terminal program (e.g. telnet or, better, xencons). The simplest way to connect is to use the xm console command, specifying the domain name or ID. To connect to the console of the ttylinux domain, we could use any of the following:
물론 언제나 달리고 있는 도메인 0을위해 뿐만 아니라 여기 우리는 ttylinux 도메인을 위해 디테일을 볼 수 있다.ttylinux 도메인을위한 콘솔 포트가 9605이다는 것을 언급해라.이것이 TCP에 의하여 터미널을 사용하는 것이 프로그램을 짜 예를 들면 telnet 그렇지 않으면 더 잘 xencons 연결될 수 있다.연결하기 위한 가장 간단한 방법은 도메인 이름이나 ID을 명시하면서 xm 콘솔 명령을 사용하는 것이다.ttylinux 도메인의 콘솔에 연결하기 위해 우리는 지지자 모두를 사용할 수 있었다:
# xm console ttylinux # xm console 5 # xencons localhost 9605
# xm console ttylinux # xm console 5 # xencons localhost 9605
The administrator of a Xen system may suspend a virtual machine's current state into a disk file in domain 0, allowing it to be resumed at a later time.
Xen 시스템의 관리자는 그것이 더 늦은 한번에 다시 시작되도록 허락하면서 도메인 0의 디스크 파일로 가상의 기계의 현재 스테이트를 보류할 수 있다.
The ttylinux domain described earlier can be suspended to disk using the command:
더 일찍 묘사된 ttylinux 도메인이 디스크에(게)명령을 사용하면서 보류해 질 수 있다:
# xm save ttylinux ttylinux.xen
# xm save ttylinux ttylinux.xen
This will stop the domain named `ttylinux' and save its current state into a file called ttylinux.xen.
이것이 ttylinux이라고 명명된 도메인을 멈출 것이고 'ttylinux.xen이라고 불리는 파일로 그것의 현재 스테이트를 구할 것이다' .
To resume execution of this domain, use the xm restore command:
이 도메인의 실행을 다시 시작하고 xm을 사용하기 위해 명령을 복구해라:
# xm restore ttylinux.xen
# xm restore ttylinux.xen
This will restore the state of the domain and restart it. The domain will carry on as before and the console may be reconnected using the xm console command, as above.
이것이 도메인의 스테이트를 복구할 것이고 그것을 재개시킬 것이다.도메인이 as 전에 계속할 것이고 콘솔이 xm 콘솔 명령을 사용하면서 as 위에 다시 연결될 수 있다.
Live migration is used to transfer a domain between physical hosts whilst that domain continues to perform its usual activities -- from the user's perspective, the migration should be imperceptible.
그 도메인이 계속해서 그것의 일상의 활동을 행하고-사용자의 시각으로부터 이동이 미세함에 틀림 없었던 동안 살아 있는 이동이 육체적 호스트 사이의 도메인을 옮기는 데 이용된다.
To perform a live migration, both hosts must be running Xen / xend and the destination host must have sufficient resources (e.g. memory capacity) to accommodate the domain after the move. Furthermore we currently require both source and destination machines to be on the same L2 subnet.
살아 있는 이동을 행하기 위해 둘 다 호스트가 Xen/xend을 달리고 있어야 하고 목적지 호스트는 충분한 리소스(예를 들면 메모리 도메인을 돌볼 수 있는 능력)조치 후에을 가지고 있어야 한다.게다가 현재 우리는 소스와 목적지 둘 다 기계에게 똑같은 L2 서브넷(위)에 있다고 요구한다.
Currently, there is no support for providing automatic remote access to filesystems stored on local disk when a domain is migrated. Administrators should choose an appropriate storage solution (i.e. SAN, NAS, etc.) to ensure that domain filesystems are also available on their destination node. GNBD is a good method for exporting a volume from one machine to another. iSCSI can do a similar job, but is more complex to set up.
도메인이 이주될 때 현재 로컬 디스크에 저장해 진 리모트 filesystems에의 자동 액세스를 제공하는 것을 위한 지원이 없다.관리자는 그 도메인을 위해 filesystems이 또한 그들의 목적지 노드(위)에 사용가능한 것을 확보하기 위해 적합한 저장 솔루션(즉 스토리지 네트워크,NAS,기타 등등)을 선택해야 한다.GNBD은 기계 1 대로부터 볼륨 다른 하나에 수출하기 위한 좋은 방법이다.iSCSI 비슷한 일을 할 수 있지만 사업을 시작하는 것 더 복잡하다.
When a domain migrates, it's MAC and IP address move with it, thus it is only possible to migrate VMs within the same layer-2 network and IP subnet. If the destination node is on a different subnet, the administrator would need to manually configure a suitable etherip or IP tunnel in the domain 0 of the remote node.
도메인이 이주할 때 그것이 그것이 있는 맥과 IP 주소 조치이다.네트워크와 IP 서브넷 이렇게 똑같은 계층 2 안에서 VMs을 이주시키는 것은 유일하게 가능하다.만약 목적지 노드가 다른 서브넷(위)에 있는다면 관리자는 손으로 리모트 노드의 도메인 0의 etherip이나 IP 적당한 터널을 만들어야 할 것이다.
A domain may be migrated using the xm migrate command. To live migrate a domain to another machine, we would use the command:
도메인이 xm을 사용하면서 명령을 이주시켜라 이주될 수 있다.살기 위해 도메인을 다른 기계로 이주시켜라,우리는 명령을 사용할 것이다:
# xm migrate --live mydomain destination.ournetwork.com
# xm migrate --live mydomain destination.ournetwork.com
Without the -live flag, xend simply stops the domain and copies the memory image over to the new node and restarts it. Since domains can have large allocations this can be quite time consuming, even on a Gigabit network. With the -live flag xend attempts to keep the domain running while the migration is in progress, resulting in typical `downtimes' of just 60-300ms.
-live 기 없이 간단히 xend이 도메인을 멈추고 위로 메모리 이미지를 새로운 노드로 복사하고 그것을 재개시킨다.도메인이 큰 할당을 가지고 있을 수 있는 이래로 이것은 심지어 Gigabit 네트워크 위에서 소비되면서 시간일 수 있 아주이다.이동이 '단지 60-300ms의' 전형적인 가동 휴지 시간으로 끝나면서 진행 중인 동안 -live 기를 가지고 xend은 도메인을 달리게 하려고 한다.
For now it will be necessary to reconnect to the domain's console on the new machine using the xm console command. If a migrated domain has any open network connections then they will be preserved, so SSH connections do not have this limitation.
지금을 위해 새로운 기계 위의 도메인의 콘솔에(게)xm 콘솔 명령을 사용하면서 다시 연결된 것은 필요할 것이다.만약 이주된 도메인이 어떤 열려 있는 네트워크 커넥션을 가지고 있다면 그 경우에는 그들을 보존한다 그래서 SSH 커넥션이 이 한계를 하지 않는다을 것이다.
XenLinux domains have the ability to relinquish / reclaim machine memory at the request of the administrator or the user of the domain.
XenLinux 도메인은 관리자의 요구나 도메인의 사용자에(서)기계 메모리 포기하고/되찾을 능력이 있다.
The machine administrator can request that a domain alter its memory footprint using the xm balloon command. For instance, we can request that our example ttylinux domain reduce its memory footprint to 32 megabytes.
기계 관리자는 도메인이 xm 벌룬 명령을 사용하면서 그것의 메모리 발자국을 바꾸도록 부탁할 수 있다.예를 들어 우리는 ttylinux 도메인이 그것의 메모리 발자국을 32 메가바이트로 만들 우리의 예 그것을 부탁할 수 있다.
# xm balloon ttylinux 32
# xm balloon ttylinux 32
We can now see the result of this in the output of xm list:
지금 우리는 xm 목록의 아웃풋에(서)이것의 결과를 볼 수 있다:
# xm list Name Id Mem(MB) CPU State Time(s) Console Domain-0 0 251 0 r---- 172.2 ttylinux 5 31 0 -b--- 4.3 9605
# xm list Name Id Mem(MB) CPU State Time(s) Console Domain-0 0 251 0 r---- 172.2 ttylinux 5 31 0 -b--- 4.3 9605
The domain has responded to the request by returning memory to Xen. We can restore the domain to its original size using the command line:
도메인은 메모리를 Xen에게 되돌려주면서 요구에 응답해 지는 것을 가지고 있다.우리는 커맨드라인을 사용하면서 도메인을 그것의 원래의 사이즈에 돌려보낼 수 있다:
# xm balloon ttylinux 64
# xm balloon ttylinux 64
The virtual file /proc/xen/memory_target allows the owner of a domain to adjust their own memory footprint. Reading the file (e.g. cat /proc/xen/memory_target) prints out the current memory footprint of the domain. Writing the file (e.g. echo new_target > /proc/xen/memory_target) requests that the kernel adjust the domain's memory footprint to a new value.
/proc/xen/memory target 가상 파일은 도메인의 소유자가 그들의 자신의 메모리 발자국을 조정하도록 허락한다.파일을 읽으면서 예를 들면 /proc/xen/memory target 고양이는 도메인의 현재 메모리 발자국을 출력한다.파일(예를 들면 new target > /proc/xen/memory target을 흉내 내라)을 쓰는 것은 중심부가 도메인의 메모리 발자국을 새로운 가치에 맞추도록 부탁한다.
Xen associates a memory size limit with each domain. By default, this is the amount of memory the domain is originally started with, preventing the domain from ever growing beyond this size. To permit a domain to grow beyond its original allocation or to prevent a domain you've shrunk from reclaiming the memory it relinquished, use the xm maxmem command.
Xen은 메모리 사이즈 제한과 각 도메인을 연결지어 생각한다.부재중의 이것은 원래는 도메인이 도메인이 이 사이즈를 넘어서 항상 자라지 못하면서 상당량의 메모리이다.도메인에게 그것의 원래의 할당을 넘어서 자라는 것을 허용하는 것 당신이 그것이 포기한 메모리를 되찾는 것을 꺼린 도메인을 막기 위해 xm maxmem 명령을 사용해라.
It is possible to directly export any Linux block device in dom0 to another domain, or to export filesystems / devices to virtual machines using standard network protocols (e.g. NBD, iSCSI, NFS, etc). This chapter covers some of the possibilities.
dom0의 모든 리눅스 블록 장치 바로 다른 도메인에 수출하는 것 기준이 된 네트워크 프로토콜(예를 들면 NBD,iSCSI,NFS,기타)을 사용하면서 filesystems/장치 가상의 기계에 수출하는 것은 가능하다.이 챕터는 가능성 중의 일부를 덮는다.
One of the simplest configurations is to directly export individual partitions from domain 0 to other domains. To achieve this use the phy: specifier in your domain configuration file. For example a line like
가장 간단한 구성 중의 하나는 바로 도메인 0으로부터 개인적인 분할 다른 도메인에 수출하는 것이다.이것을 얻기 위해 phy을 사용해라:당신의 도메인 환경설정 파일의 specifier.예를 들면 라인이 좋아 한다.
specifies that the partition /dev/hda3 in domain 0 should be exported read-write to the new domain as /dev/sda1; one could equally well export it as /dev/hda or /dev/sdb5 should one wish.disk = ['phy:hda3,sda1,w']
disk = ['phy:hda3,sda1,w']
In addition to local disks and partitions, it is possible to export any device that Linux considers to be ``a disk'' in the same manner. For example, if you have iSCSI disks or GNBD volumes imported into domain 0 you can export these to other domains using the phy: disk syntax. E.g.:
로컬 디스크와 분할 외에 리눅스가 똑같은 방법의 디스크라고 생각하는 모든 장치를 수출하는 것은 가능하다.도메인 0으로 반입되어 지는 iSCSI 디스크나 GNBD 볼륨이 있다면 예를 들면 당신은 이것들이 phy을 사용하면서 이것들이 다른 도메인에 수출할 수 있다:디스크 구문.예를 들면:
disk = ['phy:vg/lvm1,sda2,w']
disk = ['phy:vg/lvm1,sda2,w']
Block devices should typically only be shared between domains in a read-only fashion otherwise the Linux kernel's file systems will get very confused as the file system structure may change underneath them (having the same ext3 partition mounted rw twice is a sure fire way to cause irreparable damage)! Xend will attempt to prevent you from doing this by checking that the device is not mounted read-write in domain 0, and hasn't already been exported read-write to another domain. If you want read-write sharing, export the directory to other domains via NFS from domain0 (or use a cluster file system such as GFS or ocfs2).
전형적으로 단지 블록 장치가 읽기 유일한 그럭저럭 도메인 사이에(서)시스템 파일구조가 그들의 아래에 변할 수 있을 때 만약 그렇지 않으면 리눅스 중심부의 파일 시스템이 매우 어리둥절할 것이고(두번 말을탄 rw을 분할하 똑같은 ext3을 갖고 있는 것인 것이 불 고칠 수 없는 손상을 야기하기 위한 확실한 방법)함께 나눠 져야 한다!Xend은 당신이 장치가 도메인 0에(서)말을탄 읽기 기록이 아니고 벌써 다른 도메인에 대한 수출된 읽기 기록이 아니었던 것 체크함으로써 이것을 하지 못하려고 할 것이다.만약 당신이 읽기 기록이 함께 나누는 것을 원한다면 domain0으로부터 디렉토리 NFS을통해 다른 도메인에 수출해라 그렇지 않으면 GFS이나 ocfs2 같은 무리 파일 시스템을 사용해라.
It is also possible to use a file in Domain 0 as the primary storage for a virtual machine. As well as being convenient, this also has the advantage that the virtual block device will be sparse -- space will only really be allocated as parts of the file are used. So if a virtual machine uses only half of its disk space then the file really takes up half of the size allocated.
또한 주요한 저장과같은 도메인 0의 가상의 기계를 위한 파일을 사용하는 것은 가능하다.편리할 뿐만 아니라 또한 이것이 블록 가상장치 장치가 희박한 이점을 가지고 있고-파일의 부분이 사용될 때 유일하게 정말로 스페이스의 위치가 정해 질 것이다.만약 가상의 기계가 그것의 디스크 공간의 반만을 사용한다면 그렇게 그 경우에는 정말로 파일은 위치가 정해 진 사이즈의 반을 받아들인다.
For example, to create a 2GB sparse file-backed virtual block device (actually only consumes 1KB of disk):
희박한 2GB을 만들기 위해 예를 들면 파일 블록 가상장치 장치를 후원했고(단지 실제로 디스크의 1KB을 소비하는 것)이었다:
# dd if=/dev/zero of=vm1disk bs=1k seek=2048k count=1
# dd if=/dev/zero of=vm1disk bs=1k seek=2048k count=1
Make a file system in the disk file:
디스크 파일의 파일 시스템을 만들어라:
# mkfs -t ext3 vm1disk
# mkfs -t ext3 vm1disk
(when the tool asks for confirmation, answer `y')
도구가 확인을 요구할 때 y에 응답해라
Populate the file system e.g. by copying from the current root:
현재 뿌리를 모방함으로써 예를 들면 파일 시스템에 살아라:
# mount -o loop vm1disk /mnt # cp -ax /{root,dev,var,etc,usr,bin,sbin,lib} /mnt # mkdir /mnt/{proc,sys,home,tmp}
# mount -o loop vm1disk /mnt # cp -ax /{root,dev,var,etc,usr,bin,sbin,lib} /mnt # mkdir /mnt/{proc,sys,home,tmp}
Tailor the file system by editing /etc/fstab, /etc/hostname, etc (don't forget to edit the files in the mounted file system, instead of your domain 0 filesystem, e.g. you would edit /mnt/etc/fstab instead of /etc/fstab ). For this example put /dev/sda1 to root in fstab.
말을탄 파일 시스템의 당신의 도메인 0 대신에 파일을 편집해야 하는 것을 잊지 말아라 예를 들면 당신이 /etc/fstab 대신에 /mnt/etc/fstab을 편집할 것 /etc/fstab,/etc/hostname,기타를 편집함으로써 filesystem 파일 시스템을 맞추어 지어라.왜냐하면 이 예가 /dev/sda1에게 fstab의 뿌리를 시키기 때문에.
Now unmount (this is important!):
지금 unmount이어라(이것이 중요한 것)이어라!
# umount /mnt
# umount /mnt
In the configuration file set:
구성 파일 세트에(서):
disk = ['file:/full/path/to/vm1disk,sda1,w']
disk = ['file:/full/path/to/vm1disk,sda1,w']
As the virtual machine writes to its `disk', the sparse file will be filled in and consume more space up to the original 2GB.
가상의 기계가 그것의 디스크에게 편지를 쓸 때 '희박한 파일을 채워 질 것이고 원래의 2GB까지 더 많은 스페이스를 소비할 것이다' .
Note that file-backed VBDs may not be appropriate for backing I/O-intensive domains. File-backed VBDs are known to experience substantial slowdowns under heavy I/O workloads, due to the I/O handling by the loopback block device used to support file-backed VBDs in dom0. Better I/O performance can be achieved by using either LVM-backed VBDs (Section 5.3) or physical devices as VBDs (Section 5.1).
파일 후원한 VBDs이 나/O 집중적인 도메인을 후원하는 것에 적합하지 않을 지도 모른다는 것을 언급해라.파일 후원한 VBDs이 dom0에(서)파일 후원한 VBDs을 지지하는 데 이용된 loopback 블록 장치로 나/O 취급 때문에 나/O 중대한 작업 부하 하에서 기본적인 감속을 경험하는 것으로 알려진다.또한 LVM 후원한 VBDs(5.3 섹션이나 육체적 VBDs와같은 장치나(5.1 섹션))을 사용하는 것이 나/O 더 좋은 퍼포먼스를 얻을 수 있다.
Linux supports a maximum of eight file-backed VBDs across all domains by default. This limit can be statically increased by using the max_loop module parameter if CONFIG_BLK_DEV_LOOP is compiled as a module in the dom0 kernel, or by using the max_loop=n boot option if CONFIG_BLK_DEV_LOOP is compiled directly into the dom0 kernel.
리눅스는 부재중의 모든 도메인을 가로질러 최고 파일 후원한 8 VBDs을 지지한다.statically 이 제한이 만약 CONFIG BLK DEV LOOP이 편집된다면 dom0 중심부의 모듈로서 max loop 모듈 파라미터를 사용함으로써 또는 만약 CONFIG BLK DEV LOOP이 바로 dom0 중심부로 만들어 진다면 max loop=n 부트 옵션을 사용하는 것에 의하여 오를 수 있다.
A particularly appealing solution is to use LVM volumes as backing for domain file-systems since this allows dynamic growing/shrinking of volumes as well as snapshot and other features.
이것이 스냅사진과 다른 특징 뿐만 아니라 볼륨의 동적인 성장/줄어드는 것을 허락하는 이래로 특별히 마음을 끈 솔루션은 뒤로 물러날 때 도메인 파일 시스템을 위해 LVM 볼륨을 사용하는 것이다.
To initialise a partition to support LVM volumes:
LVM 볼륨을 지지할 initialise에(게)분할:
# pvcreate /dev/sda10
# pvcreate /dev/sda10
Create a volume group named `vg' on the physical partition:
'육체적 분할 위에서' vg이라고 명명된 볼륨 그룹을 만들어라:
# vgcreate vg /dev/sda10
# vgcreate vg /dev/sda10
Create a logical volume of size 4GB named `myvmdisk1':
myvmdisk1이라고 명명된 논리적인 많은 사이즈 4GB을 만들어라
# lvcreate -L4096M -n myvmdisk1 vg
# lvcreate -L4096M -n myvmdisk1 vg
You should now see that you have a /dev/vg/myvmdisk1 Make a filesystem, mount it and populate it, e.g.:
지금 당신은 당신이 /dev/vg/myvmdisk1이 filesystem을 만들고 그것에 오르고 예를 들면 그것에 살게 한다는 것을 알아야 한다:
# mkfs -t ext3 /dev/vg/myvmdisk1 # mount /dev/vg/myvmdisk1 /mnt # cp -ax / /mnt # umount /mnt
# mkfs -t ext3 /dev/vg/myvmdisk1 # mount /dev/vg/myvmdisk1 /mnt # cp -ax / /mnt # umount /mnt
Now configure your VM with the following disk configuration:
다음 디스크 구성을 가지고 지금 당신의 VM을 만들어라:
disk = [ 'phy:vg/myvmdisk1,sda1,w' ]
disk = [ 'phy:vg/myvmdisk1,sda1,w' ]
LVM enables you to grow the size of logical volumes, but you'll need to resize the corresponding file system to make use of the new space. Some file systems (e.g. ext3) now support on-line resize. See the LVM manuals for more details.
LVM이 당신을 논리적인 볼륨의 사이즈를 기를 수 있게 하지만 당신이 새로운 사용을 스페이스로 만들 대응한 파일 시스템 resize이야 할 것이다.어떤 것은 지원 온라인으로 resize 지금 시스템(예를 들면 ext3)을 파일로 묶는다.더 많은 디테일을 위한 LVM 매뉴얼을 보아라.
You can also use LVM for creating copy-on-write clones of LVM volumes (known as writable persistent snapshots in LVM terminology). This facility is new in Linux 2.6.8, so isn't as stable as one might hope. In particular, using lots of CoW LVM disks consumes a lot of dom0 memory, and error conditions such as running out of disk space are not handled well. Hopefully this will improve in future.
또한 당신은 LVM 전문용어의 쓸 수 있는 끈기 있는 스냅사진으로서 알려진 LVM 볼륨의 기록 클론 위의 카피를 만들기 위하여 LVM을 사용할 수 있다.이 시설이 리눅스 2.6.8에(서)새롭다.그렇게 하나가 바랄 수 있는 만큼 안정되지 않는다.특히 많은 CoW LVM 디스크를 사용하는 것이 dom0 많은 메모리를 소비하고 디스크 공간이 떨어지 같은 오류 컨디션은 잘 핸들이 없다.Hopefully 이것은 앞으로 좋아 질 것이다.
To create two copy-on-write clone of the above file system you would use the following commands:
상기한 파일 시스템의 기록 클론 위의 2 카피를 만들기 위해 당신은 다음 명령을 사용할 것이다:
# lvcreate -s -L1024M -n myclonedisk1 /dev/vg/myvmdisk1 # lvcreate -s -L1024M -n myclonedisk2 /dev/vg/myvmdisk1
# lvcreate -s -L1024M -n myclonedisk1 /dev/vg/myvmdisk1 # lvcreate -s -L1024M -n myclonedisk2 /dev/vg/myvmdisk1
Each of these can grow to have 1GB of differences from the master volume. You can grow the amount of space for storing the differences using the lvextend command, e.g.:
각 이것들은 마스터 볼륨으로부터 차이의 1GB을 가지고 있게 될 수 있다.당신은 예를 들면 lvextend 명령을 사용하면서 차이를 저장하기 위한 상당량의 스페이스를 기를 수 있다:
# lvextend +100M /dev/vg/myclonedisk1
# lvextend +100M /dev/vg/myclonedisk1
Don't let the `differences volume' ever fill up otherwise LVM gets rather confused. It may be possible to automate the growing process by using dmsetup wait to spot the volume getting full and then issue an lvextend.
'항상' 차이 볼륨'이 만약 그렇지 않으면 LVM up 채우는' 방해'가 꽤 어리둥절하지 않은 것' 해라.완전하게 되고 있는 볼륨을 발견하고 그때 lvextend을 내리기 위해 dmsetup 기다림을 사용함으로써 성장 프로세스를 자동화하는 것은 가능할 수 있다.
In principle, it is possible to continue writing to the volume that has been cloned (the changes will not be visible to the clones), but we wouldn't recommend this: have the cloned volume as a `pristine' file system install that isn't mounted directly by any of the virtual machines.
원칙적으로 그것이 무성생식되었고(체인지가 클론에(게)볼 수 있지 않을 것인 것)볼륨에게 편지를 쓰기를 계속하는 것은 가능하지만 우리가 이것을 추천하지 않을 것이다: '바로 가상의 기계 모두가 오르지 않은 것' 옛날의 '파일 시스템 설치'와 같은 무성생식된 볼륨을 가지고 있어라.
First, populate a root filesystem in a directory on the server machine. This can be on a distinct physical machine, or simply run within a virtual machine on the same node.
처음으로 서버 기계 위의 디렉토리의 filesystem 뿌리에 살아라.이것이 별개의 육체적 기계(위)에 있을 수 있거나 간단히 똑같은 노드 위의 가상의 기계 안에서 달릴 수 있다.
Now configure the NFS server to export this filesystem over the network by adding a line to /etc/exports, for instance:
예를 들어 /etc/exports에 라인을 추가함으로써 네트워크에 관한 이 filesystem을 수출하기 위해 지금 NFS 서버를 만들어라:
/export/vm1root 1.2.3.4/24 (rw,sync,no_root_squash)
/export/vm1root 1.2.3.4/24 (rw,sync,no_root_squash)
Finally, configure the domain to use NFS root. In addition to the normal variables, you should make sure to set the following values in the domain's configuration file:
마침내 NFS 뿌리를 사용하기 위해 도메인을 만들어라.정상적인 변수 외에 당신은 도메인의 환경설정 파일에(서)다음 가치관을 결정하는 것을 확실히 해야 한다:
root = '/dev/nfs' nfs_server = '2.3.4.5' # substitute IP address of server nfs_root = '/path/to/root' # path to root FS on the server
root = '/dev/nfs' nfs_server = '2.3.4.5' # substitute IP address of server nfs_root = '/path/to/root' # path to root FS on the server
The domain will need network access at boot time, so either statically configure an IP address (Using the config variables ip, netmask, gateway, hostname) or enable DHCP ( dhcp='dhcp').
도메인이 부트 시간에 네트워크 액세스가 필요할 것이다.그렇게 또한 statically config ip,netmask 변수,게이트웨이,hostname을 사용하면서 인터넷 프로토콜 주소를 만들 것이다.DHCP(dhcp='dhcp)을 가능하게 할 것이다.
Note that the Linux NFS root implementation is known to have stability problems under high load (this is not a Xen-specific problem), so this configuration may not be appropriate for critical servers.
Linux NFS 뿌리 실행이 안정성 문제 높은 로드 아래를 가지고 있는 것으로 알려지고(이것이 Xen 특정한 문제가 아닌 것)그래서 이 구성이 비판적인 서버에 적합하지 않을 지도 모른다는 것을 언급해라.
The Xen control software includes the xend node control daemon (which must be running), the xm command line tools, and the prototype xensv web interface.
Xen 컨트롤 소프트웨어는 웹 인터페이스 달리고 있어야 하는 xend 노드 컨트롤 악마와 xm 명령 라인 도구와 xensv 원형을 포함한다.
The Xen Daemon (Xend) performs system management functions related to virtual machines. It forms a central point of control for a machine and can be controlled using an HTTP-based protocol. Xend must be running in order to start and manage virtual machines.
Xen 악마(Xend)은 가상의 기계와 관계가 있는 시스템 관리 기능을 한다.그것이 기계를 위해 컨트롤의 중심 포인트를 만들고 HTTP에 기초를 둔 프로토콜을 사용하면서 controlled일 수 있다.가상의 기계를 시작하고 조종하기 위해 Xend은 달리고 있어야 한다.
Xend must be run as root because it needs access to privileged system management functions. A small set of commands may be issued on the xend command line:
그것이 특권을 가진 시스템 관리 기능에 대한 액세스가 필요하기 때문에 Xend이 뿌리로서 밝혀 져야 한다.작은 명령 한 세트가 xend 커맨드라인 위에서 발행될 수 있다:
# xend start # xend start |
start xend, if not already running 벌써 달리 if not xend을 시작해라 |
# xend stop # xend stop |
stop xend if already running 만약 벌써 달린다면 xend을 멈추어라 |
# xend restart # xend restart |
restart xend if running, otherwise start it 만약 달린다면 xend을 재개시켜라,만약 그렇지 않으면 그것을 시작해라 |
# xend status # xend status |
indicates xend status by its return code 그것의 리턴 코드에 의하여 xend 스테이터스를 가리킨다. |
A SysV init script called xend is provided to start xend at boot time. make install installs this script in /etc/init.d. To enable it, you have to make symbolic links in the appropriate runlevel directories or use the chkconfig tool, where available.
xend이라고 불리는 SysV init 스크립트가 부트 시간에 xend을 시작하기 위해 제공된다.메이크 설치는 /etc/init.d에(서)이 스크립트를 설치한다.그것을 가능하게 하기 위해 당신은 사용가능한 곳에 적합한 runlevel 디렉토리나 사용의 상징적인 링크를 chkconfig 도구로 만들어야 한다.
Once xend is running, more sophisticated administration can be done using the xm tool (see Section 6.2) and the experimental Xensv web interface (see Section 6.3).
일단 xend이 달리고 있으면 더 세련된 행정 xm 도구를 사용하면서 끝낼 수 있고(6.2 섹션과 실험적인 Xensv 웹이 상호작용하고(6.3 섹션을 보는 것)것을 볼 수 있는 것)일 수 있다.
As xend runs, events will be logged to /var/log/xend.log and, if the migration assistant daemon (xfrd) has been started, /var/log/xfrd.log. These may be of use for troubleshooting problems.
/var/log/xend.log에(게)만약 이동 보조자 악마(xfrd)이었는지가는다면 xend 런으로서 /var/log/xfrd.log 이벤트를 기록할 것이다.이것들은 문제해결 문제를 위한 사용의 지도 모른다.
The xm tool is the primary tool for managing Xen from the console. The general format of an xm command line is:
xm 도구는 콘솔로부터 Xen을 관리하기 위한 주요한 도구이다.xm 커맨드라인의 일반적인 포맷은 있다:
# xm command [switches] [arguments] [variables]
# xm command [switches] [arguments] [variables]
The available switches and arguments are dependent on the command chosen. The variables may be set using declarations of the form variable=value and command line declarations override any of the values in the configuration file being used, including the standard variables described above and any custom variables (for instance, the xmdefconfig file uses a vmid variable).
사용가능한 스위치와 논법은 선택된 명령에 의존한다.변수가 variable=value 형태의 선언을 사용하면서게 만들어 질 수 있고 명령 라인 선언이 사용되 환경설정 파일의 가치관 모두를 뒤집는다.기준이 된 변수를 포함하는 것이 위에 그리고 any 관습 변수를 묘사했다.(예를 들어 xmdefconfig 파일이 vmid 변수를 사용하는 것)이었다.
The available commands are as follows:
사용가능한 명령은 다음과 같다:
For a detailed overview of switches, arguments and variables to each command try
스위치의 상세한 개관을 위해 논법과 각 명령에 대한 변수는 노력한다.
# xm help command
# xm help command
Xensv is the experimental web control interface for managing a Xen machine. It can be used to perform some (but not yet all) of the management tasks that can be done using the xm tool.
Xensv은 Xen 기계를 조종하는 것을 위해 실험적인 웹 컨트롤 인터페이스이다.그것이 어떤 것을 행하는 데 이용될 수 있지만 xm 도구를 사용하면서 통조림으로 만드는 관리 모든 일을 한다.
It can be started using:
그것일 수 있다이 사용하는 것:
and stopped using:# xensv start
# xensv start
# xensv stop
# xensv stop
By default, Xensv will serve out the web interface on port 8080. This can be changed by editing /usr/lib/python2.3/site-packages/xen/sv/params.py.
부재중의 Xensv은 8080 포트 위의 웹 인터페이스를 분배할 것이다.이것이 /usr/lib/python2.3/site-packages/xen/sv/params.py을 편집하는 것에 의하여 바뀔 수 있다.
Once Xensv is running, the web interface can be used to create and manage running domains.
일단 Xensv이 달리고 있으면 웹 인터페이스가 달리고 있는 도메인을 만들고 관리하는 데 이용될 수 있다.
The following contains the syntax of the domain configuration files and description of how to further specify networking, driver domain and general scheduling behaviour.
지지자는 도메인 구성 파일과 어떻게 네트워킹과 드라이버 도메인과 일반적인 스케줄링 행동을 더욱 더 명시하는지의 설명의 구문을 가지고 있다.
Xen configuration files contain the following standard variables. Unless otherwise stated, configuration items should be enclosed in quotes: see /etc/xen/xmexample1 and /etc/xen/xmexample2 for concrete examples of the syntax.
Xen 환경설정 파일은 다음 기준이 된 변수를 가지고 있다.만약 그렇지 않으면 말하여 지지 않으면 구성 아이템이 인용문에 넣어 져야 한다:구문의 구체적인 예를 위해 /etc/xen/xmexample1와 /etc/xen/xmexample2을 보아라.
vif = [ 'mac=aa:00:00:00:00:11, bridge=xen-br0', 'bridge=xen-br1' ]to assign a MAC address and bridge to the first interface and assign a different bridge to the second interface, leaving xend to choose the MAC address.
vif = [ 'mac=aa:00:00:00:00:11, bridge=xen-br0', 'bridge=xen-br1' ]
disk = [ 'phy:hda1,sda1,r' ]
For additional flexibility, it is also possible to include Python scripting commands in configuration files. An example of this is the xmexample2 file, which uses Python code to handle the vmid variable.
추가된 융통성을 위해 또한 명령의 원고를 쓰고 있는 Python을 환경설정 파일에 포함시키는 것은 가능하다.이것의 예가 vmid 변수를 다루기 위해 Python 코드를 사용하는 xmexample2 파일이다.
For many users, the default installation should work `out of the box'. More complicated network setups, for instance with multiple ethernet interfaces and/or existing bridging setups will require some special configuration.
많은 사용자를 위해 디폴트 설치는 박스로부터 일해야 한다.다중 이더넷 인터페이스 and/or 기존의 다리를 놓고 있는 셋업이있는 실례를 위한 더 복잡한 네트워크 셋업은 몇몇의 특별한 구성을 필요로 할 것이다.
The purpose of this section is to describe the mechanisms provided by xend to allow a flexible configuration for Xen's virtual networking.
이 섹션의 목적은 Xen의 실질적인 네트워킹을 위해 유연한 구성을 허락하기 위해 xend에 의하여 제공된 장치를 묘사하는 것이다.
Each domain network interface is connected to a virtual network interface in dom0 by a point to point link (effectively a `virtual crossover cable'). These devices are named vif
각 도메인 네트워크 인터페이스가 링크(효과적으로 실질적인 교차로 케이블)을 가리키기 위해 포인트에 의하여 dom0의 실질적인 네트워크 인터페이스에 연결된다.이 장치가 vif이라고 명명된다.예를 들면 도메인 1의 첫째 인터페이스를위한 vif1.0,도메인 3의 두 번째 인터페이스를위한 vif3.1.
Traffic on these virtual interfaces is handled in domain 0 using standard Linux mechanisms for bridging, routing, rate limiting, etc. Xend calls on two shell scripts to perform initial configuration of the network and configuration of new virtual interfaces. By default, these scripts configure a single bridge for all the virtual interfaces. Arbitrary routing / bridging configurations can be configured by customising the scripts, as described in the following section.
이 실질적인 인터페이스 위의 교통은 기타 등등 다리를 놓기 위한 기준이 된 리눅스 장치를 사용하면서 도메인에(서)0을 다루고 샅샅이 뒤지고 레이트 한정적이다.Xend은 껍질 스크립트 2 편에게 초기 네트워크의 구성과 새로운 실질적인 인터페이스의 구성을 할 것을 요구한다.부재중의 이 스크립트는 실질적인 인터페이스에도 불구하고 단하나의 다리를 만든다.샅샅이 뒤지고/다리를 놓고 있는 독단적인 구성은 다음 섹션에서 설명한 것처럼 customising에 의하여 스크립트를 만들었이 있을 수 있다.
Xen's virtual networking is configured by two shell scripts (by default network and vif-bridge). These are called automatically by xend when certain events occur, with arguments to the scripts providing further contextual information. These scripts are found by default in /etc/xen/scripts. The names and locations of the scripts can be configured in /etc/xen/xend-config.sxp.
Xen의 실질적인 네트워킹이 껍질 스크립트 2 편에 의하여,디폴트 네트워크와 vif 다리에 의하여 만들어 진다.어떤 이벤트가 더 먼 문맥상 정보를 제공하고 있는 스크립트에 대한 논법을 가지고 일어날 때 자동적으로 xend이 이것들을 부른다.이 스크립트가 부재중의 /etc/xen/scripts에서 발견해 진다.이름과 스크립트의 위치가 /etc/xen/xend-config.sxp에(서)만들어 질 수 있다.
For more complex network setups (e.g. where routing is required or integrate with existing bridges) these scripts may be replaced with customised variants for your site's preferred configuration.
더 복잡한 네트워크 셋업(샅샅이 뒤지는 것이 있는 곳에 예를 들면 다리를 필요로 했거나 존재하는 것을 통합해라)을 위해 이 스크립트가 당신의 사이트의 더 좋아 한 구성을 위해 customised 다른 형태와 교체될 수 있다.
I/O privileges can be assigned to allow a domain to directly access PCI devices itself. This is used to support driver domains.
나/O 특권이 도메인이 바로 그 자체로 PCI 장치에 접근하도록 허락하도록 배정될 수 있다.이것이 드라이버 도메인을 지지하는 데 이용된다.
Setting backend privileges is currently only supported in SXP format config files. To allow a domain to function as a backend for others, somewhere within the vm element of its configuration file must be a backend element of the form (backend (type)) where type may be either netif or blkif, according to the type of virtual device this domain will service.
단지 현재 backend 특권을 놓는 것이 SXP config 포맷에(서)파일 지지해 진다.타입이 이 도메인이 수리할 것인 가상장치 유형의 장치에 따라 또한 netif이나 blkif일 지도 모르는 곳에 도메인이 다른 사람을 위해 backend의 역할을 하도록 허락하기 위해 그것의 환경설정 파일의 vm 요소 안에서 어떤 곳은 형태(backend(타입))의 backend 요소임 에 틀림 없다.
Note that a block backend cannot currently import virtual block devices from other domains, and a network backend cannot import virtual network devices from other domains. Thus (particularly in the case of block backends, which cannot import a virtual block device as their root filesystem), you may need to boot a backend domain from a ramdisk or a network device.
현재 backend 블록이 블록 가상장치 장치를 다른 도메인에서 수입할 수 없고 backend 네트워크가 네트워크 가상장치 장치를 다른 도메인에서 수입할 수 없다는 것을 언급해라.특히 그들의 filesystem 뿌리와 같은 블록 가상장치 장치를 수입할 수 없는 backends 블록의 경우에는 이렇게 당신은 ramdisk으로부터 backend 도메인이나 네트워크 장치를 차야 할 것 이다.
Access to PCI devices may be configured on a per-device basis. Xen will assign the minimal set of hardware privileges to a domain that are required to control its devices. This can be configured in either format of configuration file:
PCI 장치에 대한 액세스가 장치 기준당(위)에 만들어 질 수 있다.Xen은 아주 작은 그것의 장치를 컨트롤해야 하는 도메인에 대한 하드웨어 특권 세트를 할당할 것이다.이것이 환경설정 파일의 어느 포맷에(서)만들어 질 수 있다:
Xen offers a boot time choice between multiple schedulers. To select a scheduler, pass the boot parameter sched=sched_name to Xen, substituting the appropriate scheduler name. Details of the schedulers and their parameters are included below; future versions of the tools will provide a higher-level interface to these tools.
Xen은 다중 schedulers 사이의 부트 시간 선택을 제공한다.적합한 스케쥴러 이름을 대체하면서 스케쥴러를 선택하기 위해 Xen에(게)sched=sched name을 부트 파라미터에게 건네줘라.schedulers와 그들의 파라미터의 디테일이 아래 포함된다;도구의 미래의 버전은 이 도구에 대한 더 높은 레벨 인터페이스를 제공할 것이다.
It is expected that system administrators configure their system to use the scheduler most appropriate to their needs. Currently, the BVT scheduler is the recommended choice.
시스템 관리자가 그들의 필요한 것에 가장 적합한 스케쥴러를 사용하기 위해 그들의 시스템을 만드는 것 그것을 기대한다.현재 BVT 스케쥴러는 추천된 선택이다.
sched=bvt (the default)
sched=bvt(채무 불이행)
BVT provides proportional fair shares of the CPU time. It has been observed to penalise domains that block frequently (e.g. I/O intensive domains), but this can be compensated for by using warping.
BVT은 중앙처리장치 시간의 비례에 따른 정당한 주식을 제공한다.그것이 penalise 도메인에(게)사용함으로써 뒤틀리 빈번하게 나/O 예를 들면 집중적인 도메인을 막아라지만 이것이 보상 받을 수 있다는 것을 알아 졌다.
sched=atropos
sched=atropos
Atropos is a soft real time scheduler. It provides guarantees about absolute shares of the CPU, with a facility for sharing slack CPU time on a best-effort basis. It can provide timeliness guarantees for latency-sensitive domains.
Atropos은 부드러운 스케쥴러 실시간이다.그것은 중앙 처리 장치의 완전한 주식에 대해 보증에게 가장 좋은 노력 기준 위에서 느슨한 중앙처리장치 시간을 함께 나누기 위한 시설을 제공한다.그것은 대기시간 민감한 도메인을위해 시간성 보증을 제공할 수 있다.
Every domain has an associated period and slice. The domain should receive `slice' nanoseconds every `period' nanoseconds. This allows the administrator to configure both the absolute share of the CPU a domain receives and the frequency with which it is scheduled.
모든 도메인은 제휴해 진 시기와 슬라이스를 가지고 있다.도메인은 '매일 시기' 10억 분의 1초 슬라이스 '10억 분의 1초'를 받아야 한다.이것은 예정되 중앙 처리 장치의 도메인이 받는 완전한 주식과 빈도 둘 다을 만들 그것이 관리자를 허락한다.
Note: don't overcommit the CPU when using Atropos (i.e. don't reserve more CPU than is available -- the utilisation should be kept to slightly less than 100% in order to ensure predictable behaviour).
노트:즉 사용가능한 것보다 더 많은 중앙 처리 장치를 남겨 두지 말아라-예측가능한 행동을 확실하게 하기 위해 utilisation이 약간 100% 미만에야 했어라 Atropos을 사용할 때 중앙 처리 장치 overcommit을 하지 말아라.
sched=rrobin
sched=rrobin
The round robin scheduler is included as a simple demonstration of Xen's internal scheduler API. It is not intended for production use.
둥근 스케쥴러 개똥지빠귀가 Xen의 내부 스케쥴러 응용 프로그램 인터페이스의 간단한 입증으로서 포함된다.그것이 생산 사용을 위한 것이 아니다.
This chapter describes the build- and boot-time options which may be used to tailor your Xen system.
이 챕터는 build-와 당신의 Xen 시스템을 맞추어 짓는 데 이용될 수 있는 부트 시간 옵션을 묘사한다.
Xen provides a number of build-time options which should be set as environment variables or passed on make's command-line.
Xen은 환경 변수로서 놓아 져야 하거나 커맨드라인을 메이크의 것 위에서에게 건네준 체격 시간 많은 옵션을 제공한다.
These options are used to configure Xen's behaviour at runtime. They should be appended to Xen's command line, either manually or by editing grub.conf.
이 옵션이 runtime에(서)Xen의 행동을 만드는 데 이용된다.그들이 또한 손으로 grub.conf을 편집함으로써 Xen의 커맨드라인에 첨가해 져야 한다.
In addition, the following options may be specified on the Xen command line. Since domain 0 shares responsibility for booting the platform, Xen will automatically propagate these options to its command line. These options are taken from Linux's command-line syntax with unchanged semantics.
게다가 다음 옵션이 Xen 커맨드라인 위에서 명시해 질 수 있다.도메인 0이 플랫폼을 부팅하기 위한 책임을 함께 나누는 이래로 자동적으로 Xen은 이 옵션 그것의 커맨드라인으로 널리 퍼질 것이다.이 옵션이 변하지 않은 의미론을 가지고 커맨드라인 리눅스의 구문에서 가져와 진다.
In addition to the standard Linux kernel boot options, we support:
기준이 된 리눅스 중심부 부트 옵션 외에 우리는 지지한다:
`xenc0ns=off': disable virtual console xenc0ns=off실질적인 콘솔을 억제해라 |
`xenc0ns=tty': attach console to /dev/tty1 (tty0 at boot-time) xenc0ns=tty콘솔을 /dev/tty1(부트 시간의 tty0)에 붙여라 |
`xenc0ns=ttyS': attach console to /dev/ttyS0 xenc0ns=ttyS콘솔을 /dev/ttyS0에 붙여라 |
Xen has a set of debugging features that can be useful to try and figure out what's going on. Hit 'h' on the serial line (if you specified a baud rate on the Xen command line) or ScrollLock-h on the keyboard to get a list of supported commands.
Xen은 무엇이 계속되는 것을 시용하고 알아내는 것 도움이 될 수 있는 특징의 결함을 없애는 한 세트를 가지고 있다.만약 당신이 Xen 커맨드라인이나 키보드 위의 ScrollLock h 위에서 지지해 진 명령의 목록을 얻기 위해 baud 레이트를 명시했다면 'h'의 연속적인 라인을 쳐라.
If you have a crash you'll likely get a crash dump containing an EIP (PC) which, along with an objdump -d image, can be useful in figuring out what's happened. Debug a Xenlinux image just as you would any other Linux kernel.
충돌이 있다면 아마 당신은 무엇이 발생하 가지고 있는 것을 알아내는 것에(서)objdump -d 이미지와 함께 도움이 될 수 있는 EIP(PC)을 가지고 있는 충돌 덤프를 얻을 것이다.당신이 any 결정했을 때 다른 리눅스 중심부 단지 Xenlinux 이미지의 결함을 없애라.
If you have questions that are not answered by this manual, the sources of information listed below may be of interest to you. Note that bug reports, suggestions and contributions related to the software (or the documentation) should be sent to the Xen developers' mailing list (address below).
이 매뉴얼이 응답하지 않은 질문이 있다면 아래 열거된 정보의 소스는 당신에게 흥미가 있을 수 있다.버그 리포트와 제안과 소프트웨어나 문서화와 관계가 있는 기부가 Xen 개발자 '목록(아래 주소)을 우송하는 것'에 보내져야 한다는 것을 언급해라.
For developers interested in porting operating systems to Xen, the Xen Interface Manual is distributed in the docs/ directory of the Xen source distribution.
운영 체제를 Xen에 포팅하는 것에 관심이 있는 개발자를 위해 Xen 인터페이스 매뉴얼이 Xen 소스 분배의 docs/ 디렉토리에(서)분배된다.
The official Xen web site is found at:
공식적인 Xen 웹사이트를 찾는다:
http://www.cl.cam.ac.uk/netos/xen/
http://www.cl.cam.ac.uk/netos/xen/
This contains links to the latest versions of all on-line documentation (including the lateset version of the FAQ).
이것은 수많은 질문과 답의 lateset 버전을 포함한 온라인 문서화 가운데에서 가장 최근의 버전에 연결된 링크를 가지고 있다.
There are currently four official Xen mailing lists:
현재 4 공식적인 Xen 편지 발송 목록이 있다:
The Debian project provides a tool called debootstrap which allows a base Debian system to be installed into a filesystem without requiring the host system to have any Debian-specific software (such as apt.
Debian 프로젝트는 apt 예를 들면 도구에 기본 Debian 시스템이 호스트 시스템에게 Debian와 관련된 것 모든 소프트웨어를 가지고 있라고 요구하지 않고 filesystem에 심어 지도록 허락하는 불리운 debootstrap을 제공한다.
Here's some info how to install Debian 3.1 (Sarge) for an unprivileged Xen domain:
어떻게 특권이 없는 Xen 도메인을 위해 Debian 3.1(하사관)을 설치하는지 여기 약간의 정보가 있다:
dd if=/dev/zero of=/path/diskimage bs=1024k count=size_in_mbytes dd if=/dev/zero of=/path/swapimage bs=1024k count=size_in_mbytesIf you're going to use this filesystem / disk image only as a `template' for other vm disk images, something like 300 MB should be enough.. (of course it depends what kind of packages you are planning to install to the template)
dd if=/dev/zero of=/path/diskimage bs=1024k count=size_in_mbytes dd if=/dev/zero of=/path/swapimage bs=1024k count=size_in_mbytes
mkfs.ext3 /path/diskimage mkswap /path/swapimage
mkfs.ext3 /path/diskimage mkswap /path/swapimage
mount -o loop /path/diskimage /mnt/disk
mount -o loop /path/diskimage /mnt/disk
Make sure you have debootstrap installed on the host. If you are running Debian sarge (3.1 / testing) or unstable you can install it by running apt-get install debootstrap. Otherwise, it can be downloaded from the Debian project website.
당신이 debootstrap을 호스트 위에서 설치해 지게 되는 것을 확실하게 해라.만약 당신이 Debian 하사관(3.1/테스팅)을 달리거나 변하기 쉽다면 당신은 적합하게 달림으로써 설치에게 debootstrap을 가져다 주어라 그것을 설치할 수 있다.만약 그렇지 않으면 그것이 Debian 웹사이트 프로젝트로부터 다운로드될 수 있다.
debootstrap --arch i386 sarge /mnt/disk \ http://ftp..debian.org/debian
You can use any other Debian http/ftp mirror you want.
당신은 http/ftp 당신이 원하는 다른 어떤 Debian 거울을 사용할 수 있다.
chroot /mnt/disk /bin/bash
chroot /mnt/disk /bin/bash
Edit the following files using vi or nano and make needed changes:
vi이나 nano을 사용하면서 다음 파일을 편집하면 필요하게 바꾸어라:
/etc/hostname /etc/hosts /etc/resolv.conf /etc/network/interfaces /etc/networks
/etc/hostname /etc/hosts /etc/resolv.conf /etc/network/interfaces /etc/networks
Set up access to the services, edit:
서비스,편집에 대한 액세스를 세워라:
/etc/hosts.deny /etc/hosts.allow /etc/inetd.conf
/etc/hosts.deny /etc/hosts.allow /etc/inetd.conf
Add Debian mirror to:
Debian 거울을 추가해라:
/etc/apt/sources.list
/etc/apt/sources.list
Create fstab like this:
이것처럼 fstab을 만들어라:
/dev/sda1 / ext3 errors=remount-ro 0 1 /dev/sda2 none swap sw 0 0 proc /proc proc defaults 0 0
/dev/sda1 / ext3 errors=remount-ro 0 1 /dev/sda2 none swap sw 0 0 proc /proc proc defaults 0 0
Logout
로그아웃
umount /mnt/disk
umount /mnt/disk
Make sure you have the following set up:
당신이 다음 셋업을 가지고 있는 것을 확실하게 해라:
disk = [ 'file:/path/diskimage,sda1,w', 'file:/path/swapimage,sda2,w' ] root = "/dev/sda1 ro"
disk = [ 'file:/path/diskimage,sda1,w', 'file:/path/swapimage,sda2,w' ] root = "/dev/sda1 ro"
xm create -f domain_config_file
xm create -f domain_config_file
Check that the new domain is running:
새로운 도메인이 달리고 있는 것 체크해라:
xm list
xm list
Started domain testdomain2, console on port 9626
Started domain testdomain2, console on port 9626
There you can see the ID of the console: 26. You can also list the consoles with xm consoles (ID is the last two digits of the port number.)
거기에(서)당신은 콘솔의 ID을 볼 수 있다:26.또한 당신이 xm 콘솔을 가지고 콘솔을 기입할 수 있고(ID이 포트 숫자의 마지막 2 숫자인 것)이다.
Attach to the console:
콘솔에는 따라라:
xm console 26
xm console 26
or by telnetting to the port 9626 of localhost (the xm console program works better).
telnetting에 의하여 그렇지 않으면 localhost의 9626을 왼편으로 꺽어라(xm 콘솔 프로그램이 더 잘 수행된 것)이어라.
As a default there's no password for the root.
채무 불이행으로서 뿌리를 위한 패스워드가 없다.
Check that everything looks OK, and the system started without errors. Check that the swap is active, and the network settings are correct.
모든 것이 오케이이 보이고 시스템이 오류 없이 시작된 것 체크해라.교환이 활발하고 네트워크 세팅이 옳은 것 체크해라.
Run /usr/sbin/base-config to set up the Debian settings.
Debian 세팅을 세우기 위해 /usr/sbin/base-config을 달려라.
Set up the password for root using passwd.
passwd을 사용하면서 뿌리를 위한 패스워드를 세워라.
If you need to create new domains, you can just copy the contents of the `template'-image to the new disk images, either by mounting the template and the new image, and using cp -a or tar or by simply copying the image file. Once this is done, modify the image-specific settings (hostname, network settings, etc).
만약 당신이 새로운 도메인을 만들어야 한다면 단지 당신은 '또한 탬플릿과 새로운 이미지에 오르고 cp -a이나 타르를 사용함으로써 또는 간단히 이미지 화일을 카피함으로써 -image' 탬플릿의 내용을 '새로운 디스크 이미지'로 복사할 수 있다.일단 이것을 하면 이미지 특정한 세팅(hostname,네트워크 세팅,기타)을 부분 수정해라.
When using Xen / XenLinux on a standard Linux distribution there are a couple of things to watch out for:
기준이 된 리눅스 분배 위에서 Xen/XenLinux을 사용할 때 두서너 조심할 일이 있다:
Note that, because domains>0 don't have any privileged access at all, certain commands in the default boot sequence will fail e.g. attempts to update the hwclock, change the console font, update the keytable map, start apmd (power management), or gpm (mouse cursor). Either ignore the errors (they should be harmless), or remove them from the startup scripts. Deleting the following links are a good start: S24pcmcia, S09isdn, S17keytable, S26apmd, S85gpm.
domains>0이 모든 특권을 가진 액세스 전혀을 가지고 있지 않기 때문에 디폴트 부트 시퀀스의 어떤 명령이 hwclock을 업데이트할 예를 들면 시도를 실망시킬 것이고 콘솔 폰트를 바꿀 것이고 keytable 지도를 업데이트할 것이고 apmd이나(파워 관리)이나 gpm이나(마우스커서)을 시작할 것이다는 것을 언급해라.또한 오류를 무시해라 그렇지 않으면(그들이 해가 없음에 틀림 없는 것)이어라 그렇지 않으면 시동 스크립트에서 그들을 제거해라.지지자를 지우면서 링크는 좋은 시작이다:S24pcmcia,S09isdn,S17keytable,S26apmd,S85gpm.
If you want to use a single root file system that works cleanly for both domain 0 and unprivileged domains, a useful trick is to use different 'init' run levels. For example, use run level 3 for domain 0, and run level 4 for other domains. This enables different startup scripts to be run in depending on the run level number passed on the kernel command line.
만약 당신이 깨끗이 도메인 0와 특권이 없는 도메인 둘 다을 위해 일하는 단하나의 뿌리 파일 시스템을 사용하고 싶다면 도움이 된 속임수는 다른 'init' 런 레벨을 사용하는 것이다.예를 들면 도메인 0을 위해 런 3 레벨을 사용하면 다른 도메인을 위해 4 레벨을 달려라.이것은 다른 시동 스크립트를 숫자 중심부 커맨드라인을 전하여 진 런 레벨에 따라 뛰어들어 질 수 있게 한다.
If using NFS root files systems mounted either from an external server or from domain0 there are a couple of other gotchas. The default /etc/sysconfig/iptables rules block NFS, so part way through the boot sequence things will suddenly go dead.
만약 NFS 뿌리 파일을 사용한다면 또한 외부의 서버로부터 또는 그 곳 domain0으로부터 오른 시스템은 두서너 다른 gotchas이다.디폴트 /etc/sysconfig/iptables 규칙은 NFS을 막는다 그래서 부트 시퀀스 일을 통한 부분 길이 죽은 갑자기 갈 것이다.
If you're planning on having a separate NFS /usr partition, the RH9 boot scripts don't make life easy - they attempt to mount NFS file systems way to late in the boot process. The easiest way I found to do this was to have a /linuxrc script run ahead of /sbin/init that mounts /usr:
만약 당신이 개별적인 NFS /usr 분할을 갖고 있는 것이 위에서 RH9 부트 스크립트가 생명(삶)을 쉽게 만들지 않는 것을 계획하고 있는다면 그들은 부트 후속으로 늦게 NFS 파일 시스템에 오르려고 한다.내가 이것을 할 찾은 가장 쉬운 길은 /linuxrc 스크립트가 /usr에 오르는 /sbin/init을 앞지르게 하는 것이었다:
#!/bin/bash /sbin/ipconfig lo 127.0.0.1 /sbin/portmap /bin/mount /usr exec /sbin/init "$@" <>/dev/console 2>&1
The one slight complication with the above is that /sbin/portmap is dynamically linked against /usr/lib/libwrap.so.0 Since this is in /usr, it won't work. This can be solved by copying the file (and link) below the /usr mount point, and just let the file be 'covered' when the mount happens.
하나 약간의 문제 위에 이것이 /usr에 있는 이래로 활발하게 /sbin/portmap이 /usr/lib/libwrap.so.0을 거슬러 연결하어 지고 그것이 일하지 않을 것인 것이다.파일과 /usr 산 포인트 아래 링크를 카피함으로써이 이것을 해결해 질 수 있고 단지 파일이 산이 발생할 때 '덮이게 하게 했다.
In some installations, where a shared read-only /usr is being used, it may be desirable to move other large directories over into the read-only /usr. For example, you might replace /bin, /lib and /sbin with links into /usr/root/bin, /usr/root/lib and /usr/root/sbin respectively. This creates other problems for running the /linuxrc script, requiring bash, portmap, mount, ifconfig, and a handful of other shared libraries to be copied below the mount point -- a simple statically-linked C program would solve this problem.
읽기 함께 나눠 진 /usr만이 사용된 곳에 몇몇의 설비에(서)다른 큰 디렉토리 위로 읽기 유일한 /usr으로 이사하는 것은 바람직할 수 있다.예를 들면 당신은 /bin와 /lib와 /sbin을 /usr/root/bin와 /usr/root/lib와 /usr/root/sbin으로 링크와 각각 바꿀 수 있다.이것이 강타,portmap,산,ifconfig을 필요로 하면서 /linuxrc 스크립트를 달리기 위한 다른 문제를 만들고 소량의 다른 사람이 산 포인트의 아래로 카피되기 위해 도서관을 함께 나눴고-statically 연결하어 진 간단한 C 프로그램이 이 문제를 해결할 것이었다.