アクセラと+αな生活
アクセラとα350と共に過ごす気まぐれ日記です。
Firefox ブラウザ無料ダウンロード
2017年05月
≪04月  1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18  19  20  21  22  23  24  25  26  27  28  29  30  31    06月≫
スポンサーサイト
上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。
うちの Ubuntu 君はディスク 20GB のディスクのうち、5~6GB を使用している状況です。
まだまだディスクリソースに余裕があります。

とはいえ、ディスクはいつか枯渇するかもしれません。

枯渇してから、焦ってリソースを追加したくないので、今のうちにディスク拡張の検証をしておきます。
ただディスクを追加するだけではつまらないので、今回は、20GB の2玉のディスクで RAID-1(ミラーリング)構成となってますが、こちらを LVM へ移行して、ディスクを拡張してみましょう。

最も、LVM 構成にするなら、OS インストール時に行うべきで、普通はこんなことをしません。。。


※ディスクの構成変更は高度なディスク操作になり、場合によっては、OS が起動しなくなるリスクがあります。
 作業前には、全体バックアップ(バックアップから正常にリストアが行えることも含めて検証)を行ってください。
 また、全て自己責任で行うようお願いいたします。
 
 高度なディスク操作ですので、不明点などはシステムの管理者に確認して下さい。

 この方法は邪道です、決して真似をしないで下さい。




【ディスク構成】
現在のうちの Ubuntu 君のディスク環境は
 ○/dev/sda
  ・/dev/sda1....「/boot」にマウント
  ・/dev/sda2....SWAP領域
 ○/dev/sdb
  ・/dev/sdb1....RAID-1(/dev/md0) 構成ディスク(EXT4):20GB
 ○/dev/sdc
  ・/dev/sdc1....RAID-1(/dev/md0) 構成ディスク(EXT4):20GB
なっており、RAID-1(/dev/md0、20GB)が「/」ルートパーティションにマウントされています。
この RAID-1(/dev/md0)の使用量が増えて枯渇したと仮定し、10Gのディスクを2玉追加します。

なので、
 ○/dev/sdd
  ・/dev/sdd1....追加分の10G玉
 ○/dev/sdd
  ・/dev/sdd1....追加分の10G玉
が上記に追加となります。

うちの Ubuntu 君は VMware Player の仮想マシンなので、追加のディスクは仮想ディスクとして追加します。
(VMware Player 上のディスク追加手順は割愛します)

今回は、
 ・「/dev/sdb1」と「/dev/sdd1」を PV として、ボリュームグループ「VolGroup00」を作成し、「VolGroup00」から論理ボリューム「LogVol00」を作成
 ・「/dev/sdc1」と「/dev/sdd1」を PV として、ボリュームグループ「VolGroup01」を作成し、「VolGroup01」から論理ボリューム「LogVol01」を作成

して、論理ボリュームである「LogVol00」、「LogVol01」で RAID-1 構成に変更します。

lvm_20100119_006.jpg


もちろん、複数の物理ボリュームから1つのボリュームグループを構成させ、1つのボリュームグループから、複数の論理ボリュームを切り出すこともできます。
この場合だと、1つの物理ボリュームのエクステンドが、複数の論理ボリュームに構成される可能性があります。
この状態で1つの物理ディスクがダウンした場合、複数の論理ボリュームがダウンすることになり、RAID-1 の冗長化が意味を成さなくなります。

ですので、システムの可用性を考慮し、物理ボリュームごとにボリュームグループを構成させる設定とします。

※本来は RAID 構成されたディスク(/dev/md)を LVM 化するのが正当です、LVM 化した LG を RAID 構成している本方法は邪道ですので、まねしないように。。。。



【LVMへの移行】
2玉の RAID-1 構成なので片方のディスクを切り離しても、縮退状態にはなりますが、OS は問題なく稼動します。
この特性を利用して、片方のディスクを RAID から切り離し(縮退状態)、切り離したディスクを LVM に変更し、元の RAID へ復帰させる手順で LVM へ移行を行います。
RAID-1 へ復帰するとディスクの同期が行われるので、同期完了後、別の玉も RAID から切り離してLVM移行、元の RAID へ復帰させ、両玉を LVM へ移行させます。

これで、理論的には2玉とも LVM の構成に変更されるはずですね。


○「/dev/sdb1」の RAID 切り離し
 「システム」-「システム管理」-「ディスク・ユーティリティ」を起動します。
 「ディスク・ユーティリティ」で対象の RAID 構成ディスクを選択し、「取り外し」をクリックします。
 「本当にアレイからコンポーネントを取り外しますか?」という確認メッセージが表示されるので、「コンポーネントの取り外し」をクリックします。
 「認証」メッセージが表示されるので、「パスワード」入力を行い、認証を行います。
 これで、「/dev/sdb1」は RAID から切り離されます。
 「ディスク・ユーティリティ」上、RAID がデグレード状態(縮退状態)であることを確認しておきましょう。
lvm_20100119_001.jpg


○「/dev/sdb1」、「/dev/sdd1」のPV化、VGの作成、LGの作成
 「/dev/sdb1」が RAID から切り離された状態になりました。
 ですので、
  ・「/dev/sdd1」の領域確保(パーティションの作成)
  ・「/dev/sdb1」と「/dev/sdd1」を物理ボリューム(PV)に変更
  ・ボリュームグループ(VG)作成
  ・論理ボリューム(LG)作成
 を行います。

「/dev/sdd1」パーティションの作成
$ sudo fdisk /dev/sdd
デバイスは正常な DOS 領域テーブルも、Sun, SGI や OSF ディスクラベルも
含んでいません
Building a new DOS disklabel with disk identifier 0x1dd4eef0.
Changes will remain in memory only, until you decide to write them.
After that, of course, the previous content won't be recoverable.


このディスクのシリンダ数は 1305 に設定されています。
間違いではないのですが、1024 を超えているため、以下の場合
に問題を生じうる事を確認しましょう:
1) ブート時に実行するソフトウェア (例. バージョンが古い LILO)
2) 別の OS のブートやパーティション作成ソフト
(例. DOS FDISK, OS/2 FDISK)
警告: 領域テーブル 4 の不正なフラグ 0x0000 は w(書き込み)によって
正常になります

コマンド (m でヘルプ): n←新規パーティション作成
コマンドアクション
e 拡張
p 基本領域 (1-4)
p←基本領域として作成
領域番号 (1-4): 1←第一パーティションを指定
最初 シリンダ (1-1305, 初期値 1): 1←第一シリンダ(ディスクの先頭)を指定
Last シリンダ, +シリンダ数 or +size{K,M,G} (1-1305, 初期値 1305):←「Enter」でデフォルトの最終シリンダ(ディスクの末尾)を指定
初期値 1305 を使います

コマンド (m でヘルプ): t←パーティションのシステムIDを変更
選択した領域 1←第一パーティションを指定
16進数コード (L コマンドでコードリスト表示): 8e←Linux LVMである「8e」を指定
領域のシステムタイプを 1 から 8e (Linux LVM) に変更しました

コマンド (m でヘルプ): p←パーティションの表示

ディスク /dev/sdd: 10.7 GB, 10737418240 バイト
ヘッド 255, セクタ 63, シリンダ 1305
Units = シリンダ数 of 16065 * 512 = 8225280 バイト
Disk identifier: 0x1dd4eef0

デバイス ブート 始点 終点 ブロック Id システム
/dev/sdd1 1 1305 10482381 8e Linux LVM
←作成されるパーティション情報

コマンド (m でヘルプ): w←書き込み(指定されたパラメータでのパーティションの作成)
領域テーブルは交換されました!

ioctl() を呼び出して領域テーブルを再読込みします。
ディスクを同期させます。


「/dev/sdb1」、「/dev/sdd1」を PV に変更
$ sudo pvcreate /dev/sdb1
Physical volume "/dev/sdb1" successfully created
$ sudo pvcreate /dev/sdd1
Physical volume "/dev/sdd1" successfully created

PV の確認
$ sudo pvscan
PV /dev/sdb1 lvm2 [19.99 GB]
PV /dev/sdd1 lvm2 [10.00 GB]
Total: 2 [29.99 GB] / in use: 0 [0 ] / in no VG: 2 [29.99 GB]


ボリュームグループ(VolGroup00)の作成
$ sudo vgcreate VolGroup00 /dev/sdb1 /dev/sdd1
Volume group "VolGroup00" successfully created

ボリュームグループ(VolGroup00)の確認
$ sudo vgs
VG #PV #LV #SN Attr VSize VFree
VolGroup00 2 0 0 wz--n- 29.99G 29.99G

論理ボリューム(LogVol00)の作成
$ sudo lvcreate -l 7677 -n LogVol00 VolGroup00
Logical volume "LogVol00" created

「lvcreate -l 7677」はエクステンド数になります。
ここでは、7677エクステンドを新しい論理ボリューム「LogVol00」に割り当てるという意味です。
環境によりディスクサイズはことなりますので、当然、エクステンド数は変更する必要があります。
(エクステンド数が分からない場合、ありえない大きなエクステンドを指定すれば、エラーとなり、指定できる最大のエクステンド数が表示されるので、その値を参考にして下さい)


さて、これで、論路ボリュームができたはずです。
GUI ツールの「論理ディスク管理」で確認してみます。
「論理ディスク管理」のインストールはUbuntu 9.10 へ論理ボリューム管理をセットアップしてみる。を確認して下さい。
lvm_20100119_002.jpg
ちゃんと、できてますねww
「物理ビュー」でボリュームグループ「VolGroup00」は物理ボリューム「sdb1」、「sdd1」で構成されているのが分かります。
「論理ビュー」でボリュームグループ「VolGroup00」は論理ボリューム「LogVol00」へ割り当てられているのが分かります。




普段の運用では使わない「fdisk」、「pvcreate」など、危険なコマンドがたくさん出てますね。
例えば、「fdisk」を使えば、データをキレイに消去できます。。。><;
使い方を誤れば、とんでもないことになるので、このようなコマンドはディスクの初期化時のみで使用し、普段から常用するのは避けましょう!!


さて、長くなってきたので、今回はここまで。
続きます。。。



コメント
この記事へのコメント
URL :
コメント :
パスワード :
管理者にだけ表示を許可する
 
トラックバック
この記事のトラックバックURL
Template designed by アクセラと+αな生活

Powered by .
上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。