SSブログ

HDD交換&容量UP(RAID1ユニット) [サーバ]

データを保持したまま大容量のHDDに交換する手順(RAID1ユニット)。


1.前提
 /dev/sdb、/dev/sdc 2台のHDDを使用して/dev/md0としてRAID1(ミラー)アレイが構築されている前提。
2.準備
 RAIDを構成しているHDDより大容量のHDD × 2
3.HDD交換
 ①.交換するHDD(/dev/sdb)をRAIDアレイから削除する。
  #mdadm /dev/md0 --fail /dev/sdb –remove /dev/sdb
 ②.HDDを交換し、起動する。
   すると、/dev/sdbのRAIDユニットがロスト状態になっているハズ。
 ③.「3.RAIDの異常検出からの復旧手順④~⑥」の手順に従ってRAIDアレイの再構築を行う。 
 ④.再構築が正常に完了した事を確認の後、/dev/sdcも同様の手順で交換、再構築を行う。
   これで交換自体は完了。しかし認識する容量は元のRAIDアレイのまま。
   GUIツールの「ディスク」でRAIDアレイを選択すれば容量が確認可能[ひらめき]
4.RAIDアレイサイズの拡張
 ①.アレイサイズを使用可能な最大サイズまで増加させて増加スペースは同期させない。
  #mdadm --grow /dev/md0 -z max --assume-clean
   mdadm: component size of /dev/md0 has been set to 4191232K
 ②.アレイサイズをチェックし拡張されていることを確認。
   GUIツールの「ディスク」でRAIDアレイを選択すれば容量が確認可能[ひらめき]
5.パーティション情報の修正

 ①.GPartedでパーティション情報を修正する。

   「アプリケーション」-「システムツール」-「GParted」を起動。

   hdd_change01.png

 ②.交換したHDDを選択すると、パーティションに警告サインが[ひらめき]

   hdd_change02.png

 ③.「パーティション」-「チェック」を選択する。

   ファイルシステムをチェックして修復する処理が予約される。

   hdd_change03.png

 ④.上記実行アイコンをクリックし保留中の処理を実行。

   hdd_change04.png

 ⑤.チェックが完了するとパーティション情報が修正され、容量が交換後のHDD最大サイズに拡張される。

   無事に交換&容量UP完了[ひらめき]


以上、データを保持したまま大容量のHDDに交換する手順(RAID1ユニット)でした。


nice!(1)  コメント(0) 
共通テーマ:パソコン・インターネット

HDD交換&容量UP(非RAID) [サーバ]

データを保持したまま大容量のHDDに交換する手順(非RAIDユニット)。


1.交換元HDDの内容を ddコマンド で新しいHDDへコピーする。

2.元のHDDを取り外し、そのポートに新しいHDDを取り付ける。

 この状態で起動すると、交換自体は完了。しかし認識する容量は元のHDDのまま。

3.GPartedでパーティション情報を修正する。

 「アプリケーション」-「システムツール」-「GParted」を起動。

hdd_change01.png

4.交換したHDDを選択すると、パーティションに警告サインが[ひらめき]

hdd_change02.png

5.「パーティション」-「チェック」を選択する。

 ファイルシステムをチェックして修復する処理が予約される。

hdd_change03.png

6.上記実行アイコンをクリックし保留中の処理を実行。

hdd_change04.png

7.チェックが完了するとパーティション情報が修正され、容量が交換後のHDD最大サイズに拡張される。

 無事に交換&容量UP完了[ひらめき]


以上、データを保持したまま大容量のHDDに交換する手順(非RAIDユニット)でした。

nice!(1)  コメント(0) 
共通テーマ:パソコン・インターネット

ソフトウェアRAIDの管理 [サーバ]

以前ソフトウェアRAIDをGUI操作で構築する手順を書きましたが、
状態の確認や再構築の方法等を考えるとCUI操作の方が細かく管理できそうなので、
今回はCUI操作でのソフトウェアRAIDの管理について[あせあせ(飛び散る汗)]

1.RAIDアレイの構築

 /dev/sdb、/dev/sdc 2台のHDDを使用してRAID1(ミラー)を構築する

 ①.partedコマンドでRAIDユニットを作成する

 コマンド:parted デバイス

 #parted /dev/sdb           // sdbを使用する
  GNU Parted 3.1
  /dev/sdb を使用
  GNU Parted へようこそ! コマンド一覧を見るには 'help' と入力してください。
  (parted) mklabel gpt         // パーティションテーブルをgptに設定(2TB超えのHDD対応)
  (parted) mkpart primary xfs 0% 100% // xfsファイルシステムで最大容量のパーティションを作成
  (parted) set 1 raid on        // RAIDフラグをセット[ひらめき] 
  (parted) p             // 状態確認
  モデル: ATA VBOX HARDDISK (scsi)
  ディスク /dev/sdb: 1074MB
  セクタサイズ (論理/物理): 512B/512B
  パーティションテーブル: gpt
  ディスクフラグ:

  番号 開始 終了 サイズ ファイルシステム 名前 フラグ
   1 1049kB 1073MB 1072MB primary raid

  (parted) quit            // 終了


 ②.同様にsdcも設定する.


 ③.mdadmコマンドでRAIDアレイをmd0として作成する

 // sdb、sdc2台のHDDでRAIDレベル1(ミラー)アレイmd0を作成
 #mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sd[bc]

 ④.後はGUIでの構築同様<アプリケーション>-<ユーティリティ>-「ディスク」を
  使用し、RAIDアレイを初期化 → マウントすればストレージとして使用可能[るんるん]



2.DAIDの状態確認

 コマンド:cat /proc/mdstat

 ①.RAID構築中の場合
 #cat /proc/mdstat
  Personalities : [raid1]
  md0 : active raid1 sdc[1] sdb[0]
   1047552 blocks super 1.2 [2/2] [UU]
   [==>..................] resync = 14.4% (151936/1047552) finish=0.7min speed=18992K/sec

  unused devices: <none>

 ②.RAID状態正常の場合
 #cat /proc/mdstat
  Personalities : [raid1]
  md0 : active raid1 sdc[1] sdb[0]
    1047552 blocks super 1.2 [2/2] [UU] // [UU]の表示が正常の証[ひらめき]

 ③.RAID状態異常(HDDの異常検出)の場合
 #cat /proc/mdstat
  Personalities : [raid1]
  md0 : active raid1 sdb[0](F) sdc[1]    // dev/sdbの異常を検出 (F) 表示
   1047552 blocks super 1.2 [2/1] [_U]  // // [_U] U → _ 表示に変わる

 ④.RAID状態異常(HDDロスト)の場合
 #cat /proc/mdstat
  Personalities : [raid1]
  md0 : active raid1 sdb[0]        // dev/sdcが認識できない
   1047552 blocks super 1.2 [2/1] [U_]  // [U_] U → _ 表示に変わる



3.RAIDの異常検出からの復旧手順

 1.で構築のRAID構成にて /dev/sdb HDDの異常を検出した想定

 ①.DAIDの状態を確認
 #cat /proc/mdstat
  Personalities : [raid1]
  md0 : active raid1 sdb[0](F) sdc[1]    // dev/sdbの異常を検出 (F) 表示
    1047552 blocks super 1.2 [2/1] [_U]  // // [_U] U → _ 表示に変わる

 ②.障害発生HDDをRAIDアレイから切り離し
 #mdadm --remove /dev/md0 /dev/sdb
  mdadm: hot removed /dev/sdb from /dev/md0

 ③.障害発生HDDを交換する

 ④.1 - ①の手順でRAIDユニット再作成

 ⑤.RAIDアレイ再構築
 #mdadm --manage /dev/md0 --add /dev/sdb
  mdadm: added /dev/sdb

 ⑥.DAIDの状態を確認
 // 再構築中
 #cat /proc/mdstat
  Personalities : [raid1]
  md0 : active raid1 sdb[2] sdc[1]
   1047552 blocks super 1.2 [2/1] [_U]
   [==>..................] recovery = 12.8% (135552/1047552) finish=0.5min speed=27110K/sec

  ↓↓↓

 // 再構築完了
 #cat /proc/mdstat
  Personalities : [raid1]
  md0 : active raid1 sdc[1] sdb[0]
    1047552 blocks super 1.2 [2/2] [UU]



4.その他

 RAIDアレイを削除する
 #mdadm --misc --stop /dev/md0


以上、CUI操作でのソフトウェアRAIDの管理についてでした。
タグ:CentOS7 Raid CUI linux

DLNA機能実装-5- [サーバ]

UMS(Universal Media Server)のバージョンアップ方法について[るんるん]


まず、起動しているUMSを停止する。

# systemctl stop ums


バージョンアップするUMS本体を以下からダウンロード

http://www.universalmediaserver.com/


ファイルを展開しできたUMS-x.x.xフォルダを /optフォルダへ移動する。

# mv ums-x.x.x /opt
(x,x,xはバージョン番号)


/optフォルダのシンボリックリンクumsを解除する。

次に移動したUMS-x.x.xフォルダへのシンボリックリンクをumsとして再作成する。

(シンボリックリンクの操作方法はココを参照。)


旧バージョンumsフォルダのrenderersフォルダを新バージョンumsフォルダへコピーする。
(トランスコード設定をカスタムしている場合、これを忘れると設定が引き継がれません[ひらめき])


UMSを再起動する。

# systemctl start ums


正常に再起動できた事を確認してバージョンアップ完了[exclamation×2]

# systemctl -l status ums
 \u25cf ums.service - Universal Media Server
  Loaded: loaded (/etc/systemd/system/ums.service; enabled; vendor preset: disabled)
  Active: active (running) since \u65e5 2016-10-30 21:16:27 JST; 2s ago
  Main PID: 14566 (java)
  CGroup: /system.slice/ums.service
  \u2514\u250014566 java -Xmx768M -Xss2048k -Dfile.encoding=UTF-8


以上、UMS(Universal Media Server)のバージョンアップについてでした。
タグ:linux CentOS UMS
nice!(0)  コメント(1)  トラックバック(0) 
共通テーマ:日記・雑感

DLNA機能実装-4- [サーバ]

前回UMS(Universal Media Server)のインストールを行ったので、
今回は設定~起動[るんるん]

/etc/UMS.conf を環境に合わせて編集する。

↓デフォルト値から変更したとは以下の通り

server_name = Universal Media Server ← クライアントに表示されるDLNAサーバの名称を指定



公開するフォルダを指定
folders = /mnt/・・・/Video, /mnt/・・・/Music, /mnt/・・・/Pictures


後はサービスを起動して、自動起動設定をする。

# systemctl start ums  ← サービス起動
# systemctl enable ums ← 自動起動登録


クライアントからうまく表示されない時は以下で状態確認

# systemctl -l status ums


以上、UMS(Universal Media Server)の設定~起動でした。
タグ:UMS CentOS linux
nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:日記・雑感

DLNA機能実装-3- [サーバ]

今回はトランスコード機能を持った
UMS(Universal Media Server)をインストールしてみる[るんるん]

まず必要なパッケージをインストール

# yum install http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-2.noarch.rpm

# yum install http://li.nux.ro/download/nux/dextop/el7/x86_64/nux-dextop-release-0-1.el7.nux.noarch.rpm

# yum install mplayer mencoder ffmpeg mediainfo

UMS本体"UMS-5.3.1-Java7.tgz"を以下からダウンロード
http://www.universalmediaserver.com/

ファイルを展開しできたUMS-5.3.1フォルダを /optフォルダへ移動する。
# mv ums-5.3.1 /opt

/opt/ums-5.3.1フォルダのシンボリックリンクを/opt/umsに作成する。
# ln -s /opt/ums-5.3.1 /opt/ums

/etc/umsフォルダを作成しここにUMS.conf WEB.conf をコピーする。
# mkdir /etc/ums
# cp /opt/ums/UMS.conf /opt/ums/WEB.conf /etc/ums

ユーザ”ums”を作成する。
 ホームディレクトリ:/opt/ums
 ログインシェル:/sbin/nologin
# useradd -d /opt/ums -s /sbin/nologin ums

ファイルの所有者を”ums”に変更
 -Rフォルダ全体オプション
# chown -R ums:ums /opt/ums-5.3.1
# chown -R ums:ums /etc/ums

サービス登録用の/etc/systemd/system/ums.serviceを以下の内容で作成

 [Unit]
 Description=Universal Media Server

 [Service]
 Type=simple
 Environment="UMS_PROFILE=/etc/ums/UMS.conf"
 User=ums
 Group=ums
 ExecStart=/opt/ums/UMS.sh

 [Install]
 WantedBy=multi-user.target


以上でインストール自体は完了。
次回、設定 ~ 起動に続く・・・


↓この内容は以下のページで詳しく説明されている。
http://mikeshoup.com/2014/11/30/universal-media-server-on-centos-7/
タグ:UMS CentOS linux
nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:日記・雑感

DLNA機能実装-2- [サーバ]

前回MiniDLNAのインストールを行ったので、
今回は設定~起動[exclamation]

/etc/minidlna.conf を環境に合わせて編集する。

↓デフォルト値から変更したとは以下の通り

user=minidlna ← 実行ユーザを指定する



公開するフォルダを指定
media_dir=A,/mnt/・・・/Music  ←先頭に"A,"を付けてフォルダを指定すると音楽フォルダ
media_dir=V,/mnt/・・・/Video  ←先頭に"V,"を付けてフォルダを指定するとムービーフォルダ
media_dir=P,/mnt/・・・/Pictures ←先頭に"P,"を付けてフォルダを指定すると画像フォルダ
[ひらめき]先頭のA,V,P指定をしないと無指定
[ひらめき]画像フォルダはなぜか"Pictures"の名称でないとうまく公開されない[たらーっ(汗)]我が家の環境だけ[exclamation&question]
[ひらめき]配信したいフォルダが複数ある場合はシンボリックリンクを使用して1つのフォルダにまとめておき、これを公開すると管理が楽[るんるん]



friendly_name=MiniDLNA Server ← クライアントに表示されるDLNAサーバの名称を指定



db_dir=/mnt/・・・/Cache/MiniDLNA ← MiniDLNAが管理する公開ファイルのデータベースファイルの保存先を指定


後はサービスを起動して、自動起動設定をする。

# systemctl start minidlna  ← サービス起動
# systemctl enable minidlna ← 自動起動登録


クライアントからうまく表示されない時は以下で状態確認

# systemctl -l status minidlna


以上、MiniDLNAの設定~起動でした。

データベースの強制更新


nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:日記・雑感

DLNA機能実装-1- [サーバ]

テレビでサーバ内の写真などが見られるようにDLNA機能を実装する。

インストールするのは"MiniDLNA"というDLNAサーバ[exclamation×2]
(詳しく無いんだけど有名[exclamation&question])


↓手順は以下で公開されている"Nux Dextop"リポジトリを追加し、yum インストールする。
http://li.nux.ro/repos.html


端末より

必要なパッケージのインストール
# yum install epel-release

リポジトリの追加
# rpm -Uvh http://li.nux.ro/download/nux/dextop/el7/x86_64/nux-dextop-release-0-5.el7.nux.noarch.rpm

MiniDLNAをインストール
# yum install minidlna

以上でインストール自体は完了。
yumインストールできるととても簡単だ[るんるん]


次回、設定 ~ 起動に続く・・・
nice!(0)  コメント(0)  トラックバック(0) 
共通テーマ:日記・雑感

ソフトウェアRAIDをGUI操作で構築する [サーバ]

HDDのトラブルからファイル共有のデータを保護するために
ソフトウェアRAID(ミラー)を構築する。
しかもGUI操作で[るんるん](ココ重要[exclamation×2])

[準備]
今回はRAID1(ミラーリング)での構築を行うので、同容量のHDDを2個準備しPCに接続する。
[ひらめき]SATA接続の場合、HDDは”/dev/sdb”、"/dev/sdc”のように認識する筈であるが、
実際のHDDのどちらに該当するか調べておく事。障害発生時にどっちのHDDを交換すれば良いか解らなくなる[あせあせ(飛び散る汗)]


[ここからRAID構築]

<アプリケーション>-<ユーティリティ>-「ディスク」を起動する。


「デバイス」右横のチェックボタンをクリックする。
RAID01.png

RAIDを構築するHDDをにチェックを付けて「RAIDを作成」をクリックする。
RAID02.png

RAIDレベルで「RAID1(ミラーリング)」を選択し、名前を付けて「作成」をクリックする。
RAID03.png

構成内容を確認し、「作成」をクリックする。
RAID04.png

デバイス欄に先に名前を付けた内容でRAIDアレイが作成できている筈[exclamation]
RAID05.png

「設定」アイコンから「初期化」を選択する。
RAID06.png

ファイルシステム、名前を設定し「初期化」をクリックする。
RAID07.png

内容を確認し「初期化」を実行する。
RAID08.png

「設定」アイコンから「マウントオプションの編集」を選択する。
RAID09.png

「起動時にマウントする」にチェックを付け、マウントオプションでマウント先を指定する。
RAID10.png
「OK」をクリックするとマウントされる。

無事マウント完了[手(チョキ)] 再起動しても自動マウントされ、RAIDドライブと言っても普通のHDDと同様に利用できる。
RAID11.png


以上、ソフトウェアRAIDをGUI操作で構築するでした。
タグ:Raid CentOS7 linux GUI

VNC Server 接続不具合 [サーバ]

突然VNCサーバに接続できなくなり、状況調査と修復を行う[あせあせ(飛び散る汗)]


まず、サービスの状態を確認してみるとサービスの起動に失敗している模様[バッド(下向き矢印)]

# systemctl status vncserver@:1.service
 vncserver@:1.service - Remote desktop service (VNC)
  Loaded: loaded (/etc/systemd/system/vncserver@:1.service; enabled)
  Active: failed (Result: exit-code) since ? 2015-06-29 21:38:21 JST; 8min ago
 Process: 962 ExecStart=/sbin/runuser -l testuser1 -c /usr/bin/vncserver %i (code=exited, status=2)
 Process: 947 ExecStartPre=/bin/sh -c /usr/bin/vncserver -kill %i > /dev/null 2>&1 || : (code=exited, status=0/SUCCESS)

 6月 29 21:38:21 XXXXX.test-ad.local runuser[962]: A VNC server is already...
 6月 29 21:38:21 XXXXX.test-ad.local systemd[1]: vncserver@:1.service: con... ← サービスの起動に失敗している
 6月 29 21:38:21 XXXXX.test-ad.local systemd[1]: Failed to start Remote de...
 6月 29 21:38:21 XXXXX.test-ad.local systemd[1]: Unit vncserver@:1.service...
 Hint: Some lines were ellipsized, use -l to show in full.


次にVNCサーバを起動してみると、既に起動しているとか・・・[たらーっ(汗)]
でも、サーバが無いようなら/tmp/.X11-unix/X1を削除しなさいとか言っている[exclamation&question]

# vncserver :1
 Warning: XXXXX.test-ad.local:1 is taken because of /tmp/.X11-unix/X1
 Remove this file if there is no X server XXXXX.test-ad.local:1
 A VNC server is already running as :1


サーバに繋がらないんだから/tmp/.X11-unix/X1を削除する[るんるん]

# rm /tmp/.X11-unix/X1
 rm: ソケット `/tmp/.X11-unix/X1' を削除しますか? ← yを入力
 新しいメールが /var/spool/mail/root にあります


再度VNCサーバを起動してみると無事に起動[るんるん][るんるん]

# vncserver :1
 New 'XXXXX.test-ad.local:1 (root)' desktop is XXXXX.test-ad.local:1
 Starting applications specified in /root/.vnc/xstartup
 Log file is /root/.vnc/XXXXX.test-ad.local:1.log


サービスとしての起動も問題無し[exclamation×2]

以上、VNC Server 接続不具合からの復旧でした。
タグ:linux VNC CentOS
nice!(1)  コメント(0)  トラックバック(0) 
共通テーマ:日記・雑感
Google Play で手に入れよう

この広告は前回の更新から一定期間経過したブログに表示されています。更新すると自動で解除されます。