<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>raid1 &#8211; richliu&#039;s blog</title>
	<atom:link href="https://blog.richliu.com/tag/raid1/feed/" rel="self" type="application/rss+xml" />
	<link>https://blog.richliu.com</link>
	<description>Linux, 工作, 生活, 家人</description>
	<lastBuildDate>Mon, 18 Jul 2011 03:31:00 +0000</lastBuildDate>
	<language>zh-TW</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.6.2</generator>
	<item>
		<title>ubuntu 遷移到 raid 0 的問題.</title>
		<link>https://blog.richliu.com/2011/07/18/1104/ubuntu-%e9%81%b7%e7%a7%bb%e5%88%b0-raid-0-%e7%9a%84%e5%95%8f%e9%a1%8c/</link>
					<comments>https://blog.richliu.com/2011/07/18/1104/ubuntu-%e9%81%b7%e7%a7%bb%e5%88%b0-raid-0-%e7%9a%84%e5%95%8f%e9%a1%8c/#comments</comments>
		
		<dc:creator><![CDATA[richliu]]></dc:creator>
		<pubDate>Mon, 18 Jul 2011 03:31:00 +0000</pubDate>
				<category><![CDATA[Linux]]></category>
		<category><![CDATA[Ubuntu]]></category>
		<category><![CDATA[mdadm]]></category>
		<category><![CDATA[Raid]]></category>
		<category><![CDATA[raid1]]></category>
		<category><![CDATA[ubuntu]]></category>
		<guid isPermaLink="false">http://blog.richliu.com/?p=1104</guid>

					<description><![CDATA[<p>最近在 compile 程式的時候, 一直出錯, 請同事幫我檢查(因為是他寫的, 要保留車禍現場). 結果發現 [&#8230;]</p>
<p>The post <a rel="nofollow" href="https://blog.richliu.com/2011/07/18/1104/ubuntu-%e9%81%b7%e7%a7%bb%e5%88%b0-raid-0-%e7%9a%84%e5%95%8f%e9%a1%8c/">ubuntu 遷移到 raid 0 的問題.</a> appeared first on <a rel="nofollow" href="https://blog.richliu.com">richliu&#039;s blog</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>最近在 compile 程式的時候, 一直出錯, 請同事幫我檢查(因為是他寫的, 要保留車禍現場).<br />
結果發現是我用了二年的系統碟有點問題, 查了一下 S.M.A.R.T Log, 己經有一堆 sector relocate 和 Error Log. </p>
<p><span id="more-1104"></span></p>
<p>原來只有一顆硬碟, 現在要換就直接要二顆來做 Raid.<br />
不過原來沒有 Raid, 現在要弄有點麻煩<br />
主要還是參考我自己寫的<a href="http://blog.richliu.com/2011/05/16/1078/">Linux Software Raid 系統轉移</a></p>
<p>其中有一些小小的不一樣.<br />
1. 如果是轉移過來的, 記得要先安裝 madm<br />
[BASH]<br />
# apt-get install mdadm<br />
[/BASH]</p>
<p>2. Grub Install<br />
ubuntu 10.04.02 LTS 沒有 grub 這個指令 (可能要安裝), 所以要改用<br />
[BASH]<br />
# grub-install /dev/sda<br />
# grub-install /dev/sdb<br />
[/BASH]<br />
取代之. </p>
<p>3. 請直接用 blkid 抓到的 devid 放在 /etc/fstab 內<br />
接下來的 update-grub 似乎是直接抓 /etc/fstab 內的資訊.<br />
或是有可能是己 mount 的 mdadm 資訊. (因為我都是用光碟片開機再 chroot 測試)</p>
<p>最後要 Update GRUB 和 initramfs, initramfs 這個動作在 install mdadm 的時候也會做.<br />
[BASH]<br />
# update-initramfs -k `uname -r` -c -t<br />
[/BASH]<br />
Update GRUB<br />
[BASH]<br />
# update-grub<br />
[/BASH]</p>
<p>這一篇不算完整, 因為我才成功一次, 並且沒有空進行測試.<br />
若有錯誤, 敬請指教. </p>
<p>P.S1 雖然如此, 不過我資料碟的 RAID 似乎無法自動用 UUID mount. 原因不明.<br />
P.S2 這次有注意到一件事情, 原來 mdadm &#8211;detail /dev/md0 回報的 UUID 和 blkid 回報的 UUID 是不同的, 之前都用 blkid 的 UUID. </p>
<p>The post <a rel="nofollow" href="https://blog.richliu.com/2011/07/18/1104/ubuntu-%e9%81%b7%e7%a7%bb%e5%88%b0-raid-0-%e7%9a%84%e5%95%8f%e9%a1%8c/">ubuntu 遷移到 raid 0 的問題.</a> appeared first on <a rel="nofollow" href="https://blog.richliu.com">richliu&#039;s blog</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.richliu.com/2011/07/18/1104/ubuntu-%e9%81%b7%e7%a7%bb%e5%88%b0-raid-0-%e7%9a%84%e5%95%8f%e9%a1%8c/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>XFS 碰到 &#8220;XFS internal error XFS_WANT_CORRUPTED_RETURN&#8221;</title>
		<link>https://blog.richliu.com/2009/06/01/765/xfs-%e7%a2%b0%e5%88%b0-xfs-internal-error-xfs_want_corrupted_return/</link>
					<comments>https://blog.richliu.com/2009/06/01/765/xfs-%e7%a2%b0%e5%88%b0-xfs-internal-error-xfs_want_corrupted_return/#comments</comments>
		
		<dc:creator><![CDATA[richliu]]></dc:creator>
		<pubDate>Mon, 01 Jun 2009 04:22:33 +0000</pubDate>
				<category><![CDATA[Linux]]></category>
		<category><![CDATA[mdadm]]></category>
		<category><![CDATA[raid1]]></category>
		<category><![CDATA[xfs]]></category>
		<guid isPermaLink="false">http://blog.richliu.com/?p=765</guid>

					<description><![CDATA[<p>前二天，突然之間電腦就上不了網路。重開機之後發現，開機時沒有辦法 Mount Root Disk. 我的 Ro [&#8230;]</p>
<p>The post <a rel="nofollow" href="https://blog.richliu.com/2009/06/01/765/xfs-%e7%a2%b0%e5%88%b0-xfs-internal-error-xfs_want_corrupted_return/">XFS 碰到 &#8220;XFS internal error XFS_WANT_CORRUPTED_RETURN&#8221;</a> appeared first on <a rel="nofollow" href="https://blog.richliu.com">richliu&#039;s blog</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>前二天，突然之間電腦就上不了網路。重開機之後發現，開機時沒有辦法 Mount Root Disk.</p>
<p>我的 Root Disk 是用 Raid1 + XFS 做的, 硬碟的規劃是</p>
<p>md1 : 100M etx3 booting 用<br />
md2: 40G xfs Root File System 用<br />
md3: 4G swap<br />
md4: /home</p>
<p>用 kubuntu 7.04 開機之後, 檢查了一下, 看起來像是 xfs 系統亂掉, 所以就做一次 xfs_repair /dev/md2, 不過要清掉一些 LOG, 所以下的是 xfs_repair -L /dev/md2</p>
<p>第一次重開機是成功的, 但是跑一小時時間會 I/O Error,<br />
所以我又開起來, mount 起來看系統有沒有問題?<br />
檢查的結果是 xfs_repair 之後，所有的程式都沒有問題，看起來就不是 glibc 死掉，感覺像是 xfs 掛了。不過這時候我並沒有證據是 xfs 死掉造成的.</p>
<p>就這樣重覆修修開開, 終於有一次注意到, 開機時死掉的訊息有一段是</p>
<p><strong>&#8220;XFS internal error XFS_WANT_CORRUPTED_RETURN&#8221;</strong></p>
<p>查了一下, 網路上的資料不多(還能被我碰上實在不簡單), 有人說是減少檔案數目就可以, 其他的網頁到是沒有講到解決方案.</p>
<p>我做過減少數量, xfs_check and xfs_repair, 重新 format filesystem 都無效.</p>
<p>最後失望之餘, 改用 ext3, 發現還是 mount 不起來, 這就讓我懷疑了, 到底是那一塊出問題?</p>
<p>後來在檢查 mdadm -D /dev/md2 時, 發現 persistence : no block persistent.<br />
再檢查 mdadm -D /dev/sda2, /dev/sdb2 , 都找不到 raid block, 但是 mdadm -D /dev/md1 雖然是 persistence: no block persistent, 但是 Disk 部份是找得到 Raid 的 Super Block .<br />
這應該就是原因了, 檢查了一下, 重新 create 一次 raid1 device 就沒有問題了.</p>
<p>個人猜想原因可能是 xfs 系統大亂, 影響到 /dev/md1 /dev/md2 /dev/md3 等等 file system,  但是從 raid 的 super block 也被破壞等跡像來看, 可能是 Linux 內 xfs 和 Raid 配合有問題所致. 不過個人急著上線, 所以無法驗証.</p>
<p>我用 xfs + Linux raid 有數年的經驗, 沒有一次像這樣災情這麼嚴重, 前前後後花了將近 8 小時去找出問題並修復, 還好資料並沒有毀損, 不過經歷這次經驗, 以後會對 xfs 有戒心了.</p>
<p>以下是相關修復指令, 備用.</p>
<p>強迫安裝</p>
<p># lftp ftp.twaren.net<br />
&gt;cd ubuntu/pool/main/m/madm<br />
&gt;get mdadm_2.6.3-xxxxx.deb<br />
# dpkg -i &#8211;force-all madm_2.6.3-xxxxxxx.deb</p>
<p>重建 Raid</p>
<p># mdadm &#8211;build /dev/md2 &#8211;level=2 &#8211;raid-devices=2 /dev/sd[ab]2</p>
<p>重新 Create Raid</p>
<p># mdadm &#8211;create /dev/md2 &#8211;level=2 &#8211;raid-devices=2 /dev/sd[ab]2</p>
<p>The post <a rel="nofollow" href="https://blog.richliu.com/2009/06/01/765/xfs-%e7%a2%b0%e5%88%b0-xfs-internal-error-xfs_want_corrupted_return/">XFS 碰到 &#8220;XFS internal error XFS_WANT_CORRUPTED_RETURN&#8221;</a> appeared first on <a rel="nofollow" href="https://blog.richliu.com">richliu&#039;s blog</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.richliu.com/2009/06/01/765/xfs-%e7%a2%b0%e5%88%b0-xfs-internal-error-xfs_want_corrupted_return/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
	</channel>
</rss>
