linux 製作大容量文檔解決容量過大的問題

 

如果當初在分割時, 你叧有分割出一個根目錄,假設你已經沒有多餘的容量可以迚行額外的分割槽!偏偏根目彔癿容量還很大! 此時你就能夠製作出一個大檔案,然後將這個檔案掛載。這樣就解決了資源浪費的問題。
首先,我們要使用linux命令dd建立一個大文件
[root@localhost hgfs]# dd if=/dev/zero of=/root/loopdev bs=1M count=2800
2800+0 records in
2800+0 records out
2936012800 bytes (2.9 GB) copied, 16.7081 seconds, 176 MB/s
# if 是 input file ,輸入檔案。那個 /dev/zero 是會一直輸出 0 癿裝置!
# of 是 output file ,將一堆零寫入到後面接癿檔案中。
# bs 是每個 block 大小,就像文件系統那樣的 block 意思;
# count 則是總共幾個 bs 的意忠。
 
然後將這個文檔格式化
[root@localhost hgfs]# mkfs -t ext3 /root/loopdev
mke2fs 1.39 (29-May-2006)
/root/loopdev is not a block special device.
Proceed anyway? (y,n) y
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
359040 inodes, 716800 blocks
35840 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=734003200
22 block groups
32768 blocks per group, 32768 fragments per group
16320 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912
 
Writing inode tables: done                           
Creating journal (16384 blocks): done
Writing superblocks and filesystem accounting information: done
 
This filesystem will be automatically checked every 36 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
將文檔掛在起來就可以使用了
[root@localhost hgfs]# mount -o loop /root/loopdev /media/cdrom/
[root@localhost hgfs]# ls /media/cdrom/
lost+found
測試是否可以使用
[root@localhost hgfs]# cd /media/cdrom/
[root@localhost cdrom]# ls
lost+found
[root@localhost cdrom]# mkdir aaa cc dd
[root@localhost cdrom]# ls
aaa cc dd lost+found
[root@localhost cdrom]#
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章