linux怎么分扩展分区(linux如何扩展分区)

纸扎戏偶

今天给各位分享linux怎么分扩展分区的知识,其中也会对linux如何扩展分区进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

本文目录一览:

  • 1、安装linux系统,硬盘如何分区
  • 2、linux分区满了,如何进行扩容?
  • 3、linux怎么创建扩展分区
  • 4、linux如何扩展主分区
  • 5、如何给 linux 操作系统分区

1、安装linux系统,硬盘如何分区

一般分这四个区就可以了:

1、/swap 逻辑分区 swap分区 大小为内存为8G(挂载点:交换空间,相当于windows中的内存条)

2、/ 主分区 ext4格式 大小为120~150G(挂载点:EXT4日志文件系统,根目录,相当于windows中的c盘)

3、/boot 逻辑分区 大小为500M~1G(挂载点:EXT4日志文件系统,启动引导项,存放系统启动时所需的文件)

4、/home 逻辑分区 相当于我的文档 大小为剩余大小(挂载点:EXT4日志文件系统,用户工作目录,相当于windows下除c盘的其它盘) 更多Linux介绍可查看《Linux就该这么学》。

2、linux分区满了,如何进行扩容?

有两种方法实现对linux分区的扩容。第一种方式是软链接(符号链接)。举个例子来说明下软链接,假如你的/b目录满了,不能存储文件。这时你把/a目录链接到/b目录,你在访问/b目录时实际是访问/a目录里面的空间。

软链接的创建方式为:“

ln

-s

目录a

目录b/文件夹c”。意思是在目录b下创建一个文件夹名为c的软链接,链接地址是目录a。在向目录b下文件夹c存放文件时,实际存放位置是目录a。

软链接的方式可以在不改变数据的情况下通过链接到另外的空间解决了容量不足的问题,但是如果硬盘空间本身不足,那么就要用另外的解决方案了——增加磁盘。在扩容磁盘前需要将容量已满的/b目录中的数据拷贝到其他位置。此种方式能从根本上解决磁盘容量不足的问题。

假设新增的磁盘为xvdb1,首先对磁盘分区,具体方法参考网上教程分区完成后制作文件系统(顺序不可乱)。完成后先将原先目录已满的/b从原挂载点卸载,例如:umount

/dev/xvda1

/b。卸载掉挂载在/b目录下的分区xvda1。重新将新增的分区挂载到/b:mount

/dev/xvdb1

/b。将/etc/fstab内加入新挂载的分区和挂载点,这一点非常重要,否则重启后分区会丢失。至此,原来已满的/b被重新挂载到了新的硬盘分区,然后将原来备份的文件拷贝回来就可以了。

3、linux怎么创建扩展分区

比如给sdb硬盘扩展分区:(前提硬盘小于2T)

fdisk /dev/sdb

n

p

1(如果已经有了sdb1 就可以写个2)

回车

+(你要的分区大小)比如+10G

w(保存退出)

4、linux如何扩展主分区

这里以Red hat AS4 为例。当磁盘分区发现不够用时,能想道的第一个做法就是增加分区大小。但是一般Linux如果没有采用逻辑卷管理,则动态增加分区大小很困难,一个能想道的办法就是,备份分区文件系统数据,删除分区,然后再重新创建分区,恢复备份的文件系统,这个做法比较玄,可能删除分区后导致系统无法启动。

第二个做法就是,创建一个新的逻辑分区(当然必须有未使用的磁盘空间能分配),将文件系统从老分区拷贝到新分区,然后修改fstab,使用新分区/文件系统替换老的分区/文件系统

第三种做法是,创建一个新的逻辑分区,将新的逻辑分区格式化ext3(或其他类型)的文件系统,mount到磁盘空间不够的文件系统,就跟原来的分区/文件系统一样的使用。

这里采用的是第三种方式:

sdb为第二个SCSI硬盘。

[root@hdp0 hadoop]# /sbin/fdisk /dev/sdb

The number of cylinders for this disk is set to 8942.

There is nothing wrong with that, but this is larger than 1024,

and could in certain setups cause problems with:

1) software that runs at boot time (e.g., old versions of LILO)

2) booting and partitioning software from other OSs

(e.g., DOS FDISK, OS/2 FDISK)

Command (m for help): p

Disk /dev/sdb: 73.5 GB, 73557090304 bytes

255 heads, 63 sectors/track, 8942 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System

/dev/sdb1 * 1 130 1044193+ 83 Linux

/dev/sdb2 131 391 2096482+ 82 Linux swap

/dev/sdb3 392 521 1044225 83 Linux

/dev/sdb4 522 8942 67641682+ 5 Extended

/dev/sdb5 522 586 522081 83 Linux

/dev/sdb6 587 651 522081 83 Linux

/dev/sdb7 652 1173 4192933+ 83 Linux

可以看出sdb1,2,3为主分区,sdb4为扩展分区。后面的sdb5,6,7则为逻辑分区。柱面编号(Start,End)是连续的,sdb7只用道了1173,而从扩展分区看最大到8942,也就是说,还有7769个柱面是空闲的,一个柱面大小为8225280,约为8M大小。还剩7769*8225280bytes,约62G未使用。

新增加一个逻辑分区(注:若涉及到主分区和扩展分区,实际情况可能比这个复杂,这里4个主分区(包括扩展分区)都分过了,所以只能分逻辑分区)

Command (m for help): n

First cylinder (1174-8942, default 1174):

Using default value 1174

增加大小为10G

Last cylinder or +size or +sizeM or +sizeK (1174-8942, default 8942): +10240M

增加后看一下,多了一个逻辑分区/dev/sdb8

Command (m for help): p

Disk /dev/sdb: 73.5 GB, 73557090304 bytes

255 heads, 63 sectors/track, 8942 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Device Boot Start End Blocks Id System

/dev/sdb1 * 1 130 1044193+ 83 Linux

/dev/sdb2 131 391 2096482+ 82 Linux swap

/dev/sdb3 392 521 1044225 83 Linux

/dev/sdb4 522 8942 67641682+ 5 Extended

/dev/sdb5 522 586 522081 83 Linux

/dev/sdb6 587 651 522081 83 Linux

/dev/sdb7 652 1173 4192933+ 83 Linux

/dev/sdb8 1174 2419 10008463+ 83 Linux

可以看到,增加了一个sdb8的分区,柱面号从1174到2419.

写入分区表,执行分区操作

Command (m for help): w

The partition table has been altered!

Calling ioctl() to re-read partition table.

WARNING: Re-reading the partition table failed with error 16: 设备或资源忙.

The kernel still uses the old table.

The new table will be used at the next reboot.

Syncing disks.

分区完后,是看不到文件系统的

[root@hdp0 hadoop]# df -m

Filesystem 1M-块 已用 可用 已用% 挂载点

/dev/sdb1 1004 582 372 62% /

none 1014 0 1014 0% /dev/shm

/dev/sdb3 1004 807 147 85% /home

/dev/sdb5 494 11 458 3% /opt

/dev/sdb7 4031 3272 554 86% /usr

/dev/sdb6 494 87 382 19% /var

重启机器

reboot

格式化文件系统

[root@hdp0 hadoop]#/sbin/mkfs.ext3 /dev/sdb8

mount文件系统,/home/develop 为/home下一目录

[root@hdp0 hadoop]#mount /dev/sdb8 /home/develop

查看文件系统,可以看到新建立的分区/文件系统已经挂载上,能够使用了。

[root@hdp0 hadoop]# df -m

Filesystem 1M-块 已用 可用 已用% 挂载点

/dev/sdb1 1004 582 372 62% /

none 1014 0 1014 0% /dev/shm

/dev/sdb3 1004 807 147 85% /home

/dev/sdb5 494 11 458 3% /opt

/dev/sdb7 4031 3272 554 86% /usr

/dev/sdb6 494 87 382 19% /var

/dev/sdb8 9621 54 9079 1% /home/develop

5、如何给 linux 操作系统分区

1、磁盘分区格式说明

linux分区不同于windows,linux下硬盘设备名为(IDE硬盘为hdx(x为从a—d)因为IDE硬盘最多四个,SCSI,SATA,USB硬盘为sdx(x为a—z)),硬盘主分区最多为4个,不用说大家也知道…..所以主分区从sdb1开始到sdb4,逻辑

分区从sdb5开始,(逻辑分区永远从sdb5开始…)设备名可以使用fdisk –l查看。

2、分区详解

使用ssh远程连接工具登录到系统,使用fdisk -l命令查看磁盘状态。

此处可以看到两块硬盘hda和hdb,第一块硬盘hda是装好系统的。hdb硬盘是未进行分区的。

本例将这个10G的硬盘分区,分区计划:分一个主分区 ,大小3G,文件格式ext3。三个逻辑分区,大小分别为2G,2G,3G。实际分区个数和大小可论情况所定。

下面就是分区的详细步骤,由于是每一步都进行了截图和说明,内容略显复杂,其实很简单。

输入 fdisk /dev/hdb 然后回车,给硬盘进行分区。如下图:

输入n回车新建分区,接着再输入p回车新建主分区,如图:

此处要求选择分区号在1-4间,输入1回车

First cylinder (1-20805, default 1):这里是设置分区起始的柱面,直接回车选择默认即可,回车后如下图:

Last cylinder or +size or +sizeM or +sizeK (1-20805, default 20805):此处是设置分区结束柱面,+3G表示从起始柱面开始向后3G结束,也是是设置分区大小为3G,输入+3G后回车,如下图所示:

此处可输入p查看分区是否成功,输入p回车,如下图:显示分区成功

接下来我们就划分扩展分区,按n回车

这里输入e,表示创建扩展分区,输入e回车

输入分区号2回车

此处直接按回车键,表示选择默认

此处也是直接回车选择默认,表示将划分第一个主分区后的磁盘全部划分个这个逻辑分区

此处可在此输入命令p查看当前分区状态,如下图

此处就开始划分扩展分区hdb2下的逻辑分区吧!接着上图,输入命令n回车

此处输入l表示选择创建逻辑分区,输入l回车

此处直接使用回车,表示选择默认

此处输入+2G,表示划分分区大小为2G,输入+2G回车

此处要按计划再划分出两个逻辑空间,输入n回车,然后输入l回车选择逻辑分区,然后直接回车选择默认起始柱面,输入+2G回车设置分区大小

下面就要将扩展分区的磁盘大小全部分给最后一个逻辑分区,输入n回车,然后输入l选择逻辑分区,然后直接回车选择默认起始柱面,最后不设置磁盘大小直接回车

再次输入p查看当前分区状态

划分的空间与我们计划划分相同,最后输入w回车,进行保存退出。

再次使用fdisk -l命令就可以查看到磁盘hdb已经分区成功。

磁盘划分成功,下面就要对分区进行格式化了

使用命令 mkfs -t ext3 /dev/hdb1

mkfs -t ext3 /dev/hdb5

mkfs -t ext3 /dev/hdb6

mkfs -t ext3 /dev/hdb7

分别对磁盘进行格式化处理,格式化为ext3文件类型。

linux怎么分扩展分区的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于linux如何扩展分区、linux怎么分扩展分区的信息别忘了在本站进行查找喔。

文章版权声明:除非注明,否则均为我爱教程术原创文章,转载或复制请以超链接形式并注明出处。