为了正常的体验网站,请在浏览器设置里面开启Javascript功能!

挂载存储

2017-11-20 18页 doc 364KB 39阅读

用户头像

is_589748

暂无简介

举报
挂载存储挂载存储 挂存储 存储介绍 , 存储分类分析:DAS、NAS、SAN 目前磁盘存储市场上,存储分类(如下表一)根据服务器类型分为:封闭系统的存储和开放系统的存储,封闭系统主要指大型机,AS400等服务器,开放系统指基于包括Windows、UNIX、Linux等操作系统的服务器;开放系统的存储分为:内置存储和外挂存储;开放系统的外挂存储根据连接的方式分为:直连式存储(Direct-Attached Storage,简称DAS)和网络化存储(Fabric-Attached Storage,简称FAS);开放系统的网络化存储...
挂载存储
挂载存储 挂存储 存储介绍 , 存储分类:DAS、NAS、SAN 目前磁盘存储市场上,存储分类(如下表一)根据服务器类型分为:封闭系统的存储和开放系统的存储,封闭系统主要指大型机,AS400等服务器,开放系统指基于包括Windows、UNIX、Linux等操作系统的服务器;开放系统的存储分为:内置存储和外挂存储;开放系统的外挂存储根据连接的方式分为:直连式存储(Direct-Attached Storage,简称DAS)和网络化存储(Fabric-Attached Storage,简称FAS);开放系统的网络化存储根据传输协议又分为:网络接入存储(Network-Attached Storage,简称NAS)和存储区域网络(Storage Area Network,简称SAN)。由于目前绝大部分用户采用的是开放系统,其外挂存储占有目前磁盘存储市场的70%以上,因此本文主要针对开放系统的外挂存储进行论述说明。 表一: 今天的存储解决主要为:直连式存储(DAS)、存储区域网络(SAN)、网络接入存储(NAS)。 如下表二: 开放系统的直连式存储(Direct-Attached Storage,简称DAS)已经有近四十年的使用历史,随着用户数据的不断增长,尤其是数百GB以上时,其在备份、恢复、扩展、灾备等方面的问变得日益困扰系统管理员。 主要问题和不足为: 直连式存储依赖服务器主机操作系统进行数据的IO读写和存储维护管理,数据备份和恢复要求占用服务器主机资源(包括CPU、系统IO等),数据流需要回流主机再到服务器连接着的磁带机(库),数据备份通常占用服务器主机资源20-30%,因此许多企业用户的日常数据备份常常在深夜或业务系统不繁忙时进行,以免影响正常业务系统的运行。直连式存储的数据量越大,备份和恢复的时间就越长,对服务器硬件的依赖性和影响就越大。 直连式存储与服务器主机之间的连接通道通常采用SCSI连接,带宽为10MB/s、20MB/s、40MB/s、80MB/s等,随着服务器CPU的处理能力越来越强,存储硬盘空间越来越大,阵列的硬盘数量越来越多,SCSI通道将会成为IO瓶颈;服务器主机SCSI ID资源有限,能够建立的SCSI通道连接有限。 无论直连式存储还是服务器主机的扩展,从一台服务器扩展为多台服务器组成的群集(Cluster),或存储阵列容量的扩展,都会造成业务系统的停机,从而给企业带来经济损失,对于银行、电信、传媒等行业7×24小时服务的关键业务系统,这是不可接受的。并且直连式存储或服务器主机的升级扩展,只能由原设备厂商提供,往往受原设备厂商限制。 存储区域网络(Storage Area Network,简称SAN)采用光纤通道(Fibre Channel)技术,通过光纤通道交换机连接存储阵列和服务器主机,建立专用于数据存储的区域网络。SAN经过十多年历史的发展,已经相当成熟,成为业界的事实标准(但各个厂商的光纤交换技术不完全相同,其服务器和SAN存储有兼容性的要求)。SAN存储采用的带宽从100MB/s、200MB/s,发展到目前的1Gbps、2Gbps。 网络接入存储(Network-Attached Storage,简称NAS)采用网络(TCP/IP、ATM、FDDI)技术,通过网络交换机连接存储系统和服务器主机,建立专用于数据存储的存储私网。随着IP网络技术的发展,网络接入存储(NAS)技术发生质的飞跃。早期80年代末到90年代初的10Mbps带宽,网络接入存储作为文件服务器存储,性能受带宽影响;后来快速以太网(100Mbps)、VLAN虚网、Trunk(Ethernet Channel) 以太网通道的出现,网络接入存储的读写性能得到改善;1998年千兆以太网(1000Mbps)的出现和投入商用,为网络接入存储(NAS)带来质的变化和市场广泛认可。 由于网络接入存储采用TCP/IP网络进行数据交换,TCP/IP是IT业界的标准协议,不同厂商的产品(服务器、交换机、NAS存储)只要满足协议标准就能够实现互连互通,无兼容性的要求;并且2002年万兆以太网(10000Mbps)的出现和投入商用,存储网络带宽将大大提高NAS存储的性能。 NAS需求旺盛已经成为事实。 首先NAS几乎继承了磁盘列阵的所有优点,可以将设备通过标准的网络拓扑结构连接,摆脱了服务器和异构化构架的桎梏; 其次,在企业数据量飞速膨胀中,SAN、大型磁带库、磁盘柜等产品虽然都是很好的存储解决方案,但他们那高贵的身份和复杂的操作是资金和技术实力有限的中小企业无论如何也不能接受的。 NAS正是满足这种需求的产品,在解决足够的存储和扩展空间的同时,还提供极高的性价比。因此,无论是从适用性还是TCO的角度来说,NAS自然成为多数企业,尤其是大中小企业的最佳选择。 NAS与SAN的分析与比较 针对I/O是整个网络系统效率低下的瓶颈问题,专家们提出了许多种解决。其中抓住症结并经过实践检验为最有效的办法是:将数据从通用的应用服务器中分离出来以简化存储管理。 问题: 图 1 由图1可知原来存在的问题:每个新的应用服务器都要有它自己的存储器。这样造成数据处理复杂,随着应用服务器的不断增加,网络系统效率会急剧下降。 解决办法: 图 2 从图2可看出:将存储器从应用服务器中分离出来,进行集中管理。这就是所说的存储网络(Storage Networks)。 使用存储网络的好处: 统一性:形散神不散,在逻辑上是完全一体的。 实现数据集中管理,因为它们才是企业真正的命脉。 容易扩充,即收缩性很强。 具有容错功能,整个网络无单点故障。 专家们针对这一办法又采取了两种不同的实现手段,即NAS(Network Attached Stor age)网络接入存储和SAN(Storage Area Networks)存储区域网络。 NAS:用户通过TCP/IP协议访问数据,采用业界标准文件共享协议如:NFS、HTTP、CIFS实现共享。 SAN:通过专用光纤通道交换机访问数据,采用SCSI、FC-AL接口。 什么是NAS和SAN的根本不同点, NAS和SAN最本质的不同就是文件管理系统在哪里。如图: 图3 由图3可以看出,SAN结构中,文件管理系统(FS)还是分别在每一个应用服务器上;而NAS则是每个应用服务器通过网络共享协议(如:NFS、CIFS)使用同一个文件管理系统。换句话说:NAS和SAN存储系统的区别是NAS有自己的文件系统管理。 Windows系统下 ISCSI-HBA(IP Small Computer System Interface) , 安装Microsoft iSCSI Initiator 软件,并进行如下配置 图8.11.2-1 图8.11.2-2 图8.11.2-3 图8.11.2-4 , 分区格式化分配的存储空间 图8.11.2-5 图8.11.2-6 图8.11.2-7 图8.11.2-8 注:这里务必转换成mbr基本磁盘,不然会出现重启系统存储无法自动挂载。 图8.11.2-9 图8.11.2-10 图8.11.2-11 图8.11.2-12 图8.11.2-13 图8.11.2-14 图8.11.2-15 FC-HBA(Fibre Channel) 只需要安装FC-HBA(Host Bus Adapter)卡驱动,重启系统,在【磁盘管理】中查看存储能否连上,具体挂载存储过程,请参看【Windows系统下----ISCSI-HBA(IP Small Co mputer System Interface)】。 Linux系统下 ISCSI-HBA(IP Small Computer System Interface) , 安装iscsi-initiator-utils 软件,并进行如下配置 rpm -ivh iscsi-initiator-utils-6.2.0.868-0.18.el5.x86_64.rpm Target IQN(iSCSI Qualified Name) ######启动iscsi客户端服务 service iscsid start service iscsi start ###发现网络存储服务器上的可用目标 iscsiadm -m discovery -t sendtargets -p 192.168.200.249 ###手动登录 iSCSI 目标 iscsiadm -m node -T iqn.2006-01.com.openfiler:linuxyanshi -p 192.168.200.249 –l ###配置自动登录 iscsiadm -m node -T iqn.2006-01.com.openfiler:linuxyanshi -p 192.168.200.249 --op update -n node.startup -v automatic 分区格式化分配的存储空间 [root@oracle ~]# fdisk -l Disk /dev/sda: 85.8 GB, 85899345920 bytes 255 heads, 63 sectors/track, 10443 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sda1 * 1 13 104391 83 Linux /dev/sda2 14 274 2096482+ 82 Linux swap / Solaris /dev/sda3 275 10443 81682492+ 8e Linux LVM Disk /dev/sdb: 5268 MB, 5268045824 bytes 163 heads, 62 sectors/track, 1018 cylinders Units = cylinders of 10106 * 512 = 5174272 bytes Disk /dev/sdb doesn't contain a valid partition table [root@oracle ~]# fdisk /dev/sdb Device contains neither a valid DOS partition table, nor Sun, SGI or OSF disklabel Building a new DOS disklabel. Changes will remain in memory only, until you decide to write them. After that, of course, the previous content won't be recoverable. Warning: invalid flag 0x0000 of partition table 4 will be corrected by w(rite) Command (m for help): m Command action a toggle a bootable flag b edit bsd disklabel c toggle the dos compatibility flag d delete a partition l list known partition types m print this menu n add a new partition o create a new empty DOS partition table p print the partition table q quit without saving changes s create a new empty Sun disklabel t change a partition's system id u change display/entry units v verify the partition table w write table to disk and exit x extra functionality (experts only) Command (m for help): n Command action e extended p primary partition (1-4) p Partition number (1-4): 1 First cylinder (1-1018, default 1): Using default value 1 Last cylinder or +size or +sizeM or +sizeK (1-1018, default 1018): Using default value 1018 Command (m for help): w The partition table has been altered! Calling ioctl() to re-read partition table. Syncing disks. [root@oracle ~]# partprobe Warning: Unable to open /dev/hdc read-write (Read-only file system). /dev/hdc has been opened read-only. [root@oracle ~]# fdisk -l Disk /dev/sda: 85.8 GB, 85899345920 bytes 255 heads, 63 sectors/track, 10443 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Device Boot Start End Blocks Id System /dev/sda1 * 1 13 104391 83 Linux /dev/sda2 14 274 2096482+ 82 Linux swap / Solaris /dev/sda3 275 10443 81682492+ 8e Linux LVM Disk /dev/sdb: 5268 MB, 5268045824 bytes 163 heads, 62 sectors/track, 1018 cylinders Units = cylinders of 10106 * 512 = 5174272 bytes Device Boot Start End Blocks Id System /dev/sdb1 1 1018 5143923 83 Linux [root@oracle ~]# mkfs.ext3 /dev/sdb1 mke2fs 1.39 (29-May-2006) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) 643840 inodes, 1285980 blocks 64299 blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks=1317011456 40 block groups 32768 blocks per group, 32768 fragments per group 16096 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736 Writing inode tables: done Creating journal (32768 blocks): done Writing superblocks and filesystem accounting information: done This filesystem will be automatically checked every 24 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override. [root@oracle ~]# 查看硬盘uuid blkid /dev/sdb1 tune2fs -l /dev/sdb1 创建挂载点 mkdir -p /data mount /dev/sdb1 /data 编辑文件(vi /etc/fstab)使系统启动时自动加载, 添加如下 UUID="2abf6248-1889-438b-977f-9df51cb28375" /data ext3 _netdev 0 0 重启系统,执行以下命令检查存储是否自动挂上 fdisk –l df -lh FC-HBA(Fibre Channel) 只需要安装FC-HBA(Host Bus Adapter)卡驱动,重启系统,执行以下命令看存储能否连接上 fdisk –l 具体挂载过程,请参看【Linux系统下----ISCSI-HBA(IP Small Computer System Interface)】
/
本文档为【挂载存储】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。 本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。 网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。

历史搜索

    清空历史搜索