为了正常的体验网站,请在浏览器设置里面开启Javascript功能!

笔记本硬件参数详解大全

2017-10-13 50页 doc 739KB 38阅读

用户头像

is_266065

暂无简介

举报
笔记本硬件参数详解大全笔记本硬件参数详解大全 屏幕比例 概述 我们一般把屏幕宽度和高度的比例称为长宽比(Aspect Ratio,也称为纵横比或者就叫做屏幕比例),宽屏的特点就是屏幕的宽度明显超过高度。目前标准的屏幕比例一般有4:3和16:9两种,不过16:9也有几个“变种”,比如15:9和16:10,由于其比例和16:9比较接近,因此这三种屏幕比例的液晶显示器都可以称为宽屏。此外,如果还有比较特殊的比例,例如24:9,当然也算宽屏。 发展 从19世纪末期一直到20世纪50年代,几乎所有电影的画面比例都是标准的1.33:1(准确地说是1...
笔记本硬件参数详解大全
笔记本硬件参数详解大全 屏幕比例 概述 我们一般把屏幕宽度和高度的比例称为长宽比(Aspect Ratio,也称为纵横比或者就叫做屏幕比例),宽屏的特点就是屏幕的宽度明显超过高度。目前的屏幕比例一般有4:3和16:9两种,不过16:9也有几个“变种”,比如15:9和16:10,由于其比例和16:9比较接近,因此这三种屏幕比例的液晶显示器都可以称为宽屏。此外,如果还有比较特殊的比例,例如24:9,当然也算宽屏。 发展 从19世纪末期一直到20世纪50年代,几乎所有电影的画面比例都是标准的1.33:1(准确地说是1.37:1,但作为标准来说统称为1.33:1)。也就是说,电影画面的宽度是高度的1.33倍。这种比例有时也表达为4:3,就是说宽度为4个单位,高度为3个单位,目前我们所接收到的电视节目都是这样的比例。由于这样的传统,所以液晶显示器的屏幕比例目前也还以4:3为主。 然而现在真正的电影一般都是宽银幕的,将宽银幕的电影转换为4:3总会造成画面质量、形状或者内容的损失。而今计算机的功能已不只是文书及上网了,在越来越经常的观赏电影节目时、在越来越多的各种数码产品采用了16:9的比例作为表现时,为了在计算机上更好的收看影视,宽屏的液晶显示器出现了。并且由于未来的高清晰电视主要会使用16:9的比例,因此目前越来越多的液晶显示器采用了宽屏的比例。宽屏的比例更接近黄金分割比,也更适合人的眼睛,在观看影片时给人的感受也更舒服。此外针对办公应用或是行业应用,宽屏产品可以在一个屏幕内显示两个完整的Web页面或是平铺更多的窗口,能够有效的提高办公效率。在数字图像处理和多媒体编辑等工作中,宽屏更具优势,较宽的观看视角,适合商务人士 展示商业#设计#,是办公的较佳选择。甚至目前的越来越多的游戏也开始支持宽屏显示,归根结底,宽屏更适合人眼睛的视觉特性。 笔记本主流屏幕比例为16:9和16:10,前者分辨率大多为1366*768,后者为1280*800。 笔记本宽屏的流行是为了迎合移动影音消费者的需求,2006年对于华硕、三星、LG等全球知名厂商来说都是具有一定意义一年,尤其是年初曾被人定义为“宽屏元年”,因此引领了整个06年的潮流,那就是16:10的屏幕比例宽屏开始将应用到桌面液晶显示器领域,因此这一年很多厂商也纷纷推出了宽屏产品,宽屏产品在这一年也成为全世界的主流产品,如华硕旗下的19寸宽屏PW191。 16:9比例显示器 19寸的16:10宽屏液晶显示器的液晶显示器一般拥有1680*1050,随着720P、1080P等格式的高清电影的流行,16:10的屏幕比例在播放这些格式的影片时,还是有黑边留下,所以,从2009年开始,还是从笔记本屏幕开始,主流液晶显示器的屏幕比例开始向16:9发展,分辨率也开始使用1600*900和更大的1920*1080。一时间呈现出16:9屏幕与16:10分食江山的场面。 加上上游液晶面板生产商在改善生产工艺后,16:9的屏幕更加符合切割工艺,因此2010年将会成为16:9比例液晶屏幕的“普及年”。 记忆效应 镍镉电池的记忆效应与镍氢电池的惰性效应之 记忆效应是电池因为使用而使电池内容物产生结晶的一种效应.一般只会发生在镍镉电池,镍氢电池较少,锂电池则无此现象。发生的原因是由于电池重复的部分充电与放电不完全所致.会使电池暂时性的容量减小,导致通话时间缩短. 概念 应将电池使用到没电再充电,或在有放电功能的充电器上先行放电。切勿将还有电的电池重复充电,以避免记忆效应的产生.要将电池完全放电必须将电池待机放置约24小时,完全放电后,再充饱电,如此多次循环,即可恢复电池容量,除非电池已损坏.然而要避免此一现象产生,还是建议消费者选择镍氢电池或锂电池. 电池记忆效应是指电池的可逆失效,即电池失效后可重新回复的性能.记忆效应是指电池长时间经受特定的工作循环后,自动保持这一特定的倾向.这个最早定义在镍镉电池,镍镉的袋式电池不存在记忆效应,烧结式电池有记忆效应.而现在的镍金属氢(俗称镍氢)电池不受这个记忆效应定义的约束. 原因 因为现代镍镉电池工艺的改进,上述的记忆效应已经大幅度的降低,而另外一种现象替换了这个定义,就是镍基电池的―晶格化‖,通常情况,镍镉电池受这两种效应的综合影响,而镍氢电池则只受―晶格化‖记忆效应的影响,而且影响较镍镉电池的为小. 消除记忆效应 在实际应用中,消除记忆效应的方法有严格的规范和一个操作流程.操作不当会适得其反. [1]镍镉电池 对于镍镉电池,正常的维护是定期深放电:平均每使用一个月(或30次循环)进行一次深放电(放电到1.0V/每节,老外称之为exercise),平常使用是尽量用光电池或用到 关机等手段可以缓解记忆效应的形成,但这个不是exercise,因为仪器(如手机)是不会用到1.0V/每节才关机的,必须要专门的设备或线路来完成这项工作,幸好许多镍 氢电池的充电器都带有这个功能. 对于长期没有进行exercise的镍镉电池,会因为记忆效应的累计,无法用exercise进行容量回复,这时则需要更深的放电(老外称recondition),这是一种用很小的电流长时间对电池放电到0.4V每节的一个过程,需要专业的设备进行. 对于镍氢电池,exercise进行的频率大概每三个月一次即可有效的缓解记忆效应.因为镍氢电池的循环寿命远远低于镍镉电池,几乎用不到recondition这个方法. ?建议1:每次充电以前对电池放电是没有必要,而且是有害的,因为电池的使用寿命无谓的减短了. ?建议2:用一个电阻接电池的正负极进行放电是不可取的,电流没法控制,容易过放到0V,甚至导致串联电池组的电池极性反转. 笔记本电脑电池记忆效应 概述 购买本本的读者朋友多了起来,作为本本电池最重要的一个部分电池也越发的显得重要。因为本本的移动性能全是基于电池才得以发挥,换句话说也就是没有了电池,本本也就是一堆废铁。可是由于日常操作的不当,本本电池很可能会出现这样那样的故障(如常见的待机时间减少,剩余电量不准确等等)。那么究竟如何做才可以使我们的本本电池健健康康呢,看完下文您一定会有所了解。 弄清问题起因 1.电量显示不准确,与实际有出入。Windows系统中的剩余电量显示变得不准确,常常会从80%剩余电量跳到40%,这种情况在一定程度上大大降低了工作的效率。造成这种情况的原因有以下几种。一、电池经过几次充放使用以后,电池内部的―芯片‖所储存的数据出现偏差,和实际的电池电量有出入,从而造成显示电量不准确。二、由于本本处于不同的工作环境中,如果周围的环境出现温度过高或者过低的情况都会造成电池性能出现问题,电流的释放也变得不正常,从而导致电池电量显示出错。(温度过低的时候电池的活性降低,内部的电量可能出现无法释放的问题。) 2.续航的时间大大缩短,无法和以前相比。本本在使用的时候,待机的时间明显缩短,出现这种情况的主要原因有几点。一、电池在使用过程中没有做到正确的循环充放(用完再充),而是随意地进行充放,导致电池内部的―记录芯片‖对电池电量估计有错,从而出现―记忆效应‖,使电池无法完全充电。二、由于电池使用的年限较长或是长期地工作在高温(低温)的情况下,内部的电芯已经出现老化甚至失效,那么自然续航的时间就会大大地缩短。这种情况也就是我们通常所说的老化。 掌握正确使用 一般本本电池的保修时间只有一年,有的品牌只有半年,如果超过这个期限电池出现问题,维修或者是购买第二块电池的价格都是非常高昂的,所以正确使用电池而让电池为我们超期服役是非常有必要的。笔者总结了三点正确使用本本电池的经验,让我们一起来看一看。 1(新电池三次激活充电。现在的本本电池基本都采用了锂离子电池,但―记忆效应‖问题依然没有完全解决。所以新购买的本本依然要进行全充全放电的过程以此来激活电池。 笔者提示:所谓完全放电并不是将电池的剩余电量完全用光,而是用到只剩3%左右的时候开始进行充电。如果将电池使用到低于3%剩余电量也是不好的~ 2(不要随意充放电池。有的朋友买了本本以后,使用起来马马虎虎,常常是想用就用,想充就充,从不去考虑本本电池还剩多少电,这样长期下来,电池也会受到一定的损伤。所以我们一定要养成一个好的充电习惯,将每次允电的状态保持—致。(这里的状态是指每次都在剩余电量一致的情况下充电。) 3(减少电池的使用。如果可以使用外接电源,尽量使用外接电源,以减少使用电池的次数来延长电池的使用寿命。但切勿长时间不使用电池,防止电池失效。如果电池长期放置不使用,建议将电池保留30%左右的电量保存。 解决问题方法 这个问题可能是许多本本使用者的心声。除了换新电池,利用厂商提供的电池矫正软件对电池进行矫正也可以解决部分问题。 [2]笔记本电池 ,(用软件方法刷新电池。IBM笔记本提供了一个 ―BatteryMaxiMiserandPowerManagement‖软件,通过这个软件我们可以对电池容量显示不正确以及续航时间减短有不错的解决办法。运行这个软件,电脑会根据电池的状态自动对电池进行校对以及放电,当程序结束以后可以发现电池的实际容量和设计容量的差距会变小(但还是存在)。 2(用固件的方法刷新电池。有的本本厂商将电池矫正程序嵌入了BIOS固件中(如ASUS),我们只要在开机的时候进入BIOS执行电池纠正程序就可以了。 3(更换电芯或深度放电。如果电池是由于电芯老化出现问题的话,我们只能采取更换电芯或深度放电的方法进行解决了,但这些行为都可能会导致电池出现损坏或是无法使用的情况,所以在动手之前切记小心。 小结 关于本本电池的使用和解决方法还有很多,但实际究竟哪种是真正有效的,还得经过大家的动手验证才可以发现,笔者这篇文章只起到一个抛砖引玉的作用,希望大家如果有什么更好的方法一定要写出来,让我们一起进步~ 如果你不注意使用笔记本电池,也不会带来什么大问题。不过一旦电池寿命提前结束,你将面临一笔可观的维修,更换费用。 编辑本段蔡格尼克记忆效应 概述 (Zeigarnik effect) ―蔡格尼克记忆效应‖,是指人们对于尚未处理完的事情, [3]蔡格尼克记忆效应 比已处理完成的事情印象更加深刻。 蔡格尼克做了一个试验,命令被测试者试去做20件指定的工作,半数工作允许完成,半数工作则中途加以阻止,不予完成。被试共32人。实验结果发现未完成工作的回忆要优于已完成的工作的回忆。如以RC代表已完成的工作的回忆要所得的件数,RU代表未完成工作所得的件数,P为两种回忆件数的比例,即 RU/RC,用以在数量上表明哪一种工作易于回忆。若是P等于1,则两种工作的回忆量一样;若是P大于1,则未完成的工作易于回忆;若是P小于1,则已完成的工作易于回忆。实验的结果P从0。8至3。5不等 ,平均为1。9,即RU的回忆量差不多等于RC的两倍。 这个现象心理学称之为―蔡格尼克记忆效应‖。 举例分析 为什么人们对未完成的工作的回忆量会优于已完成的工作?有人认为这是由于未 完成的工作引起了情绪上的震动。但如果我们把工作用三种方式处理:第一种是允许其完成,第二种是我们中途加以阻止使它们最终没有完成,第三种是中途加以阻止后我们再让其完成。结果发现,人们对中途被阻止后再完成的工作的回忆量要优于前两种情况。而这就不能用中途阻止所产生的情绪所致来解释了,或许我们可以用心理的紧张系统是否得到解除来加以说明。未完成工作所引起的心理紧张系统还没有得到解除,因而回忆量相对大。中途加以阻止的未完成的工作不仅易于回忆,并且在做了其他工作之后,还有继续完成它的趋势。人们对于尚未处理完的事情会有较强烈的去完成它的动机,所以记忆自然也会较为深刻。 工作和生活当中也是如此,你可能对于你目前正在做,但还没完成的事情记忆最深刻,对于已经完成的一些事情或许就不会给予太多关注了。其实这也符合人们的记忆规律,人的大脑总是记住一些需要加工的内容,将之放在工作记忆中,就像是电脑的内存一样,而对于已经完成或将要完成的内容大脑则会有意地去遗忘。 运算速度 百科名片 运算速度:运算速度是衡量计算机性能的一项重要指标。通常所说的计算机运算速度(平均运算速度),是指每秒钟所能执行的指令条数,一般用“百万条指令/ 秒”来描述。微机一般采用主频来描述运算速度,主频越高,运算速度就越快。 概念 运算速度:运算速度是衡量计算机性能的一项重要指标。通常所说的计算机运算速度(平均运算速度),是指每秒钟所能执行的指令条数,一般用―百万条指令/秒‖来描述。微机一般采用主频来描述运算速度,主频越 高,运算速度就越快。 正文 每秒只能进行300次各种运算或5000次加法,是名符其实的计算用的机器。此后的50多年,计算机技术水平发生着日新月异的变化,运算速度越来越快,每秒运算已经跨越了亿次、万亿次级。2002年NEC公司为日本地球模拟中心建造的一台―地球模拟器‖,每秒能进行的浮点运算次数接近36万亿次,堪称目前的超级运算冠军。 ―运算速度‖是评价计算机性能的重要指标,其单位应该是每秒执行多少条指令。而计算机内各类指令的执行时间是不同的,各类指令的使用频度也各不相同。计算机的运算速度与许多因素有关,对运算速度的衡量有不同的方法。 为了确切地描述计算机的运算速度,一般采用―等效指令速度描述法‖。根据不同类型指令在使用过程中出现的频繁程度,乘上不同的系数,求得统计平均值,这时所指的运算速度是平均运算速度。 显示屏类型 液晶显示屏 利用液晶的电光效应调制外界光线进行显示的器件。液晶显示屏(LCD)用于数字型钟表和许多便携式计算机的一种显示器类型。LCD 显示使用了两片极化材料,在它们之间是液体水晶溶液。电流通过该液 体时会使水晶重新排列,以使光线无法透过它们。因此,每个水晶就像百叶窗,既能允许光线穿过又能挡住光线。 液晶显示器(LCD) 目前科技信息产品都朝着轻、薄、短、小的目标发展,在计算机周边中拥有悠久历史的显示器产品当然也不例外。在便于携带与搬运为前题之下,传统的显示方式如CRT映像管显示器及LED显示板等等,皆受制于体积过大或耗电量甚巨等因素,无法达成使用者的实际需求。而液晶显示技术的发展正好切合目前信息产品的潮流,无论是直角显示、低耗电量、体积小、还是零辐射等优点,都能让使用者享受最佳的视觉环境。 种类 液晶显示器,英文通称为LCD(Liquid Crystal Display),是属于平面显示器的一种,依驱动方式来分类可分为静态驱动(Static)、单纯矩阵驱动(Simple Matrix)以及主动矩阵驱动(Active Matrix)三种。其中,被动矩阵型又可分为扭转式向列型(Twisted Nematic;TN)、超扭转式向列型(Super Twisted Nematic;STN)及其它被动矩阵驱动液晶显示器;而主动矩阵型大致可区分为薄膜式晶体管型(Thin Film Transistor;TFT)及二端子二极管型(Metal/Insulator/Metal;MIM)二种方式。(详细的分类请参考附图)TN、STN及TFT型液晶显示器因其利用液晶分子扭转原理之不同,在视角、彩色、对比及动画显示品质上有高低程次之差别,使其在产品的应用范围分类亦有明显区隔。以目前液晶显示技术所应用的范围以及层次而言,主动式矩阵驱动技术是以薄膜式晶体管型(TFT)为主流,多应用于笔记型计算机及动画、影像处理产品。而单纯矩阵驱动技术目前则以扭转向列(TN)、以及超扭转向列(STN)为主,目前的应用多以 文书处理器以及消费性产品为主。在这之中,TFT液晶显示器所需的资金投入以及技术需求较高,而TN及STN所需的技术及资金需求则相对较低。数码相机与传统相机最大的一个区别就是它拥有一个可以及时浏览图片的屏幕,称之为数码相机的显示屏,一般为液晶结构(LCD,全称为Liquid Crystal Display)。它一种是采用了液晶控制透光度技术来实现色彩的显示器 数码相机的显示屏类型 常用的数码相机LCD都是TFT型的,到底什么是TFT呢,首先它包 括有偏光板、玻璃基板、薄模式晶体管、配向膜、液晶材料、导向板、色滤光板、萤光管等等。对于液晶显示屏,背光源是来自荧光灯管射出的光,这些光源会先经过一个偏光板然后再经过液晶,这时液晶分子的排列方式进而改变穿透液晶的光线角度。在使用LCD的时候,我们发现在不同的角度,会看见不同的颜色和反差度。这是因为大多数从屏幕射出的光是垂直方向的。假如从一个非常斜的角度观看一个全白的画面,我们可能会看到黑色或是色彩失真。 数码相机的LCD是非常昂贵而脆弱的,所以用户在使用的时候一定要小心,而且平时需要做保养工作。 LCD很脆弱,千万不要用坚硬的物体碰撞,以免摔坏了LCD屏。液晶屏表面容易脏,清洁的时候最好用干净的干布,推荐使用镜头布或者眼睛布,不可使用有机溶剂清洗。液晶显示屏的表现会随着温度变化,在低温的时候,如果亮度有所下降,这属于正常现象。 显存容量 单片32MB显存 显存容量是显卡上显存的容量数,这是选择显卡的关键参数之一。显存容量决定着显存临时存储数据的多少,显卡显存容量有128MB、256MB、512MB、1024MB几种,64MB和128MB显存的显卡现在已较为少见,主流的是256MB和512MB的产品。还有部分产品采用了1024MB的显存容量,在得到性能的提升的同时,也会投入大量金钱,略显浪费。 简介 显卡 显存容量的大小决定着显存临时存储数据的能力,在一定程度上也会影响显卡的性能。显存容量也是随着显卡的发展而逐步增大的,并且有越来越增大的趋势。显存容量从早期的512KB、1MB、2MB等极小容量,发展到8MB、12MB、16MB、32MB、64MB、128MB,一直到目前主流的256MB、512MB和高档显卡的1024MB,某些专业显卡甚至已经具有2GB的显存了。 概述 分辨率 分辨率 在显卡最大分辨率方面,最大分辨率在一定程度上跟显存有着直接关系,因为这些像素点的数据最初都要存储于显存内,因此显存容量会影响到最大分辨率。在早期显卡的显存容量只具有512KB、1MB、2MB等极小容量时,显存容量确实是最大分辨率 的一个瓶颈;但目前主流显卡的显存容量,就连64MB也已经被淘汰,主流的娱乐级显卡已经是128MB、256MB或512MB,某些专业显卡甚至已经具有2GB的显存,在 这样的情况下,显存容量早已经不再是影响最大分辨率的因素。 性能 在显卡性能方面,随着显示芯片的处理能力越来越强大,特别是现在的大型3D游戏和专业渲染需要临时存储的数据也越来越多,所需要的显存容量也是越来越大,显存容量在一定程度上也会影响到显卡的性能。例如在显示核心足够强劲而显存容量比较小的情况下,却有大量的大纹理贴图数据需要存放,如果显存的容量不足以存放这些数据,那么显示核心在某些时间就只有闲置以等待这些数据处理完毕,这就影响了显示核心性能的发挥从而也就影响到了显卡的性能。 要素 值得注意的是,显存容量越大并不一定意味着显卡的性能就越高,因为决定显卡性能的三要素首先是其所采用的显示芯片,其次是显存带宽(这取决于显存位宽和显存频率),最后才是显存容量。一款显卡究竟应该配备多大的显存容量才合适是由其所采用的显示芯片所决定的,也就是说显存容量应该与显示核心的性能相匹配才合理,显示芯片性能越高由于其处理能力越高所配备的显存容量相应也应该越大,而低性能的显示芯片配备大容量显存对其性能是没有任何帮助的。例如市售的某些配备了512MB大容量显存的Radeon 9550显卡在显卡性能方面与128MB显存的Radeon 9550显卡在核心频率和显存频率等参数都相同时是完全一样的,因为Radeon 9550显示核心相对低下的处理能力决定了其配备大容量显存其实是没有任何意义的,而大容量的显存反而还带来了购买成本提高的问题。 应用 大小选择 目前工作站显卡所用的显存容量一般都在64M、128M、256M甚至更大。 对于选择多大的显存容量合适,这取决于多种因素,比如应用的环境和硬件的相互制约关系,但通常来讲可以参考下面公式: 显存容量,显示分辨率×颜色位数/8bit。 比如现在显示分辨率基本都是1024x768,颜色位数为32bit,那么需要的显存容量,1024x768x32bit/8bit,3145728 byte,可是这针对是2D显卡(普通平面),如果是3D加速卡,那么需要的显存容量为1024x768x32bitx3/8bit,9437184byte,9.216MB,这是最低需求,而且还必须增加一定的容量作为纹理显示内存,否则当显示资源被完 全占用时,计算机只有占用主内存作为纹理内存,这样的二次调用会导致显示性能下降,因此作为真正的3D加速卡显存容量一定大于9.216MB。目前工作站显卡显存都在64MB以上。比如2D绘图应用,即使在1600x1200的情况下,它也最多是1600x1200x32bit/8bit,7680000byte,7.5MB,如果是三维绘图比如3D Studio Max,那么容量需求是7.5x3,22.5MB,不过这是最低需求,因此32MB容量的显存是应付这类2D绘图或者娱乐的视频播放、普通三维设计。对于工作站而言,由于运行更大的软件,更大的运算,所以显存至少应该在64M以上。 速度选择 另外还需要补充一点的就是显存的速度。 早期的SDRAM显存速度很慢,后来出现的DDR显存逐渐成为主流。 在DDR两倍速度于SD显存的时候,面向高端显卡的DDR2显存横空出世,使得显存频率得以高于600MHz。 现在的显存用于低端的是DDR或者是DDR2,面向中高端的上DDR3,到06年,ATi的R580系列显卡使用的显存速度达到了1.8GHz~ 显存速度也是显卡非常重要的一个参数。比如NV的GeForce6600。05年的6600标准版的显存是DDR,速度标准为500,而后来推出的DDR2版的6600,在显示核心(GPU)没有任何改变的情况下,显存变为800Mhz,性能却提高了40%~所以显存的速度也是非常重要的~ GDDR5显存 技术发展 GDDR5显存颗粒 在显卡技术领域,随着GPU性能的逐步提升,显卡对显存带宽的需求也与日俱增,而GDDR3显存已经无法满足下一代GPU的需求。为此芯片厂商推出了GDDR4显存颗粒,遗憾的是,相比GDDR3而言,GDDR4并没有彻底解决功耗和带宽问题,而且成本过于昂贵。芯片厂商则直接跳过了GDDR4,转而发展GDDR5显存颗粒,与 GDDR3显存颗粒相比,GDDR5具有哪些特点呢, 突破瓶颈 带宽提升三倍 显存带宽决定了GPU与显存之间的数据传输速率,通常来说显存带宽越大,显卡性能就越出色,但要提高显存带宽,最直接有效的办法是提升显存位宽。遗憾的是,显存位宽并不是由芯片技术决定,而是取决于板卡设计,它与显存颗粒位宽和显存频率息息相关,在这点上,尽管GDDR3显存颗粒是时下的主流,但面对采用RV770核心的新一代GPU(VPU)构架,如Radeon HD4870,GDDR3显存颗粒已经呈现出了疲态,此时GDDR4或GDDR5显存颗粒就是最好的补充。不过由于GDDR4显存颗粒的频率提升不够显著,加之颗粒参数上的限制,有时会造成性能缺陷,而GDDR5显存颗粒却拥有足够大的带宽。 根据公式:显存带宽,(显存频率×显存位宽)/8。我们知道,如果要提高显存带宽,可以增加显存工作频率或显存位宽,而要改变显存位宽,最常见的办法就是增加显存颗粒数,这样势必提升显卡成本,而且还会增加显存的功耗。对于显存颗粒厂商而言,提升显存频率以提升显存带宽成了一条主攻路线,而显存频率的大小,又主要取决于显存颗粒的速度,GDDR5显存颗粒就是通过采用最新的技术工艺,使得显存芯片拥有更高的频率。 据资料显示,目前主流显卡采用了GDDR3显存颗粒,其每个引脚的数据传输率仅为1.6Gbps,单显存颗粒(32bit)也只能提供6.4GB/s带宽,而现在高速的GDDR5显存颗粒每个引脚的数据传输率可以达到5Gbps(即传输频率为5GHz,时钟频率为2.5GHz)或6Gbps,单显存颗粒(32bit)可以提供20GB/s带宽(即5GHz×32bit/8),如果搭配同数量、同显存位宽的显存颗粒,GDDR5显存颗粒提供的总带宽是GDDR3的3倍以上,譬如显卡的显存位宽为256bit,其数据传输率可以达到160GB/s,如果使用主流512bit配置设计,显卡数据吞吐可以达到惊人的320GB/s带宽。 小贴士:显存的引脚是指显存颗粒与内存PCB上的金属触点,显存芯片在封装后,显存与PCB需要通过金属触点进行信号传输,对于GDDR5显存而言,由于其采用了FBGA封装形式,为此柱状焊点按阵列形式分布在封装下面,并向芯片中心方向引出,其优点是有效地缩短了信号的传导距离,信号传输线的长度仅是TSOP封装(薄型小尺寸封装)的1/4,降低了抗干扰,也提升了性能,而―每引脚数据传输率‖指的是每个金属触点所能提供的数据传输速度。 高效节能 功耗降低20? 毫无疑问,相比GDDR3或GDDR4显存颗粒而言,GDDR5显存颗粒最大的亮点就是拥有更高的带宽,但显存频率的提升,也增加了芯片功耗,这会制约显卡性能的 发挥。从技术标准来看,GDDR3显存颗粒的工作电压为1.8V,而GDDR4及GDDR5的工作电压都为1.5V,不过GDDR4并没有解决高功耗、高发热的问题,导致GDDR4显存颗粒的功耗反而比GDDR3高,这也是造成GDDR4显存颗粒的频率停留在1GHz,1.4GHz的主要原因。 相比GDDR4显存颗粒而言,GDDR5显存颗粒不单单将数据传输率提升了一倍,它还拥有更低的工作功耗。据了解,得益于优秀的电源管理技术,GDDR5显存颗粒会比 GDDR4省电20?左右。譬如在空闲时自动降低显存的频率,功耗和发热量得到了很好的控制。而且在制程技术上,GDDR4显存颗粒采用的是80nm甚至90nm工艺制程,而GDDR5显存颗粒将采用66nm或55nm工艺制程,并采用170FBGA封装方式(是指采用了FBGA封装,并拥有170个球状触点),从而大大减小了芯片体积,芯片密度也可以做到更高,为此进一步降低了显存芯片的发热量。 对于显卡来说,基于应用需求的不同,涉及大量图形数据处理的GPU需要更快的显存支持,GPU自身也因此具有惊人的内存位宽,而面对下一代512bit位宽的显卡,GPU必须与频率更高的显存芯片配合,如果让频率相对较低的GDDR3显存颗粒去搭配Radeon HD4870显卡,显然无法发挥GPU的性能潜力,而使用55nm工艺制程的GDDR5显存颗粒就正好门当户对。这不仅仅可以实现低功耗,还能让显卡内部的协调更有效,从而最大限度地发挥显卡性能。 新技术 让显卡更稳定 正是由于GDDR5显存颗粒具有低功耗、高性能的特点,为此还有利于提高显卡电路设计的稳定性,显卡在实际应用中,可以获得更高的数据安全性,因而相比GDDR4的误纠正技术,该技术可以检测显存在读取和写入数据的错误,而且可实现同步检测并修正。譬如发现有数据读写有错误或数据传输不同步,错误纠正技术能够实现快速重新发送,以确保显卡能够稳定运行。 GDDR5显存颗粒还加入了一项―适应性界面计时‖技术,该技术可以根据系统的实际需要,自动调节显存可伸缩的字节。此举可以让数据传输更加高效,同时还具有节能的效果,确保显卡的稳定运行。对于显卡厂商而言,利用―适应性界面计时‖技术还可以减少PCB板的成本,让显卡更加廉价。GDDR5显存颗粒还有一项―DEO(数据眼优化)‖技术,它支持时间延迟调整,允许厂商自行设定延迟,让显卡可以满足不同用户的应用需求。此外,―数据眼优化‖技术还能对界面驱动、工作电压等进行优化和调节,不仅可以提升显卡性能,也让显卡PCB板和电路设计更加稳定。 高显存带宽 引爆PCI-E 2.0 对于高端显卡来说,PCI-E 2.0显卡搭配GDDR5显存颗粒是十分必要的,PCI-E 2.0 接口带宽达到了单向8GB/s(双向16GB/s),充足的接口带宽对于高性能GPU会有明显的性能提升,但如果只搭配GDDR4显存颗粒,显存带宽低了不少,也就意味着显卡性能大打折扣,从实际应用角度来看,随着GPU性能越来越强,以及SLI、Quad SLI双模式甚至多核心显卡的推出,GDDR5显存颗粒与PCI-E 2.0规格的双双联合,会让显卡GPU的3D性能得到充分发挥。而且也降低了显卡成本,让主流显卡更具竞争力。 GDDR5市场趋势 与GDDR4相比,GDDR5拥有高性能、低功耗、稳定性更好等优势,它更能满足3D图形带宽的发展需求。我们可以断定,尽管GDDR4早已在市场上开始应用,但它只是过渡性的临时方案,GDDR5才代表未来的主流趋势。据了解,在2007年的高端图形市场中,GDDR4仅占了10%的市场,2008年GDDR4市场的成长幅度较快,但仍无法在一年之内成为主导。而在2008年下半年,奇梦达、三星、现代等厂商将会开始大规模量产GDDR5芯片,而且将占显卡市场7%的份额,预计到2009年,GDDR5将会超过20%的市场占有率,2010年时将成为主流,此时GDDR4的市场将被彻底挤占。NVIDIA、ATI及Intel已经开始准备在下一代显卡,如Radeon HD4870上采用GDDR5显存。 总的来看,GDDR5 显存颗粒可大幅提升绘图硬件效能,同时为软件设计师带来更大空间,让游戏及绘图世界能更加真实,减少因显存频率、带宽不足而造成的瓶颈。在显存容量上,目前主流显卡为512MB、768MB,尽管相比此前的256MB有突破性提升,但依然无法满足双核CPU在大型程序下的数据交换需要。采用GDDR5显存后,显卡显存的容量起点将是512MB,这让入门级显卡也拥有了出色的3D性能,而且届时1GB显存容量将成为市场主流。为了满足市场需求,预计到2009年,显存芯片商将会推出更高容量的显存颗粒。到那时候,GDDR5显存将全面统领显卡市场。 显示芯片 百科名片 显示芯片 显示芯片一般有两种应用,一种是指主板所板载的显示芯片,有显示芯片的主板不需要独立显卡,也就是平时所说的集成显卡;另一种是指独立显卡的核心芯片,独立显卡通过插槽连接到主板上面。虽然有这两种应用,但是显示芯片却是相同的,只是应用不同而已。 简介 显示芯片是显卡的核心芯片,它的性能好坏直接决定了显卡性能的好坏,它的主要任务就是处理系统输入的视频信息并将其进行构建、渲染等工作。显示主芯片的性能直接决定了显示卡性能的高低。不同的显示芯片,不论从内部结构还是其性能,都存在着差异,而其价格差别也很大。显示芯片在显卡中的地位,就相当于电脑中CPU的地位,是整个显卡的核心。因为显示芯片的复杂性,目前设计、制造显示芯片的厂家只有NVIDIA、ATI、SIS、3DLabs等公司。家用娱乐性显卡都采用单芯片设计的显示芯片,而在部分专业的工作站显卡上有采用多个显示芯片组合的方式。 板载显示芯片 显示芯片是指主板所板载的显示芯片,有显示芯片的主板不需要独立显卡就能实现普通的显示功能,以满足一般的家庭娱乐和商业应用,节省用户购买显卡的开支。板载显示芯片可以分为两种类型:整合到北桥芯片内部的显示芯片以及板载的独立显示芯片,市场中大多数板载显示芯片的主板都是前者,如常见的865G/845GE主板等;而后者则比较少见,例如精英的―游戏悍将‖系列主板,板载SIS的Xabre 200独立显示芯片,并有64MB的独立显存。 主板板载显示芯片的历史已经非常悠久了,从较早期VIA的MVP4芯片组到后来英特尔的810系列,815系列,845GL、845G、845GV、845GE、865G、865GV以及即将推出的910GL、915G、915GL、915GV、945G等芯片组都整合了显示芯片。而英特尔也正是依靠了整合的显示芯片,才占据了图形芯片市场的较大份额。 目前各大主板芯片组厂商都有整合显示芯片的主板产品,而所有的主板厂商也都有对应的整合型主板。英特尔平台方面整合芯片组的厂商有英特尔,VIA,SIS,ATI等,AMD平台方面整合芯片组的厂商有VIA,SIS,NVIDIA等等。在ATI被AMD收购以后,所出的显示芯片提供对AMD和INTEL两家的支持。 独立显卡显示芯片 显示芯片是显卡的核心芯片,它的性能好坏直接决定了显卡性能的好坏,它的主要任务就是处理系统输入 显示芯片 的视频信息并将其进行构建、渲染等工作。显示主芯片的性能直接决定了显示卡性能的高低。不同的显示芯片,不论从内部结构还是其性能,都存在着差异,而其价格差别也很大。显示芯片在显卡中的地位,就相当于电脑中CPU的地位,是整个显卡的核心。因为显示芯片的复杂性,目前设计、制造显示芯片的厂家只有NVIDIA、ATI、SIS、3DLabs等公司。家用娱乐性显卡都采用单芯片设计的显示芯片,而在部分专业的工作站显卡上有采用多个显示芯片组合的方式。 制作工艺 显示芯片的制造工艺与CPU一样,也是用微米来衡量其加工精度的。制造工艺的提高,意味着显示芯片的体积将更小、集成度更高,可以容纳更多的晶体管,性能会更加强大,功耗也会降低。 和中央处理器一样,显示卡的核心芯片,也是在硅晶片上制成的。采用更高的制造工艺,对于显示核心频率和显示卡集成度的提高都是至关重要的。而且重要的是制程工艺的提高可以有效的降低显卡芯片的生产成本。目前的显示芯片制造商中,NVIDIA公司已全面采用了0.13微米的制造工艺,就是其FX5900显示核心之所以能集成一亿两千五百万个晶体管的根本原因。而ATI公司主要还是在使用0.15微米的制造工艺,比如其高端的镭9800XT和镭9800 Pro显卡,部分产品采用更先进的0.13微米制造工艺,比如其镭9600显卡。 微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。显示芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、0.15微米、0.13微米、0.11微米一直发展到目前最新的90纳米,而未来则会以80纳米作为一个过渡,然后进一步发展到65纳米。总的说来,显示芯片在制造工艺方面基本上总是要落后于CPU的制造工艺一个时代,例如CPU采用0.13微米工艺时显示芯片还在采用0.18微米工艺和0.15微米工艺,CPU采用90纳米工艺时显示芯片则还在使用0.13微米工艺和0.11微米工艺,而现在CPU已经采用65纳米工艺了而显示芯片则刚进入90纳米工艺。 提高显示芯片的制造工艺具有重大的意义,因为更先进的制造工艺会在显示芯片内部集成更多的晶体管,使显示芯片实现更高的性能、支持更多的特效;更先进的制造工艺会使显示芯片的核心面积进一步减小,也就是说在相同面积的晶圆上可以制造 出更多的显示芯片产品,直接降低了显示芯片的产品成本,从而最终会降低显卡的销售价格使广大消费者得利;更先进的制造工艺还会减少显示芯片的功耗,从而减少其发热量,解决显示芯片核心频率提升的障碍.....显示芯片自身的发展历史也充分的说明了这一点,先进的制造工艺使显卡的性能和支持的特效不断增强,而价格则不断下滑,例如售价为1500左右的中端显卡GeForce 7600GT其性能就足以击败上一代售价为5000元左右的顶级显卡GeForce 6800Ultra。 采用更低制造工艺的显示芯片也不是一定代表有更高的性能,因为显示芯片设计思路也各不同相同,并不能单纯已制造工艺来衡量其性能。最明显的就是NVDIVA的GeForce FX5950和ATI的Radeon 9800XT,9800XT采用0.15微米制造工艺,而FX5950采用更为先进的0.13微米制造工艺,但在性能表现上,Radeon 9800XT则要略胜一筹。 位宽 显示芯片位宽是指显示芯片内部数据总线的位宽,也就是显示芯片内部所采用的数据传输位数,目前主流的显示芯片基本都采用了256位的位宽,采用更大的位宽意味着在数据传输速度不变的情况,瞬间所能传输的数据量越大。就好比是不同口径的阀门,在水流速度一定的情况下,口径大的能提供更大的出水量。显示芯片位宽就是显示芯片内部总线的带宽,带宽越大,可以提供的计算能力和数据吞吐能力也越快,是决定显示芯片级别的重要数据之一。目前已推出最大显示芯片位宽是512位,那是由Matrox(幻日)公司推出的Parhelia-512显卡,这是世界上第一颗具有512位宽的显示芯片。而目前市场中所有的主流显示芯片,包括NVIDIA公司的GeForce系列显卡,ATI公司的Radeon系列等,全部都采用256位的位宽。这两家目前世界上最大的显示芯片制造公司也将在未来几年内采用512位宽。 显示芯片位宽增加并不代表该芯片性能更强,因为显示芯片集成度相当高,设计、制造都需要很高的技术能力,单纯的强调显示芯片位宽并没有多大意义,只有在其它部件、芯片设计、制造工艺等方面都完全配合的情况下,显示芯片位宽的作用才能得到体现。 主要厂商 概况 现在主流的显示芯片市场基本上被AMD-ATi和nVIDIA霸占,SIS、3DLabs、VIA已难觅其踪。 显示芯片一AMD-ATi 2006年,ATi相较NV的弱势逐渐显现:Ati只有显卡,这导致它们发产品(尤 其是笔记本系列)全要看他人 显示芯片 脸色。而nV也是一家出色的主板芯片厂家,自己的主板搭配自己的显卡,使得它们的产品更有市场。比较类似的是Intel 和 AMD.Intel 既有CPU,也有主板、集成卡,这就导致Intel的市场空间巨大无比,尤其是品牌机、笔记本电脑。虽然P4的NetBrust构架本质上是一种失败,而在P4饱受非议、PD尚未发布时AMD有了较大发展,但还是逐渐落于被动。于是,PC史上一件大事发生了——双A走向联合。 6月份以来,关于AMD收购ATI的传闻就不绝于耳。美国时间2006年7月24日上午八点,AMD官方网站发表正式声明,确认收购ATI。这是近年IT界最大的一次收购,整个市场格局都将为之改变。这份声明一经发表,即时成为业界的焦点,各方面消息纷至传来…… AMD董事会主席兼CEO鲁毅智表示:ATI正式加入了AMD家族,今天是一个历史性的日子。 我们将充 分整合一系列具有互补性的技术,继续致力于创新,力争为业界提供最佳产品选择。 AMD计划打造一个新的x86处理器系列,将中央处理器(CPU)和图形处理器(GPU)在芯片级别上整合在一起,该产品的开发代号为―Fusion‖。 据悉Fusion处理器将于2008年底或2009年初面世,未来将用于所有的计算领域,包括台式机、笔记本、工作站等解决方案. 这次收购,使得两家均收到影响——Intel借此大量发布PD、Core系列,迅速抢占市场,而AMD只好先以单核速龙3000,迎击。nV发布了第一款D10显卡,而Ati的首款D10显卡的发布却不得不延迟。 但Ati很快调整过来。随后,Ati发布了自己的首款D10显卡这款显卡无论评性能、价格,都凌驾于nv。 ATi的历史 ATI Technologies Inc.冶天 创始人:何国源 成立于1985年,是全球领先的图形卡)视频设备和多媒体产品的提供商。它的产品广泛应用于台式机、工作站、笔记本电脑、数字电视、移动电话和游戏设备等。 凭着在员工、产品和卓越技术上的实力,面向客户的策略,及对新技术和市场关键领域的洞察力和运用能力,ATI公司已成为图形卡行业的先行者、革新者和领导者。 ATI公司的业务由两个核心部分组成。 PC业务: 作为公司的核心业务,ATI公司以其在PC平台的顶尖技术,为PC和工作站用户提供顶级的图形性能。 采用最先进半导体制造技术,ATI公司生产的Radeon系列图形处理器将给PC用户带来顶级的视觉体验。 ATI公司专为移动产品生产的Mobility Radeon图形处理器,目前在笔记本电脑市场已经占据了半数以上的份额,这款图形处理器能在不降低机器性能、处理能力和移动性情况下,提供更多激动人心的特性。 ATI公司的该集成显卡产品,让价值和主流用户之流均可以实惠的台式机和PC机价格而获得高性能的图形处理功能。 消费电子产品业务: 在过去的几年中,基于对更加丰富的视觉体验的需求,整个消费电子行业都在追求更高的图像处理功能。 ATI公司为移动电话配备的Imageon图形处理器和为数字电视配备的Xilleon图形处理器由此应运而生。 同 显示芯片 时,ATI为任天堂(NINTENDO)的GameCube主机提供图形处理器,并同时与任天堂和微软Xbox产品签署未来技术。 ATI公司拥有超过2500名员工,它的总部分别设在马克姆和安略,并在美国、欧洲和亚洲等地都设有办事处。 其产品在加州、佛州、马萨诸塞州、安大略和宾夕法尼亚州等地的研发中心进行研发,并在加拿大和台湾生产。 在2004年,ATI公司的财政收入达到20亿美元。公司的股票在NASDAQ(股票代码ATYT)和多伦多证券交易所(股票代码ATY)进行公开交易,并是NASDAQ股市百强之一。 2003年3月,ATi发布RADEON 9800,RADEON 9600,RADEON 9200和MOBILITY RADEON 9600家族. 在此之后,ATI和另一大显卡生产厂家Nvidia展开了激烈争夺,这迅速加剧了显卡的发展。A卡、N卡占据了独立显卡市场95,以上,高性能显卡层出不穷,有了强大的硬件支持,游戏开发商更没有闲着,04、05、06年,DirectX9游戏泉涌而出,FutureMark公司的3DMark成为Gamers钟爱的测试软件。在此期间,A卡的Radeon系列步入X系列,如Radeon X100,Radeon X1950 XTX等。 与此同时,nVidia的显卡步入GF6、GF7系列,这两个系列就是奔着D 9.0C而来。A卡、N卡的争夺进入到白热化境地。比较具有代表性的是 A卡的X700家族和N卡的6600家族的争夺。无论从价格、规模、性能上讲均旗鼓相当。 显示芯片二nVIDIA NVIDIA Headquarters, Santa Clara, CA NVIDIA 公司 NVIDIA公司中文名称:英伟达 显示芯片 NVIDIA公司总部地址:美国加利福尼亚州圣克拉拉(与Intel相邻) NVIDIA公司的创始人和CEO——黄仁勋先生 NVIDIA公司(Nasdaq代码:nvda)是全球可编程图形处理技术领袖。专注于打造能够增强个人和专业计算平台的人机交互体验的产品。公司的图形和通信处理器拥有广泛的市场,已被多种多样的计算平台采用,包括个人数字媒体PC、商用PC、专业工作站、数字内容创建系统、笔记本电脑、军用导航系统和视频游戏控制台等。NVIDIA全球雇员数量超过4000人。 全球各地众多OEM厂商、显卡制造商、系统制造商、消费类电子产品公司都选择NVIDIA的处理器作为其娱乐和商用解决方案的核心组件。在PC应用领域(例如制造、科研、电子商务、娱乐和教育等),NVIDIA公司获奖不断的图形处理器可以提供出色的性能和鲜锐的视觉效果。其媒体和通信处理器能够执行宽带连接和通信应用中要求十分苛刻的多媒体处理任务,并在音频应用能力方面取得突破。 NVIDIA产品和技术的基础是NVIDIA ForceWare,这是一种综合性软件套件,能够实现业内领先的图形、音频、视频、通信、存储和安全功能。NVIDIA ForceWare可以提高采用NVIDIA GeForce图形芯片和NVIDIA nForce平台解决方案的各类台式和移动PC的工作效率、稳定性和功能。 NVIDIA公司专门打造面向计算机、消费电子和移动终端,能够改变整个行业的创新产品。专门打造面向计算平台、消费类电子产品和移动装置的助推行业发展的创新产品。这些产品家族正在改变视觉丰富和运算密集型应用例如视频游戏、电影产业、广播、工业设计、财政模型、空间探索以及医疗成像。 此外,NVIDIA致力于研发和提供引领行业潮流的先进技术,包括NVIDIA SLI技术——能够灵活地大幅提升系统性能的革命性技术,和NVIDIA PureVideo高清视频技术。 NVIDIA GeForce 为图形和视频所设计的GPU 配有NVIDIA GeForce 系列GPU的台式电脑和笔记本电脑带给用户无法比拟的性能,明快的照片,高清晰的视频回放,和超真实效果的游戏。GeForce 系列的笔记 本GPU还包括先进的耗电管理技术,这种技术可以在不过分耗费电池的前提下保证高性能。 NVIDIA GoForce 为移动电话所设计的超低能耗手持GPU 真实的流动数字电视、控制台类的3D游戏、高保真环绕声效、流畅的DVD质量视频回放、和明快生动的照片。所有这些都有更长的电池寿命作保证。 显示芯片 NVIDIA Quadro 完整的专业解决方案带来性能突破和高质量 所有领先的专业图形应用均通过鉴定。 专业显示部件领域的王者。 NVIDIA Quadro Plex 是业内第一个专属视觉运算系统(VCS)。 NVIDIA nForce 世界上最先进的核心逻辑解决方案 nForce 媒体通信处理器(MCP)带来高带宽系统性能、先进的网络、存储和数字媒体连接。 可以在台式电脑、笔记本电脑、工作站和服务器上使用。 NVIDIA 解决方案的应用正在改变很多行业和很多组织,比如麻州总医院、美国航空航天管理局、美国橡树岭国家实验室、Sportvision公司 和皇家歌剧院。 产品 介绍一下NVIDIA目前的芯片型号 NVIDIA芯片组目前流行的为GeForce8和GeForce7系列(07年12月) GeForce8、9系列(最大的亮点就是支持Microsoft DirectX 10 游戏和应用程序) 显卡系列 显示核心 显存 流处理器 3D API 开发代号 制造工艺 核心位宽 核心频率 显存频率 显存位宽 显存容量 显存类型 显存带宽 SP 着色器频率 DirectX版本 GeForce 8300GS G86 80纳米 256bit 450MHz 800MHz 64bit 128MB DDR2 6.4GB/s 8 900MHz 10 GeForce 8400GS G86 80纳米 256bit 450MHz 800MHz 64bit 128MB/256MB DDR2 6.4GB/s 16 900MHz 10 GeForce 8500GT G86 80纳米 256bit 450MHz 800MHz 128bit 256MB DDR2 12.8GB/s 16 900MHz 10 GeForce 8600GT G84 80纳米 256bit 540MHz 1400MHz 128bit 256MB DDR3 22.4GB/s 32 1180MHz 10 GeForce 8600GTS G84 80纳米 256bit 675MHz 2000MHz 128bit 256MB DDR3 32GB/s 32 1450MHz 10 GeForce 8800GTS G80 90纳米 256bit 500MHz 1600MHz 320bit 320MB DDR3 64GB/s 96 1200MHz 10 GeForce 8800GTX G80 90纳米 256bit 575MHz 1800MHz 384bit 768MB DDR3 86.4GB/s 128 1350MHz 10 GeForce 8800Ultra G80 90纳米 256bit 612MHz 2160MHz 384bit 768MB DDR3 103.68GB/s 128 1500MHz 10 GeForce 9600GT G94 65纳米 256bit 650MHz 1800MHz 256bit 512MB DDR3 57.6GB/s 64 1625MHz 10 GeForce 8800GS G92 65纳米 256bit 550MHz 1600MHz 192bit 384MB DDR3 38.4GB/s 96 1375MHz 10 GeForce 8800GT G92 65纳米 256bit 600MHz 1800MHz 256bit 256MB/512MB DDR3 57.6GB/s 112 1500MHz 10 GeForce 8800GTS G92 65纳米 256bit 650MHz 2000MHz 256bit 512MB DDR3 64GB/s 128 1625MHz 10 GeForce 9800GTX G92 65纳米 256bit 675MHz 2200MHz 256bit 512MB DDR3 70.4GB/s 128 1688MHz 10 GeForce7系列(不支持Microsoft DirectX 10 游戏和应用程序) GeForce 7950 GeForce 7900 GeForce 7800 GeForce 7600 GeForce 7300 GeForce 7200 GeForce 7100 介绍一下ATI目前的芯片型号 显卡系列 显示核心 显存 流处理器 3D API 开发代号 制造工艺 核心位宽 核心频率 显存频率 显存位宽 显存容量 显存类 型 显存带宽 SP单元 着色器频率 DirectX版本 Radeon HD 2400Pro RV610 65纳米 256bit 525MHz 800MHz 64bit 128MB/256MB DDR2 6.4GB/s 40 525MHz 10 Radeon HD 2400XT RV610 65纳米 256bit 700MHz 1600MHz 64bit 256MB DDR3 12.8GB/s 40 700MHz 10 Radeon HD 2600Pro RV630 65纳米 256bit 600MHz 1400MHz 128bit 256MB DDR3 22.4GB/s 120 600MHz 10 Radeon HD 2600XT RV630 65纳米 256bit 800MHz 2200MHz 128bit 256MB DDR4 35.2GB/s 120 800MHz 10 Radeon HD 2900GT R600 80纳米 256bit 600MHz 1600MHz 256bit 256MB DDR3 51.2GB/s 240 600MHz 10 Radeon HD 2900Pro R600 80纳米 256bit 600MHz 1600MHz 512bit 512MB DDR3 102.4GB/s 320 600MHz 10 Radeon HD 2900XT R600 80纳米 256bit 740MHz 1650MHz 512bit 512MB DDR4 105.6GB/s 320 740MHz 10 Radeon HD 3450 RV620 55纳米 256bit 600MHz 1000MHz 64bit 256MB DDR2 8GB/s 40 600MHz 10.1 Radeon HD 3470 RV620 55纳米 256bit 800MHz 1900MHz 64bit 256MB DDR3 15.2GB/s 40 800MHz 10.1 Radeon HD 3650 RV635 55纳米 256bit 725MHz 1600MHz 128bit 256MB DDR3 25.6GB/s 120 725MHz 10.1 Radeon HD 3690 RV670 55纳米 256bit 670MHz 1400MHz 128bit 256MB DDR3 22.4GB/s 320 670MHz 10.1 Radeon HD 3850 RV670 55纳米 256bit 670MHz 1660MHz 256bit 256MB/512MB DDR4 53.12GB/s 320 670MHz 10.1 Radeon HD 3870 RV670 55纳米 256bit 775MHz 2250MHz 256bit 512MB DDR4 72GB/s 320 775MHz 10.1 Radeon HD 4870x2 RV770 55nm 2*256bit 750MHZ 3800MHZ 1024MB GDDR5 115.2GB/S 800*2 750MHZ 10.1 Radeon HD 4870 RV770 55NM 256BIT 1050MHZ 3800MHZ 1024MB GDDR5 115.2GB/S 800 750MHZ 10.1 Radeon HD 4850 RV770 55nm256bit 625MHZ 2000MHZ 512MB GDDR3 64BG/S 800 625MHZ 10.1 Radeon HD 4830 RV770 55nm 256bit 575MHZ 1800MHZ 512MB GDDR3 64GB/S 640 575MHZ 10.1 Radeon HD 4650/4670 RV730 55nm 800MHZ/1000MHZ 128bit 2000MHZ 256MB/512MB DDR3/GDDR3 320 显卡厂商和显卡排名 世界上四大电脑处理器开发公司:英特尔INTER、超微AMD、苹果APPLE和IBM。微软(微 软视窗操作系统 WINDOWS)、苹果(苹果操作系统Apple Mac OS X)、Linux操作系统、Unix 操作系统等,用的最多的是微软视窗操作系统 WINDOWS, WIN3.x/95/98/Me/NT/2000/XP/2003/Vista等。英特尔INTER、超微AMD主做硬件,苹果APPLE 硬件和软件都做,微软Microsoft主要掌握着世界上最多的操作系统开发的核心技术(世界上85%以上的用户都用微软自主研发的视窗操作系统 WINDOWS,其他的用户使用Mac OS X、Linux、Unix等操作系统),英特尔Inter主要掌握着世界上最多的芯片制造的核心技术(世界上65%以上的用户都用英特尔Inter自主研发的奔腾/赛扬/酷睿处理器,30%左右的用户用超微AMD的速龙/闪龙处理器,其他5%左右的用户使用苹果处理器和IBM处理器)。 AMD的全称是Advanced Micro Device(先进微系统公司) IBM的解释:International Business Machines(国际商用机器公司) nVIDIA总部在美国硅谷 ATI在加拿大 两个公司的老总(nVIDIA的CEO黄仁勋和ATI的总裁何国源)都是华人 AMD( 超微半导体 ) 总部位于美国加利福尼亚州桑尼维尔 Intel 美国英特尔公司 Geforce在NvidIA而言,就是其显示核心这整个系列的代称,而NvidIA的主板芯片组则是nForce。 9600可以这么解释,第一个数字9代表产品是第几代的,6代表在这一代中的产品定位,入门低端一般是3,或者4,主流一般是6,高端是8或者9,后面的00没有特别意义。 GT是非高端定位产品的最高级型号,比如9600,有GT还有GSO,GT比GSO要好,而以前的系列甚至有LE这种型号,比如GeForce7300LE,7600LE,从8系列开始不再出现,但高端产品型号就更加丰富了,比如9800,分为GT,GTX,还有GX2(双板双芯),而在GeForce8和Geforce6的时候,还有8800Ultra,6800Ultra这种型号,高端的一般是这样,非多心产品,Ultra是最强的,GTX其次,再往下是GT,有些还有GS。 ATi的话,从HD3000开始,不再出现诸如XT,pro,XTX,GT这种称呼。 就拿你说的HD2400XT说吧,HD表示该显卡具备高清视频的硬件解码能力,2代表第几代,4也是产品的定位,是低端入门级别,XT是非高端型号的最高级,HD2400还有pro,xt和pro的区别一般在核心频率还有显存规格上面,比如说HD2600pro还有HD2600XT,前者是GDDR3显存,后者GDDR4,这个是最显著的区别。 由于HD2000时期,AMD和ATi正在整合,所以高端产品只有失败的HD2900XTX,高端型号同样是8或者9,分为XTX,XT,pro,也有GT,如X1950GT。 从HD3000开始,取消了XTX,XT,pro的称号,我拿HD3870做例子,3代表第几代,8代表高端,7代表这是顶级型号,跟HD3850最显著区别也在显存上面,7是GDDR4,5是GDDR3,而HD4870更是用了GDDR5,同样,也有例外的型号出现,比如HD3690,HD4830,这种属于阉割过的超值版产品,比如HD3690,核心规格除了显存带宽是128的,其他规格几乎跟HD3850一致,性能远好于HD3650同样高端系列顶级型号也会出现9,如4890,低端型号HD4000系列是4350(考虑到东亚人不喜欢4这个数字,4450,死死,nokia也一样,东亚地区没有4系列产品)。 大体就是这样了 最新笔记本显卡性能排名总表 以下排名整理自国外网站,以性能排名,越往前性能越好 第一梯队:高端显卡 GeForce GTX 280M SLI Mobility Radeon HD 4870 X2 GeForce GTX 260M SLI GeForce 9800M GTX SLI GeForce GTX 280M GeForce 9800M GT SLI GeForce 9800M GTS SLI Mobility Radeon HD 3870 X2 GeForce 8800M GTX SLI Mobility Radeon HD 3850 X2 Quadro FX 3700M Mobility Radeon HD 4870 Mobility Radeon HD 4860 FirePro M7740 Mobility Radeon HD 4850 GeForce GTX 260M GeForce 9800M GTX GeForce 9800M GT GeForce 8800M GTX Quadro FX 3600M GeForce GTS 260M GeForce GTS 250M GeForce GTS 160M GeForce 9800M GTS GeForce 9800M GS Mobility Radeon HD 4830 GeForce GTS 150M 第二梯队:中端显卡 GeForce 8800M GTS Mobility Radeon HD 4670 GeForce 9700M GTS Quadro FX 2700M Mobility Radeon HD 3870 Mobility Radeon HD 4650 GeForce Go 7950 GTX SLI GeForce Go 7900 GTX SLI Mobility Radeon HD 3850 GeForce GT 240M GeForce GT 240M GeForce Go 7950 GT X Quadro FX 3500M GeForce 8700M GT SLI GeForce Go 7800 GTX SLI GeForce Go 7900 GS SLI GeForce Go 7900 GTX Quadro FX 2500M GeForce 8600M GT SLI GeForce GT 230M GeForce 9700M GT GeForce GT 130M GeForce 9650M GT GeForce Go 7900 GS GeForce 9650M GS Quadro FX 1700M Quadro FX 1600M GeForce 8700M GT Quadro NVS 320M Quadro FX 1500M GeForce 9600M GT GeForce GT 220M Quadro FX 770M GeForce GT 120M GeForce Go 7800 GTX Mobility Radeon HD 2600 XT Mobility Radeon X1900 Mobility Radeon X1800XT Mobility Radeon X1800 GeForce Go 6800 Ultra GeForce Go 7800 Mobility Radeon HD 3670 Mobility FireGL V5725 GeForce 9600M GS GeForce 9500M GS Mobility Radeon HD 4570 Mobility Radeon HD 2700 Mobility Radeon HD 3650 Mobility FireGL V5700 Quadro FX 570M GeForce 8600M GT Mobility Radeon HD 2600 GeForce Go 7600 GT 第三梯队:中低端显卡 GeForce G 210M GeForce 9500M G GeForce 8600M GS GeForce Go 7700 GeForce Go 6800 Quadro FX Go 1400 Mobility Radeon X800XT Mobility Radeon HD 4530 Mobility Radeon X1700 Mobility FireGL V5250 Mobility Radeon X2500 GeForce Go 7600 Quadro NVS 300M Mobility Radeon X800 Mobility Radeon X1600 Mobility FireGL V5200 Mobility Radeon 9800 GeForce Go 6600 Mobility Radeon X1450 Mobility Radeon X700 Mobility FireGL V5000 GeForce G 110M GeForce 8400M GT Quadro NVS 140M GeForce G 105M GeForce G 105M 差距~ GeForce 9500M GE GeForce G 102M GeForce 9400M (G) Mobility Radeon HD 3470 Hybrid X2 GeForce 9400M GeForceBoost Mobility Radeon HD 3470 GeForce 9300M G GeForce 9300M GS Quadro FX 370M Quadro NVS 160M GeForce 9200M GS Mobility Radeon HD 4330 Mobility Radeon HD 3450 Mobility Radeon HD 3430 Mobility Radeon HD 3410 Radeon HD 4200 Quadro NVS 150M Mobility Radeon HD 2400 XT Quadro FX 360M Mobility Radeon X1350 Mobility Radeon X1400 GeForce 9100M G GeForce 8400M GS Quadro NVS 135M Mobility Radeon HD 2400 Radeon HD 3200 Radeon HD 3100 Graphics Media Accelerator (GMA) 4700MHD GeForce 8400M G Graphics Media Accelerator (GMA) 4500MHD Graphics Media Accelerator (GMA) 4500M Quadro NVS 130M GeForce 8200M G GeForce Go 7400 Quadro FX 350M Quadro NVS 120M GeForce Go 7300 Quadro NVS 110M Mobility Radeon X600 Mobility FireGL V3200 Mobility Radeon X2300 Mobility Radeon HD 2300 Mobility Radeon 9700 Mobility FireGL T2e Mobility FireGL V3100 第四梯队:可玩基本的游戏 Mobility Radeon X1300 GeForce4 4200 Go Mobility Radeon 9600 Mobility FireGL T2 Mobility Radeon 9550 GeForce Go 7200 GeForce Go 6400 Mobility Radeon X300 GeForce Go 6250 GeForce Go 6200 GeForce FX Go 5700 Quadro FX Go 1000 GeForce FX Go 5600 / 5650 第五梯队:低端显卡 Radeon Xpress X1270 Radeon Xpress X1250 Radeon Xpress 1250 Radeon Xpress X1200 Graphics Media Accelerator (GMA) X3100 Radeon Xpress 1150 GeForce 7150M GeForce Go 6150 GeForce Go 6100 GeForce 7000M Mobility Radeon 9200 GeForce FX Go 5200 Mobility Radeon 9000 GeForce 4 488 Go GeForce 4 460 Go GeForce 4 440 Go GeForce 4 420 Go Graphics Media Accelerator (GMA) 950 Mobility Radeon 7500 Mobility FireGL 7800 Graphics Media Accelerator (GMA) 900 Radeon Xpress 200M Radeon Xpress 1100 第六梯队:没法玩游戏 Mobility FireGL 9000 Mirage 3+ 672MX Mirage 3 671MX Graphics Media Accelerator (GMA) 500 GeForce 3 Go GeForce 2 Go (200 / 100) Mobility Radeon 9100 IGP Mobility Radeon 9000 IGP Mobility Radeon M7 Mobility Radeon M6 Mobility Radeon 7000 IGP Chrome9 HC Extreme Graphics 2 Radeon IGP 340M S3G UniChrome Pro II S3G UniChrome Pro Mirage 2 M760 Mirage M661FX S3 Graphics ProSavage8 Castle Rock Mobility 128 M3 SM502 网卡 网卡 计算机与外界局域网的连接是通过主机箱内插入一块网络接口板(或者是在笔记本电脑中插入一块PCMCIA卡)。网络接口板又称为通信适配器或网络适配器(adapter)或网络接口卡NIC(Network Interface Card)但是现在更多的人愿意使用更为简单的名称“网卡”。 网卡功能简述 网卡是工作在数据链路层的网路组件,是局域网中连接计算机和传输介质的接口,不仅能实现与局域网传输介质之间的物理连接和电信号匹配,还涉及帧的发送与接收、帧的封装与拆封、介质访问控制、数据的编码与解码以及数据缓存的功能等。 网卡功能详解 网卡上面装有处理器和存储器(包括RAM和ROM)。网卡和局域网之间的通信是通过电缆或双绞线以串行传输方式进行的。而网卡和计算机之间的通信则是通过计算机主板上的I/O总线以并行传输方式进行。因此,网卡的一个重要功能就是要进行串行/并行转换。由于网络上的数据率和计算机总线上的数据率并不相同,因此在网卡中必须装有对数据进行缓存的存储芯片。 在安装网卡时必须将管理网卡的设备驱动程序安装在计算机的操作系统中。这个驱动程序以后就会告诉网卡,应当从存储器的什么位置上将局域网传送过来的数据块存储下来。网卡还要能够实现以太网协议。 网卡并不是独立的自治单元,因为网卡本身不带电源而是必须使用所插入的计算机的电源,并受该计算机的控制。因此网卡可看成为一个半自治的单元。当网卡收到一个有差错的帧时,它就将这个帧丢弃而不必通知它所插入的计算机。当网卡收到一个正确的帧时,它就使用中断来通知该计算机并交付给协议栈中的网络层。当计算机要发送一个IP数据包时,它就由协议栈向下交给网卡组装成帧后发送到局域网。 随着集成度的不断提高,网卡上的芯片的个数不断的减少,虽然现在各个厂家生产的网卡种类繁多,但其功能大同小异。 网卡的主要功能有以下三个 1.数据的封装与解封 发送时将上一层交下来的数据加上首部和尾部,成为以太网的帧。接收时将以太网的帧剥去首部和尾部,然后送交上一层; 2.链路管理 主要是CSMA/CD(Carrier Sense Multiple Access with Collision Detection ,带冲突检测的载波监听多路访问)协议的实现; 3.编码与译码 即曼彻斯特编码与译码。 鉴别网卡的真假 下面就为大家介绍一下一款优质网卡应该具备的条件: (1)采用喷锡板 优质网卡的电路板一般采用喷锡板,网卡板材为白色,而劣质网卡为黄色。 (2)采用优质的主控制芯片 主控制芯片是网卡上最重要的部件,它往往决定了网卡性能的优劣,所以优质网卡所采用的主控制芯片应该是市场上的成熟产品。市面上很多劣质网卡为了降低成本而采用版本较老的主控制芯片,这无疑给网卡的性能打了一个折扣。 (3)大部分采用SMT贴片式元件 优质网卡除电解电容以及高压瓷片电容以外,其它阻容器件大部分采用比插件更加可靠和稳定的SMT贴片式元件。劣质网卡则大部分采用插件,这使网卡的散热性和稳定性都不够好。 (4)镀钛金的金手指 优质网卡的金手指选用镀钛金制作,既增大了自身的抗干扰能力又减少了对其他设备的干扰,同时金手指的节点处为圆弧形设计。而劣质网卡大多采用非镀钛金,节点也为直角转折,影响了信号传输的性能。 选购网卡时考虑的因素 在组装时是否能正确选用、连接和设置网卡,往往是能否正确连通网络的前提和必要条件。一般来说,在选购网卡时要考虑以下因素: 网络类型 现在比较流行的有以太网,令牌环网,FDDI网等,选择时应根据网络的类型来选择相对应的网卡。 传输速率 应根据服务器或工作站的带宽需求并结合物理传输介质所能提供的最大传输速率来选择网卡的传输速率。以以太网为例,可选择的速率就有10Mbps,10/100Mbps,1000Mbps,甚至10Gbps等多种,但不是速率越高就越合适。例如,为连接在只具备100M传输速度的双绞线上的计算机配置1000M的网卡就是一种浪费,因为其至多也只能实现100M的传输速率。 总线类型 计算机中常见的总线插槽类型有:ISA、EISA、VESA、PCI 和 PCMCIA等。在服务器上通常使用PCI或EISA总线的智能型网卡,工作站则采用可用PCI或ISA总线的普通网卡,在笔记本电脑则用PCMCIA总线的网卡或采用并行接口的便携式网卡。目前PC机基本上已不再支持ISA连接,所以当为自己的PC机购买网卡时,千万不要选购已经过时的ISA网卡,而应当选购PCI网卡。 网卡支持的电缆接口 网卡最终是要与网络进行连接,所以也就必须有一个接口使网线通过它与其它计算机网络设备连接起来。不同的网络接口适用于不同的网络类型,目前常见的接口主要有以太网的RJ-45接口、细同轴电缆的BNC接口和粗同轴电AUI接口、FDDI接口、ATM接口等。而且有的网卡为了适用于更广泛的应用环境,提供了两种或多种类型 的接口,如有的网卡会同时提供RJ-45、BNC接口或AUI接口。 (a)RJ-45接口:这是最为常见的一种网卡,也是应用最广的一种接口类型网卡,这主要得益于双绞线以太网应用的普及。因为这种RJ-45接口类型的网卡就是应用于以双绞线为传输介质的以太网中,它的接口类似于常见的电话接口RJ-11,但RJ-45是8芯线,而电话线的接口是4芯的,通常只接2芯线(ISDN的电话线接4芯线)。在网卡上还自带两个状态批示灯,通过这两个指示灯颜色可初步判断网卡的工作状态。 (b)BNC接口:这种接口网卡对应用于用细同轴电缆为传输介质的以太网或令牌网中,目前这种接口类型的网卡较少见,主要因为用细同轴电缆作为传输介质的网络就比较少。 (c)AUI接口:这种接口类型的网卡对应用于以粗同轴电缆为传输介质的以太网或令牌网中,这种接口类型的网卡目前更是很少见。 (d)FDDI接口:这种接口的网卡是适应于FDDI(光纤分布数据接口)网络中,这种网络具有100Mbps的带宽,但它所使用的传输介质是光纤,所以这种FDDI接口网卡的接口也是光纤接口的。随着快速以太网的出现,它的速度优越性已不复存在,但它须采用昂贵的光纤作为传输介质的缺点并没有改变,所以目前也非常少见。 (e)ATM接口:这种接口类型的网卡是应用于ATM(异步传输模式)光纤(或双绞线)网络中。它能提供物理的传输速度达155Mbps 价格与品牌 不同速率、不同品牌的网卡价格差别较大。 网卡其他知识 (1)网卡:判断网络故障的命令 Ping命令是测试网络联接状况以及信息包发送和接收状况非常有用的工具,是网络测试最常用的命令。Ping向目标主机(地址)发送一个回送请求数据包,要求目标主机收到请求后给予答复,从而判断网络的响应时间和本机是否与目标主机(地址)联通。 如果执行Ping不成功,则可以预测故障出现在以下几个方面:网线故障,网络适配器配置不正确,IP地址不正确。如果执行Ping成功而网络仍无法使用,那么问题很可能出在网络系统的软件配置方面,Ping成功只能保证本机与目标主机间存在一条连通的物理路径。 命令格式:ping IP地址或主机名 [-t] [-a] [-n count] [-l size] 参数含义: -t不停地向目标主机发送数据; -a 以IP地址格式来显示目标主机的网络地址 ; -n count 指定要Ping多少次,具体次数由count来指定 ; -l size 指定发送到目标主机的数据包的大小。 例如当您的机器不能访问Internet,首先您想确认是否是本地局域网的故障。假定局域网的代理服务器IP地址为202.168.0.1,您可以使用Ping避免202.168.0.1命令查看本机是否和代理服务器联通。又如,测试本机的网卡是否正确安装的常用命令是ping 127.0.0.1。 Tracert命令用来显示数据包到达目标主机所经过的路径,并显示到达每个节点的时间。命令功能同Ping类似,但它所获得的信息要比Ping命令详细得多,它把数据包所走的全部路径、节点的IP以及花费的时间都显示出来。该命令比较适用于大型网络。 命令格式:tracert IP地址或主机名 [-d][-h maximumhops][-j host_list] [-w timeout] 参数含义: -d 不解析目标主机的名字; -h maximum_hops 指定搜索到目标地址的最大跳跃数; -j host_list 按照主机列表中的地址释放源路由; -w timeout 指定超时时间间隔,程序默认的时间单位是毫秒。 如果我们在Tracert命令后面加上一些参数,还可以检测到其他更详细的信息,例如使用参数-d,可以指定程序在跟踪主机的路径信息时,同时也解析目标主机的域名。 Netstat命令可以帮助网络管理员了解网络的整体使用情况。它可以显示当前正在活动的网络连接的详细信息,例如显示网络连接、路由表和网络接口信息,可以统计目前总共有哪些网络连接正在运行。 利用命令参数,命令可以显示所有协议的使用状态,这些协议包括TCP协议、UDP协议以及IP协议等,另外还可以选择特定的协议并查看其具体信息,还能显示所有主机的端口号以及当前主机的详细路由信息。 命令格式:netstat [-r] [-s] [-n] [-a] 参数含义: -r 显示本机路由表的内容; -s 显示每个协议的使用状态(包括TCP协议、UDP协议、IP协议); -n 以数字表格形式显示地址和端口; -a 显示所有主机的端口号。 Winipcfg命令以窗口的形式显示IP协议的具体配置信息,命令可以显示网络适配器的物理地址、主机的IP地址、子网掩码以及默认网关等,还可以查看主机名、DNS服务器、节点类型等相关信息。其中网络适配器的物理地址在检测网络错误时非常有用。 命令格式:winipcfg [/?] [/all] 参数含义: /all 显示所有的有关IP地址的配置信息; /batch [file] 将命令结果写入指定文件; /renew_ all 重试所有网络适配器; /release_all 释放所有网络适配器; /renew N 复位网络适配器 N; /release N 释放网络适配器 N。 (2)网卡:LED指示灯 一般来讲,每块网卡都具有1个以上的LED(Light Emitting Diode发光二极管)指示灯,用来表示网卡的不同工作状态,以方便我们查看网卡是否工作正常。典型的LED指示灯有Link/Act、Full、Power等。Link/Act表示连接活动状态,Full表示是否全双工(Full Duplex),而Power是电源指示等。 (3)网卡:主芯片 网卡的主控制芯片是网卡的核心元件,一块网卡性能的好坏,主要是看这块芯片的质量。网卡的主控制芯片一般采用3.3V的低耗能设计、0.35μm的芯片工艺,这使得它能快速计算流经网卡的数据,从而减轻CPU的负担。以下是目前常用的网卡控制芯片。 1、Realtek 8201BL:是一种常见的主板集成网络芯片(又称为PHY网络芯片)。PHY芯片是指将网络控制芯片的运算部分交由处理器或南桥芯片处理,以简化线路设计,从而降低成本。 2、Realtek 8139C/D:是目前使用最多的网卡之一。8139D主要增加了电源管理功能,其他则基本上与8139C芯片无异。该芯片支持10M/100Mbps。 3、lntel Pro/100VE:lntel公司的入门级网络芯片。 4、nForce MCP NVIDIA/3Com:nForce2内置了两组网络芯片功能,Realtek 8210BL PHY网络芯片和Broabcom AC101L PHY网络芯片。 5、3Com 905C:C支持10/100Mbps速度。 6、SiS900:原本是单一的网络控制芯片,但现在已经集成到南桥芯片中。支持100Mbps。 (4)网卡:远程唤醒功能 远程唤醒技术(WOL,Wake-on-LAN)是由网卡配合其他软硬件,可以通过局域网实现远程开机的一种技术,无论被访问的计算机离我们有多远、处于什么位置,只要处于同一局域网内,就都能够被随时启动。这种技术非常适合具有远程网络管理要求的环境,如果有这种要求在选购网卡时应注意是否具有此功能。 可被远程唤醒的计算机对硬件有一定的要求,主要表现在网卡、主板和电源上。 a.网卡:能否实现远程唤醒,其中最主要的一个部件就是支持WOL的网卡。远端被唤醒计算机的网卡必须支持WOL,而用于唤醒其他计算机的网卡则不必支持WOL。另外,当一台计算机中安装有多块网卡时,只将其中的一块设置为可远程唤醒。 b.主板:也必需支持远程唤醒,可通过查看CMOS的―Power Management Setup‖ 菜单中是否拥有―Wake on LAN‖项而确认。另外,支持远程唤醒的主板上通常都拥有一个专门的3芯插座,以给网卡供电(PCI2.1标准)。 由于现在的主板通常支持PCI 2.2标准,可以直接通过PCI插槽向网卡提供+3.3V Standby电源,即使不连接WOL 电源线也一样能够实现远程唤醒,因此,可能不再提供3芯插座。主板是否支持PCI2.2标准,可通过查看CMOS的―Power Management Setup‖菜单中是否拥有―Wake on PCI Card‖项来确认。 c.电源:若欲实现远程唤醒,计算机安装的必须是符合ATX 2.01标准的ATX电源,+5V Standby电流至少应在600mA以上。 [1] 网卡没有安装成功该怎么解决, 造成网卡未安装成功的一般原因可能是网卡驱动程序不对、中断号或I/O值不对及网卡本身的硬件故障等。你可以根据下面的步骤来进行检测: (1)此类网卡一般出厂时就被设定了一些默认值,这些值包括―中断‖号(即IR问值)为―3‖,―I/O地址范围‖(即I/O)为―300-31F‖,你可以双击此处的网卡名称,检测是否已修改成这些值,如果不是,请改正(改正后需重新启动计算机)。 (2)如果上面的值已确信无误,而网卡仍不能正常工作(即其前面还有黄色惊叹号),则请再进入―设备管理器‖选项卡中,展开―端口(COM LPT)‖,如果里面有―通讯端口(COM2)‖字样存在,则你还需要屏蔽COM2端口。因为默认的,COM2端口会占用中断号3,这样就和NE2000兼容系列网卡的初设值发生冲突,从而使网卡无法正常工作。操作时请重新启动计算机,当计算机重新启动时,根据提示按键盘上的―Del‖键进入CMOS,然后在―INTERGRATED PERIPHER答LS‖项中,选中―Onboard Serial Port 2‖,再按键盘上的―Pae Up‖键将它改选为―Disable‖(禁止)后按―Esc‖键退回CMOS的主菜单,最后按―F10‖键保存所作的修改后重新启动计算机即可。 (3)如果还是不行的话,建议在网卡名称处点击右键,选―删除‖,之后重新启动计算机,再重新严格按步骤来添加此网卡。 (4)接下去的尝试是,你可以更换一下网卡的插槽试试。 (5)如果仍然不行,那么要么此张网卡不是NE2000兼容系列,要么是网卡本身有毛病了。 (6)当然,如果有人修改过此张网卡的中断号和I/O值,那你用预设的那些值自然也是不行的,因此,为了保险起见,你可以找到此网卡完整的安装设置盘,运行里面的设置程序,检查一下它的预设值,如果有不同,再重新根据新值来进行修改;如果在运行设置程序时,系统提示找不到相关网卡,则就是你网卡没插好,或所在插槽有问题,或网卡本身有硬件故障了。 无线网卡 无线网卡定义所谓无线网络,就是利用无线电波作为信息传输的媒介构成的无线局域网(WLAN),与有线网络的用途十分类似,最大的不同在于传输媒介的不同,利用无线电技术取代网线,可以和有线网络互为备份,只可惜速度太慢。 无线网卡是终端无线网络的设备,是无线局域网的无线覆盖下通过无线连接网络进行上网使用的无线终端设备。具体来说无线网卡就是使你的电脑可以利用无线来上网的一个装置,但是有了无线网卡也还需要一个可以连接的无线网络,如果你在家里或者所在地有无线路由器或者无线AP(AccessPoint无线接入点)的覆盖,就可以通 过无线网卡以无线的方式连接无线网络可上网。 无线网卡的工作原理是微波射频技术,笔记本目前有WIFI、GPRS、CDMA等几种无线数据传输模式来上网,后两者由中国移动和中国联通来实现,前者电信或网通有所参与,但不多主要是自己拥有接入互联网的WIFI基站(其实就是WIFI路由器等)和笔记本用的WIFI网卡。要说基本概念是差不多的,通过无线形式进行数据传输。无线上网遵循802.1q标准,通过无线传输,有无线接入点发出信号,用无线网卡接受和发送数据。 按照IEEE802.11协议,无线局域网卡分为媒体访问控制(MAC)层和物理层(PHY Layer)在两者之间,还定义了一个媒体访问控制-物理(MAC-PHY)子层(Sublayers)。MAC层提供主机与物理层之间的接口,并管理外部存储器,它与无线网卡硬件的NIC单元相对应。 物理层具体实现无线电信号的接收与发射,它与无线网卡硬件中的扩频通信机相对应。物理层提供空闲信道估计CCA信息给MAC层,以便决定是否可以发送信号,通过MAC层的控制来实现无线网络的CCSMA/CA协议,而MAC-PHY子层主要实现数据的打包与拆包,把必要的控制信息放在数据包的前面。 IEEE802.11协议指出,物理层必须有至少一种提供空闲信道估计CCA信号的方法。无线网卡的工作原理如下:当物理层接收到信号并确认无错后提交给MAC-PHY子层,经过拆包后把数据上交MAC层,然后判断是否是发给本网卡的数据,若是,则上交,否则,丢弃。 如果物理层接收到的发给本网卡的信号有错,则需要通知发送端重发此包信息。当网卡有数据需要发送时,首先要判断信道是否空闲。若空,随机退避一段时间后发送,否则,暂不发送。由于网卡为时分双工工作,所以,发送时不能接收,接收时不能发。 无线网卡标准: 1.IEEE 802.11a :使用5GHz频段,传输速度54Mbps,与802.11b不兼容; 2.IEEE 802.11b :使用2.4GHz频段,传输速度11Mbps; 3.IEEE 802.11g :使用2.4GHz频段,传输速度54Mbps,可向下兼容802.11b; 4.IEEE 802.11n(Draft 2.0) :用于Intel新的迅驰2笔记本和高端路由上,可向下兼容,传输速度300Mbps。 网卡的发展史 网卡:(NIC)是计算机局域网中最重要的连接设备,计算机主要通过网卡连接网络.在网络中,网卡的工作是双重的:一方面它负责接收网络上传过来的数据包,解包后,将数据通过主板上的总线传输给本地计算机;另一方面它将本地计算机上的数据打包后送入网络。 ?计算机网络:是计算机技术和通信技术发展的产物,是随着社会对信息共享、信息传递的要求而发展起来的。所谓计算机网络就是利用通信设备和线路将地理位置不同的、功能独立的多个计算机系统互连起来,以功能完善的网络软件(即网络通信 协议、信息交换方式及网络操作系统等)实现网络中资源共享和信息传递的系统。 ?计算机网络组成:通常由三部分组成,即资源子网、通信子网和通信协议。 资源子网:是计算机网络中面向用户的部分,负责全网络面向应用的数据处理工作,其主体是连入计算机网络内的所有主计算机,以及这些计算机所拥有的面向用户端的外部设备、软件和可供共享的数据等。 通信子网:四计算机网络中负责数据通信的部分,通信传输介质可以是双绞线、同轴电缆、无线电通信、微波、光导纤维等。 通信协议:为使网内各计算机之间的通信可靠有效,通信双方双方必须共同遵守的规则和约定称为通信协议。 ?资源共享:包括硬件和软件资源。硬件资源如具有特殊功能的高性能处理部件,高性能的输入输出设备(激光打印机、绘图仪等)以及大容量的辅助存储设备(如磁带机、大容量硬盘驱动器等),它们的共享可以节省硬件开销。软件资源如软件和数据。 ?局域网:是一个通讯系统,他允许数台彼此独立的电脑,在适当的范围内,以适当的传输速率直接进行沟通。一般网络可依其规模来分类,通常我们在办公室或家中使用的,大都属于局域网,这种网络由于电脑间的距离短,且不必经过太多网络设备的中继,所以感觉上速度较快,但也因此适用范围较小。 ?广域网(WAN)Wide Area Network:和局域网相对,凡超过局域网范围的,都可以算为广域网。 ?城域网(MAN)Metropolitan ARea Network:在一个城市范围内操作的网络,或者在物理上使用城市基础电信设施(如地下电缆系统)的网络,有时从WAN中区分出来,称为城域网。 ?网络体系结构:是指通信系统的整体设计,它为网络硬件、软件、协议、存取控制和拓扑提供标准。它广泛采用的是国际标准化组织(ISO)在1979年提出的开放系统互连(OSI-Open System Interconnection)的参考模型。OSI参考模型用物理层、数据链路层、网络层、传送层、对话层、表示层和应用层七个层次描述网络的结构,它的规范对所有的厂商是开放的,具有指导国际网络结构和开放系统走向的作用。它直接影响总线、接口和网络的性能。目前常见的网络体系结构有FDDI、以太网、令牌环网和快速以太网等。从网络互连的角度看,网络体系结构的关键要素是协议和拓扑。 ?协议(Protocol):是对数据格式和计算机之间交换数据时必须遵守的规则的正式描述。简单的说了,网络中的计算机要能够互相顺利的通信,就必须讲同样的语言,语言就相当于协议,它分为Ethernet、NetBEUI、IPX/SPX以及TCP/IP协议。 ?拓扑结构:是指网络中各个站点相互连接的形式,主要有总线型拓扑、星型拓扑、环型拓扑以及它们的混合型。 ?FDDI/CDDI:由美国国家标准协会ANSI的X3T9.5制定。速率为100Mbps;CDDI是基于铜电缆(双绞线)的FDDI。FDDI技术成熟,网络可延伸100公里,且由于采用环形结构和优良的管理能力,具有高可靠性。价格贵,安装复杂,标准完善,技术成熟,支持的软硬件产品丰富。 ?IEEE802.5/令牌环网:常用于IBM系统中,其支持的速率为4Mbps和16Mbps两种。目前Novell、IBM LAN Server支持16MbpsIEEE802.5/令牌环网技术。 ?交换以太网:其支持的协议仍然是IEEE802.3/以太网,但提供多个单独的 10Mbps端口。它与原来的IEEE802.3/以太网完全兼容,并且克服了共享10Mbps带来的网络效率下降。 ?100BASE-T快速以太网:与10BASE-T的区别在于将网络的速率提高了十倍,即100M。采用了FDDI的PMD协议,但价格比FDDI便宜。100BASE-T的标准由IEEE802.3制定。与10BASE-T采用相同的媒体访问技术、类似的步线规则和相同的引出线,易于与10BASE-T集成。每个网段只允许两个中继器,最大网络跨度为210米。 ?IEEE802.3/Ethernet(以太网):目前最广泛的媒体访问技术,通常在OSI模型的物理层和数据链路层操作。是Novell、Widows NT、 IBM、UNIX网络 LANServer、DECNET等低层所采用的主要媒体访问技术,组网方式灵活、方便、且支持的软硬件产品众多。其速率为共享型10Mbps。根据不同的媒体可分为:10BASE-2(同轴粗缆)、10BASE-5(同轴细缆)、10BASE-T(双绞线)及10BASE-FL(光纤)。 ?NETBIOS/NETBEUI:NETBIOS是局域网软件接口的工业标准,可支持多种传输媒体。NETBEUI是NETBIOS的扩展用户接口,为Microaoft Windows NT和IBM的LAN Manager所采用。NETBIOS研制较早,比较简单,未考虑网间互连的情况,其命名方案不适合多种操作系统。 ?IPX/SPX:NOVELL网的主要协议。目前,支持IPX/SPX的软硬件,I/O设备很多。OSI参考模型中,相当于第三、四层(网络层、传输层)的。NOVELL网中,可在IPX上加载IP协议NETBIOS协议。 ?TCP/IP:IP在UNIX中广泛配置,成为事实上的国际工业标准。IP也是Internet的主要协议。IP协议可横跨局域网、广域网,几乎所有局域网、广域网设备均支持IP协议,是统一媒体传输方式的最佳协议。IP协议为数据类协议,其传输的响应时间较好,协议交互少,较适合高速传输的需要。 ?总线型拓扑:采用单根传输线作为传输介质,所有的站点都通过相应的硬件接口直接连接到干线电缆即总线上。 ?星型拓扑:所有站点都连接到一个中心点,此中心点称作网络的集线器(HUB)。 ?环型拓扑:所有站点彼此串行连接,就象链子一样,构成一个回路或称作环。 ?混合型拓扑:在居域网之间互连后,会出现某几种拓扑结构的混合形式,即混合型拓扑。 ?传输介质:是通信网络中发送方和接受方之间的物理通路,目前常用的网络传输介质有双绞线、同轴电缆和光缆等。 ?双绞线:是综合布线系统中最常用的一种传输介质,尤其在星型网络拓扑中,双绞线是必不可少的布线材料。双绞线电缆中封装着一对或一对以上的双绞线,为了降低信号的干扰程度,为了降低信号的干扰程度,每一对双绞线一般由两根绝缘铜导线相互缠绕而成。双绞线可分为非屏蔽双绞线(UTP)和屏蔽双绞线(STP)两大类。 其中,STP又分为3类和5类两种,而UTP分为3类、4类、5类、超5类四种,同时,6类和7类双绞线也会在不远的将来运用于计算机网络的布线系统。 ?RJ-45接头:每条双绞线两头通过安装RJ-45连接器(俗称水晶头)与网卡和集线器(或交换机)相连。 ?同轴电缆:是由一根空心的圆柱网状铜导体和一根位于中心轴线的铜导线组成,铜导线、空心圆柱导体和外界之间用绝缘材料隔开。与双绞线相比,同轴电缆的抗干扰能力强,屏蔽性能好,所以常用于设备与设备之间的连接,或用于总线型网络拓扑中。根据直径的不同,又可分为细缆和粗缆两种。 ?BNC接头:细缆两端安装BNC连接头,通过专用T型连接器与网卡和集线器(或交换机)相连。 ?光纤:光纤即光导纤维,是一种细小、柔韧并能传输光信号的介质,光缆由多条光纤组成。与双绞线和同轴电缆相比,光缆适应了目前网络对长距离传输大容量信息的要求,在计算机网络中发挥着十分重要的作用。 ?半双工:它的意思是虽然网卡可以接收发送数据,但是一次只能做一种动作,不能同时收发。 ?全双工:就是能够"同时"接收与发送信号,譬如电话就是一种全双工传输设备,我们在听对方讲话的同时,也可以发话给对方。理论上,全双工传输可以提高网络效率,但是实际上仍是配合其他相关设备才有用。例如必须选用双绞线的网络缆线才可以全双工传输,而且中间所接的集线器(HUB),也要能全双工传输;最后,所采用的网络操作系统也得支持全双工作业,如此才能真正发挥全双工传输的威力。 ?Programmed I/O:这是从早期使用迄今,行之有效的传输方式,当年NOVELL公司风靡全球的NE 2000网卡便是采用这种方式。这种传输方式传输效率不容易提高,一旦遇到大量数据的情况便成了传输的瓶颈。 ?Shared Memory:这类的网卡把要传输的数据放到卡上的存储器,而这块存储器必须事先占用一端地址(大多数占用640-1024KB之间的地址),有了这个地址,这块存储器就可视为主机板存储器的一部分:当主机向网卡要数据时,便直接到这块存储器取回;反之,将数据放到存储器也等于是传给了网卡。如果将PROGRAMMED I/O方式比喻成用勺子舀水,那SHARED MEMORY便是以桶打水,在传输量多时更能突出它的效率。 ?Bus Master:这类网卡上有一片控制芯片(CONTROLLER),专门用来管制整个传输过程及总线的使用,由于控制动作由这片芯片代劳,数据可以直接从网卡传给主机板,不必I/O PROT,也不必经过CPU。由于不占用CPU宝贵的时间,能有效减低系统的负担,因此特别适用在服务器上。多数EISA、MCA、PCI接口的网卡都支持用这种BUS MASTER方式与主机板沟通。 ?802.3x流控制:由于数据传输更有效而提高了性能。网卡通过与交换机通信来确立最佳的数据传输。 ?Parallel Tasking技术:3COM公司专利技术,此技术能够在10Mbps 或100 Mbps连接时使数据传输速度最高 。 ?Parallel Tasking II技术:3COM公司专利技术,此技术能够降低CPU占用率,还由于数据更有效在PCI总线上传输而提高了应用性能 。在过去,在一个总线主操作周期里网卡至多每次只让64字节的数据在PCI总线上传输。为了把一个1514 字节的数据包全部传输到PC主机, 就需要24个单独的总线主操作周期,这使总线的效率很低。有了Parallel Tasking II技术之 后,网卡就能够在一个总线主操作周期里在总线上传输整个Ethernet数据包,这极大地提高 了PCI总线的效率。其结果是加快了传输速度并改善了系统性能,使台式机和服务器的应用软 件工作得更好。 ?32位总线主控DMA:宽数据通路和高速传输以及低的CPU占用率提供了最佳的系统性能。 ?交互式访问技术:网卡可以动态分析网络信息流,进而调整网络性能。 ?远程唤醒:使网络管理人员可以在中心地点命令远程PC通电,便于在下班时间更新和维护台式机(PC主板必须装有3脚的远程唤醒连接器;还要求配备Desktop Management Application 软件,该软件能产生Magic Packet TM远程唤醒信号) 。 ?DMI2.0:使远程PC能够记录和报告PC的状态,以改善桌面管理 。 ?3Com DynamicAccess 软件:是3Com Fast EtherLink XL系列的有机组成部分,为网卡增加各种智能。它包括1、通过服务类别来区分数据流的优先级。为时间要求高的数据分配高优先级,以改善多媒体和关键性商业应用的性能;2、分布式RMON(dRMON)SmartAgent TM软件。 该软件能在交换型和高速的网络环境中提供全面的廉价的网络管理,其中包括支持所有类别的远程监控;3、Fast IP软件。该软件最大限度地缓解了路由器可能产生的各种瓶颈,从而提高了网间互联性能;4、有效的多点播控制。这种控制能够在多点播数据流充斥LAN之前自动滤除不必要的多点播流,从而扩大了网络的有用带宽。 ?100VG-ANYLAN:由HP,AT&T组织开发,由IEEE802(12制定标准。其优点为可以基于目前的三类8芯双绞线组网,且支持优先调度,适合传送多媒体信息,价格便宜。缺点是标准不成熟、缺乏容错功能的主干,保密性有限,且支持产品较少。 ?ATM:高速的基于分组的网络,是未来信息高速公路的主要通信传输手段。ATM标准有ATM论坛制定(150多个国家参加)。基于53个字节的信元进行数据交换,速率可达25M、34M、45M、50M、155M、622M,并可达数Gbps。ATM支持产品越来越多,但价格较高。 发展历史: 80年代,随着微机技术的发展,微机局域网技术和产品获得迅速的发展。80年代末期,国外微机界已预言,90年代微机使用的环境就是网络。事实上确实如此,微机居域网的发展在整个计算机网络领域中具有相当大的影响,数以千计的微机网络用户分布在各个应用领域中促进了网络应用技术的发展,从而也加速微机网络技术的发展。 过去一直是国外微机居域网产品占据着网络市场,其中建网用户数占先的主要有NOVELL、3COM、IBM、BANYAN以及SUN等公司的产品。随着网络的发展,台湾的厂商以生产能力强且多在内地设厂等优势,也迅速的发展起来,象D,LINK, TP,LINK等品牌逐渐走向成熟,另外国内的计算机产品生产商如实达、联想也纷纷生产出各自的网络产品。 其实网卡的发展史也就是网络的发展史..... 网卡杂谈: 网卡的不同分类:根据工作对象的不同务器的工作特点而专门设计的,价格较贵,但性能很好。就兼容网卡而言,目前,网卡一般分为普通工作站网卡和服务器专用网卡。服务器专用网卡是为了适应网络服种类较多,性能也有差异,可按以下的标准进行分类:按网卡所支持带宽的不同可分为10M网卡、100M网卡、10/100M自适应网卡、1000M网卡几种;根据网卡总线类型的不同,主要分为ISA网卡、EISA网卡和PCI网卡三大类,其中ISA网卡和PCI网卡较常使用。ISA总线网卡的带宽一般为10M,PCI总线网卡的带宽从10M到1000M都有。同样是10M网卡,因为ISA总线为16位,而PCI总线为32位,所以PCI网卡要比ISA网卡快。 网卡的接口类型:根据传输介质的不同,网卡出现了AUI接口(粗缆接口)、BNC接口(细缆接口)和RJ-45接口(双绞线接口)三种接口类型。所以在选用网卡时,应注意网卡所支持的接口类型,否则可能不适用于你的网络。市面上常见的10M网卡主要有单口网卡(RJ-45接口或BNC接口)和双口网卡(RJ-45和BNC两种接口),带有AUI粗缆接口的网卡较少。而100M和1000M网卡一般为单口卡(RJ-45接口)。除网卡的接口外,我们在选用网卡时还常常要注意网卡是否支持无盘启动。必要时还要考虑网卡是否支持光纤连接。 网卡的选购:据统计,目前绝大多数的局域网采用以太网技术,因而重点以以太网网卡为例,讲一些选购网卡时应注意的问题。购买时应注意以下几个重点: 网卡的应用领域----目前,以太网网卡有10M、100M、10M/100M及千兆网卡。对于大数据量网络来说,服务器应该采用千兆以太网网卡,这种网卡多用于服务器与交换机之间的连接,以提高整体系统的响应速率。而10M、100M和10M/100M网卡则属人们经常购买且常用的网络设备,这三种产品的价格相差不大。所谓10M/100M自适应是指网卡可以与远端网络设备(集线器或交换机)自动协商,确定当前的可用速率是10M还是100M。对于通常的文件共享等应用来说,10M网卡就已经足够了,但对于将来可能的语音和视频等应用来说,100M网卡将更利于实时应用的传输。鉴于10M技术已经拥有的基础(如以前的集线器和交换机等),通常的变通方法是购买10M/100M网卡,这样既有利于保护已有的投资,又有利于网络的进一步扩展。就整体价格和技术发展而言,千兆以太网到桌面机尚需时日,但10M的时代已经逐渐远去。因而对中小企业来说,10M/100M网卡应该是采购时的首选。 注意总线接口方式----当前台式机和笔记本电脑中常见的总线接口方式都可以从主流网卡厂商那里找到适用的产品。但值得注意的是,市场上很难找到ISA接口的100M网卡。1994年以来,PCI总线架构日益成为网卡的首选总线,目前已牢固地确立了在服务器和高端桌面机中的地位。即将到来的转变是这种网卡将推广到所有的桌面机中。PCI以太网网卡的高性能、易用性和增强了的可靠性使其被标准以太网网络所广泛采用,并得到了PC业界的支持。 网卡兼容性和运用的技术----快速以太网在桌面一级普遍采用100BaseTX技术,以UTP为传输介质,因此,快速以太网的网卡设一个RJ45接口。由于小办公室网络普遍采用双绞线作为网络的传输介质,并进行结构化布线,因此,选择单一RJ45接口的网卡就可以了。适用性好的网卡应通过各主流操作系统的认证,至少具备如下操作系统的驱动程序:Windows、Netware、Unix和OS/2。智能网卡上自带处理器或带有专门设计的AISC芯片,可承担使用非智能网卡时由计算机处理器承担的一部分任务,因而即使在网络信息流量很大时,也极少占用计算机的内存和CPU时间。智能网卡性能好,价格也较高,主要用在服务器上。另外,有的网卡在BootROM上做文章,加入防病毒功能;有的网卡则与主机板配合,借助一定的软件,实现Wake?on?LAN(远程唤醒)功能,可以通过网络远程启动计算机;还有的计算机则干脆将网卡集成到了主机板上。 网卡生产商----由于网卡技术的成熟性,目前生产以太网网卡的厂商除了国外的3Com、英特尔和IBM等公司之外,台湾的厂商以生产能力强且多在内地设厂等优势,其价格相对比较便宜。 常见的网卡品牌介绍 Intel Intel是个老品牌了,早期的台式机有很多都采用Intel的入门级网卡产品——lntel Pro/100VE。在AMD还没与Intel形成明显的竞争关系之前,这个网卡在市场中很常见,后来Intel又推出了Pro 10/100、Pro 100/1000,后两个产品现在大多集成到Intel自主品牌的主板中,DIY市场已经不多见了。 8254X系列,这个系列是早期的千兆芯片了,照7X系列的性能要差一些,目前仍用在低端千兆网卡产品中。 Realtek Realtek,中文叫做瑞昱,这个品牌可谓是家喻户晓。瑞昱半导体成立于1987年,位于台湾―硅谷‖的新竹科学园区,旗下的网卡芯片和声卡芯片被广泛运用于台式电脑之中,它凭借成熟的技术和低廉的价格,走红与DIY市场,是许多带有集成网卡、声卡的主板的首选。尤其是8139D网卡芯片,在市场上占有绝对的优势。 千兆芯片则有8110S、8110SB、8110SC,高端一点的有8169S、8169SB和8169SC。如果你的主板集成了千兆网卡,你就可以看看芯片表面来判断是Realtek的哪个千兆芯片。 Broadcom Broadcom公司创立于1991年,是世界上最大的无生产线半导体公司之一,总部位于美国加利福尼亚州的尔湾。08年3月份收购了光驱技术供应商Sunext Design。 NetLink 440X系列,这个系列可以说是与Realtek 8139最有竞争力的网卡芯片,其市场份额也不小,一部分品牌机和独立网卡都采用了这个芯片,它的驱动非常完善,支持大部分操作系统。 NetLink 57XX系列,这个系列都是千兆芯片了,其中有5781、5786、5787、5788、5789,市面上千兆网卡中也能经常见到57XX系列的芯片。一些笔记本电脑配备的千兆网卡也有很多采用了57XX系列芯片。 在有线芯片方面,Atheros只有两款千兆产品——AR8021和AR8216。8021就是一个标准的千兆网卡芯片,没有什么特点可言。8216在8021的基础上增加了对802.1p的支持,加入Qos系统,支持IPv6和VLAN功能。 VIA和SIS SIS的网卡芯片一般只出现在采用了SIS芯片组的主板上,独立网卡市场几乎销声匿迹。由于SIS官方网站上只有SIS900,所以其他型号的网卡驱动都是主板厂商直接提供,如果你的网卡是SIS的芯片,在下载驱动程序时去主板厂商的网站找会更方便。接下来看VIA。VIA的网卡芯片曾经有过一段辉煌的历史,当时8000系列的板载网卡芯片非常流行,许多大的主板厂商都采用其网络芯片,后来由于Realtek发展壮大,其产品就被人们所遗忘。加上VIA主板芯片组的地位被nVIDIA取代,就更没有人去注意VIA的网络芯片了。 但是现在仍然能够看到VIA的主板芯片组和网卡芯片。VT8231是一个经典的网卡芯片型号,它是标准的百兆网卡芯片,采用传统、成熟的技术制作而成,缺点就是稳定性不好。 每块网卡都有全球唯一的48位地址,亦即MAC地址。 光驱 百科名片 光驱,电脑用来读写光碟内容的机器,是台式机里比较常见的一个配件。随着多媒体的应用越来越广泛,使得光驱在台式机诸多配件中的已经成标准配置。目前,光驱可分为CD-ROM驱动器、DVD光驱(DVD-ROM)、康宝(COMBO)和刻录机等。 英文名称:Drive 汉语拼音:guangqu CD-ROM光驱:又称为致密盘只读存储器,是一种只读的光存储介质。它是利用原本用于音频CD的CD-DA(Digital Audio)格式发展起来的。 DVD光驱:是一种可以读取DVD碟片的光驱,除了兼容DVD-ROM,DVD-VIDEO,DVD-R,CD-ROM等常见的格式外,对于CD-R/RW,CD-I,VIDEO-CD,CD-G等都要能很好的支持。 光驱的工作原理 激光头是光驱的心脏,也是最精密的部分。它主要负责数据的读取工作,因此在清理光驱内部的时候要格外小心。 激光头主要包括:激光发生器(又称激光二极管),半反光棱镜,物镜,透镜以及光电二极管这几部分。当激光头读取盘片上的数据时,从激光发生器发出的激光透过半反射棱镜,汇聚在物镜上,物镜将激光聚焦成为极其细小的光点并打到光盘上。此时,光盘上的反射物质就会将照射过来的光线反射回去,透过物镜,再照射到半反射棱镜上。 此时,由于棱镜是半反射结构,因此不会让光束完全穿透它并回到激光发生器上,而是经过反射,穿 光驱 过透镜,到达了光电二极管上面。由于光盘表面是以突起不平的点来记录数据,所以反射回来的光线就会射向不同的方向。人们将射向不同方向的信号定义为―0‖或者―1‖,发光二极管接受到的是那些以―0‖,―1‖排列的数据,并最终将它们解析成为我们所需要的数据。 在激光头读取数据的整个过程中,寻迹和聚焦直接影响到光驱的纠错能力以及稳定性。寻迹就是保持激光头能够始终正确地对准记录数据的轨道。 当激光束正好与轨道重合时,寻迹误差信号就为0,否则寻迹信号就可能为正数或者负数,激光头会根据寻迹信号对姿态进行适当的调整。如果光驱的寻迹性能很差,在读盘的时候就会出现读取数据错误的现象,最典型的就是在读音轨的时候出现的跳音现象。所谓聚焦,就是指激光头能够精确地将光束打到盘片上并受到最强的信号。 当激光束从盘片上反射回来时会同时打到4个光电二极管上。它们将信号叠加并最终形成聚焦信号。只有当聚焦准确时,这个信号才为0,否则,它就会发出信号, 矫正激光头的位置。聚焦和寻道是激光头工作时最重要的两项性能,我们所说的读盘好的光驱都是在这两方面性能优秀的产品。 目前,市面上英拓等少数高档光驱产品开始使用步进马达技术,通过螺旋螺杆传动齿轮,使得1/3寻址时间从原来85ms降低到75ms以内,相对于同类48速光驱产品82ms的寻址时间而言,性能上得到明显改善。 而且光驱的聚焦与寻道很大程度上与盘片本身不无关系。目前市场上不论是正版盘还是盗版盘都会存在不同程度的中心点偏移以及光介质密度分布不均的情况。当光盘高速旋转时,造成光盘强烈震动的情况,不但使得光驱产生风噪,而且迫使激光头以相应的频率反复聚焦和寻迹调整,严重影响光驱的读潘小过于使用寿命。在36X-44X的光驱产品中,普遍采用了全钢机芯技术,通过重物悬垂实现能量的转移。 但面对每分钟上万转的高速产品,全钢机芯技术显得有些无能为力,市场上已经推出了以ABS技术为核心的英拓等光驱产品。ABS技术主要是通过在光盘托盘下配置一副钢珠轴承,当光盘出现震动时,钢珠会在离心力的作用下滚动到质量较轻的部分进行填补,以起到瞬间平衡的作用,从而改善光驱性能。 光驱的读盘速度 CD-ROM速度的提升发展非常快,去年24X产品还是主流,如今48X光驱也已经逐步普及了。值得注意的是,光驱的速度都是标称的最快速度,这个数值是指光驱在读取盘片最外圈时的最快速度,而读内圈时的速度要低于标称值,大约在24X的水平。现在很多光驱产品在遇到偏心盘、低反射盘时采用阶梯性自动减速的方式,也就是说,从48X到32X再到24X/16X,这种被动减速方式严重影响主轴马达的使用寿命。值得庆幸的是,笔者最近倒是在英拓光驱上找到了―一指降速‖的功能设置。按住前控制面板上Eject键2秒钟,光驱就会直接地从最高速自动减速到16X,避免了机芯器件不必要的磨损,延长了光驱的使用寿命。同样,再次按下Eject键2秒钟,光驱将恢复读盘速度,提升到48X。 此外,缓冲区大小,寻址能力同样起着非常大的作用。目前CD-ROM所能达到的最大CD读取速度是56倍速;DVD-ROM读取CD-ROM速度方面要略低一点,达到52倍速的产品还比较少,大部分为48倍速;COMBO产品基本都达到了52倍速。笔者认为,以目前的软件应用水平而言,对光驱速度的要求并不是很苛刻,48X光驱产品在一段时间内完全能够满足使用需要。因为目前还没有哪个软件要求安装时使用32X以上的光驱产品。此外,CD-ROM作为数据的存储介质,使用率远远低于硬盘,总没有谁会将WIN98安装在光盘上运行吧, 单倍速传输速度CD为150kB/s,DVD为1350kB/s.注意是kB/s(千Byte每秒)而不是kb/s(千bit每秒). 光驱速度是用X―倍速‖来表示的,这是相对于第一代光驱来讲的。比如说40X光驱,其速度是第一代光驱的40倍。第一代光驱的速度近似于150KB/S,那么40X光驱的速度近似于6000KB/S。有两种类型的光驱以不同方式来标称速度,最普通的是―MAX‖光驱。例如,一个称为40XMAX的光驱意味着光驱转动CD盘传输的最大速度可达6000KB/S。然而―最大‖仅是指CD盘的最外面部分,而CD盘的最里面部分通 常只有12X,总的来说,平均速度是远小于标称速度值的,特别是当一个CD盘未完全写满而且不使用最外面部分的时候。而另一种更贵的光驱类型是―TRUE X‖,这种光驱的特点是有一个独特的激光拾取系统,可以做到不管信息放在CD盘的哪个地方,传输速率都一样。因此,同样倍速的光驱,―TRUE X‖要比―MAX‖快得多。当然,―TRUE X‖的售价也更贵。 光驱的容错能力 相对于读盘速度而言,光驱的容错性显得更加重要。或者说,稳定的读盘性能是追求读盘速度的前提。由于光盘是移动存储设备,并且盘片的表面没有任何保护,因此难免会出现划伤或沾染上杂物质情况,这些小毛病都会影响数据的读取。为了提高光驱的读盘能力,厂商献计献策,其中,―人工智能纠错(AIEC)‖是一项比较成熟的技术。AIEC通过对上万张光盘的采样测试,―记录‖下适合他们的读盘策略,并保存在光驱BIOS芯片中。以方便光驱针对偏心盘、低反射盘、划伤盘进行自动的读盘策略的选择。由于光盘的特征千差万别,所以目前市面上以英拓为首的少数光驱产品还专门采用了可擦写BIOS技术,使得DIYer可以通过在现方式对BIOS进行实时的修改,所以说Flash BIOS技术的采用,对于光驱整体性能的提高起到了巨大的作用。 此外,一些光驱为了提高容错能力,提高了激光头的功率。当光头功率增大后,读盘能力确实有一定的提高,但长时间―超频‖使用会使光头老化,严重影响光驱的寿命。一些光驱在使用仅三个月后就出现了读盘能力下降的现象,这就很可能是光头老化的结果。这种以牺牲寿命来换取容错性的方法是不可取的。那么,如何判断您购买的光驱是否被―超频‖呢,在购买的时候,你可以让光驱读一张质量稍差的盘片,如果在盘片退出后表面温度很高,甚至烫手,那就有可能是被―超频‖了。不过也不能排除是光驱主轴马达发热量大的结果。 光驱的保养维护 大家知道,激光头是最怕灰尘的,很多光驱长期使用后,识盘率下降就是因为尘土过多,所以平时不要把托架留在外面,也不要在电脑周围吸烟。而且不用光驱时,尽量不要把光盘留在驱动器内,因为光驱要保持―一定的随机访问速度‖,所以盘片在其内会保持一定的转速,这样就加快了电机老化(特别是塑料机芯的光驱更易损坏)。另外在关机时,如果劣质光盘留在离激光头很近的地方,那当电机转起来后很容易划伤激光头。 散热问题也是非常重要的,一定要注意电脑的通风条件及环境温度的高低,机箱的摆放一定要保证光驱保持在水平位置,否则光驱高速运行时,其中的光盘将不可能保持平衡,将会对激光头产生致命的碰撞而损坏,同时对光盘的损坏也是致命的,所以在光驱运行时要注意听一下发出的声音,如果有光盘碰撞的噪音请立即调整光盘,光驱或机箱位置。 光驱的发展历史 第一代光驱:标准型 之所以管第一代光驱叫做标准型,是因为第一代光驱制定了很多光驱的标准,并且沿用至今,比如一张光盘的容量为640Mb(笔者这里称的光盘制传统的CD-ROM),光驱的数据传输率为150KB/S,这一标准也奠定了几倍速光驱这一光驱独特的叫法,比如40倍速光驱的传输速度为150KB/S*40=6000KB/S。笔者手头正好有那时的一些历史资料,让我们再重温一下。 1991年,由有全球1500家软体厂商加入的Software-Publishers-Association中的Multimdeia PC Working Group公布第一代MPC(Multimedia-Personal-Computer)规格,带动了光盘出版品的流行。一张光盘的容量是640MB,光驱的数据传输率为150KB/S(被国际电子工业联合会定为单倍速光驱),平均搜寻时间为1秒。随着市场的不断需求,硬件技术的不断增进。1993年,第二代MPC规格问世,光驱的速度已变成了双倍速,传输率达到了300KB/S,平均搜寻时间为400ms。 400ms的平均寻道时间,300KB/S的传输率,640MB的容量,对于目前动辄配一个7200转、2MB cache,30GB容量的朋友来说可能觉得第一代光驱速度太慢,容量太小。但要知道第一代光驱出现的时候还是大家用软盘作为主要移动拷贝媒介,经常用10多张盘拷贝一个软件或游戏,然后用2、30分钟将它装入机器内,如果其中一张盘有质量问题或拷错了,整个工夫就白费了。那时候硬盘也只有200MB上下,400MB的硬盘要1700、1800才能买到。笔者还清晰的记得在第一次在朋友家看到他新买的光驱时,当时的感觉就是无限的游戏和软件,并且装起来快截又方便。当然,不久笔者也拥有了自己的第一块光驱,新加坡的唯用,倍速,1000多块。 第一代光驱的特点是光驱刚刚出现,制定了光驱的很多技术标准,作为软驱与硬盘交换数据的替代品,增大了容量,提高了速度,极大的提高了效率。那时候国内品牌非常少,比较有代表的品牌象SONY、Philips及新加坡的一些品牌。 第二代光驱:提速型 笔者划分的第二代主要是指光驱从4速发展到24速(32速)这一时间段。因为之后从32速再往高速光驱发展过程中虽然速度也在提高,但更多的技术发展目标已不在速度上,因此划入下一代。 光驱发展了一段时间,由于其相对于软盘极大的优越性逐渐普及起来,成为装机时的标准配置。上百MB的软件、游戏也渐渐多了起来。装软件还稍微好一点,装一遍就完了,玩游戏时经常要从光盘调用数据,此时光驱读取速度太慢也逐渐突显出来,有时候一个游戏走到下一关读一下数据要读2、3分钟,特别是玩仙剑这样的RPG游戏,经常要在各关之间穿梭,玩一个小时要有20分钟用来读盘,这谁受得了,怎么办,提速。 此时提速也成为各家厂商技术发展的主要目标,速度从4倍速、8倍速、一直提高到24倍速、32倍速。此时光驱的支持格式也有发展,1995年夏,Multimdeia PC Working Group公布第三代规格标准。兼容光盘格式包括:CD-Audio、CD-Mode1/2、CD-ROM/XA、photo-CD、CD-R、Video-CD、CD-I等。 这个时间笔者的朋友换了一个ACER 16速的光驱,使用起来确实感觉快了,还记得笔者那时候打仙剑都喜欢去他那,看着载入数据条"唰"一下的过去了,心情也愉快起来。但速度快了也并不都好,由于光盘转速太快,噪音变大,发热量变大。当然产品的问题还是要技术的发展来解决,光驱也进入了第三代--发展型。 第二代光驱的特点是光驱逐渐普及起来,但速度慢的弱点也突出起来,提高速度成为各家制造厂商技术竞争的首要目标。光驱支持的格式也渐渐多了起来。 市场上主流的依然是洋品牌,象Toshiba、NEC等,出现了一些国产品牌,除acer外其它还没什么气候。 第三代光驱:发展型 光驱速度再往上提高,传输速度慢的问题已得到很好的解决,但速度提高后所带来的问题却渐渐显现出来。高速度的旋转会产生震动、噪音和热能,震动也会使激光头难以定位,寻道时间加长,并容易与激光头发生碰撞,刮花激光头;产生的热能会影响光盘上的化学介质,影响激光头的准确定位,延长寻道时间;引起的噪音会使人精神上产生不爽的效果,容易疲劳。 针对这些问题,各个不同的生产厂家也推出了相应改善的技术:NEC公司在四角上安装悬浮式减震橡胶;Acer公司采用悬挂技术和香蕉减震支架;Lite-on采用悬浮承载技术;Asus公司采用先进的双重动态悬挂系统…… 这一阶段值得一提的是很多国内厂商发展起来,以其完善的品质、低廉的价格受到消费者得青睐,成为市场的主流。 第三代的特点是速度已不是各厂商发展技术的主要目标,大家纷纷推出新技术,使光驱读盘更稳定,发热量更低,工作起来更安静,寿命更长。国内厂商发展起来,成为市场主流。 市场上洋品牌及台湾品牌份额有一定减少,许多国内品牌崛起,象奥美嘉\源兴、大白鲨、美达等等。 第四代光驱:完美型 又经过几年的发展,光驱的技术已经趋于成熟,各家厂商的产品虽然可能采用的技术略有不同,但产品品质却都臻于完善,甚至说完美,表现在纠错率更强,传输速度更快,工作起来更稳定、更安静、发热量更低。 光驱的故障维修 故障现象: 当光驱出现问题时,一般表现为光驱的指示灯不停地闪烁、不能读盘或读盘性能下降;光驱盘符消失。光驱读盘时蓝屏死机或显示―无法访问光盘,设备尚未准备好‖等提示框等。 1.光驱连接不当造成 光驱安装后,开机自检,如不能检测到光驱,则要认真检查光驱排线的连接是否正确、牢靠,光驱的供电线是否插好。如果自检到光驱这一项时出现画面停止,则要看看光驱(主、从)跳线是否无误。 提醒:光驱尽量不要和硬盘连在同一条数据线上。 2.内部接触问题 如果出现光驱卡住无法弹出的情况,可能就是光驱内部配件之间的接触出现问题,大家可以尝试如下的方法解决:将光驱从机箱卸下并使用十字螺丝刀拆开,通过紧急弹出孔弹出光驱托盘,这样你就可以卸掉光驱的上盖和前盖。卸下上盖后会看见光驱的机芯,在托盘的左边或者右边会有一条末端连着托盘马达的皮带。你可以检查此皮带是否干净,是否有错位,同时也可以给此皮带和连接马达的末端上油。另外光驱的托盘两边会有一排锯齿,这个锯齿是控制托盘弹出和缩回的。请你给此锯齿上油,并看看它有没有错位之类的故障。如果上了油请将多余的油擦去,然后将光驱重新安装好,最后再开机试试看。 提醒:不过由于这种维修比较专业,建议大家最好找专业人士修理。 3.CMOS设置的问题 如果开机自检到光驱这一项时出现停止或死机的话,有可能是CMOS设置中的光驱的工作模式设置有误所致。一般来说,只要将所有用到的IDE接口设置为―AUTO‖,就可以正确地识别光驱工作模式了。对于一些早期的主板或个别现象则需要进行设置。 4.驱动的问题 在Windows系统中,当主板驱动因病毒或误操作而引起丢失时,会使IDE控制器不能被系统正确识别,从而引起光驱故障,这时我们只要重新安装主板驱动就可以了。 另外,当一个光驱出现驱动重复或多次安装等误操作时会使Windows识别出多个光驱,这会在Windows启动时发生蓝屏现象。我们只要进入Windows安全模式(点选―我的电脑?属性?CD-ROM‖)删除多出的光驱就解决了。 5.光驱不支持DMA 早期的光驱可能不支持DMA,可以将光驱的DMA接口关闭以免造成不兼容等现象。完成设置后,按下―确定‖按钮,重新启动电脑即可。 DMA接口光驱与主板不兼容时,也应关闭DMA。如果你真想发挥一下光驱DMA所带来的性能的话,建议升级主板的BIOS或光驱的固件(Firmware)。另外,光驱使用久后,会出现读盘不稳定的现象,我们可以试着关闭DMA,以降低性能,提高稳定性。 6.虚拟光驱发生冲突 我们在安装光驱的同时,一般会装个虚拟光驱使用。但安装虚拟光驱后,有时会发现原来的物理光驱―丢失‖了,这是由于硬件配置文件设置的可用盘符太少了。解决方法:用Windows自带的记事本程序打开C盘根目录下的―Config.sys‖文件,加入―LASTDRIVE=Z‖,保存退出,重启后即可解决问题。 在安装双光驱的情况下安装低版本的―虚拟光驱‖后,个别情况会表现为有一个或两个物理光驱―丢失‖~建议:换个高版本的或其它虚拟光驱程序。 7.激光头老化造成 排除了灰尘造成的原因,如果光驱还不能读盘很可能是―激光头‖老化了,这时就要调整光驱激光头附近的电位调节器,加大电阻改变电流的强度使发射管的功率增加,提高激光的亮度,从而提高光驱的读盘能力。 提醒:大家用小螺丝刀顺时针调节(顺时针加大功率、逆时针减小功率),以5度为步进进行调整,边调边试直到满意为止。切记不可调节过度,否则可能出现激光头功率过大而烧毁的情况. [1] : 托盘不能入仓的解决 故障分析:经比较多台同型号光驱,判定应该是出盒机构的橡胶传送带老化所致,是内部橡胶传送带的实拍图。 凡是发生进、出仓不顺畅现象,几乎均与图中橡胶带有关。由于使用日久,橡胶带老化而变得有点松,按下进仓键后,进出仓机构得不到足够的传动力,金属机心不能完全到位,导致光驱内部的处理器误判为被异物卡住,从而保护性地执行出仓动作。 解决方法:可以换一条同样规格的传送带,但费时费事费钱,而且普通传送带的 质量远不能与原装产品相比; 光驱读碟自动弹出 出现这种情况跟操作系统没有直接的关系,这种故障多半是光驱的托盘进出控制电路工作不稳定引起的,也有可能是光驱的输入不稳定造成的,甚至上面的两种电源 因素都有可能。为了验证光驱的输入电源是否稳定,笔者将发生故障的光驱从朋友的计算机上拆了下来,然后将它安装到自己的计算机进行测试,测试之后发现阿帕奇50XCD-ROM光驱在笔者的计算机中仍然还会发生仓门自动―吐出‖故障,这就证明光驱托盘进出的控制电路肯定发生了问题。 光驱的安装方法 光盘驱动器(光驱)是一个结合光学、机械及电子技术的产品。在光学和电子结合方面,激光光源来自于一个激光二极管,它可以产生波长约0.54-0.68微米的光束,经过处理后光束更集中且能精确控制,光束首先打在光盘上,再由光盘反射回来,经过光检测器捕获信号。光盘上有两种状态,即凹点和空白,它们的反射信号相反,很容易经过光检测器识别。检测器所得到的信息只是光盘上凹凸点的排列方式,驱动器中有专门的部件把它转换并进行校验,然后我们才能得到实际数据。光盘在光驱中高速的转动,激光头在司服电机的控制下前后移动读取数据。 在光驱上,数据传输速度到底有多快呢,我们平常说的32速、24速等就是指光驱的读取速度。在制定CD-ROM标准时,把150K字节/秒的传输率定为标准,后来驱动器的传输速率越来越快,就出现了倍速、四倍速直至现在的24倍速、32倍速或者更高,32倍速驱动器理论上的传输率应该是:150×32= 4,800K字节/秒,当然在实际的情况是达不到这么高的。 除了传输率外,平均查找时间是衡量光驱的另一指标,倍速光驱的平均查找时间约为400毫秒,现在最快的光驱平均查找时间约为120毫秒。从光盘上读出的数据先存在缓冲区或高速缓存里,然后再以很高的速度传输到计算机上。多媒体计算机要求光驱至少有64K的高速缓存,现在的光驱一般有256K。 光驱的安装是比较简单的。它和硬盘的安装很相似。对于IDE光驱,一个主要的问题是设置主盘和副 光驱接口 盘,一般在光驱上都标明了跳线方式,MA表示主盘,SL表示副盘。一般情况下,我 们把光驱设置为副盘,把它与硬盘接在同一条数据线上;在光驱设成主盘的情况下,你可以单独为它接一根数据线,把它连接到主板的副IDE口上。在连接数据线时,要注意接口的方向。另外有一个容易出问题的地方是CD音频线的连接,光驱的CD音频接口一般有4根针,分别是左右声道和两个地线,R代表右声道,L代表左声道,G代表地线。在声卡上也有一个类似的插座,它接收光驱的CD音频信号并把它放大输出到―Speaker‖孔。CD音频线有3芯或4芯,4芯的只是多了一个地线而已。在连接音频线时,注意光驱和声卡的左右声道和地线要对应,否则可能出现问题,如放 CD时只有一个喇叭响等。 设置从光驱启动的方法 1)机器启动后首先按Del键进入BIOS 2)通过键盘上的方向键选中Advanced BIOS Features 3)回车进入BIOS设置界面 4)用方向键选中First Boot Device或(1st Boot Device) 回车 5)用上下方向键选中CDROM 6)按ESC返回BIOS设置界面。按F10 7)按 ?Y‘键后回车,重启电脑 8)重启电脑, 放入光盘,在读光盘的时候按回车键(就是出现黑屏上有一排英文press anykey to boot from CDROM 时,立即回车) 需要注意的是,由于BIOS的不同,进入BIOS后设置按键也有可能不同。如果是AMI bios,进入bios之后按右方向键,第四项,然后选择同样的类似first boot device 的选项,然后保存更改退出。如果是笔记本,可以按F2进入BIOS,后面的设置大同小异。 光驱的分类 光驱是台式机里比较常见的一个配件。随着多媒体的应用越来越广泛,使得光驱在台式机诸多配件中的已经成标准配置。目前,光驱可分为CD-ROM驱动器、DVD光驱(DVD-ROM)、康宝(COMBO)和刻录机等。 CD-ROM光驱:又称为致密盘只读存储器,是一种只读的光存储介质。它是利用原本用于音频CD的CD-DA(Digital Audio)格式发展起来的。 DVD光驱:是一种可以读取DVD碟片的光驱,除了兼容DVD-ROM,DVD-VIDEO,DVD-R,CD-ROM等常见的格式外,对于CD-R/RW,CD-I,VIDEO-CD,CD-G等都要能很好的支持。 COMBO光驱:―康宝‖光驱是人们对COMBO光驱的俗称。而COMBO光驱是一种集合了CD刻录、CD-ROM和DVD-ROM为一体的多功能光存储产品。 刻录光驱:包括了CD-R、CD-RW和DVD刻录机等,其中DVD刻录机又分 DVD+R、DVD-R、DVD+RW、DVD-RW(W代表可反复擦写)和DVD-RAM。刻录机的外观和普通光驱差不多,只是其前置面板上通常都清楚地标识着写入、复写和读取三种速度。 光驱 : 刻录技术有哪些 随着发展刻录机的刻录速度越来越快,刻录机对缓存容量的需求也越来越大,但受成本的限制缓存容量的增加幅度远远跟不上刻录速度的发展。大家知道,在刻录一盘空白的盘片的时候,不管以何种方式或格式刻录数据,刻录机都会预先读入数据到缓存(Buffer)中,当刻录机的缓存存满的时候,刻录机就会开始执行刻录数据的动作,缓存中必须要有足够的数据供给刻录机才能保证刻录的顺利完成。但是数据传输给刻录机缓存时,由于各种各样的原因容易造成输入的速度跟不上刻录机的写入速度,如果缓存中数据被耗尽,此时就会发生Buffer UnderRun(缓存欠载)错误,这样就会刻录失败,盘片报废。为了避免缓存欠载错误的发生,光储厂商相继开发了一些防刻死技术,以期望在数据短时间断流的状况下,把刻录的影响降到最低。 防刻死技术都是在激光头定位精度和Fireware软件上作了改进,当发生数据传输断流时,刻录机会自动记录下断点,并停止刻录动作,当缓存内数据符合要求时,再自动寻找到断点继续刻录。这样就避免了缓存欠载错误的发生,但防刻死技术也有它自己固有的缺点,首先使用防刻死技术会浪费时间和光盘的空间,在使用防刻死技术的时候,光头要从写状态变成读状态,而且要记录下断点,然后等待缓存中的数据满了再从断点处写入,一般来说,每使用一次防刻死技术需要大约30秒钟的时间。同时对于一些光头精度不高的刻录机来说,可能因为断点定位不准确而导致下次光驱读取不畅。有些防刻死技术还会出现使刻录的CD产生爆音等副作用。虽然有如上瑕疵,防刻死技术仍旧是降低刻坏盘几率的最佳方法之一。 各厂商开发的防刻死技术各不相同,主要采用的有一下几种: Burn-Proof Just Link Seamless Link Power-Burn Exaclink SAFEBURN SMART Clone WriteProof SuperLink 此外还有一种常见技术叫做光雕刻录技术。其实光雕刻录和上边的刻录技术并不是一个意思,光雕技术是惠普与威宝公司共同开发的一项允许用户在光盘背面刻写个性化图案的技术,需要刻录机和光盘同时支持。光雕技术用激光雕刻涂在光盘上的一层特殊材料,使其颜色发生变化,从而实现雕刻的效果。物理结构上光雕刻录机比一 般的DVD刻录机产品多了一个光头,专门用来定位的―光学定位器‖,用来保证雕刻图案时的准确定位。通常支持光雕的光盘比普通光盘略贵一点。 Burn-Proof Burn-Proof是 Buffer Under Run-Proof的缩写,意思就是缓存欠载保护。该技术由日本Sanyo(三洋)公司开发,也是最早投入商业应用并获得成功的缓存欠载保护技术之一。 Burn-Proof技术是在刻录机内部增加了一组特制的芯片,三洋公司为UltraSCSI接口和IDE接口的刻录机分别开发了相应的控制芯片LC898023和LC898093KM。在刻录开始后,该芯片组会持续监控刻录机缓存的状态,当缓存内的数据发生短缺,且数据量小于所设定的存量底限时,该芯片就会暂停刻录机的刻录动作。直到缓存中的数据充满后,先对比刻录的数据与缓存中的数据,在将每一笔数据同步后,会搜寻上一个成功刻录的磁道位置,搜寻到磁道位置后便计算和同步,同时准确定位下一个写入磁区的位置,从而接上暂停前的情况继续刻录。 虽说防刻死技术可以搜索到刻录停止的位置,但要做到后续刻录与停止前刻录数据无缝隙的连接那是根本不能达到的,只能把二者之间的间歇控制在一个不影响数据读取的范围内。在桔皮书规范中规定,CD刻录中数据之间的间隙不能超过100微米,而中间的细小间隔通过ECC校验码来修正。Burn-Proof技术能保证从其停止位置到后续刻录之间的间隔不超过40微米,完全符合桔皮书标准,不会造成刻录产品的读取困难问题,还有效避免的缓存欠载错误的发生。 Just Link Just Link是由理光(Ricoh)公司开发的,也是通过内加控制芯片的方法使刻录机具有防刻死功能,是理光为了对抗三洋的Burn-Proof而开发的。 JustLink的原理是:在烧录时,监视缓存中已存取的数据量,当缓存中的数据量降低到易发生缓存欠载的水准时,停止写入的动作并保持当时的状态,同时继续存取数据于缓存之中。待存储到一定量后,在停止的位置后再度开始写入,如此重复直至烧录完结,工作原理和Burn-Proof基本一致,但是间隙控制精度要高得多,可以控制在2μm以内,这对光盘的影响已不太容易察觉到了;Just Link还提供了控制使用次数的支持,可由自己来决定使用与否或使用次数。 JustLink技术与Burn-Proof技术相比有三个较大的不同。一个是BURN-Proof是在出现缓存欠载后才暂停刻录,直到缓存内数据被充满才恢复刻录;而JustLink则是一直监视缓存中的数据量,当数据量减少到一定值(不是到零)时就会暂停刻录。第二当恢复刻录时,ustLink允许当缓存内的数据达到一定量就可以重新开始刻录;而BURN-Proof技术则要等到缓存被注满数据后才继续进行刻录。第三就是JustLink技术最大优点,中断点和续刻点之间的间隙非常小。在12倍速刻录时只有2微米的间隙,而在12倍速下BURN-Proof技术产生的间隙有40微米。而中断点和续刻点之间的间隙随着刻录速度的增加也会增大,这样在刻录速度增大时,BURN-Proof技术生成的间隙就比较大了。 Seamless Link Seamless Link技术由菲利浦(Philips)公司所开发,该技术是以理光的Just Link技术为基础。推出的时间较前两种晚,因此在程序控制和技术完善程度都要高于前两种技术。 SeamlessLink的原理是:在进行烧录的同时,随时监控缓存中的数据量,当数据量下降到一定比例时,关闭激光刻录头,同时记录确切的中断点 (ExactlyRecEndPoint),并使激光刻录头保持在暂停时的状态。当缓存中的数据量上升后,激光刻录头根据刚才记下的中断点数据搜寻到中断点后重新开始烧录工作,直至烧录进程完毕。 SeamlessLink技术除了具备JustLink技术的优点以外,还可以在刻录过程中实时显示缓存中的数据量。此外,由于BURN-Proof和JustLink技术需要额外的控制芯片才能实现防止缓存欠载的功能,不但增加了刻录机的生产成本,而且需要刻录软件必须改进和支持。而SeamlessLink技术的实现不需要额外的控制芯片,其指令被集成在刻录机的FirmWare(固件)上,因此不但降低了生产成本,而且对刻录软件没有提出额外的要求,提高了采用该技术的刻录机的适用性 Exaclink 是目前较新的防刻死技术,由美国Oak Technology公司研制开发。Exaclink技术所形成的"空隙"不超过1微米,再配合8M的超大容量缓存,其优秀的表现可见一斑~当前代表的产品有LG系列刻录机。 SAFEBURN Yamaha公司采用了SafeBurn技术的刻录机,还辅之以8MB的大容量缓存和刻录速度控制功能,以将刻录的稳定性提升得更高。该技术最大的特点是所有的缓存欠载应付措施都在缓存中直接进行,无需外界干预。即使刻录中欠载保护启动,恢复正常刻录时也不会产生接缝。这是首个无空白区域的链接技术。目前这种技术只应用在雅马哈刻录机上。通常雅马哈的刻录机价格比较贵,主要面向高端用户。 SMART Clone SMART Clone包括了BURNProof防刻死技术和一项与JustSpeed类似的技术,可以通过检测盘片质量来决定刻盘时的电机转速和激光头功率的大小。通过检测使用的盘片,并与刻录机上Firmware里面的数据库进行对照,找出这张盘片所支持的最佳写入方法和速度,然后进行刻录;如果在数据库上并没有列出盘片的资料,刻录机将采用一个默认的方法,记录下这种盘片的特征以及环境参数,通过这些测试得出一个最佳写入方法和速度,然后对激光头的功率进行调整,刻录盘片,避免因盘片质量和激光功率过大而导致烧录失败。 如果你使用的盘片质量很差,刻录机将对质量较好的区域采用一个较快的速度,而在质量不好的区域将降速刻录,最终顺利完成刻录工作。Smart-Clone技术的实用性很强,当我们在拷贝CD音轨的时候,通常从光驱提取音轨数据的速度快于将音轨数据写入磁盘的速度,Smart-Clone可以将读写速度调节一致,使之均衡,增加光驱的读盘稳定性。以避免因盘片质量和激光头功率过大导致的烧盘问题,双重保障刻录成功率。就SMART-Clone技术特点而言,它已经不仅仅单纯是解决缓存欠载的技术, 它还溶入了其它优化刻录技术 Power Burn PowerBurn技术由Sony公司开发,工作原理和SANYO(三洋)的Burn-Proof基本相同。同其它防刻死技术一样,它也能及时控制及准确地连接数据刻录的中断及恢复点,并且其还能通过为记忆媒体设定最佳的刻录条件,自动调整主机传送数据的延误,以避免将数据写入时发生缓存欠载错误。Power-Burn除了能自动为刻录机选择最佳的刻录条件(如刻录速度)之外,还会通过查找存储于Firmware内的光盘资料数据,如建议的刻录速度及光盘刻录面的条件等,对光盘的性能进行分析,进而做出最佳的刻录行为。工作原理与Burn Proof基本相同,二者在间隙控制方面也相差无几,PowerBurn也是在40微米左右。 WriteProof WriteProof是Teac公司推出的一种技术。该技术的特点是:在刻录过程中,检索模块不停地检查缓存中的数据量,当少于10%的时候挂起刻录,但检查工作并未停止,直到缓存中的数据量恢复至10%时继续刻录;反之,则继续挂起。由于缓存中的数据量是不停被检查的,因此提高了刻录的成功率。当然,这样付出的代价是对CPU资源的占用率加大 SuperLink技术 SuperLink防刻录死技术是一种全新的刻录保护技术。其工作原理是在刻录时监测内置缓存的数据量,当缓存数据为空时,芯片控制刻录光头停止工作,等待缓存载满数据后,会自动搜索刻录终止点,以不大于10微米的点距进行继续刻录。可以最大限度的减少刻录CD光盘播放时暴音的出现。根据刻录机的规定,磁区间的最大间隙不能超过100微米,SuperLink技术达到的10微米间距已经远低于这项标准。 SuperLink技术基于硬件实现,无须软件支持兼容性更高,在WINXP这种内置刻录功能的操作系统中刻录CD-R/RW可以像使用软盘一样方便并且很安全。同时可以保证在完美刻录的同时可以进行上网、听音乐等任务,减少了等待的时间 常见光驱厂商 先锋 索尼 三星 飞利浦 建兴 华硕 明基 惠普 优群 微星 联想 光驱类型 光驱是电脑里比较常见的一个配件。随着多媒体的应用越来越广泛,使得光驱在笔记本诸多配件中的已经成标准配置。目前,光驱可分为CD-ROM驱动器、DVD光驱(DVD-ROM)、康宝(COMBO)和刻录机等。 简介 光驱是台式机里比较常见的一个配件。随着多媒体的应用越来越广泛,使得光驱在台式机诸多配件中的已经成标准配置。目前,光驱按功能可分为CD-ROM驱动器、DVD光驱(DVD-ROM)、康宝(COMBO)和刻录机等,按照放置位置分为内置光驱和外置光驱,外置光驱也称便携式光驱。 CD-ROM光驱 又称为致密盘只读存储器,是一种只读的光存储介质。它是利用原本用于音频CD的CD-DA(Digital Audio)格式发展起来的。 DVD光驱 是一种可以读取DVD碟片的光驱,除了兼容DVD-ROM,DVD-VIDEO,DVD-R,CD-ROM等常见的格式外,对于CD-R/RW,CD-I,VIDEO-CD,CD-G等都要能很好的支持。 COMBO光驱 ―康宝‖光驱是人们对COMBO光驱的俗称。而COMBO光驱是一种集合了CD刻录、CD-ROM和DVD-ROM为一体的多功能光存储产品。 刻录光驱 包括了CD-R、CD-RW和DVD刻录机等,其中DVD刻录机又分DVD+R、DVD-R、DVD+RW、DVD-RW(W代表可反复擦写)和DVD-RAM。刻录机的外观和普通光驱差不多,只是其前置面板上通常都清楚地标识着写入、复写和读取三种速度。 对于全内置笔记本电脑来说,由于光驱不需要与软驱进行交换,它们的光驱和软驱都为内置结构,不能随意取下来。对于超轻超薄笔记本电脑来说,光驱和软驱可以内置,也可以插在一个专用的外置盒中,通过特殊的模块扩展接口连接到笔记本电脑之上。为了减小体积,笔记本电脑使用的光驱的激光头与托盘是结合在一起的,托盘弹出时,激光头也会跟随一起弹出。 CPU内核 CPU内核 CPU的中间就是我们平时称作核心芯片或CPU内核的地方,这颗由单晶硅做成的芯片可以说是电脑的大脑了,所有的计算、接受/存储命令、处理数据都是在这指甲盖大小的地方进行的。 内核简介 目前绝大多数CPU都采用了一种翻转内核的封装形式,也就是说平时 CPU内核 我们所看到的CPU内核其实是这颗硅芯片的底部,它是翻转后封装在陶瓷电路基板上的,这样的好处是能够使CPU内核直接与散热装置接触。这种技术也被使用在当今绝大多数的CPU上。而CPU核心的另一面,也就是被盖在陶瓷电路基板下面的那面要和外界的电路相连接。现在的CPU都有以千万计算的晶体管,它们都要连到外面的电路上,而连接的方法则是将每若干个晶体管焊上一根导线连到外电路上。例如Duron核心上面需要焊上3000条导线,而奔腾4的数量为5000条,用于服务器的64位处理器Itanium则达到了7500条。这么小的芯片上要安放这么多的焊点,这些焊点必须非常的小,设计起来也要非常的小心。由于所有的计算都要在很小的芯片上进行,所以CPU内核会散发出大量的热,核心内部温度可以达到上百度,而表面温度也会有数十度,一旦温度过高,就会造成CPU运行不正常甚至烧毁,因此很多电脑书籍或者杂志都会常常强调对CPU散热的重要性。CPU还应有确定的主板,如:i7的CPU就只能用专用的主板。 核心(Die)又称为内核,是CPU最重要的组成部分。CPU中心那块隆起的芯片就是核心,是由单晶硅以一定的生产工艺制造出来的,CPU所有的计算、接受/存储命令、处理数据都由核心执行。各种CPU核心都具有固定的逻辑结构,一级缓存、二级缓存、执行单元、指令级单元和总线接口等逻辑单元都会有科学的布局。 内核类型 为了便于CPU设计、生产、销售的管理,CPU制造商会对各种CPU核心给出相应的代号,这也就是所谓的CPU核心类型。 不同的CPU(不同系列或同一系列)都会有不同的核心类型(例如Pentium 4的Northwood,Willamette以及K6-2的CXT和K6-2+的ST-50等等),甚至同一种核心 都会有不同版本的类型(例如Northwood核心就分为B0和C1等版本),核心版本的变更是为了修正上一版存在的一些错误,并提升一定的性能,而这些变化普通消费者是很少去注意的 CPU内核 。每一种核心类型都有其相应的制造工艺(例如0.25um、0.18um、0.13um、0.09um、0.065um、以及0.045um等)、核心面积(这是决定CPU成本的关键因素,成本与核心面积基本上成正比)、核心电压、电流大小、晶体管数量、各级缓存的大小、主频范围、流水线架构和支持的指令集(这两点是决定CPU实际性能和工作效率的关键因素)、功耗和发热量的大小、封装方式(例如S.E.P、PGA、FC-PGA、FC-PGA2等等)、接口类型(例如LGA775、Socket 370,Socket A,Socket 478,Socket T,Slot 1、Socket 940等等)、前端总线频率(FSB)等等。因此,核心类型在某种程度上决定了CPU的工作性能。 一般说来,新的核心类型往往比老的核心类型具有更好的性能(例如同频的Northwood核心Pentium 4 1.8A GHz就要比Willamette核心的Pentium 4 1.8GHz性能要高),但这也不是绝对的,这种情况一般发生在新核心类型刚推出时,由于技术不完善或新的架构和制造工艺不成熟等原因,可能会导致新的核心类型的性能反而还不如老的核心类型的性能。例如,早期Willamette核心Socket 423接口的Pentium 4的实际性能不如Socket 370接口的Tualatin核心的Pentium III和赛扬,现在的低频Prescott核心Pentium 4的实际性能不如同频的Northwood核心Pentium 4等等,但随着技术的进步以及CPU制造商对新核心的不断改进和完善,新核心的中后期产品的性能必然会超越老核心产品。 内核发展 CPU核心的发展方向是更低的电压、更低的功耗、更先进的制造工艺、集成更多的晶体管、更小的核心面积(这会降低CPU的生产成本从而最终会降低CPU的销售价格)、更先进的流水线架构和更多的指令集、更高的前端总线频率、集成更多的功能(例如集成内存控制器等等)以及双核心和多核心(也就是1个CPU内部有2个或更多个核心)等。CPU核心的进步对普通消费者而言,最有意义的就是能以更低的价格买到性能更强的CPU。 现在出现了扩展cpu内核的方法.这个方法能让电脑加上1000个内核.运算速度比一般电脑快20倍. 著名内核 目前分为intel AMD Mobile 和其他核心类型 INTEL CPU的核心类型 Northwood(北木) 这是主流的Pentium 4和赛扬所采用的核心,其与Willamette核心最 AVR的CPU内核架构 大的改进是采用了0.13um制造工艺,并都采用Socket 478接口,核心电压1.5V左右,二级缓存分别为128KB(赛扬)和512KB(Pentium 4),前端总线频率分别为400/533/800MHz(赛扬都只有400MHz),主频范围分别为2.0GHz到2.8GHz(赛扬),1.6GHz到2.6GHz(400MHz FSB Pentium 4),2.26GHz到3.06GHz(533MHz FSB Pentium 4)和2.4GHz到3.4GHz(800MHz FSB Pentium 4),并且3.06GHz Pentium 4和所有的800MHz Pentium 4都支持超线程技术(Hyper-Threading Technology),封装方式采用PPGA FC-PGA2和PPGA。按照Intel的规划,Northwood核心会很快被Prescott核心所取代。 Prescott(普雷斯科特) 这是Intel的CPU核心,只有Pentium 4而没有低端的赛扬采用,其与Northwood最大的区别是采用了0.09um制造工艺和更多的流水线结构,初期采用Socket 478接口,以后会全部转到LGA 775接口,核心电压1.25-1.525V,前端总线频率为533MHz(不支持超线程技术)和800MHz(支持超线程技术),主频分别为533MHz FSB的2.4GHz和2.8GHz以及800MHz FSB的2.8GHz、3.0GHz、3.2GHz和3.4GHz,其与Northwood相比,其L1 数据缓存从8KB增加到16KB,而L2缓存则从512KB增加到1MB,封装方式采用PPGA。按照Intel的规划,Prescott核心会很快取代Northwood核心并且很快就会推出Prescott核心533MHz FSB的赛扬。 Smithfield(士美非路) 这是Intel公司的第一款双核心处理器的核心类型,于2005年4月发布,基本上可以认为Smithfield核心是简单的将两个Prescott核心松散地耦合在一起的产物,这是基于 CPU内核 独立缓存的松散型耦合方案,其优点是技术简单,缺点是性能不够理想。目前Pentium D 8XX系列以及Pentium EE 8XX系列采用此核心。Smithfield核心采用90nm制造工艺,全部采用Socket 775接口,核心电压1.3V左右,封装方式都采用PLGA,都支持硬件防病毒技术EDB和64位技术EM64T,并且除了Pentium D 8X5和Pentium D 820之外都支持节能省电技术EIST。前端总线频率是533MHz(Pentium D 8X5)和800MHz(Pentium D 8X0和Pentium EE 8XX),主频范围从2.66GHz到3.2GHz(Pentium D)、3.2GHz(Pentium EE)。Pentium EE和Pentium D的最大区别就是Pentium EE支持超线程技术而Pentium D则不支持。Smithfield核心的两个核心分别具有1MB的二级缓存,在CPU内部两个核心是互相隔绝的,其缓存数据的同步是依靠位于主板北桥芯片上的仲裁单元通过前端总线在两个核心之间传输来实现的,所以其数据延迟问题比较严重,性能并不尽如人意。按照Intel的规划,Smithfield核心将会很快被Presler核心取代。 Cedar Mill 这是Pentium 4 6X1系列和Celeron D 3X2/3X6系列采用的核心,从2005末开始出现。其与Prescott核心最大的区别是采用了65nm制造工艺,其它方面则变化不大,基本上可以认为是Prescott核心的65nm制程版本。Cedar Mill核心全部采用Socket 775接口,核心电压1.3V左右,封装方式采用PLGA。其中,Pentium 4全部都为800MHz FSB、2MB二级缓存,都支持超线程技术、硬件防病毒技术EDB、节能省电技术EIST以及64位技术EM64T;而Celeron D则是533MHz FSB、512KB二级缓存,支持硬件防病毒技术EDB和64位技术EM64T,不支持超线程技术以及节能省电技术EIST。Cedar Mill核心也是Intel处理器在NetBurst架构上的最后一款单核心处理器的核心类型,按照Intel的规划,Cedar Mill核心将逐渐被Core架构的Conroe核心所取代。 Presler 这是Pentium D 9XX和Pentium EE 9XX采用的核心,Intel于2005年末推出。基本上可以认为Presler核心是简单的将两个Cedar Mill核心松散地耦合在一起的产物,是基于 新工艺增加CPU内核的数量而不是提高频率 独立缓存的松散型耦合方案,其优点是技术简单,缺点是性能不够理想。Presler核心采用65nm制造工艺,全部采用Socket 775接口,核心电压1.3V左右,封装方式都采用PLGA,都支持硬件防病毒技术EDB、节能省电技术EIST和64位技术EM64T,并且除了Pentium D 9X5之外都支持虚拟化技术Intel VT。前端总线频率是800MHz(Pentium D)和1066MHz(Pentium EE)。与Smithfield核心类似,Pentium EE和Pentium D的最大区别就是Pentium EE支持超线程技术而Pentium D则不支持,并且两个核心分别具有2MB的二级缓存。在CPU内部两个核心是互相隔绝的,其缓存数据的同步同样是依靠位于主板北桥芯片上的仲裁单元通过前端总线在两个核心之间传输来实现的,所以其数据延迟问题同样比较严重,性能同样并不尽如人意。Presler核心与Smithfield核心相比,除了采用65nm制程、每个核心的二级缓存增加到2MB和增加了对虚拟化技术的支持之外,在技术上几乎没有什么创新,基本上可以认为是Smithfield核心的65nm制程版本。Presler核心也是Intel处理器在NetBurst架构上的最后一款双核心处理器的核心类型,可以说是在NetBurst被抛弃之前的最后绝唱,以后Intel桌面处理器全部转移到Core架构。按照Intel的规划,Presler核心从2006年第三季度开始将逐渐被Core架构的Conroe核心所取代。 Yonah 目前采用Yonah核心CPU的有双核心的Core Duo和单核心的Core Solo,另外Celeron M也采用了此核心,Yonah是Intel于2006年初推出的。这是一种单/双核心处理器的核心类型,其在应用方面的特点是具有很大的灵活性,既可用于桌面平台,也可用于移动平台;既可用于双核心,也可用于单核心。Yonah核心来源于移动平台上大名鼎鼎的处理器Pentium M的优秀架构,具有流水线级数少、执行效率高、性能强大以及功耗低等等优点。Yonah核心采用65nm制造工艺,核心电压依版本不同在1.1V-1.3V左右,封装方式采用PPGA,接口类型是改良了的新版Socket 478接口(与以前台式机的Socket 478并不兼容)。在前端总线频率方面,目前Core Duo和Core Solo 都是667MHz,而Yonah核心Celeron M是533MHz。在二级缓存方面,目前Core Duo和Core Solo都是2MB,而即Yonah核心Celeron M是1MB。Yonah核心都支持硬件防病毒技术EDB以及节能省电技术EIST,并且多数型号支持虚拟化技术Intel VT。但其最大的遗憾是不支持64位技术,仅仅只是32位的处理器。值得注意的是,对于双核心的Core Duo而言,其具有的2MB二级缓存在架构上不同于目前所有X86处理器,其它的所有X86处理器都是每个核心独立具有二级缓存,而Core Duo的Yonah核心则是采用了与IBM的多核心处理器类似的缓存方案----两个核心共享2MB的二级缓存~共享式的二级缓存配合Intel的―Smart cache‖共享缓存技术,实现了真正意义上的缓存数据同步,大幅度降低了数据延迟,减少了对前端总线的占用。这才是严格意义上的真正的双核心处理器~Yonah核心是共享缓存的紧密型耦合方案,其优点是性能理想,缺点是技术比较复杂。不过,按照Intel的规划,以后Intel各个平台的处理器都将会全部转移到Core架构,Yonah核心其实也只是一个过渡的核心类型,从2006年第三季度开始,其在桌面平台上将会被Conroe核心取代,而在移动平台上则会被Merom核心所取代。 Conroe 这是更新的Intel桌面平台双核心处理器的核心类型,其名称来源于美国德克萨斯州的小城市―Conroe‖。Conroe核心于2006年7月27日正式发布,是全新的Core(酷睿)微架构(Core Micro-Architecture)应用在桌面平台上的第一种CPU核心。目前采用此核心的有Core 2 Duo E6x00系列和Core 2 Extreme X6x00系列。与上代采用NetBurst微架构的Pentium D和Pentium EE相比,Conroe核心具有流水线级数少、执行效率高、性能强大以及功耗低等等优点。Conroe核心采用65nm制造工艺,核心电压为1.3V左右,封装方式采用PLGA,接口类型仍然是传统的Socket 775。在前端总线频率方面,目前Core 2 Duo和Core 2 Extreme都是1066MHz,而顶级的Core 2 Extreme将会升级到1333MHz;在一级缓存方面,每个核心都具有32KB的数据缓存和32KB的指令缓存,并且两个核心的一级数据缓存之间可以直接交换数据;在二级缓存方面,Conroe核心都是两个内核共享4MB。Conroe核心都支持硬件防病毒技术EDB、节能省电技术EIST和64位技术EM64T以及虚拟化技术Intel VT。与Yonah核心的缓存机制类似,Conroe核心的二级缓存仍然是两个核心共享,并通过改良了的Intel Advanced Smart Cache(英特尔高级智能高速缓存)共享缓存技术来实现缓存数据的同步。Conroe核心是目前最先进的桌面平台处理器核心,在高性能和低功耗上找到了一个很好的平衡点,全面压倒了目前的所有桌面平台双核心处理器,加之又拥有非常不错的超频能力,确实是目前最强劲的台式机CPU核心。 Allendale 这是与Conroe同时发布的Intel桌面平台双核心处理器的核心类型,其名称来源 于美国加利福尼亚州南部的小城市―Allendale‖。Allendale核心于2006年7月27日正式发布,仍然 CPU内核和GPU内核的数量都可以灵活调整 基于全新的Core(酷睿)微架构,目前采用此核心的有1066MHz FSB的Core 2 Duo E6x00系列,即将发布的还有800MHz FSB的Core 2 Duo E4x00系列。Allendale核心的二级缓存机制与Conroe核心相同,但共享式二级缓存被削减至2MB。Allendale核心仍然采用65nm制造工艺,核心电压为1.3V左右,封装方式采用PLGA,接口类型仍然是传统的Socket 775,并且仍然支持硬件防病毒技术EDB、节能省电技术EIST和64位技术EM64T以及虚拟化技术Intel VT。除了共享式二级缓存被削减到2MB以及二级缓存是8路64Byte而非Conroe核心的16路64Byte之外,Allendale核心与Conroe核心几乎完全一样,可以说就是Conroe核心的简化版。当然由于二级缓存上的差异,在频率相同的情况下Allendale核心性能会稍逊于Conroe核心。 Merom 这是与Conroe同时发布的Intel移动平台双核心处理器的核心类型,其名称来源于以色列境内约旦河旁边的一个湖泊―Merom‖。Merom核心于2006年7月27日正式发布,仍然基于全新的Core(酷睿)微架构,这也是Intel全平台(台式机、笔记本和服务器)处理器首次采用相同的微架构设计,目前采用此核心的有667MHz FSB的Core 2 Duo T7x00系列和Core 2 Duo T5x00系列。与桌面版的Conroe核心类似,Merom核心仍然采用65nm制造工艺,核心电压为1.3V左右,封装方式采用PPGA,接口类型仍然是与Yonah核心Core Duo和Core Solo兼容的改良了的新版Socket 478接口(与以前台式机的Socket 478并不兼容)或Socket 479接口,仍然采用Socket 479插槽。Merom核心同样支持硬件防病毒技术EDB、节能省电技术EIST和64位技术EM64T以及虚拟化技术Intel VT。Merom核心的二级缓存机制也与Conroe核心相同,Core 2 Duo T7x00系列的共享式二级缓存为4MB,而Core 2 Duo T5x00系列的共享式二级缓存为2MB。Merom核心的主要技术特性与Conroe核心几乎完全相同,只是在Conroe核心的基础上利用多种手段加强了功耗控制,使其TDP功耗几乎只有Conroe核心的一半左右,以满足移动平台的节电需求。 Penryn Penryn采用了45纳米高-k制造技术(采用铬合金高-K与金属栅极晶体管设计),并对酷睿微体系结构进行了增强。跟65纳米工艺相比,45纳米高k制程技术可以将 晶体管数量提高近2倍,如下一代英特尔酷睿2 四核处理器将采用8.2亿个晶体管。借助新发明的高-k金属栅极晶体管技术,这8.2亿个晶体管能够以光速更高效地进行开关,晶体管切换速度提升了20% 以上,实现了更高的内核速度,并增加了每个时钟周期的指令数。双核处理器中的硅核尺寸为107平方毫米,比英特尔目前的65纳米产品小了25%,大约仅为普通邮票的四分之一大小,为添加新的特性、实现更高性能提供了更多自由空间。同时,由于减少了漏电流,因而可以降低功耗,同英特尔现有的双核处理器相比,新一代处理器能够以相同甚至更低的功耗运行,如Penryn处理器的散热设计功耗是,双核为40瓦/65瓦/80瓦,四核是50瓦/80瓦/120瓦。 全新的特性:快速Raidix-16除法器、增强型虚拟化技术、更大的高速缓存、分离负载高速缓存增强、更高的总线速度、英特尔SSE4指令、超级Shuffle引擎、深层关机技术、增强型动态加速技术、插槽兼容等。这些新特性使得Penryn能在性能、功耗、数字媒体应用、虚拟化应用等方面得到提升,如跟当前的产品相比,采用1600MHz前端总线、3GHz的Penryn处理器可以提升性能约45%。 不再使用铅作为原料 英特尔表示,其新一代处理器已经不再使用铅作为原料,预计到2008年将停止使用卤素。通过这些举措,英特尔处理器对于环境的危害将大大降低。英特尔新型处理器的一个最大特点是采用了铪,可以有效地解决电泄漏的问题,使处理器功耗效率提升了30%。随着晶体管的体积不断缩小,电泄漏也更加严重,导致处理器发热和功耗过大的问题日益突出。从某种程度上讲,电泄漏已经成为阻碍处理器性能进一步提升的瓶颈。 功耗最低25W 英特尔数字企业集团主管斯蒂芬?史密斯(Stephen Smith)表示,Penryn处理器的最大功耗不会超过120瓦。将于明年第一季度上市的Penryn笔记本处理器的功耗为25瓦,而当前65纳米笔记本处理器的功耗为35瓦。据史密斯称,Penryn处理器加入了用于加速图像处理和高清晰视频编码的新指令。同上一代产品相比,Penryn处理器的视频和图形性能有40%到60%的提升。得益于硬件的增强,虚拟机的性能也提升了75%。 编辑本段AMD CPU的核心类型 Athlon XP的核心类型 Athlon XP有4种不同的核心类型,但都有共同之处:都采用Socket A接口而且都采用PR标称值标注。 Thorton 采用0.13um制造工艺,核心电压1.65V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为333MHz。可以看作是屏蔽了一半二级缓存的Barton。 Barton 采用0.13um制造工艺,核心电压1.65V左右,二级缓存为512KB,封装方式采用OPGA,前端总线频率为333MHz和400MHz。 新Duron的核心类型 AppleBred 采用0.13um制造工艺,核心电压1.5V左右,二级缓存为64KB,封装方式采用OPGA,前端总线频率为266MHz。没有采用PR标称值标注而以实际频率标注,有1.4GHz、1.6GHz和1.8GHz三种。 Athlon 64系列CPU的核心类型 Clawhammer 采用0.13um制造工艺,核心电压1.5V左右,二级缓存为1MB,封装方式采用mPGA,采用Hyper Transport总线,内置1个128bit的内存控制器。采用Socket 754、Socket 940和Socket 939接口。 Newcastle 其与Clawhammer的最主要区别就是二级缓存降为512KB(这也是AMD为了市场需要和加快推广64位CPU而采取的相对低价政策的结果),其它性能基本相同。 Wincheste Wincheste是比较新的AMD Athlon 64CPU核心,是64位CPU,一般为939接口,0.09微米制造工艺。这种核心使用200MHz外频,支持1GHyperTransprot总线,512K二级缓存,性价比较好。Wincheste集成双通道内存控制器,支持双通道DDR内存,由于使用新的工艺,Wincheste的发热量比旧的Athlon小,性能也有所提升。 Troy Troy是AMD第一个使用90nm制造工艺的Opteron核心。Troy核心是在Sledgehammer基础上增添了多项新技术而来的,通常为940针脚,拥有128K一级缓存和1MB (1,024 KB)二级缓存。同样使用200MHz外频,支持1GHyperTransprot总线,集成了内存控制器,支持双通道DDR400内存,并且可以支持ECC 内存。此外,Troy核心还提供了对SSE-3的支持,和Intel的Xeon相同,总的来说,Troy是一款不错的CPU核心。 Venice Venice核心是在Wincheste核心的基础上演变而来,其技术参数和Wincheste基本相同:一样基于X86-64架构、整合双通道内存控制器、512KB L2缓存、90nm制造工艺、200MHz外频,支持1GHyperTransprot总线。Venice的变化主要有三方面:一是使用了Dual Stress Liner (简称DSL)技术,可以将半导体晶体管的响应速度提高24,,这样是CPU有更大的频率空间,更容易超频;二是提供了对SSE-3的支持,和Intel的CPU相同;三是进一步改良了内存控制器,一定程度上增加处理器的性能,更主要的是增加内存控制器对不同DIMM模块和不同配置的兼容性。此外Venice核心还使用了动态电压,不同的CPU可能会有不同的电压。 SanDiego SanDiego核心与Venice一样是在Wincheste核心的基础上演变而来,其技术参数和Venice非常接近,Venice拥有的新技术、新功能,SanDiego核心一样拥有。不过AMD公司将SanDiego核心定位到顶级Athlon 64处理器之上,甚至用于服务器CPU。可以将SanDiego看作是Venice核心的高级版本,只不过缓存容量由512KB提升到了1MB。当然由于L2缓存增加,SanDiego核心的内核尺寸也有所增加,从Venice核心的84平方毫米增加到115平方毫米,当然价格也更高昂。 Orleans 这是2006年5月底发布的第一种Socket AM2接口单核心Athlon 64的核心类型,其名称来源于法国城市奥尔良(Orleans)。Manila核心定位于桌面中端处理器,采用90nm制造工艺,支持虚拟化技术AMD VT,仍然采用1000MHz的HyperTransport总线,二级缓存为512KB,最大亮点是支持双通道DDR2 667内存,这是其与只支持单通道DDR 400内存的Socket 754接口Athlon 64和只支持双通道DDR 400内存的Socket 939接口Athlon 64的最大区别。Orleans核心Athlon 64同样也分为TDP功耗62W的标准版(核心电压1.35V左右)和TDP功耗35W的超低功耗版(核心电压1.25V左右)。除了支持双通道DDR2内存以及支持虚拟化技术之外,Orleans核心Athlon 64相对于以前的Socket 754接口和Socket 940接口的Athlon 64并无架构上的改变,性能并无多少出彩之处。 闪龙系列CPU的核心类型 Paris Paris核心是Barton核心的继任者,主要用于AMD的闪龙,早期的754接口闪龙部分使用Paris核心。Paris采用90nm制造工艺,支持iSSE2指令集,一般为256K二级缓存,200MHz外频。Paris核心是32位CPU,来源于K8核心,因此也具备了内存控制单元。CPU内建内存控制器的主要优点在于内存控制器可以以CPU频率运行,比起传统上位于北桥的内存控制器有更小的延时。使用Paris核心的闪龙与Socket A接口闪龙CPU相比,性能得到明显提升。 Palermo Palermo核心目前主要用于AMD的闪龙CPU,使用Socket 754接口、90nm制造工艺,1.4V左右电压,200MHz外频,128K或者256K二级缓存。Palermo核心源于K8的Wincheste核心,新的E6步进版本已经支持64位。除了拥有与AMD高端处理器相同的内部架构,还具备了EVP、Cool?n‘Quiet;和HyperTransport等AMD独有的技术,为广大用户带来更―冷静‖、更高计算能力的优秀处理器。由于脱胎与ATHLON64处理器,所以Palermo同样具备了内存控制单元。CPU内建内存控制器的主要优点在于内存控制器可以以CPU频率运行,比起传统上位于北桥的内存控制器有更小的延时。 Manila 这是2006年5月底发布的第一种Socket AM2接口Sempron的核心类型,其名称来源于菲律宾首都马尼拉(Manila)。Manila核心定位于桌面低端处理器,采用90nm制造工艺,不支持虚拟化技术AMD VT,仍然采用800MHz的HyperTransport总线,二级缓存为256KB或128KB,最大亮点是支持双通道DDR2 667内存,这是其与只支持单通道DDR 400内存的Socket 754接口Sempron的最大区别。Manila核心Sempron分为TDP功耗62W的标准版(核心电压1.35V左右)和TDP功耗35W的超低功耗版(核心电压1.25V左右)。除了支持双通道DDR2之外,Manila核心Sempron相对于以前的Socket 754接口Sempron并无架构上的改变,性能并无多少出彩之处。 Athlon 64 X2系列双核心CPU的核心类型 Manchester 这是AMD于2005年4月发布的在桌面平台上的第一款双核心处理器的核心类型,是在Venice核心的基础上演变而来,基本上可以看作是两个Venice核心耦合在一起,只不过协作程度比较紧密罢了,这是基于独立缓存的紧密型耦合方案,其优点是技术简单,缺点是性能仍然不够理想。Manchester核心采用90nm制造工艺,整合双通道内存控制器,支持1000MHz的HyperTransprot总线,全部采用Socket 939接口。Manchester核心的两个内核都独立拥有512KB的二级缓存,但与Intel的Smithfield核心和Presler核心的缓存数据同步要依靠主板北桥芯片上的仲裁单元通过前端总线传输方式大为不同的是,Manchester核心中两个内核的协作程度相当紧密,其缓存数据同步是依靠CPU内置的SRI(System Request Interface,系统请求接口)控制,传输在CPU内部即可实现。这样一来,不但CPU资源占用很小,而且不必占用内存总线资源,数据延迟也比Intel的Smithfield核心和Presler核心大为减少,协作效率明显胜过这两种核心。不过,由于Manchester核心仍然是两个内核的缓存相互独立,从架构上来看也明显不如以Yonah核心为代表的Intel的共享缓存技术Smart Cache。当然,共享缓存技术需要重新设计整个CPU架构,其难度要比把两个核心简单地耦合在一起要困难得多。 Toledo 这是AMD于2005年4月在桌面平台上的新款高端双核心处理器的核心类型,它和Manchester核心非常相似,差别在于二级缓存不同。Toledo是在San Diego核心的基础上演变而来,基本上可以看作是两个San diego核心简单地耦合在一起,只不过协作程度比较紧密罢了,这是基于独立缓存的紧密型耦合方案,其优点是技术简单,缺点是性能仍然不够理想。Toledo核心采用90nm制造工艺,整合双通道内存控制器,支持1000MHz的HyperTransprot总线,全部采用Socket 939接口。Toledo核心的两个内核都独立拥有1MB的二级缓存,与Manchester核心相同的是,其缓存数据同步也是通过SRI在CPU内部传输的。Toledo核心与Manchester核心相比,除了每个内核的二级缓存增加到1MB之外,其它都完全相同,可以看作是Manchester核心的高级版。 Windsor 这是2006年5月底发布的第一种Socket AM2接口双核心Athlon 64 X2和Athlon 64 FX的核心类型,其名称来源于英国地名温莎(Windsor)。Windsor核心定位于桌面高端处理器,采用90nm制造工艺,支持虚拟化技术AMD VT,仍然采用1000MHz的HyperTransport总线,二级缓存方面Windsor核心的两个内核仍然采用独立式二级缓存,Athlon 64 X2每核心为512KB或1024KB,Athlon 64 FX每核心为1024KB。Windsor核心的最大亮点是支持双通道DDR2 800内存,这是其与只支持双通道DDR 400内存的Socket 939接口Athlon 64 X2和Athlon 64 FX的最大区别。Windsor核心Athlon 64 FX目前只有FX-62这一款产品,其TDP功耗高达125W;而Athlon 64 X2则分为TDP功耗89W的标准版(核心电压1.35V左右)、TDP功耗65W的低功耗版(核心电压1.25V左右)和TDP功耗35W的超低功耗版(核心电压1.05V左右)。Windsor核心的缓存数据同步仍然是依靠CPU内置的SRI(System request interface,系统请求接口)传输在CPU内部实现,除了支持双通道DDR2内存以及支持虚拟化技术之外,相对于以前的Socket 939接口Athlon 64 X2和双核心Athlon 64 FX并无架构上的改变,性能并无多少出彩之处,其性能仍然不敌Intel即将于2006年7月底发布的Conroe核心Core 2 Duo和Core 2 Extreme。而且AMD从降低成本以提高竞争力方面考虑,除了Athlon 64 FX之外,已经决定停产具有1024KBx2二级缓存的所有Athlon 64 X2,只保留具有512KBx2二级缓存的Athlon 64 X2。 编辑本段移动版CPU 笔记本电脑专用的CPU英文称Mobile CPU(移动CPU),它除了追求性能,也追求低热量和低耗电,最早的笔记本电脑直接使用台式机的CPU,但是随CPU主频的提高, 笔记本电脑狭窄的空间不能迅速散发CPU产生的热量,还有笔记本电脑的电池也无法负担台式CPU庞大的耗电量, 所以开始出现专门为笔记本设计的Mobile CPU,它的制造工艺往往比同时代的台式机CPU更加先进,因为Mobile CPU中会集成台式机CPU中不具备的电源管理技术,而且会先采用更高的微米精度。 编辑本段其他核心类型 就是除以上标题外的内核 中央处理器 百科名片 intel和AMD主流CPU和CPU插槽 中央处理器(Central Processing Unit)的缩写,即CPU,CPU是电脑中的核心配件,只有火柴盒那么大,几十张纸那么厚,但它却是一台计算机的运算核心和控制核心。电脑中所有操作都由CPU负责读取指令,对指令译码并执行指令的核心部件。同时,中国药科大学的英语简称也是CPU(China Pharmaceutical University )。 目录 作用简介 工作原理 发展过程 性能指标 生产厂商 各种包装 原装识别 作用简介 工作原理 发展过程 性能指标 生产厂商 各种包装 原装识别 展开 编辑本段作用简介 中央处理器(Central Processing Unit,CPU),是电子计算机的主要设备之一。其功能主要是解释计算机指令以及处理计算机软件中的数据。所谓的计算机的可编程性主要是指对CPU的编程。 CPU是计算机中的核心配件,只有火柴盒那么大,几十张纸那么厚,但它却是一台计算机的运算核心和控制核心。计算机中所有操作都由CPU负责读取指令,对指令译码并执行指令的核心部件。 CPU、内部存储器和输入/输出设备是电子计算机的三大核心部件。 CPU是由运算器、控制器和寄存器及实现它们之间联系的数据、控制及状态总线构成。 编辑本段工作原理 基本原理 CPU的主要运作原理,不论其外观,都是执行储存于被称为程式里的一系列指令。在此讨论的是遵循普遍的架构设计的装置。程式以一系列数字储存在电脑记忆体中。差不多所有的CPU的运作原理可分为四个阶段:提取(Fetch)、解码(Decode)、执行(Execute)和写回(Writeback)。 Intel公司Core(酷睿) 2系列下的一款CPU 第一阶段,提取,从程式记忆体中检索指令(为数值或一系列数值)。由程式计数器(Program Counter)指定程式记忆体的位置,程式计数器保存供识别目前程式位置的数值。换言之,程式计数器记录了CPU在目前程式里的踪迹。 提取指令之后,程式计数器根据指令式长度增加记忆体单元。指令的提取常常必须从相对较慢的记忆体寻找,导致CPU等候指令的送入。这个问题主要被论及在现代处理器的快取和管线化架构(见下)。 CPU根据从记忆体提取到的指令来决定其执行行为。在解码阶段,指令被拆解为有意义的片断。根据CPU的指令集架构(ISA)定义将数值解译为指令。 一部分的指令数值为运算码(Opcode),其指示要进行哪些运算。其它的数值通常供给指令必要的资讯,诸如一个加法(Addition)运算的运算目标。这样的运算目标也许提供一个常数值(即立即值),或是一个空间的定址值:暂存器或记忆体位址,以定址模式决定。 在旧的设计中,CPU里的指令解码部分是无法改变的硬体装置。不过在众多抽象 且复杂的CPU和指令集架构中,一个微程式时常用来帮助转换指令为各种形态的讯号。这些微程式在已成品的CPU中往往可以重写,方便变更解码指令。 在提取和解码阶段之后,接着进入执行阶段。该阶段中,连接到各种能够进行所需运算的CPU部件。 例如,要求一个加法运算,算数逻辑单元(ALU,Arithmetic Logic Unit)将会连接到一组输入和一组输出。输入提供了要相加的数值,而且在输出将含有总和结果。ALU内含电路系统,以于输出端完成简单的普通运算和逻辑运算(比如加法和位元运算)。如果加法运算产生一个对该CPU处理而言过大的结果,在标志暂存器里,运算溢出(Arithmetic Overflow)标志可能会被设置(参见以下的数值精度探讨)。 最终阶段,写回,以一定格式将执行阶段的结果简单的写回。运算结果经常被写进CPU内部的暂存器,以供随后指令快速存取。在其它案例中,运算结果可能写进速度较慢,但容量较大且较便宜的主记忆体。某些类型的指令会操作程式计数器,而不直接产生结果资料。这些一般称作―跳转‖(Jumps)并在程式中带来循环行为、条件性执行(透过条件跳转)和函式。 许多指令也会改变标志暂存器的状态位元。这些标志可用来影响程式行为,缘由于它们时常显出各种运算结果。 例如,以一个―比较‖指令判断两个值的大小,根据比较结果在标志暂存器上设置一个数值。这个标志可藉由随后的跳转指令来决定程式动向。 在执行指令并写回结果资料之后,程式计数器的值会递增,反覆整个过程,下一个指令周期正常的提取下一个顺序指令。如果完成的是跳转指令,程式计数器将会修改成跳转到的指令位址,且程式继续正常执行。许多复杂的CPU可以一次提取多个指令、解码,并且同时执行。这个部分一般涉及―经典RISC管线‖,那些实际上是在众多使用简单CPU的电子装置中快速普及(常称为微控制(Microcontrollers))。 基本结构 CPU包括运算逻辑部件、寄存器部件和控制部件。CPU从存储器或高速缓冲存储器中取出指令,放入指令寄存器,并对指令译码。它把指令分解成一系列的微操作,然后发出各种控制命令,执行微操作系列,从而完成一条指令的执行。 指令是计算机规定执行操作的类型和操作数的基本命令。指令是由一个字节或者多个字节组成,其中包括操作码字段、一个或多个有关操作数地址的字段以及一些表征机器状态的状态字和特征码。有的指令中也直接包含操作数本身。 运算逻辑部件 运算逻辑部件,可以执行定点或浮点的算术运算操作、移位操作以及逻辑操作,也可执行地址的运算和转换。 寄存器部件 寄存器部件,包括通用寄存器、专用寄存器和控制寄存器。 32位CPU的寄存器 通用寄存器又可分定点数和浮点数两类,它们用来保存指令中的寄存器操作数和操作结果。 通用寄存器是中央处理器的重要组成部分,大多数指令都要访问到通用寄存器。通用寄存器的宽度决定计算机内部的数据通路宽度,其端口数目往往可影响内部操作的并行性。 专用寄存器是为了执行一些特殊操作所需用的寄存器。 控制寄存器通常用来指示机器执行的状态,或者保持某些指针,有处理状态寄存器、地址转换目录的基地址寄存器、特权状态寄存器、条件码寄存器、处理异常事故寄存器以及检错寄存器等。 有的时候,中央处理器中还有一些缓存,用来暂时存放一些数据指令,缓存越大,说明CPU的运算速度越快,目前市场上的中高端中央处理器都有2M左右的二级缓存。 控制部件 控制部件,主要负责对指令译码,并且发出为完成每条指令所要执行的各个操作的控制信号。 其结构有两种:一种是以微存储为核心的微程序控制方式;一种是以逻辑硬布线结构为主的控制方式。 微存储中保持微码,每一个微码对应于一个最基本的微操作,又称微指令;各条指令是由不同序列的微码组成,这种微码序列构成微程序。中央处理器在对指令译码以后,即发出一定时序的控制信号,按给定序列的顺序以微周期为节拍执行由这些微码确定的若干个微操作,即可完成某条指令的执行。 简单指令是由(3,5)个微操作组成,复杂指令则要由几十个微操作甚至几百个微操作组成。 逻辑硬布线控制器则完全是由随机逻辑组成。指令译码后,控制器通过不同的逻辑门的组合,发出不同序列的控制时序信号,直接去执行一条指令中的各个操作。 其 他 应用大型、小型和微型计算机的中央处理器的规模和实现方式很不相同,工作速度也变化较大。中央处理器可以由几块电路块甚至由整个机架组成。如果中央处理器的电路集成在一片或少数几片大规模集成电路芯片上,则称为微处理器(见微型机)。 现 状 中央处理器的工作速度与工作主频和体系结构都有关系。中央处理器的速度一般都在几个MIPS(每秒执行100万条指令)以上。有的已经达到几百MIPS 。 速度最快的中央处理器的电路已采用砷[shēn]化镓[jiā]工艺。在提高速度方面,流水线结构是几乎所有现代中央处理器设计中都已采用的重要措施。未来,中央处理器工作频率的提高已逐渐受到物理上的限制,而内部执行性(指利用中央处理器内部 的硬件资源)的进一步改进是提高中央处理器工作速度而维持软件兼容的一个重要方向。 编辑本段发展过程 CPU这个名称,早期是对一系列可以执行复杂的计算机程序或电脑程式的逻辑机器的描述。这个空泛的定义很容易在―CPU‖这个名称被普遍使用之前将计算机本身也包括在内。 诞 生 中央处理器(Intel) 但从20世纪70年代开始,由于集成电路的大规模使用,把本来需要由数个独立单元构成的CPU集成为一块微小但功能空前强大的微处理器时。这个名称及其缩写才真正在电子计算机产业中得到广泛应用。尽管与早期相比,CPU在物理形态、设计制造和具体任务的执行上都有了戏剧性的发展,但是其基本的操作原理一直没有改变。 1971年,当时还处在发展阶段的Intel公司推出了世界上第一台真正的微处理器,,4004。这不但是第一个用于计算器的4位微处理器,也是第一款个人有能力买得起的电脑处理器~ 4004含有2300个晶体管,功能相当有限,而且速度还很慢,被当时的蓝色巨人IBM以及大部分商业用户不屑一顾,但是它毕竟是划时代的产品,从此以后,Intel公司便与微处理器结下了不解之缘。可以这么说,CPU的历史发展历程其实也就是Intel公司X86系列CPU的发展历程,就通过它来展开的―CPU历史之旅‖。 起步的角逐 中央处理器(Intel) 1978年,Intel公司再次领导潮流,首次生产出16位的微处理器,并命名为i8086,同时还生产出与之相配合的数学协处理器i8087,这两种芯片使用相互兼容的指令集,但在i8087指令集中增加了一些专门用于对数、指数和三角函数等数学计算的指令。由于这些指令集应用于i8086和i8087,所以人们也把这些指令集中统一称之为X86指令集。 虽然以后Intel公司又陆续生产出第二代、第三代等更先进和更快的新型CPU,但都仍然兼容原来的X86指令,而且Intel公司在后续CPU的命名上沿用了原先的X86序列,直到后来因商标注册问题,才放弃了继续用阿拉伯数字命名。至于在后来发展壮大的其他公司,例如AMD和Cyrix等,在486以前(包括486)的CPU都是按Intel的命名方式为自己的X86系列CPU命名,但到了586时代,市场竞争越来越厉害了,由于商标注册问题,它们已经无法继续使用与Intel的X86系列相同或相似的命名,只好另外为自己的586、686兼容CPU命名了。 1979年,Intel公司推出了8088芯片,它仍旧是属于16位微处理器,内含29000个晶体管,时钟频率为4.77MHz,地址总线为20位,可使用1MB内存。8088内部数据总线都是16位,外部数据总线是8位,而它的兄弟8086是16位。 微机时代的来临 中央处理器(概念图) 1981年,8088芯片首次用于IBM的PC(个人电脑Personal Computer)机中,开创了全新的微机时代。也正是从8088开始,PC的概念开始在全世界范围内发展起来。 早期的CPU通常是为大型及特定应用的计算机而订制。但是,这种昂贵为特定应用定制CPU的方法很大程度上已经让位于开发便宜、标准化、适用于一个或多个目的的处理器类。 这个标准化趋势始于由单个晶体管组成的大型机和微机年代,随着集成电路的出现而加速。集成电路使得更为复杂的CPU可以在很小的空间中设计和制造出来(在微米的量级)。 1982年,许多年轻的读者尚在襁褓之中的时候,Intel公司已经推出了划时代的最新产品枣80286芯片,该芯片比8086和8088都有了飞跃的发展,虽然它仍旧是16位结构,但是在CPU的内部含有13.4万个晶体管,时钟频率由最初的6MHz逐步提高到20MHz。其内部和外部数据总线皆为16位,地址总线24位,可寻址16MB内存。从80286开始,CPU的工作方式也演变出两种来:实模式和保护模式。 中央处理器(AMD速龙64FX概念图) 1985年,Intel公司推出了80386芯片,它是80X86系列中的第一种32位微处理器,而且制造工艺也有了很大的进步,与80286相比,80386内部内含27.5万个晶体管,时钟频率为12.5MHz,后提高到20MHz、25MHz、33MHz。80386的内部和外部数据总线都是32位,地址总线也是32位,可寻址高达4GB内存。它除具有实模式和保护模式外,还增加了一种叫虚拟86的工作方式,可以通过同时模拟多个8086处理器来提供多任务能力。 除了标准的80386芯片,也就是经常说的80386DX外,出于不同的市场和应用考虑,Intel又陆续推出了一些其它类型的80386芯片:80386SX、80386SL、80386DL等。 1988年,Intel推出的80386SX是市场定位在80286和80386DX之间的一种芯片,其与80386DX的不同在于外部数据总线和地址总线皆与80286相同,分别是16位和24位(即寻址能力为16MB)。 高速CPU时代的腾飞 1990年,Intel公司推出的80386 SL和80386 DL都是低功耗、节能型芯片,主要用于便携机和节能型台式机。80386 SL与80386 DL的不同在于前者是基于80386SX的,后者是基于80386DX的,但两者皆增加了一种新的工作方式:系统管理方式。当进入系统管理方式后,CPU 就自动降低运行速度、控制显示屏和硬盘等其它部件暂停工作,甚至停止运行,进入―休眠‖状态,以达到节能目的。 1989年,大家耳熟能详的80486 芯片由Intel公司推出,这种芯片的伟大之处就在于它实破了100万个晶体管的界限,集成了120万个晶体管。80486的时钟频率从25MHz逐步提高到了33MHz、50MHz。80486是将80386和数学协处理器80387以及一个8KB的高速缓存集成在一个芯片内,并且在80X86系列中首次采用 了RISC(精简指令集)技术,可以在一个时钟周期内执行一条指令。它还采用了突发总线方式,大大提高了与内存的数据交换速度。 由于这些改进,80486 的性能比带有80387数学协处理器的80386DX提高了4倍。80486和80386一样,也陆续出现了几种类型。上面介绍的最初类型是80486DX。 1990年,Intel公司推出了80486 SX,它是486类型中的一种低价格机型,其与80486DX的区别在于它没有数学协处理器。80486 DX2由于用了时钟倍频技术,也就是说芯片内部的运行速度是外部总线运行速度的两倍,即芯片内部以2倍于系统时钟的速度运行,但仍以原有时钟速度与外界通讯。80486 DX2的内部时钟频率主要有40MHz、50MHz、66MHz等。80486 DX4也是采用了时钟倍频技术的芯片,它允许其内部单元以2倍或3倍于外部总线的速度运行。为了支持这种提高了的内部工作频率,它的片内高速缓存扩大到 16KB。80486 DX4的时钟频率为100MHz,其运行速度比66MHz的80486 DX2快40%。80486也有SL增强类型,其具有系统管理方式,用于便携机或节能型台式机。 CPU的标准化和小型化都使得这一类数字设备(香港译为―电子零件‖)在现代生活中 中央处理器(Intel) 的出现频率远远超过有限应用专用的计算机。现代微处理器出现在包括从汽车到手机到儿童玩具在内的各种物品中。 奔腾时代 Pentium(奔腾)微处理器于1993年三月推出,它集成了310万个晶体管。它使 用多项技术来提高cpu性能,主要包括采用超标量结构,内置应用超级流水线技术的浮点运算器,增大片上的cache容量,采用内部奇偶效验一边检验内部处理错误等。 编辑本段性能指标 主频 主频也叫时钟频率,单位是兆赫(MHz)或千兆赫(GHz),用来表示CPU的运算、处理数据的速度。 CPU的主频=外频×倍频系数。很多人认为主频就决定着CPU的运行速度,这不仅是片面的,而且对于服务器来讲,这个认识也出现了偏差。至今,没有一条确定的公式能够实现主频和实际的运算速度两者之间的数值关系,即使是两大处理器厂家Intel(英特尔)和AMD,在这点上也存在着很大的争议,从Intel的产品的发展趋势,可以看出Intel很注重加强自身主频的发展。像其他的处理器厂家,有人曾经拿过一块1GHz的全美达处理器来做比较,它的运行效率相当于2GHz的Intel处理器。 中央处理器的核心部分 主频和实际的运算速度存在一定的关系,但并不是一个简单的线性关系. 所以,CPU的主频与CPU实际的运算能力是没有直接关系的,主频表示在CPU内数字脉冲信号震荡的速度。在Intel的处理器产品中,也可以看到这样的例子:1 GHz Itanium芯片能够表现得差不多跟2.66 GHz至强(Xeon)/Opteron一样快,或是1.5 GHz Itanium 2 大约跟4 GHz Xeon/Opteron一样快。CPU的运算速度还要看CPU的流水线、总线等等各方面的性能指标。 主频和实际的运算速度是有关的,只能说主频仅仅是CPU性能表现的一个方面,而不代表CPU的整体性能。 外频 外频是CPU的基准频率,单位是MHz。CPU的外频决定着整块主板的运行速度。通俗地说,在台式机中,所说的超频,都是超CPU的外频(当然一般情况下,CPU的倍频都是被锁住的)相信这点是很好理解的。但对于服务器CPU来讲,超频是绝对不允许的。前面说到CPU决定着主板的运行速度,两者是同步运行的,如果把服务器CPU超频了,改变了外频,会产生异步运行,(台式机很多主板都支持异步运行) 这样会造成整个服务器系统的不稳定。 目前的绝大部分电脑系统中外频与主板前端总线不是同步速度的,而外频与前端总线(FSB)频率又很容易被混为一谈,下面的前端总线介绍谈谈两者的区别。 前端总线(FSB)频率 前端总线(FSB)频率(即总线频率)是直接影响CPU与内存直接数据交换速度。有一条公式可以计算,即数据带宽=(总线频率×数据位宽)/8,数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率。比方,现在的支持64位的至强Nocona,前端总线是800MHz,按照公式,它的数据传输最大带宽是6.4GB/秒。 中央处理器(Intel) 外频与前端总线(FSB)频率的区别:前端总线的速度指的是数据传输的速度,外频是CPU与主板之间同步运行的速度。也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一亿次;而100MHz前端总线指的是每秒钟CPU可接受的数据传输量是100MHz×64bit?8bit/Byte=800MB/s。 其实现在―HyperTransport‖构架的出现,让这种实际意义上的前端总线(FSB)频率发生了变化。IA-32架构必须有三大重要的构件:内存控制器Hub (MCH) ,I/O控制器Hub和PCI Hub,像Intel很典型的芯片组 Intel 7501、Intel7505芯片组,为双至强处理器量身定做的,它们所包含的MCH为CPU提供了频率为533MHz的前端总线,配合DDR内存,前端总线带宽可达到4.3GB/秒。但随着处理器性能不断提高同时给系统架构带来了很多问题。而―HyperTransport‖构架不但解决了问题,而且更有效地提高了总线带宽,比方AMD Opteron处理器,灵活的HyperTransport I/O总线体系结构让它整合了内存控制器,使处理器不通过系统总线传给芯片组而直接和内存交换数据。这样的话,前端总线(FSB)频率在AMD Opteron处理器就不知道从何谈起了。 CPU的位和字长 中央处理器(德州仪器) 位:在数字电路和电脑技术中采用二进制,代码只有―0‖和―1‖,其中无论是 ―0‖或是―1‖在CPU中都是 一―位‖。 字长:电脑技术中对CPU在单位时间内(同一时间)能一次处理的二进制数的位数叫字长。所以能处理字长为8位数据的CPU通常就叫8位的CPU。同理32位的CPU就能在单位时间内处理字长为32位的二进制数据。字节和字长的区别:由于常用的英文字符用8位二进制就可以表示,所以通常就将8位称为一个字节。字长的长度是不固定的,对于不同的CPU、字长的长度也不一样。8位的CPU一次只能处理一个字节,而32位的CPU一次就能处理4个字节,同理字长为64位的CPU一次可以处理8个字节。 倍频系数 倍频系数是指CPU主频与外频之间的相对比例关系。在相同的外频下,倍频越高CPU的频率也越高。但实际上,在相同外频的前提下,高倍频的CPU本身意义并不大。这是因为CPU与系统之间数据传输速度是有限的,一味追求高主频而得到高倍频的CPU就会出现明显的―瓶颈‖效应,CPU从系统中得到数据的极限速度不能够满足CPU运算的速度。一般除了工程样版的Intel的CPU都是锁了倍频的,少量的如Inter 酷睿2 核心的奔腾双核E6500K和一些至尊版的CPU不锁倍频,而AMD之前都没有锁,现在AMD推出了黑盒版CPU(即不锁倍频版本,用户可以自由调节倍频,调节倍频的超频方式比调节外频稳定得多)。 缓存 缓存大小也是CPU的重要指标之一,而且缓存的结构和大小对CPU速度的影响非常大,CPU内缓存的运行频率极高,一般是和处理器同频运作,工作效率远远大于系统内存和硬盘。实际工作时,CPU往往需要重复读取同样的数据块,而缓存容量的增大,可以大幅度提升CPU内部读取数据的命中率,而不用再到内存或者硬盘上寻找,以此提高系统性能。但是由于CPU芯片面积和成本的因素来考虑,缓存都很小。 L1 Cache(一级缓存)是CPU第一层高速缓存,分为数据缓存和指令缓存。内置的L1高速缓存的容量和结构对CPU的性能影响较大,不过高速缓冲存储器均由静态 RAM组成,结构较复杂,在CPU管芯面积不能太大的情况下,L1级高速缓存的容量不可能做得太大。一般服务器CPU的L1缓存的容量通常在32,256KB。 L2 Cache(二级缓存)是CPU的第二层高速缓存,分内部和外部两种芯片。内部的芯片二级缓存运行速度与主频相同,而外部的二级缓存则只有主频的一半。L2高速缓存容量也会影响CPU的性能,原则是越大越好,以前家庭用CPU容量最大的是512KB,现在笔记本电脑中也可以达到2M,而服务器和工作站上用CPU的L2高速缓存更高,可以达到8M以上。 L3 Cache(三级缓存),分为两种,早期的是外置,现在的都是内置的。而它的实际作用即是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。降低内存延迟和提升大数据量计算能力对游戏都很有帮助。而在服务器领域增加L3缓存在性能方面仍然有显著的提升。比方具有较大L3缓存的配置利用物理内存会更有效,故它比较慢的磁盘I/O子系统可以处理更多的数据请求。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。 其实最早的L3缓存被应用在AMD发布的K6-III处理器上,当时的L3缓存受限于制造工艺,并没有被集成进芯片内部,而是集成在主板上。在只能够和系统总线频率同步的L3缓存同主内存其实差不了多少。后来使用L3缓存的是英特尔为服务器市场所推出的Itanium处理器。接着就是P4EE和至强MP。Intel还打算推出一款9MB L3缓存的Itanium2处理器,和以后24MB L3缓存的双核心Itanium2处理器。 但基本上L3缓存对处理器的性能提高显得不是很重要,比方配备1MB L3缓存的Xeon MP处理器却仍然不是Opteron的对手,由此可见前端总线的增加,要比缓存增加带来更有效的性能提升。 CPU扩展指令集 CPU依靠指令来自计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分(指令集共有四个种类),而从具体运用看,如Intel的MMX(Multi Media Extended,此为AMD猜测的全称,Intel并没有说明词源)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)、SSE3、SSE4系列和AMD的3DNow!等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。通常会把CPU的扩展指令集称为‖CPU的指令集‖。SSE3指令集也是目前规模最小的指令集,此前MMX包含有57条命令,SSE包含有50条命令,SSE2包含有144条命令,SSE3包含有13条命令。目前SSE4也是最先进的指令集,英特尔酷睿系列处理器已经支持SSE4指令集,AMD会在未来双核心处理器当中加入对SSE4指令集的支持,全美达的处理器也将支持这一指令集。 CPU内核和I/O工作电压 从586CPU开始,CPU的工作电压分为内核电压和I/O电压两种,通常CPU的核心电压小于等于I/O电压。其中内核电压的大小是根据CPU的生产工艺而定,一般制作工艺越小,内核工作电压越低;I/O电压一般都在1.6~5V。低电压能解决耗电过大和发热过高的问题。 制造工艺 制造工艺的微米是指IC内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计,意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计。现在主要的180nm、130nm、90nm、65nm、45纳米。最近inter已经有32纳米的制造工艺的酷睿i3/i5系列了。 而AMD则表示、自己的产品将会直接跳过32nm工艺(2010年第三季度生产少许32nm产品、如Orochi、Llano)于2011年中期初发布28nm的产品(名称未定) 指令集 (1)CISC指令集 CISC指令集,也称为复杂指令集,英文名是CISC,(Complex Instruction Set Computer的缩写)。在CISC微处理器中,程序的各条指令是按顺序串行执行的,每条指令中的各个操作也是按顺序串行执行的。顺序执行的优点是控制简单,但计算机各部分的利用率不高,执行速度慢。其实它是英特尔生产的x86系列(也就是IA-32架构)CPU及其兼容CPU,如AMD、VIA的。即使是现在新起的X86-64(也被成AMD64)都是属于CISC的范畴。 要知道什么是指令集还要从当今的X86架构的CPU说起。X86指令集是Intel为其第一块16位CPU(i8086)专门开发的,IBM1981年推出的世界第一台PC机中的CPU,i8088(i8086简化版)使用的也是X86指令,同时电脑中为提高浮点数据处理能力而增加了X87芯片,以后就将X86指令集和X87指令集统称为X86指令集。 虽然随着CPU技术的不断发展,Intel陆续研制出更新型的i80386、i80486直到过去的PII至强、PIII至强、Pentium 3,Pentium 4系列,最后到今天的酷睿2系列、至强(不包括至强Nocona),但为了保证电脑能继续运行以往开发的各类应用程序以保护和继承丰富的软件资源,所以Intel公司所生产的所有CPU仍然继续使用X86指令集,所以它的CPU仍属于X86系列。由于Intel X86系列及其兼容CPU(如AMD Athlon MP、)都使用X86指令集,所以就形成了今天庞大的X86系列及兼容CPU阵容。x86CPU目前主要有intel的服务器CPU和AMD的服务器CPU两类。 (2)RISC指令集 RISC是英文―Reduced Instruction Set Computing ‖ 的缩写,中文意思是―精简指令集‖。它是在CISC指令系统基础上发展起来的,有人对CISC机进行测试表明,各种指令的使用频度相当悬殊,最常使用的是一些比较简单的指令,它们仅占指令总数的20%,但在程序中出现的频度却占80%。复杂的指令系统必然增加微处理器的复杂性,使处理器的研制时间长,成本高。并且复杂指令需要复杂的操作,必然会降低计算机的速度。基于上述原因,20世纪80年代RISC型CPU诞生了,相对于CISC型CPU ,RISC型CPU不仅精简了指令系统,还采用了一种叫做―超标量和超流水线结构‖,大大增加了并行处理能力。RISC指令集是高性能CPU的发展方向。它与传统的CISC(复杂指令集)相对。相比而言,RISC的指令格式统一,种类比较少,寻址方式也比复杂指令集少。当然处理速度就提高很多了。目前在中高档服务器中普遍采用这一指令系统的CPU,特别是高档服务器全都采用RISC指令系统的CPU。RISC指令系统更加适合高档服务器的操作系统UNIX,现在Linux也属于类似UNIX的操作系统。RISC型CPU与Intel和AMD的CPU在软件和硬件上都不兼容。 目前,在中高档服务器中采用RISC指令的CPU主要有以下几类:PowerPC处理器、SPARC处理器、PA-RISC处理器、MIPS处理器、Alpha处理器。 (3)IA-64 EPIC(Explicitly Parallel Instruction Computers,精确并行指令计算机)是否是RISC和CISC体系的继承者的争论已经有很多,单以EPIC体系来说,它更像Intel的处理器迈向RISC体系的重要步骤。从理论上说,EPIC体系设计的CPU,在相同的主机配置下,处理Windows的应用软件比基于Unix下的应用软件要好得多。 Intel采用EPIC技术的服务器CPU是安腾Itanium(开发代号即Merced)。它是64位处理器,也是IA,64系列中的第一款。微软也已开发了代号为Win64的操作系统,在软件上加以支持。在Intel采用了X86指令集之后,它又转而寻求更先进的64-bit微处理器,Intel这样做的原因是,它们想摆脱容量巨大的x86架构,从而引入精力充沛而又功能强大的指令集,于是采用EPIC指令集的IA-64架构便诞生了。IA-64 在很多方面来说,都比x86有了长足的进步。突破了传统IA32架构的许多限制,在数据的处理能力,系统的稳定性、安全性、可用性、可观理性等方面获得了突破性的提高。 IA-64微处理器最大的缺陷是它们缺乏与x86的兼容,而Intel为了IA-64处理器能够更好地运行两个朝代的软件,它在IA-64处理器上(Itanium、Itanium2 ……)引入了x86-to-IA-64的解码器,这样就能够把x86指令翻译为IA-64指令。这个解码器并不是最有效率的解码器,也不是运行x86代码的最好途径(最好的途径是直接在x86处理器上运行x86代码),因此Itanium 和Itanium2在运行x86应用程序时候的性能非常糟糕。这也成为X86-64产生的根本原因。 (4)X86-64 (AMD64 / EM64T) AMD公司设计,可以在同一时间内处理64位的整数运算,并兼容于X86-32架构。其中支持64位逻辑定址,同时提供转换为32位定址选项;但数据操作指令默认为32位和8位,提供转换成64位和16位的选项;支持常规用途寄存器,如果是32 位运算操作,就要将结果扩展成完整的64位。这样,指令中有―直接执行‖和―转换执行‖的区别,其指令字段是8位或32位,可以避免字段过长。 x86-64(也叫AMD64)的产生也并非空穴来风,x86处理器的32bit寻址空间限制在4GB内存,而IA-64的处理器又不能兼容x86。AMD充分考虑顾客的需求,加强x86指令集的功能,使这套指令集可同时支持64位的运算模式,因此AMD把它们的结构称之为x86-64。在技术上AMD在x86-64架构中为了进行64位运算,AMD为其引入了新增了R8-R15通用寄存器作为原有X86处理器寄存器的扩充,但在而在32位环境下并不完全使用到这些寄存器。原来的寄存器诸如EAX、EBX也由32位扩张至64位。在SSE单元中新加入了8个新寄存器以提供对SSE2的支持。寄存器数量的增加将带来性能的提升。与此同时,为了同时支持32和64位代码及寄存器,x86-64架构允许处理器工作在以下两种模式:Long Mode(长模式)和Legacy Mode(遗传模式),Long模式又分为两种子模式(64bit模式和Compatibility mode兼容模式)。该标准已经被引进在AMD服务器处理器中的Opteron处理器. 而今年也推出了支持64位的EM64T技术,再还没被正式命为EM64T之前是IA32E,这是英特尔64位扩展技术的名字,用来区别X86指令集。Intel的EM64T支持64位sub-mode,和AMD的X86-64技术类似,采用64位的线性平面寻址,加入8个新的通用寄存器(GPRs),还增加8个寄存器支持SSE指令。与AMD相类似,Intel的64位技术将兼容IA32和IA32E,只有在运行64位操作系统下的时候,才将会采用IA32E。IA32E将由2个sub-mode组成:64位sub-mode和32位sub-mode,同AMD64一样是向下兼容的。Intel的EM64T将完全兼容AMD的X86-64技术。现在Nocona处理器已经加入了一些64位技术,Intel的Pentium 4E处理器也支持64位技术。 应该说,这两者都是兼容x86指令集的64位微处理器架构,但EM64T与AMD64还是有一些不一样的地方,AMD64处理器中的NX位在Intel的处理器中将没有提供。 超流水线与超标量 在解释超流水线与超标量前,先了解流水线(Pipeline)。流水线是Intel首次在486芯片中开始使用的。流水线的工作方式就象工业生产上的装配流水线。在CPU中由5,6个不同功能的电路单元组成一条指令处理流水线,然后将一条X86指令分成5,6步后再由这些电路单元分别执行,这样就能实现在一个CPU时钟周期完成一条指令,因此提高CPU的运算速度。经典奔腾每条整数流水线都分为四级流水,即指令预取、译码、执行、写回结果,浮点流水又分为八级流水。 超标量是通过内置多条流水线来同时执行多个处理器,其实质是以空间换取时间。而超流水线是通过细化流水、提高主频,使得在一个机器周期内完成一个甚至多个操作,其实质是以时间换取空间。例如Pentium 4的流水线就长达20级。将流水线设计的步(级)越长,其完成一条指令的速度越快,因此才能适应工作主频更高的CPU。但是流水线过长也带来了一定副作用,很可能会出现主频较高的CPU实际运算速度 较低的现象,Intel的奔腾4就出现了这种情况,虽然它的主频可以高达1.4G以上,但其运算性能却远远比不上AMD 1.2G的速龙甚至奔腾III。 封装形式 CPU封装是采用特定的材料将CPU芯片或CPU模块固化在其中以防损坏的保护措施,一般必须在封装后CPU才能交付用户使用。CPU的封装方式取决于CPU安装形式和器件集成设计,从大的分类来看通常采用Socket插座进行安装的CPU使用PGA(栅格阵列)方式封装,而采用Slot x槽安装的CPU则全部采用SEC(单边接插盒)的形式封装。现在还有PLGA(Plastic Land Grid Array)、OLGA(Organic Land Grid Array) 等封装技术。由于市场竞争日益激烈,目前CPU封装技术的发展方向以节约成本为主。 多线程 同时多线程Simultaneous Multithreading,简称SMT。SMT可通过复制处理器上的结构状态,让同一个处理器上的多个线程同步执行并共享处理器的执行资源,可最大限度地实现宽发射、乱序的超标量处理,提高处理器运算部件的利用率,缓和由于数据相关或Cache未命中带来的访问内存延时。当没有多个线程可用时,SMT处理器几乎和传统的宽发射超标量处理器一样。SMT最具吸引力的是只需小规模改变处理器核心的设计,几乎不用增加额外的成本就可以显著地提升效能。多线程技术则可以为高速的运算核心准备更多的待处理数据,减少运算核心的闲置时间。这对于桌面低端系统来说无疑十分具有吸引力。Intel从3.06GHz Pentium 4开始,所有处理器都将支持SMT技术。 多核心 多核心,也指单芯片多处理器(Chip Multiprocessors,简称CMP)。CMP是由美国斯坦福大学提出的,其思想是将大规模并行处理器中的SMP(对称多处理器)集成到同一芯片内,各个处理器并行执行不同的进程。与CMP比较, SMT处理器结构的灵活性比较突出。但是,当半导体工艺进入0.18微米以后,线延时已经超过了门延迟,要求微处理器的设计通过划分许多规模更小、局部性更好的基本单元结构来进行。相比之下,由于CMP结构已经被划分成多个处理器核来设计,每个核都比较简单,有利于优化设计,因此更有发展前途。目前,IBM 的Power 4芯片和Sun的 MAJC5200芯片都采用了CMP结构。多核处理器可以在处理器内部共享缓存,提高缓存利用率,同时简化多处理器系统设计的复杂度。 2005年下半年,Intel和AMD的新型处理器也将融入CMP结构。新安腾处理器开发代码为Montecito,采用双核心设计,拥有最少18MB片内缓存,采取90nm工艺 制造,它的设计绝对称得上是对当今芯片业的挑战。它的每个单独的核心都拥有独立的L1,L2和L3 cache,包含大约10亿支晶体管。 SMP SMP(Symmetric Multi-Processing),对称多处理结构的简称,是指在一个计算机上汇集了一组处理器(多CPU),各CPU之间共享内存子系统以及总线结构。在这种技术的支持下,一个服务器系统可以同时运行多个处理器,并共享内存和其他的主机资源。像双至强,也就是所说的二路,这是在对称处理器系统中最常见的一种(至强MP可以支持到四路,AMD Opteron可以支持1-8路)。也有少数是16路的。但是一般来讲,SMP结构的机器可扩展性较差,很难做到100个以上多处理器,常规的一般是8个到16个,不过这对于多数的用户来说已经够用了。在高性能服务器和工作站级主板架构中最为常见,像UNIX服务器可支持最多256个CPU的系统。 构建一套SMP系统的必要条件是:支持SMP的硬件包括主板和CPU;支持SMP的系统平台,再就是支持SMP的应用软件。为了能够使得SMP系统发挥高效的性能,操作系统必须支持SMP系统,如WINNT、LINUX、以及UNIX等等32位操作系统。即能够进行多任务和多线程处理。多任务是指操作系统能够在同一时间让不同的CPU完成不同的任务;多线程是指操作系统能够使得不同的CPU并行的完成同一个任务 。 要组建SMP系统,对所选的CPU有很高的要求,首先、CPU内部必须内置APIC(Advanced Programmable Interrupt Controllers)单元。Intel 多处理规范的核心就是高级可编程中断控制器(Advanced Programmable Interrupt Controllers–APICs)的使用;再次,相同的产品型号,同样类型的CPU核心,完全相同的运行频率;最后,尽可能保持相同的产品序列编号,因为两个生产批次的CPU作为双处理器运行的时候,有可能会发生一颗CPU负担过高,而另一颗负担很少的情况,无法发挥最大性能,更糟糕的是可能导致死机。 NUMA技术 NUMA即非一致访问分布共享存储技术,它是由若干通过高速专用网络连接起来的独立节点构成的系统,各个节点可以是单个的CPU或是SMP系统。在NUMA中,Cache 的一致性有多种解决方案,需要操作系统和特殊软件的支持。图2中是Sequent公司NUMA系统的例子。这里有3个SMP模块用高速专用网络联起来,组成一个节点,每个节点可以有12个CPU。像Sequent的系统最多可以达到64个CPU甚至256个CPU。显然,这是在SMP的基础上,再用NUMA的技术加以扩展,是这两种技术的结合。 乱序执行技术 乱序执行(out-of-orderexecution),是指CPU允许将多条指令不按程序规定的顺序分开发送给各相应电路单元处理的技术。这样将根据个电路单元的状态和各指令能否提前执行的具体情况分析后,将能提前执行的指令立即发送给相应电路单元执行,在这期间不按规定顺序执行指令,然后由重新排列单元将各执行单元结果按指令顺序重新排列。采用乱序执行技术的目的是为了使CPU内部电路满负荷运转并相应提高了CPU的运行程序的速度。分枝技术:(branch)指令进行运算时需要等待结果,一般无条件分枝只需要按指令顺序执行,而条件分枝必须根据处理后的结果,再决定是否按原先顺序进行。 CPU内部的内存控制器 许多应用程序拥有更为复杂的读取模式(几乎是随机地,特别是当cache hit不可预测的时候),并且没有有效地利用带宽。典型的这类应用程序就是业务处理软件,即使拥有如乱序执行(out of order execution)这样的CPU特性,也会受内存延迟的限制。这样CPU必须得等到运算所需数据被除数装载完成才能执行指令(无论这些数据来自CPU cache还是主内存系统)。当前低段系统的内存延迟大约是120,150ns,而CPU速度则达到了3GHz以上,一次单独的内存请求可能会浪费200,300次CPU循环。即使在缓存命中率(cache hit rate)达到99%的情况下,CPU也可能会花50%的时间来等待内存请求的结束, 比如因为内存延迟的缘故。 你可以看到Opteron整合的内存控制器,它的延迟,与芯片组支持双通道DDR内存控制器的延迟相比来说,是要低很多的。英特尔也按照计划的那样在处理器内部整合内存控制器,这样导致北桥芯片将变得不那么重要。但改变了处理器访问主存的方式,有助于提高带宽、降低内存延时和提升处理器性 制造工艺:现在CPU的制造工艺是45纳米,今年1月10号上市最新的I5I可以达到32纳米,在将来的CPU制造工艺可以达到24纳米。 编辑本段生产厂商 Intel公司 Intel是生产CPU的老大哥,个人电脑市场,它占有75%多的市场份额,Intel生 intel标志 产的CPU就成了事实上的x86CPU技术规范和标准。个人电脑平台最新的酷睿2成为CPU的首选,下一代酷睿i5、酷睿i3、酷睿i7抢占先机,在性能上大幅领先其他厂商的产品。 AMD公司 目前使用的CPU有好几家公司的产品,除了Intel公司外,最 有力的挑战的就是AMD公司,最新的AMD 速龙II X2和羿龙II具有很好 AMD标志 性价比,尤其采用了3DNOW+技术并支持SSE4.0指令集,使其在3D上有很好的表现。 IBM和Cyrix IBM之强在于高端的实验室,工作室的非民用CPU 美国国家半导体公司NS和Cyrix公司合并后,使其终于拥有了自己的芯片生产线,其成品将会日益完善和完备。现在的MII性能也不错,尤其是它的价格很低。 PowerPC 由AIM联盟开发, PowerPC 是一种精简指令集(RISC)架构的中央处理器(CPU),其基本的设计源自IBM(国际商用机器公司)的POWER(Performance Optimized With Enhanced RISC;《IBM Connect 电子报》2007年8月号译为―增强RISC性能优化‖)架构。POWER 是1991年,Apple(苹果电脑)、IBM、Motorola(摩托罗拉)组成的AIM联盟所发展出的微处理器架构。PowerPC是整个AIM联盟平台的一部分,并且是到目前为止唯一的一部分。但苹果电脑自2005年起,将旗下电脑产品转用Intel CPU。 PowerPC的历史可以追溯到早在1990年随RISC System/6000一起被介绍的IBM POWER架构。该设计是从早期的RISC架构(比如IBM 801)与MIPS架构的处理器得到灵感的。 OpenRISC OpenRisc是OpenCores组织提供的基于GPL协议的开放源代码的RISC(精简指令集计算机)处理器。有人认为其性能介于ARM7和ARM9之间,适合一般的嵌入式系统使用。最重要的一点是OpenCores组织提供了大量的开放源代码IP核供研究人员使用,因此对于一般的开发单位具有很大的吸引力。 IDT公司 IDT是处理器厂商的后起之秀,但现在还不太成熟。 VIA威盛公司 VIA威盛是台湾一家主板芯片组厂商,收购了前述的 Cyrix和IDT的cpu部门,推出了自己的CPU 国产龙芯 GodSon 小名狗剩,是国有自主知识产权的通用处理器,目前已经有2代产品,已经能达到现在市场上INTEL和AMD的低端CPU的水平, 现在龙芯的英文名是loogson。 ARM Ltd 安谋国际科技,少数只授权其CPU设计而没有自行制造的公司。嵌入式应用软件最常被ARM架构微处理器执行。 Freescale Semiconductor 前身是Motorola的飞思卡尔,设计数款嵌入装置以及SoC PowerPC 处理器。 编辑本段各种包装 散装CPU只有一颗CPU,无包装。通常店保一年。一般是厂家提供给装机商,装机商用不掉而流入市场的。有些经销商将散装CPU配搭上风扇,包装成原装的样子,就成了翻包货。还有另外的主要来源是就是走私的散包。CPU是电脑最重要的部位 原包CPU ,也称盒装CPU。 原包CPU,是厂家为零售市场推出的CPU产品,带原装风扇和厂家三年质保。 其实散装和盒装CPU本身是没有质量区别的,主要区别在于渠道不同,从而质保不同,盒装基本都保3年,而散装基本只保1年,盒装CPU所配的风扇是原厂封装的风扇,而散装不配搭风扇,或者由经销商自己配搭风扇。 黑盒CPU是指由厂家推出的顶级不锁频CPU,比如AMD的黑盒5000+,这类CPU不带风扇,是厂家专门为超频用户而推出的零售产品。 深包CPU,也称翻包CPU。经销商将散装CPU自行包装,加风扇。没有厂家质保,只能店保,通常是店保三年。或把CPU从国外走私到境内,进行二次包装,加风扇。这类是未税的,价格比散装略便宜。 工程样品CPU,是指处理器厂商在处理器推出前提供给各大板卡厂商以及OEM厂商用来测试的处理器样品。生产的制成是属于早期产品,但品质并不都低于最终零售CPU,其最大的特点例如:不锁倍频,某些功能特殊,是精通DIY的首选。市面上偶尔也能看见此类CPU销售,这些工程样品会给厂商打上―ES‖标志(ES=Engine Sample的缩写)这里同样需要注意的是,很多此类CPU的稳定性很差,功耗很大,有些发热量也大的惊人,个别整机、笔记本存在使用工程样品CPU的现象,消费者需要注意 编辑本段原装识别 对与市面上的Intel和AMD的CPU而言,一般用户买的都是盒装产品。 对盒装产品而言,用户可以参照如下方法鉴别: 1. 从CPU外包装的开的小窗往里看,原装产品CPU表面会有编号,从小窗往里看是可以看到编号的,原装CPU的编号清晰,而且与外包装盒上贴的编号一致,很多翻包CPU会把CPU上的编号磨掉,这一点注意鉴别。 2. 随着科技发展,造假技术越来越高,如果不能够肯定所买CPU是不是原装,可以按照包装上的说明用Intel或AMD厂商提供的方式查询所买CPU的真伪(这个方法一定能鉴别真伪)。 内存类型 百科名片 内存类型,不同类型的内存传输类型各有差异,在传输率、工作频率、工作方式、工作电压等方面都有不同。 目录 简介 类型 内存主要技术 笔记本内存 DDR2 SDRAM 简介 类型 内存主要技术 笔记本内存 DDR2 SDRAM 展开 编辑本段简介 内存类型,不同类型的内存传输类型各有差异,在传输率、工作频率、工 内存类型 作方式、工作电压等方面都有不同。目前市场中主要有的内存类型有SDRAM、DDR SDRAM和RDRAM三种,其中DDR SDRAM内存占据了市场的主流,而SDRAM内存规格已不再发展,处于被淘汰的行列。RDRAM则始终未成为市场的主流,只有部分芯片组支持,而这些芯片组也逐渐退出了市场,RDRAM前景并不被看好。 编辑本段类型 FPM内存 FPM是Fast Page Mode(快页模式)的简称,是较早的PC机 内存类型 普遍使用的内存,它每隔3个时钟脉冲周期传送一次数据。现在早就被淘汰 内存类型 掉了。 EDO内存 EDO是Extended Data Out(扩展数据输出)的简称,它取消了主板与内存两个存储周期之间的时间间隔,每隔2个时钟脉冲周期传输一次数据,大大地缩短了存取时间,使存取速度提高30,,达到60ns。EDO内存主要用于72线的SIMM内存条,以及采用EDO内存芯片的PCI显示卡。这种内存流行在486以及早期的奔腾计算机系统中,它有72线和168线之分,采用5V工作电压,带宽32 bit,必须两条或四条成对使用,可用于英特尔430FX/430VX甚至430TX芯片组主板上。目前也已经被淘汰,只能在某些老爷机上见到。 SDRAM SDRAM,即Synchronous DRAM(同步动态随机存储器),曾经是PC电脑上最为广泛应用的一种内存类型,即便在今天SDRAM仍旧还在市场占有一席之地。既然是―同步动态随机存储器‖,那就代表着它的工作速度是与系统总线速度同步的。SDRAM内存又分为PC66、PC100、PC133等不同规格,而规格后面的数字就代表着该内存最大所能正常工作系统总线速度,比如PC100,那就说明此内存可以在系统总线为100MHz的电脑中同步工作。与系统总线速度同步,也就是与系统时钟同步,这样就避免了不必 内存类型 要的等待周期,减少数据存储时间。同步还使存储控制器知道在哪一个时钟 内存类型 脉冲期由数据请求使用,因此数据可在脉冲上升期便开始传输。SDRAM采用3.3伏 工作电压,168Pin的DIMM接口,带宽为64位。SDRAM不仅应用在内存上,在显 存上也较为常见。 DDR SDRAM 严格的说DDR应该叫DDR SDRAM,人们习惯称为DDR,部分初学者也常看到DDR SDRAM,就认为是SDRAM。DDR SDRAM是Double Data Rate SDRAM的缩写,是双倍速率同步动态随机存储器的意思。DDR内存是在SDRAM内存基础上发展而来的,仍然沿用SDRAM生产体系,因此对于内存厂商而言,只需对制造普通SDRAM的设备稍加改进,即可实现DDR内存的生产,可有效的降低成本。SDRAM在一个时钟周期内只传输一次数据,它是在时钟的上升期进行数据传输;而DDR内存则是一个时钟周期内传输两次次数据,它能够在时钟的上升期和下降期各传输一次数据,因此称为双倍速率同步动态随机存储器。DDR内存可以在与SDRAM相同的总线频率下达到更高的数据传输率。与SDRAM相比:DDR运用了更先进的同步电路,使指定地址、数据的输送和输出主要步骤既独立执行,又保持与CPU完全同步;DDR使用了DLL(Delay Locked Loop,延时锁定回路提供一个数据滤波信号)技术,当数据有效时,存储控制器可使用这个数据滤波信 号来精确定位数据,每16次输出一次,并重新同步来自不同存储器模块的数 内存类型 据。DDL本质上不需要提高时钟频率就能加倍提高SDRAM的速度,它允许在时钟脉冲的上升沿和下降沿读出数据,因而其速度是标准SDRA的两倍。 从外形体积上DDR与SDRAM相比差别并不大,他们具有同样的尺寸和同样的针脚距离。但DDR为184针脚,比SDRAM多出了16个针脚,主要包含了新的控制、时钟、电源和接地等信号。DDR内存采用的是支持2.5V电压的SSTL2标准,而不是SDRAM使用的3.3V电压的LVTTL标准。 RDRAM RDRAM(Rambus DRAM)是美国的RAMBUS公司开发的一种内存。与DDR和SDRAM不同,它采用了串行的数据传输模式。在推出时,因为其彻底改变了内存的传输模式,无法保证与原有的制造工艺相兼容,而且内存厂商要生产RDRAM还必 须要加纳一定专利费用,再加上其本身制造成本,就导致了RDRAM从一问 世就高昂的价格让普通用户无法接收。而同时期的DDR则能以较低的价格,不错的性能,逐渐成为主流,虽然RDRAM曾受到英特尔公司的大力支持,但始终没有成为主流。RDRAM的数据存储位宽是16位,远低于DDR和SDRAM的64位。但在频率方面则远远高于二者,可以达到400MHz乃至更高。同样也是在 内存类型 一个时钟周期内传输两次次数据,能够在时钟的上升期和下降期各传输一次数据,内存带宽能达到1.6Gbyte/s。 普通的DRAM行缓冲器的信息在写回存储器后便不再保留,而RDRAM则具有继续保持这一信息的特性,于是在进行存储器访问时,如行缓冲器中已经有目标数据,则可利用,因而实现了高速访问。另外其可把数据集中起来以分组的形式传送,所以只要最初用24个时钟,以后便可每1时钟读出1个字节。一次访问所能读出的数据 [1]长度可以达到256字节。 编辑本段内存主要技术 服务器及小型机内存也是内存(RAM),它与普通PC(个人电脑)机内存在外观和结构上没有什么明显实质性的区别,主要是在内存上引入了一些新的特有的技术,如ECC、ChipKill、热插拔技术等,具有极高的稳定性和纠错性能。 内存主要技术: (1)ECC 在普通的内存上,常常使用一种技术,即Parity,同位检查码(Parity check codes)被广泛地使用在侦错码(error detectioncodes)上,它们增加一个检查位给每个资料的字元(或字节),并且能够侦测到一个字符中所有奇(偶)同位的错误,但Parity有一个缺点,当计算机查到某个Byte有错误时,并不能确定错误在哪一个位,也就无法修正错误。基于上述情况,产生了一种新的内存纠错技术 内存类型 ,那就是ECC,ECC本身并不是一种内存型号,也不是一种内存专用技术,它是一种广泛应用于各种领域的计算机指令中,是一种指令纠错技术。ECC的英文全称是― Error Checking and Correcting‖,对应的中文名称就叫做―错误检查和纠正‖,从这个名称我们就可以看出它的主要功能就是―发现并纠正错误‖,它比奇偶校正技术更先进的方面主要在于它不仅能发现错误,而且能纠正这些错误,这些错误纠正之后计算机才能正确执行下面的任务,确保服务器的正常运行。之所以说它并不是一种内存型号,那是因为并不是一种影响内存结构和存储速度的技术,它可以应用到不同的内存类型之中,就象前讲到的―奇偶校正‖内存,它也不是一种内存,最开始应用这种技术的是EDO内存,现在的SD也有应用,而ECC内存主要是从SD内存开始得到广泛应用,而新的DDR、RDRAM也有相应的应用,目前主流的ECC内存其实是一种SD内存。 (2)Chipkill Chipkill技术是IBM公司为了解决目前服务器内存中ECC技术的不足而开发的,是一种新的ECC内存保护标准 内存类型 。我们知道ECC内存只能同时检测和纠正单一比特错误,但如果同时检测出两个以上比特的数据有错误,则一般无能为力。目前ECC技术之所以在服务器内存中广泛采用,一则是因为在这以前其它新的内存技术还不成熟,再则在目前的服务器中系统速度还是很高,在这种频率上一般来说同时出现多比特错误的现象很少发生,正因为这样才使得ECC技术得到了充分地认可和应用,使得ECC内存技术成为几乎所有服务器上的内存标准。 但随着基于Intel处理器架构的服务器的CPU性能在以几何级的倍数提高,而硬盘驱动器的性能同期只提高了少数的倍数,因此为了获得足够的性能,服务器需要大量的内存来临时保存CPU上需要读取的数据,这样大的数据访问量就导致单一内 存芯片上每次访问时通常要提供4(32位)或8(64位)字节以上的数据,一次性读取这么多数据,出现多位数据错误的可能性会大大地提高,而ECC又不能纠正双比特以上的错误,这样就很可能造成全部比特数据的丢失,系统就很快崩溃了。IBM的Chipkill技术是利用内存的子结构方法来解决这一难题。内存子系统的设计原理是这样的,单一芯片,无论数据宽度是多少,只对于一个给定的ECC识别码,它的影响最多为一比特。举个例子来说明的就是,如果使用4比特宽的DRAM,4比特中的每一位的奇偶性将分别组成不同的ECC识别码,这个ECC识别码是用单独一个数据 位来保存的,也就是说保存在不同的内存空间地址。因此,即使整个内存芯片出了故障,每个ECC识别码也将最多出现一比特坏数据,而这种情况完全可以通过ECC逻辑修复,从而保证内存子系统的容错性,保证了服务器在出现故障时,有强大 内存类型 的自我恢复能力。采用这种内存技术的内存可以同时检查并修复4个错误数据位,服务器的可靠性和稳定得到了更加充分的保障。 (3)Register Register即寄存器或目录寄存器,在内存上的作用我们可以把它理解成书的目录,有了它,当内存接到读写指令时,会先检索此目录,然后再进行读写操作,这将大大提高服务器内存工作效率。带有Register的内存一定带Buffer(缓冲),并且目前能见到的Register内存也都具有ECC功能,其主要应用在中高端服务器及图形工作站上,如IBM Netfinity 5000。 内存典型类型:目前服务器及小型机常用的内存有SDRAM和DDR两种内存。[2] 编辑本段笔记本内存 内存类型 笔记本使用的内存,都是采用优质的元件和先进的工艺,拥有体积小、容量大、速度快、耗电低、散热好等特性。对于一般的文字处理、上网办公的需求,安装Windows 98的操作系统,使用128MB内存就可以满足需要了,如果安装的是Windows 2000的操作系统,那么最好128MB+64MB拥有总计192MB以上的内存,如果运行的是Windows XP,那么256MB内存是必须的。由于笔记本的内存扩展槽很有限,因此单位容量大一些的内存会显得比较重要。而且这样做还有一点好处,就是单位容量大的 内存在保证相同容量的时候,会有更小的发热量,这对移动PC的稳定也是大有好处 的。 SDRAM内存:SDRAM的全称是Synchronous Dynamic Random Access Memory(同步动态随即存储器),就象它的名字所表明的那样,这种RAM可以使所有的输入输出信号保持与系统时钟同步。由于SDRAM的带宽为64Bit,因此它只需要一条内存就可以工作,数据传输速度比EDO内存至少快了25,。SDRAM包括PC66、PC100、PC133等几种规格。 内存类型 DDR内存:顾名思义,Double Data Rate(双倍数据传输)的SDRAM。随着台式机DDR内存的推出,现在移动PC也使用DDR内存,目前有DDR266和DDR333等规格。其实DDR的原理并不复杂,它让原来一个脉冲读取一次资料的SDRAM可以在一个脉冲之内读取两次资料,也就是脉冲的上升缘和下降缘通道都利用上,因此DDR本质上也就是SDRAM。而且相对于EDO和SDRAM,DDR内存更加省电(工作电压仅为2.25V)、单条容量更加大(已经可以达到1GB)。 编辑本段DDR2 SDRAM 定义 DDR2 (Double Data Rate 2) SDRAM是由JEDEC(电子设备工程联合委员会)进行开发的新生代内存技术标准,它与上一代DDR内存技术标准最大的不同就是,虽然同是采用了在时钟的上 内存类型 升/下降延同时进行数据传输的基本方式,但DDR2内存却拥有两倍于上一代DDR内 存预读取能力(即:4bit数据读预取)。换句话说,DDR2内存每个时钟能够以4倍外 部总线的速度读/写数据,并且能够以内部控制总线4倍的速度运行。 此外,由于DDR2标准规定所有DDR2内存均采用FBGA封装形式,而不同于目前广泛应用的TSOP/TSOP-II封装形式,FBGA封装可以提供了更为良好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了坚实的基础。回想起DDR的发展历程,从第一代应用到个人电脑的DDR200经过DDR266、DDR333到今天的双通道DDR400技术,第一代DDR的发展也走到了技术的极限,已经很难通过常规办法提高内存的工作速度;随着Intel最新处理器技术的发展,前端总线对内存带宽的要求是越来越高,拥有更高更稳定运行频率的DDR2内存将是大势所趋。 DDR2与DDR的区别 在了解DDR2内存诸多新技术前,先让我们看一组DDR和DDR2技术对比的数据。 对比数据 1、延迟问题: 从上表可以看出,在同等核心频率下,DDR2的实际工作频率是DDR的两倍。这得益于DDR2内存拥有两倍于标 内存类型 准DDR内存的4BIT预读取能力。换句话说,虽然DDR2和DDR一样,都采用了在时钟的上升延和下降延同时进行数据传输的基本方式,但DDR2拥有两倍于DDR的预读取系统命令数据的能力。也就是说,在同样100MHz的工作频率下,DDR的实际频率为200MHz,而DDR2则可以达到400MHz。 这样也就出现了另一个问题:在同等工作频率的DDR和DDR2内存中,后者的内存延时要慢于前者。举例来说,DDR 200和DDR2-400具有相同的延迟,而后者具有高一倍的带宽。实际上,DDR2-400和DDR 400具有相同的带宽,它们都是3.2GB/s,但是DDR400的核心工作频率是200MH 内存类型 z,而DDR2-400的核心工作频率是100MHz,也就是说DDR2-400的延迟要高于DDR400。 2、封装和发热量: DDR2内存技术最大的突破点其实不在于用户们所认为的两倍于DDR的传输能力,而是在采用更低发热量、更低功耗的情况下,DDR2可以获得更快的频率提升,突破标准DDR的400MHZ限制。DDR内存通常采用TSOP芯片封装形式,这种封装形式可以很好的工作在200MHz上,当频率更高时,它过长的管脚就会产生很高的阻抗和寄生电容,这会影响它的稳定性和频率提升的难度。这也就是DDR的核心频率很难突破275MHZ的原因。而DDR2内存均采用FBGA封装形式。不同于目前广泛应用的TSOP封装形式,FBGA封装提供了更好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了良好的保障。DDR2内存采用1.8V电压,相对于DDR标准的2.5V,降低了不少,从而提供了明显的更小的功耗与更小的发热量,这一点的变化是意义重大的。 采用的新技术: 除了以上所说的区别外,DDR2还引入了三项新的技术,它们是OCD、ODT和 Post CAS。 OCD(Off-Chip Driver):也就是所谓的离线驱动调整,DDR II通过OCD可以提高信号的完整性。DDR II 内存类型 通过调整上拉(pull-up)/下拉(pull-down)的电阻值使两者电压相等。使用OCD通过减少DQ-DQS的倾斜来提高信号的完整性;通过控制电压来提高信号品质。 ODT:ODT是内建核心的终结电阻器。我们知道使用DDR SDRAM的主板上面为了防止数据线终端反射信号需要大量的终结电阻。它大大增加了主 板的制造成本。实际上,不同的内存模组对终结电路的要求是不一样的,终结电阻的大小决定了数据线的信号比和反射率,终结电阻小则数据线信号反射低但是信噪比也较低;终结电阻高,则数据线的信噪比高,但是信号反射也会增加。因此主板上的终结电阻并不能非常好的匹配内存模组,还会在一定程度上影响信号品质。DDR2可以根据自已的特点内建合适的终结电阻,这样可以保证最佳的信号波形。使用DDR2不但可以降低主板成本 ,还得到了最佳的信号品质,这是DDR不能比拟的。 Post CAS:它是为了提高DDR II内存的利用效率而设定的。在Post CAS操作中,CAS信号(读写/命令)能够被插到RAS信号后面的一个时钟周期,CAS命令可以在附加延迟(Additive Latency)后面保持有效。原来的tRCD(RAS到CAS和延迟)被AL(Additive Latency)所取代,AL可以在0,1,2,3,4中进行设置。由于CAS信号放在了RAS信号后面一个时钟周期,因此ACT和CAS信号永远也不会产生碰撞冲突。 总的来说,DDR2采用了诸多的新技术,改善了DDR的诸多不足,虽然它目前有成本高、延迟慢能诸多不足,但相信随着技术的不断提高和完善,这些问题终将得到解决。 DDR3 百科名片 DDR3是一种电脑内存规格。它属于SDRAM家族的内存产品,提供了相较于DDR2 SDRAM更高的运行效能与更低的电压,是DDR2 SDRAM(四倍资料率同步动态随机存取内存)的后继者(增加至八倍),也是现时流行的内存产品。 目录 技术概论 一、DDR3在DDR2基础上采用的新型设计: 二、DDR3与DDR2几个主要的不同之处 : DDR3内存的技术改进 发展 优势 DDR2与DDR1的不同之处 DDR3与DDR2的不同之处 技术概论 一、DDR3在DDR2基础上采用的新型设计: 二、DDR3与DDR2几个主要的不同之处 : DDR3内存的技术改进 发展 优势 DDR2与DDR1的不同之处 DDR3与DDR2的不同之处 展开 DDR3 编辑本段技术概论 DDR3 SDRAM为了更省电、传输效率更快,使用了SSTL 15的I/O接口,运作I/O电压是1.5V,采用CSP、FBGA封装方式包装,除了延续DDR2 SDRAM的ODT、OCD、Posted CAS、AL控制方式外,另外新增了更为精进进的CWD、Reset、ZQ、SRT、RASR功能。 CWD是作为写入延迟之用,Reset提供了超省电功能的命令,可以让DDR3 SDRAM内存颗粒电路停止运作、进入超省电待命模式,ZQ则是一个新增的终端电阻校准功能,新增这个线路脚位提供了ODCE(On Die Calibration Engine)用来校准ODT(On Die Termination)内部中断电阻,新增了SRT(Self-Reflash Temperature)可编程化温度控制内存时脉功能,SRT的加入让内存颗粒在温度、时脉和电源管理上进行优化,可以说在内存内,就做了电源管理的功能,同时让内存颗粒的稳定度也大为提升,确保内存颗粒不致于工作时脉过高导致烧毁的状况,同时DDR3 SDRAM还加入RASR(Partial Array Self-Refresh)局部Bank刷新的功能,可以说针对整个内存Bank做更有效的资料读写以达到省电功效。 编辑本段一、DDR3在DDR2基础上采用的新型设计: DDR3 DDR3预借机 1(8bit预取设计,而DDR2为4bit预取,这样DRAM内核的频率只有等效数据频率 [1]的1/8,DDR3-800的核心工作频率(内核频率)只有100MHz。 2(采用点对点的拓扑架构,以减轻地址/命令与控制总线的负担。 3(采用100nm以下的生产工艺,将工作电压从1.8V降至1.5V,增加异步重置(Reset)与ZQ校准功能。 编辑本段二、DDR3与DDR2几个主要的不同之处 : 1.突发长度(Burst Length,BL) 由于DDR3的预取为8bit,所以突发传输周期(Burst Length,BL)也固定为8,而对于DDR2和早期的DDR架构系统,BL=4也是常用的,DDR3为此增加了一个4bit Burst Chop(突发突变)模式,即由一个BL=4的读取操作加上一个BL=4的写入操作来合成一个BL=8的数据突发传输,届时可通过A12地址线来控制这一突发模式。而且需要指出的是,任何突发中断操作都将在DDR3内存中予以禁止,且不予支持,取而代之的是更灵活的突发传输控制(如4bit顺序突发)。 2.寻址时序(Timing) 就像DDR2从DDR转变而来后延迟周期数增加一样,DDR3的CL周期也将比DDR2有所提高。DDR2的CL范围一般在2,5之间,而DDR3则在5,11之间,且附加延迟(AL)的设计也有所变化。DDR2时AL的范围是0,4,而DDR3时AL有三种选项,分别是0、CL-1和CL-2。另外,DDR3还新增加了一个时序参数——写入延迟(CWD),这一参数将根据具体的工作频率而定。 3.DDR3新增的重置(Reset)功能 重置是DDR3新增的一项重要功能,并为此专门准备了一个引脚。DRAM业界很早以前就要求增加这一功能,如今终于在DDR3上实现了。这一引脚将使DDR3的初始化处理变得简单。当Reset命令有效时,DDR3内存将停止所有操作,并切换至最少量活动状态,以节约电力。 在Reset期间,DDR3内存将关闭内在的大部分功能,所有数据接收与发送器都将关闭,所有内部的程序装置将复位,DLL(延迟锁相环路)与时钟电路将停止工作,而且不理睬数据总线上的任何动静。这样一来,将使DDR3达到最节省电力的目的。 4.DDR3新增ZQ校准功能 ZQ也是一个新增的脚,在这个引脚上接有一个240欧姆的低公差参考电阻。这个引脚通过一个命令集,通过片上校准引擎(On-Die Calibration Engine,ODCE)来自动校验数据输出驱动器导通电阻与ODT的终结电阻值。当系统发出这一指令后,将用相应的时钟周期(在加电与初始化之后用512个时钟周期,在退出自刷新操作后用256个时钟周期、在其他情况下用64个时钟周期)对导通电阻和ODT电阻进行重新校准。 5.参考电压分成两个 在DDR3系统中,对于内存系统工作非常重要的参考电压信号VREF将分为两个信号,即为命令与地址信号服务的VREFCA和为数据总线服务的VREFDQ,这将有效地提高系统数据总线的信噪等级。 6.点对点连接(Point-to-Point,P2P) 这是为了提高系统性能而进行的重要改动,也是DDR3与DDR2的一个关键区别。在DDR3系统中,一个内存控制器只与一个内存通道打交道,而且这个内存通道只能有一个插槽,因此,内存控制器与DDR3内存模组之间是点对点(P2P)的关系(单物理Bank的模组),或者是点对双点(Point-to-two-Point,P22P)的关系(双物理Bank的模组),从而大大地减轻了地址/命令/控制与数据总线的负载。而在内存模组方面,与DDR2的类别相类似,也有标准DIMM(台式PC)、SO-DIMM/Micro-DIMM(笔记本电脑)、FB-DIMM2(服务器)之分,其中第二代FB-DIMM将采用规格更高的AMB2(高级内存缓冲器)。 面向64位构架的DDR3显然在频率和速度上拥有更多的优势,此外,由于DDR3所采用的根据温度自动自刷新、局部自刷新等其它一些功能,在功耗方面DDR3也要 出色得多,因此,它可能首先受到移动设备的欢迎,就像最先迎接DDR2内存的不是台式机而是服务器一样。在CPU外频提升最迅速的PC台式机领域,DDR3未来也是一片光明。目前Intel所推出的新芯片-熊湖(Bear Lake),其将支持DDR3规格,而AMD也预计同时在K9平台上支持DDR2及DDR3两种规格。 编辑本段DDR3内存的技术改进 逻辑Bank数量 DDR2 SDRAM中有4Bank和8Bank的设计,目的就是为了应对未来大容量芯片的需求。而DDR3很可能将从2Gb容量起步,因此起始的逻辑Bank就是8个,另外还为未来的16个逻辑Bank做好了准备。 封装(Packages) DDR3由于新增了一些功能,所以在引脚方面会有所增加,8bit芯片采用78球FBGA封装,16bit芯片采用96球FBGA封装,而DDR2则有60/68/84球FBGA封装三种规格。并且DDR3必须是绿色封装,不能含有任何有害物质。 突发长度(BL,Burst Length) 由于DDR3的预取为8bit,所以突发传输周期(BL,Burst Length)也固定为8,而对于DDR2和早期的DDR架构的系统,BL=4也是常用的,DDR3为此增加了一个4-bit Burst Chop(突发突变)模式,即由一个BL=4的读取操作加上一个BL=4的写入操作来合成一个BL=8的数据突发传输,届时可通过A12地址线来控制这一突发模式。而且需要指出的是,任何突发中断操作都将在DDR3内存中予以禁止,且不予支持,取而代之的是更灵活的突发传输控制(如4bit顺序突发)。 寻址时序(Timing) 就像DDR2从DDR转变而来后延迟周期数增加一样,DDR3的CL周期也将比DDR2有所提高。DDR2的CL范围一般在2至5之间,而DDR3则在5至11之间,且附加延迟(AL)的设计也有所变化。DDR2时AL的范围是0至4,而DDR3时AL有三种选项,分别是0、CL-1和CL-2。另外,DDR3还新增加了一个时序参数——写入延迟(CWD),这一参数将根据具体的工作频率而定。 从环保角度去看,降低功耗对业界是有着实实在在的贡献的,全球的PC每年的耗电量相当惊人,即使是每台PC减低1W的幅度,其省电量都是非常可观的。 降低功耗 DDR3内存在达到高带宽的同时,其功耗反而可以降低,其核心工作电压从DDR2的1.8V降至1.5V,相关数据预测DDR3将比现时DDR2节省30%的功耗,当然发热量我们也不需要担心。就带宽和功耗之间作个平衡,对比现有的DDR2-800产品,DDR3-800、1066及1333的功耗比分别为0.72X、0.83X及0.95X,不但内存带宽大幅提升,功耗表现也比上代更好. 编辑本段发展 早在2002年6月28日,JEDEC就宣布开始开发DDR3内存标准,但从2006的情况来看,DDR2才刚开始普及,DDR3标准更是连影也没见到。不过目前已经有众多厂商拿出了自己的DDR3解决方案,纷纷宣布成功开发出了DDR3内存芯片,从中我们仿佛能感觉到DDR3临近的脚步。而从已经有芯片可以生产出来这一点来看,DDR3的标准设计工作也已经接近尾声。 半导体市场调查机构iSuppli预测DDR3内存将会在2008年替代DDR2成为市场上的主流产品,iSuppli认为在那个时候DDR3的市场份额将达到55%。截至2008年11月底的情况看,这个预期还是比较准确,市场上已经占据了很多运行频率为1066,1333,1600,甚至2000MHz的DDR3内存,接口类型有200和240 PIN两种。不过,就具体的设计来看,DDR3与DDR2的基础架构并没有本质的不同。从某种角度讲,DDR3是为了解决DDR2发展所面临的限制而催生的产物。 由于DDR2内存的各种不足,制约了其进一步的广泛应用,DDR3内存的出现,正是为了解决DDR2内存出现的问题,具体有: 更高的外部数据传输率 更先进的地址/命令与控制总线的拓朴架构 在保证性能的同时将能耗进一步降低 为了满足这些要求,DDR3内存在DDR2内存的基础上所做的主要改进包括: 8bit预取设计,DDR2为4bit预取,这样DRAM内核的频率只有接口频率的1/8,DDR3-800的核心工作频率只有100MHz。 采用点对点的拓朴架构,减轻地址/命令与控制总线的负担。 采用100nm以下的生产工艺,将工作电压从1.8V降至1.5V,增加异步重置(Reset)与ZQ校准功能。 在2009年冬季即将结束,三星正式推出目前世界上单颗密度最大的DDR3芯片,基于50纳米制造工艺,推单颗容量到了4GB,这个终于使得我们可以更快的跨入64位的时代,因为单根PC内存条的容量已达到了惊人的32GB。 新的芯片比先前的DDR3芯片功耗降低了40%, 其次,这也为单根32GB的内存条的上市扫清了障碍,最初面市的32GB的RDIMM内存用于服务器领域采取双面封装(每一面由4×4GDDR3芯片组成),同时 会面对桌面市场提供8G的UDIMM内存提供给工作站和PC平台,以及8GB的SO-DIMM笔记本电脑内存。 新的低功耗DDR3内存设计工作电压为1.35伏,比之前1.5伏的DDR3芯片降低大约20%功耗,同时最大吞吐速度达到1.6Gbps。 另外,DDR2的价格恐怕会依然疲软,我在想我的本本是不是应该升级到DDR2 4GB了呢,而根据IDC的预测DDR3内存市场份额将从目前的29%到2011年达到72%。 编辑本段优势 (1)功耗和发热量较小:吸取了DDR2的教训,在控制成本的基础上减小了能耗和发热量,使得DDR3更易于被用户和厂家接受。 (2)工作频率更高:由于能耗降低,DDR3可实现更高的工作频率,在一定程度弥补了延迟时间较长的缺点,同时还可作为显卡的卖点之一,这在搭配DDR3显存的显卡上已有所表现。 (3)降低显卡整体成本:DDR2显存颗粒规格多为16M X 32bit,搭配中高端显卡常用的128MB显存便需8颗。而DDR3显存颗粒规格多为32M X 32bit,单颗颗粒容量较大,4颗即可构成128MB显存。如此一来,显卡PCB面积可减小,成本得以有效控制,此外,颗粒数减少后,显存功耗也能进一步降低。 (4)通用性好:相对于DDR变更到DDR2,DDR3对DDR2的兼容性更好。由于针脚、封装等关键特性不变,搭配DDR2的显示核心和公版设计的显卡稍加修改便能采用DDR3显存,这对厂商降低成本大有好处。 目前,DDR3显存在新出的大多数中高端显卡上得到了广泛的应用。 现在许多低端的显卡也有采用DDR3显存的 编辑本段DDR2与DDR1的不同之处 主要区别: 1,DDRI的工作电压为2.5V,DDRII的工作电压为1.8v。 2,DDRI的PIN脚为184pin,DDRII的pin脚为240pin 3,DDRI的主频为266/333/400,DDRII的主频为400/533/667/800/1066MHz. DDR1的频率最高到400,DDR2的最高到1066,DDR3的则更高了。三者不同类型的不可以混插。 同类型的内存条不同频率的可以混插。 编辑本段DDR3与DDR2的不同之处 逻辑Bank数量,DDR2 SDRAM中有4Bank和8Bank的设计,目的就是为了应对未来大容量芯片的需求。而DDR3很可能将从2GB容量起步,因此起始的逻辑Bank就是8个,另外还为未来的16个逻辑Bank做好了准备。 封装(Packages),DDR3由于新增了一些功能,所以在引脚方面会有所增加,8bit芯片采用78球FBGA封装,16bit芯片采用96球FBGA封装,而DDR2则有60/68/84球FBGA封装三种规格。并 且DDR3必须是绿色封装,不能含有任何有害物质。 突发长度(BL,Burst Length),由于DDR3的预取为8bit,所以突发传输周期(BL,Burst Length)也固定为8,而对于DDR2和早期的DDR架构的系统,BL=4也是常用的,DDR3为此增加了一个4-bit Burst Chop(突发突变)模式,即由一个BL=4的读取操作加上一个BL=4的写入操作来合成一个BL=8的数据突发传输,届时可透过A12位址线来控制这一突发模式。而且需要指出的是,任何突发中断操作都将在DDR3内存中予以禁止,且不予支持,取而代之的是更灵活的突发传输控制(如4bit顺序突发)。 寻址时序(Timing),就像DDR2从DDR转变而来后延迟周期数增加一样,DDR3的CL周期也将比DDR2有所提升。DDR2的CL范围一般在2至5之间,而DDR3则在5至11之间,且附加延迟(AL)的设计也有所变化。DDR2时AL的范围是0至4,而DDR3时AL有三种选项,分别是0、CL-1和CL-2。另外,DDR3还新增加了一个时序参数??写入延迟(CWD),这一参数将根据具体的工作频率而定。 新增功能??重置(Reset),重置是DDR3新增的一项重要功能,并为此专门准备了一个引脚。DRAM业界已经很早以前就要求增这一功能,如今终于在DDR3身上实现。这一引脚将使DDR3的初始化处理变得简单。当Reset命令有效时,DDR3内存将停止所有的操作,并切换至最少量活动的状态,以节约电力。在Reset期间,DDR3内存将关闭内在的大部分功能,所以有数据接收与发送器都将关闭。所有内部的程式装置将复位,DLL(延迟锁相环路)与时钟电路将停止工作,而且不理睬数据总线上的任何动静。这样一来,将使DDR3达到最节省电力的目的。 新增功能??ZQ校准,ZQ也是一个新增的脚,在这个引脚上接有一个240欧姆的低公差参考电阻。这个引脚透过一个命令集,经由片上校准引擎(ODCE,On-Die Calibration Engine)来自动校验数据输出驱动器导通电阻与终结电阻器(ODT,On-Die Termination)的终结电阻值。当系统发出这一指令之后,将用相对应的时钟周期(在加电与初始化之后用512个时钟周期,在退出自刷新操作后用256个时钟周期、在其他情况下用64个时钟周期)对导通电阻和ODT电阻进行重新 [ 校准。 内存 百科名片 内存是计算机中重要的部件之一,它是与CPU进行沟通的桥梁。计算机中所有程序的运行都是在内存中进行的,因此内存的性能对计算机的影响非常大。 内存(Memory)也被称为内存储器,其作用是用于暂时存放CPU中的运算数据,以及与硬盘等外部存储器交换的数据。只要计算机在运行中,CPU就会把需要运算的数据调到内存中进行运算,当运算完成后CPU再将结果传送出来,内存的运行也决定了计算机的稳定运行。 内存是由内存芯片、电路板、金手指等部分组成的。 目录 内存简介 内存概述 内存概念 内存频率 SD系列内存的发展 其他类型的内存 相关问题 内存容量 内存简介 内存概述 内存概念 内存频率 SD系列内存的发展 其他类型的内存 相关问题 内存容量 , 电脑内存故障修复 , 常见的误解 展开 编辑本段内存简介 英文名称:Memory 拼音:nèi cún 在计算机的组成结构中,有一个很重要的部分,就是存储器。存储器是用来存储 程序和数据的部件,对于计算机来说,有了存储器,才有记忆功能,才能保证正常工 作。存储器的种类很多,按其用途可分为主存储器和辅助存储器,主存储器又称内存 储器(简称内存,港台称之为记忆体)。 内存又称主存,是CPU能直接寻址的存储空间,由半导体器件制成。内存的特 点是存取 内存 速度快。内存是电脑中的主要部件,它是相对于外存而言的。我们平常使用的程序,如Windows操作系统、打字软件、游戏软件等,一般都是安装在硬盘等外存上的,但仅此是不能使用其功能的,必须把它们调入内存中运行,才能真正使用其功能,我们平时输入一段文字,或玩一个游戏,其实都是在内存中进行的。就好比在一个书房里,存放书籍的书架和书柜相当于电脑的外存,而我们工作的办公桌就是内存。通常我们把要永久保存的、大量的数据存储在外存上,而把一些临时的或少量的数据和程序放在内存上,当然内存的好坏会直接影响电脑的运行速度。 编辑本段内存概述 内存就是暂时存储程序以及数据的地方,比如当我们在使用WPS处理文稿时,当你在键盘上敲入字符时, DDR 和 DDR2 技术对比的数据 它就被存入内存中,当你选择存盘时,内存中的数据才会被存入硬(磁)盘。在进一步理解它之前,还应认识一下它的物理概念。 内存一般采用半导体存储单元,包括随机存储器(RAM),只读存储器(ROM),以及高速缓存(CACHE)。只不过因为RAM是其中最重要的存储器。(synchronous)SDRAM 同步动态随机存取存储器:SDRAM为168脚,这是目前PENTIUM及以上机型使用的内存。SDRAM将CPU与RAM通过一个相同的时钟锁在一起,使CPU和RAM能够共享一个时钟周期,以相同的速度同步工作,每一个时钟脉冲的上升沿便开始传递数据,速度比EDO内存提高50%。DDR(DOUBLE DATA RATE)RAM :SDRAM的更新换代产品,他允许在时钟脉冲的上升沿和下降沿传输数据,这样不需要提高时钟的频率就能加倍提高SDRAM的速度。 ?只读存储器(ROM) ROM表示只读存储器(Read Only Memory),在制造ROM的时候,信息(数据或程序)就被存入并永久保存。这些信息只能读出,一般不能写入,即使机器停电,这些数据也不会丢失。ROM一般用于存放计算机的基本程序和数据,如BIOS ROM。其物理外形一般是双列直插式(DIP)的集成块。 ?随机存储器(RAM) 随机存储器(Random Access Memory)表示既可以从中读取数据,也可以写入数据。当机器电源关 内存 闭时,存于其中的数据就会丢失。我们通常购买或升级的内存条就是用作电脑的内存,内存条(SIMM)就是将RAM集成块集中在一起的一小块电路板,它插在计算机中的内存插槽上,以减少RAM集成块占用的空间。目前市场上常见的内存条有1G,条,2G/条,4G/条等。 ?高速缓冲存储器(Cache) Cache也是我们经常遇到的概念,也就是平常看到的一级缓存(L1 Cache)、二级缓存(L2 Cache)、三级缓存(L3 Cache)这些数据,它位于CPU与内存之间,是一个读写速度比内存更快的存储器。当CPU向内存中写入或读出数据时,这个数据也被存储进高速缓冲存储器中。当CPU再次需要这些数据时,CPU就从高速缓冲存储器读取数据,而不是访问较慢的内存,当然,如需要的数据在Cache中没有,CPU会再去读取内存中的数据。 ?物理存储器和地址空间 物理存储器和存储地址空间是两个不同的概念。但是由于这两者有十分密切的关系,而且两者都用 内存 B、KB、MB、GB来度量其容量大小,因此容易产生认识上的混淆。初学者弄清这两个不同的概念,有助于进一步认识内存储器和用好内存储器。 物理存储器是指实际存在的具体存储器芯片。如主板上装插的内存条和装载有系统的BIOS的ROM芯片,显示卡上的显示RAM芯片和装载显示BIOS的ROM芯片,以及各种适配卡上的RAM芯片和ROM芯片都是物理存储器。 存储地址空间是指对存储器编码(编码地址)的范围。所谓编码就是对每一个物理存储单元(一个字节)分配一个号码,通常叫作―编址‖。分配一个号码给一个存储单元的目的是为了便于找到它,完成数据的读写,这就是所谓的―寻址‖(所以,有人也把地址空间称为寻址空间)。 地址空间的大小和物理存储器的大小并不一定相等。举个例子来说明这个问题:某层楼共有17个房间,其编号为801,817。这17个房间是物理的,而其地址空间采用了三位编码,其范围是800,899共100个地址,可见地址空间是大于实际房间数量的。 对于386以上档次的微机,其地址总线为32位,因此地址空间可达2的32次方,即4GB。(虽然如此,但是我们一般使用的一些操作系统例如windows xp、却最多只能识别或者使用3.25G的内存,64位的操作系统能识别并使用4G和4G以上的的内存, 好了,现在可以解释为什么会产生诸如:常规内存、保留内存、上位内存、高端内存、扩充内存和扩展内存等不同内存类型。 编辑本段内存概念 各种内存概念 这里需要明确的是,我们讨论的不同内存的概念是建立在寻址空间上的。 内存 内存 IBM推出的第一台PC机采用的CPU是8088芯片,它只有20根地址线,也就是说,它的地址空间是1MB。 PC机的设计师将1MB中的低端640KB用作RAM,供DOS及应用程序使用,高端的384KB则保留给ROM、视频适配卡等系统使用。从此,这个界限便被确定了下来并且沿用至今。低端的640KB就被称为常规内存即PC机的基本RAM区。保留内存中的低128KB是显示缓冲区,高64KB是系统BIOS(基本输入,输出系统)空间,其余192KB空间留用。从对应的物理存储器来看,基本内存区只使用了512KB芯片,占用0000至7FFFF这512KB地址。显示内存区虽有128KB空间,但对单色显示器(MDA卡)只需4KB就足够了,因此只安装4KB的物理存储器芯片,占用了B0000至B0FFF这4KB的空间,如果使用彩色显示器(CGA卡)需要安装16KB的物理存储器,占用B8000至BBFFF这16KB的空间,可见实际使用的地址范围都小于允许使用的地址空间。 在当时(1980年末至1981年初)这么―大‖容量的内存对PC机使用者来说似乎已经足够了,但是随着程序的不断增大,图象和声音的不断丰富,以及能访问更大内存空间的新型CPU相继出现,最初的PC机和MS,DOS设计的局限性变得越来越明显。 扩充内存 到1984年,即286被普遍接受不久,人们越来越认识到640KB的限制已成为大型程序的障碍,这时,Intel和Lotus,这两家硬、软件的杰出代表,联手制定了一个由硬件和软件相结合的方案,此方法使所有PC机存取640KB以上RAM成为可能。而Microsoft刚推出Windows不久,对内存空间的要求也很高,因此它也及时加入了该行列。 在1985年初,Lotus、Intel和Microsoft三家共同定义了LIM,EMS,即扩充内存规范,通常称EMS为扩充内存。当时,EMS需要一个安装在I,O槽口的内存扩充卡和一个称为EMS的扩充内存管理程序方可使用。但是I,O插槽的地址线只有24位(ISA总线),这对于386以上档次的32位机是不能适应的。所以,现在已很少使用内存扩充卡。现在微机中的扩充内存通常是用软件如DOS中的EMM386把扩展内存模拟或扩充内存来使用。所以,扩充内存和扩展内存的区别并不在于其物理存储器的位置,而在于使用什么方法来读写它。下面将作进一步介绍。 前面已经说过扩充存储器也可以由扩展存储器模拟转换而成。EMS的原理和XMS不同,它采用了页帧方式。页帧是在1MB空间中指定一块64KB空间(通常在保留内存区内,但其物理存储器来自扩展存储器),分为4页,每页16KB。EMS存储器也按16KB分页,每次可交换4页内容,以此方式可访问全部EMS存储器。符合EMS的驱动程序很多,常用的有EMM386.EXE、QEMM、TurboEMS、386MAX等。DOS和Windows中都提供了EMM386.EXE。 扩展内存 我们知道,286有24位地址线,它可寻址16MB的地址空间,而386有32位地址线,它可寻址高达4GB的地址空间,为了区别起见,我们把1MB以上的地址空间称为扩展内存XMS(eXtend memory)。 在386以上档次的微机中,有两种存储器工作方式,一种称为实地址方式或实方式,另一种称为保护方式。在实方式下,物理地址仍使用20位,所以最大寻址空间为1MB,以便与8086兼容。保护方式采用32位物理地址,寻址范围可达4GB。DOS系统在实方式下工作,它管理的内存空间仍为1MB,因此它不能直接使用扩展存储器。为此,Lotus、Intel、AST及Microsoft公司建立了MS,DOS下扩展内存的使用标准,即扩展内存规范XMS。我们常在Config.sys文件中看到的Himem.sys就是管理扩展内存的驱动程序。 扩展内存管理规范的出现迟于扩充内存管理规范。 高端内存区 在实方式下,内存单元的地址可记为: 段地址:段内偏移 通常用十六进制写为XXXX:XXXX。实际的物理地址由段地址左移4位再和段内偏移相加而成。若地址各位均为1时,即为FFFF:FFFF。其实际物理地址为:FFF0,FFFF=10FFEF,约为1088KB(少16字节),这已超过1MB范围进入扩展内存了。这个进入扩展内存的区域约为64KB,是1MB以上空间的第一个64KB。我们把它称为高端内存区HMA(High Memory Area)。HMA的物理存储器是由扩展存储器取得的。因此要使用HMA,必须要有物理的扩展存储器存在。此外HMA的建立和使用还需要XMS驱动程序HIMEM.SYS的支持,因此只有装入了HIMEM.SYS之后才能使用HMA。 上位内存 为了解释上位内存的概念,我们还得回过头看看保留内存区。保留内存区是指640KB,1024KB(共384KB)区域。这部分区域在PC诞生之初就明确是保留给系统使用的,用户程序无法插足。但这部分空间并没有充分使用,因此大家都想对剩余的部分打主意,分一块地址空间(注意:是地址空间,而不是物理存储器)来使用。于是就得到了又一块内存区域UMB。 UMB(Upper Memory Blocks)称为上位内存或上位内存块。它是由挤占保留内存中剩余未用的空间而产生的,它的物理存储器仍然取自物理的扩展存储器,它的管理驱动程序是EMS驱动程序。 SHADOW(影子)内存 对于细心的读者,可能还会发现一个问题:即是对于装有1MB或1MB以上物理存储器的机器,其640KB,1024KB这部分物理存储器如何使用的问题。由于这部分地址空间已分配为系统使用,所以不能再重复使用。为了利用这部分物理存储器,在某些386系统中,提供了一个重定位功能,即把这部分物理存储器的地址重定位为1024KB,1408KB。这样,这部分物理存储器就变成了扩展存储器,当然可以使用了。但这种重定位功能在当今高档机器中不再使用,而把这部分物理存储器保留作为Shadow存储器。Shadow存储器可以占据的地址空间与对应的ROM是相同的。Shadow由RAM组成,其速度大大高于ROM。当把ROM中的内容(各种BIOS程序)装入相同地址的Shadow RAM中,就可以从RAM中访问BIOS,而不必再访问ROM。这样将大大提高系统性能。因此在设置CMOS参数时,应将相应的Shadow区设为允许使用(Enabled)。 奇/偶校验 奇/偶校验(ECC)是数据传送时采用的一种校正数据错误的一种方式,分为奇校验和偶校验两种。 如果是采用奇校验,在传送每一个字节的时候另外附加一位作为校验位,当实际数据中―1‖的个数为偶数的时候,这个校验位就是―1‖,否则这个校验位就是―0‖,这样就可以保证传送数据满足奇校验的要求。在接收方收到数据时,将按照奇校验的要求检测数据中―1‖的个数,如果是奇数,表示传送正确,否则表示传送错误。 同理偶校验的过程和奇校验的过程一样,只是检测数据中―1‖的个数为偶数。 CL延迟 CL反应时间是衡定内存的另一个标志。CL是CAS Latency的缩写,指的是内存存取数据所需的延迟时间,简单的说,就是内存接到CPU的指令后的反应速度。一般的参数值是2和3两种。数字越小,代表反应所需的时间越短。在早期的PC133内存标准中,这个数值规定为3,而在Intel重新制订的新规范中,强制要求CL的反应时间必须为2,这样在一定程度上,对于内存厂商的芯片及PCB的组装工艺要求相对较高,同时也保证了更优秀的品质。因此在选购品牌内存时,这是一个不可不察的因素。 还有另的诠释:内存延迟基本上可以解释成是系统进入数据进行存取操作就序状态前等待内存响应的时间。 打个形象的比喻,就像你在餐馆里用餐的过程一样。你首先要点菜,然后就等待服务员给你上菜。同样的道理,内存延迟时间设置的越短,电脑从内存中读取数据的 速度也就越快,进而电脑其他的性能也就越高。这条规则双双适用于基于英特尔以及AMD处理器的系统中。由于没有比2-2-2-5更低的延迟,因此国际内存标准组织认为以现在的动态内存技术还无法实现0或者1的延迟。 通常情况下,我们用4个连着的阿拉伯数字来表示一个内存延迟,例如2-2-2-5。其中,第一个数字最为重要,它表示的是CAS Latency,也就是内存存取数据所需的延迟时间。第二个数字表示的是RAS-CAS延迟,接下来的两个数字分别表示的是RAS预充电时间和Act-to-Precharge延迟。而第四个数字一般而言是它们中间最大的一个。 总结 经过上面分析,内存储器的划分可归纳如下: ?基本内存 占据0,640KB地址空间。 ?保留内存 占据640KB,1024KB地址空间。分配给显示缓冲存储器、各适配卡上的ROM和系统ROM BIOS,剩余空间可作上位内存UMB。UMB的物理存储器取自物理扩展存储器。此范围的物理RAM可作为Shadow RAM使用。 ?上位内存(UMB) 利用保留内存中未分配使用的地址空间建立,其物理存储器由物理扩展存储器取得。UMB由EMS管理,其大小可由EMS驱动程序设定。 ?高端内存(HMA) 扩展内存中的第一个64KB区域(1024KB,1088KB)。由HIMEM.SYS建立和管理。 ?XMS内存 符合XMS规范管理的扩展内存区。其驱动程序为HIMEM.SYS。 ?EMS内存 符合EMS规范管理的扩充内存区。其驱动程序为EMM386.EXE等。 内存:随机存储器(RAM),主要存储正在运行的程序和要处理的数据。 编辑本段内存频率 内存主频和CPU主频一样,习惯上被用来表示内存的速度,它代表着该内存所能达到的最高工作频率。内存主频是以MHz(兆赫)为单位来计量的。内存主频越高在一定程度上代表着内存所能达到的速度越快。内存主频决定着该内存最高能在什么样的频率正常工作。目前较为主流的内存频率是800MHz的DDR2内存,以及一些内存频率更高的DDR3内存。 大家知道,计算机系统的时钟速度是以频率来衡量的。晶体振荡器控制着时钟速度,在石英晶片上加上电压,其就以正弦波的形式震动起来,这一震动可以通过晶片的形变和大小记录下来。晶体的震动以正弦调和变化的电流的形式表现出来,这一变化的电流就是时钟信号。而内存本身并不具备晶体振荡器,因此内存工作时的时钟信号是由主板芯片组的北桥或直接由主板的时钟发生器提供的,也就是说内存无法决定自身的工作频率,其实际工作频率是由主板来决定的。 DDR内存和DDR2内存的频率可以用工作频率和等效频率两种方式表示,工作频率是内存颗粒实际的工作频率,但是由于DDR内存可以在脉冲的上升和下降沿都传输数据,因此传输数据的等效频率是工作频率的两倍;而DDR2内存每个时钟能够 以四倍于工作频率的速度读/写数据,因此传输数据的等效频率是工作频率的四倍。例如DDR 200/266/333/400的工作频率分别是100/133/166/200MHz,而等效频率分别是200/266/333/400MHz;DDR2 400/533/667/800的工作频率分别是100/133/166/200MHz,而等效频率分别是400/533/667/800MHz。 编辑本段SD系列内存的发展 在计算机诞生初期并不存在内存条的概念,最早的内存是以磁芯的形式排列在线路上,每个磁芯与晶体管组成的一个双稳态电路作为一比特(BIT)的存储器,每一比特都要有玉米粒大小,可以想象一间的机房只能装下不超过百k字节左右的容量。后来才出线现了焊接在主板上集成内存芯片,以内存芯片的形式为计算机的运算提供直接支持。那时的内存芯片容量都特别小,最常见的莫过于256K×1bit、1M×4bit,虽然如此,但这相对于那时的运算任务来说却已经绰绰有余了。 内存条的诞生 内存芯片的状态一直沿用到286初期,鉴于它存在着无法拆卸更换的弊病,这对于计算机的发展造成了现实的阻碍。有鉴于此,内存条便应运而生了。将内存芯片焊接到事先设计好的印刷线路板上,而电脑主板上也改用内存插槽。这样就把内存难以安装和更换的问题彻底解决了。 在80286主板发布之前,内存并没有被世人所重视,这个时候的内存是直接固化在主板上,而且容量只有64 ,256KB,对于当时PC所运行的工作程序来说,这种内存的性能以及容量足以满足当时软件程序的处理需要。不过随着软件程序和新一代80286硬件平台的出现,程序和硬件对内存性能提出了更高要求,为了提高速度并扩大容量,内存必须以独立的封装形式出现,因而诞生了―内存条‖概念。 在80286主板刚推出的时候,内存条采用了SIMM(Single In-lineMemory Modules,单边接触内存模组)接口,容量为30pin、256kb,必须是由8 片数据位和1 片校验位组成1 个bank,正因如此,我们见到的30pin SIMM一般是四条一起使用。自1982年PC进入民用市场一直到现在,搭配80286处理器的30pin SIMM 内存是内存领域的开山鼻祖。 随后,在1988 ,1990 年当中,PC 技术迎来另一个发展高峰,也就是386和486时代,此时CPU 已经向16bit 发展,所以30pin SIMM 内存再也无法满足需求,其较低的内存带宽已经成为急待解决的瓶颈,所以此时72pin SIMM 内存出现了,72pin SIMM支持32bit快速页模式内存,内存带宽得以大幅度提升。72pin SIMM内存单条容量一般为512KB ,2MB,而且仅要求两条同时使用,由于其与30pin SIMM 内存无法兼容,因此这个时候PC业界毅然将30pin SIMM 内存淘汰出局了。 EDO DRAM(Extended Date Out RAM 外扩充数据模式存储器)内存,这是1991 年到1995 年之间盛行的内存条,EDO DRAM同FPM DRAM(Fast Page Mode RAM 快速页面模式存储器)极其相似,它取消了扩展数据输出内存与传输内存两个存储周期 之间的时间间隔,在把数据发送给CPU的同时去访问下一个页面,故而速度要比普通DRAM快15~30%。工作电压为一般为5V,带宽32bit,速度在40ns以上,其主要应用在当时的486及早期的Pentium电脑上。 在1991 年到1995 年中,让我们看到一个尴尬的情况,那就是这几年内存技术发展比较缓慢,几乎停滞不前,所以我们看到此时EDO DRAM有72 pin和168 pin并存的情况,事实上EDO 内存也属于72pin SIMM 内存的范畴,不过它采用了全新的寻址方式。EDO 在成本和容量上有所突破,凭借着制作工艺的飞速发展,此时单条EDO 内存的容量已经达到4 ,16MB 。由于Pentium及更高级别的CPU数据总线宽度都是64bit甚至更高,所以EDO DRAM与FPM DRAM都必须成对使用。 SDRAM时代 自Intel Celeron系列以及AMD K6处理器以及相关的主板芯片组推出后,EDO DRAM内存性能再也无法满足需要了,内存技术必须彻底得到个革新才能满足新一代CPU架构的需求,此时内存开始进入比较经典的SDRAM时代。 第一代SDRAM 内存为PC66 规范,但很快由于Intel 和AMD的频率之争将CPU外频提升到了100MHz,所以PC66内存很快就被PC100内存取代,接着133MHz 外频的PIII以及K7时代的来临,PC133规范也以相同的方式进一步提升SDRAM 的整体性能,带宽提高到1GB/sec以上。由于SDRAM 的带宽为64bit,正好对应CPU 的64bit 数据总线宽度,因此它只需要一条内存便可工作,便捷性进一步提高。在性能方面,由于其输入输出信号保持与系统外频同步,因此速度明显超越EDO 内存。 不可否认的是,SDRAM 内存由早期的66MHz,发展后来的100MHz、133MHz,尽管没能彻底解决内存带宽的瓶颈问题,但此时CPU超频已经成为DIY用户永恒的话题,所以不少用户将品牌好的PC100品牌内存超频到133MHz使用以获得CPU超频成功,值得一提的是,为了方便一些超频用户需求,市场上出现了一些PC150、PC166规范的内存。 尽管SDRAM PC133内存的带宽可提高带宽到1064MB/S,加上Intel已经开始着手最新的Pentium 4计划,所以SDRAM PC133内存不能满足日后的发展需求,此时,Intel为了达到独占市场的目的,与Rambus联合在PC市场推广Rambus DRAM内存(称为RDRAM内存)。与SDRAM不同的是,其采用了新一代高速简单内存架构,基于一种类RISC(Reduced Instruction Set Computing,精简指令集计算机)理论,这个理论可以减少数据的复杂性,使得整个系统性能得到提高。 在AMD与Intel的竞争中,这个时候是属于频率竞备时代,所以这个时候CPU的主频在不断提升,Intel为了盖过AMD,推出高频Pentium?以及Pentium 4 处理器,因此Rambus DRAM内存是被Intel看着是未来自己的竞争杀手锏,Rambus DRAM内存以高时钟频率来简化每个时钟周期的数据量,因此内存带宽相当出色,如PC 1066 1066 MHz 32 bits带宽可达到4.2G Byte/sec,Rambus DRAM曾一度被认为是Pentium 4 的绝配。 尽管如此,Rambus RDRAM 内存生不逢时,后来依然要被更高速度的DDR―掠夺‖其宝座地位,在当时,PC600、PC700的Rambus RDRAM 内存因出现Intel820 芯片组―失误事件‖、PC800 Rambus RDRAM因成本过高而让Pentium 4平台高高在上,无法获得大众用户拥戴,种种问题让Rambus RDRAM胎死腹中,Rambus曾希望具有更高频率的PC1066 规范RDRAM来力挽狂澜,但最终也是拜倒在DDR 内存面前。 DDR时代 DDR SDRAM(Double Data Rate SDRAM)简称DDR,也就是―双倍速率SDRAM‖的意思。DDR可以说是SDRAM的升级版本, DDR在时钟信号上升沿与下降沿各传输一次数据,这使得DDR的数据传输速度为传统SDRAM的两倍。由于仅多采用了下降缘信号,因此并不会造成能耗增加。至于定址与控制信号则与传统SDRAM相同,仅在时钟上升缘传输。 DDR 内存是作为一种在性能与成本之间折中的解决方案,其目的是迅速建立起牢固的市场空间,继而一步步在频率上高歌猛进,最终弥补内存带宽上的不足。第一代DDR200 规范并没有得到普及,第二代PC266 DDR SRAM(133MHz时钟×2倍数据传输,266MHz带宽)是由PC133 SDRAM内存所衍生出的,它将DDR 内存带向第一个高潮,目前还有不少赛扬和AMD K7处理器都在采用DDR266规格的内存,其后来的DDR333内存也属于一种过度,而DDR400内存成为目前的主流平台选配,双通道DDR400内存已经成为800FSB处理器搭配的基本标准,随后的DDR533 规范则成为超频用户的选择对象。 DDR2时代 随着CPU 性能不断提高,我们对内存性能的要求也逐步升级。不可否认,紧紧依高频率提升带宽的DDR迟早会力不从心,因此JEDEC 组织很早就开始酝酿DDR2 标准,加上LGA775接口的915/925以及最新的945等新平台开始对DDR2内存的支持,所以DDR2内存将开始演义内存领域的今天。 DDR2 能够在100MHz 的发信频率基础上提供每插脚最少400MB/s 的带宽,而且其接口将运行于1.8V 电压上,从而进一步降低发热量,以便提高频率。此外,DDR2 将融入CAS、OCD、ODT 等新性能指标和中断指令,提升内存带宽的利用率。从JEDEC组织者阐述的DDR2标准来看,针对PC等市场的DDR2内存将拥有400、533、667MHz等不同的时钟频率。高端的DDR2内存将拥有800、1000MHz两种频率。DDR-II内存将采用200-、220-、240-针脚的FBGA封装形式。最初的DDR2内存将采用0.13微米的生产工艺,内存颗粒的电压为1.8V,容量密度为512MB。 内存技术在2005年将会毫无悬念,SDRAM为代表的静态内存在五年内不会普及。QBM与RDRAM内存也难以挽回颓势,因此DDR与DDR2共存时代将是铁定的事实。 PC-100的―接班人‖除了PC一133以外,VCM(VirXual Channel Memory)也是很重要的一员。VCM即―虚拟通道存储器‖,这也是目前大多数较新的芯片组支持的一种内存标准,VCM内存主要根据由NEC公司开发的一种―缓存式DRAM‖技术制造而成,它集成了―通道缓存‖,由高速寄存器进行配置和控制。在实现高速数据传输的同时,VCM还维持着对传统SDRAM的高度兼容性,所以通常也把VCM内存称为VCM SDRAM。VCM与SDRAM的差别在于不论是否经过CPU处理的数据,都可先交于VCM进行处理,而普通的SDRAM就只能处理经CPU处理以后的数据,所以VCM要比SDRAM处理数据的速度快20,以上。目前可以支持VCM SDRAM的芯片组很多,包括:Intel的815E、VIA的694X等。 3(RDRAM Intel在推出:PC-100后,由于技术的发展,PC-100内存的800MB,s带宽已经不能满足需求,而PC-133的带宽提高并不大(1064MB,s),同样不能满足日后的发展需求。Intel为了达到独占市场的目的,与Rambus公司联合在PC市场推广Rambus DRAM(DirectRambus DRAM)。 Rambus DRAM是:Rambus公司最早提出的一种内存规格,采用了新一代高速简单内存架构,基于一种RISC(Reduced Instruction Set Computing,精简指令集计算机)理论,从而可以减少数据的复杂性,使得整个系统性能得到提高。Rambus使用400MHz的16bit总线,在一个时钟周期内,可以在上升沿和下降沿的同时传输数据,这样它的实际速度就为400MHz×2,800MHz,理论带宽为(16bit×2×400MHz,8)1.6GB,s,相当于PC-100的两倍。另外,Rambus也可以储存9bit字节,额外的一比特是属于保留比特,可能以后会作为:ECC(ErroI?Checking and Correction,错误检查修正)校验位。Rambus的时钟可以高达400MHz,而且仅使用了30条铜线连接内存控制器和RIMM(Rambus In-line MemoryModules,Rambus内嵌式内存模块),减少铜线的长度和数量就可以降低数据传输中的电磁干扰,从而快速地提高内存的工作频率。不过在高频率下,其发出的热量肯定会增加,因此第一款Rambus内存甚至需要自带散热风扇。 DDR3时代 DDR3相比起DDR2有更低的工作电压, 从DDR2的1.8V降落到1.5V,性能更好更为省电;DDR2的4bit预读升级为8bit预读。DDR3目前最高能够达到2000Mhz的速度,尽管目前最为快速的DDR2内存速度已经提升到800Mhz/1066Mhz的速度,但是DDR3内存模组仍会从1066Mhz起跳。 一、DDR3在DDR2基础上采用的新型设计: 1(8bit预取设计,而DDR2为4bit预取,这样DRAM内核的频率只有接口频率的1/8,DDR3-800的核心工作频率只有100MHz。 2(采用点对点的拓朴架构,以减轻地址/命令与控制总线的负担。 3(采用100nm以下的生产工艺,将工作电压从1.8V降至1.5V,增加异步重置 (Reset)与ZQ校准功能。部分厂商已经推出1.35V的低压版DDR3内存。 即将到来的DDR4时代 内存厂商预计在2012年,DDR4时代将开启,起步频率降至1.2V,而频率提升 [1]至2133MHz,次年进一步将电压降至1.0V,频率则实现2667MHz。 新一代的DDR4内存将会拥有两种规格。根据多位半导体业界相关人员的介绍,DDR4内存将会是Single-endedSignaling( 传统SE信号)方式DifferentialSignaling( 差分信号技术 )方式并存。其中AMD公司的PhilHester先生也对此表示了确认。预计这两个标准将会推出不同的芯片产品,因此在DDR4内存时代我们将会看到两个互不兼容的内存产品。 [2] 编辑本段其他类型的内存 SRAM SRAM(Static RAM)意为静态随机存储器。SRAM数据不需要通过不断地刷新来保存,因此速度比DRAM(动态随机存储器)快得多。但是SRAM具有的缺点是:同容量相比DRAM需要非常多的晶体管,发热量也非常大。因此SRAM难以成为大容量的主存储器,通常只用在CPU、GPU中作为缓存,容量也只有几十K至几十M。 SRAM目前发展出的一个分支是eSRAM(Enhanced SRAM),为增强型SRAM,具备更大容量和更高运行速度。 RDRAM RDRAM是由RAMBUS公司推出的内存。RDRAM内存条为16bit,但是相比同期的SDRAM具有更高的运行频率,性能非常强。 然而它是一个非开放的技术,内存厂商需要向RAMBUS公司支付授权费。并且RAMBUS内存的另一大问题是不允许空通道的存在,必须成对使用,空闲的插槽必须使用终结器。因此,除了短寿的Intel i820和i850芯片组对其提供支持外,PC平台没有支持RAMBUS内存的芯片组。 可以说,它是一个优秀的技术,但不是一个成功的商业产品。 XDR RAM XDR内存是RDRAM的升级版。依旧由RAMBUS公司推出。XDR就是―eXtreme Data Rate‖的缩写。 XDR依旧存在RDRAM不能大面普及的那些不足之处。因此,XDR内存的应用依旧非常有限。比较常见的只有索尼的PS3游戏机。 Fe-RAM 铁电存储器是一种在断电时不会丢失内容的非易失存储器,具有高速、高密度、低功耗和抗辐射等优点。 由于数据是通过铁元素的磁性进行存储,因此,铁电存储器无需不断刷新数据。其运行速度将会非常乐观。而且它相比SRAM需要更少的晶体管。它被业界认为是SDRAM的最有可能的替代者。 MRAM 磁性存储器。它和Fe-RAM具有相似性,依旧基于磁性物质来记录数据。 OUM 相变存储器。 奥弗辛斯基(Stanford Ovshinsky)在1968年发表了第一篇关于非晶体相变的论文,创立了非晶体半导体学。一年以后,他首次描述了基于相变理论的存储器:材料由非晶体状态变成晶体,再变回非晶体的过程中,其非晶体和晶体状态呈现不同的反光特 [3]性和电阻特性,因此可以利用非晶态和晶态分别代表―0‖和―1‖来存储数据。 编辑本段相关问题 延迟问题 从上表可以看出,在同等核心频率下,DDR2的实际工作频率是DDR的两倍。这得益于DDR2内存拥有两倍于标准DDR内存的4BIT预读取能力。换句话说,虽然DDR2和DDR一样,都采用了在时钟的上升延和下降延同时进行数据传输的基本方式,但DDR2拥有两倍于DDR的预读取系统命令数据的能力。也就是说,在同样100MHz的工作频率下,DDR的实际频率为200MHz,而DDR2则可以达到400MHz。 这样也就出现了另一个问题:在同等工作频率的DDR和DDR2内存中,后者的内存延时要慢于前者。举例来说,DDR 200和DDR2-400具有相同的延迟,而后者具有高一倍的带宽。实际上,DDR2-400和DDR 400具有相同的带宽,它们都是3.2GB/s,但是DDR400的核心工作频率是200MHz,而DDR2-400的核心工作频率是100MHz,也就是说DDR2-400的延迟要高于DDR400。 封装和发热量 DDR2内存技术最大的突破点其实不在于用户们所认为的两倍于DDR的传输能力,而是在采用更低发热量、更低功耗的情况下,DDR2可以获得更快的频率提升,突破标准DDR的400MHZ限制。 DDR内存通常采用TSOP芯片封装形式,这种封装形式可以很好的工作在200MHz上,当频率更高时,它过长的管脚就会产生很高的阻抗和寄生电容,这会影响它的稳定性和频率提升的难度。这也就是DDR的核心频率很难突破275MHZ的原因。而DDR2内存均采用FBGA封装形式。不同于目前广泛应用的TSOP封装形式,FBGA封装提供了更好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了良好的保障。 DDR2内存采用1.8V电压,相对于DDR标准的2.5V,降低了不少,从而提供了明显的更小的功耗与更小的发热量,这一点的变化是意义重大的。 DDR2采用的新技术 除了以上所说的区别外,DDR2还引入了三项新的技术,它们是OCD、ODT和Post CAS。 OCD(Off-Chip Driver):也就是所谓的离线驱动调整,DDR II通过OCD可以提高信号的完整性。DDR II通过调整上拉(pull-up)/下拉(pull-down)的电阻值使两者电压相等。使用OCD通过减少DQ-DQS的倾斜来提高信号的完整性;通过控制电压来提高信号品质。 ODT:ODT是内建核心的终结电阻器。我们知道使用DDR SDRAM的主板上面为了防止数据线终端反射信号需要大量的终结电阻。它大大增加了主板的制造成本。实际上,不同的内存模组对终结电路的要求是不一样的,终结电阻的大小决定了数据线的信号比和反射率,终结电阻小则数据线信号反射低但是信噪比也较低;终结电阻高,则数据线的信噪比高,但是信号反射也会增加。因此主板上的终结电阻并不能非常好的匹配内存模组,还会在一定程度上影响信号品质。DDR2可以根据自己的特点内建合适的终结电阻,这样可以保证最佳的信号波形。使用DDR2不但可以降低主板成本,还得到了最佳的信号品质,这是DDR不能比拟的。 Post CAS:它是为了提高DDR II内存的利用效率而设定的。在Post CAS操作中,CAS信号(读写/命令)能够被插到RAS信号后面的一个时钟周期,CAS命令可以在附加延迟(Additive Latency)后面保持有效。原来的tRCD(RAS到CAS和延迟)被AL(Additive Latency)所取代,AL可以在0,1,2,3,4中进行设置。由于CAS信号放在了RAS信号后面一个时钟周期,因此ACT和CAS信号永远也不会产生碰撞冲突。 总的来说,DDR2采用了诸多的新技术,改善了DDR的诸多不足,虽然它目前有成本高、延迟慢能诸多不足,但相信随着技术的不断提高和完善,这些问题终将得 到解决。 DDR3与DDR2几个主要的不同之处 1.突发长度(Burst Length,BL) 由于DDR3的预取为8bit,所以突发传输周期(Burst Length,BL)也固定为8,而对于DDR2和早期的DDR架构系统,BL=4也是常用的,DDR3为此增加了一个4bit Burst Chop(突发突变)模式,即由一个BL=4的读取操作加上一个BL=4的写入操作来合成一个BL=8的数据突发传输,届时可通过A12地址线来控制这一突发模式。而且需要指出的是,任何突发中断操作都将在DDR3内存中予以禁止,且不予支持,取而代之的是更灵活的突发传输控制(如4bit顺序突发)。 2.寻址时序(Timing) 就像DDR2从DDR转变而来后延迟周期数增加一样,DDR3的CL周期也将比DDR2有所提高。DDR2的CL范围一般在2,5之间,而DDR3则在5,11之间,且附加延迟(AL)的设计也有所变化。DDR2时AL的范围是0,4,而DDR3时AL有三种选项,分别是0、CL-1和CL-2。另外,DDR3还新增加了一个时序参数——写入延迟(CWD),这一参数将根据具体的工作频率而定。 3.DDR3新增的重置(Reset)功能 重置是DDR3新增的一项重要功能,并为此专门准备了一个引脚。DRAM业界很早以前就要求增加这一功能,如今终于在DDR3上实现了。这一引脚将使DDR3的初始化处理变得简单。当Reset命令有效时,DDR3内存将停止所有操作,并切换至最少量活动状态,以节约电力。 在Reset期间,DDR3内存将关闭内在的大部分功能,所有数据接收与发送器都将关闭,所有内部的程序装置将复位,DLL(延迟锁相环路)与时钟电路将停止工作,而且不理睬数据总线上的任何动静。这样一来,将使DDR3达到最节省电力的目的。 4.DDR3新增ZQ校准功能 ZQ也是一个新增的脚,在这个引脚上接有一个240欧姆的低公差参考电阻。这个引脚通过一个命令集,通过片上校准引擎(On-Die Calibration Engine,ODCE)来自动校验数据输出驱动器导通电阻与ODT的终结电阻值。当系统发出这一指令后,将用相应的时钟周期(在加电与初始化之后用512个时钟周期,在退出自刷新操作后用256个时钟周期、在其他情况下用64个时钟周期)对导通电阻和ODT电阻进行重新校准。 5.参考电压分成两个 在DDR3系统中,对于内存系统工作非常重要的参考电压信号VREF将分为两个信号,即为命令与地址信号服务的VREFCA和为数据总线服务的VREFDQ,这将有效地提高系统数据总线的信噪等级。 6.点对点连接(Point-to-Point,P2P) 这是为了提高系统性能而进行的重要改动,也是DDR3与DDR2的一个关键区别。 在DDR3系统中,一个内存控制器只与一个内存通道打交道,而且这个内存通道只能有一个插槽,因此,内存控制器与DDR3内存模组之间是点对点(P2P)的关系(单物理Bank的模组),或者是点对双点(Point-to-two-Point,P22P)的关系(双物理Bank的模组),从而大大地减轻了地址/命令/控制与数据总线的负载。而在内存模组方面,与DDR2的类别相类似,也有标准DIMM(台式PC)、SO-DIMM/Micro-DIMM(笔记本电脑)、FB-DIMM2(服务器)之分,其中第二代FB-DIMM将采用规格更高的AMB2(高级内存缓冲器)。 面向64位构架的DDR3显然在频率和速度上拥有更多的优势,此外,由于DDR3所采用的根据温度自动自刷新、局部自刷新等其它一些功能,在功耗方面DDR3也要出色得多,因此,它可能首先受到移动设备的欢迎,就像最先迎接DDR2内存的不是台式机而是服务器一样。在CPU外频提升最迅速的PC台式机领域,DDR3未来也是一片光明。目前Intel预计在明年第二季所推出的新芯片-熊湖(Bear Lake),其将支持DDR3规格,而AMD也预计同时在K9平台上支持DDR2及DDR3两种规格。 内存异步工作模式包含多种意义,在广义上凡是内存工作频率与CPU的外频不一致时都可以称为内存异步工作模式。首先,最早的内存异步工作模式出现在早期的主板芯片组中,可以使内存工作在比CPU外频高33MHz或者低33MHz的模式下(注意只是简单相差33MHz),从而可以提高系统内存性能或者使老内存继续发挥余热。其次,在正常的工作模式(CPU不超频)下,目前不少主板芯片组也支持内存异步工作模式,例如Intel 910GL芯片组,仅仅只支持533MHz FSB即133MHz的CPU外频,但却可以搭配工作频率为133MHz的DDR 266、工作频率为166MHz的DDR 333和工作频率为200MHz的DDR 400正常工作(注意此时其CPU外频133MHz与DDR 400的工作频率200MHz已经相差66MHz了),只不过搭配不同的内存其性能有差异罢了。再次,在CPU超频的情况下,为了不使内存拖CPU超频能力的后腿,此时可以调低内存的工作频率以便于超频,例如AMD的Socket 939接口的Opteron 144非常容易超频,不少产品的外频都可以轻松超上300MHz,而此如果在内存同步的工作模式下,此时内存的等效频率将高达DDR 600,这显然是不可能的,为了顺利超上300MHz外频,我们可以在超频前在主板BIOS中把内存设置为DDR 333或DDR 266,在超上300MHz外频之后,前者也不过才DDR 500(某些极品内存可以达到),而后者更是只有DDR 400(完全是正常的标准频率),由此可见,正确设置内存异步模式有助于超频成功。 目前的主板芯片组几乎都支持内存异步,英特尔公司从810系列到目前较新的875系列都支持,而威盛公司则从693芯片组以后全部都提供了此功能。 三代内存的区别 编辑本段内存容量 内存容量同硬盘、软盘等存储器容量单位都是相同的,它们的基本单位都是字节(B),并且: 1024B=1KB=1024字节=2^10字节(^代表次方) 1024KB=1MB=1048576字节=2^20字节 1024MB=1GB=1073741824字节=2^30字节 1024GB=1TB=1099511627776字节=2^40字节 1024TB=1PB=1125899906842624字节=2^50字节 1024PB=1EB=1152921504606846976字节=2^60字节 1024EB=1ZB=1180591620717411303424字节=2^70字节 1024ZB=1YB=1208925819614629174706176字节=2^80字节 编辑本段电脑内存故障修复 [1] 一、开机无显示 由于内存条原因出现此类故障一般是因为内存条与主板内存插槽接触不良造成,只要用橡皮擦来回擦试其金手指部位即可解决问题(不要用酒精等清洗),还有就是内存损坏或主板内存槽有问题也会造成此类故障。 由于内存条原因造成开机无显示故障,主机扬声器一般都会长时间蜂鸣(针对Award Bios而言) 二、windows系统运行不稳定,经常产生非法错误 出现此类故障一般是由于内存芯片质量不良或软件原因引起,如若确定是内存条原因只有更换一途。 三、windows注册表经常无故损坏,提示要求用户恢复 此类故障一般都是因为内存条质量不佳引起,很难予以修复,唯有更换一途。 四、windows经常自动进入安全模式 此类故障一般是由于主板与内存条不兼容或内存条质量不佳引起,常见于PC133内存用于某些不支持PC133内存条的主板上,可以尝试在CMOS设置内降低内存读 取速度看能否解决问题,如若不行,那就只有更换内存条了。 五、随机性死机 此类故障一般是由于采用了几种不同芯片的内存条,由于各内存条速度不同产生一个时间差从而导致死机,对此可以在CMOS设置内降低内存速度予以解决,否则,唯有使用同型号内存。还有一种可能就是内存条与主板不兼容,此类现象一般少见,另外也有可能是内存条与主板接触不良引起电脑随机性死机,此类现象倒是比较常见。 六、内存加大后系统资源反而降低 此类现象一般是由于主板与内存不兼容引起,常见于PC133内存条用于某些不支持PC133内存条的主板上,即使系统重装也不能解决问题。 七、windows启动时,在载入高端内存文件himem.sys时系统提示某些地址有问题 此问题一般是由于内存条的某些芯片损坏造成,解决方法可参见下面内存维修一法。 八、运行某些软件时经常出现内存不足的提示 此现象一般是由于系统盘剩余空间不足造成,可以删除一些无用文件,多留一些空间即可,一般保持在300M左右为宜。 九、从硬盘引导安装windows进行到检测磁盘空间时,系统提示内存不足 此类故障一般是由于用户在config.sys文件中加入了emm386.exe文件,只要将其屏蔽掉即可解决问题。 十、安装windows进行到系统配置时产生一个非法错误 此类故障一般是由于内存条损坏造成,可以按内存维修一法来解决,如若不行,那就只有更换内存条了。 十一、启动windows时系统多次自动重新启动 此类故障一般是由于内存条或电源质量有问题造成,当然,系统重新启动还有可能是CPU散热不良或其他人为故障造成,对此,唯有用排除法一步一步排除。 十二、内存维修一法 出现上面几种故障后,倘若内存损坏或芯片质量不行,如条件不允许可以用烙铁将内存一边的各芯片卸下,看能否解决问题,如若不行再换卸另一边的芯片,直到成功为止(如此焊工只怕要维修手机的人方可达到)。当然,有条件用示波器检测那就事半功倍了),采用此法后,因为已将内存的一边芯片卸下,所以内存只有一半可用,例如,64M还有32M可用,为此,对于小容量内存就没有维修的必要了。 编辑本段常见的误解 1. 将“内部的外存储器”理解为”内存“ : 这种情况主要是发生在描述移动设备的内部集成的数据存放空间时。比如一台手 机具备8G的数据存储空间,不少人将其描述为‖8G内存―,事实上,这种表述是错误的,因为所谓的―8G内存‖是一个外存储器。不能将―内部的外存储器‖简称为‖内存―,因为内存是一个特定的概念,为内存储器的简称。 2.将存储卡的容量称之为“内存”: 存储卡的容量不应当简称为―内存‖,因其也是外存储器 操作系统 操作系统(Operating System,简称OS)是一管理电脑硬件与软件资源的程序,同时也是计算机系统的内核与基石。操作系统是一个庞大的管理控制程序,大致包括5个方面的管理功能:进程与处理机管理、作业管理、存储管理、设备管理、文件管理。目前微机上常见的操作系统有DOS、OS/2、UNIX、XENIX、LINUX、Windows、Netware等。 操作系统是控制其他程序运行,管理系统资源并为用户提供操作界面的系统软件的集合。 操作系统身负诸如管理与配置内存、决定系统资源供需的优先次序、控制输入与输出设备、操作网络与管理文件系统等基本事务。 操作系统是管理计算机系统的全部硬件资源包括软件资源及数据资源;控制程序运行;改善人机界面;为其它应用软件提供支持等,使计算机系统所有资源最大限度地发挥作用,为用户提供方便的、有效的、友善的服务界面。 所有的操作系统具有并发性、共享性、虚拟性和不确定性四个基本特征。 操作系统的型态非常多样,不同机器安装的OS可从简单到复杂,可从手机的嵌入式系统到超级电脑的大型操作系统。 许多操作系统制造者对OS的定义也不大一致,例如有些OS集成了图形用户界面,而有些OS仅使用文本接口,而将图形界面视为一种非必要的应用程序。 操作系统理论在计算机科学中为历史悠久而又活跃的分支,而操作系统的设计与实现则是软件工业的基础与内核。 发展历史 各类平台上操作系统的功能演化。 纵观电脑之历史,操作系统与计算机硬件的发展息息相关。 操作系统之本意原为提供简单的工作排序能力,后为辅助更新更复杂的硬件设施而渐渐演化。 从最早的批处理模式开始,分时机制也随之出现,在多处理器时代来临时,操作系统也随之添加多处理器协调功能,甚至是分布式系统的协调功能。其他方面的演变也类似于此。 另一方面,在个人电脑上,个人电脑之操作系统因袭大型电脑的成长之路,在硬件越来越复杂、强大时,也逐步实践以往只有大型电脑才有的功能。 总而言之,操作系统的历史就是一部解决电脑系统需求与问题的历史。 1980年代前 第一部个人电脑并没有操作系统。这是由于早期个人电脑的建立方式(如同建造机械算盘)与效能不足以执行如此程序。 但在1947年发明了晶体管,以及莫里斯?威尔克斯(Maurice Vincent Wilkes)发明的微程序方法,使得电脑不再是机械设备,而是电子产品。系统管理工具以及简化硬件操作流程的程序很快就出现了,且成为操作系统的滥觞。 到了1960年代早期,商用电脑制造商制造了批次处理系统,此系统可将工作的建置、调度以及执行序列化。此时,厂商为每一台不同型号的电脑创造不同的操作系统,因此为某电脑而写的程序无法移植到其他电脑上执行,即使是同型号的电脑也不行。 到了1964年,IBM 推出了一系列用途与价位都不同的大型电脑IBM System/360,大型主机的经典之作。而它们都共享代号为OS/360的操作系统(而非每种产品都用量身订做的操作系统)。让单一操作系统适用于整个系列的产品是System/360成功的关键,且实际上IBM目前的大型系统便是此系统的后裔;为System/360所写的应用程序依然可以在现代的IBM机器上执行~ OS/360也包含另一个优点:永久贮存设备—硬盘驱动器的面世(IBM称为DASD(Direct access storage device))。另一个关键是分时概念的建立:将大型电脑珍贵的时间资源适当分配到所有使用者身上。分时也让使用者有独占整部机器的感觉;而Multics的分时系统是此时众多新操作系统中实践此观念最成功的。 1963年,奇异公司与贝尔实验室合作以PL/I语言建立的Multics,是激发1970年代众多操作系统建立的灵感来源,尤其是由AT&T贝尔实验室的丹尼斯?里奇与肯?汤普逊所建立的Unix系统,为了实践平台移植能力,此操作系统在1969年由C语言重写;另一个广为市场采用的小型电脑操作系统是VMS。 20世纪80年代 第一代微型计算机并不像大型电脑或小型电脑,没有装设操作系统的需求或能力;它们只需要最基本的操作系统,通常这种操作系统都是从ROM读取的,此种程序被称为监视程序(Monitor)。 1980年代,家用电脑开始普及。通常此时的电脑拥有8-bit处理器加上64KB内存、屏幕、键盘以及低音质喇叭。而80年代早期最著名的套装电脑为使用微处理器6510(6502芯片特别版)的Commodore C64。此电脑没有操作系统,而是以一8KB只读内存BIOS初始化彩色屏幕、键盘以及软驱和打印机。它可用8KB只读内存BASIC语言来直接操作BIOS,并依此撰写程序,大部分是游戏。此BASIC语言的解释器勉强可算是此电脑的操作系统,当然就没有内核或软硬件保护机制了。此电脑上的游戏大多跳过BIOS层次,直接控制硬件。 家用电脑C64的抽象架构 简单应用程序 机器语言(游戏直接操作) 8k BASIC ROM 8k ROM-BIOS 硬件(中央处理器、储存设备等) 早期最著名的磁盘启动型操作系统是CP/M,它支持许多早期的微电脑,且被MS-DOS大量抄袭其功能。 最早期的IBM PC其架构类似C64。当然它们也使用了BIOS以初始化与抽象化硬件的操作,甚至也附了一个BASIC解释器~但是它的BASIC优于其他公司产品的原因在于他有 可携性,并且兼容于任何符合IBM PC架构的机器上。这样的PC可利用Intel-8088处理器(16-bit寄存器)寻址,并最多可有1MB的内存,然而最初只有640KB。软式磁盘机取代了过去的磁带机,成为新一代的储存设备,并可在他512KB的空间上读写。为了支持更进一步的文件读写概念,磁盘操作系统(Disk Operating System,DOS)因而诞生。此操作系统可以合并任意数量的磁区,因此可以在一张磁盘片上放置任意数量与大小的文件。文件之间以档名区别。IBM并没有很在意其上的DOS,因此以向外部公司购买的方式取得操作系统。 1980年微软公司利用骗术取得了与IBM的合约,并且收购了一家公司出产的操作系统,在将之修改后以MS-DOS的名义出品,此操作系统可以直接让程序操作BIOS与文件系统。到了Intel-80286处理器的时代,才开始实作基本的储存设备保护措施。MS-DOS的架构并不足以满足所有需求,因为它同时只能执行最多一个程序(如果想要同时执进程式,只能使用TSR的方式来跳过OS而由程序自行处理多任务的部份),且没有任何内存保护措施。对驱动程序的支持也不够完整,因此导致诸如音效设备必须由程序自行设置的状况,造成不兼容的情况所在多有。某些操作的效能也是可怕地糟糕。许多应用程序因此跳过MS-DOS的服务程序,而直接存取硬件设备以取得较好的效能。虽然如此,但MS-DOS还是变成了IBM PC上面最常用的操作系统(IBM自己也有推出DOS,称为IBM-DOS或PC-DOS)。MS-DOS的成功使得微软成为地球上最赚钱的公司之一。 MS-DOS在个人电脑上的抽象架构 普通应用程序(Shell script、文本编辑器) MS-DOS(文件系统) BIOS(驱动程序) 硬件(中央处理器、储存设备等) 而1980年代另一个崛起的操作系统异数是Mac OS,此操作系统紧紧与麦金塔电脑捆绑在一起。此时一位全录伯拉图实验室的员工Dominik Hagen访问了苹果电脑的史蒂夫?乔布斯,并且向他展示了此时全录发展的图形化使用者界面。苹果电脑惊为天人,并打算向全录购买此技术,但因伯拉图实验室并非商业单位而是研究单位,因此全录回绝了这项买卖。在此之后苹果一致认为个人电脑的未来必定属于图形使用者界面,因此也开始发展自己的图形化操作系统。现今许多我们认为是基本要件的图形化接口技术与规则,都是由苹果电脑打下的基础(例如下拉式菜单、桌面图标、拖曳式操作与双点击等)。但正确来说,图形化使用者界面的确是全录创始的。 20世纪90年代 Apple I电脑,苹果电脑的第一代产品。延续80年代的竞争,1990年代出现了许多影响未来个人电脑市场深厚的操作系统。由于图形化使用者界面日趋繁复,操作系统的能力也越来越复杂与巨大,因此强韧且具有弹性的操作系统就成了迫切的需求。此年代是许多套装类的个人电脑操作系统互相竞争的时代。 上一年代于市场崛起的苹果电脑,由于旧系统的设计不良,使得其后继发展不力,苹果电脑决定重新设计操作系统。经过许多失败的项目后,苹果于1997年释出新操作系统——MacOS的测试版,而后推出的正式版取得了巨大的成功。让原先失意离开苹果的Steve Jobs风光再现。 除了商业主流的操作系统外,从1980年代起在开放原码的世界中,BSD系统也发展了非常久的一段时间,但在1990年代由于与AT&T的法律争端,使得远在芬兰赫尔辛基大学的另一股开源操作系统——Linux兴起。Linux内核是一个标准POSIX内核,其血缘可算是Unix家族的一支。Linux与BSD家族都搭配GNU计划所发展的应用程序,但是由于使用的许可证以及历史因素的作弄下,Linux取得了相当可观的开源操作系统市占率,而BSD则 小得多。 相较于MS-DOS的架构,Linux除了拥有傲人的可移植性(相较于Linux,MS-DOS只能运行在Intel CPU上),它也是一个分时多进程内核,以及良好的内存空间管理(普通的进程不能存取内核区域的内存)。想要存取任何非自己的内存空间的进程只能通过系统调用来达成。一般进程是处于使用者模式(User mode)底下,而执行系统调用时会被切换成内核模式(Kernel mode),所有的特殊指令只能在内核模式执行,此措施让内核可以完美管理系统内部与外部设备,并且拒绝无权限的进程提出的请求。因此理论上任何应用程序执行时的错误,都不可能让系统崩溃(Crash)。 几乎完整的Linux架构图 使用者 模式 应用程序(sh、vi、OpenOffice. org等) 复杂函数库(KDE、glib 等) 简单函数库(opendbm、sin 等) C函数库(open、fopen、socket、exec、calloc 等) 内核 模式 系统中断、调用、错误等软硬件消息 内核(驱动程序、进程、网络、内存管理等) 硬件(处理器、内存、各种设备) 另一方面,微软对于更强力的操作系统呼声的回应便是Windows NT于1999年的面世。 1983年开始微软就想要为MS-DOS建构一个图形化的操作系统应用程序,称为Windows(有人说这是比尔?盖兹被苹果的Lisa电脑上市所刺激)。 一开始Windows并不是一个操作系统,只是一个应用程序,其背景还是纯MS-DOS系统,这是因为当时的BIOS设计以及MS-DOS的架构不甚良好之故。 在1990年代初,微软与IBM的合作破裂,微软从OS/2(早期为命令行模式,后来成为一个很成功但是曲高和寡的图形化操作系统)项目中抽身,并且在1993年7月27日推出Windows 3.1,一个以OS/2为基础的图形化操作系统。 并在1995年8月15日推出Windows 95。 直到这时,Windows系统依然是建立在MS-DOS的基础上,因此消费者莫不期待微软在2000年所推出的Windows 2000上,因为它才算是第一个脱离MS-DOS基础的图形化操作系统。 下面的表格为Windows NT系统的架构:在硬件阶层之上,有一个由微内核直接接触的硬件抽象层(HAL),而不同的驱动程序以模块的形式挂载在内核上执行。因此微内核可以使用诸如输入输出、文件系统、网络、信息安全机制与虚拟内存等功能。而系统服务层提供所有统一规格的函数调用库,可以统一所有副系统的实作方法。例如尽管POSIX与OS/2对于同一件服务的名称与调用方法差异甚大,它们一样可以无碍地实作于系统服务层上。在系统服务层之上的副系统,全都是使用者模式,因此可以避免使用者程序执行非法行动。 简化版本的Windows NT抽象架构 使用者 模式 OS/2 应用程序 Win32 应用程序 DOS 程序 Win16 应用程序 POSIX 应用程序 其他DLL函数库 DOS 系统 Windows 模拟系统 OS/2 副系统 Win32 副系统 POSIX.1 副系统 内核 模式 系统服务层 输入输出管理 文件系统、网络系统 对象管理系统 / 安全管理系统 / 进程管理 / 对象间通讯管理 / 进程间通讯管理 / 虚拟内存管理 微内核 窗口管理程序 驱动程序 硬件抽象层(HAL) 图形驱动 硬件(处理器、内存、外部设备等) 副系统架构 第一个实作的副系统群当然是以前的微软系统。DOS副系统将每个DOS程序当成一进程执行,并以个别独立的MS-DOS虚拟机器承载其运行环境。另外一个是Windows 3.1模拟系统,实际上是在Win32副系统下执行Win16程序。因此达到了安全掌控为MS-DOS与早期Windows系统所撰写之旧版程序的能力。然而此架构只在Intel 80386处理器及后继机型上实作。且某些会直接读取硬件的程序,例如大部分的Win16游戏,就无法套用这套系统,因此很多早期游戏便无法在Windows NT上执行。 Windows NT有3.1、3.5、3.51与4.0版。 Windows 2000是Windows NT的改进系列(事实上是Windows NT 5.0)、Windows XP(Windows NT 5.1)以及Windows Server 2003(Windows NT 5.2)与Windows Vista(Windows NT 6.0)也都是立基于Windows NT的架构上。 而本年代渐渐增长并越趋复杂的嵌入式设备市场也促使嵌入式操作系统的成长。 现代操作系统通常都有一个使用的绘图设备的图形化使用者界面,并附加如鼠标或触控面版等有别于键盘的输入设备。旧的OS或效能导向的服务器通常不会有如此亲切的接口,而是以命令行接口(CLI)加上键盘为输入设备。以上两种接口其实都是所谓的壳,其功能为接受并处理使用者的指令(例如按下一按钮,或在命令提示列上键入指令)。 选择要安装的操作系统通常与其硬件架构有很大关系,只有Linux与BSD几乎可在所有硬件架构上执行,而Windows NT仅移植到了DEC Alpha与MIPS Magnum。 在1990年代早期,个人电脑的选择就已被局限在Windows家族、类Unix家族以及Linux上,而以Linux及Mac OS X为最主要的另类选择,直至今日。 大型机与嵌入式系统使用很多样化的操作系统。大型主机近期有许多开始支持Java及Linux以便共享其他平台的资源。嵌入式系统近期百家争鸣,从给Sensor Networks用的Berkeley Tiny OS到可以操作Microsoft Office的Windows CE都有。 2000年以后 至2005年为止,用于通用计算机上的分布的操作系统主要两个家族:类Unix家族和微软Windows家族。而主机系统和嵌入式操作系统使用多样的系统,并且很多和Windows、Unix都没有直接的联系。类Unix家族包括多个组织的操作系统,其中有几个主要的子类包括System V、BSD和Linux。这里'Unix'是一个商标,开发组织允许使用操作系统在一个定义前提下自由地开发。这名字是通用大型设置操作系统类似组织 Unix。Unix系统运行在从巨型机到嵌入式系统的多种机器架构上。Unix主要使用于重要的商务服务器系统以及学院和工程环境中的工作站之上。和 AT&T Unix不同,自由软件比如Linux和BSD逐步开始流行,并且开始进入桌面操作系统领域。和一些Unix操作系统不同,像惠普公司的HPUX和IBM 公司的AIX是设计仅运行在客户购买的设备上,其中有一些特殊的(比如SUN公司的Solaris)可以运行在客户购买设备和基于工业标准的PC上。 APPLE公司的Mac OS X 是一个BSD特例,以取代早期小型市场上的苹果公司Mac OS,众多流行的Unix操作系统正在走向一体。 微软公司的Windows操作系统家族起源于早期的IBM PC环境中的MS-DOS,现在版本是基于新的Windows NT内核,第一次是在OS/2中制定。和Unix不同,Windows只能运行在32位和64位的x86 CPU(如Intel或者AMD的芯片)上,尽管早期有版本运行于DEC Alpha,MIPS 和 PowerPC体系结构。今天Windows是一个流行的操作系统,在全球桌面市场中占有90%左右的份额,同时在中低端服务器市场也有广泛的应用,如 Web服务器和数据库服务器。 大型机系统,比如IBM公司的Z/OS,和嵌入式操作系统比如QNX、eCOs和PalmOS都是和Unix和Windows无关的操作系统,而 Windows CE、Windows NT Embedded 4.0和Windows XP Embedded都是和Windows相关的。 老的操作系统停留在市场包括类似IBM Windows的OS/2、来自惠普的VMS(以前的DEC);苹果公司的Mac OS操作系统、非Unix先驱苹果公司Mac OS X,以及AmigaOS,第一个图形用户界面的操作系统,包括对于普通用户的高级的多媒体能力。 编辑本段发展年表 1956年 GM-NAA I/O 1959年 SHARE Operating System 1960年 IBSYS 1961年 CTSS MCP (Burroughs Large Systems) 1962年 GCOS 1964年 EXEC 8 OS/360 (宣称) TOPS-10 1965年 Multics (宣称) OS/360 (上市) Tape Operating System (TOS) 1966年 DOS/360 (IBM) MS/8 1967年 ACP (IBM) CP/CMS ITS WAITS 1969年 TENEX Unix 1970年 DOS/BATCH 11 (PDP-11) 1971年 OS/8 1972年 MFT (operating system) MVT RDOS SVS VM/CMS 1973年 Alto OS RSX-11D RT-11 VME 1974年 MVS (MVS/XA) 1975年 BS2000 1976年 CP/M TOPS-20 1978年 Apple DOS 3.1 (苹果公司第一个操作系统) TripOS VMS Lisp Machine (CADR) 1979年 POS NLTSS 1980年 OS-9 QDOS SOS XDE (Tajo) Xenix 1981年 MS-DOS 1982年 Commodore DOS SunOS (1.0) Ultrix 1983年 Lisa OS Coherent Novell NetWare ProDOS 1984年 Macintosh OS (系统 1.0) MSX-DOS QNX UniCOS 1985年 AmigaOS Atari TOS MIPS OS Oberon operating system Microsoft Windows 1.0 (Windows第一版) 1986年 AIX GS-OS HP-UX 1987年 Arthur IRIX (SGI推出的第一个版本号是3.0) Minix OS/2 (1.0) Microsoft Windows 2.0 1988年 A/UX (苹果电脑) LynxOS MVS/ESA OS/400 1989年 NeXTSTEP (1.0) RISC OS SCO Unix (第三版) 1990年 Amiga OS 2.0 BeOS (v1) OSF/1 Microsoft Windows 3.0 1991年 SunOS 4.1.x Linux 1992年 386BSD 0.1 Amiga OS 3.0 Solaris 2.0 (SunOS 4.x的继承者,以SVR4为基础,而非BSD) Microsoft Windows 3.1 1993年 Solaris 2.1 Solaris 2.2 Solaris 2.3 Plan 9 (第一版) FreeBSD NetBSD Microsoft Windows NT 3.1 (第一版NT) 1994年 Solaris 2.4 1995年 Solaris 2.5 Digital UNIX (aka Tru64) OpenBSD OS/390 Microsoft Windows 95 1996年 Microsoft Windows95 OSR2(OSR=OEMServicerelease) (即:Windows 97) Microsoft Windows NT 4.0 1997年 Solaris 2.6 Inferno Mac OS 7.6 (第一版官方正式命名为Mac OS) SkyOS 1998年 Solaris 7 (第一款64位元Solaris版本,是2.7舍弃主版本号的称谓) Microsoft Windows 98 1999年 AROS Mac OS 8 Microsoft Windows 98 Second Edition 2000年 Solaris 8 AtheOS Mac OS 9 MorphOS Microsoft Windows 2000 Microsoft Windows Me Mac OS X Public Beta (公开测试版)(2000年9月13日) 2001年 Mac OS X 10.0 Cheetah(印度豹)(2001年3月24日) Amiga OS 4.0 (2001年5月) Mac OS X 10.1 Puma(美洲狮)(2001年9月25日) Microsoft Windows XP z/OS 2002年 Solaris 9 for SPARC Microsoft Windows XP 64-bit Edition Windows XP Tablet PC Edition Windows XP Media Center Edition Syllable Mac OS X 10.2 Jaguar(美洲虎)(2002年8月23日) 2003年 Solaris 9 for x86 Microsoft Windows Server 2003 (2003年3月28日) Microsoft Windows XP 64-bit Edition - 以Microsoft Windows Server 2003为基础,同一天 释出。 Mac OS X 10.3 Panther(黑豹)(2003年10月24日) 2004年 Microsoft Windows XP Media Center Edition 2005年 Solaris 10 Microsoft Windows XP Professional x64 Edition Mac OS X 10.4 Tiger(老虎)(2005年4月29日) 2006年 Microsoft Windows Vista 2007年 Mac OS X 10.5 Leopard(美洲豹)(2007年10月26日) 2008年 Ubuntu 8.04 LTS OpenSolaris 08/05 Ubuntu 8.10 OpenSolaris 08/11 Windows Server 2008 2009年 Ubuntu 9.04 Mac OS X v10.6 Snow Leopard (雪豹)(2009年8月28日) Windows Seven(windows 7) Ubuntu 9.10 Chrome OS 2010 年 ubuntu 10.04 ubuntu 10.10 编辑本段基本功能 操作系统的主要功能是资源管理,程序控制和人机交互等。计算机系统的资源可分为设 备资源和信息资源两大类。设备资源指的是组成计算机的硬件设备,如中央处理器,主存储器,磁盘存储器,打印机,磁带存储器,显示器,键盘输入设备和鼠标等。信息资源指的是存放于计算机内的各种数据,如文件,程序库,知识库,系统软件和应用软件等。 资源管理 系统的设备资源和信息资源都是操作系统根据用户需求按一定的策略来进行分配和调度的。操作系统的存储管理就负责把内存单元分配给需要内存的程序以便让它执行,在程序执行结束后将它占用的内存单元收回以便再使用。对于提供虚拟存储的计算机系统,操作系统还要与硬件配合做好页面调度工作,根据执行程序的要求分配页面,在执行中将页面调入和调出内存以及回收页面等。 处理器管理或称处理器调度,是操作系统资源管理功能的另一个重要内容。在一个允许多道程序同时执行的系统里,操作系统会根据一定的策略将处理器交替地分配给系统内等待运行的程序。一道等待运行的程序只有在获得了处理器后才能运行。一道程序在运行中若遇到某个事件,例如启动外部设备而暂时不能继续运行下去,或一个外部事件的发生等等,操作系统就要来处理相应的事件,然后将处理器重新分配。 操作系统的设备管理功能主要是分配和回收外部设备以及控制外部设备按用户程序的要求进行操作等。对于非存储型外部设备,如打印机、显示器等,它们可以直接作为一个设备分配给一个用户程序,在使用完毕后回收以便给另一个需求的用户使用。对于存储型的外部设备,如磁盘、磁带等,则是提供存储空间给用户,用来存放文件和数据。存储性外部设备的管理与信息管理是密切结合的。 信息管理是操作系统的一个重要的功能,主要是向用户提供一个文件系统。一般说,一个文件系统向用户提供创建文件,撤销文件,读写文件,打开和关闭文件等功能。有了文件系统后,用户可按文件名存取数据而无需知道这些数据存放在哪里。这种做法不仅便于用户使用而且还有利于用户共享公共数据。此外,由于文件建立时允许创建者规定使用权限,这就可以保证数据的安全性。 程序控制 一个用户程序的执行自始至终是在操作系统控制下进行的。一个用户将他要解决的问题用某一种程序设计语言编写了一个程序后就将该程序连同对它执行的要求输入到计算机内,操作系统就根据要求控制这个用户程序的执行直到结束。操作系统控制用户的执行主要有以下一些内容:调入相应的编译程序,将用某种程序设计语言编写的源程序编译成计算机可执行的目标程序,分配内存储等资源将程序调入内存并启动,按用户指定的要求处理执行中出现的各种事件以及与操作员联系请示有关意外事件的处理等。 人机交互 操作系统的人机交互功能是决定计算机系统―友善性‖的一个重要因素。人机交互功能主要靠可输入输出的外部设备和相应的软件来完成。可供人机交互使用的设备主要有键盘显示、鼠标、各种模式识别设备等。与这些设备相应的软件就是操作系统提供人机交互功能的部分。人机交互部分的主要作用是控制有关设备的运行和理解并执行通过人机交互设备传来的有关的各种命令和要求。早期的人机交互设施是键盘显示器。操作员通过键盘打入命令,操作系统接到命令后立即执行并将结果通过显示器显示。打入的命令可以有不同方式,但每一条命令的解释是清楚的,唯一的。随着计算机技术的发展,操作命令也越来越多,功能也越来越强。随着模式识别,如语音识别、汉字识别等输入设备的发展,操作员和计算机在类似于自然语言或受限制的自然语言这一级上进行交互成为可能。此外,通过图形进行人机交互也吸引着人们去进行研究。这些人机交互可称为智能化的人机交互。这方面的研究工作正在积极开展。 编辑本段管理方法 操作系统位于底层硬件与用户之间,是两者沟通的桥梁。用户可以通过操作系统的用户界面,输入命令。操作系统则对命令进行解释,驱动硬件设备,实现用户要求。以现代观点而言,一个标准个人电脑的OS应该提供以下的功能: 进程管理(Processing management) 记忆空间管理(Memory management) 文件系统(File system) 网络通讯(Networking) 安全机制(Security) 使用者界面(User interface) 驱动程序(Device drivers) 进程管理 不管是常驻程序或者应用程序,他们都以进程为标准执行单位。当年运用冯纽曼架构建造电脑时,每个中央处理器最多只能同时执行一个进程。早期的OS(例如DOS)也不允许任何程序打破这个限制,且DOS同时只有执行一个进程(虽然DOS自己宣称他们拥有终止并等待驻留(TSR)能力,可以部分且艰难地解决这问题)。现代的操作系统,即使只拥有一个CPU,也可以利用多进程(multitask)功能同时执行复数进程。进程管理指的是操作系统调整复数进程的功能。 由于大部分的电脑只包含一颗中央处理器,在单内核(Core)的情况下多进程只是简单迅速地切换各进程,让每个进程都能够执行,在多内核或多处理器的情况下,所有进程通过许多协同技术在各处理器或内核上转换。越多进程同时执行,每个进程能分配到的时间比率就越小。很多OS在遇到此问题时会出现诸如音效断续或鼠标跳格的情况(称做崩溃(Thrashing),一种OS只能不停执行自己的管理程序并耗尽系统资源的状态,其他使用者或硬件的程序皆无法执行)。进程管理通常实现了分时的概念,大部分的OS可以利用指定不同的特权等级(priority),为每个进程改变所占的分时比例。特权越高的进程,执行优先级越高,单位时间内占的比例也越高。交互式OS也提供某种程度的回馈机制,让直接与使用者交互的进程拥有较高的特权值。 除了进程管理之外,OS尚有担负起进程间通讯(IPC)、进程异常终止处理以及死结(Dead lock)侦测及处理等较为艰深的问题。 在进程之下尚有线程的问题,但是大部分的OS并不会处理线程所遭遇的问题,通常OS仅止于提供一组API让使用者自行操作或通过虚拟机器的管理机制控制线程之间的交互。 内存管理 根据帕金森定律:―你给程序再多内存,程序也会想尽办法耗光‖,因此程序设计师通常希望系统给他无限量且无限快的内存。大部分的现代电脑内存架构都是阶层式的,最快且数量最少的寄存器为首,然后是高速缓存、内存以及最慢的磁盘储存设备。而OS的内存管理提供寻找可用的记忆空间、配置与释放记忆空间以及交换内存和低速储存设备的内含物……等功能。此类又被称做虚拟内存管理的功能大幅增加每个进程可获得的记忆空间(通常是4GB,即使实际上RAM的数量远少于这数目)。然而这也带来了微幅降低执行效率的缺点,严重时甚至也会导致进程崩溃。 内存管理的另一个重点活动就是借由CPU的帮助来管理虚拟位置。如果同时有许多进程储存于记忆设备上,操作系统必须防止它们互相干扰对方的内存内容(除非通过某些协议在可控制的范围下操作,并限制可存取的内存范围)。分割内存空间可以达成目标。每个进程只会看到整个内存空间(从0到内存空间的最大上限)被配置给它自己(当然,有些位置被OS保留而禁止存取)。CPU事先存了几个表以比对虚拟位置与实际内存位置,这种方法 称为分页(paging)配置。 借由对每个进程产生分开独立的位置空间,OS也可以轻易地一次释放某进程所占据的所有内存。如果这个进程不释放内存,OS可以退出进程并将内存自动释放。 编辑本段详细分类 目前的操作系统种类繁多,很难用单一标准统一分类。 根据应用领域来划分,可分为桌面操作系统、服务器操作系统、主机操作系统、嵌入式操作系统; 根据所支持的用户数目,可分为单用户(MSDOS、OS/2、Windows)、多用户系统(UNIX、MVS); 根据源码开放程度,可分为开源操作系统(Linux、Chrome OS)和不开源操作系统(Windows、Mac OS); 根据硬件结构,可分为网络操作系统(Netware、Windows NT、OS/2 warp)、分布式系统(Amoeba)、多媒体系统(Amiga); 根据操作系统的使用环境和对作业处理方式来考虑,可分为批处理系统(MVX、DOS/VSE)、分时系统( Linux、UNIX、XENIX、Mac OS)、实时系统(iEMX、VRTX、RTOS,RT WINDOWS); 根据操作系统的技术复杂程度,可分为简单操作系统、智能操作系统(见智能软件)。所谓的简单操作系统,指的是计算机初期所配置的操作系统,如IBM公司的磁盘操作系统DOS/360和微型计算机的操作系统CP/M等。这类操作系统的功能主要是操作命令的执行,文件服务,支持高级程序设计语言编译程序和控制外部设备等。 下面介绍一下操作系统的五大类型:批处理操作系统、分时操作系统、实时操作系统、网络操作系统、分布式操作系统。 1. 批处理操作系统 批处理(Batch Processing)操作系统的工作方式是:用户将作业交给系统操作员,系统操作员将许多用户的作业组成一批作业,之后输入到计算机中,在系统中形成一个自动转接的连续的作业流,然后启动操作系统,系统自动、依次执行每个作业。最后由操作员将作业结果交给用户。 批处理操作系统的特点是:多道和成批处理。 2(分时操作系统 分时(Time Sharing)操作系统的工作方式是:一台主机连接了若干个终端,每个终端有一个用户在使用。用户交互式地向系统提出命令请求,系统接受每个用户的命令,采用时间片轮转方式处理服务请求,并通过交互方式在终端上向用户显示结果。用户根据上步结果发出下道命。分时操作系统将CPU的时间划分成若干个片段,称为时间片。操作系统以时间片为单位,轮流为每个终端用户服务。每个用户轮流使用一个时间片而使每个用户并不感到有别的用户存在。分时系统具有多路性、交互性、―独占‖性和及时性的特征。多路性指,伺时有多个用户使用一台计算机,宏观上看是多个人同时使用一个CPU,微观上是多个人在不同时刻轮流使用CPU。交互性是指,用户根据系统响应结果进一步提出新请求(用户直接干预每一步)。―独占‖性是指,用户感觉不到计算机为其他人服务,就像整个系统为他所独占。及时性指,系统对用户提出的请求及时响应。它支持位于不同终端的多个用户同时使用一台计算机,彼此独立互不干扰,用户感到好像一台计算机全为他所用。 常见的通用操作系统是分时系统与批处理系统的结合。其原则是:分时优先,批处理在后。―前台‖响应需频繁交互的作业,如终端的要求; ―后台‖处理时间性要求不强的作业。 3(实时操作系统 实时操作系统(RealTimeOperatingSystem,RTOS)是指使计算机能及时响应外部事件的请 求在规定的严格时间内完成对该事件的处理,并控制所有实时设备和实时任务协调一致地工作的操作系统。实时操作系统要追求的目标是:对外部请求在严格时间范围内做出反应,有高可靠性和完整性。其主要特点是资源的分配和调度首先要考虑实时性然后才是效率。此外,实时操作系统应有较强的容错能力。 4(网络操作系统 网络操作系统是基于计算机网络的,是在各种计算机操作系统上按网络体系结构协议标准开发的软件,包括网络管理、通信、安全、资源共享和各种网络应用。其目标是相互通信及资源共享。在其支持下,网络中的各台计算机能互相通信和共享资源。其主要特点是与网络的硬件相结合来完成网络的通信任务。 5(分布式操作系统 它是为分布计算系统配置的操作系统。大量的计算机通过网络被连结在一起,可以获得极高的运算能力及广泛的数据共享。这种系统被称作分布式系统(DistributedSystem) 。它在资源管理,通信控制和操作系统的结构等方面都与其他操作系统有较大的区别。由于分布计算机系统的资源分布于系统的不同计算机上,操作系统对用户的资源需求不能像一般的操作系统那样等待有资源时直接分配的简单做法而是要在系统的各台计算机上搜索,找到所需资源后才可进行分配。对于有些资源,如具有多个副本的文件,还必须考虑一致性。所谓一致性是指若干个用户对同一个文件所同时读出的数据是一致的。为了保证一致性,操作系统须控制文件的读、写、操作,使得多个用户可同时读一个文件,而任一时刻最多只能有一个用户在修改文件。分布操作系统的通信功能类似于网络操作系统。由于分布计算机系统不像网络分布得很广,同时分布操作系统还要支持并行处理,因此它提供的通信机制和网络操作系统提供的有所不同,它要求通信速度高。分布操作系统的结构也不同于其他操作系统,它分布于系统的各台计算机上,能并行地处理用户的各种需求,有较强的容错能力。 分类一 早期操作系统(专利保护) TRS-DOS,ROM OS's TI99-4 Commodore PET,64,和 VIC-20, 第一套IBM-PC 苹果电脑 Sinclair Micro和QnX等 非Unix商业操作系统 CP/M操作系统 MP/M-80 UCSD P-system Mini-FLEX SSB-DOS CP/M-86 DR-DOS FreeDOS MS-DOS PC-DOS Mach 由卡纳尼基梅隆大学研究 L4微内核 第二代微内核 CHORUS Choices Multics OS-9 NSJ Netware:一种网络服务器操作系统 Unix及类似系统 A/UX(Apple UNIX) Unix 微软Xenix ChorusOS Cromix UNIflex OS-9 IBM的AIX BSD FreeBSD NetBSD OpenBSD DragonFly BSD PC-BSD Digital UNIX,即之后康柏Tru64 DNIX HP的HP-UX GNU/Hurd SGI的IRIX Inferno Linux(或称GNU/Linux) Mac OS X MenuetOS Minix OSF/1 Plan9 SCO的SCO UNIX Sun的SunOS,即之后的Solaris System V Ultrix UniCOS 麒麟操作系统(Kylin),由国防科技大学、中软公司、联想公司、浪潮公司和民族恒星公 司五家单位合作研制的服务器操作系统 OS/390 z/OS Syllable 其他 Acorn Arthur ARX RISC OS RISCiX Amiga AmigaOS Atari ST TOS MultiTOS MiNT 分类二 苹果电脑(Apple/Macintosh) Apple DOS ProDOS Mac OS Mac OS X Mac OS X 10.4 Tiger Mac OS X 10.5 Leopard Mac OS X 10.6 Snow Leopard (Alpha) pink OS BeOS A/UX Be BeOS BeIA Digital/康柏(Compaq) AIS OS-8 RSTS/E RSX-11 RT-11 TOPS-10 TOPS-20 VMS(后更名为OpenVMS) IBM OS/2 AIX OS/400 OS/390 VM/CMS DOS/VSE VSE/SP VSE/ESA OS/360 MFT MVT SVS MVS TPF ALCS z/OS PC-DOS pink OS 微软(Microsoft) MS-DOS Xenix Microsoft Bob 基于MS-DOS操作系统的Windows Windows 1.0 Windows 2.0 Windows 3.1 Windows 95 Windows 98 Windows ME Windows NT Windows NT 3.5 Windows NT 4 Windows 2000 Windows XP Windows XP SP1 Windows XP SP2 Windows XP SP3 Windows XP Media Center Edition Windows XP Home Edition Windows XP Tablet PC Edition Windows XP Professional Windows XP Professional x64 Edition Windows Server 2003 Windows Server 2003 64-bit Edition Windows Vista Windows Vista SP1 Windows Vista Home Basic Windows Vista Home Premium Windows Vista Business Windows Vista Ultimate Windows Vista Enterprise Windows Vista Starter Windows Server 2008 Windows Server "Longhorn" Web x86 Windows Server "Longhorn" Web x64 Windows Server "Longhorn" Standard x86 Windows Server "Longhorn" Standard x64 Windows Server "Longhorn" Enterprise x86 Windows Server "Longhorn" Enterprise x64 Windows Server "Longhorn" Datacenter x86 Windows Server "Longhorn" Datacenter x64 Windows 7 Windows 7 Home Basic Windows 7 Starter Windows 7 Home Premium Windows 7 Professional Windows 7 Enterprise Windows 7 Ultimate Windows Server 2008 R2 Novell NetWare Unixware SUSE Linux NeXT NEXTSTEP(即之后的Mac OS X) Plan 9 Inferno Prime Computer Primos 西门子 BS2000 - 用于西门子公司的大型主机。 SINIX(也称Reliant UNIX) - 用于西门子公司的UNIX电脑系统。 分类三 个人电子助理(PDA)操作系统 Palm OS Pocket PC EPOC Microsoft Windows CE Linux 智能手机操作系统 Windows Mobile系列;windows phone 7 Embedded Linux由Montavista创造,在Motorola's A760,E680等机型上使用 Mobilinux由Montavista创造 Symbian OS系列 MeeGo(诺基亚与Intel联合宣布将推出一个全新的开源平台) Android(Google手机操作系统) 国产手机系统 MTK系统(MTK是台湾联发科技股份有限公司的英文简称,英文全称叫MediaTek。) 分类四 个人电脑 个人电脑市场从硬件架构上来说目前分为两大阵营,PC机与Apple电脑。 它们支持的操作系统: 1Windows系列操作系统 由微软公司生产; 2 Unix类操作系统 如SOLARIS,BSD系列(FREEBSD,openbsd,netbsd,pcbsd); 3 Linux类操作系统 如Ubuntu,Suse Linux,Fedora,等 4 Mac操作系统 由苹果公司生产(Darwin),一般安装于MAC电脑。 大型电脑 最早的操作系统是针对20世纪60年代的大型主结构开发的,由于对这些系统在软件方面做了巨大投资,因此原来的计算机厂商继续开发与原来操作系统相兼容的硬件与操作系统。这些早期的操作系统是现代操作系统的先驱。现在仍被支持的大型主机操作系统包括: Burroughs MCP-- B5000,1961 to Unisys Clearpath/MCP, present. IBM OS/360 -- IBM System/360, 1964 to IBM zSeries, present UNIVAC EXEC 8 -- UNIVAC 1108, 1964, to Unisys Clearpath IX, present. 现代的大型主机一般也可运行Linux或Unix变种。 嵌入式系统 嵌入式系统使用非常广泛的操作系统(如VxWorks、eCos、Symbian OS及Palm OS)以及某些功能缩减版本的Linux或者其他操作系统。某些情况下,OS指称的是一个内置了固定应用软件的巨大泛用程序。在许多最简单的嵌入式系统中,所谓的OS就是指其上唯一的应用程序。 分类五 类Unix系统 一个在Linux底下执行的客制化KDE桌面系统所谓的类Unix家族指的是一族种类繁多的OS,此族包含了System V、BSD与Linux。由于Unix是The Open Group的注册商标,特指遵守此公司定义的行为的操作系统。而类Unix通常指的是比原先的Unix包含更多特征的OS。 Unix系统可在非常多的处理器架构下执行,在服务器系统上有很高的使用率,例如大专院校或工程应用的工作站。自由软件Unix变种,例如Linux与BSD近来越来越受欢迎,它们也在个人桌面电脑市场上大有斩获,例如Ubuntu系统,但大部分都是电脑高手在使用。 某些Unix变种,例如HP的HP-UX以及IBM的AIX仅设计用于自家的硬件产品上,而SUN的Solaris可安装于自家的硬件或x86电脑上。苹果电脑的Mac OS X是一个从NeXTSTEP、Mach以及FreeBSD共同派生出来的微内核BSD系统,此OS取代了苹果电脑早期非Unix家族的Mac OS。经历数年的披荆斩棘,自由开源的Unix系统逐渐蚕食鲸吞以往专利软件的专业领域,例如以往电脑动画运算巨擘??SGI的IRIX系统已被Linux家族及Plan 9[3]丛集所取代。 Linux系统 Linux的是一套免费的32位和64位的多人多工的操作系统,运行方式同UNIX系统很 像,但Linux系统的稳定性、多工能力与网络功能已是许多商业操作系统无法比拟的,Linux还有一项最大的特色在于源代码完全公开,在符合GNU GPL(General Public License)的原则下,任何人皆可自由取得、散布、甚至修改源代码。 LINUX吉祥物 就Linux的本质来说,它只是操作系统的核心,负责控制硬件、管理文件系统、程序进程等。Linux Kernel(内核)并不负责提供用户强大的应用程序,没有编译器、系统管理工具、网络工具、Office套件、多媒体、绘图软件等,这样的系统也就无法发挥其强大功能,用户也无法利用这个系统工作,因此有人便提出以Linux Kernel为核心再集成搭配各式各样的系统程序或应用工具程序组成一套完整的操作系统,经过如此组合的Linux套件即称为Linux发行版。 国内Linux发行版做的相对比较成功是红旗和中软两个版本,界面做得都非常的美观,安装也比较容易,新版本逐渐屏蔽了一些底层的操作,适合于新手使用。两个版本都是源于中国科学院软件研究所承担的国家863计划的Linux项目,但无论稳定性与兼容性与国外的版本相比都有一定的差距,操作界面与习惯与 Windows越来越像,提供一定技术支持和售后服务,适宜于国内做低价的操作系统解决方案。 微软Windows Microsoft Windows 系列操作系统是在微软给IBM机器设计的MS-DOS的基础上设计的图形操作系统。现在的Windows系统,如Windows 2000、Windows XP皆是建立于现代的Windows NT内核。NT内核是由OS/2和OpenVMS等系统上借用来的。 Windows 可以在32位和64位的Intel和AMD的处理器上运行,但是早期的版本也可以在DEC Alpha、MIPS与PowerPC架构上运行。 虽然由于人们对于开放源代码作业系统兴趣的提升,Windows的市场占有率有所下降,但是到2004年为止,Windows操作系统在世界范围内占据了桌面操作系统90%的市场。[4] Windows系统也被用在低阶和中阶服务器上,并且支持网页服务的数据库服务等一些功能。最近微软花费了很大研究与开发的经费用于使Windows拥有能运行企业的大型程序的能力。 WindowsXP在2001年10月25日发布,2004年8月24日发布最新的升级包WindowsXP Service Pack 2。 微软最新的操作系统 Windows 7 苹果Mac OS 苹果Mac OS系列操作系统是苹果公司 (原称苹果电脑)给苹果个人电脑系列设计的OS。 其他 大型主机以及嵌入式操作系统均与Unix或Windows家族关系不大,除了Windows CE、Windows NT Embedded 4.0及Windows XP Embedded是Windows的血亲产品,以及数种*BSD和嵌入式Linux包为例外。 少数较旧的OS今日依然在一些需要稳定性的市场中活跃,例如IBM的OS/2[6]BeOS以及XTS-400。 在达康时代狂潮过后,如AmigaOS与RISC OS等少数人使用的OS依然持续建立,以满足狂热的爱好者社群与特殊专业使用者。 未来 研究与建立未来的操作系统依旧进行著。操作系统朝提供更省电、网络化、华丽的使用者界面的方向来改进。Linux及一些类UNIX OS正努力让自己成为个人用户舒适的环境。GNU Hurd是一个企图完全兼容Unix并加强许多功能的微内核架构。微软Singularity是一个奠基于.Net并以建立较佳内存保护机制为目目标研究计划。 编辑本段实用操作 让操作系统不再假死机的高招(针对windows系列操作系统) 一、修改注册表,远离假死机困扰 很多假死机是由于运行的程序没有响应造成的。比如你在同一时间打开或启动的程序过多,导致系统资源消耗严重,就会出现程序停止响应的情况,这时我们可以按下―Ctrl+Alt+Del‖组合键,在弹出的列表中选定标注为―没有响应‖的程序项(如果有两个,则首先关闭上级程序),点击―结束任务‖令其强行关闭即可让系统恢复正常运行,不过有时即使出现了―正在关闭……(该程序)‖提示窗口,也会很长时间没有反应,遇到这种情况,我们可以修改注册表以达到快速关闭没有响应的程序以及允许强行关机的目的。 1.快速关闭没有响应的程序 在―开始‖―运行‖框中输入―Regedit‖,打开―注册表编辑器‖,在―HKEY_CURRENT_USER‖下新建串值―Waittokillapptimeout‖,将其键值设为―1000‖(ms)或更小。如果采用了上述办法仍很长时间没有反应,就只得强行关机或重新启动了,不过最好先进行以下修改,以最大限度地减小死机对机器的损伤。 2.允许强行关机 进入―HEKY_USERS.DEFAULTControl Paneldesktop‖,创建一个字符串―AutoEndTask‖,将其键值设为―1‖即可。对于真正的死机,一般只能两次按下―Ctrl+Alt+Del‖组合键或按主机箱上的―Reset‖键来重新启动了。 3.系统死机时自动重新启动 进入―HKEY_LOCAL_MACHINESystemCurrentControlSetControlCrashControl‖主键,在右边的窗口中修改―AutoReboot‖,将其键值改为―1‖ 小提示:上述注册表的修改在Windows的不同版本中情况可能不一样,如果没有相应 键值,请勿随意添加。 二、采取相应对策,远离假死机困扰 相信任何朋友在计算机应用中,都或多或少地遭遇过各种各样―假死‖这一严重影响运行效率的―顽疾‖。但―假死‖并非是解不开的魔咒,采取相应的手段可以减缓、甚至避免这一现象的发生。 关于对付较大AVI视频文件假死现象 一些朋友下载了不少电影,但有时在单击较大的AVI视频文件时,WinXP SP1往往会停止响应(WinXP SP1以上版本此问题已有较大改观),在进程中察看,发现Explorer.exe进程的CPU占用率100%,占用时间居然长达两个小时! 其实这是微软系统的缺陷:在资源管理器中单击较大的AVI文件时,系统需要先扫描该文件,执行一次循环来检查文件的所有部分,以便建立索引,假如文件较大(超过700MB)且文件中没有索引信息,系统查询该文件的索引所需的时间也较长,CPU使用率也较高。目前微软已经有针对WinXP SP1以上版本的修复工具,但只有正版用户可以到指定地址下载。 如何才能有效解决这一问题?方法很简单:右键单击目标文件夹,选择―属性-常规-高级‖,去掉―为了快速搜索,允许索引服务编制该文件夹的索引‖前面复选框的对勾,然后点击确定并应用,系统会问你是否将更改应用到所有文件夹和文件,假如实在受不了这项索引服务,就选择应用到所有文件夹,问题就会迎刃而解。 关于系统的任务栏假死现象 有时用户再操作过程中想在任务栏中切换窗口时,忽然发现点击任务栏中的图标没有任何反应了,就像系统死机一样,这就是Windows XP中常见的任务栏失去响应,又被称为―任务栏假死现象‖。 原来这是Windows XP的―高级文字服务‖功能出错造成的。Windows XP的―高级文字服务‖包括了语音、手写和中文键盘输入服务,我们常用的输入法在Windows XP中也被归入高级文字服务。但是某些服务,如手写或语音功能可能与某些软件存在冲突,最明显的反映就是任务栏失去响应。例如我们清除文档记录点击―确定‖或者打开多个IE快速关闭时,任务栏假死现象就很可能发生。 其实高级文字服务中的语音、手写功能使用的人并不多,我们完全可以将其关闭。打开―控制面板‖,点击―切换到经典视图‖,双击―区域和语言选项‖,在对话框中点击―语言‖标签,再单击―详细信息‖按钮,在打开的―文字服务和输入语言‖对话框中点击―语言栏‖,选中―关闭高级文字服务‖选项后保存设置即可 由于中文输入法也属于高级文字服务的一部分,因此关闭服务后导致的结果就是输入法切换栏消失,我们就只能用快捷键―Ctrl+Shift‖来切换输入法了。 编辑本段操作系统门户 网站简介 雨林木风操作系统门户(以下简称―门户网‖)是雨林木风旗下的垂直类 IT 专业网站。门户网是由雨林木风交流论坛整合转型,致力于为网友打造一个以操作系统为主的全方位技术知识与资讯平台。门户网集Windows、Linux、手机系统、软件为一体,为网友提供软件资讯、应用、评测、软件下载等资讯内容及使用技巧。海量学习资源,经验丰富的技术专家团队及时解答操作系统相关疑难问题,提供全面、权威、专业的系统疑难问题一站式解决方案,使网友由菜鸟向电脑技术精英完美蜕变。 词条图册更多图册
/
本文档为【笔记本硬件参数详解大全】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。 本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。 网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。

历史搜索

    清空历史搜索