为了正常的体验网站,请在浏览器设置里面开启Javascript功能!

重装显卡驱动程序 显卡驱动程序在哪 ati显卡驱动

2017-09-18 7页 doc 21KB 58阅读

用户头像

is_841159

暂无简介

举报
重装显卡驱动程序 显卡驱动程序在哪 ati显卡驱动重装显卡驱动程序 显卡驱动程序在哪 ati显卡驱动 重装显卡驱动程序 显卡驱动程序在哪 ati显卡驱动 重装显卡驱动程序显卡驱动程序在哪ati显卡驱动win7 模拟2D的"辉煌"与"没落" 从1995年开始,24位(真彩)的2D显示技术开始普及。那时候,很多显卡都使用外置的独立RAMDAC芯片。所谓的RAMDAC芯片,它的英文全称是Random Access Memory Digital/Analog Converter,即随机存储器数字/模拟变换芯片。这颗芯片的作用就是将显示核心送过来的数据暂存,然后进行LUT*查...
重装显卡驱动程序 显卡驱动程序在哪 ati显卡驱动
重装显卡驱动程序 显卡驱动程序在哪 ati显卡驱动 重装显卡驱动程序 显卡驱动程序在哪 ati显卡驱动 重装显卡驱动程序显卡驱动程序在哪ati显卡驱动win7 模拟2D的"辉煌"与"没落" 从1995年开始,24位(真彩)的2D显示技术开始普及。那时候,很多显卡都使用外置的独立RAMDAC芯片。所谓的RAMDAC芯片,它的英文全称是Random Access Memory Digital/Analog Converter,即随机存储器数字/模拟变换芯片。这颗芯片的作用就是将显示核心送过来的数据暂存,然后进行LUT*查表映射,最后将显卡的数字信号转变成模拟信号进行输出。 *注释:"LUT"是指一个数字调色板,它用来存储色彩修正的数据表,显示核心送过来的数据要先经过查表操作,然后才能找到要映射的"目标值"。 图1图中标示为VIDEO字样的芯片就是TI的RAMDAC RAMDAC芯片中以产自IBM和TI(德州仪器)的为佳,其线性度、频响、噪声控制都相当优秀。得益于高品质的外置RAMDAC,当时的显卡产品中有很多2D表现非常优秀的产品,如很多老玩家耳熟能详的MGA Millenium 2(图1)。由于受当时半导体技术的限制,Millenium 2的最大分辨率被限制在1600×1200@75Hz,但是在有效频响范围内(1280×960@85Hz或者更低),其通透感和清晰度甚至超过了日后的幻日系列显卡(关闭亿彩模式后测试,"亿彩"又称作GigaColor,即显卡使用10bit色深对每一个颜色通道进行处理,Windows默认为8bit)。 图2早期2D效果非常好的MGA Millenium 2显卡(上)和Matrox幻日系列显卡(下),前者使用外置式RAMDAC芯片而后者则是内置的。幻日系列显卡是目前公认2D显示效果最佳的显卡之一,原因之一就在于其使用了亿彩技术,即内部使用10bit对每一个色彩分量进行计算 Millenium 2的2D显示效果可以超过半导体技术远在其之上的幻日系列显卡,一个非常合乎逻辑的解释就是:由于使用外置RAMDAC,可以减少显示核心 对DAC(数字模拟转换)的干扰;与此同时,外置RAMDAC靠近输出口,这样一来RGB传输线的距离比较短,所以在传输过程中串入的外界干扰就比较小。科学的设计再加上外置RAMDAC的优势,最终使得Millenium 2可以输出优秀的2D画质。 随着显示芯片集成度的提高,1998年之后外置RAMDAC开始从显卡上面消失。当时将RAMDAC整合到显示芯片中去的初衷是为了降低成本,而且根据当时的显示技术来说,3D对2D的影响非常有限,所以从那时起一直到现在几乎所有的显卡都是清一色的内置RAMDAC。 事隔多年之后,无论是显示核心的频率还是功率都远超过当初人们的预想,集成RAMDAC的负面作用也开始表现出来。大功率显示芯片对内置RAMDAC电路的影响已经不能忽略,而且当(RAMDAC的)频率超过250MHz时,多数人已经可以用肉眼发现2D输出品质的下降。事实上并非到今天工程师们才开始注意到这个问题-早在FX时代,NVIDIA就开始着手2D/3D分频的设计,其中也许就包含了这方面的考虑。 "平板时代"的2D信号可以免俗吗? 也许有朋友会说,前面你们介绍的都是模拟信号的2D问题,大家也很容易理解;但是现在都进入数字接口的时代了,我们还会有2D问题的困扰么? 乍看起来,2D的烦恼似乎离我们远去了,但其实不然。伴随着平板显示器的流行,DVI-D*作为信号输出的方式开始流行,但是这种方式仍然需要用到TMDS(Transition Minimized differential Signaling,最小化传输差分信号)编码芯片。 *注释:DVI-I的数字部分与DVI-D类似,所以我们只介绍DVI-D。 图3专业显卡多使用外置式的TMDS芯片来保证输出质量,对于超大屏幕的显示甚至可以利用多个端口共同输出(分别输出一帧画面的不同部分)。图示为FireGL V7100(上)和Quadro FX 5500(下) 和RAMDAC的遭遇非常类似,TMDS芯片最初也是外置的,但是后来为了削减成本的需要集成到显示芯片内部。但因为干扰以及工作温度等问题,内置式 的TMDS芯片没有外置的那么好用,对高分辨率的支持始终让人难以放心。现在敢在官方资料中注明支持1920×1200@60Hz的显卡屈指可数,从侧面也反映了这方面的问题。 "集成芯片"的麻烦 其次,温度也是一个亟待解决的麻烦。GPU/VPU(计算部分电路)可以耐热,但是RAMDAC和TMDS却要付出不小的代价-随着温度的升高,RAMDAC的可用工作频率就会下降。所谓的可用工作频率就是指在当前温度下,RAMDAC可以实现良好输出信号的最高工作频率;当输出信号的分辨率和刷新率确定之后,RAMDAC实际上就会工作在一个确定的频率下,如果这个频率高于可用频率,虽然也有输出但是输出信号的幅度就会减弱(这对信号的稳定性来说非常不利)。TMDS电路的输出驱动电路与RAMDAC的输出驱动电路属于同一个类型,因此高温也会造成TMDS的可用频率下降。例如幻日显卡上面的7301C芯片负责TMDS输出,使用范围为0~70?。 图4 GeForce 8800GTX/GTS(G80)是首批上市的DirectX 10显卡 图5在G80显卡的布局中,因为位宽太高所以在电路设计时GPU完全被显存包了起来。上面为Radeon X1900XTX,下边是GeForce 8800GTX。 如果说在以前这些问题我们还可以"勉强忍受",那么DirectX 10顶级显卡的问世则将事态升级为不可调和的矛盾。从现有资料来看,无论是G80还是R600的晶体管集成规模和频率无疑都是空前的,5亿多个晶体管、1350MHz的Shader单元工作频率这些因素意味着巨大的干扰和发热问题。而384bit的显存位宽,只能让显存放在GPU和输出接口之间,干扰的问题会更加严重(图5)。 如果此时仍然使用传统的内置RAMDAC、TMDS,结果只能是糟糕到极点的2D输出质量、DVI-D没有办法点亮高分辨率LCD或者是勉强点亮后出现大量的拉丝、噪点。模拟输出则会因为强烈的干扰导致色纯和通透感严重下降,色彩暗淡且无法保证高分辨率下的清晰度。 最要命的是随着新一代操作系统Windows Vista的发布,这个操作系统能够支持10bit乃至更高的色深。如果G80继续使用集成RAMDAC的话,估计 10bit精度是没什么指望了(干扰太多色彩细节将无法表现)。DVI-D的情况也不妙,10bit色深要求更高的输出信息量,如果依然使用内置的TMDS,在对付现有的8bit色深时已经很勉强,更别说10bit了-10bit色深所容纳的信息量是8bit的4倍。 G80的革命性解决 面对严峻的形势,NVIDIA当然不会让这样的事情发生。那解决办法只有一个,使用独立的2D芯片进行输出,把RAMDAC和TMDS外置。从简化PCB(印刷电路板)设计和I/O(输入输出)方面考虑,合适的选择是使用一片独立的芯片同时集成双头显示需要的RAMDAC和TMDS,而这颗芯片就是我们在GeForce 8800系列上看到的NVIO芯片。 图6 NVIO这颗芯片的作用就是整合了双头输出所需要的全部RAMDAC与TMDS电路 现在大家又在思考新的问题了,这个NVIO可以达到什么样的输出水平呢?从NVIO周围的供电电路来分析,这颗芯片的作用显然不仅仅局限于2D信号的输出,那么除此之外这颗芯片还有什么功用呢?这种设计对3D性能的提高有没有影响?这些问题都值得我们去一探究竟。 首先,电磁干扰的强度和干扰源与工作电路的距离成反比关系。如果干扰源远离工作电路,那么工作电路所受到的干扰就会大大减少。比起内置式的RAMDAC与TMDS,NVIO的这种设计无疑可以减少电磁干扰对2D部分的影响,从而使RAMDAC/TMDS输出更加纯净的信号。 与此同时,独立芯片可以放在靠近输出口的地方,这样一来走线的长度就可大大缩短,也可以减少GPU、显存以及大功率供电电路对输出信号的影响。 其次,外置式的独立芯片还解决了生产工艺的问题。以往2D和3D在电路设计思路上的冲突得到很好的解决-既然是独立芯片,自然可以使用专门针对RAMDAC和TMDS优化过的工艺,而不用顾及与3D电路生产工艺方面的冲突。 最后,外置芯片减少了GPU对2D输出电路的烘烤作用。这样一来,虽然面对GeForce 8800GTX这样怪兽级别的发热大户,2D输出电路依然可以工作在比较合适的温度下,这对信号的稳定性有莫大的帮助。 虽然外置式的NVIO有众多的好处,但是还有一个非常现实的问题,那就是独立芯片成本的控制。因为大家都知道当初把RAMDAC和TMDS集成到显示芯片中就是为了降低成本,现在的NVIO在这方面有没有优势呢? 按照业界的经验,高质量的RAMDAC和TMDS电路研发费用和生产费用绝对 因为这其中要包含非常昂贵的测试调校费用)。NVIDIA如果专门为不会便宜( G80开发独立的NVIO芯片,肯定是"赔本赚吆喝";不过话说回来,NVIDIA可不会这么笨,赔本的买卖绝对不会去做。 这就不能不提到家电行业的另一家巨头SONY公司,鉴于NVIDIA和SONY在共同开发PS3上而建立的良好合作关系,我们有理由相信这颗(NVIO)芯片很可 (影碟机、高清播放设备)上的那颗。有了大批量的生产,能就是使用在SONY产品 成本自然就不是问题了。 由于要在家电里面使用,再加上NVIO的供电部分除了供2D信号输出以外还有相当的剩余,于是另外一个合乎逻辑的推理就出现了-这颗芯片内部很有可能*集成了相当规模的FPGA。FPGA就是可编程逻辑阵列,能够按需要改写电路的逻辑结构,它对2D与视频的运算能力要远远高于同规模的GPU电路,利用FPGA电路可以实现更好的2D回放效果。与此同时,FPGA的工作频率并不高因此可以与2D输出电路"和平共存"。 *注释:现在NVIDIA官方并没有公开这方面的资料。 图7可编程逻辑阵列(FPGA)的组织形式非常灵活,可以根据程序调用的需要改变自身的逻辑结构,运行效率非常高,是今后一段时间数字电路发展的一种趋势。图示为一种最简单的逻辑拓扑结构。 在此之前,NVIDIA的产品已经支持色彩抖动技术,其本身的设计思路很不错,但是因为运算精度达不到要求,且算法仍需改善,导致现有产品上这种技术的应用受限。使用高效灵活的FPGA电路之后,则可以很好地解决这方面的问 题。在以往通过色彩抖动技术可以让6bit的面板显示(模拟)出接近8bit面板的效果,那么同样的道理,在以后通过色彩抖动的方式可以让8bit的LCD显示(模拟)出10bit面板的效果。当然这么做的前提条件是基于FPGA强大的运算能力和灵活的可编程特点*。 *注释:自从NVIDIA收购了3dfx之后,其开发抖动算法的能力在不断加强,这些年来的进步相信大家有目共睹。 写在最后 综上所述,G80采用外置式2D显示核心可以说是一个巨大的进步,无论对于保证2D画面的输出质量,还是提高3D性能来说都起到了相当大的正面作用;而且以后在对核心的改进中,也可以不必再考虑3D电路对2D的影响。回想当初显卡2D芯片从独立设计到集成整合,然后再由集成整合回归到独立设计,不禁让人有了"轮回"之感。发表于@12:08:00|评论(loading.)|举报|收藏 文章转自:为您推荐以下相关文章 显卡温度高自动关机电脑自动关机重启解决汇总_Windows XP_操作系 维护维修宝典 统_ 诛仙2小说全集txt~灵怨TXT全集下 威海人才网招聘信息威海招聘信息威海招 qq三国什么职业好玩?腾讯游戏和QQ三国 nokia n8山寨机~道哥和他的手机们 抗饥饿减肥茶好吗?我与抗饥饿减肥茶一起挽
/
本文档为【重装显卡驱动程序 显卡驱动程序在哪 ati显卡驱动】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。 本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。 网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。

历史搜索

    清空历史搜索