m6i的光纤音频输出输出是通过什么芯片的

1建立ITX主板新标准的华硕M6I&&&&ITX板型的小板到现在已经火了不是一天两天的事了,小巧的板型配合大量涌现的小型机箱可以让用户拥有属于自己的个性PC。不过或许是由于ITX板型本身条件所限,亦或许是厂商和我们用户自身已经在潜意识里对ITX有了一个定性,因此尽管ITX板型主板众多,却鲜有突破性的产品出现。&&&&但这一切都在(ROG)(M6I)出现后发生了改变。&&&&困扰ITX板型难以多元化发展的最重要原因就是它那娇小的外形。17cm*17cm的面积比一个成年人的手掌大不了多少,而在这狭小的面积上那些必不可少的插槽、接口及元件还要占据固定的空间。刚才笔者提到,或许我们自己都已经被麻痹了,厂商们也习惯了将“规矩”的产品持续的生产下去。不过能够打破规则建立秩序的厂商一定是非常伟大的,这一次建立ITX新标准的依旧是主板行业的领头羊华硕。&&&&这块具有突破式设计的华硕M6I主板非常具有划时代意义,它也成为了ROG家族的又一位新成员,而ROG系列也是首次迎来了ITX板型的成员。究竟它有哪些不同于以往ITX板型主板的设计呢?立式垂直供电模块&&&&其实在华硕的P8Z77-I&DELUXE上已经出现了令大家惊喜的设计,那就是立式垂直供电模块设计。由于ITX板型面积原因导致强效大面积的供电模块无法直接做在主板PCB上,而华硕巧妙的将供电模块单独做在一块小PCB上并垂直于主板PCB放置,有效的节约了主板空间。&&&&既然是ROG家族中的一员,那强效的供电能力必不可少。本次M6I继续沿用了华硕引以为傲的立式垂直供电设计,MOSFET散热片上也拥有ROG的ICON“败家之眼”。&&立式无线模块、声卡及卡&&&&立式设计是一个非常好的思路,华硕也在M6I上将其发扬光大。首先,该主板附送一块MPCIE&COMBO&II扩展卡,该模块提供了对802.11AC及蓝牙4.0标准的支持,此外,延续ROG系列增强音效的传统,M6I还附送了一块独立声卡。这两块扩展卡所安装的位置位于北部I/O区域与PCIE&x16插槽之间,空间设计极为合理。&&&&不同于ATX板型用户可能会选择“裸奔”的方式使用平台,选用ITX板型的用户绝大多数都是为了装进机箱使用。既为了节省空间又为了操作方便,华硕将一块DEBUG卡立在了背部I/O区域,即使装机机箱,用户也可以通过I/O接口部分检查DEBUG灯。在该卡上还拥有BIOS切换按键及CMOS清除按键,极为人性。&&&&这就是华硕ROG&M6I的“4个立式设计”,下面就让我们全面的了解一下这款里程碑式的产品吧。产品:
2华硕ROG M6I规格介绍●ROG M6I规格介绍&&& 在Intel 8系芯片组,华硕ROG系列的家族成员从之前的3位一下增加至5位。增加的两位成员分别是之前曾经为大家介绍过的Maximus VI Hero(M6H)以及本次的Maximus VI Impact(M6I)。“Impact”这个单词意味着“冲击”,的确,M6I的出现带给了我们不小的冲击。华硕ROG M6I&&& 华硕M6I基于Intel最新的Z87芯片组设计,采用了小巧的ITX板型。隶属于ROG系列的它自然也采用了ROG系列经典的红黑配色。内存插槽&&&& 内存插槽方面,ITX板型所限的M6I只拥有2条DDR3双通道内存插槽,不过在规格上它却并不输给它的师兄们。最大支持容量高达32G,且支持频率高达DDR3 3000MHz(OC)的高频内存,这也是超频用户喜闻乐见的。立式垂直数字供电模块4个原生SATA3接口PCIE x16扩展插槽&&& 扩展插槽方面,1条PCIE x16插槽可以让用户接驳一张独立显卡。而由于PCEI x16插槽的末端和SATA接口及内存扣距离太近,因此M6I的PCIE x16插槽采用了一种弹性式的固定方式,方便用户对显卡进行拆卸。背部I/O接口&&& 背部I/O接口方面,M6I配备了HDMI/DP视频输出接口,1个光纤音频接口,4个USB2.0接口,4个USB3.0接口,1个eSATA接口及1个RJ45网络接口。此外,3个立式设计都与背部I/O区域脱不了干系,其中卡位于视频输出接口及USB2.0接口之间,而当MPCIE COMBO II扩展卡及独立声卡插上后,前者的天线由背部I/O区域延伸出来,而后者的音频接口同样会露出。产品:
38+2相全数字垂直供电解析●8+2相全数字垂直供电解析&&& 一直以来,都是数字供电技术的领导者,高效稳定是数字供电的最大特点。M6I应用了华硕独创的Extreme Digi+ III数字供电技术,其元器件的规格也达到了前所未有的高度。&&& 很多用户担心立式的供电设计会存在兼容性问题,而这些完全不必担心,因为华硕参考了国际上知名机箱及散热器厂商的产品设计,保证主流产品与M6I完全兼容。M6I垂直供电解析&&& 由于数字供电的一大优势就在于精准的调节,因此在功能方面,华硕的独家专利Aggressive Overvoltage支持用户手动调节电压,让CPU电压的调节更加精准灵活。&&& 10K固态电容隶属于日本尼吉康(Nichicon)的GT系列,相比传统电容拥有更长的使用寿命。支持最高额定60A额定电流的60A黑翼电感具有更高效的导电性。垂直供电设计&& M6I的供电散热片不光外形美观,其经过反复研究设计的鳍状外形散热器更是能够最大限度的降低供电区域的温度。拆开散热片可看到黑翼电感及10K黑金固态电容&&& 拆开供电模块的散热鳍片,我们就可以看到黑翼电感及黑金固态电容。黑翼电感拥有黄金涂层设计,该设计能够增加导电性并将平台运行时功率的损耗降低到最小值。做工及用料一直是华硕的优势,而通过一个小小的供电我们的的确确可以感受到华硕的实力。产品:
4高达115dB信噪比的独立声卡解析●高达115dB信噪比的独立声卡解析&&& 或许是不像ATX版型那样拥有宽广的面积来放置专门的音效区域,身为ITX版型的M6I“逼得”必须有所突破,因此这块SupremeFX Impact独立声卡就这样诞生了。& SupremeFX Impact独立声卡诸多为高保真音效服务的设计集一身&&&& M6I所附带的这块独立声卡是业界第一块不占用PCIE x16插槽的独立声卡。为了保证音源的纯净,该声卡的音效芯片采用了EMI电磁辐射屏蔽盖,让其免受来自其它元器件的信号干扰。专业的ELNA Premiun音频电容为多媒体提供了清晰自然的音效,精准的数字/模拟转换芯片同样能够降低各种电磁干扰。领先的115dB信噪比&&&& 该声卡的差分设计可以同时应用于无损音频输出以及耳机输出。我们只需将机箱前置面板的AUDIO线接至声卡的HD AUDIO插针即可。TI LM4562耳放被广泛应用于专业高保真音频设备中,支持600Ω的高阻抗耳机关机也能放音乐&&&& 另外,音乐即时放是该声卡的一大特色。即使是处于关机状态下,我们也可以播放音乐,具体的实现方法是:在关机状态下将音源设备通过3.5mm耳机线接至机箱前置面板的麦克风接口,再将扬声器接至独立声卡的输出接口,这样美妙的音乐便可从扬声器中放出。降噪处理的完美语音&&&& 游戏玩家不光需要逼真的音效,还需要完美的语音系统。该声卡同样提供了这项实用的技能,降噪技术可以消除我们讲话中沉默及停顿间的噪音。&&& SupremeFX Impact独立声卡拥有强大的功能,不但为我们提供了逼真的音效,还针对游戏中的特效及语音做出了优化,这些是娱乐用户及游戏玩家的所最需要的。产品:
5支持802.11ac规格的强力无线模块●支持802.11ac规格的强力无线模块&&& 越来越多的配备无线模块,这已经不是什么新鲜事了。然而做得与其他人不一样才会得到用户的青睐。可以说,M6I就做到了这一点。MPCIE COMBO II扩展卡及无线天线&&&& MPCIE COMBO II扩展卡支持最新的802.11ac及蓝牙4.0规格。采用了M.2(NGFF)Socket2标准的扩展卡接替现有的mPCIE和mSATA接口,接口整合的同时性能又有一定的提升。而模块所配备的天线更是设计非常巧妙,可旋转及磁铁式设计方便用户将其安放在任何位置。扩展卡还支持再接驳一枚mSATA接口的SSD&&& 另外,该扩展卡还支持用户外接一枚mSATA接口的SSD,整合资源且节约空间。无需担心速度问题,因为对SATA3的支持可以让SSD发挥最大性能。想让NVIDIA SHEILD控制PC?802.11ac标准是必不可少的&&& 说到802.11ac标准,这里就不得不提到NVIDIA刚刚发售(北美地区)的掌机Shield。我们都知道Shield支持操控PC游戏,而该掌机与PC之间并非通过有线相连,而是通过无线。如果你的PC拥有802.11ac标准的无线网卡,那么二者的连接将变得十分顺畅,而如果是如802.11n的规格,通讯将变得卡顿。产品:
6游戏无延迟技术及声波雷达解析●游戏无延迟技术及声波雷达解析&&& 优秀的网络环境对于网络游戏及电子竞技玩家来说显得格外重要。在很多糟糕的网络条件下,延迟很高,我们急需优化。M6I同样附带了GameFirstII游戏无延迟II技术,强大的不但可以帮助我们将各个访问网络的优先级进行排序,还可以大大降低网络游戏的延迟。游戏无延迟技术II软件界面游戏无延迟技术II详情请点击&&& 除了自身的技术水准和顺手的外设装备之外,FPS玩家最看重什么?那就是敌人的动态。作为玩家如何掌握敌人的动态呢?除去多年的经验以外,华硕M6I还提供了SONIC RADAR声波雷达技术。该功能可以识别游戏中对手及队友的各种动向,包括强生、脚步声以及炸弹声音,而这些声音则会通过屏幕上的雷达显示出来。声波雷达可侦测6种声音助玩家毙敌&声波雷达功能详解请点击举例来说,蓝色显示侦测敌人脚步声&&& 在声波雷达的软件界面中我们可以选择雷达究竟显示哪种音效。尽管我们可将雷达侦测到的一切动静显示,但往往这样反而会扰乱我们的实现,因此笔者更习惯将敌人的脚步声显示在雷达中。有针对性的侦查可以帮助我们准确判断战场动向。通过雷达显示,前方一定有敌人&&& 在经典游戏《》的试玩中,声波雷达发挥了非常重要的功能。位于屏幕右上角的雷达显示出了所选侦测声音类型的声音,果然,在雷达显示方向窝藏着一名敌人。配合M6I的独立声卡及定位准确的耳机,FPS玩家一定会超常发挥。产品:
7倍频外频都能提 M6I超频演示●倍频外频都能提 M6I超频演示&&& 既然是ROG家族的一员,如果没有强劲的超频能力一定会被别人耻笑的。接下来笔者将试玩M6I的超频功能,看看它的表现如何。在Extreme Tweaker中将CPU Core Ratio调制45(倍频45)CPU Core Voltage调制1.3V&&&& 在将CPU的倍频调节至45倍并将CPU核心电压调制1.3V后,我们保存退出。要知道,达到这个频率对于平台来说应该是轻而易举的事情。CPU运行在45X100MHz=4.5GHz的频率下&&&& 成功进入系统后,我们运行国际象棋测试并成功通过测试,此时打开CPU-Z软件看到,CPU运行在45X100MHz=4.5GHz的频率下。载入预设的外频超频文档&&&& 对Haswell平台了解的用户应该知道,本次Haswell平台启用了Intel RCR技术,即用户可以对CPU的外频倍率进行调节,相当于外频超频操作。很多用户或许是第一次接触这种超频方式,没关系,M6I主板内置了预设的外频超频档案,我们只需载入就可享受到华硕为我们调教好的各项参数,方便我们对这种超频方式进行研究。&&& 笔者选择了读取190 BCLK Profile。各项参数已经更改&&&& 在载入完预设档后,我们可以看到平台的各项参数已经修改。由于在保存退出之前,BIOS会提示本次选项做了哪些修改,因此我们可以学习参数的调节方式。这不光是傻瓜式的为我们授之以鱼,而是循规蹈矩的授之以渔。CPU运行在24X190MHz=4.56GHz频率下&&&& 同样的,本次调节后成功进入系统。运行国际象棋全无压力,此时CPU显示运行在24X190MHz=4.56GHz频率下。通过简单尝试,华硕M6I对于基本超频操作完全不在话下,而Haswell平台RCR技术的加入更让超外频成为新的玩法之一。产品:
8测试平台环境及基准测试成绩●测试平台环境及基准测试成绩&&& 用户经常有一种误区,那就是大板的性能一定比小板好,事实真的是这样吗?不光是为了验证这一观点,也是为了“例行公事”,性能测试环节依旧是必不可少的。M6I搭建测试平台&&& 测试平台软硬件信息、测试项目以及成绩汇总如下表所示:测&试&平&台&软&硬&件&配&置&以&及&测&试&成&绩核心配件CPUInteli5-4770K华硕&(Z87)显卡IntelHD&Graphics&4600(核芯显卡)内存威刚XPG&DDR3-1600硬盘希捷1TB&7200RPM&32MB&Cache测试Super&π&1MBenchmarkFritz&Chess&Benchmark&4.3BenchmarkCineBench&R11.5&CPUBenchmarkCineBench&R11.5&BenchmarkwPrime&32MBenchmark3DMark11&Performance系统及程序操作系统Mircosoft&Windows&7&SP1主板驱动Intel&INF&9.4.0.1017Intel&15.31.7.3131环境c/帧数监控&3.4.7测试成绩汇总Super&π&1M9.251sFritz&Chess&Benchmark15246CineBench&CPU8.59ptsCineBench&GPU30.11fpswPrime&32M7.022s3DMark11&PerformanceP1518如此令人颤抖的测试成绩竟出自一款ITX小板&&& 看到这个测试成绩,大家有什么感想呢?笔者的确没有想到如此一块小板能够拥有这么强劲的性能。在CINEBENCH R11.5 OpenGL的测试中,该主板搭配i7 4770K的HD4600集成显卡竟然跑出了30fps以上的成绩,令人瞠目。此外,wPrime 32M接近7秒大关也是极为优秀的成绩。&&& 看来,能力和身材并不一定拥有关联。产品:
9总结:创建秩序的华硕M6I无愧板皇●总结:创建秩序的M6I无愧板皇&&& 在这个普遍缺乏创新的年代,每个人都希望我们的生活中能够出现一些令人眼前一亮的创新产品。华硕M6I正是在这个循规蹈矩的年代脱颖而出的代表,而我们更应该注意到在这个浮躁的年代,设计出这样具有先进理念产品的设计师有多么伟大,我们应该向他们致敬。当之无愧的ITX板皇华硕ROG M6I&&& 空间小,就制造空间,ITX板型的M6I在保证了与主流机箱及散热器最大限度兼容的情况下“肆无忌惮”的将各种硬件填充在了主板的上方。“4个立式设计”不但将主板的规格提升到了一个相当高的高度,还将各种人性化设计融入到了其中。集大成于一身的ROG M6I&&& 当然,最新最先进的用料及技术也理所应当的与先进的理念相结合,因此无论是声卡,MPCIE COMBO II扩展卡还是垂直供电模块,我们都能看到最新的规范标准和技术。方面,与它的师兄们相同,M6I同样是一个不落的完全继承。M6E/F/G/H/I,华硕ROG家族成员至此达到5名&&&& 作为ROG家族“最小”的成员,华硕M6I完全不辱的金字招牌。娱乐性,概念性,性能级这些最炫主板特点融于一身的M6I自然是高端玩家所喜爱的玩物,在价格上,其媒体指导价为2299元。当然,这个价格相比一块普通的来说当然算不上便宜,不过如此设计及性能完全配得上这个价格。笔者一向反感那些“唯成本论”者,其中苹果公司就是这些人所攻击的对象。如果仅仅看到所谓的成本,而忽视了品牌价值,设计理念及创新思想等诸多因素,那笔者只能说“您走您的阳关道,我走我的独木桥”。&&& 华硕M6I的确不愧为ITX最强主板的称号,而发展多年的华硕玩家国度系列,也一定会在这第5员悍将加入后再续辉煌。
10华硕Maximus VI Impact详细参数
这种ITX版型的小型主板逐渐受到人们的追捧,从ATX到m-ATX、再到ITX,人们对小型主机的需求是越来越大了,这是小型号的趋势,也是未来桌面系统的大方向。
主芯片组 CPU插槽
投诉欺诈商家:
天津重庆哈尔滨沈阳长春石家庄呼和浩特西安太原兰州乌鲁木齐成都昆明贵阳长沙武汉郑州济南青岛烟台合肥南京杭州东莞南宁南昌福州厦门深圳温州佛山宁波泉州惠州银川
本城市下暂无经销商
4¥23995¥14996¥8797¥17998¥7999¥61910¥999在 ARM 官方推出 ARMv8 前八个月推出, 不叫绝对领先优势是什么?&br&&br&不看 64-bit, 也觉得是史上 iPhone 处理器拉开其他厂商距离最远的一次.&br&从 iPhone original, 3G, 3GS 简单使用三星的 ARM 「公版」处理器, 到 Cortex-A8 的 A4, Cortex-A9 的 A5, Swift 的 A6, ARMv8 的 A7. 苹果的设计越来越超前.&br&&br&但我想说的不是这部分, 已有的回答, 包括 &a href=&/question/& class=&internal&&iPhone 5s 配备的 A7 处理器是 64 位,意味着什么?&/a& 里面也有了很不错的回答, 我奇怪的是一些回答和评论的态度.&br&&br&因为 A7 处理器是 64-bit, 所以 A7 是个噱头.&br&当 ARMv8 是空气么? 还有更高的频率, 更好的图形性能呢?&br&此外, 不考虑增加的寄存器, 现在用不上不假, 但未来, 需要用到 64-bit 的应用开始普及之后, 苹果的速度难道不是领先一代?&br&比如当年 4S 的 A5, 图形性能提升到七倍, 让待机时间从 4 的理论 300h 缩短到 4S 的理论 200h, 当时看来不值. 但现实情况是, 5 推出之后, 要求 A5 处理器的游戏就开始出现 (最早的应该是 Bastion), 而现在, 大作需要 A5 处理器, 不再支持 iPhone 4 的已经数不过来.&br&我个人觉得, iPhone 6 出现之后, 如果苹果没有强制性的要求, (如现在不允许开发者放弃非 Retina 设备) 需要 64-bit A7 处理器的应用/游戏就很可能开始出现, 到 6S, 最晚 7, 很可能就开始抛弃 32-bit iDevice.&br&&br&M7 协处理器别的手机也有.&br&是, 别的手机有, 能用到么?&br&先说 M7 出现之前, Android 在位置方面一直落后于 iOS 很远. iOS 5.0 就支持的 geofence (并且是支持上代硬件, iPhone 4 的), Android 4.3 才正式支持. 不用说到现在使用上这个特性的应用几乎没有出现.&br&更何况许多人, 似乎完全认为, 协处理器出现之后, 所有现有应用自动就能用上一样, 这个思路…… 那么苹果干嘛要推出新的 Core Motion API 呢? 举个例子就很好理解了:&br&目前 iOS 的 geofence, 出于省电角度考虑, 常常要 15-30s 相关应用才会启动. (因此如 Moves, Fog of World 这样的软件都会在说明中指出, 短时间的移动会被忽略.), 有了 M7 之后, Nikes+ Move 这样的应用完全可以长时间开启传感器, 记录下所有移动, 而无需用户手动操作, 也不会像现在的 Moves, 以及一般记步器应用一样让手机的待机时间缩短很多.&br&此外, 如官方页面所说, 在车上不会连入街边的 WiFi, 睡觉时降低 Cellular 部分的功耗, 再加上第三方应用的支持, 都是很有想象力的应用.&br&哦还有, M7 的设计几乎可以肯定是 Apple 获取 ARM 授权后自行开发 (类似 A6/A7) 而非其他手机一样仅仅使用上游厂商的方案.&br&&br&因为 Windows 支持 64-bit 用了很多年, iOS 就也要很多年.&br&这思路也实在是…… OS X 从 Tiger 开始做 64-bit 的工作, Snow Leopard 支持 64-bit kernel, 现在 OS X 软件的主流早已是 64-bit.&br&自己去 Mac App Store 看看, 就知道多少应用已经要求 64-bit 处理器了.&br&苹果历史上三次大的架构变化, 68k -& PPC, Mac OS Classic -& Mac OS X, PPC -& x86, 哪次不是三四年就彻底完成?&br&iOS 在 App Store 下, 转变只会更快.&br&&br&Android 支持 64-bit 是很简单的事情.&br&首先, 64-bit 处理器的生产就还远着呢, 半导体生产的周期, 恐怕没有一年, 连处理器都见不到何谈普及?&br&其次, 各厂商的驱动很容易么? 64-bit AOSP 呢?&br&说得好像 Intel 出个虚拟机, 用 Atom 的 Android 就能秒杀 ARM 了一样.&br&&br&&b&最后说说上面那个奇怪的回答:&br&&/b&&blockquote&因为如果让大众知道苹果流畅的系统其实很大程度上是靠拼硬件得来,恐怕很多果粉难以接受这个事实。&br&&br&换句话说 android 推行 64 位的主要问题,不是技术问题,而是供应链管理问题&br&M7 才是实实在在有用的东西,虽然我很疑惑 Moto X 为什么不把类似的想法注册专利而要让苹果抢去&/blockquote&&br&&b&这样的私货, 实在不是知乎的风格.&/b&
在 ARM 官方推出 ARMv8 前八个月推出, 不叫绝对领先优势是什么? 不看 64-bit, 也觉得是史上 iPhone 处理器拉开其他厂商距离最远的一次. 从 iPhone original, 3G, 3GS 简单使用三星的 ARM 「公版」处理器, 到 Cortex-A8 的 A4, Cortex-A9 的 A5, Swift 的 A6…
国内逆向工程现在主流是40nm和28nm,北京的芯xx搞定过22nm,上海的几家似乎还不敢接22nm。&br&Intel主流工艺已经量产14nm,现在奔7nm去了......&br&很多设计是需要正向做的,逆向有个毛用。CPU里头不光是0和1,还有很多高科技。&br&Intel有谐振时钟网络,把时钟网络当成LC振荡器来做,调节谐振点和时钟频率相近,省功耗,加快slew rate。做个LC谁不会,可是想想要把这玩意和APR的工具合并起来就觉得头疼啊啊啊啊。想都想不出来Intel是怎么搞定的。&br&Intel有自适应电源波动的频率调节,监控电源波动,波动时自动调节时钟频率。这一点对整个CPU设计有极大地推进,design methodology都不同。AMD和Intel都有类似目的的设计,还互相嘲讽对方的设计纯属脑残......&br&Intel几乎所有的电源都是on-chip FIVR产生。Fully-Integrated-Voltage-Regulator。别小看只是个on-chip digital controlled的LDO,ISSCC CPU session里看着不过是几个黑框,这是整个OS-系统-封装-chip吃透才做得出来的。换家公司想干,都搞不明白怎么开spec。&br&Intel运算单元核心电路是手搭的。大陆这些离了ICC和encounter就活不了的团队都去墙角哭吧。&br&Intel敢把PCIE PHY的ground和整个chip ground合并。我服务的部门里,兄弟们至今不敢这么干。&br&逆向有个毛用,弄出来还不是看火星文。老老实实从基础做起才是正途。&br&逆向一个intel CPU,应该有无数单位这么干过了。可是地球上仍然只有Intel AMD VIA三家的X86 CPU具有商业价值,这就是技术门槛和工程门槛。
国内逆向工程现在主流是40nm和28nm,北京的芯xx搞定过22nm,上海的几家似乎还不敢接22nm。 Intel主流工艺已经量产14nm,现在奔7nm去了...... 很多设计是需要正向做的,逆向有个毛用。CPU里头不光是0和1,还有很多高科技。 Intel有谐振时钟网络,把时钟网络…
1.我问你,小米和米粉在小米note3发布以后什么时候把660吹成顶级旗舰Soc了?我们什么时候把660吹成拳打821脚踩960了?(虽然XX9确实续航差劲发热严重)。证据在哪里,截图在哪里?而且这事好像是OPPO的KOL和销售员做的吧。&br&&figure&&img src=&/v2-ab7e28fbd3cd1b40bd1b1cd6c50d37b4_b.jpg& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-ab7e28fbd3cd1b40bd1b1cd6c50d37b4_r.jpg&&&/figure&我问你,这是什么?这是小米的KOL在吹小米note3吗?&br&2.骁龙660综合性能本来就不如820(GPU拖了后腿),怎么个叫被“批”的不如820。我们说不如820说的是事实&br&3.今年元器件涨价,660根本不可能用在千元机上,除非是乐视,ZUK那种玩命拼性价比的厂商才会把660用在千元机上。这也是事实,我们也承认了。&br&4.这里是知乎,不是微博和炮村,你以为扣帽子就能带节奏吗?
1.我问你,小米和米粉在小米note3发布以后什么时候把660吹成顶级旗舰Soc了?我们什么时候把660吹成拳打821脚踩960了?(虽然XX9确实续航差劲发热严重)。证据在哪里,截图在哪里?而且这事好像是OPPO的KOL和销售员做的吧。 我问你,这是什么?这是小米的KOL…
&p&编程解决的无非就三件事情:把颜色射到屏幕上、把文件射到硬盘上、把数据射到网线上。一门图灵完备的语言,当然可以输入任何离散数据,做任意的计算,最终输出任何离散数据,所以只要是在电脑的范围里面,什么事情都是可以做到的。&/p&
编程解决的无非就三件事情:把颜色射到屏幕上、把文件射到硬盘上、把数据射到网线上。一门图灵完备的语言,当然可以输入任何离散数据,做任意的计算,最终输出任何离散数据,所以只要是在电脑的范围里面,什么事情都是可以做到的。
现在看到的回答基本都是扯淡。不管风冷水冷液氮冷,都是作用于散热器,而非芯片本身。一般的半导体材料直接被降到零下一两百度,特性早就变化了,很可能彻底无法工作。&br&&br&芯片的热胀冷缩效应在封装设计中很重要。大约10年前Nvidia的一批笔记本显卡大量花屏,就是热胀冷缩导致接触失效。
现在看到的回答基本都是扯淡。不管风冷水冷液氮冷,都是作用于散热器,而非芯片本身。一般的半导体材料直接被降到零下一两百度,特性早就变化了,很可能彻底无法工作。 芯片的热胀冷缩效应在封装设计中很重要。大约10年前Nvidia的一批笔记本显卡大量花屏,…
去年暑假有幸在TI的硅谷分部(Santa Clara)的R&D部门Kilby Labs愉快地实习了三个月。好多见闻都改变了我对传统半导体公司的认识,讲一讲其中我记忆最深刻的:&br&&br&&ul&&li&&b&坚持创新。&/b&我实习的部门之所以叫Kilby Labs,是集成电路(Integrated Circuit)的发明人当时就在TI工作——他叫做Jack Kilby,因为这项发明获得了诺贝尔物理奖。我在去TI实习之前,以为半导体行业就跟其他好多行业一样,大家互相借(chāo)鉴(xí)一下,给产品换个包装打打广告就可以卖了。后来发现自己太傻太天真。TI一直以Innovation作为自己的根基(foundation),非常注重产品的创新性和独立性。每年都在世界各地举办TI创新大赛(TI Innovation Challenge),要求参赛者用TI的芯片做他们感兴趣的任何project,做得好的人拿奖状,拿奖学金,拿工作offer,从此就可以登上人生巅峰了。&figure&&img src=&/da5aeefb69b97_b.jpg& data-rawwidth=&200& data-rawheight=&285& class=&content_image& width=&200&&&/figure&图:Jack Kilby ()&/li&&/ul&&br&&ul&&li&&b&“计算器公司”。&/b&大多数行业外的美国人如果知道你在TI工作,第一个反应就是&oh that calculator company?&------实习第一天HR就在迎新活动上讲这个笑话。TI计算器对美国人来说就是“一课一练”一样的存在,满满的都是童年。至今美国大中小学生还在用TI的图形计算器(经典款如TI-83),居家旅行杀人灭口必备。TI在1967年发明了世界第一款电子手持计算器(electronic hand-held calculator),归属于Education部门,是一个非常非常小的部门。但由于这是公司最重要的一款消费电子(consumer electronics)产品,它便成为了广泛消费者眼中TI的招牌。&figure&&img src=&/8c167fdd0cd1e25b9bdfa20e_b.jpg& data-rawwidth=&155& data-rawheight=&140& class=&content_image& width=&155&&&/figure&&/li&&br&图:TI发明的世界第一款电子手持计算器(electronic hand-held calculator)&br&&/ul&&br&&ul&&li&TI还发明了工业界第一个&b&DSP芯片&/b&(digital signal processor):TMS5100。&/li&&li&&b&“黑科技”。&/b&本人读博士时候的研究方向是MEMS(微机械机电系统)。TI的DLP技术是投影仪行业里程碑式的产品,也算是MEMS业内公认的黑科技。目前市面上90%以上的投影仪用的都是TI的DLP技术。从1987年开发,TI用了10年时间才解决所有难题成功商业化,再从商业化到了将近20年后的今天,这期间有茫茫众多的创业公司尝试其他技术解决方案,希望可以跟TI来分一杯羹,但都失败了。有兴趣的话可以了解一下DLP的工艺,以及开发时候遇到的挑战。有传闻说TI在这个项目上的花费之大,到现在都没有实现盈利,不知是真是假。&/li&&li&&b&业界大牛的员工。&/b&公司里面业界大牛非常多,但都非常容易接触到(reachable),而且平易近人。比如,实习期间我和现任CTO Ahmad Bahai吃过饭、开过会、聊过天,他同时也是UC Berkeley的客座教授。我的小老板是电路方向很有名的一个会议——CICC(Custom Integrated Circuits Conference)——的Chair。&/li&&li&&b&行业大佬。&/b&TI在2011年4月用65亿美元收购了日渐衰落的National Semiconductor,从而成为了半导体行业模电(Analog)的一哥。收购之后股票一路高升,在互联网公司成为硅谷主流的时代这也算是难能可贵了。&figure&&img src=&/7e3412add6d75daccb96d293d8d6d67e_b.jpg& data-rawwidth=&553& data-rawheight=&447& class=&origin_image zh-lightbox-thumb& width=&553& data-original=&/7e3412add6d75daccb96d293d8d6d67e_r.jpg&&&/figure&&/li&&li&模电和嵌入式系统的&b&产品线&/b&非常丰富。还记得实习的时候接到任务说去挑选几款运放(op-amp)来用,然后我就去TI官网对着几百个运放发呆。通过各种筛选剩下了十几个符合要求的,然后又开始研究参数表(datasheet)找到最满意的。整个过程虽然费尽周折,但可以深刻感受到半导体公司的文化:小客户小公司需要什么, 我们用几千种产品砸死你,总有一款你喜欢的你想要的。大客户大公司要(shì)求(ér)多(bī),我们给你组个团队开发你想要的。&/li&&li&有3万多&b&员工&/b&,其中1万多在德州总部达拉斯,剩下分散在世界各地。&figure&&img src=&/af6f752dfa4edfaef82d_b.jpg& data-rawwidth=&450& data-rawheight=&254& class=&origin_image zh-lightbox-thumb& width=&450& data-original=&/af6f752dfa4edfaef82d_r.jpg&&&/figure&&/li&&/ul&虽然这是一个大数据看不起互联网、互联网看不起软件行业、软件行业看不起硬件行业的时代,老牌硬件公司如TI依然在科技领域不可或缺举足轻重,时至今日科技行业依然面临诸多挑战,而其中相当大的一部分究其根源是需要硬件的发展来支撑的。硬件行业结构在市场中不断调整,其发展依然是值得期待的。
去年暑假有幸在TI的硅谷分部(Santa Clara)的R&D部门Kilby Labs愉快地实习了三个月。好多见闻都改变了我对传统半导体公司的认识,讲一讲其中我记忆最深刻的: 坚持创新。我实习的部门之所以叫Kilby Labs,是集成电路(Integrated Circuit)的发明人当时就在T…
&p&看问题标签有临高启明,最近刚好在看这个小说,我自己正好是做操作系统的,可以来答一下。&/p&&p&先说结论:要从无到有不计成本的设计出现代民用计算机以及配套软件是非常难的,我不认为临高500众有能力实现。&/p&&p&计算机科学中,操作系统的开发基本上属于最高层次的开发了,其依赖关系是:&/p&&p&&b&模拟电路&/b&:二极管、三极管、电容、电阻
&b&数字电路&/b&:门电路、寄存器
&b&计算机体系结构/接口技术&/b&:硬件系统框架设计、总线设计、存储器设计、CPU
&b&汇编语言&/b&:翻译器、指令设计
&b&高级程序设计语言&/b&:编译器&/p&&p&有了以上的基础以后,才有实现操作系统的可能性。&/p&&p&穿越人员设计出模拟电路不难,甚至数字电路也不复杂,但到了总线-CPU-汇编一层,我不认为临高政权有这方面的储备技术。这方面的人才在国内都比较少见。&/p&&p&即使有技术资料,重建也很困难,这一层次上&b&工程师比科学家走的更远,单靠技术文献根本做不出什么有用的东西出来&/b&。但临高政权应该没有Intel或者ARM的人,即使有,8086有4万个晶体管,主频最高10M,这个配置必须要用光刻机了,但他们没有光刻机,就算有光刻机维护也很难,临高政权更不可能拿到Intel的设计资料。&/p&&p&至于RAM和软盘,对材料科学的依赖更高,不比晶体管简单。&/p&&p&再说写操作系统:&/p&&p&我相信只要技术稍微好点的计算机专业的学生,本科生或者研究生,写一个自制的操作系统不是太难,移植Linux更容易。但这是在有硬件支持的前提下,如果连CPU都要从头设计,我相信绝大多数人做不到,至少是需要一个大的团队,包括微电子专业和计算机专业的很多人一起做。&/p&&br&&p&我觉得临高政权在电子计算机领域的方向是有问题的。虽然他们带去的都是x86的东西,但未来没必要重建一套x86的体系,RISC的指令会比x86的简单的多。至于上层应用,重建IP网络的意义也不大,难度和开销太大。&/p&&p&手摇计算机也不可取,短期倒是没问题,但是如果未来从旧时空带来的电子设备都坏了,临高政权的科学技术会有严重的倒退。至于其它形式的人力计算机就更不可取了,性能太差,开销太大。人类研发电子计算机的根本原因就是提升效率,如果原来需要10个人能完成的工作,用人力计算机需要100人,那倒不如不用。&/p&&br&&p&我个人认为正确的方向:&/p&&p&1. 数据存储&/p&&p&大图书馆的东西必须迅速的导出来,全部纸制化不现实,所以存储必须尽快解决,重点研发方向是磁带机,这是一个技术难度不大但很实用的领域,只要解决材料问题就够了。但磁带机不适合计算机直接使用,更适合备份,所以还需要研发磁鼓、磁芯存储器作为计算机的外存。(做不出塑料还可以考虑钢丝磁带)&/p&&p&过去用穿孔纸带是因为技术限制,但临高并不缺乏相关技术,研发体积小、容量大的磁性存储设备只需要解决材料的问题就够了,穿孔纸带不是正确的发展方向。&/p&&p&一些重要的、不容易修改的信息可以采用熔烧式ROM方式保存,技术门槛低,使用方便。等集成电路科技树点亮以后直接上EEPROM。&/p&&p&2. 通信&/p&&p&有线电报可以解决很多问题,但未来在帝国的核心区域,必然要有一个互联网,网络模型没有必要采用什么七层网络协议的东西,很多东西都可以简化。&/p&&p&早期完全可以采用P2P串行链路,后期有了规模以后,可以采用ATM(不是自动取款机)网络等更简单的方式部署。上层用IP+UDP结合,可以直接省掉麻烦的TCP部分。&/p&&p&3. 计算部分&/p&&p&晶体管在相当长的时间内都看不到希望,先用电子管解决计算的问题,主频能爬到100K~1MHz的水平就足够满足现在时空的计算需求了。&/p&&p&采用RISC指令集,先在旧时空的设备上模拟好(电路模拟软件很容易就能搞定),先搞定8位机。不要走x86这条路,MIPS/PPC这些都比x86容易(龙芯就用的MIPS)。&/p&&p&不要着急仿制ENIAC,ENIAC是十进制计算机,故障率比较高。建议仿制:&a href=&///?target=http%3A///item/EDVAC%3Fsefr%3Denterbtn& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&EDVAC_百度百科&i class=&icon-external&&&/i&&/a&,这是一个二进制计算机。&/p&&p&4. 输入输出&/p&&p&搞定发光二极管就可以解决输出问题,或者搞定电视这个发明(液晶就不用了,普通的电子显像管就可以了)。&/p&&p&输入用磁性存储,键盘鼠标只是机械式的,没难度。磁性存储设备的难度是材料,别用穿孔纸带这种东西,公民的身份证完全可以用PROM来做,设计的适当的情况下体积并不大。&/p&&p&整体上说,临高政权需要的是:&b&可靠、高速的电子通信网络+相对当前时空的高性能计算+相对当前时空的大数据快速存储、检索。&/b&&/p&&p&哪怕最初的计算机体积大,性能差,但对于提高政权效率是很有帮助的,不然未来做社会统计工作,比如类似人口普查这种事情,全靠人力,想短时间根本不可能完成,一旦帝国扩张到一定程度,没有计算机的帮助,很快就会失去对地方的控制。&/p&&p&500众有生之年应该能点开晶体管这个科技点,集成电路难度很大,光刻机是人类技术的精华,元老们如果不是永生的话,元一代应该是看不到的。&/p&&p&-----------------------------------&/p&&p&如果500众里确实有微电子+操作系统领域的人(可能需要好几个名额),有些弯路倒是可以省掉:比如x86体系下,为了兼容性搞出过各种奇葩的东西,像A20地址线、BIOS这类东西,都可以省掉,本时空没有第二个能做出电子计算机的地方,兼容性可以无视。&/p&&br&&p&蒸汽动力机械计算机是不靠谱的,我不知道督工说的机械计算机什么规模,按评论里6000亩的规模算,就是米,假设元器件最远距离是1000米,力在金属材料中传递速度按5000米/秒算(参考:&a href=&/question/& class=&internal&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/question/2127&/span&&span class=&invisible&&4683&/span&&span class=&ellipsis&&&/span&&/a&),这个计算机的主频最高只有5Hz,再考虑到齿轮之间的力的传递速度更慢,实际主频更低。&/p&&p&-----------------------------------&/p&&p&有很多回答里提到了4004或者8008芯片。确实,看上去4004很简单,只用了2300个晶体管,规模似乎比EDVAC要简单的多,&b&但要注意的是4004或者8008只是CPU,而EDVAC是完整的计算机,CPU需要配合外设才能工作的。&/b&实际中单独的4004也不能直接使用,需要配合4001(ROM)/4002(RAM)/4003(移位寄存器)三个芯片一起,很多资料上只说了4004用了2300个晶体管,实际上里的晶体管一点都不少,两个加起来估计要个,所以仅仅以上四个芯片,总规模就大于EDVAC的设计了,更别提还要在这四个芯片之外,再外接其它设备了,难度一点都不小。&/p&
看问题标签有临高启明,最近刚好在看这个小说,我自己正好是做操作系统的,可以来答一下。先说结论:要从无到有不计成本的设计出现代民用计算机以及配套软件是非常难的,我不认为临高500众有能力实现。计算机科学中,操作系统的开发基本上属于最高层次的开…
&p&1. 因为机器学习的workload已经非常广泛,从庞大的数据中心云端到每个人手里的手机,以及将来的智能家电,智能可穿戴设备都跑着不同种类的机器学习算法(不一定是DNN),而传统CPU、嵌入式CPU体系结构做深度学习效率不高,所以有GPU、FPGA、ASIC的深度学习加速。&/p&&p&2. 设计GPU + 面向深度学习做优化,与从头开始面向深度学习设计ASIC,是有一定关联但是区别也非常大的两件事。我觉得这个问题应该反过来问,GPU面对天生的ASIC能有多少优势呢 :) &/p&&p&3. 我们接触过其他做CPU core的企业,正在评估做机器学习相关的workload,可以有比较大的把握说Intel肯定也在内部做过评估,但是为什么现在没有推出这样的芯片,原因就耐人寻味了,甚至连prototype都出了,但是内部又被拍死了也是完全可能的。大公司在面对新兴业务时的笨拙,很多时候跟技术本身是没有关系的。&/p&&p&4. 题主没有询问但是肯定很多人想问的补充 - 寒武纪的天使轮与A轮融资都是国内破纪录的数字,为什么这么被看好,投资人看中的不仅是寒武纪脱胎于国际顶尖级的学术研究团队,&b&&i&而且还有极为迅速的工业量产落地&/i&&/b&,过后1-2个月还会有更大的好消息公布。&/p&&p&因为自己在计算所工作,所以认识很多在寒武纪工作的杰出人才,融资消息发布的时候我刚好正在寒武纪开会,亲眼看着消息发布以后被各路媒体争相转发,这两天上门采访的知名媒体应接不暇。想想我刚到所里来的时候,他们还没有这么高的知名度,和所里的很多师兄弟姐妹一样,我们亲眼看着“Diannao”系列变成“寒武纪Cambricon”,一步步走到今天,发自内心地感到荣幸与自豪,在这波AI浪潮的大势下,也在我们工作的地方孵化出了一个当之无愧世界级的startup,刚才下楼吃饭还看到寒武纪的招聘启事和其他牛企在我们这里的专场招聘海报贴在一起,看着特别感慨。&/p&&p&虽然寒武纪现在势头非常好,但是学术出身的寒武纪团队真的是很低调,网上能看到的采访和相关报道与被婉拒的采访数量相比真是九牛一毛,作为团队leader的陈氏兄弟俩,陈云霁老师是一个会在ASPLOS workshop上谈招聘“要招人先问他打游戏能不能坐得住”的人,陈天石老师是一个跟所里的学生吃饭聊天,说跟自己学生一起打DOTA,团战开大开慢了差点被自己的学生骂的人。&/p&&p&作为比网上多数人更靠近寒武纪的角度,我看到的情况跟网上的流言有很多不一样,这些流言包括说寒武纪没有流片的,怀疑寒武纪没有技术优势的,蹭AI热点的,等等。说寒武纪没有流片的人肯定不了解很早就流片的事实,也不知道寒武纪成功推动这么大规模的工业化应用中付出的艰苦努力,说寒武纪没有技术优势的人,肯定不知道见过作为PI的陈氏兄弟俩坚持这个方向有多少年,曾经经历过没有得到项目资助还在找钱坚持研究,组里甚至留不住新招来的实习生这样的日子,也肯定更没见过他们在是两三年时间里横扫各大学术顶级会议,亚洲第一篇MICRO最佳论文,ASPLOS最佳论文,大陆第一篇TOCS论文,CGO最佳论文提名,ISCA审稿评分最高,ASPLOS第一次在中国召开,陈云霁老师作为大会general co-chair致辞的高光时刻。寒武纪如此被资本追捧的今天和明天都是他们这个团队应当得到的,并且也将会是顶尖级学术成果推动社会工业技术进步的经典案例。&/p&&p&&br&&/p&&p&===&/p&&p&update:&/p&&p&1)这几天收到很多询问,在此正面100%确认:华为的麒麟970搭载NPU,就是寒武纪的IP,并且,这也不是寒武纪的IP最后一次出现在华为产品线上,后继会有更多产品跟进。&/p&&p&2)Intel今年早些时候已经出了lake crest,感谢评论区的朋友提醒&/p&
1. 因为机器学习的workload已经非常广泛,从庞大的数据中心云端到每个人手里的手机,以及将来的智能家电,智能可穿戴设备都跑着不同种类的机器学习算法(不一定是DNN),而传统CPU、嵌入式CPU体系结构做深度学习效率不高,所以有GPU、FPGA、ASIC的深度学习…
&a data-hash=&a57c8cecc21d2adfa31fc16& href=&///people/a57c8cecc21d2adfa31fc16& class=&member_mention& data-hovercard=&p$b$a57c8cecc21d2adfa31fc16&&@李震&/a& 泻药!!!&br&这个怎么讲呢,电脑卡这种事情你们要有耐心,不要着急,让电脑跑一会,一会就好(?_?)&br&&br&首先说明一下我的电脑配置,我电脑是ThinkPad系列E435,AMD的1.4G主频,2G运存,集成显卡,嗯,大概300来M的样子,500G机械硬盘。&br&&br&什么?_?,你问我用户体验怎么样,我就这么说吧,市面上的各大主流游戏基本上玩不了,比如什么LOL,穿越啊,天刀我都没想过(?o??ωo???),所以我一般跟基友们局域网玩cs,红警啥的&br&&br&(⊙o⊙)哦,一些专用性质的软件还是带的动的,像什么MATLAB,keil,eclipse,IAR ,vs都还行,至于你说速度,能打开就不错了好吗,像&a data-hash=&a57c8cecc21d2adfa31fc16& href=&///people/a57c8cecc21d2adfa31fc16& class=&member_mention& data-hovercard=&p$b$a57c8cecc21d2adfa31fc16&&@李震&/a& 这帮狗比老在我电脑上开3个MATLAB,然后坐等3-5分钟左右才全部打开,然后就是一阵不要脸的嘲笑。。。&br&╭∩╮(︶︿︶)╭∩╮&br&&br&所以我电脑一般不借人,不是因为小气,我是真的怕别人砸我电脑~T_T~&br&&br&话虽如此,这台电脑陪我熬了四年,熬过了各大比赛和课程设计,今年已经光荣退役了,被我珍藏了起来(?o??ωo???)&br&&br&看在我电脑卡的份上,赞一个呗&br&&figure&&img src=&/v2-76c56c56dbacc_b.jpg& data-rawwidth=&162& data-rawheight=&190& class=&content_image& width=&162&&&/figure&
泻药!!! 这个怎么讲呢,电脑卡这种事情你们要有耐心,不要着急,让电脑跑一会,一会就好(?_?) 首先说明一下我的电脑配置,我电脑是ThinkPad系列E435,AMD的1.4G主频,2G运存,集成显卡,嗯,大概300来M的样子,500G机械硬盘。 什么?_?,你问…
&p&谢邀,想要回答这个问题,就得先回顾一下2015年ARM手机处理器的发展过程。2015年的移动端SOC市场可谓是此起彼伏波涛汹涌,让一众看客们过足了眼瘾。而一切的舆论争议,都要从美国高通公司的骁龙810说起。&/p&&figure&&img data-rawheight=&285& data-rawwidth=&492& src=&/ab6d2dc3fab3870bed085d7ce27cfecb_b.png& class=&origin_image zh-lightbox-thumb& width=&492& data-original=&/ab6d2dc3fab3870bed085d7ce27cfecb_r.png&&&/figure&&br&&p&在2015年之前,美国高通公司利用手中的垄断通信专利大杀四方,把德州仪器、英伟达等一系列老牌公司打得节节败退黯然收场,几乎呈现了市场上一家独大的垄断局面。在当年的旗舰类安卓手机里,即便是拥有自家晶圆厂和研发处理器的韩国三星也不得臣服于高通垄断而又强势的专利大杀器,在S5与Note4两代主力机型中使用骁龙801与骁龙805这两款处理器。由于制程限制,高通骁龙805(APQ8084)在构架方面并没有和骁龙801有大的差别,而且还没有集成网络基带,所以除了寥寥几家财大气粗的厂商外,众多手机厂商都选择了骁龙801作为年度主力。这款14年2月24日发布的处理器是高通自主架构的四核Krait400、单核2.5GHz的最高主频、Adreno 330 GPU、28nm HPm制程,除了Cat.4的基带不支持载波聚合外,骁龙801在发布之初还是颇有旗舰气势的。然而,任谁也没有想到,一度被大家戏称为“十秒真男人”的骁龙801竟然会支撑着高通主力机型长达两三年之久,从曾经的高端S5到中端的小米4/note,再到799、899的低端机型中兴GRAND S。导致骁龙801之所以要延长作战,不得不在2015年继续上阵的缘故,则在于高烧不退的骁龙810严重不给力。&/p&&figure&&img data-rawheight=&418& data-rawwidth=&600& src=&/b323d789bb003ca9a2a6c398dbd34571_b.png& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/b323d789bb003ca9a2a6c398dbd34571_r.png&&&/figure&&p&首先,ARM64位处理器的推出,让沉浸在四核无敌论里的高通猝不及防,先是一再声称64位处理器然并卵,随后又在iPhone声势浩大的宣传下腼腆的承认自家也要做64位处理器,引发了自抽耳光的尴尬情形。刘伯承元帅说过“五心不定,输个干净”,连高层自家的发言人都摇摆不定,急急忙忙上阵的骁龙810自然是一个完成度不高的草率方案。早在正式手机开卖前,坊间就流传着骁龙810过热降频功耗高的流言,高通靠着一再的辟谣和多年业界老大的公信力勉强稳住了大家的信心,随后第一款正式面世的机型是LG G FLEX 2(请别提小米note顶配版,那是PPT发布的安卓机皇)就用事实证明了高通骁龙810是多么的坑爹。&/p&&figure&&img data-rawheight=&319& data-rawwidth=&495& src=&/affeb4b046cff_b.png& class=&origin_image zh-lightbox-thumb& width=&495& data-original=&/affeb4b046cff_r.png&&&/figure&&br&&br&&p&在处理器行业里,处理器自身并不占优势的高通之所以能成为巨无霸,依靠的就是其垄断的网络通信基带,凭借着收取高昂的专利授权费压倒一切对手。3G时代的核心技术里,高通是CDMA技术的专利持有者,授权费自然是收个不停。一般的原厂专利授权,都是在芯片上收费,而高通则是跳过处理器,按产品最终零售价的4-6%比例收专利费。向来拥有“买基带,送CPU”笑称的高通,收专利费的模式被吐槽为“高通税”。可是,网络核心专利在高通手上,大多数自研手机芯片都要单独购买高通基带才能入网,这样会导致整机价格飞涨,反而得不偿失。曾经的德州仪器、英伟达、Intel等国际著名企业,都由于缺乏足够强悍的基带专利技术而败下阵来。明知道骁龙810是个不甚靠谱的处理器,可是缺乏自主研发技术的各大厂商还得无奈的继续用。HTC的 M9、努比亚的 Z9 MAX、Sony的Z3+、小米Note顶配版、乐视Max/1 Pro、一加手机2,等一系列上市的手机都把散热降温作为宣传卖点,什么水冷散热、5项散热专利、双热管散热等等黑科技都接踵而至,结果实际体验里依旧一塌糊涂,高温过热高功耗的问题始终没能解决。连续不断的负面报道之下,高通骁龙810这只喷火龙也就名声鹊起轰动一时,沦为了所有人嘲讽的负面对象。目前来看,似乎只有华为在给谷歌代工Nexus 6P时采用了金属机身+降频关核心的策略才能勉强有点效果,可是依旧远远不如自家海思麒麟950,所以国行干脆不上市也是情有可原了(另一个原因是Google系统国内有墙)。&/p&&br&&figure&&img data-rawheight=&383& data-rawwidth=&547& src=&/8c18dba7ed28e6abd28b59d_b.png& class=&origin_image zh-lightbox-thumb& width=&547& data-original=&/8c18dba7ed28e6abd28b59d_r.png&&&/figure&&br&&p&那么,高通骁龙810的失败,是ARM公版架构不给力的锅吗?&/p&&p&很可惜,并不是。ARM表示,这个锅我们不背。&/p&&figure&&img data-rawheight=&517& data-rawwidth=&975& src=&/8f3aaa9d15227faafbf086_b.png& class=&origin_image zh-lightbox-thumb& width=&975& data-original=&/8f3aaa9d15227faafbf086_r.png&&&/figure&&p&这里要科普一个ARM构架的问题。英国的ARM公司是全球领先的半导体知识产权 (IP) 提供商。全世界超过95%的智能手机和平板电脑都采用ARM架构。ARM并不生产和销售实际的处理器芯片,而是每年推出自己设计的IP许可方案,将处理器架构授权给有兴趣的厂家。A53是ARM架构里的小核心,以低功耗低发热见长,处理简单的日常运算。而A57和A72就是ARM推出架构中的大核心,以高能能见长,处理复杂的程序运算。虽然同为大核心,但是A57的设计并不完美,功耗与性能间的对比值并未达到一个足够优秀的水准。可是全球卖移动处理器构架的独此一家别无分号,大家也只好硬着头皮继续使了。三星与高通按部就班的沿用着A53+A57的大小核组合,前者依靠自家晶圆厂的14nm工艺勉强hold住了A57的稳定性,而不具备晶圆厂只能依赖台积电20nm工艺的后者,只能诞生出喷火龙810这样的奇妙产品了。&/p&&p&同属2015年旗舰处理器的三星7420与华为海思麒麟950,都采用了ARM提供的八核心公版架构,前者是四个A53+四个A57的组合,后者是四个A53+四个A72的组合。三星7420从geekbench3到日蜘蛛几乎包含了常用的大多数测试项目,拳打A8脚踢810,足以说明7420一骑绝尘的领先地位。如果不是11月华为发布了海思麒麟950,恐怕2015年全年的安卓阵营都要看三星一家独大了。&/p&&p&作为处理器新秀的华为,在2015年大胆的玩了一出弯道超车,跳过了A57这个坑爹的大核心架构,果断选择了提前布局,把海思麒麟950的命运赌在了A72上面。与不够给力的A57不同,ARM在A72上的设计非常优秀,在功耗与性能之间达到了一个完美的平衡点。结合了远超14nm的台积电16nmFF+工艺,海思麒麟950在功耗和性能两个角度都展现出了2015年最强CPU的实力,可谓是通杀全场,国际权威硬件媒体AnandTech对其赞不绝口。&/p&&figure&&img data-rawheight=&539& data-rawwidth=&647& src=&/780a9e6f8e3258e2aab5a8_b.png& class=&origin_image zh-lightbox-thumb& width=&647& data-original=&/780a9e6f8e3258e2aab5a8_r.png&&&/figure&&p&&b&SPECint2000&/b&&b&整数性能分析:A72&/b&&b&核心大发神威,平均领先A57 27&/b&&b&%之多,最高达到了43&/b&&b&%,而且只有一个项目落后。&/b&&/p&&p&当然了,麒麟950 A72核心的频率为2.3GHz,比起Exynos 7420 A57核心高了200MHz,也就是大约10%,我们排除它看看:&/p&&figure&&img data-rawheight=&400& data-rawwidth=&650& src=&/e32bbeb0005eeeeb32ebfeb9_b.png& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/e32bbeb0005eeeeb32ebfeb9_r.png&&&/figure&&p&&b&单位频率性能方面,A72&/b&&b&依然遥遥领先。&/b&&/p&&figure&&img data-rawheight=&812& data-rawwidth=&674& src=&/c87bab861c37f0a30a417cc7d620a11e_b.png& class=&origin_image zh-lightbox-thumb& width=&674& data-original=&/c87bab861c37f0a30a417cc7d620a11e_r.png&&&/figure&&p&&b&GeekBench
3&/b&&b&浮点性能:全部项目平均领先22.8&/b&&b&%,极个别很凶猛,最高达到了69&/b&&b&%,A72&/b&&b&火力全开。&/b&&/p&&figure&&img data-rawheight=&229& data-rawwidth=&575& src=&/2d5e2bee701e0f9c92a0e867f025433c_b.png& class=&origin_image zh-lightbox-thumb& width=&575& data-original=&/2d5e2bee701e0f9c92a0e867f025433c_r.png&&&/figure&&p&&b&GeekBench
3&/b&&b&内存带宽:A72&/b&&b&升级效果确实出色,最高高达36%&/b&&b&的提升。&/b&&/p&&p&&b&除了表中的,华为麒麟950 NEON&/b&&b&指令测试双线程并发读写带宽达到了38GB/s&/b&&b&,Exynos 7420&/b&&b&最高只有23GB/s&/b&&b&,骁龙810&/b&&b&更是不过19GB/s&/b&&b&。&/b&&/p&&br&&p&接下来,给大家引入了一个衡量一款手机处理器最核心的参数,也是等会评价高通骁龙820的重要指标,&b&能效比&/b&。高频CPU火力全开下的性能数字固然好看,可是一旦超过了2Ghz就会撞上功耗墙。如果大核心所消耗的功耗过高温度过热,那么对于实际的用户体验而言毫无意义。&/p&&figure&&img data-rawheight=&351& data-rawwidth=&647& src=&/f3bb158c76011_b.png& class=&origin_image zh-lightbox-thumb& width=&647& data-original=&/f3bb158c76011_r.png&&&/figure&&p&以上表中,各自处理器第一行是分别开启1-4个核心时的功耗,第二行则是每多开一个核心增加的功耗。&/p&&p&&b&麒麟950&/b&&b&开满四个A72&/b&&b&核心时只消耗了3.7W&/b&&b&,大大低于Exynos 7420&/b&&b&的接近5.5W&/b&&b&,而且比起麒麟925 A53&/b&&b&核心的3.3W&/b&&b&也增加有限。&/b&&/p&&p&&b&更关键的是,每多开一个核心,麒麟950&/b&&b&的功耗增加也是最低的,只有683-868&/b&&b&毫瓦,Exynos 7420&/b&&b&则都在1.3W&/b&&b&左右。&/b&&/p&&figure&&img data-rawheight=&539& data-rawwidth=&654& src=&/e1c4a8e2df_b.png& class=&origin_image zh-lightbox-thumb& width=&654& data-original=&/e1c4a8e2df_r.png&&&/figure&&p&&b&能耗比(&/b&&b&能效)&/b&&b&曲线图充分说明了,在旗舰处理器中,华为的麒麟950&/b&&b&的能耗比达到了极致,巅峰状态下几乎是三星7420&/b&&b&的两倍。&/b&&/p&&p&至于其他项目的评测……&/p&&figure&&img data-rawheight=&550& data-rawwidth=&650& src=&/c2acba72c6a88c5fae069_b.png& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/c2acba72c6a88c5fae069_r.png&&&/figure&&br&&p&&b&Google
Octane&/b&&b&:毫无悬念的安卓第一,iPhone&/b&&b&之下纯粹的碾压。&/b&&/p&&figure&&img data-rawheight=&550& data-rawwidth=&650& src=&/a0d4d4a715a9dc_b.png& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/a0d4d4a715a9dc_r.png&&&/figure&&figure&&img data-rawheight=&550& data-rawwidth=&650& src=&/4e7b46babf1_b.png& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/4e7b46babf1_r.png&&&/figure&&figure&&img data-rawheight=&550& data-rawwidth=&650& src=&/cc4c14bc88bac007b47f5_b.png& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/cc4c14bc88bac007b47f5_r.png&&&/figure&&figure&&img data-rawheight=&550& data-rawwidth=&650& src=&/e60cfeda06f8e43de9baa_b.png& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/e60cfeda06f8e43de9baa_r.png&&&/figure&&figure&&img data-rawheight=&550& data-rawwidth=&650& src=&/ba42cb97c29_b.png& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/ba42cb97c29_r.png&&&/figure&&figure&&img data-rawheight=&550& data-rawwidth=&650& src=&/fcfa4eb6f6ad57066d42c_b.png& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/fcfa4eb6f6ad57066d42c_r.png&&&/figure&&figure&&img data-rawheight=&550& data-rawwidth=&650& src=&/3db3ed9f0eecd768080b_b.png& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/3db3ed9f0eecd768080b_r.png&&&/figure&&figure&&img data-rawheight=&550& data-rawwidth=&650& src=&/8debec5eaf42a187683ebe3aa42624d4_b.png& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/8debec5eaf42a187683ebe3aa42624d4_r.png&&&/figure&&figure&&img data-rawheight=&550& data-rawwidth=&650& src=&/a9871cc7bfa77c179a4c49_b.png& class=&origin_image zh-lightbox-thumb& width=&650& data-original=&/a9871cc7bfa77c179a4c49_r.png&&&/figure&&p&&b&跨越式的领先,各个项目的评测华为950&/b&&b&都展现了相当华丽的成绩,整体水准毋容置疑,2015&/b&&b&年安卓最强。&/b&&/p&&p&GPU方面一如既往的遗憾。虽然玛丽T880mp4的900Hz高频把能效比达到了最完美的发挥,最高成绩也依然落后于高通810和三星7420,仅仅以小幅度的优势胜过了骁龙808。当然,高通骁龙810一旦火力全开就会瞬间变身烫手宝,三秒钟之后疯狂降频关核心,实际体验一塌糊涂的真相我才不会告诉你们的。&/p&&br&&p&2015年高通骁龙810的失利,让高通不再和其他厂商比拼ARM公版架构的调教能力,开始专注于自主架构的研发,也就是高通骁龙820。经过漫长的等待,高通骁龙820终于正式出货,号称“快的有点狠”的小米5也就迅速召开了“十项黑科技”发布会,第一时间推出了搭载820的小米5,顺便毁掉了“黑科技”这个无辜的词汇……&/p&&p&虽然仅仅问世了一天,可全世界的科技评测媒体都没闲着,AnandTech第一时间给出了评测。链接:&a href=&///?target=http%3A///show/10088/xiaomi-mi5-hands-on& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/show/1008&/span&&span class=&invisible&&8/xiaomi-mi5-hands-on&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&br&&br&&figure&&img data-rawheight=&419& data-rawwidth=&837& src=&/3c53fad045c9ded89320b_b.png& class=&origin_image zh-lightbox-thumb& width=&837& data-original=&/3c53fad045c9ded89320b_r.png&&&/figure&&p&根据上表可知,高通骁龙820的单个大核心最高频率是2.15Ghz,可它的功耗已经达到了2055mW!而与之相对的,华为麒麟950仅有1387mW,即便是四个大核心全开也不过是3734mW而已。换句话说,&b&高通骁龙&/b&&b&820&/b&&b&在主频更低(2.15Ghz&/b&&b&)的前提下,大核心的功耗竟然远远高于主频更高(2.3Ghz&/b&&b&)的华为海思麒麟950&/b&&b&。这意味着高通骁龙820&/b&&b&的CPU能效比远远不如华为海思麒麟950&/b&,因此也招致了AnandTech毫不留情的冷嘲热讽与负面评价。&/p&&p&要知道,AnandTech的满载评测向来是负载压力不够猛烈的,而CPU Burn烤机测试中的数据更加吓人。高通骁龙820在低亮度飞行模式后单核功耗2w多,四核心全开后达到了接近9w的可怕数字。如此骇人听闻的成绩,连烤机软件制作者ioncannon都不敢相信,猜测或许是出了bug导致测试不准确。&/p&&figure&&img data-rawheight=&1469& data-rawwidth=&900& src=&/8cbdb0cbacd31ae_b.png& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&/8cbdb0cbacd31ae_r.png&&&/figure&&figure&&img data-rawheight=&362& data-rawwidth=&704& src=&/8aafa98acfb_b.png& class=&origin_image zh-lightbox-thumb& width=&704& data-original=&/8aafa98acfb_r.png&&&/figure&&br&&p&同样,PC mark测试中,搭载高通骁龙820的小米5表现也未达到预期,与其安兔兔软件上高达14w的跑分成绩完全无法相提并论。对于高通骁龙820的能耗比和实际体验,AnandTech也不太满意。&/p&&br&&figure&&img data-rawheight=&1515& data-rawwidth=&900& src=&/c6ab05f90ebe_b.png& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&/c6ab05f90ebe_r.png&&&/figure&&br&&br&&p&当然,GPU分数一如既往的横扫千军,这一点确实是高通骁龙820的魅力之所在。&/p&&p&综合高通骁龙820的表现来看,它似乎没有达到所有人对于高通所谓自主架构的预期,甚至看不出来任何高通有必要抛弃A72,在A57上面大改特改折腾出自主架构的理由。这也说明了,&b&拥有自主知识产权的自主架构,并不一定就比&/b&&b&ARM&/b&&b&的公版架构要好。&/b&固然前者可以为自家量身定制量体裁衣,可是漫长的研发时间和高额的资金投入,都是不可忽视的成本消耗。一旦最终的成品能效比反倒不如公版的ARM架构,那真真是得不偿失,赔了夫人又折兵。&/p&&p&不出意外的话,小米5将会是新一
代的功耗猛温度高的性能利器,而它所宣扬的十大黑科技基本都是供应商提供的技术,又与其自身有何关系呢?缺乏自主知识产权注定会遭遇发展困境,而过于强调
所谓的“自主性”,又会面临着故步自封资源消耗的重复浪费,如何在这两者之间把握好平衡,谋求企业最健康的一条发展之路,或许就是诸多科技厂商的首要难题
了吧。&/p&&p&数据参考:anandtech、爱搞机、炮神评测软件、wp7吧&/p&
谢邀,想要回答这个问题,就得先回顾一下2015年ARM手机处理器的发展过程。2015年的移动端SOC市场可谓是此起彼伏波涛汹涌,让一众看客们过足了眼瘾。而一切的舆论争议,都要从美国高通公司的骁龙810说起。 在2015年之前,美国高通公司利用手中的垄断通信专利…
答案是可以的,而且已经有人这么做过。&br&&br&商业化的半导体行业不会这么做,主要是考虑到良品率的问题,因为一个芯片的面积越大,产生瑕疵的可能性也就越大,而对于芯片来说一个小小的瑕疵可能导致整个芯片报废,实际上现在的芯片里都有不少冗余的部分,就是为了提高良品率,减少因错误导致的额外开销。&br&&br&下面来说说用一整块晶圆去制造一个CPU的情况。&br&早在2010年欧盟赞助了一项由德国海森堡大学发起的项目,名字叫BrainScaleS (Brain-inspired multiscale computation in neuromorphic hybrid systems) ,其实和最近很火的IBM TureNorth处理器有点类似,都是模拟大脑物理结构的东西。&br&不过他们模拟的是老鼠的大脑结构,具体步骤是先将老鼠的大脑用液氮冰冻,然后一层一层用机器磨掉,每磨掉一层就进行一次拍照,然后根据全部的照片去研究老鼠的大脑结构(没错,和山寨手机仿造电路板用的方法一模一样)。&br&&figure&&img src=&/f2a17fcc64eeae4a69e843df_b.png& data-rawwidth=&617& data-rawheight=&713& class=&origin_image zh-lightbox-thumb& width=&617& data-original=&/f2a17fcc64eeae4a69e843df_r.png&&&/figure&&br&然后根据这个使用180nm CMOS工艺,在一整片的8英寸晶圆去复现了老鼠的大脑结构,有20万个神经元、5000万个突触。因为大脑是一个3D状的网络结构,所以实际的CPU是把它平铺到1个2D平面上的,所以在晶圆上有一个个的区域,不同的区域之间使用了专门开发的结构去进行互联。&br&&br&&figure&&img src=&/ffd4d9a54ff0c581d6bf11_b.png& data-rawwidth=&1332& data-rawheight=&948& class=&origin_image zh-lightbox-thumb& width=&1332& data-original=&/ffd4d9a54ff0c581d6bf11_r.png&&&/figure&至于为什么使用如此“古董”的工艺,其原因在于这是一个数模混合芯片,我们知道模拟电路由于自身的特征(低噪声和高驱动能力等)而无法使用线宽太小的半导体工艺(否则要么达不到设计指标,要么干脆就烧掉啦),而数字电路则不用考虑这些。所以在CPU工艺已经进步到14nm的今天,模拟电路使用的主流工艺还是130-180nm。&br&&figure&&img src=&/07febc4539_b.png& data-rawwidth=&633& data-rawheight=&425& class=&origin_image zh-lightbox-thumb& width=&633& data-original=&/07febc4539_r.png&&&/figure&&br&实际的系统已经在2013年上线了,不过效果貌似没有预期那么好,这个项目已经于去年停止了...&br&&figure&&img src=&/7d141db7eed_b.jpg& data-rawwidth=&1320& data-rawheight=&990& class=&origin_image zh-lightbox-thumb& width=&1320& data-original=&/7d141db7eed_r.jpg&&&/figure&换句话说,这也是世界上最大的CPU,核心面积32413平方毫米,黄老板的核弹弱爆了...
答案是可以的,而且已经有人这么做过。 商业化的半导体行业不会这么做,主要是考虑到良品率的问题,因为一个芯片的面积越大,产生瑕疵的可能性也就越大,而对于芯片来说一个小小的瑕疵可能导致整个芯片报废,实际上现在的芯片里都有不少冗余的部分,就是为…
短答案: 是的。&br&&br&原因如下(长答案):&br&&br&在摩尔定律还适用的时候(包括现在), 提高芯片的性能有如下两种方法: 1.在有限面积内加入更多的场效应管, 或者2.提高时钟。&br&&br&在1990年到现在, 这两种方法屡试不爽, ibm从0.5um技术用到130nm, 再到90nm, 45nm, 32nm等等。 目前intel的 ivy bridge已经用到了22nm的技术(十分可怕!下文会说)。 至于提高时钟, 大家请自行参考各种市场上芯片的主频。 从 奔四的 133Mhz到现在动不动x GHz的主频就知道啦~&br&&br&这两种方法会导致什么问题呢?&br&&br&首先看 缩小器件这个: 理论上我们可以把器件越缩越小, 实际上受限于两个因素: a 制作工艺 b 分子大小&br&&br&制作工艺不用说。 其实现在ibm已经是原子级别的队列了 (参见ibm 原子小人动画) &br&至于分子大小为什么会是一个问题呢?&br&还要分两方面讲( 抱歉了…)&br&i 你猜硅原子多大? 硅原子的范德华半径, 也即分子半径是210pm, 也即 0.21 nm。 &br&-------------------------------------------------------------------------------------------------------------------------&br&以上对硅原子半径使用不正确, 已修改如下: &br&i 你猜硅原子多大? 硅原子的 晶格常数是 5.431A , 也即 0.54nm, 原子半径也在同一个数量级上(懒得算了...) &br&&br&发现问题了吗? 我们的器件已经递减到跟原子/分子一个数量级了!&br&&br&场效应管中 pn结的做法是向纯硅里面掺杂质产生的, 当我们有几千个几万个硅原子的时候, 掺杂的密度还是可以方便的控制的。 但是当器件已经进入纳米级别的时候, ibm已经开始考虑掺杂“个数”而非“密度”了。 也就是说, 必须掺杂40-60个x原子(只是打个比方)才可以达到标准。 &br&&br&当然这还好, 我们还能做到&br&&br&那么接下来这个就比较纠结了… &br&&br&感谢知友 &a href=&/people/huo-hua-de-41& class=&internal&&霍华德&/a& :&br&&br&ii 缩小器件导致的电压降低&br&&br&每次器件缩小就会导致工作电压降低, 这主要是由于小器件更容易被击穿导致的. 当年IBM的0.5u 和 0.25u器件都可以使用2.5V 的工作电压, 但是130nm器件和90nm器件就是1.2V电压了, 目前的45nm/32nm/22nm等器件都是1.0~0.7 V的电压. &br&&br&所以有人会问 : 降低电压不是好事么? 是好事(节约能量) 也是坏事(详情请参见 &a href=&///?target=http%3A//en.wikipedia.org/wiki/Dennard_scaling& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Dennard scaling&i class=&icon-external&&&/i&&/a&) &br&&br&简单地说: 如果工作电压一直降低, 那么工作电压终会接近或者低于场效应管的阈值电压. &br&&br&打个比方, 本来场效应管是用作开关的, 结果现在突然发现, 由于工作电压太低, 这个开关打不开了, 或者换句话说: 这个开关打开/关闭时候电流的区别区别变小了 ...&br&&br&这会导致什么问题呢?
如果我们要保证开电流够大, 那么我们就增加了漏电流.. 如果我们要保证漏电流小, 那么就减小了开电流, 也即增加电路延迟了. &br&&br&&br&---&br&所以这里就有知友
&a href=&/people/huo-hua-de-41& class=&internal&&霍华德&/a& 提到的分性能的结构(注. 在奔四那些年代, 这些分性能的电路架构一直不受重视..直到开/闭电流的比值小于1000以后, 我们才开始重视这些电路... 我们现在用的一些高性能/高节能电路其实在九几年就被申请了专利的, 但是当时一直用不上...). 比如说电路的计算部分, 我们需要高性能的电路来加快频率, 但是控制部分我们需要节约能耗等. 再就比如说 手机芯片需要低能耗, 因为是电池供电, 但是台式机就可以用一些高能耗高性能的设计来加速. 不一一列举了.&br&---&br&&br&&br&iii 电流&br&原因1 器件多了, 总的工作电流就大了(好理解吧! 不解释了…)&br&原因2 就是漏电! &br&门电路的场效应管里面, 控制端理论上不产生任何电流。 静态下 理论上也不消耗任何电流。 &br&但是实际上嘛… 绝缘体也就是电阻很大的导体… 所以还是会有电流产生的。 &br&静态下理论上场效应管是关闭的, 但是还是会有漏电的。 而且 器件越小, 漏电越明显。 &br&&br&原因2.5 量子效应&br&&br&看过科幻的都应该知道有这么一种东西叫量子效应(参见大刘的球状闪电)。 简单的说: 微观结构下, 电子表现出很强的波粒二象性: 电子的存在是按照波函数决定的几率随机分布在一团“电子云”的任何一个地方。 理论上电子云无限大, 但是超过一定边界之后, 电子云的概率就十分十分小了(这也是为什么宏观物体不会有明显的波粒二象性)&br&&br&问题是!: 纳米级别的门电路触及到了这团电子云! &br&&br&这导致什么问题呢? 本来, 我加一个电场( 或者用绝缘体), 那么电子是一定过不去的。 而现在在每个器件中, 电子“不一定”过不去了。 &br&&br&你猜如果有很多很多的电子这样做了会怎么样? 对了! 有电流, 而且无法控制!&br&&br&回到intel 22nm的器件: 22nm需要专门的 量子电流模拟! 这说明量子电流已经和正常的漏电流在一个级别上了!而且, 量子电流是从门流入的(跟漏电流产生源不同), 导致了我们无法用解决漏电流的方式去解决量子电流(比如说加入SLEEP模式开关等. )&br&&br&简单的归纳一下: 器件越小, 漏电流越大。 而且不易控制。 这就导致了器件缩小这条路会越走越难。 &br&&br&另外, 千万不要以为漏电流大了不会怎么样, 电流会直接增加功耗! 这也就导致处理器的发热会使得它们无法正常工作。 &br&&br&然后我们再来看提高时钟: &br&&br&理论上嘛, 缩小器件会导致电路延迟变短( 内部电容小了,充放电快了), 所以我们就可以加快时钟。 比如说我们军训教官喊口令, 本来是 一~ 二 ~ 一 这样, 现在突然 一二一, 一二一, 那么整个队伍自然会快起来。 &br&&br&问题在于: 时钟的上限更明显! &br&&br&原因在于: 当电路超过10GHz工作的时候, 时钟的能量损耗特别大, 而且是呈二次方~ 四次方的增大。&br&&br&为什么呢? 很简单: 整个芯片变成了一根天线。 向周围辐射能量。&br&&br&玩儿脱了啊… 两条路都给堵死了…&br&&br&那怎么办呢? 我们就参考火影忍者里面鸣人的方法吧! 影分身! (偏题了…) &br&&br&简单的说, 如果假设 两组理想电路: 做加法运算, 一组只给一个加法器, 在V的电压下工作, 时钟频率 f 那么能耗是: P = C * V ^2 * f , 简化模型。&br&&br&C 是加法器内部的电容和外接的电容和( 要表达1或者0, 方法就是在电容上充电或者放电)。&br&&br&好我们用两个加法器试试… 假设完成一样的运算, 那么每个加法器只要一半的时钟就好啦! &br&&br&P= C V ^2 * f /2 * 2 &br&&br&第一个除以2是因为时钟减慢, 第二个乘以二是因为 两个。 &br&&br&tada~ 功耗一样! (打脸, 有个毛用啊!)&br&&br&别急别急…&br&&br&既然我们降低了时钟, 那么我们电路是不是可以多允许一些 延迟呢? 答案显然是可以! &br&&br&但是电路已经设计好了啊! 怎么改呢? &br&&br&答案就是: 降低电压! &br&&br&只要我们能降低电压V, 那么 我们就省下了功耗。 &br&&br&&br&&br&所以, 长答案总结: &br&&br&单核cpu 功耗吃不消(主要是发热) , 时钟也会受到限制。 多核cpu 可以通过并行计算达到降低时钟并且维持原有计算能力的方式。 &br&&br&&br&&br&___________________________Version 2 分割线_____________________________&br&&br&早上一看这么多回复吓尿了...&br&&br&一一回答一下回复吧: &br&&br&&a href=&/people/sundayrain& class=&internal&&SundayRain&/a&&br&“奔四的133mhz”貌似是笔误&br&--&br&A 2.4 GHz &b&Pentium 4&/b& was released on April 2, 2002, and the bus &b&speed &/b&increased from 400 MT/s to 533 MT/s (133 MHz physical &b&clock&/b&)&br&&br&2.4GHz是主频, 我说的133MHz是物理时钟, 由于我是做电路的而非计算机架构, 所以我主要考虑的是时钟的分布, 以及因此导致的时钟不同步 / 天线辐射 (其实时钟不同步是有解决方式的, 比如H-Tree架构等, 但是时钟辐射确实很难解决. ). 而2.4GHz主频是由于在局部加锁相环提高局部频率的方式. &br&&br&---------------------------------&br&&br&&a href=&/people/huo-hua-de-41& class=&internal&&霍华德&/a&&br&&br&纰漏不少 不一一指出。提几点 &br&&br&&& 半导体硅是共价键 应该用其晶格常数5.431A 而非用于分子晶体的范德华半径。&br&&br&多谢指正! 今早又看了一下MOSIS上面关于IBM器件的指导, 确实如此! &br&&br&&& 简单把晶体管的发展问题归咎于漏电和能耗也是不合理的。CPU在设计的时候就要多种分类 高性能高耗能 低性能低耗能 用于台式机服务器的CPU自然从架构到对晶体管的要求上就与用于移动平台的不同。 岂是整体上CPU再能耗上是不断下降的 其中就表现在Vdd的不断减小 但Vdd的减小导致了阈值电压的困境。阈值电压过大导致驱动电压不足降低性能 。阈值电压过小 导致PN间漏电过大 这是基于门势垒的漏电。量子漏电是由于为了在保证沟道间参杂不再降低同时保证门对沟道具有足够的控制 从而不断缩小绝缘层的厚度 当厚度太小时遂穿效应就变的很明显 但十年前这可能是个问题 但是伴随着high k材料的发展这已经不再是一个很严重的问题。传统晶体管的确面临这非常多的挑战 但是新型的器件结构也不断被提出 不要小看了我们做器件人的智慧与决心。人类是没有极限的,山高人为峰&br&&br&十分感谢这个回复! 原回复手机打字, 打着打着就偏题了... 所以有一些解释重新看了一下确实不对...&br&我说一下作为电路设计的看法: 器件改革确实使我们电路设计有了更大的空间, 一代又一代的器件缩小也在不断地冲击设计的思路.. 比如说我们正在用的IBM 32nm SOI的器件设计就和传统的PN井的设计有很大的区别, 直接导致了我们电路设计上需要增加许多非必要结构等, 但是确实大大增大了我们的设计密度. 再比如说Inter 的Ivy-Bridge 里面的 tri-gate设计, 也导致了一些处理器核心架构/设计的改动, 比如说无法实现较大规模的门而要拆分成多个门电路等, 以及多层架构的 可行/不可行性等. &br&&br&我也衷心地期望能有更给力的器件使我们电路设计变得更好!&br&&br&谬误已在文中修改/添加. 再次感谢! &br&&br&---------------------------------&br&&br&&a href=&/people/yousong& class=&internal&&吉木公&/a&&br&&br&高时钟频率还有一个问题是时钟同步,光速在那个周期下也走不多远…&br&&br&按照我的了解, &b&时钟传输同步&/b&问题相对好解决, 比如说局部增大时钟频率, 这样片子上走的时钟就是低频时钟了. 但是&b&局部增大时钟频率导致的时钟不同步/ 时钟SKEW &/b&(谁告诉我怎么翻译...) &b&很难解决, &/b&这也就导致了无法在某一个区域使时钟频率的提高. 另外, 我说的10GHz是&b&即使只在某个区域有该时钟, 也会导致难以接受的电磁辐射损耗&/b&. &br&&br&&br&&a href=&/people/di-di-69-57& class=&internal&&迪迪&/a&&br&电路超过10GHz变天线,是否能等同于电子计算机处理器频率的极限在这里呢&br&&br&目前来说, 确实是的. 其实传播频率还要更低 (~1GHz), 10GHz是局部的时钟频率极限. &br&&br&而且再向上增加频率的话(10GHz + ) 是由于场效应管的频率限制, 在这个频率下&b&根本无法在片上传播有效的能量! . &/b&&br&&br&PS: 我们有一个教授的博士论文就是在300 THz (300, 000 G Hz )的情况下用另外一种结构(非CMOS)在片上传播了能量... (只是能量, 不是信号...) 感受一下...
短答案: 是的。 原因如下(长答案): 在摩尔定律还适用的时候(包括现在), 提高芯片的性能有如下两种方法: 1.在有限面积内加入更多的场效应管, 或者2.提高时钟。 在1990年到现在, 这两种方法屡试不爽, ibm从0.5um技术用到130nm, 再到90nm, 45nm,…
泻药。&br&&b&ARM架构&/b&:
由英国ARM公司设计的一系列32位的RISC微处理器架构总称,现有ARMv1~ARMv8种类。&br&&b&ARM7&/b&:
一类采用ARMv3或ARMv4架构的,使用冯诺依曼结构的内核。&br&&b&ARM9&/b&:
一类采用ARMv4或ARMv5架构的,使用哈佛结构的内核。&br&&b&Cortex M3&/b&: 采用了ARMv7架构的,使用哈佛结构的内核。&br&&b&Cortex M4&/b&: 采用了ARMv7架构的,使用哈佛结构的内核。(较前者最大区:别增加了一个DSP处理功能,SIMD单指令多数据功能。&i&其他区别请自己在实际项目开发中体验&/i&)&br&&b&STM32&/b&:
意法半导体公司(ST)推出的系列基于Cortex-M0/Cortex-M3/Cortex-M4等内核的微处理器/微控制器芯片。&br&--------------------------------一个类似的集合用分割线隔离开------------------------------------------&br&&b&51&/b&:
Intel在1981年推出的由8031微控制器芯片改造升级的、使用CISC指令集的、冯诺依曼架构的、8位的8051微控制器。后Intel将8051微控制器的内核授权给其他芯片厂商,使得市面上广泛出现类似于8051的芯片,这种采用8051内核的芯片被简称为51。&br&--------------------------------一个类似的集合用分割线隔离开------------------------------------------&br&&b&AVR&/b&:
一系列由ATMEL公司在九十年代出推出的系列8位的、采用改进哈佛结构的、使用RISC指令集的微处理器芯片。&br&&br&================应邀补充======================&br&最开始的Intel公司都是自己从头研发处理器芯片。从、……TI公司的&a href=&///?target=http%3A//zh.wikipedia.org/w/index.php%3Ftitle%3DTMS_1000%26action%3Dedit%26redlink%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&TMS 1000&i class=&icon-external&&&/i&&/a&……还有其他的公司研发的可编程芯片。因为是不同公司,而且个公司之间也不可能有交流(防止商业秘密泄露),所以各自做的都芯片都有在内部CPU、总线、存储单元、指令集上的不同(如果有相同,那就是专利侵权了,比如INTEL当年锲而不舍控告AMD)。但每个公司研发的新老芯片之间都有一定的结构和技术是上的传承,所以出现了不同公司研发的芯片中有不同的&b&架构。&/b&&br&&br&&br&架构 architecture:是一个抽象的概念,是一个结构内的元素及元素间关系的一种主观映射的产物。概念性的东西请看&a href=&///?target=http%3A//zh.wikipedia.org/wiki/%25E5%25BE%25AE%25E6%259E%25B6%25E6%25A7%258B& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&微架構&i class=&icon-external&&&/i&&/a&。&br&比如我们常说的计算机处理器有486、Ivy Bridge、Pentium M……这就是架构的不同(其都从属于&a href=&///?target=http%3A//zh.wikipedia.org/wiki/X86& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&x86&i class=&icon-external&&&/i&&/a&架构),维基的内容里只提到了计算机处理器中的常见硬件架构,而没提到你想了解的、常用语嵌入式系统中的微处理器/微控制器芯片所用到的架构。&br&而你说的联系,就是我前面用分割线隔离开来的:&b&ARM架构&/b&到&b&STM32&/b&这些名称都属于ARM架构的范畴。&br&&br&&u&这两天忙着考虑控制步进电机的程序设计,所以脑子有点不够用,表达有点障碍&/u&。如果你关注过计算机CPU历史就能理解我所说的&b&架构&/b&是怎么一回事。&br&&br&&br&内核 IP core: 概念请看&a href=&///?target=http%3A//zh.wikipedia.org/wiki/IP%25E6%25A0%25B8& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&IP核&i class=&icon-external&&&/i&&/a&。可以说IP核是&b&硬件架构&/b&这个抽象概念在芯片内的具体实现。&br&上面说了,最开始都是各个厂家自己做,从架构研发到芯片成型,这种好处是自己完全掌握了核心技术。但劣势是投入巨大,一旦大投入但设计出来的芯片因为架构的不合理而导致市场流失,那之前的投入就打水漂了。&br&而当年INTEL的在嵌入式工控领域热卖(其实现在还有些工控领域坚持用8031,因为稳定,这个以后有空再说)。而intel可能是从生产成本和扩展领域方面的考虑(&i&人家做计算机微处理器比这赚钱多了&/i&),自己逐渐放弃了8051芯片的生产,转而允许授权其他公司生产。集成芯片内部就是一堆晶体管的集合,用硬件描述语言来规定晶体管的排列组合从而实现中央处理器、总线,存储单元……,Intel把如何实现8051架构的硬件描述语言授权卖给其他公司(买内核),获授权的公司就能生产具有8051内核的芯片了。&br&&br&&br&微控制器MCU/微处理器μP:&br&一开始只有小型微型计算机所使用的微处理器,后来Intel从4004发展到8086阶段中衍生除了专门用于工业控制方面的,然后是用于计算机的微处理器慢慢发展向超高集成度、大容量、高频率、大处理能力以符合计算机技术的日益发展需求。而8051则平稳发展向了高稳定性、多功能集成度的微控制器,以满足工业控制领域对内存需求相对不是太大,但稳定性高、外设功能较多、占用面积小的要求。&br&&br&最开始的区分就是微控制器带有内部RAM(&i&等同于计算机的内存条,当然芯片内集成不会有那么大的内存,一般撑死了128K内存&/i&)、和ROM(&i&等同于计算机的硬盘,当然也不会有想硬盘大的容量&/i&),以及其他的外设功能(&i&如串口、spi、I2C等功能&/i&)。简单的说就是把一个缩小资源容量的计算机放到一个芯片内。也因为这样单芯片集成了一个完整的计算机系统在里面,大陆地区在80、90年代的电子工程师将其称为&b&“单片机”&/b&,然后影响至今。&br&(&i&注意,一个完整的计算机系统是处理器、总线、存储结构、输入输出结构,所以不要跟我说为啥没有显示器和鼠标键盘它单片机也敢说继承了一个计算机系统,你可以翻翻《计算机系统原理》课本&/i&)&br&&br&&br&而计算机微处理器因为需要从处理数据角度考虑,纯粹只做处理方面的升级,所以在一开始的区分中,微处理器是不集成RAM、ROM、和其他 外设功能的。&br&只是因为PowerPC往嵌入式发展,以及后来ARM的出现,开始慢慢的又缩小了微处理器和微控制器的区别,这些微处理器也开始集成了RAM、ROM、其他外设……&br&但现在国际上也没有一个统一的,通用的标准说微处理器和微处理器之间的区别是什么。跟“单片机”一样,都是工程师自己叫出来的。也有人把8051也成为微处理器的……&br&而从我做过的Ti的DSP、ARM7、ARM9等芯片来看:&br&微处理器μP是需要通过并口外扩RAM、ROM,并且程序从外部ROM启动,在外部RAM运行的。&br&微控制器MCU通过内部ROM启动程序,在内部或外部RAM运行程序的。&br&&br&这只是我的个人见解,因为有的芯片可以被配置为微处理器,也可以被配置为微控制器,其配置后的区别就是程序从哪里启动在哪里运行。比如德州仪器TI的TMS320F2812 DSP芯片。&br&&br&BTW:DSP芯片本质上其实也是一个微处理器/微控制器芯片,只是它内含了DSP数字信号处理功能,比如上面说到的Cortex-M4也是集成了DSP数字信号处理功能呢,但ARM公司不称呼它为DSP,这都是工程师自己称的。没有统一标准。我在另外一个回答里提到了。我就不粘贴过来了。&a href=&/question/& class=&internal&&ARM 和 Intel 谁能代替 DSP?&/a&&br&&br&&br&------------------------------------关于冯诺依曼结构----------------------------------------------&br&冯诺依曼结构:是一种将程序指令存储器和数据存储器合并在一起的电脑设计概念结构。应该说ARMv3之类的内核的存储结构模式和寻址模式使用了这种冯诺依曼结构,一个完整的微处理器架构还需要指令集等其他系列结构。&br&如果是问主不理解冯诺依曼结构的话,建议学习一下《计算机系统》或《计算机系统原理》这一类书籍。在我记忆中貌似大学大一大二必修的《计算机原理》这一类的都会提到(用于考计算机一二级神马的教材)。&br&&br&-------------------------------插一个关于嵌入式概念的补充-------------------------------------&br&IEEE和IEC对于嵌入式系统(Embedded System)的诠释,从最早期的、8051,直到}

我要回帖

更多关于 光纤收发器 芯片 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信