人工智能,无人驾驶股票龙头有龙头股票吗

责任编辑:htt
净额(亿)
同花顺财经官方微信号
手机同花顺财经
专业炒股利器
同花顺爱基金
您有什么问题想要告诉我们?
留下您的联系方式,以便我们向您反馈结果
提交成功,感谢您的支持!
收益宝·活期
7日年化收益率
理财宝·短期
7日年化收益率人工智能:无人驾驶趋势明确 荐3股
  百度、谷歌为代表的互联网企业,以人工智能的视角切入无人驾驶产业,将无人驾驶汽车看做一个智能的机器人系统,基于无人驾驶技术的汽车,实质上就是一台移动的智能联网机器人,可以实现真正的智能化和共享化。传统汽车技术只是&移动&能力的载体,人工智能和车联网才是无人驾驶技术的核心。无人驾驶汽车是汽车工业和人工智能的集大成者。  识别技术和深度学习算法的突破使无人驾驶成为可能。  无人驾驶技术可抽象为&环境探测-自动决策-控制响应&,其发展主要依赖于三方面技术的成熟:智能感知技术是前提,智能决策和控制技术是核心,高精度地图及智能交通设施等是重要支撑。智能识别及决策技术就想智能汽车的中枢神经,是自动驾驶技术成熟的核心及瓶颈。深度学习云平台让每一个新上路的&新驾驶脑&都像&老司机&那样,拥有丰富的驾驶经验。作为无人驾驶发展成熟的重要支撑,高精度、全信息地图是不可或缺的。  无人驾驶技术将是人类社会一次重大的变革。  无人自动驾驶技术使出行更经济、交通更高效、出行更安全。无人驾驶将推动法规、交通指示、保险对无人驾驶的适应,无人驾驶将车辆共享推向更高层次。  无人驾驶的产业化路线--商用车先于乘用车、双驾双控过度到无人驾驶。  商用车将先于乘用车率先实现特定区域下的完全自动驾驶。整体上是由双驾双控逐步走向完全的无人驾驶。  重点看好中海达、四维图新和东软股份等公司。  中海达是国内激光移动测量和高精度定位的龙头,有望成为高精度地图厂商测绘仪器的提供商和数据提供方,高精度定位市场也将打开。四维图新是前装市场份额最大的图商,依靠其技术优势及流量优势切入高精度地图的制作与运营。东软集团是国内汽车电子的领先厂商,有望切入无人驾驶系统集成领域。银河证券  
上海证券信息有限公司版权所有。本网站提供之资料或信息,仅供投资者参考,不构成投资建议。
Copyright 2014 Shanghai Stock Information Service Corp. All rights reserved.
联系电话:400-820-0277 地址:中国上海 浦东杨高南路1100号 E-MAIL:{"debug":false,"apiRoot":"","paySDK":"/api/js","wechatConfigAPI":"/api/wechat/jssdkconfig","name":"production","instance":"column","tokens":{"X-XSRF-TOKEN":null,"X-UDID":null,"Authorization":"oauth c3cef7c66aa9e6a1e3160e20"}}
{"database":{"Post":{"":{"contributes":[{"sourceColumn":{"lastUpdated":,"description":"","permission":"COLUMN_PUBLIC","memberId":,"contributePermission":"COLUMN_PUBLIC","translatedCommentPermission":"all","canManage":true,"intro":"","urlToken":"qbitai","id":40062,"imagePath":"v2-7e0d98f2aaca.jpg","slug":"qbitai","applyReason":"0","name":"量子位","title":"量子位","url":"/qbitai","commentPermission":"COLUMN_ALL_CAN_COMMENT","canPost":true,"created":,"state":"COLUMN_NORMAL","followers":2582,"avatar":{"id":"v2-7e0d98f2aaca","template":"/{id}_{size}.jpg"},"activateAuthorRequested":false,"following":false,"imageUrl":"/v2-7e0d98f2aaca_l.jpg","articlesCount":103},"state":"accepted","targetPost":{"titleImage":"/v2-e6dd358ace3_r.jpg","lastUpdated":,"imagePath":"v2-e6dd358ace3.jpg","permission":"ARTICLE_PUBLIC","topics":[350,],"summary":"102美元,日。144美元,日。上面两个数字,分别对应当天收盘时英伟达(NVIDIA)的股价。这意味着,将近半年光阴过去,英伟达的市值又涨了41%。这一幕与去年似曾相识。29美元,日。46美元,日。106美元,2016年12…","copyPermission":"ARTICLE_COPYABLE","translatedCommentPermission":"all","likes":0,"origAuthorId":0,"publishedTime":"T13:37:31+08:00","sourceUrl":"","urlToken":,"id":3254828,"withContent":false,"slug":,"bigTitleImage":false,"title":"半年总结:买哪支人工智能相关的股票最赚?","url":"/p/","commentPermission":"ARTICLE_ALL_CAN_COMMENT","snapshotUrl":"","created":,"comments":0,"columnId":40062,"content":"","parentId":0,"state":"ARTICLE_PUBLISHED","imageUrl":"/v2-e6dd358ace3_r.jpg","author":{"bio":"?'?' ? 追踪AI技术和产品新动态","isFollowing":false,"hash":"36fd316d0b8a6d8da20ba","uid":528600,"isOrg":true,"slug":"liang-zi-wei-48","isFollowed":false,"description":"公众号:量子位(QbitAI)","name":"量子位","profileUrl":"/org/liang-zi-wei-48","avatar":{"id":"v2-ca6e7ffc10a0d10edbae635cee82d007","template":"/{id}_{size}.jpg"},"isOrgWhiteList":true},"memberId":,"excerptTitle":"","voteType":"ARTICLE_VOTE_CLEAR"},"id":704493}],"title":"半年总结:买哪支人工智能相关的股票最赚?","author":"liang-zi-wei-48","content":"102美元,日。144美元,日。上面两个数字,分别对应当天收盘时英伟达(NVIDIA)的股价。这意味着,将近半年光阴过去,英伟达的市值又涨了41%。这一幕与去年似曾相识。29美元,日。46美元,日。106美元,日。上面三个数字,分别对应去年当天收盘时英伟达的股价。去年时间过半时,英伟达市值上涨58%,而全年的涨幅为265%。2017年已经过半,英伟达的股价,还会重演历史么?花旗集团分析师Atif Malik觉得英伟达股价还会继续上涨。他在分析报告中指出:“英伟达还处于从电脑显卡公司转变为人工智能平台的初级阶段,这一转型可能在未来几年带来巨大的增长。”英伟达现在业绩几何,量子位在此前的报道里有所提及。而Malik在报告中表示,数据中心、无人车、AI民主化等因素,会继续推动英伟达股价走高。300美元。如果未来是牛市,花旗认为英伟达的股价可以达到这个数字。这意味着,这家投行认为即便现在买入,你还有一倍的赚头。(理想状况下)如果未来是熊市,花旗认为英伟达的股价会下探到100美元。当然,按照正规的标准,花旗维持对英伟达股票的买入评级,每股的基准目标价格为:180美元。也不是每家投行都如花旗这么乐观。比如Susquehanna Financial的分析师同样看好这家公司,但只是将英伟达的目标价从110美元,上调至140美元。当然肯定还有更不看好的,毕竟英伟达目标股价的平均值约为:127美元。如果英伟达股价真能站上300美元,这家公司的市值将超过1600亿美元。2016年初,英伟达的市值仅有160亿美元。显而易见,英伟达是这波AI浪潮的最大受益者之一。(伪利益相关:量子位有两个朋友,很早前就坚定的买入了英伟达)相比而言,英伟达的老对手AMD就没有这么坚挺。今年初,AMD一股11.32美元,到现在不过是12.28美元。涨幅8%。AMD市值为110亿美元。英伟达目前是830亿美元。还有没有比英伟达涨幅更大的人工智能股票?有。特斯拉。年初特斯拉股价216美元,截至6月30日收盘361美元,涨幅近70。如果从日的182美元算起,特斯拉涨幅已达98%。在这半年里,特斯拉连续赶超通用、福特,成为美国市值第一的汽车公司。对,年产量还不到10万辆的特斯拉,比年销售量1000万辆的通用市值还高。因为特斯拉代表着汽车产业变革的方向。前不久大众在投资出门问问时,大众中国总裁兼CEO海兹曼就说:“汽车产业正在跨入一个全新的时代,电动汽车、自动驾驶和数字化网络正在颠覆汽车行业”。而特斯拉也远非一枝独秀。上个月底,大摩在一份研报中表示,Alphabet(Google母公司)旗下无人驾驶部门Waymo价值可达到700亿美元(特斯拉市值560亿美元),其巨大潜力并没有在该公司当前的股价中获得充分体现。Waymo只是Alphabet众多人工智能业务之一。目前Alphabet的股价为929美元,相较年初涨幅约为15%。但Alphabet体量大,目前市值6300亿美元,这意味着:半年来,Alphabet市值的涨幅近1000亿美元。小巫见大巫,大概就是这个意思。美国股市这半年涨势喜人,除了Alphabet,其他几家重点押注人工智能的科技巨头,股价表现都还不错。Facebook,股价年初116美元,现在150美元。市值增加超940亿美元。亚马逊,股价年初753美元,现在968美元。市值增加近1020亿美元。苹果,股价年初116美元,现在144美元。市值增加超1460亿美元。在此期间英特尔、IBM等科技巨头的股价涨幅就没有那么凶猛。不过被英特尔收入帐下的Mobileye收获了超过50%的股价涨幅。另外,FPGA领域的巨头赛思灵,半年股价涨幅为9%。人工智能都在说中美争霸,我们来看看股市上的表现。中国的人工智能领军者:百度,股价从年初的168美元,涨到现在的180美元,涨幅不到10%。老板不愿意谈AI的阿里巴巴,股价从年初的88美元,涨到现在的140美元,涨幅近60%。而腾讯从189港元,涨到279港元,涨幅近50%。另外美股市场还有最近一直鼓吹要人工智能转型的猎豹,今年1月3日股价9.7美元,截至6月30日收盘股价10.7美元,半年涨幅约10%。尽管如此,量子位也有朋友开始布局这支股票。(这句话绝不构成投资建议)而在港股市场,美图也是一直在往人工智能的方向靠拢。整个上半年,美图经历了一次史诗般的冲高回落,股价从7.4港元一路上涨到23港元,涨幅210%。然后美图股价有快速回落,年中收盘港元。所以,过去半年想投资人工智能相关股票,特斯拉是最好的选择?还有没有比特斯拉涨幅更大的人工智能股票?有。而且就在国内的A股市场。被归为人工智能板块的A股市场股票有数十只,例如科大讯飞、赛为智能、川大智胜等。然而根据量子位不完全的统计,过去半年涨幅最大的要数海康威视。从1月3日到6月30日,海康威视的股价涨幅为103%。半年时间,股价翻番,年初投入一块钱,现在变两块了。在A股市场上,以海康威视为代表的安防行业,纷纷开始主打人工智能概念,股价这半年也是持续飙涨。除了海康威视,相同领域的大华股份也收获了近70%的涨幅。海康威视这个涨幅,也进入了2017上半年A股的涨幅前十,排名第六。位居第一的西部建设,涨幅199%。尽管海康威视上半年表现强势,最近30天仍有6家机构给予“买入”评级。其中,国泰君安给出的目标价为34.68元,海通证券给出的目标价为38.9元,中金给出的目标价为40元。而来自中金的报告指出,人工智能正在推动安防行业进入高清化和网络化之后第三次升级换代周期。从产品形态来看,智能化升级会带动从前端摄像机,后端存储设备,到视频分析软件的全面升级,并带动GPU服务器等新设备市场的快速成长。除此之外,专注于语音领域的科大讯飞,半年以来股价涨幅也达46.2%。上周的世界智能大会期间,科技部部长万钢透露,最近新一代人工智能发展规划已编制完成,该规划对直到2030年的中国人工智能产业进行系统部署,包括与此相关的人工智能重大科技项目。规划将于近日向全社会公布。未来国内的人工智能相关股票,可能还会持续有政策利好。对于多数人来说,想要分享人工智能产业的增长,股票可能是一个最便捷的选择。但,股市有风险,股市有风险,股市有风险。以上,所有的讨论,我们总结成下面这个表格,仅供参考。量子位的统计肯定不够全面,如果你还有更好的建议,留言给我们吧~【完】欢迎大家关注我们的专栏:一则通知量子位读者4群开放申请,对人工智能感兴趣的朋友,可以添加量子位小助手的微信:qbitbot,申请入群,一起研讨人工智能。另外,量子位大咖云集的自动驾驶技术群,仅接纳研究自动驾驶相关领域的在校学生或一线工程师。申请方式:添加qbitbot为好友,备注“自动驾驶”申请加入~招聘量子位正在招募编辑记者、运营、产品等岗位,工作地点在北京中关村。相关细节,请在公众号对话界面,回复:“招聘”。","updated":"T05:37:31.000Z","canComment":false,"commentPermission":"anyone","commentCount":5,"collapsedCount":0,"likeCount":16,"state":"published","isLiked":false,"slug":"","isTitleImageFullScreen":false,"rating":"none","titleImage":"/v2-e6dd358ace3_r.jpg","links":{"comments":"/api/posts//comments"},"reviewers":[],"topics":[{"url":"/topic/","id":"","name":"人工智能"},{"url":"/topic/","id":"","name":"股票"},{"url":"/topic/","id":"","name":"NVIDIA (英伟达)"}],"adminClosedComment":false,"titleImageSize":{"width":900,"height":500},"href":"/api/posts/","excerptTitle":"","column":{"slug":"qbitai","name":"量子位"},"tipjarState":"inactivated","annotationAction":[],"sourceUrl":"","pageCommentsCount":5,"hasPublishingDraft":false,"snapshotUrl":"","publishedTime":"T13:37:31+08:00","url":"/p/","lastestLikers":[{"bio":"及时行乐","isFollowing":false,"hash":"6dca31ee0bd582b8db4e1ba1d252555a","uid":08,"isOrg":false,"slug":"li-dong-53-40","isFollowed":false,"description":"","name":"austld","profileUrl":"/people/li-dong-53-40","avatar":{"id":"v2-189c26e746d119b85b3b466ab4ad57a9","template":"/{id}_{size}.jpg"},"isOrgWhiteList":false},{"bio":"历史-国际政治丨MUN丨SF","isFollowing":false,"hash":"5baecca03efb771a9845bf6","uid":036600,"isOrg":false,"slug":"shu-ji-76-75","isFollowed":false,"description":"ENTP 一个有理想主义思绪的经济人","name":"广岗","profileUrl":"/people/shu-ji-76-75","avatar":{"id":"v2-70e705afd2aae2f84240","template":"/{id}_{size}.jpg"},"isOrgWhiteList":false},{"bio":"死者就是死者,凡是用心回答对不对立场如何都点赞","isFollowing":false,"hash":"cdab5016eb4da","uid":32,"isOrg":false,"slug":"sizhejun","isFollowed":false,"description":"中二少年,学生狗,土木工程在读","name":"死者君","profileUrl":"/people/sizhejun","avatar":{"id":"45b3c41af4c128be82d614","template":"/{id}_{size}.png"},"isOrgWhiteList":false},{"bio":"时间不再与你拥有多少 而在于你怎样使用","isFollowing":false,"hash":"0ed0617b91","uid":40,"isOrg":false,"slug":"ruo-shui-83","isFollowed":false,"description":"","name":"艾克","profileUrl":"/people/ruo-shui-83","avatar":{"id":"ec40f82362da4eadbbdd6d","template":"/{id}_{size}.jpg"},"isOrgWhiteList":false},{"bio":"计算机视觉与深度学习业余爱好者","isFollowing":false,"hash":"f70f25d8cf","uid":08,"isOrg":false,"slug":"filter-chan","isFollowed":false,"description":"偷偷地潜伏在地球人中","name":"Wizard Chan","profileUrl":"/people/filter-chan","avatar":{"id":"802d51d0415cad158a186bf7d81d757e","template":"/{id}_{size}.jpg"},"isOrgWhiteList":false}],"summary":"102美元,日。144美元,日。上面两个数字,分别对应当天收盘时英伟达(NVIDIA)的股价。这意味着,将近半年光阴过去,英伟达的市值又涨了41%。这一幕与去年似曾相识。29美元,日。46美元,日。106美元,2016年12…","reviewingCommentsCount":0,"meta":{"previous":{"isTitleImageFullScreen":false,"rating":"none","titleImage":"/v2-e91a4afcadafd_r.jpg","links":{"comments":"/api/posts//comments"},"topics":[{"url":"/topic/","id":"","name":"keras"},{"url":"/topic/","id":"","name":"深度学习(Deep Learning)"},{"url":"/topic/","id":"","name":"卷积神经网络(CNN)"}],"adminClosedComment":false,"href":"/api/posts/","excerptTitle":"","author":{"bio":"陪你们研究机器学习","isFollowing":false,"hash":"22fae95269adbac975ec814e78eeb6e2","uid":646500,"isOrg":false,"slug":"qbitai","isFollowed":false,"description":"不定期分享机器学习相关教程、Paper、资源。我们还有个分享行业动态的机构账号量子位(/org/liang-zi-wei-48/activities),欢迎关注","name":"量子学院","profileUrl":"/people/qbitai","avatar":{"id":"v2-2479e33dcfe6c6fb10db5edda70ebd61","template":"/{id}_{size}.jpg"},"isOrgWhiteList":false},"column":{"slug":"qbitai","name":"量子位"},"content":"瀚宸 编译自 Analytics Vidhya量子位 出品 | 公众号 QbitAI引言跟传统的监督式机器学习算法相比,深度神经网络目前最大的劣势是什么?贵。尤其是当我们在尝试处理现实生活中诸如图像识别、声音辨识等实际问题的时候。一旦你的模型中包含一些隐藏层时,增添多一层隐藏层将会花费巨大的计算资源。庆幸的是,有一种叫做“迁移学习”的方式,可以使我们在他人训练过的模型基础上进行小改动便可投入使用。在这篇文章中,我将会讲述如何使用预训练模型来加速解决问题的过程。注:这篇文章默认读者对于神经网络和深度学习有着一定的了解,如果你不了解深度学习,那么我强烈建议你先了解一下深度学习的基础概念:目录1. 什么是迁移学习?2. 什么是预训练模型?3. 为什么我们使用预训练模型?-结合生活实例4. 我们可以怎样运用预训练模型?
? 提取特征(extract features)
? 优化模型(fine tune the model)5. 优化模型的方式6. 在数字识别中使用预训练模型
? 只针对输出密集层(output dense layer)的重新训练
? 冻结初始几层网络的权重因子1. 什么是迁移学习?为了对迁移学习产生一个直观的认识,不妨拿老师与学生之间的关系做类比。一位老师通常在ta所教授的领域有着多年丰富的经验,在这些积累的基础上,老师们能够在课堂上教授给学生们该领域最简明扼要的内容。这个过程可以看做是老手与新手之间的“信息转移”。这个过程在神经网络中也适用。我们知道,神经网络需要用数据来训练,它从数据中获得信息,进而把它们转换成相应的权重。这些权重能够被提取出来,迁移到其他的神经网络中,我们“迁移”了这些学来的特征,就不需要从零开始训练一个神经网络了 。现在,让我们从自身进化的角度来讨论这种迁移学习的重要性。这是Tim Urban最近在上的一篇文章中提出的观点。Tim说,在语言发明之前,每一代人类都需要自身重新习得很多知识,这也是知识从上一代到下一代一增长缓慢的原因。随后,我们发明了语言,这为知识在世代间的传递提供了载体,下图是在语言发明后,同样时间尺度下知识增长速度的示意图。是不是看起来很牛逼?而通过权重的传递来进行迁移学习和人类在世代交替中通过语言传播知识,是一个道理。2. 什么是预训练模型?简单来说,预训练模型(pre-trained model)是前人为了解决类似问题所创造出来的模型。你在解决问题的时候,不用从零开始训练一个新模型,可以从在类似问题中训练过的模型入手。 比如说,如果你想做一辆自动驾驶汽车,可以花数年时间从零开始构建一个性能优良的图像识别算法,也可以从Google在ImageNet数据集上训练得到的inception model(一个预训练模型)起步,来识别图像。一个预训练模型可能对于你的应用中并不是100%的准确对口,但是它可以为你节省大量功夫。接下来,我会举个例子来说明。3. 为什么我们要用预训练模型?上周我一直在尝试解决Crowdanalytix platform上的一个问题:从手机图片中分辨场景。这是一个图像分类的问题,训练数据集中有4591张图片,测试集中有1200张图片。我们的任务是将图片相应地分到16个类别中。在对图片进行一些预处理后,我首先采用一个简单的MLP(Multi-later Perceptron)模型,结构如下图所示:在对输入图片(224*224*3)平整化后,为了简化上述结构,我用了三个各含有500个神经元的隐藏层。在输出层中,共有16个神经元对应着十六个类别。我只能将训练的准确率控制在6.8%,这是个很不理想的结果。我尝试对隐藏层、隐层中神经元的数量以及drop out速率进行调整,但准确度都没有太大的提升。而如果增加隐藏层和其中神经元的数量,每个周期的运行时间则会增加20s以上。(我的开发环境是12GB VRAM,Titan X GPU)下面是我用上文所述结构的MLP模型训练输出的结果。可以看出,除非指数级地增加训练时长,MLP模型无法提供给我更好的结果。因此,我转而采用CNN(卷积神经网络),看看他们在这个数据集上的表现,以及是否能够提高训练的准确度。CNN的结构如下:我使用了3个卷积的模块,每个模块由以下部分组成:32个5*5的filter线性整流函数(ReLU)作为激活函数4*4的最大值池化层最后一个卷积模块输出的结果经过平整化后会被传递到一个拥有64的神经元的隐藏层上,随后通过一个drop out rate = 0.5处理后传递到输出层。最终训练的结果记录如下:准确率15.75%,尽管与MLP模型相比有所提升,但每个周期的运行时间也增加了。而更重要的是,数据集中最大类别所含图片数量约占总数17.6%左右。只要把所有的图片都归到最大的类别,我们就能够得到比MLP、CNN训练出来的模型更好的结果(ノへ ̄、)。此外,增加更多的卷积模块也会大大增加训练时长。于是,我转而去采用预训练模型,这样我不需要重新训练我的整个结构,只需要针对其中的几层进行训练即可。因此,我采用了在ImageNet数据集上预先训练好的VGG16模型,这个模型可以在Keras库中找到。模型的结构如下所示:在VGG16结构的基础上,我只将softmax层的1000个输出改为16个,从而适应我们这个问题的情景,随后重新训练了dense layer。跟MLP和CNN相比,这个结构的准确率能够达到70%。同时,使用VGG16最大的好处是大大减少了训练时间,只需要针对dense layer进行训练,所需时间基本可以忽略。4.怎样使用预训练模型?当在训练经网络的时候我们的目标是什么?我们希望网络能够在多次正向反向迭代的过程中,找到合适的权重。通过使用之前在大数据集上经过训练的预训练模型,我们可以直接使用相应的结构和权重,将它们应用到我们正在面对的问题上。这被称作是“迁移学习”,即将预训练的模型“迁移”到我们正在应对的特定问题中。在选择预训练模型的时候你需要非常仔细,如果你的问题与预训练模型训练情景下有很大的出入,那么模型所得到的预测结果将会非常不准确。举例来说,如果把一个原本用于语音识别的模型用来做用户识别,那结果肯定是不理想的。幸运的是,Keras库中有许多这类预训练的结构。ImageNet数据集已经被广泛用作训练集,因为它规模足够大(包括120万张图片),有助于训练普适模型。ImageNet的训练目标,是将所有的图片正确地划分到1000个分类条目下。这1000个分类基本上都来源于我们的日常生活,比如说猫猫狗狗的种类,各种家庭用品,日常通勤工具等等。在迁移学习中,这些预训练的网络对于ImageNet数据集外的图片也表现出了很好的泛化性能。既然预训练模型已经训练得很好,我们就不会在短时间内去修改过多的权重,在迁移学习中用到它的时候,往往只是进行微调(fine tune)。在修改模型的过程中,我们通过会采用比一般训练模型更低的学习速率。5. 微调模型的方法特征提取我们可以将预训练模型当做特征提取装置来使用。具体的做法是,将输出层去掉,然后将剩下的整个网络当做一个固定的特征提取机,从而应用到新的数据集中。采用预训练模型的结构我们还可以采用预训练模型的结构,但先将所有的权重随机化,然后依据自己的数据集进行训练。训练特定层,冻结其他层另一种使用预训练模型的方法是对它进行部分的训练。具体的做法是,将模型起始的一些层的权重保持不变,重新训练后面的层,得到新的权重。在这个过程中,我们可以多次进行尝试,从而能够依据结果找到frozen layers和retrain layers之间的最佳搭配。如何使用与训练模型,是由数据集大小和新旧数据集(预训练的数据集和我们要解决的数据集)之间数据的相似度来决定的。下图表展示了在各种情况下应该如何使用预训练模型:场景一:数据集小,数据相似度高(与pre-trained model的训练数据相比而言)在这种情况下,因为数据与预训练模型的训练数据相似度很高,因此我们不需要重新训练模型。我们只需要将输出层改制成符合问题情境下的结构就好。我们使用预处理模型作为模式提取器。比如说我们使用在ImageNet上训练的模型来辨认一组新照片中的小猫小狗。在这里,需要被辨认的图片与ImageNet库中的图片类似,但是我们的输出结果中只需要两项——猫或者狗。在这个例子中,我们需要做的就是把dense layer和最终softmax layer的输出从1000个类别改为2个类别。场景二:数据集小,数据相似度不高在这种情况下,我们可以冻结预训练模型中的前k个层中的权重,然后重新训练后面的n-k个层,当然最后一层也需要根据相应的输出格式来进行修改。因为数据的相似度不高,重新训练的过程就变得非常关键。而新数据集大小的不足,则是通过冻结预训练模型的前k层进行弥补。场景三:数据集大,数据相似度不高在这种情况下,因为我们有一个很大的数据集,所以神经网络的训练过程将会比较有效率。然而,因为实际数据与预训练模型的训练数据之间存在很大差异,采用预训练模型将不会是一种高效的方式。因此最好的方法还是将预处理模型中的权重全都初始化后在新数据集的基础上重头开始训练。场景四:数据集大,数据相似度高这就是最理想的情况,采用预训练模型会变得非常高效。最好的运用方式是保持模型原有的结构和初始权重不变,随后在新数据集的基础上重新训练。6. 在手写数字识别中使用预训练模型现在,让我们尝试来用预训练模型去解决一个简单的问题。我曾经使用vgg16作为预训练的模型结构,并把它应用到手写数字识别上。让我们先来看看这个问题对应着之前四种场景中的哪一种。我们的训练集(MNIST)有大约60,000张左右的手写数字图片,这样的数据集显然是偏小的。所以这个问题应该属于场景一或场景二。我们可以尝试把两种对应的方法都用一下,看看最终的效果。 只重新训练输出层 & dense layer这里我们采用vgg16作为特征提取器。随后这些特征,会被传递到依据我们数据集训练的dense layer上。输出层同样由与我们问题相对应的softmax层函数所取代。在vgg16中,输出层是一个拥有1000个类别的softmax层。我们把这层去掉,换上一层只有10个类别的softmax层。我们只训练这些层,然后就进行数字识别的尝试。 \n# importing required libraries\n\nfrom keras.models import Sequential\nfrom scipy.misc import imread\nget_ipython().magic('matplotlib inline')\nimport matplotlib.pyplot as plt\nimport numpy as np\nimport keras\nfrom keras.layers import Dense\nimport pandas as pd\n\nfrom keras.applications.vgg16 import VGG16\nfrom keras.preprocessing import image\nfrom keras.applications.vgg16 import preprocess_input\nimport numpy as np\nfrom keras.applications.vgg16 import decode_predictions\ntrain=pd.read_csv(\"R/Data/Train/train.csv\")\ntest=pd.read_csv(\"R/Data/test.csv\")\ntrain_path=\"R/Data/Train/Images/train/\"\ntest_path=\"R/Data/Train/Images/test/\"\n\nfrom scipy.misc import imresize\n# preparing the train dataset\n\ntrain_img=[]\nfor i in range(len(train)):\n\n
temp_img=image.load_img(train_path+train['filename'][i],target_size=(224,224))\n\n
temp_img=image.img_to_array(temp_img)\n\n
train_img.append(temp_img)\n\n#converting train images to array and applying mean subtraction processing\n\ntrain_img=np.array(train_img) \ntrain_img=preprocess_input(train_img)\n# applying the same procedure with the test dataset\n\ntest_img=[]\nfor i in range(len(test)):\n\n
temp_img=image.load_img(test_path+test['filename'][i],target_size=(224,224))\n\n
temp_img=image.img_to_array(temp_img)\n\n
test_img.append(temp_img)\n\ntest_img=np.array(test_img) \ntest_img=preprocess_input(test_img)\n\n# loading VGG16 model weights\nmodel = VGG16(weights='imagenet', include_top=False)\n# Extracting features from the train dataset using the VGG16 pre-trained model\n\nfeatures_train=model.predict(train_img)\n# Extracting features from the train dataset using the VGG16 pre-trained model\n\nfeatures_test=model.predict(test_img)\n\n# flattening the layers to conform to MLP input\n\ntrain_x=features_train.reshape(49000,25088)\n# converting target variable to array\n\ntrain_y=np.asarray(train['label'])\n# performing one-hot encoding for the target variable\n\ntrain_y=pd.get_dummies(train_y)\ntrain_y=np.array(train_y)\n# creating training and validation set\n\nfrom sklearn.model_selection import train_test_split\nX_train, X_valid, Y_train, Y_valid=train_test_split(train_x,train_y,test_size=0.3, random_state=42)\n\n \n\n# creating a mlp model\nfrom keras.layers import Dense, Activation\nmodel=Sequential()\n\nmodel.add(Dense(1000, input_dim=25088, activation='relu',kernel_initializer='uniform'))\nkeras.layers.core.Dropout(0.3, noise_shape=None, seed=None)\n\nmodel.add(Dense(500,input_dim=1000,activation='sigmoid'))\nkeras.layers.core.Dropout(0.4, noise_shape=None, seed=None)\n\nmodel.add(Dense(150,input_dim=500,activation='sigmoid'))\nkeras.layers.core.Dropout(0.2, noise_shape=None, seed=None)\n\nmodel.add(Dense(units=10))\nmodel.add(Activation('softmax'))\n\nmodel.compile(loss='categorical_crossentropy', optimizer=\"adam\", metrics=['accuracy'])\n\n# fitting the model \n\nmodel.fit(X_train, Y_train, epochs=20, batch_size=128,validation_data=(X_valid,Y_valid))\n\n \n冻结最初几层网络的权重这里我们将会把vgg16网络的前8层进行冻结,然后对后面的网络重新进行训练。这么做是因为最初的几层网络捕获的是曲线、边缘这种普遍的特征,这跟我们的问题是相关的。我们想要保证这些权重不变,让网络在学习过程中重点关注这个数据集特有的一些特征,从而对后面的网络进行调整。from keras.models import Sequential\nfrom scipy.misc import imread\nget_ipython().magic('matplotlib inline')\nimport matplotlib.pyplot as plt\nimport numpy as np\nimport keras\nfrom keras.layers import Dense\nimport pandas as pd\n\nfrom keras.applications.vgg16 import VGG16\nfrom keras.preprocessing import image\nfrom keras.applications.vgg16 import preprocess_input\nimport numpy as np\nfrom keras.applications.vgg16 import decode_predictions\nfrom keras.utils.np_utils import to_categorical\n\nfrom sklearn.preprocessing import LabelEncoder\nfrom keras.models import Sequential\nfrom keras.optimizers import SGD\nfrom keras.layers import Input, Dense, Convolution2D, MaxPooling2D, AveragePooling2D, ZeroPadding2D, Dropout, Flatten, merge, Reshape, Activation\n\nfrom sklearn.metrics import log_loss\n\ntrain=pd.read_csv(\"R/Data/Train/train.csv\")\ntest=pd.read_csv(\"R/Data/test.csv\")\ntrain_path=\"R/Data/Train/Images/train/\"\ntest_path=\"R/Data/Train/Images/test/\"\n\nfrom scipy.misc import imresize\n\ntrain_img=[]\nfor i in range(len(train)):\n\n
temp_img=image.load_img(train_path+train['filename'][i],target_size=(224,224))\n\n
temp_img=image.img_to_array(temp_img)\n\n
train_img.append(temp_img)\n\ntrain_img=np.array(train_img) \ntrain_img=preprocess_input(train_img)\n\ntest_img=[]\nfor i in range(len(test)):\n\ntemp_img=image.load_img(test_path+test['filename'][i],target_size=(224,224))\n\n
temp_img=image.img_to_array(temp_img)\n\n
test_img.append(temp_img)\n\ntest_img=np.array(test_img) \ntest_img=preprocess_input(test_img)\n\n\nfrom keras.models import Model\n\ndef vgg16_model(img_rows, img_cols, channel=1, num_classes=None):\n\n
model = VGG16(weights='imagenet', include_top=True)\n\n
model.layers.pop()\n\n
model.outputs = [model.layers[-1].output]\n\n
model.layers[-1].outbound_nodes = []\n\n
x=Dense(num_classes, activation='softmax')(model.output)\n\n
model=Model(model.input,x)\n\n#To set the first 8 layers to non-trainable (weights will not be updated)\n\n
for layer in model.layers[:8]:\n\n
layer.trainable = False\n\n# Learning rate is changed to 0.001\n
sgd = SGD(lr=1e-3, decay=1e-6, momentum=0.9, nesterov=True)\n
model.compile(optimizer=sgd, loss='categorical_crossentropy', metrics=['accuracy'])\n\n
return model\n\ntrain_y=np.asarray(train['label'])\n\nle = LabelEncoder()\n\ntrain_y = le.fit_transform(train_y)\n\ntrain_y=to_categorical(train_y)\n\ntrain_y=np.array(train_y)\n\nfrom sklearn.model_selection import train_test_split\nX_train, X_valid, Y_train, Y_valid=train_test_split(train_img,train_y,test_size=0.2, random_state=42)\n\n# Example to fine-tune on 3000 samples from Cifar10\n\nimg_rows, img_cols = 224, 224 # Resolution of inputs\nchannel = 3\nnum_classes = 10 \nbatch_size = 16 \nnb_epoch = 10\n\n# Load our model\nmodel = vgg16_model(img_rows, img_cols, channel, num_classes)\n\nmodel.summary()\n# Start Fine-tuning\nmodel.fit(X_train, Y_train,batch_size=batch_size,epochs=nb_epoch,shuffle=True,verbose=1,validation_data=(X_valid, Y_valid))\n\n# Make predictions\npredictions_valid = model.predict(X_valid, batch_size=batch_size, verbose=1)\n\n# Cross-entropy loss score\nscore = log_loss(Y_valid, predictions_valid)\n相关资源原文:&br&VGG-16:&br&Keras库中的ImageNet预训练模型:&br&手写数字数据集MNIST:&br&【完】一则通知量子位正在组建自动驾驶技术群,面向研究自动驾驶相关领域的在校学生或一线工程师。李开复、王咏刚、王乃岩、王弢等大牛都在群里。欢迎大家加量子位微信(qbitbot),备注“自动驾驶”申请加入哈~","state":"published","sourceUrl":"","pageCommentsCount":0,"canComment":false,"snapshotUrl":"","slug":,"publishedTime":"T14:39:00+08:00","url":"/p/","title":"一文看懂迁移学习:怎样用预训练模型搞定深度神经网络?","summary":"瀚宸 编译自 Analytics Vidhya 量子位 出品 | 公众号 QbitAI引言跟传统的监督式机器学习算法相比,深度神经网络目前最大的劣势是什么?贵。尤其是当我们在尝试处理现实生活中诸如图像识别、声音辨识等实际问题的时候。一旦你的模型中包含一些隐藏层时,增添…","reviewingCommentsCount":0,"meta":{"previous":null,"next":null},"commentPermission":"anyone","commentsCount":4,"likesCount":56},"next":{"isTitleImageFullScreen":false,"rating":"none","titleImage":"/v2-6b7b0f85f0b6d160a36e4b31ef3af665_r.jpg","links":{"comments":"/api/posts//comments"},"topics":[{"url":"/topic/","id":"","name":"百度"},{"url":"/topic/","id":"","name":"无人车"},{"url":"/topic/","id":"","name":"语音"}],"adminClosedComment":false,"href":"/api/posts/","excerptTitle":"","author":{"bio":"?'?' ? 追踪AI技术和产品新动态","isFollowing":false,"hash":"36fd316d0b8a6d8da20ba","uid":528600,"isOrg":true,"slug":"liang-zi-wei-48","isFollowed":false,"description":"公众号:量子位(QbitAI)","name":"量子位","profileUrl":"/org/liang-zi-wei-48","avatar":{"id":"v2-ca6e7ffc10a0d10edbae635cee82d007","template":"/{id}_{size}.jpg"},"isOrgWhiteList":true},"column":{"slug":"qbitai","name":"量子位"},"content":"唐旭 问耕 发自 凹非寺量子位 报道 | 公众号 QbitAI2015年,李彦宏曾说O2O是最大的赌注。时至今日,频繁传出百度外卖寻求出售的消息,李彦宏言必称人工智能。忘了O2O吧,李彦宏最大的赌注早就变了。对于现在的百度和李彦宏来说,AI是电、AI是光、AI是Super Star。在国内诸公司里,百度可能是AI技术储备最好的一家。马化腾都承认百度在这方面更强。然而,人工智能真正发挥作用,需要适合的场景,也需要适合的产品承载。但产品并不是百度的强项,即便是搜索业务,也在面临新的挑战。百度怎么办?答案就藏在明天召开的AI开发者大会里。这是一个并不稀奇的思路:开放平台。把相关的AI技术打包,开放给所有的第三方使用,寄希望于人民战争的汪洋大海。而李彦宏的核心赌注就是两个:语音和无人车。具体到战术层面,语音由DuerOS开路,无人车由Apollo撑腰。明天,李彦宏将揭晓他为这两个赌注下了什么新筹码。那么,百度都在这两个平台上已经倾注了哪些资源,目前进展如何呢?DuerOS按百度现在的官方说法,DuerOS是一个“开放平台”,或者说一种生态。这一平台上整合了百度已有的AI语音和图像技术,企业开发者可以以此打造自己的人工智能产品。而今年1月,在CES上刚刚推出时,DuerOS的定位是“人工智能操作系统”。DuerOS脱生于“度秘”(Duer)。度秘这个名字,最早是2015年9月李彦宏在百度世界大会上公开提出来的。此后在多数时间里,度秘都以一个“对话式人工智能助理“产品的形态出现,主要以手机等移动设备作为载体,以应对搜索请求向语音迁移的趋势。今年2月,陆奇宣布成立度秘事业部时沿用了这个名字,但此时故事的主角似乎已经从以前的度秘变成了DuerOS;从度秘的官网上看,其内容也基本停在了1月的CES上。在百度招聘4月发布的职位上,仍有“手机语音助手产品经理“的岗位,度秘在手机端的App也在继续更新,但显然,百度的心思现更多都在DuerOS身上。那么,DuerOS开放平台上都有什么?上面这张图来自百度技术学院的视频PPT,发布于今年6月30日。可以看出,DuerOS具体包括两套平台。第一,在“智能设备开放平台“上,DuerOS上有针对智能软硬件厂商的解决方案,通过认证的企业开发者可以把整套SDK拿到自家的产品上用。第二,在“技能开放平台“上,第三方开发者可以在此平台上对DuerOS的新功能进行创建和发布,使其功能更为强大、丰富。DuerOS现在都能干什么?这张图同样来自百度技术学院的视频PPT,图中提到DuerOS已经具备七大类型、70种以上的核心能力,其中具体包含哪些尚不清楚,但目前来看应该集中于语音、自然语言和图像技术方面。DuerOS的技能开放平台也尚未打开,目前正处于内测中。一切谜底或许将在明天的大会上揭晓。目前DuerOS提供了多个场景的解决方案,包括音箱、电视、冰箱、开发套件、兼容服务、轻量级设备、手机语音助手等。主要还是提供AI语音支持。不过其中兼容服务很有意思,按照百度的说法,已搭载亚马逊Alexa语音助手的设备,都可以通过兼容协议,“简单快速的接入DuerOS”。度秘事业部的总经理是百度高级总监、人工智能产品委员会主席景鲲,首席技术官是百度首席架构师朱凯华。二人共同构成了度秘事业部的核心管理层,度秘业务直接向陆奇汇报。6月6日,度秘事业部宣布在硅谷设立研发团队,并称团队负责人曾经在谷歌供职10余年,是Google Assistant智能语音助手的核心员工和创始成员,但负责人信息并未正式公开。Apollo百度对无人车有多重视?这件事目前由陆奇亲自负责、亲自站台代言。今年4月,百度宣布推出无人车开放平台阿波罗。最近,百度阿波罗平台弃用的域名,改用新域名:apollo.auto。其实,据量子位读者“KAN”爆料,百度其实还注册了、等相关域名。看起来为阿波罗使用独立域名颇下了一番功夫。这一方面显示出百度的重视,另一方面在域名里去百度,也显示出百度可能让阿波罗计划更加开放,以及寄予更大的期望。今年初,百度无人车团队经历过一波人员变动。百度高级副总裁王劲、百度无人车首席科学家韩旭等,离职创办无人车公司景驰(jingchi.ai);百度无人车首席架构师彭军、百度天才工程师楼天城等,离职创办无人车公司小马智行(pony.ai)。两家新公司前不久都在加州获得无人车路测许可。而目前的信息显示,百度阿波罗平台的技术研发还将重点在硅谷展开。百度在硅谷的无人车团队新负责人王京傲,同时也是Apollo平台研发总经理。今年3月,百度成立智能驾驶事业群组,陆奇兼任总经理。这个事业部将由自动驾驶事业部、智能汽车事业部、车联网业务共同组成。目前百度无人车的相关业务,具体执行应该是由百度智能汽车事业部总经理顾维灏负责。预计陆奇明天会进一步公布Apollo计划的细节。目前已知的情况是,Apollo已经确定了第一批合作伙伴,包括AutonomouStuff、奇瑞、一汽等。奇瑞此前就已经和百度在无人车项目上有合作。这里介绍一下,总部位于旧金山的AutonomouStuff成立于2010年,主要为无人车提供解决方案,但这家公司并不研发相关软硬件,而是整合应用各家产品。此外,上个月底负责自动驾驶事业部(百度无人车)车辆及相关团队的百度副总裁邬学斌,带队前往河北保定商讨无人车项目落地,这个项目也被描述为Apollo计划的“重要组成部分”。雄安新区也在保定地界。邬学斌去年9月加入百度,此前是北汽股份执行副总裁、北汽股份研究院院长。DuerOS和Apollo大事记DuerOS今年1月7日,美国内华达州拉斯维加斯,百度对话式人工智能操作系统DuerOS在CES 2017上第一次亮相。同时,度秘宣布与小鱼在家达成合作,将在春季推出搭载DuerOS的视频对讲机器人。在此之前,2015年9月,李彦宏曾在百度世界大会上推出机器人秘书“度秘”(Duer)。2月16日,陆奇宣布将原度秘团队升级为度秘事业部,直接向其汇报,以加速百度人工智能战略布局及人工智能产品化和市场化进程。当天上午,百度宣布全资收购渡鸦科技,渡鸦吕骋携加盟百度,出任智能家居硬件总经理。2月27日,DuerOS亮相巴塞罗那MWC。3月9日,AWE 2017在上海召开。百度与海尔宣布达成战略合作,DuerOS加入海尔产品序列,双方在现场发布首款搭载DuerOS的冰箱;当天,海尔发布搭载DuerOS的智能语音盒。3月31日,百度发布DuerOS智慧芯片,并与紫光展锐、ARM、上海汉枫达成战略合作。度秘事业部CTO朱凯华称:“DuerOS将搭建从硬件到软件的全栈能力,并将这些能力开放,为企业提供turnkey解决方案,降低企业使用门槛。”4月28日,百度和小鱼在家联合召开新品发布会,搭载DuerOS的视频对讲机器人“分身鱼”正式发布。陆奇、李开复现身发布会现场。陆奇在现场说,DuerOS将突破中国范围,对世界工业带来更大影响。因为DuerOS会无处不在,它可以在任何一个器件上,在任何一个场景上,在任何一个环境中,跟任何一个人都有交互的能力。5月16日,HTC发布首款搭载Duer OS的旗舰U11。在此之前,Duer OS还曾在三月与vivo达成战略合作。Apollo4月19日,百度正式对外公布“Apollo计划”。百度称,Apollo项目将提供一套完整的软硬件和服务的解决方案,包括车辆平台、硬件平台、软件平台、云端数据服务等四大部分。百度将开放环境感知、路径规划、车辆控制、车载操作系统等功能的代码或能力,并且提供完整的开发测试工具。另外在计划中,百度还将在车辆和传感器等领域选择协同度和兼容性最好的合作伙伴,共同组成协作联盟,推荐给项目参与方使用,进一步降低无人车的研发门槛,促进技术的快速普及。5月31日,百度与欧洲最大汽车零部件供应商大陆集团正式签署战略合作框架协议,双方在自动驾驶、车联网和智能交通领域就技术发展和商业应用方面展开全方位的战略合作;次日,百度宣布与博世集团达成战略合作。6月27日,百度副总裁邬学斌带队前往保定商讨落实无人车项目。6月29日,李彦宏在天津举行的世界智能大会上进行了《人工智能·现在进行时》的主题演讲。在演讲中他表示,百度即将发布一个重大的名为阿波罗计划的整体战略,主要方向是无人驾驶。【完】欢迎大家关注我们的专栏:一则通知量子位读者4群开放申请,对人工智能感兴趣的朋友,可以添加量子位小助手的微信:qbitbot,申请入群,一起研讨人工智能。另外,量子位大咖云集的自动驾驶技术群,仅接纳研究自动驾驶相关领域的在校学生或一线工程师。申请方式:添加qbitbot为好友,备注“自动驾驶”申请加入~招聘量子位正在招募编辑记者、运营、产品等岗位,工作地点在北京中关村。相关细节,请在公众号对话界面,回复:“招聘”。","state":"published","sourceUrl":"","pageCommentsCount":0,"canComment":false,"snapshotUrl":"","slug":,"publishedTime":"T14:22:13+08:00","url":"/p/","title":"李彦宏的新赌注:语音和无人车","summary":"唐旭 问耕 发自 凹非寺量子位 报道 | 公众号 QbitAI2015年,李彦宏曾说O2O是最大的赌注。时至今日,频繁传出百度外卖寻求出售的消息,李彦宏言必称人工智能。忘了O2O吧,李彦宏最大的赌注早就变了。对于现在的百度和李彦宏来说,AI是电、AI是光、AI是Super …","reviewingCommentsCount":0,"meta":{"previous":null,"next":null},"commentPermission":"anyone","commentsCount":3,"likesCount":18}},"annotationDetail":null,"commentsCount":5,"likesCount":16,"FULLINFO":true}},"User":{"liang-zi-wei-48":{"isFollowed":false,"name":"量子位","headline":"公众号:量子位(QbitAI)","avatarUrl":"/v2-ca6e7ffc10a0d10edbae635cee82d007_s.jpg","isFollowing":false,"type":"org","slug":"liang-zi-wei-48","bio":"?'?' ? 追踪AI技术和产品新动态","hash":"36fd316d0b8a6d8da20ba","uid":528600,"isOrg":true,"description":"公众号:量子位(QbitAI)","profileUrl":"/org/liang-zi-wei-48","avatar":{"id":"v2-ca6e7ffc10a0d10edbae635cee82d007","template":"/{id}_{size}.jpg"},"isOrgWhiteList":true,"badge":{"identity":null,"bestAnswerer":null}}},"Comment":{},"favlists":{}},"me":{},"global":{},"columns":{"next":{},"qbitai":{"following":false,"canManage":false,"href":"/api/columns/qbitai","name":"量子位","creator":{"slug":"liang-zi-wei-48"},"url":"/qbitai","slug":"qbitai","avatar":{"id":"v2-7e0d98f2aaca","template":"/{id}_{size}.jpg"}}},"columnPosts":{},"columnSettings":{"colomnAuthor":[],"uploadAvatarDetails":"","contributeRequests":[],"contributeRequestsTotalCount":0,"inviteAuthor":""},"postComments":{},"postReviewComments":{"comments":[],"newComments":[],"hasMore":true},"favlistsByUser":{},"favlistRelations":{},"promotions":{},"switches":{"couldAddVideo":false},"draft":{"titleImage":"","titleImageSize":{},"isTitleImageFullScreen":false,"canTitleImageFullScreen":false,"title":"","titleImageUploading":false,"error":"","content":"","draftLoading":false,"globalLoading":false,"pendingVideo":{"resource":null,"error":null}},"drafts":{"draftsList":[],"next":{}},"config":{"userNotBindPhoneTipString":{}},"recommendPosts":{"articleRecommendations":[],"columnRecommendations":[]},"env":{"isAppView":false,"appViewConfig":{"content_padding_top":128,"content_padding_bottom":56,"content_padding_left":16,"content_padding_right":16,"title_font_size":22,"body_font_size":16,"is_dark_theme":false,"can_auto_load_image":true,"app_info":"OS=iOS"},"isApp":false},"sys":{}}}

我要回帖

更多关于 人工智能医疗股票龙头 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信