9883手机尾号888好吗

&b&# 日更新&/b&&br&因chrome更新,原答案方法无效,故原文已删除&br&&br&新的音乐下载方法可查看以下动态图&br&&a href=&///?target=http%3A///large/a3fb75bfjw1famtdk1zr9g21fl0s5qvc.gif& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&网易云音乐下载示例&i class=&icon-external&&&/i&&/a&
# 日更新 因chrome更新,原答案方法无效,故原文已删除 新的音乐下载方法可查看以下动态图
&img src=&/50/v2-d1bbb3b0d5f_b.jpg& data-rawwidth=&900& data-rawheight=&599& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&/50/v2-d1bbb3b0d5f_r.jpg&&&p&前几天和朋友一起吃饭,他跟我抱怨团队最近新招了一名新人,让这位新人去下载一份行业的调查报告,他竟然硬生生地耗费了三天的时间,结果还什么资料都没有找到,把朋友给气到爆炸。&/p&&p&照理说这份行业报告也不难找,只是这位新人一点&b&“搜商”&/b&都没有,不知道怎么样才能提高搜索效率,也没有主动学习,更没有主动和领导反映情况,只是等到最后的时候,才说:啊,这个我没有找到!&/p&&p&在这个信息爆炸的时代里,虽然说信息越来越透明,但不是每个人都能获得自己想要的信息,有些人主动地学习如何高效地获取需要的信息,而有些人却被动消极地等待,以为有人拯救他,正如罗素先生所言:&/p&&p&&b&人人理应平等,实际上却远不是这样——特别是人与人有知识的差别。&/b&&/p&&p&如果你如我所说的这样使用搜索引擎,我相信你能比别人走得更快一点。&/p&&p&&br&&/p&&p&&b&1,善用搜索指令,做到事半功倍&/b&&/p&&p&很多人一有什么样的问题,立刻就原原本本地拿去百度,结果搜索出来的结果,往往不尽人意。你可以理解为人做事情的时候,天生就喜欢速战速决,容不得有半点纠缠在里面。&/p&&p&但如果在搜索信息的时候,知道如何去使用相关的搜索指令,只需要你花费很少的时间去记忆,但却可以提高你搜索的精度和速度,何乐而不为呢?&/p&&p&以我最近在读的《富爸爸,穷爸爸》为例,看什么样才是搜索引擎的正确打开姿势。&/p&&p&&b&1)intitle:关键词&/b& &/p&&p&这个搜索指令是想告诉搜索引擎,搜索出来的结果,标题一定要包含你输入的关键词。&/p&&p&不然有时候你搜索网页里面也会包括所输的关键词。&/p&&img src=&/50/v2-18ac999e5f3953afa997e2cb9bacec16_b.jpg& data-rawwidth=&1717& data-rawheight=&1602& class=&origin_image zh-lightbox-thumb& width=&1717& data-original=&/50/v2-18ac999e5f3953afa997e2cb9bacec16_r.jpg&&&p&&br&&/p&&p&&b&2)“关键词”&/b&&/p&&p&把关键词放在双引号里面,是想告诉搜索引擎,搜索出来的结果,必须包含双号里面的所有词语,且顺序一个也不能打乱。&/p&&p&这样做可以排除一些打乱后的搜索结果呈现给你,节省时间。&/p&&img src=&/50/v2-0d319d584b1e37f0f39dc22368e11cff_b.jpg& data-rawwidth=&1712& data-rawheight=&1613& class=&origin_image zh-lightbox-thumb& width=&1712& data-original=&/50/v2-0d319d584b1e37f0f39dc22368e11cff_r.jpg&&&p&&br&&/p&&p&&b&3)关键词A -关键词B&/b&&/p&&p&这个搜索指令是想告诉搜索引擎,搜索出来的结果不能带有关键词B,使用这个指令时,关键词A后面必须得加一个空格。&/p&&p&例如很多人在搜索“公务员考试”的时候,经常会弹出大量的垃圾广告,这些广告都是各种培训机构在百度上花钱购买的竞价排名,如果你正常输入“公务员考试”之后,会是以下的结果:&/p&&img src=&/50/v2-5fe65d96da8ba_b.jpg& data-rawwidth=&1725& data-rawheight=&1611& class=&origin_image zh-lightbox-thumb& width=&1725& data-original=&/50/v2-5fe65d96da8ba_r.jpg&&&p&搜索结果的前三位都是百度推荐的广告。&/p&&p&但如果你用“&b&关键词A -关键词B&/b&”这个搜索指令,输入“公务员考试 -推广 -推广链接”,结果会干净许多。&/p&&img src=&/50/v2-a15c5e89ada025cc27dfc6a4ec91e26e_b.jpg& data-rawwidth=&1718& data-rawheight=&1618& class=&origin_image zh-lightbox-thumb& width=&1718& data-original=&/50/v2-a15c5e89ada025cc27dfc6a4ec91e26e_r.jpg&&&p&广告全都不见啦。&/p&&p&&br&&/p&&p&&b&4)filetype:文件格式 关键词&/b&&/p&&p&这个搜索指令是想告诉搜索引擎,结果只显示关键词为某类文件格式的链接。&/p&&p&例如我想下载《富爸爸,穷爸爸》的pdf格式,只要搜索栏中输入“filetype:pdf 富爸爸,穷爸爸”即可。&/p&&img src=&/50/v2-2beaf0c09f8d3a0eae6ce9a7_b.jpg& data-rawwidth=&1718& data-rawheight=&1621& class=&origin_image zh-lightbox-thumb& width=&1718& data-original=&/50/v2-2beaf0c09f8d3a0eae6ce9a7_r.jpg&&&p&&br&&/p&&p&&b&5)site:网址&/b&&/p&&p&这个搜索指令是想告诉搜索引擎,只在这个网站上对该关键词进行搜索。&/p&&p&例如我想在知乎上查找有关于《富爸爸,穷爸爸》的问题,只需要在搜索栏中输入“site:&a href=&& class=&internal&&&span class=&invisible&&http://&/span&&span class=&visible&&&/span&&span class=&invisible&&&/span&&/a& 富爸爸,穷爸爸”即可,搜索出来的结果,全部都局限在知乎这个网站而已。&/p&&img src=&/50/v2-cbd14bd50c5cd1a3ae91b9e_b.jpg& data-rawwidth=&1712& data-rawheight=&1613& class=&origin_image zh-lightbox-thumb& width=&1712& data-original=&/50/v2-cbd14bd50c5cd1a3ae91b9e_r.jpg&&&p&&br&&/p&&p&&b&2,专业的问题,交给专业的搜索引擎&/b&&/p&&p&鲁迅老先生曾经说过:这世界上除了百度和谷歌,还有巴拉巴拉以下的几个搜索引擎可以解决你稍微专业的问题。&/p&&p&我试了试,他老人家说得都对。&/p&&p&&br&&/p&&p&&b&1)&a href=&/?target=http%3A//www.sci-hub.cc/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&sci-hub.cc/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/b&&/p&&p&大四或者研二需要写论文的童鞋,经常会遇到这样的一种窘境:自己学校竟然没有花钱购买论文数据库!即使学校购买了,但自己没有在使用校内网,也查看不到想要的论文!在各大网站求助于网友或者强大的朋友圈,往往也无济于事!&/p&&p&如果你有这些困扰,相信Sci-hub这个搜索引擎能让你爽翻过来。&/p&&blockquote&全球最大的论文免费下载网站 Sci-Hub 是由哈萨克斯籍女研究员亚历珊德拉·艾尔巴金(Alexandra Elbakyan)于 2011 年 9 月 5 日创办的。她因为研究论文成本过高,每篇论文在付费墙机制下通常需要花费 30 美元,因而决定成立 Sci-Hub 。&/blockquote&&p&具体的使用方法如下:&/p&&p&复制上面的网址链接,将需要下载论文的URL地址,或DOI,或Pubmed ID直接复制到搜索栏中,按下“open”即可下载。&/p&&img src=&/50/v2-d45d6e5fb3a05c53304a89ddf0153d40_b.jpg& data-rawwidth=&1280& data-rawheight=&756& class=&origin_image zh-lightbox-thumb& width=&1280& data-original=&/50/v2-d45d6e5fb3a05c53304a89ddf0153d40_r.jpg&&&p&&br&&/p&&p&&b&2)&a href=&/?target=https%3A///publicdata/directory& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/publicdata/d&/span&&span class=&invisible&&irectory&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/b&&/p&&p&谷歌的公开数据中心。&/p&&p&里面汇集了中国历年的人口自然增长率、人口出生率、人口死亡率以及欧盟的失业率、最低薪资、政府盈余\赤字等专业数据。&/p&&p&可惜的是,这个搜索引擎需要梯子才能登上去。&/p&&img src=&/50/v2-26c5c5b0e503bdb023da1e2_b.jpg& data-rawwidth=&2736& data-rawheight=&1616& class=&origin_image zh-lightbox-thumb& width=&2736& data-original=&/50/v2-26c5c5b0e503bdb023da1e2_r.jpg&&&img src=&/50/v2-71b6af426c5a404d415a7_b.jpg& data-rawwidth=&2736& data-rawheight=&1609& class=&origin_image zh-lightbox-thumb& width=&2736& data-original=&/50/v2-71b6af426c5a404d415a7_r.jpg&&&p&&br&&/p&&p&&b&3)&a href=&/?target=https%3A//www.gapminder.org/downloads/income-distribution-2003/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&gapminder.org/downloads&/span&&span class=&invisible&&/income-distribution-2003/&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/b&&/p&&p&这个搜索演示工具是由一位TEDer创建的,主要是为了将世界各大国的历年GDP增速进行对比,动态的过程,还是值得观看的。&/p&&img src=&/50/v2-3e6dedeaad09_b.jpg& data-rawwidth=&2736& data-rawheight=&1609& class=&origin_image zh-lightbox-thumb& width=&2736& data-original=&/50/v2-3e6dedeaad09_r.jpg&&&p&&br&&/p&&p&&b&4)&a href=&/?target=http%3A///& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/b&&/p&&p&这个搜索引擎,对从事进出口贸易的人来说非常有用,需要的话,请自行探索。&/p&&img src=&/50/v2-c59b94d57e92e92b547e5_b.jpg& data-rawwidth=&2736& data-rawheight=&1618& class=&origin_image zh-lightbox-thumb& width=&2736& data-original=&/50/v2-c59b94d57e92e92b547e5_r.jpg&&&p&&br&&/p&&p&&b&5)&a href=&/?target=https%3A//xue.glgoo.org/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&xue.glgoo.org/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/b&&/p&&p&每个大学生最为烦躁的,应该就是写毕业论文了。除了上面提到的Sci-Hub这个搜索引擎可以帮到你之外,接着应该就是谷歌的学术搜索,但由于某些不可抗的因素,谷歌学术是需要梯子的,但利用glgoo这个镜像网站,就可以轻松登上啦。&/p&&img src=&/50/v2-91d8fe5d931f1c5b4f428_b.jpg& data-rawwidth=&2736& data-rawheight=&1611& class=&origin_image zh-lightbox-thumb& width=&2736& data-original=&/50/v2-91d8fe5d931f1c5b4f428_r.jpg&&&p&&br&&/p&&p&&b&6)&a href=&/?target=http%3A//en.booksee.org/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&en.booksee.org/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/b&&/p&&p&这个搜索引擎汇集了250万本电子书籍免费合法下载,实在是学习的一把利器。&/p&&p&例如我想下载《富爸爸,穷爸爸》的英文版本,只要在搜索栏输入“Rich Dad Poor Dad ”即可。&/p&&img src=&/50/v2-deb09f46b688_b.jpg& data-rawwidth=&2736& data-rawheight=&1612& class=&origin_image zh-lightbox-thumb& width=&2736& data-original=&/50/v2-deb09f46b688_r.jpg&&&p&&br&&/p&&p&&b&7)&a href=&/?target=http%3A///& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/b&&/p&&p&对于英语非母语的人来说,看到一个单词经常不知道它后面跟着是什么词语,或者不知道这个这词用得对不对,抑或是意思相近的两个单词,哪个的用词频率会高点?&/p&&p&所有的这些问题,都能在这个搜索引擎上得到回答。&/p&&p&例如我想查询“discuss the issue”中的discuss后面需不需要再加介词,只需要按照它给的提示,在输入栏中搜索discuss ?about the issue”即可,结果会显示discuss后面不需要再加任何介词。&/p&&img src=&/50/v2-54e5cfd40c6ee2_b.jpg& data-rawwidth=&2734& data-rawheight=&1613& class=&origin_image zh-lightbox-thumb& width=&2734& data-original=&/50/v2-54e5cfd40c6ee2_r.jpg&&&p&&br&&/p&&img src=&/50/v2-da55eff891956cfc9558a2bef37a94e5_b.jpg& class=&content_image&&&p&本文首发于公众号“曾少贤”,现在关注,后台回复&b&“成长”&/b&,不带引号,就可以获得曾少为你精心准备的电子书——&b&《大学生成长通关指南》&/b&,我在那里等你!&/p&&img src=&/50/v2-edcebeb2a19d8baaab76b3_b.jpg& class=&content_image&&&p&&/p&
前几天和朋友一起吃饭,他跟我抱怨团队最近新招了一名新人,让这位新人去下载一份行业的调查报告,他竟然硬生生地耗费了三天的时间,结果还什么资料都没有找到,把朋友给气到爆炸。照理说这份行业报告也不难找,只是这位新人一点“搜商”都没有,不知道怎么…
&img src=&/50/v2-c98d0fcc891bcaee7e76a_b.jpg& data-rawwidth=&984& data-rawheight=&570& class=&origin_image zh-lightbox-thumb& width=&984& data-original=&/50/v2-c98d0fcc891bcaee7e76a_r.jpg&&&p&9月12号,苹果在10年后的one more thing里发布了被剧透的一干二净的IPhone X。全面屏,OLED,无线充电,全新手势交互都和以往的机型拉开了差距。但是最吸引人的无疑是True Depth Camera和Face ID部分,移动设备上的深度相机True Depth Camera和基于它的Face ID确实给人带来了更直觉化的人机交互。也让我们再一次深深感到微软“起了个大早,赶了个晚集”。这里我们会用一系列文章分析True Depth Camera和Face ID背后可能的技术和实现方式。初步计划分为四期:硬件-建模-识别-Animoji重定向。第一期主要分析下硬件部分。&/p&&img src=&/v2-4ed6376dfaa55815aad810f_b.png& data-rawwidth=&1431& data-rawheight=&575& class=&origin_image zh-lightbox-thumb& width=&1431& data-original=&/v2-4ed6376dfaa55815aad810f_r.png&&&blockquote&True Depth Camera-来自Apple官网&/blockquote&&p&从官网的示意图可以看出IPhone X的刘海部分包括了700万像素彩色相机(7MP Camera),麦克风(Microphone),扬声器(Speaker),环境光感应器(Ambient sensor),距离感应器(Proximity sensor),泛光感应元件(Flood illuminator),红外镜头(Infrared camera)和点阵投影器(Dot projector)。其中前五个原件都是传统的感光元件。后三个:泛光感应元件(Flood illuminator),红外镜头(Infrared camera)和点阵投影器(Dot projector)则构成了True Depth Camera深度相机的核心。这三个原件都是不可见光原件,可以推测泛光感应元件(Flood illuminator)用作黑暗环境下的暗光源,其它两个原件则是深度成像的核心元件。&br&看到这俩红外原件,大家一定会想起另一个同样原理的深度成像设备:Kinect。第一代Kinect就使用了类似的Light Coding技术。而Light Coding技术背后的传感技术公司PrimeSense在2013被Apple收购,也就是现在True Depth Camera背后的主要技术力量。大家可能记得2016年Apple和PrimeSense还申请了一项“集成结构光投影器(Integrated structured-light projector )”(&a href=&/?target=https%3A///patents/US& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&链接在此&i class=&icon-external&&&/i&&/a&),至此,我们基本可以推测,True Depth Camera背后的技术就是PrimeSense开发的点阵结构光深度成像技术的改进版。其实Windows Hello所使用的Intel RealSense 3D camera也是使用的类似的技术。那下面我们就仔细讲讲什么是点阵结构光深度成像。&/p&&h2&点阵结构光深度成像&/h2&&p&2010年,微软为Xbox 360发布了一款深度摄像头Kinect,当时也掀起了一股基于深度相机的体感游戏热潮,虽然现在这股热潮渐渐退去,不过kinect确实将以往成本高高在上的深度摄像机带进了民用领域。Kinect一共出过两代产品,第一代基于类似点阵光深度成像的Light Coding技术,第二代则是基于飞行时间Time-Of-Flight(TOF)技术。今天我们就以kinect 1代为例大致讲解一下点阵结构光深度成像技术。&/p&&img src=&/v2-01a41dc3bca1_b.png& data-rawwidth=&575& data-rawheight=&295& class=&origin_image zh-lightbox-thumb& width=&575& data-original=&/v2-01a41dc3bca1_r.png&&&blockquote&Kinect-来自MSDN&/blockquote&&p&上图是kinect的结构示意图,大部分基于点阵/网格结构光的深度相机都是类似的结构,其中最重要的两个原件就是IR Emitter,也就是红外光发射器,对应 True Depth Camera的点阵光投影器,和红外深度感应器IR Depth Sensor,对应IPhone X上的红外相机。&br&其中红外光发射器会发射一组有特定模式的投影光,像kinect的是这样:&/p&&img src=&/v2-1adc41df280fdc1b58a20b_b.jpg& data-rawwidth=&2251& data-rawheight=&1446& class=&origin_image zh-lightbox-thumb& width=&2251& data-original=&/v2-1adc41df280fdc1b58a20b_r.jpg&&&blockquote&Kinect Pattern-来自&a href=&/?target=http%3A//www.futurepicture.org& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&futurepicture.org&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/blockquote&&p&Intel RealSense 3D(支持Windows Hello),是这样:&/p&&img src=&/v2-9c523cca27bd5f46ddfbc291c981794c_b.jpg& data-rawwidth=&320& data-rawheight=&240& class=&content_image& width=&320&&&blockquote&RealSense Pattern-来自Intel Developer Zone&/blockquote&&p&按苹果官网上的示意图的话,IPhone X的投影是这样的:&/p&&img src=&/v2-0c22c59df9e2e1e4a12a94e_b.png& data-rawwidth=&1329& data-rawheight=&851& class=&origin_image zh-lightbox-thumb& width=&1329& data-original=&/v2-0c22c59df9e2e1e4a12a94e_r.png&&&blockquote&IPhone X pattern-来自Apple官网&/blockquote&&p&而传统的结构光是条纹状的投影,像这样:&/p&&img src=&/v2-d863babe34df_b.jpg& data-rawwidth=&1396& data-rawheight=&944& class=&origin_image zh-lightbox-thumb& width=&1396& data-original=&/v2-d863babe34df_r.jpg&&&blockquote&Structured Light-来自Automatic Modelling & Video Mapping&/blockquote&&p&那为什么从红外相机里拍出的这些奇怪的图案就可以得到深度了呢?这就要来说说结构光成像了。&/p&&img src=&/v2-0b80b831a1f14aad555e6_b.jpg& data-rawwidth=&600& data-rawheight=&385& data-thumbnail=&/v2-0b80b831a1f14aad555e6_b.jpg& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-0b80b831a1f14aad555e6_r.gif&&&blockquote&Kinect Pattern-来自&a href=&/?target=http%3A//www.futurepicture.org& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&futurepicture.org&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/blockquote&&p&先来看看这幅图,当我们摆一本书在红外投影的点阵中,可以明显感觉到中间凸出来一部分,本质上来说,之所以会看到投影点阵的变化,是因为投影点和拍摄点的位置差。&/p&&img src=&/v2-b5ed8cb87c6cfd78a456ef2f130bce2a_b.png& data-rawwidth=&825& data-rawheight=&346& class=&origin_image zh-lightbox-thumb& width=&825& data-original=&/v2-b5ed8cb87c6cfd78a456ef2f130bce2a_r.png&&&blockquote&stereo vision-来自Illinois^cs498dh&/blockquote&&p&设想左边就是我们投影光源O的投影平面,右边这个就是摄像机O’的成像平面,他们之间有一定距离,我们可以看到一个点在投影平面上的位置为p的话,它投影到物体上的位置一定在线段Op上,根据物体的深度不同,投影点可能是P,P1,P2。然而,不同深度的P,P1,P2就会在成像平面上位于不同的位置。所以,只要我们能够检测出来投影平面上的P在成像平面的位置,就可以用简单的三角函数算出来投影光在物体上投影点的位置,也就是说物体表面有一个点在该空间位置。所以,我们需要的就是一幅投影光平面图,并在成像平面寻找投影平面上点的对应点就行啦。&br&可是,&/p&&img src=&/v2-cfb23d41c4ba_b.png& data-rawwidth=&422& data-rawheight=&330& class=&origin_image zh-lightbox-thumb& width=&422& data-original=&/v2-cfb23d41c4ba_r.png&&&blockquote&Kinect pattern-来自&a href=&/?target=http%3A//& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/blockquote&&p&这么密密麻麻的点都长一样咋找对应点?研究者们想了很多办法,比如:&br&每隔一段时间投影不同的地方,每个时刻就一条线,不就好找了吗~,像这样:&/p&&img src=&/v2-140cae7cbcb8c3e777ac12_b.png& data-rawwidth=&768& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&768& data-original=&/v2-140cae7cbcb8c3e777ac12_r.png&&&blockquote&structured light-来自Illinois^cs498dh&/blockquote&&p&和改进版二元编码&/p&&img src=&/v2-bbd20e42e180b23af2aea44_b.png& data-rawwidth=&1529& data-rawheight=&1187& class=&origin_image zh-lightbox-thumb& width=&1529& data-original=&/v2-bbd20e42e180b23af2aea44_r.png&&&blockquote&binary coding-来自Illinois^cs498dh&/blockquote&&p&和色彩编码:&/p&&img src=&/v2-4c7c1dcc2dc9e9a69547f_b.png& data-rawwidth=&537& data-rawheight=&660& class=&origin_image zh-lightbox-thumb& width=&537& data-original=&/v2-4c7c1dcc2dc9e9a69547f_r.png&&&blockquote&color coding-来自Illinois^cs498dh&/blockquote&&p&等等。然而这些编码方式要么需要多帧的投影和拍摄,要么需要彩色投影,有没有单帧单色的技术,就像Kinect和True Depth Camera那样的呢?这当然难不倒研究者们。答案就是空间编码,&/p&&img src=&/v2-906d680aa8cebdb258f0ba_b.png& data-rawwidth=&591& data-rawheight=&456& class=&origin_image zh-lightbox-thumb& width=&591& data-original=&/v2-906d680aa8cebdb258f0ba_r.png&&&blockquote&Spatial pattern-来自Illinois^cs498dh&/blockquote&&p&只要把这样一种pattern投影到物体上,拍一张就可以了。&/p&&img src=&/v2-eea21505cedec72691eb83_b.png& data-rawwidth=&984& data-rawheight=&651& class=&origin_image zh-lightbox-thumb& width=&984& data-original=&/v2-eea21505cedec72691eb83_r.png&&&blockquote&Spatial pattern-来自Illinois^cs498dh&/blockquote&&p&秘密就在于这种pattern的每一列都是不一样的图案,可以通过匹配这种特异性的图案达到识别每一列的对应位置的目的。&br&而Kinect和True Depth Camera都是将这种线型的空间编码扩展到更加复杂的点阵空间编码,即一块区域有一个独立的排布方式,来实现单色单帧图像的编码。此外,还可以结合点阵在物体上的投影的形状和大小进行更快的匹配,更近的物体投影点会更大,而斜的物体投影点就会拉长。据说Kinect的实现方法就是事先拍摄各个深度的投影点,再将采集到的投影图的每个区域与各个深度的参照图像进行比对进行快速的深度计算,就可以得到一幅深度图。&/p&&img src=&/v2-bfb16ce3ff1_b.jpg& data-rawwidth=&400& data-rawheight=&332& class=&content_image& width=&400&&&blockquote&Kinect-来自Depth Sensing for 3DTV: A Survey&/blockquote&&p&有了这些技术,只要能将高分辨率红外投影器和红外摄像机塞到手机里,那么手机端的深度图像获取也就不是难事,而这一步也是Apple和PrimeSense下最大精力的地方。&/p&&h2&深度图怎么玩&/h2&&p&深度图不就多了一维深度信息吗?能干啥嘞?在研发出Kinect之后,微软其实还搞了好多黑科技。&br&比如骨架跟踪,通过Kinect得到人的骨架信息后,就可以通过人机交互,操作体感游戏。&/p&&img src=&/v2-ebf33d19eab9c265d36671_b.jpg& data-rawwidth=&819& data-rawheight=&277& class=&origin_image zh-lightbox-thumb& width=&819& data-original=&/v2-ebf33d19eab9c265d36671_r.jpg&&&blockquote&Kinect Pose recognition-来自微软研究院&/blockquote&&p&业内大名鼎鼎的Kinect Fusion,手持Kinect,就能对对身边的场景进行三维建模,&/p&&img src=&/v2-30502ffbb977a478fbfb39_b.png& data-rawwidth=&600& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-30502ffbb977a478fbfb39_r.png&&&blockquote&Kinect Fusion-来自Kinect Fusion paper&/blockquote&&p&针对运动物体的Fusion 4D:&/p&&img src=&/v2-cf3fab9f98cd1e03badab91d23be6f8d_b.png& data-rawwidth=&855& data-rawheight=&331& class=&origin_image zh-lightbox-thumb& width=&855& data-original=&/v2-cf3fab9f98cd1e03badab91d23be6f8d_r.png&&&blockquote&Fusion 4D-来自Fusion 4D paper&/blockquote&&p&用Kinect Fusion来做AR远程通话和远程传送的Holoportaion:&/p&&img src=&/v2-ec7abdcee4faed5c7739_b.png& data-rawwidth=&1920& data-rawheight=&272& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&/v2-ec7abdcee4faed5c7739_r.png&&&blockquote&Holoportation-来自微软研究院&/blockquote&&p&用红外滤镜结合机器学习算法制作手机端深度传感器并用来进行人脸捕捉和手势交互的的Learning to Be a Depth Camera for Close-Range Human Capture and Interaction&/p&&img src=&/v2-8c66de5fba703ecef263c5b_b.jpg& data-rawwidth=&704& data-rawheight=&333& class=&origin_image zh-lightbox-thumb& width=&704& data-original=&/v2-8c66de5fba703ecef263c5b_r.jpg&&&blockquote&Learning to Be a Depth Camera for Close-Range Human Capture and Interaction-来自微软研究院&/blockquote&&p&有了深度图和一些模型的初始模板,就能做深度图到三维参数化模型的快速配准,像是Apple收购的FaceShift的创始人Sofien Bouaziz的工作Dynamic 2D/3D Registration,就极有可能是Apple人脸建模背后的核心技术。&/p&&img src=&/v2-dafcd80a2c6a948cd1802d_b.png& data-rawwidth=&694& data-rawheight=&282& class=&origin_image zh-lightbox-thumb& width=&694& data-original=&/v2-dafcd80a2c6a948cd1802d_r.png&&&blockquote&Dynamic 2D/3D registration-来自&a href=&/?target=http%3A//& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/blockquote&&img src=&/v2-930b24f288adb59beab5e6d825b047c5_b.jpg& data-rawwidth=&308& data-rawheight=&191& data-thumbnail=&/v2-930b24f288adb59beab5e6d825b047c5_b.jpg& class=&content_image& width=&308&&&blockquote&Face registration-来自苹果官网&/blockquote&&p&有了深度图,也就能更快地实现人脸实时采集和跟踪,同样是来自Sofien Bouaziz的Realtime Performance-Based Facial Animation和Semi-Supervised Facial Animation Retargeting也极有可能是Apple的Animoji背后的技术基础。&/p&&img src=&/v2-72afcdb6e7ba_b.png& data-rawwidth=&694& data-rawheight=&282& class=&origin_image zh-lightbox-thumb& width=&694& data-original=&/v2-72afcdb6e7ba_r.png&&&blockquote&Realtime Performance-Based Facial Animation-来自&a href=&/?target=http%3A//& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/blockquote&&img src=&/v2-a3deaadb31c526f_b.png& data-rawwidth=&694& data-rawheight=&282& class=&origin_image zh-lightbox-thumb& width=&694& data-original=&/v2-a3deaadb31c526f_r.png&&&blockquote&Semi-Supervised Facial Animation Retargeting-来自&a href=&/?target=http%3A//& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/blockquote&&img src=&/v2-5f02eef361c2_b.jpg& data-rawwidth=&596& data-rawheight=&332& data-thumbnail=&/v2-5f02eef361c2_b.jpg& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&/v2-5f02eef361c2_r.gif&&&blockquote&Animoji-来自Apple&/blockquote&&p&再结合一些Gaze tracing的工作,就可以做到眼神解锁了&/p&&img src=&/v2-60e9cd0c5df91d4fb494ce_b.png& data-rawwidth=&958& data-rawheight=&321& class=&origin_image zh-lightbox-thumb& width=&958& data-original=&/v2-60e9cd0c5df91d4fb494ce_r.png&&&blockquote&Realtime 3D Eye Gaze Animation Using a Single RGB Camera-来自&a href=&/?target=http%3A//humanmotion.& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&humanmotion.&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/blockquote&&h2&&b&起于微软,止于苹果&/b&&/h2&&p&看了这么多,想必大家也有一个感受,论黑科技研发,那当属微软研究院,可是论用黑科技赚钱,还是得看苹果。还是那句话,微软又“起了个大早,干了个晚集”。无数的新技术,都是始于科学研究和论文,但也万万不能忽视真正将他们带入日常生活的成果转化过程,无数理想化的假设,计算,都是靠着工程师们不断地优化,挖掘整个系统的极限,最后才能来到我们眼前和手中。另一方面,相比现在如火如荼的机器学习人工智能,图形学也终于蹭了一回热点。&/p&&p&今天,我们主要介绍了True Depth Camera硬件背后的原理和大致实现方式。如有疏忽请大家不吝指正,我们也会及时更新。之后的几期我们会专门针对Face ID的人脸建模,识别和Animoji的人脸重定向做更深入的分析,敬请期待。&/p&&h2&Reference&/h2&&p&[1] &a href=&/?target=https%3A///iphone-x/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/iphone-x/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[2] &a href=&/?target=https%3A///news/LVS7IOTysitw2R.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/news/20170&/span&&span class=&invisible&&9/R3LVS7IOTysitw2R.html&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[3] &a href=&/?target=https%3A///investing//apples-iphone-x-event-what-you-need-to-know.aspx& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/investing/2017&/span&&span class=&invisible&&/09/12/apples-iphone-x-event-what-you-need-to-know.aspx&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[4] &a href=&/?target=https%3A///patents/US& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/patents/US20&/span&&span class=&invisible&&&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[5] &a href=&/?target=http%3A///about-chipworks/overview/blog/inside-the-intel-realsense-gesture-camera& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/about-chi&/span&&span class=&invisible&&pworks/overview/blog/inside-the-intel-realsense-gesture-camera&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[6] &a href=&/?target=http%3A//www.sci.utah.edu/%7Egerig/CS/Materials/CS6320-CV-S2012-StructuredLight.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&sci.utah.edu/~gerig/CS6&/span&&span class=&invisible&&320-S2012/Materials/CS6320-CV-S2012-StructuredLight.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[7] &a href=&/?target=http%3A//www.sci.utah.edu/%7Egerig/CS/Materials/CS6320-CV-S2012-StructuredLight-II.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&sci.utah.edu/~gerig/CS6&/span&&span class=&invisible&&320-S2013/Materials/CS6320-CV-S2012-StructuredLight-II.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[8] &a href=&/?target=http%3A//users.dickinson.edu/%7Ejmac/selected-talks/kinect.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&users.dickinson.edu/~jm&/span&&span class=&invisible&&ac/selected-talks/kinect.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[9] &a href=&/?target=http%3A//www.futurepicture.org/%3Fp%3D116& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&futurepicture.org/?&/span&&span class=&invisible&&p=116&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[10] &a href=&/?target=https%3A//puter.org/csdl/mags/mu/2013/04/mmu-abs.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&computer.org/csdl/mags/&/span&&span class=&invisible&&mu/2013/04/mmu-abs.html&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[11] &a href=&/?target=https%3A///en-us/research/publication/real-time-human-pose-recognition-in-parts-from-a-single-depth-image/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/en-us/res&/span&&span class=&invisible&&earch/publication/real-time-human-pose-recognition-in-parts-from-a-single-depth-image/&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[12] &a href=&/?target=https%3A///en-us/research/project/kinectfusion-project-page/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/en-us/res&/span&&span class=&invisible&&earch/project/kinectfusion-project-page/&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[13] &a href=&/?target=http%3A//www.cs.unc.edu/%7Edoums/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cs.unc.edu/~doums/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[14] &a href=&/?target=https%3A///en-us/research/project/holoportation-3/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/en-us/res&/span&&span class=&invisible&&earch/project/holoportation-3/&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[15] &a href=&/?target=https%3A///en-us/research/publication/learning-to-be-a-depth-camera-for-close-range-human-capture-and-interaction/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/en-us/res&/span&&span class=&invisible&&earch/publication/learning-to-be-a-depth-camera-for-close-range-human-capture-and-interaction/&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[16] &a href=&/?target=http%3A///publications.php& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/publi&/span&&span class=&invisible&&cations.php&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&[17] &a href=&/?target=http%3A//humanmotion./papers/2016P1_EyeGaze/details.htm& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&humanmotion./p&/span&&span class=&invisible&&apers/2016P1_EyeGaze/details.htm&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&/p&&p&&br&&/p&&p&&b&果壳中的宇宙系列文章:&/b&&/p&&p&&a href=&/p/& class=&internal&&果壳中的宇宙-IPHONE X的FACE ID和TRUE DEPTH CAMERA分析-硬件篇&/a&&/p&&p&&a href=&/p/& class=&internal&&果壳中的宇宙-IPhone X的Face ID和True Depth Camera分析-Animoji篇&/a&&/p&&p&_(:3」∠)_ _(?ω?”∠)_ _(:з)∠)_ ∠( ? 」∠)_ _(:зゝ∠)_&br&请毫不犹豫地关注我们:&br&我们的网站:&a href=&/?target=https%3A//graphicon.io/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GraphiCon&i class=&icon-external&&&/i&&/a&&br&知乎专栏:&a href=&/graphicon& class=&internal&&GraphiCon图形控&/a&&br&微信公众号:GraphiCon&/p&&img src=&/v2-3850f35adecd7c208c615c0_b.png& data-rawwidth=&430& data-rawheight=&430& class=&origin_image zh-lightbox-thumb& width=&430& data-original=&/v2-3850f35adecd7c208c615c0_r.png&&&p&如果你有什么想法,建议,或者想加入我们,你可以:&br&给我们发邮件:&a href=&mailto:hi@graphicon.io&&hi@graphicon.io&/a&&br&加入我们的QQ群:SIQGRAPH()&br&加入我们的slack群:&a href=&/?target=https%3A///& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GraphiCon&i class=&icon-external&&&/i&&/a&&br&GraphiCon长期接受投稿,如果你想投稿给我们可以通过上面的方式联系我们!&/p&&img src=&/v2-885fb112fbdbe_b.png& data-rawwidth=&88& data-rawheight=&31& class=&content_image& width=&88&&&p&本作品采用&a href=&/?target=http%3A//creativecommons.org/licenses/by-nc-nd/4.0/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议&i class=&icon-external&&&/i&&/a&进行许可。&/p&&p&如需转载请署名。&/p&&p&&/p&
9月12号,苹果在10年后的one more thing里发布了被剧透的一干二净的IPhone X。全面屏,OLED,无线充电,全新手势交互都和以往的机型拉开了差距。但是最吸引人的无疑是True Depth Camera和Face ID部分,移动设备上的深度相机True Depth Camera和基于它的Face…
&img src=&/50/v2-22b113cb67e_b.jpg& data-rawwidth=&2400& data-rawheight=&1600& class=&origin_image zh-lightbox-thumb& width=&2400& data-original=&/50/v2-22b113cb67e_r.jpg&&&p&平时对苹果的摄像功能总是表示淡定,因为底大一级压死人,无论怎么吹捧,它能做的,相机都能做得更好。&/p&&p&&br&&/p&&p&但今天无意瞄到iPhoneX的新特性Portrait lighting时,我心脏骤然停了一瞬——我仿佛听到它用一种颇具说服力的姿态告诉我们:&b&手机的摄像头不再是相机的附庸:从前,它能的,相机一定更好。而现在,它能的,相机几乎不能。&/b&此后在拍照同时,手机将前所未有地记录人脸的精细三维结构,因此新iPhone不再像过去那样只是比较方便而已,至少在自拍方面,它是一个真·摄影棚。&/p&&p&&b&原因一言以蔽之:多了一个维度的信息,产生高维碾压。&/b&&/p&&p&&br&&/p&&p&Portrait lighting中文名叫&b&“人像光效”&/b&,听起来就像美图秀秀里的”一键美白“:&/p&&p&&br&&/p&&img src=&/50/v2-c91e9b26f51d5931be3b_b.png& data-rawwidth=&1000& data-rawheight=&418& class=&origin_image zh-lightbox-thumb& width=&1000& data-original=&/50/v2-c91e9b26f51d5931be3b_r.png&&&p&&br&&/p&&p&若真当它是美图秀秀或者某种滤镜,你根本无法意识到它会产生多大的威力。它目前还是beta版,我今天说的,是它四五年后的一点小小可能。&b&本文谈的,是它新硬件带来的未来。&/b&&/p&&p&&br&&/p&&p&它的作用是给你打光,假装你处在不同布光的环境下,比如摄影棚、舞台灯。&/p&&p&&br&&/p&&p&&b&光永远是最重要的,&/b&这前所未有的效果让美图一众在它面前都成了名副其实的垃圾。&b&因为它结合了面部结构信息。&/b&&/p&&p&&br&&/p&&p&&b&在未来,你完全可以随意拍摄一张自拍,然后拖出“经典三盏灯”,把自己照得跟蒙娜丽莎一样古典,发给男神:&/b&&/p&&p&&br&&/p&&img src=&/50/v2-6ba0ecca1fdaba7d9374_b.png& data-rawwidth=&372& data-rawheight=&513& class=&content_image& width=&372&&&p&&b&然后转头换出一盏底灯,发给胆小的闺蜜。&/b&&/p&&img src=&/50/v2-d141aab481682_b.png& data-rawwidth=&446& data-rawheight=&535& class=&origin_image zh-lightbox-thumb& width=&446& data-original=&/50/v2-d141aab481682_r.png&&&p&&br&&/p&&p&&b&在未来,你修自拍时,首先做的不是瘦脸磨皮,而是仔仔细细调节手机里虚拟灯光的参数,免得被人说不专业。&/b&&/p&&p&&b&利用它,网红还能在直播中由手机自动后期,效果极其自然,再也不怕见光死。&/b&&/p&&p&&br&&/p&&p&&b&至于画质?&/b&对自拍狂而言,光线好的叫画质,不好的叫贴图。&/p&&p&&br&&/p&&p&回到Portrait lighting,它的实现原理特别明确,&b&它产生区分度的核心在构筑脸部3D模型。&/b&&/p&&p&&b&1、构筑你脸部的3D模型,得到脸部信息。&/b&&/p&&p&&b&2、套用预设,模拟打光。&/b&&/p&&p&&br&&/p&&p&基于此,光线的模拟对自拍的提升几乎是工业革命般的,甚至能将近景的广角人像提升到专业摄影都不一定望其项背的程度。&/p&&p&对于任何&u&猝不及防&/u&的“人像摄影师”而言,都必会震撼于这个新生儿前途无限的未来。而如果他们还能联想到一点&b&人工智能的伟力&/b&,他们一定会肃穆,敬畏,乃至恐惧。&/p&&p&&br&&/p&&p&&b&一、&/b&&/p&&p&&br&&/p&&p&&b&不知者无畏,若想一窥摄影师这种恐惧,需要从棚拍这件事情说起。&/b&&/p&&p&&br&&/p&&p&&b&棚拍是自拍的极致&/b&——灯光师给你布置最佳的光源,去掉干扰物,构成不再业余的照片。&/p&&p&&br&&/p&&p&棚拍和日常拍&b&无非光线&/b&的区别而已。对人像而言,摄影棚下的光线都是为了更强地塑造模特的面容而存在的,&b&与日常唯一的不同在于&/b&,&b&它的每一根光线都是带着目的&/b&,&b&你的下巴会更瘦削,鼻梁会更加高耸,双颊细腻的影子有着迷人的过渡。&/b&&/p&&img src=&/50/v2-e8c70a1ea505ba918b3ceb9_b.png& data-rawwidth=&464& data-rawheight=&391& class=&origin_image zh-lightbox-thumb& width=&464& data-original=&/50/v2-e8c70a1ea505ba918b3ceb9_r.png&&&p&拍摄后,在后期处理中调整不够整齐的光线:&/p&&img src=&/50/v2-9fa7dd8a1fcba79d57621_b.png& data-rawwidth=&464& data-rawheight=&391& class=&origin_image zh-lightbox-thumb& width=&464& data-original=&/50/v2-9fa7dd8a1fcba79d57621_r.png&&&p&&b&美丑之间只是光线的区别而已,&/b&这些对光线的改动形成了调整层,让图片看起来更加均匀,可以灰色图片的形式记录:(灰色对应无改、深色对应变暗、亮色的部位变亮↓)&/p&&img src=&/50/v2-bfd8c33a93c3ffede4a5ca_b.png& data-rawwidth=&464& data-rawheight=&391& class=&origin_image zh-lightbox-thumb& width=&464& data-original=&/50/v2-bfd8c33a93c3ffede4a5ca_r.png&&&p&&br&&/p&&p&这个增减光线的过程&u&非常耗费时间&/u&——甚至可能持续24个小时。&u&还需修图师对妆面和灯光效果能充分理解。&/u&&/p&&p&在后期工作时,你必会需要弥补人脸的种种不足——比如下图,为了弥补姑娘过宽的面颊,将箭头处光线减弱,营造出影子(此处并非液化)。&/p&&p&&br&&/p&&img src=&/50/v2-feac743a4efee3c349db1e2_b.png& data-rawwidth=&944& data-rawheight=&220& class=&origin_image zh-lightbox-thumb& width=&944& data-original=&/50/v2-feac743a4efee3c349db1e2_r.png&&&p&(图片仅作案例,转载请打钱。 &a class=&member_mention& href=&/people/b9eba3fe850b742f562e7& data-hash=&b9eba3fe850b742f562e7& data-hovercard=&p$b$b9eba3fe850b742f562e7&&@三月你不语&/a& )&/p&&p&后期整理结束,摄影师的主干工作就算完成了。&/p&&p&&br&&/p&&p&&b&二、摄影师的作用&/b&&/p&&p&&br&&/p&&p&&b&我们再一琢磨,哟,这个给我拍照的师傅最大的功能无非就是排个光罢嘛:&/b&&/p&&p&——前期摆灯看起来高大上,目的是为了脸上的光;&/p&&p&——后面PS看起来费力,目的还是为了脸上的光。&/p&&p&比如上图脸颊的宽度,模特的皮肤的整齐度,&b&实际上仅仅是光线的区别&/b&——过暗的地方如唇部要补光,过亮的地方减光。&/p&&p&既然只需增减,为何不能让电脑一步调整到位呢?&/p&&p&&br&&/p&&p&因为电脑只看到你的平面图——&b&它不知道你鼻子多高眼睛多深,自然也不知道该怎么给你打光。如果它看到的是立体的,自然就知道了。&/b&&/p&&p&&b&现在,新iPhone就知道了&/b&。&/p&&hr&&p&&br&&/p&&p&我们会发现,摄影师除了打出“&b&真实灯光”和“审美思考&之外,剩下的工作已经可以被手机接管了。&/b&手机终于知道你的眉眼多深,自然能帮你完成大体的调整工作。&/p&&p&&br&&/p&&p&这种因为智能产生的接管,&b&在我看来正是传统摄影和手机自拍之间真正开始产生区分度的地方。&/b&&/p&&p&&br&&/p&&p&专业拍脸的核心流程无非如此:&/p&&p&&b&1、肉眼识别,得到脸部信息(深浅)。&/b&&/p&&p&&b&2、经过师傅的思考,用灯光打光,再用PS对瑕疵模拟打光。&/b&&/p&&p&将其与Portrait lighting的流程进行一番比较,会发现流程核心一致:&/p&&img src=&/50/v2-e50b6f32a1ca12b0d854a3_b.png& data-rawwidth=&432& data-rawheight=&146& class=&origin_image zh-lightbox-thumb& width=&432& data-original=&/50/v2-e50b6f32a1ca12b0d854a3_r.png&&&p&&br&&/p&&p&——过往无论”柔光双摄“还是”美颜神器“,无非是后期流程的粗糙归纳。&b&传统自拍中,因为计算机无法感知立体信息,精细活需要手工处理。而现在计算机感知到了,便自然地将计算机澎湃的生产力正式引入手动工序——这正是工业革命。&/b&&/p&&p&&br&&/p&&p&这样的改变对整个手机的影响仅次于电容屏的出现,本文仅谈论自和摄影层面:&b&手机现在能干相机不能干的事情了。&/b&&/p&&p&&br&&/p&&p&如果过往手机摄影和相机摄影的关系是这样的话:&/p&&p&&br&&/p&&img src=&/50/v2-1a264e7f3bdc9fd710f7b8af5f19d819_b.png& data-rawwidth=&505& data-rawheight=&399& class=&origin_image zh-lightbox-thumb& width=&505& data-original=&/50/v2-1a264e7f3bdc9fd710f7b8af5f19d819_r.png&&&p&那么今晚的iPhone,成功地将他们之间的关系稍微移动了一点点。&/p&&p&&br&&/p&&img src=&/50/v2-b26c3feacbfa_b.png& data-rawwidth=&539& data-rawheight=&405& class=&origin_image zh-lightbox-thumb& width=&539& data-original=&/50/v2-b26c3feacbfa_r.png&&&p&&br&&/p&&p&然而这样的一点是多么颠覆,多么具有开创性,是突破了&b&”手机能干的事情小相机也能干&/b&“的魔咒的一点。&/p&&p&&b&现在新的传感器已经能直接获得脸部的立体造型了,便能粗糙取代修图师手动的加深减淡,&/b&我们要做的,就是调整自己喜欢的光线,&b&无论美食还是微距还是自拍,我们都能像拿手电筒打光那么简单地照射出好的效果!!&/b&&/p&&p&&br&&/p&&p&理论上,我们能想象到的任何光线,都能在iPhone上转眼得到实现!&/p&&p&&br&&/p&&p&&b&三、&/b&&/p&&p&&br&&/p&&p&&b&当然,有人肯定嗤之以鼻,会认为前期布光是无法代替的。&/b&&/p&&p&然而前期布光当然可以代替啊,&b&不然3D动画怎么来的&/b&?只是精度问题罢了。&/p&&p&举个例子,如果我把下图这张jpg发给修图师,为了提升此时的光影,对方需要用PS一点点修饰明暗。&/p&&img src=&/50/v2-6bfb1f44a42f46fb52ef77f_b.png& data-rawwidth=&690& data-rawheight=&840& class=&origin_image zh-lightbox-thumb& width=&690& data-original=&/50/v2-6bfb1f44a42f46fb52ef77f_r.png&&&p&&b&但如果由我发了原3D文件给他,他只调整模拟灯光的位置,便能得到远超之前修图师的理想的效果。这就是布光可被取代理由,有深度信息,就可以计算。&/b&&/p&&p&&br&&/p&&img src=&/v2-cc37692cf94deaf7d4070bfaa4b3584b_b.jpg& data-rawwidth=&360& data-rawheight=&200& data-thumbnail=&/50/v2-cc37692cf94deaf7d4070bfaa4b3584b_b.jpg& class=&content_image& width=&360&&&p&&i&(上图并&b&非实拍&/b&)&/i&&/p&&p&&br&&/p&&p&它就像像一个在灯光和光影之间的函数,代入左边,就能得到右边。&/p&&p&&br&&/p&&p&&b&综上,新的iPhone却在自拍时保存了三维的”模型“信息,那么只要IOS允许,自然就能随意打光。而且远比人工来得自然。&/b&&i&(←此处留个喷点)&/i&&/p&&p&&br&&/p&&img src=&/v2-f4d03d4a5e89b6d43b6af1bb3c26b428_b.jpg& data-rawwidth=&128& data-rawheight=&171& data-thumbnail=&/50/v2-f4d03d4a5e89b6d43b6af1bb3c26b428_b.jpg& class=&content_image& width=&128&&&blockquote&&i&一次不太成功的人肉补光&/i&&/blockquote&&hr&&p&&br&&/p&&p&&b&四&i&、&/i&硬件基础&/b&&/p&&p&新的机器并非双摄那种简单的深度感知,而是精细的结构光和点投影。&/p&&img src=&/50/v2-b3cc3a7f922ea709bdf50_b.png& data-rawwidth=&1243& data-rawheight=&860& class=&origin_image zh-lightbox-thumb& width=&1243& data-original=&/50/v2-b3cc3a7f922ea709bdf50_r.png&&&p&&i&左侧红外结构光,获取相位信息,右侧点投影,获取更加精细的信息。&/i&&/p&&p&&br&&/p&&p&过往双摄的概念出来时,更大的意义还是通过双CMOS得到5倍的进光量,从而提升信噪比,而非3d的深度感知。&/p&&p&因为双摄这个结构本身就不够精确。以环境感知独步天下的大疆为例,目前凭双摄也只能在10米距离上分辨&b&1m&/b&的阻碍,*而苹果的点投影&b&如果能&/b&投上10m,60°的视角下,它能分辨出&b&0.06m&/b&的障碍*&i&(仅以点数和60°视角估算)。&/i&&/p&&p&&br&&/p&&p&这种精度,相当于对你的皮肤都有了一次比人眼还密集的立体结构普查,能精确到每一块肌肉。&/p&&p&&br&&/p&&img src=&/50/v2-214a3cadda51b_b.png& data-rawwidth=&1234& data-rawheight=&713& class=&origin_image zh-lightbox-thumb& width=&1234& data-original=&/50/v2-214a3cadda51b_r.png&&&p&&br&&/p&&p&当iPhone能get到脸部信息并套用经典灯光设计时,任何拿相机自拍的人也不敢说一定拍得比手机拍好了。&b&因为毫无疑问,根据脸部3D信息,随时可以布出一片影棚级的专业光线——而拿相机的摄影师如果靠普通的光线,何来可比性?&/b&&/p&&p&&br&&/p&&p&而且1这个基础上,通过对比对应图像,相机完全能察觉出哪些不均匀是肤色导致的,哪些不均匀是凹凸导致的。这相当于把脸部分了一个层,比如黑眼圈单独一层,要去除只需删掉即可。 &/p&&p&&br&&/p&&p&遍览我们用过的相机,下到RX100上到H5D,都无法获取脸部的3D信息。因为单个镜头注定只能拍摄到平面而非立体,在后面的修光时,我们对脸庞信息的获取完全来自于我们个人的经验。这就是&b&标题中指代的“分道扬镳”的地方。&/b&&/p&&p&&br&&/p&&p&&b&当然,这一切离理想还很遥远,却顶多就在五六年间。或许到时候女朋友一句抱怨”拍得还没我手机好“是一句不能更真的实话,而非现在外行人的笑谈。&/b&&/p&&p&&br&&/p&&img src=&/50/v2-81dfabd32d161f8e63429caf7bd6b9bc_b.png& data-rawwidth=&1432& data-rawheight=&328& class=&origin_image zh-lightbox-thumb& width=&1432& data-original=&/50/v2-81dfabd32d161f8e63429caf7bd6b9bc_r.png&&&p&&br&&/p&&blockquote&&i&↑上图:portrait lighting 自动打光前后&/i&&br&&br&根据立体信息,手机判断出脸颊的深度,并认为在顶光照射下这部分应该更加黯淡,因此减少了脸颊的光线。五官更加立体。而传统的美颜则不能分辨,只能提供对比度。&br&(这仅是当前beta测试下的一个机械的案例。实际上&b&目前主要还是靠神经网络&/b&。)&/blockquote&&p&如果确实能记录三维信息,那完全能对普通图片产生碾压。&/p&&p&&br&&/p&&hr&&p&&br&&/p&&p&&br&&/p&&p&&b&五、机器智能的伟力&/b&&/p&&p&目前的portrait lighting主要依靠神经网络而非立体信息。如果两者相结合,产生的威力是巨大的。&/p&&p&之前我提到&b&“审美思考“是无法取代的&/b&&/p&&p&&b&——才怪!醒一醒,人工智能在图像领域早就是苏醒的怪兽了。这些不是apple的专利。&/b&&/p&&p&&br&&/p&&p&如泼辣修图,Photolemur,已经很大程度上可以自动取得不错的优化效果。&/p&&p&再如,paintschainer,自动上色。谷歌AI,从街景自动修出风景图&/p&&img src=&/50/v2-2cb2d83d9883397ecb8ccb2f4e5c9fc1_b.png& data-rawwidth=&645& data-rawheight=&401& class=&origin_image zh-lightbox-thumb& width=&645& data-original=&/50/v2-2cb2d83d9883397ecb8ccb2f4e5c9fc1_r.png&&&p&(还有一个由AI自动生成照片的案例的,我没办法搜到了,希望有人补充。)&/p&&p&&br&&/p&&p&实际上当前很多美图软件或者相机自带的功能已经开始利用神经网络修图了,某种意义上也能达到模拟灯光的效果。&/p&&p&&br&&/p&&p&在我看来,&b&至少&/b&在”&u&如何改善自拍&/u&“这方面,人工智能完全能成为打败摄影师的怪物。&/p&&p&&b&人工智能对人们喜好的照片如简在心,脸部哪里应该有影子、何处应该有高光,何种光线下应该用什么样硬度的模拟灯光,它会有数——而3D信息会告诉它脸是怎么样的。&/b&&/p&&p&&br&&/p&&p&新iPhone自带的Core ml芯片赋予它的人工智能能力,这是它未来发育时倚重的神器。&/p&&p&它一开始还不知道人们喜欢什么样子的照片,等以后无数人使用了新的功能进行自拍之后,这位人工智能就会被逐渐教育成大家想要的那样子,就像第二个Siri.&/p&&p&&br&&/p&&p&在未来,或许你的iPhone还会判断你想要追逐的潮流,将你修饰成你想要的、最潮流的样子:&/p&&p&&br&&/p&&img src=&/50/v2-edbd3e7256a_b.png& data-rawwidth=&601& data-rawheight=&730& class=&origin_image zh-lightbox-thumb& width=&601& data-original=&/50/v2-edbd3e7256a_r.png&&&p&&i&*↑这里不是大佬&/i&&/p&&p&&i&&b&本文只谈未来。&/b&&/i&&/p&&p&&b&面对被数亿副自拍教育出来的怪物,哪个修图师敢说自己一定赢?&/b&&/p&&p&&br&&/p&&p&&br&&/p&&p&&b&五、摄影师的改变&/b&&/p&&p&&br&&/p&&p&正如我标题所说:&b&分道扬镳&/b&。以智能为驱动力的手机摄影,将在以后与传统摄影越走越远。但带了智能和高维信息的摄影与旧摄影纠缠,必然会带来我们从未见过的风景。&/p&&p&在传统摄影中,3D信息的捕获是通过各种辅助工具达成的,&/p&&img src=&/50/v2-47fdc8b51a0b5ca3d8b50ad21d56cae1_b.png& data-rawwidth=&597& data-rawheight=&370& class=&origin_image zh-lightbox-thumb& width=&597& data-original=&/50/v2-47fdc8b51a0b5ca3d8b50ad21d56cae1_r.png&&&p&普通摄影师不会去做这点。&/p&&p&而Apple将它带入了手机界,偏偏这在相机上无法达成。它开创了一个未来:&/p&&p&&b&1、通过3D信息修图将会从手机逐渐发展起来&/b&——以新的iPhone为例,你可以通过改变脸部的3D信息来塑造新的光线——比如你想要更高的鼻梁,你只需要提升3D模型里的鼻梁,对应高鼻梁的光影会自动生成。&/p&&p&虽然目前似乎不开放自主调节,但“泼辣修图”等工具在未来完全可以利用API接口去调动图片的立体信息。这里插一句,我一直坚定地认为PS的处理方式已经很落后了,因为它浪费了平面外大量的信息,而且相当弱智。&/p&&p&&br&&/p&&p&&b&2、反促新的,立体信息驱动的摄影发展。&/b&虽然现在不流行,但在未来,完全可以通过多个摄像机和激光点阵的投影,拍摄像iPhone那样的深度图,脱离自拍的局限,从而获得更优秀的后期流程。至少抠图是方便多了。&/p&&p&&br&&/p&&p&&b&3、近年来,不断有新的东西在刷新摄影师的视野,我们应当顺应潮流。&/b&比如无人机的视野,比如全景图的喷薄。我很期待新的东西的。&/p&&p&&br&&/p&&p&iPhone真的在向骄傲的摄影师们吹动静默的号角。&/p&&p&&br&&/p&&img src=&/v2-787c35dc2dd4b538c6d01f_b.jpg& data-rawwidth=&400& data-rawheight=&260& data-thumbnail=&/50/v2-787c35dc2dd4b538c6d01f_b.jpg& class=&content_image& width=&400&&&hr&&p&&br&&/p&&p&&u&补充:这里着重回答下专业相机为何无法做到。&/u&&/p&&p&只要传感器到位,专业相机当然可以做到,如开头所说,只要多出一个维度的信息即可。但目前来看,用双镜头实现的话首先你要体积够大,不然无法建立精度足够的深度信息。这点在生物界内都无法突破,像微型的昆虫,比如苍蝇,螳螂,立体感都不会太强。&/p&&p&&br&&/p&&p&iPhone的实现更像是是面部捕捉在近距离上的特解。&/p&&p&&b&目前来看,它最强的地方在于对面部的建模,以此解决的面部问题,正是当下自拍和肖像的痛点。以后还能在游戏中用交互哦。&/b&&/p&&p&&br&&/p&&p&&br&&/p&&p&最后看了下评论,我确实买不起iPhoneX,以上信息全是根据广告听风便是雨骗点赞而已,我也很希望Apple给我打钱啊。: -)&/p&&p&&/p&
平时对苹果的摄像功能总是表示淡定,因为底大一级压死人,无论怎么吹捧,它能做的,相机都能做得更好。 但今天无意瞄到iPhoneX的新特性Portrait lighting时,我心脏骤然停了一瞬——我仿佛听到它用一种颇具说服力的姿态告诉我们:手机的摄像头不再是相机的…
&p&&b&更新:好了,你们说硬件不是最好的?&/b&&/p&&p&&br&&img src=&/v2-f266ebb4af9e5a95cda8f4_b.png& data-rawwidth=&1080& data-rawheight=&1920& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/v2-f266ebb4af9e5a95cda8f4_r.png&&&br&&/p&&p&&b&请大家认真阅读完文章在,别想像着喷:&/b&&/p&&p&&b&1.有这钱为什么我不买相机摄影?&/b&&/p&&p&&b&说真的,是你对摄影的理解太狭隘,今天的手机摄影早就有了独特的文化,完全是和相机不同的理念,他几乎是当代所有普通用户摄影入门的机器,没有手机摄影如此普及?&/b&&/p&&p&&b&最好的相机,当你想拍一张照片的时候,你手上的那个,你相机不能一直在,手机可以。&/b&&/p&&p&&b&知乎上各种手摄真神,拿过ippa的都会写出来,什么?你说ippa是啥?&/b&&/p&&p&&b&而且,问题的重点不是首先是个手机,照这说法,我买相机还要求全面屏和带通话?&/b&&/p&&p&&b&2.我说的是摄影,不是拍一张照片。摄影是一个系统流程,不是按个快门,加个滤镜就是了。当你几千张照片,希望在各个设备传输,统一显示的时候你就知道色彩管理和流程多重要。&/b&&/p&&p&&b&我说了那么多优点,你假装没看见,就假装以为我说iPhone硬件吊打全世界?全文哪句话这么说?好的硬件素质等于优秀的创作环境?&/b&&/p&&p&&b&用参数框定摄影,在相机上都好笑。&/b&&/p&&p&&b&我说的不是通过朋友圈发的图都能看出来谁好谁坏,而是安卓的微信压缩极其严重,不信你同时发一个图测试下,是不是画质明显下降。是微信的锅,但深层次不是安卓不统一?&/b&&/p&&p&&b&3.我说苹果软件生态领先,也有人喷,那我就没什么说的。&/b&&/p&&p&&b&4.还有,也是我最想表达的,或者说我这篇文章的重点是 审美。你没看错,因为道理很简单,只有知道什么是美的,才知道怎么能更好拍出这种美。此时此刻,我越发觉得我这个重点有多重要,因为他们宁可忽略所有美的东西,去喷一个他们意淫的你。&/b&&/p&&p&&b&懂的人自然懂,不懂的人太多了,没办法。&/b&&/p&&p&&b&—————————————分割线—————————————&/b&&/p&&p&&b&以下为原文:&/b&&/p&&p&&b&&br&&/b&&/p&&p&我只说关于相机,以及摄影部分,结论是,如果你想买一部摄影创作的手机,iPhone X依然是最好的手机。&b&&br&&/b&&/p&&p&我知道这个时候铺天盖地的消息已经在朋友圈刷屏,所以单纯的数据你一定已经看腻了。&/p&&p&为此,在这里,我将会详细的阐述这次的全新iPhone X在摄影方面有多X(这里的X是一个敏感词汇)&/p&&p&先说数据,继续延续1200万的广角和长焦,你要问为什么像素这么低,我告诉你很简单,像素跟画质也就半毛钱关系,关键是传感器面积。以及接下来要说的光圈,主摄像头f/1.8,副摄像头f/2.4,重要的是两颗摄像头都是光学防抖,这就意味着更好的弱光成像。&/p&&p&&b&广角加长焦绝对是目前双摄最好的方案,长焦绝不是画面简单的放大缩小,这就和相机广角镜头和长焦镜头带来的画面震撼不一样完全一个道理。&/b&&/p&&p&&b&而目前,苹果的第二颗长焦不仅光圈来到了2.4(手机光圈对画质十分重要),更具备了防抖,作为主力创作,绝对没有问题。&/b&&/p&&img src=&/v2-1d07fad8db10f3129ab82_b.png& data-rawwidth=&1086& data-rawheight=&812& class=&origin_image zh-lightbox-thumb& width=&1086& data-original=&/v2-1d07fad8db10f3129ab82_r.png&&&p&&br&&/p&&img src=&/v2-10944acc30cf_b.png& data-rawwidth=&1165& data-rawheight=&974& class=&origin_image zh-lightbox-thumb& width=&1165& data-original=&/v2-10944acc30cf_r.png&&&p&&br&&/p&&img src=&/v2-199ee56e1617f6bfeda15_b.png& data-rawwidth=&954& data-rawheight=&1078& class=&origin_image zh-lightbox-thumb& width=&954& data-original=&/v2-199ee56e1617f6bfeda15_r.png&&&p&&br&&/p&&img src=&/v2-a3101aaedcc08d483d0ccaaa_b.png& data-rawwidth=&440& data-rawheight=&593& class=&origin_image zh-lightbox-thumb& width=&440& data-original=&/v2-a3101aaedcc08d483d0ccaaa_r.png&&&p&&b&更进阶的人像爱那个虚化模式,算法更加成熟,在一些极端环境下抠像也十分准确。&/b&&/p&&p&比如,普通室外光线:&/p&&img src=&/v2-7cd1c5f9eae1cf803a55ac28_b.png& data-rawwidth=&443& data-rawheight=&587& class=&origin_image zh-lightbox-thumb& width=&443& data-original=&/v2-7cd1c5f9eae1cf803a55ac28_r.png&&&p&(还特意选了,光线较暗的情况下)&/p&&p&光线强烈对比:&/p&&img src=&/v2-f97af877b9f0fac6efd242b_b.png& data-rawwidth=&437& data-rawheight=&582& class=&origin_image zh-lightbox-thumb& width=&437& data-original=&/v2-f97af877b9f0fac6efd242b_r.png&&&p&室内弱光:&/p&&img src=&/v2-8fc8bdabb2ac86ea4d2c0_b.png& data-rawwidth=&430& data-rawheight=&593& class=&origin_image zh-lightbox-thumb& width=&430& data-original=&/v2-8fc8bdabb2ac86ea4d2c0_r.png&&&p&以及,最困难的弱光夜景:&/p&&p&&br&&/p&&img src=&/v2-407bfaac68f4fda254286b_b.png& data-rawwidth=&443& data-rawheight=&589& class=&origin_image zh-lightbox-thumb& width=&443& data-original=&/v2-407bfaac68f4fda254286b_r.png&&&p&突然想起了某个厂商顶着大太阳还打着led灯光的,希望你们学习哈。&/p&&p&&br&&/p&&p&&b&最最重要的是,前置自拍也可以人像模式了:&/b&&/p&&p&&br&&/p&&img src=&/v2-6ea0a7f042bdc4983634_b.png& data-rawwidth=&1033& data-rawheight=&769& class=&origin_image zh-lightbox-thumb& width=&1033& data-original=&/v2-6ea0a7f042bdc4983634_r.png&&&p&&br&&/p&&img src=&/v2-cca73ef401d801ae926ce109_b.png& data-rawwidth=&433& data-rawheight=&584& class=&origin_image zh-lightbox-thumb& width=&433& data-original=&/v2-cca73ef401d801ae926ce109_r.png&&&p&除了以上,苹果还重点介绍了一个新玩法:利用算法,进行光效模拟。&/p&&p&这样你的照片就可以有不同的光效:&/p&&p&首先是自然光:&/p&&img src=&/v2-e8a9b5d8ec4_b.png& data-rawwidth=&434& data-rawheight=&589& class=&origin_image zh-lightbox-thumb& width=&434& data-original=&/v2-e8a9b5d8ec4_r.png&&&p&然后是摄影室灯光:&/p&&p&&br&&/p&&img src=&/v2-39aa27c9d3c359afa7dc55dd95a68a22_b.png& data-rawwidth=&425& data-rawheight=&573& class=&origin_image zh-lightbox-thumb& width=&425& data-original=&/v2-39aa27c9d3c359afa7dc55dd95a68a22_r.png&&&p&(也就是对你的面部进行补光,这张最厉害的就是,如果你稍微有点手机拍照经验,这种情况下都是脸部一般都是全黑,因为远处保留了高光细节,就意味着整体曝光不强)&/p&&p&这是轮廓光:&/p&&img src=&/v2-06cbf6ba1d53fbd2fe582_b.png& data-rawwidth=&442& data-rawheight=&588& class=&origin_image zh-lightbox-thumb& width=&442& data-original=&/v2-06cbf6ba1d53fbd2fe582_r.png&&&p&让你的头更加的柔顺好看。&/p&&p&这是舞台光,突出人物主体。&/p&&img src=&/v2-dfcc0abf8017_b.png& data-rawwidth=&430& data-rawheight=&589& class=&origin_image zh-lightbox-thumb& width=&430& data-original=&/v2-dfcc0abf8017_r.png&&&p&这是单色舞台效果:&/p&&img src=&/v2-a26b1af68f06efdf83dd6f43bd658d03_b.png& data-rawwidth=&440& data-rawheight=&596& class=&origin_image zh-lightbox-thumb& width=&440& data-original=&/v2-a26b1af68f06efdf83dd6f43bd658d03_r.png&&&p&嗯,轻松拍出黑白质感大片。&/p&&p&&b&一直有人吐槽苹果的美颜做的不好,只不过苹果的美颜方式想让你拍出真正的,有温度的好照片,而不是……&/b&&/p&&p&接下来说关于视频。&/p&&p&可以说,全部更进一步,4K 60FPS,1080P,240FPS。&/p&&p&我相信,目前除了大法,其他安卓机很容易忽视视频这一环节。但事实,数字流媒体早已经开始照片向视频,国外的Vlog都已经红的发紫,而苹果给出的这些参数绝对是新台阶。&/p&&p&&b&240帧的1080P,意味着你几乎可以流畅的放慢你的动作6倍以上。&/b&&/p&&p&说完这些,在说说块屏幕,再好的内容,无论是照片,还是视频都需要一个好的屏幕去支撑。&/p&&p&分辨率,458ppi。对于摄影来说,色准绝对是你最关心的。所以,得益于oled,无论是P3色域还是SRGB都给你。&/p&&p&&br&&/p&&img src=&/v2-e6f5cf8cb89c8ec35d99ecf_b.png& data-rawwidth=&1066& data-rawheight=&616& class=&origin_image zh-lightbox-thumb& width=&1066& data-original=&/v2-e6f5cf8cb89c8ec35d99ecf_r.png&&&p&哦,对了,还有真正的HDR显示技术,可以让你的影片上升一个完全不一样的层次。&/p&&img src=&/v2-e6f3d2df246e6b1_b.png& data-rawwidth=&1100& data-rawheight=&554& class=&origin_image zh-lightbox-thumb& width=&1100& data-original=&/v2-e6f3d2df246e6b1_r.png&&&p&重要的是,由于新的图像处理器,对焦快,色域广,可以生成更广的HDR照片:&/p&&img src=&/v2-cfdb4f2ebc089_b.png& data-rawwidth=&969& data-rawheight=&727& class=&origin_image zh-lightbox-thumb& width=&969& data-original=&/v2-cfdb4f2ebc089_r.png&&&p&我知道,一定会有很多人说iPhone没创新了,垃圾了,可我只说摄影这一个门类来说,让我回答,目前最好的拍照手机是什么,我仍然可以坚定的告诉你:iPhone X。&/p&&p&1.综合素质最好的硬件,它也许哪里都不是最好的,但绝对是最均衡的。&/p&&p&2.它有着最完整的内容生产到消费流程,如果你有iPhone,有iPad,有Mac,他们之间的合作与创作是非常协调的一件事。这对于艺术创作者有着重要的意义,因为大多数,这些人只希望我的照片怎么表达,而不是怎么从我的安卓手机传到windows上,不用考虑我的手机和你的手机有色差怎么办。而苹果高校的文件管理协作,以及系统级的颜色管理用过都说好。&/p&&p&3.说真的,使用iPhone发朋友圈,无论是照片还是视频质量都远好于安卓手机,我说的是远好于,肉眼可识别的那种好于,一眼就看得出的那种好于,就算为了装逼……&/p&&p&4.这一条,几乎可以确认说个三年五年没问题,那就是软件生态。我可以负责任的告诉你,在IOS上平台高质量摄影的应用是安卓的数倍,我想要个像matter这样的创意软件,ios上几十个拿得出我可以列,但安卓?谁能告诉我一个真正能用的?我是说,国内能下到的。(那些喷我不会上谷歌的,这个国度并不是所有人都能上,而且我上了,那上面我要的高质量摄影应用依然少得可怜)&/p&&p&我曾经做过一个iOS手机摄影app字典,链接如下:&/p&&p&&a href=&/question//answer/?utm_source=wechat_session&utm_medium=social&utm_campaign=ge13_2&utm_division=ge13_3&from=singlemessage& class=&internal&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/question/2386&/span&&span class=&invisible&&9960/answer/?utm_source=wechat_session&utm_medium=social&utm_campaign=ge13_2&utm_division=ge13_3&from=singlemessage&/span&&span class=&ellipsis&&&/span&&/a&&br&&/p&&p&如果你在安卓上能找到5分之1算我输。&/p&&p&&b&第5条,也是最后一条,审美和原则。&/b&&/p&&p&&b&我诚挚希望,所有的国产手机,先别着急Diss(这词是这么用不?)请你们学一学,苹果的样张审美。&/b&&/p&&p&&b&不要哗众取宠的,用着比手机还贵的闪光灯,然后告诉消费者是每一拍都是人像大片。&/b&&/p&&p&&b&不要大白天,还用着LED灯去拍什么堪比单反的虚化。&/b&&/p&&p&&b&别标榜什么专业摄影师都会选择的色彩。&/b&&/p&&p&就说这些样张精妙的构图:&/p&&p&&br&&/p&&img src=&/v2-513c7cc92e883ece33029abcc146c32e_b.png& data-rawwidth=&963& data-rawheight=&719& class=&origin_image zh-lightbox-thumb& width=&963& data-original=&/v2-513c7cc92e883ece33029abcc146c32e_r.png&&&p&&br&&/p&&img src=&/v2-4b021c6ae703c5a249c3_b.png& data-rawwidth=&968& data-rawheight=&729& class=&origin_image zh-lightbox-thumb& width=&968& data-original=&/v2-4b021c6ae703c5a249c3_r.png&&&p&&br&&/p&&img src=&/v2-a3101aaedcc08d483d0ccaaa_b.png& data-rawwidth=&440& data-rawheight=&593& class=&origin_image zh-lightbox-thumb& width=&440& data-original=&/v2-a3101aaedcc08d483d0ccaaa_r.png&&&p&&br&&/p&&img src=&/v2-be7de18b7d77dee_b.png& data-rawwidth=&965& data-rawheight=&517& class=&origin_image zh-lightbox-thumb& width=&965& data-original=&/v2-be7de18b7d77dee_r.png&&&p&&br&&/p&&p&动人的色彩:&/p&&img src=&/v2-e484ab313a1bd52eb7c3167b_b.png& data-rawwidth=&968& data-rawheight=&1071& class=&origin_image zh-lightbox-thumb& width=&968& data-original=&/v2-e484ab313a1bd52eb7c3167b_r.png&&&p&&br&&/p&&img src=&/v2-e19ed7bb36943dbc2cc53_b.png& data-rawwidth=&983& data-rawheight=&1058& class=&origin_image zh-lightbox-thumb& width=&983& data-original=&/v2-e19ed7bb36943dbc2cc53_r.png&&&p&&br&&/p&&img src=&/v2-e3cc742bf3e9e01c178089ace3806cdd_b.png& data-rawwidth=&432& data-rawheight=&587& class=&origin_image zh-lightbox-thumb& width=&432& data-original=&/v2-e3cc742bf3e9e01c178089ace3806cdd_r.png&&&p&&br&&/p&&img src=&/v2-57e8cfd38c34e16fb7c04a_b.png& data-rawwidth=&1071& data-rawheight=&790& class=&origin_image zh-lightbox-thumb& width=&1071& data-original=&/v2-57e8cfd38c34e16fb7c04a_r.png&&&p&所以,iPhone对摄影师来说,最大的意义,你去尽管拍,剩下的交给我。&/p&&p&&br&&/p&&p&&b&所以,如果你希望买一部手机摄影创作,我是说,摄影创作,不是当网红,iPhone X。&/b&&/p&&p&&b&因为它真的X(敏感词)&/b&&/p&
更新:好了,你们说硬件不是最好的? 请大家认真阅读完文章在,别想像着喷:1.有这钱为什么我不买相机摄影?说真的,是你对摄影的理解太狭隘,今天的手机摄影早就有了独特的文化,完全是和相机不同的理念,他几乎是当代所有普通用户摄影入门的机器,没有手…
&img src=&/50/v2-862c2b79f7a5c0e3cccfd4_b.png& data-rawwidth=&1000& data-rawheight=&500& class=&origin_image zh-lightbox-thumb& width=&1000& data-original=&/50/v2-862c2b79f7a5c0e3cccfd4_r.png&&&p&大家都知道,最近一些众所周知的原因,「懂事」的苹果公司,迅速调整了中国区Apple Store应用的上架政策,导致中国区的Apple Store,下架了一大批「不符合当地的法律法规政策」应用,着实让我们这些老实人们头疼。&/p&&p&&br&&/p&&p&不过,在美区Apple Store里,某些应用还是能搜得着的。&/p&&p&&br&&/p&&p&当然,美区的Apple ID还有其他好处,一些应用开发者,因为不想在中国大陆开展业务,会特意绕过在中国区Apple Store上架App,比如去年爆火的《Pokemon Go》。&/p&&p&&br&&/p&&p&&b&毕竟美国才是苹果公司的老巢&/b&,美区Apple Store应用的种类、数量,可谓是最丰富的,&b&只有访问美区的Apple Store,才能获得最充分的iOS应用体验。&/b&&/p&&p&&br&&/p&&p&综合说来,&b&我们注册不同地区的Apple ID,主要是为了获得苹果针对不同地区提供的本地特殊服务。&/b&&/p&&p&&br&&/p&&p&像港区可以提供不少独家的粤语音乐/电台/视频流媒体,美区拥有最丰富的应用生态,日式游戏爱好者可以找到专供日区的海量手游,国/港/日/美区所覆盖的资源,基本可以满足一个重度苹果粉丝的所有需求了。&/p&&p&&br&&/p&&p&国区Apple ID的好处,大概就剩一些本土化的语言操作优势和访问速度快的好处了吧,毕竟肉身在墙内,总得有一个不是~~&/p&&p&&br&&/p&&blockquote&据最新小道消息:国区iCloud的服务器存储正计划落地贵州,与其他地区的服务器不互通,其存储的信息,受中国大陆相关部门的直接监管,好还是不好,谁也说不清~~&/blockquote&&p&&br&&/p&&p&注册的过程,虽然有些麻烦,但只要苹果当前的Apple Store条款不变,至少这些已经注册过的异区Apple ID是永久有效的,吃一点苦头,以后好乘凉~~&/p&&p&&br&&/p&&p&写这篇文章的过程中,我就会为大家展示一个新的美区Apple ID的注册过程,非关键信息不会打码,如果想要用,可以私信联系我。&/p&&p&&br&&/p&&p&&b&------------------号外级Updates-----------------&/b&&/p&&p&&br&&/p&&p&有的同学提到,使用旧版iCloud 3.0,可以突破不能选择付款方式为「none」的限制,参见:&a href=&/?target=http%3A///iPhone/news//Feng-friends-sharing-using-the-old-version-up-to-change-the-Apple-ID_644346.shtml& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&锋友分享: 利用旧版iCloud更改Apple ID地区&i class=&icon-external&&&/i&&/a&&/p&&p&&br&&/p&&p&&b&此方法可行,且不用梯子,稳定有效包成功!姐不是老中医,没有吹牛逼,强烈建议大家试一下~~&/b&&/p&&p&&br&&/p&&p&以下提到的iCloud 3.0可以点击&b&&a href=&/?target=http%3A///softview/SoftView_74935.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&这里&i class=&icon-external&&&/i&&/a&&/b&下载,我们开始吧。&/p&&p&&br&&/p&&p&安装完成,登陆你的Apple ID,显示如下界面:&/p&&p&&br&&/p&&img src=&/v2-dfe37ebb18fdf627ea1fadf915edb3ff_b.png& data-rawwidth=&899& data-rawheight=&493& class=&origin_image zh-lightbox-thumb& width=&899& data-original=&/v2-dfe37ebb18fdf627ea1fadf915edb3ff_r.png&&&p&&br&&/p&&p&&br&&/p&&p&插个题外话:&b&这个@&a href=&/?target=http%3A//me.com& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&的邮箱说来也是历史悠久了,2008年的时候,苹果推出了即时通信MobileMe服务,Mac电脑专属,那个时候Mac电脑用户可以选择注册@&a href=&/?target=http%3A//me.com& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&后缀的邮箱。&/b&&/p&&p&&br&&/p&&p&&b&但是从日起,苹果决定停止MobileMe的业务,并逐渐引导老用户使用新的@&a href=&/?target=http%3A//& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&服务,不过之前老用户注册的me后缀邮箱名仍然可以得到保留,并拥有一个与me邮箱相同前缀的「」的新邮箱。&/b&&/p&&p&&br&&/p&&p&&b&当时委托班级里的土豪大佬(那个时候Mac可是很贵的,且大陆没有行货呢),注册了一个纯英文字母的「」,觉得很有意思,就留下来了,嘻嘻~~&/b&&/p&&p&&br&&/p&&p&参见:&a href=&/?target=https%3A///zh-cn/HT201771& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&iCloud:关于 @、@me.com 和 @ 电子邮件地址&i class=&icon-external&&&/i&&/a&&/p&&p&&br&&/p&&p&重回正题,点击「查看账户」:&/p&&p&&br&&/p&&img src=&/v2-c7d8bda222ffd38_b.png& data-rawwidth=&752& data-rawheight=&478& class=&origin_image zh-lightbox-thumb& width=&752& data-original=&/v2-c7d8bda222ffd38_r.png&&&p&&br&&/p&&p&更改:&/p&&p&&br&&/p&&img src=&/v2-9aa74f06b93bdfafcbb57418_b.png& data-rawwidth=&752& data-rawheight=&560& class=&origin_image zh-lightbox-thumb& width=&752& data-original=&/v2-9aa74f06b93bdfafcbb57418_r.png&&&p&&br&&/p&&p&我这个Apple ID原来是国区的,现在想切换成美区,于是选择「美国」,然后点击「更改」:&/p&&p&&br&&/p&&img src=&/v2-6cdccb3f05681f46debd69_b.png& data-rawwidth=&752& data-rawheight=&428& class=&origin_image zh-lightbox-thumb& width=&752& data-original=&/v2-6cdccb3f05681f46debd69_r.png&&&p&&br&&/p&&p&出现以下提示不要怕,再试一次:&/p&&p&&br&&/p&&img src=&/v2-c8ddad9d1a64e3cde8d63f3_b.png& data-rawwidth=&638& data-rawheight=&203& class=&origin_image zh-lightbox-thumb& width=&638& data-original=&/v2-c8ddad9d1a64e3cde8d63f3_r.png&&&p&&br&&/p&&p&付款信息出现了「无」的提示,除了「楼号、单元号、房间号」可不填以外,&b&其余的信息都要填:&/b&&/p&&p&&br&&/p&&img src=&/v2-db6c6ca326da8ab325d9f6a2e221a7dd_b.png& data-rawwidth=&752& data-rawheight=&638& class=&origin_image zh-lightbox-thumb& width=&752& data-original=&/v2-db6c6ca326da8ab325d9f6a2e221a7dd_r.png&&&p&&br&&/p&&p&重新检视一下当前填写的信息,确认无误,点击「确定」:&/p&&p&&br&&/p&&img src=&/v2-dfeafe0c0e45f10e980a_b.png& data-rawwidth=&752& data-rawheight=&537& class=&origin_image zh-lightbox-thumb& width=&752& data-original=&/v2-dfeafe0c0e45f10e980a_r.png&&&p&&br&&/p&&p&重复以上步骤,查看账户信息:&/p&&p&&br&&/p&&img src=&/v2-ac6abca1a39f74_b.png& data-rawwidth}

我要回帖

更多关于 手机尾号是几最好 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信