别人的手机我不知道小狗图标是什么牌子子的,肉色的,图标上是一个L,L的上面和下面都有一横

《转》上课时捡到一个遥控器,好奇按了按,前面的女神竟然在颤抖【搞笑吧】_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0可签7级以上的吧50个
本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:4,181,134贴子:
《转》上课时捡到一个遥控器,好奇按了按,前面的女神竟然在颤抖
二楼我的!
此贴为转,飞蝗勿删!
早上第一节课是英语,麻痹的,除了“古德毛宁克拉斯,塞裆普利斯”之外,老师说的其他话我一概听不懂了!听了五分钟,睡意袭来,我便趴在桌上碎觉。“羊暖暖,普利斯昂涩买快死森!”前桌的美女突然站了起来,我的桌子被她的椅子背刮了一下,把我弄醒了。咦?暖暖今天穿的的裙子好短啊,虽然是校服裙子,但是腰带部分被她拉的挺高,都快齐B了!哦不,从我这个角度看,应该是齐臀!哎,可惜只能看不能摸啊,她可是班霸的马子!妈蛋,好白菜都让猪拱了,好B都让狗R了!嗯,最近确实有好多好B都让狗R了!我趴下继续睡觉,刚才梦到哪儿来着?让我继续梦吧周大福公公!当啷,一声轻微的响声,好像有什么东西掉地上了。我往后仰,低头一看,脚前面有个粉色的小玩意,好像是从暖暖抽屉里掉出来的。这是啥啊,MP3么?我便用脚尖把那个东西勾了过来,猫腰捡起来了。啥玩意啊,跟个小紫薯似得,上面还有俩按钮,我翻来覆去地看,发现后面有个放电池的地方,便确定是MP3无疑了,可是在哪儿插耳机呢?我好奇地按了一下开关,小玩意前面的灯闪了一下!咣当!?恩,怎么回事,暖暖突然一PP坐下来了!“羊暖暖,怎么回事?你还没回答完我的问题呢!”英语老师推了推眼镜,生气地说。就是啊,她有病吧!啊!我知道了!这是不是高科技啊,蓝牙耳机什么的,晓曼一定是把隐形耳机藏在了耳朵里,我一按开关,她就听到音乐,给吓着了吧!哈哈,我太损了!暖暖坐下之后,开始在抽屉里疯狂地翻找,肯定是找这个东西啦!我把小紫薯放进口袋里,又摸到另一个按键,可能是“下一首”吧,按了下去。暖暖突然坐直了身子,两秒钟后,竟然开始浑身颤抖个不停!我隐隐觉得有些不对劲,我对医学略知一二,这尼玛是中风了么?同学们也都被暖暖的反常举止所吸引,老师和几个女生更是关切了走了过来,询问她怎么了!我有点慌了,是不是因为耳机声音太大,把她给震出内伤来了啊!我赶紧长按开关键,三秒钟之后,暖暖停止了颤抖。
“我,我没事……老师,我要去一趟洗手间!”暖暖的脸好像很红。“我陪你去吧。”她的同桌说。“不,不用了!我自己去就行!“暖暖说着,起身跑出了教室,班霸赶紧跟了上去。我又把这件事从头到尾想了一遍,好像跟我没多大关系吧!大家继续上课,暖暖和班霸一直没有回来。临近下课的时候,班霸一个人回来了,脸上满是怒气,他来到暖暖的课桌那里,开始胡乱地翻找。当然什么都找不到啦!东西在我口袋里呢!班霸找了一会儿之后,开始环视我们几个坐在暖暖身边的人:你们谁捡到一个遥控器了!我看大家都摇头,我也摇头。等等,遥控器?不是MP3么?一头雾水。下课了,暖暖回来了,班霸没理她,回到自己的座位,看来俩人是吵架了啊!我去厕所抢了个蹲坑,掏出手机上网,我得查查这到底是什么玩意!班霸说了,这是个遥控器,什么遥控器会这么小呢,我百度图片遥控器,看了半天也没有跟这个类似的,我又仔细回想了一下暖暖的反应,还是觉得跟音乐有关,难道是mp3遥控器,再百度,还是没有。gui头都快想爆了,最后我无奈地上某宝,想碰碰运气,因为暖暖竟然收到快递,应该是个购物狂,没准儿这玩意是网上买的呢?可是找了半天还是没找到,网上都是卖那些万能遥控器的。我失望地刚要退出淘宝,一个小广告映入眼帘。跳dan? 这是什么玩意?……两分钟之后……我明白了一切!没想到暖暖看起来这么纯洁的一个人,竟然是嫩样的人啊!以前连晚上想着她撸,我都觉得罪恶,怕玷污了她的纯洁!妈蛋,知人知面不知心啊!上课了,我提上裤子回了教室,暖暖座在座位上,脸上的红潮还没有褪干净。这一节是经济学科,我一想到心目中的女神竟然变成了YIN娃,越想越来气!她的私生活不一定有多米兰呢!七分黑木耳!万人骑!
没人!!没动力
我便给暖暖传了一张纸条:你要找的东西在我这里,想拿回去的话,答应我一个条件!我捅了捅暖暖的身子,把纸条从她腋下递了过去。暖暖回头迷茫地看了我一眼,然后回过身去打开了纸条。五秒钟之后,她愤怒地回头看着我,眼光里都冒火了!我自龟然不动,反正你的把柄抓在我手里,我要是把这个秘密公布出去,看你以后还怎么做人!暖暖冷哼了一声,又转回去,开始刷刷刷在纸上写字,很快,纸条被丢了回来。说:什么条件!我马上在纸条下面接着写:下课去保健室等着我!递过去,发回来:你到底要怎么样!我回复:不怎么想,想摸你而已!暖暖没有回复,看来是默许了!哈哈,好爽!我借口上厕所,提前几分钟溜出了教室,来到顶楼的保健室,这里的门一直开着,医生平时在一楼的办公室,有学生病了才会上楼!我是听猪头说的,他经常带一个学妹来保健室鬼混!我钻进了保健室,在里面巡查了一下,确定没人之后,我拉上了检查病情的床边的白色帘布,一会儿就在这里摸暖暖吧!一旦进来人,也不会第一时间看到,要是被老师抓到,我可以说我们在讨论人生!感觉心跳有点加速呢!好不容易挨到下课铃响了,我躲在了保健室的门口,耐心等待!不一会,一阵轻轻的脚步声由远而近,在门口迟疑了一下,然后保健室的门被推开。“来了啊。”我冲暖暖打了声招呼,以缓和一下尴尬的气氛。暖暖冷着脸,伸出手来,说你先把东西还给我!我怎么会这么傻呢!还给你了你跑了肿么办!我说东西我藏在这个房间里了,你先让我摸,摸完我再给你!暖暖咬了咬嘴唇,点了点头,问在哪儿摸?我指了指那张检查床,暖暖走了过去,脱掉鞋子平躺在了上面。看着她脚上的那双肉色短丝袜,我立马有了反应!手上好多水啊!我有点忍不住要冲动,小伙伴在里面一直在颤抖!暖暖看着我,眼里似乎也有那个意思!“行吗?”我问她。“嗯!”暖暖重重点了点头,索性把最后的衣物也除了下去,躺在那里,把腿分成了M形!我刚要解开裤带,突然听见当的一声!尼玛!门被踹开来!谁啊,这么不长眼!我赶紧抓起暖暖的衣服给她的关键部位给遮挡住,然后拉开了布帘!尼玛!是怒发冲冠的班霸!“草泥马的!竟然敢弄我马子!我今天非得干死你!”班霸操起一把椅子,就轮了过来!好汉不吃眼前亏,我可打不过他!
我一抹身,从他身边溜了出去,虽然屁股上挨了一脚,但总算成功逃出了保健室!“草泥马的!你给我站住!”班霸追了出来。我会傻到听他的话么!我没命地跑,教室不能回了,这下可惹大事了!赶紧回家躲起来吧!上次有个别的班不长眼的家伙在走廊地跟暖暖多说了一会儿话,都被班霸打的住了半个月的医院啊!先回家,找我爸跟校方协调一下,或者直接找班霸他爸协调一下再说!多大个事儿啊,不就是摸湿了么,又没怎么样!难道你特么的没摸过?草!我一溜烟冲出了学校,回头看,尼玛!班霸竟然骑着自行车冲了过来!肿么办,我本想打车的,但是校门口这个时候尼玛一辆车也没有!我只要沿着马路跑啊跑!班霸追的虎虎生风,屁股都离开车座了,像踏了俩风火轮的孙悟空!眼看就要被班霸给追上了,我尼玛腿都软了,实在不行,就去医院住几天?正要放弃的时候,一台红色小车追了上来!谢天谢地!是我小姨的车!小红车戛然停在我前面十几米处,我立即追上去打开副驾驶跳了进去!只听得班霸在后面大声呼唤我的名字说——草泥马!我在心里默默回骂了他好几遍,然后歇菜了!“怎么回事啊你?”小姨问道。“没事,一场误会而已。”我舔了舔咸滋滋的手指,看了看小姨,她竟然穿着一件超短裙,比暖暖还短啊!还在开车,两腿分开着,我好像看见了一抹黑色!我小姨只大我几岁,一米七,有一次跟她亲密地手挽手逛街,结果被班主任老师发现了,打电话给我妈妈,说我早恋,我妈问我怎么回事,我说问你妹啊!
小姨长得可水灵了,大的地方大,翘的地方翘,追她的男人数量,始终保持在两位数以上,不过据我所知,小姨一直没谈恋爱,可能因为工作忙的原因吧。  小姨是CAS重点培养对象,放到美国留学回来后,直接被CAS安排进了沪市生物与化学研究所,别看小姨年纪不大,现在的职务却很高,是研究所的副主任,主持着一项什么细胞生物学科研项目。小姨跟我妈虽然年纪相差近二十岁,但是关系极好,可能是爱屋及乌吧,小姨从小就挺喜欢我的,总在一起玩耍,我去外婆家,她还经常抱着我睡觉,直到我十二岁那年,有一天晚上弄脏了床单,被妈妈发现,才不让我跟小姨一起睡了。扯远了,小姨问我要去哪儿,我说回家吧,小姨说正好我也去你家,今晚在你家吃饭,住你家。我问她太阳怎么打西边出来了,都好几个月没来我家了,小姨说想你了呗。小姨平时对别人总是一副冷面孔,不过在家人面前,还是很活泼的。回家之后,我赶紧进了自己的卧室,反锁了门,想象着暖暖(还有小姨),狠狠撸了一管子,这才平息下来,慢慢睡着了……晚上五点多的时候,我被饭菜香诱惑起来,老妈做了一桌丰盛的晚餐,还开了一瓶上等红酒来招待小姨,可是小姨的兴致似乎不高,默默吃了饭之后,便一头钻进了我的卧室,插上电脑弄她的笔记本电脑,老妈没敢问,怂恿我去问小姨,是不是遇到什么不顺心的事儿了。小姨虽然进的是我的卧室,但庆幸的是,我早把战斗过的纸巾给冲下水道里了! 我酝酿了一下情绪,进了房间,小姨发觉我进来,快速地按了几个键,扣上了电脑屏幕!  “哎呦,有什么秘密还瞒着我啊,涵姨!是不是背着我找男朋友了啊!”我倚在门口开玩笑道,小姨叫龙一涵。  “哪儿有!”小姨脸色一红,起身,从我的衣柜里找出一套睡衣,“我去洗澡,今晚我睡你房间,你去睡书房吧。”
“哦。”我点头,侧身让小姨从门口出去,因为空间狭窄,小姨擦到了我的胳膊,给我弄得激灵了一下,她衣服里面那两团嫩肉还真是弹性十足,小姨怔了一下,但很快恢复了平静,扭着小蛮腰走向浴室。  看着小姨婀娜的背影,我吞了吞口水,不能瞎想!她可是我小姨啊,有想法的话,明天去学校保健室再欺负暖暖吧!不过脑海中还是禁不住浮现出一会儿小姨穿着我的睡衣从浴室中出来的场景……  我晃了晃脑袋,涤荡一下我纯洁的灵魂。睡书房?想得美!今晚老爸老妈都去参加同学聚会(他俩是大学同学),不一定几点回来呢,我可以先睡他们房间嘛!  浴室里传来哗啦啦的水响,老妈和老爸换了正装,跟我打了个招呼就出去了。偌大的房间里只剩下我跟小姨两个人,哦,还有傻根,我家那条边境牧羊犬,公的。我看了一眼放在桌上的笔记本电脑,又看了看毛玻璃后若隐若现的小姨的身姿,不禁好奇那电脑里到底藏着什么秘密,小姨以前对我可从来都是开诚布公的,难不成她真的开始谈恋爱了?想到这里,我的心中竟然莫名其妙地涌起了一丝醋意,到底是什么男人,能打动天仙一般的小姨的心呢?不行,我这个做侄子的,得给她把把关呐!  坐到电脑前,心中有些忐忑,我深吸一口气,翻开了电脑。  擦,竟然上锁了,需要输入密码!呵呵,对我来说,上锁有意义么?我可是看过700多集柯南的人,会600多种插人方法,精通200多种密室插人法,认识上百种毒药,制造各种不在场证明,巧妙利用鱼线,录音机,匕首,毒针等多种做案工具,记住,千万别惹我,不然你是怎么死的都不知道!
假如生活撂倒了你,白墨迹,白叽歪,白咋呼,白吱声。你就趴着,也白起来,一直坚定不移的往前故涌……故涌……一直故涌……
我想了想,从抽屉里摸出验钞笔,拧亮,关上台灯,一排排斜射笔记本键盘,很快锁定了四个键——O、L、G、N——道理很简单,小姨是在发现我之后上锁的,心情很紧张,人在紧张的时候,手指出汗量会是正常的三倍,所以她上锁的几个按键上,一是指纹完整新鲜带有芳香,二是留在按键上盐的成分会比其他键多一些,根据这两点,我提炼出了这四个字母。OLGN,LONG,是龙的拼音,看来是小姨下意识情况下随便输入的,最顺手的,当然是自己的姓。  L-O-N-G,回车,屏幕跳到了WIN9界面,我特么太有才了!并没有QQ、MSN之类的社交软件在线,任务栏里只有两个文件夹,点开一个,里面有好多照片,不过都是平铺图,看不见内容,我又回头看了一眼,确定小姨还在洗澡之后,轻轻点开了第一张。  尼玛!差点射了一屏幕鼻血!是小姨的果体写真!  一股窒息感扑面而来,数道优美曲线,勾勒出一张让人产生最原始冲动的画面,可惜关键点,被她的手和互相夹着的大腿巧妙遮挡住了!  我从头到脚将小姨欣赏了一遍,不甘心地再点开下一张,再下一张,没想到看似保守矜持的小姨,竟然会很自然地摆出这么多撩人的姿势,但尺度却都是一样的,不漏点,一共十六张!
我吞下津液,怕再看下去会把持不住,冲动之下,直接冲进浴室把小姨扑倒,那就尴尬了!赶紧将图标复原,最小化到任务栏,回头看看,小姨还在洗澡,我的右手有些颤抖,左手悄然摸进短裤的口袋,握住了硬邦邦的U盘,寻思着着要不要把这些照片盗出来啊!  不行,那样太不道德了!要真喜欢看的话,改日找机会当面跟小姨要比较好!  一激动,差点忘了另一个文件夹了,打开,里面还是照片,而且日期显示都是今天拍的,难道这里面的尺度……  我点开第一张!顿时惊呆了!要不要这么火爆啊,她竟然赤果果地浸泡在玻璃器皿里,身上连着一些管线,正面对着镜头,手脚伸开着,呈现大字型,所有细节都清晰可见啊有木有!没想到小姨还喜欢玩这种花样?不过仔细一看,不对,这人不是小姨,是个白种女人!  再仔细看,这似乎不是行为艺术,照片里的背景,好像是小姨的实验室,难道这白人妞,是一具标本?不过看她有些惊恐的眼神,分明是个活人啊,嘴里还吐泡泡呢!  不能理解,继续点开第二张,还是同样的场景,还是那个白人妞,不过身体似乎发生了一些变化,腹部和四肢的皮肤上,似乎有一些大块的青色斑点,这货生病了吧。第三张,是个镜头拉近的特写,是白人妞的脖颈位置,一道骇人的伤口,像是被什么动物撕咬过,明显缺失了很大一块,附近的水里,还悬浮着一些碎肉。  第四张,全景,白人妞浑身泛出青灰色,正蜷缩在圆柱形的玻璃器皿中,后背的脊骨突出的很是夸张,有点像《指环王》里那个咕噜姆,这是什么病啊。
接下来转变有点大、、请准备钛合金狗眼
第五张,全景,正面,白人妞垂手站在玻璃器皿里,仿佛浮力对她失去了作用,她的眼神中,没有了之前的恐慌,只有呆滞,而且,瞳孔变得有些微红,上下嘴唇好像是被她自己给咬掉了,露出两排可怖的牙齿,这形态,看起来这么眼熟呢!  尼玛!丧尸!桌上的手机突然震动起来,吓得我激灵了一下,赶紧关了页面,回头看,浴室里的水声停止了,但倩影仍在,似乎在打浴液。  我拾起小姨的手机,来电显示的是“实验科小张”,啊,我知道,也是一个大美女。我放下电话,重新将电脑上锁,用纸巾处理掉电脑和鼠标上的指纹,将现场复原,然后躺在床上打开电视机假装看球赛,手机停止震动,可是三秒钟之后,又响了起来,我起身看了看,还是她。  都下班了,什么事这么捉急?手机第三次震响,我终于忍受不了那种次声波,拾起手机准备给小姨送过去,不行啊!她还没穿衣服呢,虽然我很想进去,但拉开门进去,她嗷地一嗓子,骂我耍小流氓怎么办?  犹豫了一下,我按下了接听键,跟那个张美女见过几面,还一起吃过饭呢,替小姨接她的电话,也不至于引起她的误会吧。  “喂,张……姨。”我说。
“主任!嗯?你是?”小张的声音很是慌张,电话背景里的声音也很嘈杂,乒乒乓乓的。  “我是夏朗啊。”我怕她听不见,大声说。“夏——啊!”突然,小张发出一声撕心裂肺的惊叫,电话里传来当的一声,像是手机掉地上了。  什么情况?难道小张被抢劫了?我紧张起来,贴近手机仔细听电话那头的动静。  小张在呻吟,很微弱,还有一个沉闷的低吼声,继而是嘎嘣,嘎嘣的声响,这声音听起来好耳熟啊。  腿上突然毛茸茸的,我低头一看,傻根摇着尾巴踱到了我脚下,舔着嘴巴来要吃的,看着它的狗牙,我的脑袋嗡地一声!那声音,不正是骨头被咬碎的动静么!是张姐被什么东西吃掉了?还是什么东西把张姐给吃了?联想到刚才在小姨电脑里看到的丧尸标本,我不敢托大,拿着电话径直朝浴室走去。  “涵姨,张咪的电话。”我敲了敲玻璃门说。  “噢?等会的,没洗完呢。”小姨轻声说。  “别洗了,实验室好像是出事了。”我将拉门拉开一道缝隙,将还未挂断的手机塞了进去。额……虽然缝隙很小,但还是被我给瞄到了,她在里面做什么了,我关上拉门,等在外面,大概十秒钟之后,小姨猛地拉开拉门,竟然光着身子就跑向了卧室!非礼勿视,非礼勿视!我睁大眼睛,不错过任何细节,即便是背影,那玲珑的挂着水珠的曲线也够我受得了!只觉得热血上涌,不好!心脉要乱!我赶紧从浴室抓过浴巾,快步跟了上去,披在已经坐在椅子上的小姨背上。
没有人!!等30楼在继续更
好看楼楼继续更呀
小姨并未在意,而是翻开电脑,解密之后,打开了桌面上的一个图标。  顷刻间,桌面被一块块监控器显示屏所挤满,横五竖四,一共二十块。出于好奇,我也把头凑到小姨香肩上方,逐个观看。好香啊!余光往小姨的胸口瞟了一眼,嘿嘿,走光了!不过我的注意力很快被监视器给吸引了过去。这似乎是小姨研究所的远程监控系统,但所有镜头都没有异常,静得怕人。  小姨紧张地注视着屏幕,全部看过之后,鼠标清点,屏幕抖动了一下,又换了二十个全新的小窗口!尼玛!一个实验室搞这么多摄像头!第一时间,我便发现了异常!横二排竖三行的小窗口里,有个白衣服的人在地上蠕动,这个窗口的下方,一个人形物体正走廊里在背对着镜头缓缓步行!我紧张起来,看起来真的出事了!缓缓步行那货,是不是丧尸啊!  小姨胸口起伏的也很厉害,她点开了蠕动白衣人那个窗口,全屏,擦!是张咪!白大褂已经被撕扯的破破烂烂,身上好多伤口,好多地方都露肉了,身下的血流了一大滩,有几道顺着地板的缝隙蔓延的更远!只剩下半张脸的张咪正在血泊中抽搐,一部张开的手机静静躺在她手边里,还亮着光。  几秒钟后,张咪停止了蠕动。我看了看小姨,她面色铁青,但并未慌乱,很快退出全屏,不过刚才那个有人形物体活动的小窗口,里面却什么都没有了,只剩一道浅浅的血痕延伸到镜头远端,那里是走廊的尽头,一道铁门敞开着,门把手上似乎也有血迹。
那货逃走了?  “门外是什么?”我下意识问道。  “花园。”小姨说,声音有些发颤,“小朗,快,把车开出来,门口等我,我得回研究所一趟!”我尼玛啊!让我开车带你去?万一撞见那头丧尸怎么办?!  “快啊!还愣着干嘛!”小姨转身过来,浑然不知浴巾已经脱落。  “哦。”我吞了吞口水,抓起车钥匙折身出门,换上鞋,出大门,进电梯,下到地下停车场,开上我家的小凯(凯泽西),蹿出地下,拐回公寓大门口。  不行,不能这么空手过去送屎啊!我打开后备箱下车,在杂物里找了半天,终于找到了那根高尔夫球杆,这是去年我为了装B,花一百二十块,从某宝上买来的,买来之后一直也没用过。
我将高尔夫球杆放在后座随手能够到的地方,然后点着一支烟,等小姨下来。  不多时,公寓大门打开,小姨穿戴整齐小跑过来,边跑边打电话。  小姨上车,我快速启动,奔出小区,上了主干道。  “主任,我是小涵,您看到了么?……嗯,我正在赶过去……不行!不能报警,事态应该还没那么糟……好的,您放心,等我电话……嗯,就这样,拜拜。”  小姨似乎在跟他的领导打电话。挂掉之后,又拨了一个号,不过对方并未接听。  才八点钟,路上还很堵,我在车流中穿来穿去,用了二十来分钟才开到研究所。(别歧视我,其实我是高富帅!)大门紧闭,门外有许多悠哉的路人,不远处的小广场上,一群大妈正在跳舞,一切正常。  研究所的铁栅栏门锁着,里面的甬道直通主楼,两边是草丛,被幽暗的路灯笼罩着,静谧极了,门卫室亮着灯,但没有人,门虚掩着,门卫应该是听到动静,去主楼那边巡查了。  小姨下车,拍了两下铁栅栏,没人回应。  “有没有后门?”我问。  小姨摇了摇头,双手抓上栅栏,准备翻门而入,我赶紧下车,从后座抽出高尔夫球杆,倒提在手里,跑过去推着小姨的臀部把她送了上去,软软的,手感不错,咳咳,然后自己也翻过去,双脚刚落地,就听见主楼那边传来一声凄厉的惨叫!小姨听到叫声,径直朝主楼跑去,我注意到,她虽然还穿着白天的黑丝和短裙,但脚下换上了妈妈的运动鞋,很聪明嘛!我赶紧追上去,超越小姨,跑在她前面,免得突然冲出来个什么东西把小姨扑倒!
没回复没动力
没回复没动力
没回复没动力
没回复没动力
没回复没动力
这个叫什么呀 萌萌哒
穿过甬道,来到主楼门前,主楼的大门是玻璃门,透明的,但是里面没有灯光,黑漆漆的什么都看不见,我回头,问小姨有没有钥匙,小姨点点头,从包里摸出一串钥匙,找到正确的那一枚,将钥匙插进了锁孔。就在这时,楼内的黑暗中陡然冲出来一个人,一头撞上了玻璃门,吓得小姨妈呀一声,一个屁墩儿坐在了地上。那个人撞上玻璃门之后,似乎晕了过去,顺着玻璃瘫坐在地上,留在玻璃上一道血痕,是个研究人员,我见过这个男人,但叫不出名字。  “李科长!”小姨缓过神来,从地上爬起就要开锁!  我一把抓住小姨的嫩手,将钥匙拔了出来!“疯了吗你!没看见他被咬了么!开门他出来咬我们怎么办!”我指着那个李科长脸上的伤口说。人被丧尸咬了就变丧尸,然后继续咬人,连我都知道的道理,小姨是生化专家,怎么会犯这么低级的错误!  “滚开!”没想到小姨怒了,劈手夺过钥匙,依旧选择开门!难道这个李科长是小姨的相好?好吧,毕竟她是长辈,你的地盘你做主,我抡了抡手中的高尔夫球杆,准备应战!锁簧弹出,是那种大号的U形锁,小姨打开之后,将锁拿在手里,当做武器,看来她也是知道害怕的!李科长的身子的重量将门推开一道缝隙,然后趴在了门口,还处在昏迷状态中。
贴吧热议榜
使用签名档&&
保存至快速回贴404 Not Found
404 Not Found
The requested URL was not found on this server.
您要找的内容已被删除吴甘沙:做智能驾驶其实是出于对社会问题的思考
我们做智能驾驶其实是真正出于现在对一些社会问题的思考。今天堵车的问题很严重,堵车导致了路怒、违规驾驶,又会导致交通事故;交通事故会让路更堵。
同时会造成能源浪费、废气排放。另一方面,我们停车也很困难。关于停车有三个数据,第一个数据,一辆车 96% 的时间是处于停放状态,而且它需要两个停车位,家里和办公室各一个;第二个是美国统计的,在商业中心附近的闹市区,汽车行驶里程当中的 30%~35% 是为了停车,并不是为了从A 点到 B 点 ; 第三个数据,现在很多大城市15%~30% 的土地是用来停车的。我们想象一下,为什么房价贵?这里面“军功章”也有车的一半。房价贵又会导致很多年轻人只能够居住在远离城市中心的郊区,于是有了“睡城”,有了上下班的“潮汐效应”。今天北京可能多数人一天要花 2 个半小时在路上。2 个半小时意味着什么?一个人 1/10 的生命在通勤。中国一天可能有一二十亿的小时浪费在路上,如果我们回到五六千年以前,古埃及人建造了一座吉萨大金字塔,也就花了这么多的时间,中国现在一天在路上要浪费这么多的生产力。所以我们认为,智能驾驶是解决堵车事故、排放,以及停车等等诸多问题的关键要素。
未来智能驾驶我们可以想象,车辆可能是排的整整齐齐的在路上走,它对路面的利用效率非常之高,交通事故减少 90% 以上;而且能源效率也得到提升,第一辆车把所有的风阻挡掉,其他车的能耗会非常的低。并且绝大多数车将会变成无人驾驶的出租车,它们整天在路上走,对于停车位的需求会极大的降低,即使是需要停车了,一个小小的停车位就足以停进去,而不像今天我们要预留很大的停车位,才能让这些新手停进去。
未来汽车交通工具的属性会极大的降低,商业空间的属性会提升。想象一下,在这个车里面放一台咖啡机,就变成了移动的星巴克;放一块大屏幕,它就变成了移动的电影院;放一套办公设备,它就变成了移动的写字楼。从某种意义上来说,它把每一辆车、每一条路,变成了商业的地产,所以未来 5~10 年,所有跟人或者物高度相关的产业都会被重新定义,包括出租车、停车业、写字楼、服务业、物流、金融、保险等等。
它离我们有多远呢?我们认为并不遥远,我们来看几个数据,第一,根据中国官方的智能驾驶的路线图,到 2020 年,带有驾驶辅助和半自动驾驶功能的新车销量将会达到 1 500 万台 / 年,占所有的新车销量的一半。第二,我们再看政策决策者,根据达沃斯论坛 , 以及波士顿咨询集团对于全世界一两百个城市的决策者做的调研,88% 的决策者希望智能驾驶能够在未来 10年之内得到商业化。我们成立这家公司也是希望能够在 2~3 年之内 , 实现辅助驾驶和无人驾驶的商业化,所以我们是真正从车库开始创业的。
现在我们有两套产品,一套叫做高速汽车的辅助驾驶,作为国内唯一一家能够实现 100 公里时速的高速辅助驾驶的公司,目前它在道路上已经路测了超过 2 万公里。它的亮点就是自主超车,在多数时间它是在高速的中间和右边的车道以 100 公里的时速行驶,如果前车速度太慢,它会非常敏捷地换到高速车道,完成漂亮的超车,然后再回来。另外一套产品线是无人驾驶,我们已经有多款无人驾驶的产品开始测试,其成本是诸如百度无人驾驶样车的 1/5~1/10之间,以单排两座的小车为例,非常适合最后 3 公里的出行,就是从地铁站到小区,或者小区到商业中心的距离。同样有一款车是针对园区的共享出行,两排座椅对坐,没有方向盘和刹车。
这些无人驾驶车也已经在我们的园区开始常态化测试了,可以想象这样一个典型的使用场景,我们用手机对车发出信号,设置目的地,它就可以把我们带到那个地方,使用非常简单。另外,最后3公里的小车,我们认为未来可能会成为类似摩拜单车等这样的一种轻型交通工具,它不但实现了无人驾驶,而且实现了无人维护。当它低电量的时候,会找到一个带无线充电功能的停车位,以一个非常准确的姿势停进去,然后进行充电。
完成上述所提的技术门槛是非常高的,如下图所示的这样一个软件站,非常复杂,从底层的硬件和网联的模块到系统软件,要求实时性和高可靠性,再到状态的记录和监控,到驾驶员行为的学习、人机接口,再到上面的算法层,从感知到规划、到控制,从远程监控、维护到信息系统安全,再到测试、仿真等等。
对于这样一套智能驾驶系统来说,最基本的一个功能就是感知,我们要检测那些不能撞的障碍物,以及路面的可行驶的区域。最直观的一个方案就是通过摄像头,因为摄像头非常便宜。视觉,它对于这个世界的理解主要是抽取语义模型,它会看到这两条线是车道线,这个是车,那边是行人,那边是交通标志、交通灯等等,我们希望能够把这些语义的模型抽取出来。
车道线识别从传统视觉的算法上来讲,已经比较成熟了,最早就是通过边缘检测,做视觉处理,这是最基本的功能。通过边缘检测,把很多直线当中的一些车道线能够挑选出来,这时候我们可能要用一些像Hough 变换、拟合等等这样一些方法;可能要用到人的一些知识,比如说路面的颜色是什么、天空的颜色是什么,这样会把一些噪音的直线过滤掉。当然下一步更加困难的就会是曲线的车道线识别,这时候我们就需要有一些曲线的模型。
除了车道线之外,车辆的识别是非常重要的。车辆的识别其实在计算机视觉领域也做了很久,以我为例,早在 2007 年,我的小组在做车辆识别的时候,就用的非常简单的计算机识别算法。这个算法原来是从人脸识别迁移过来的,就是用海尔特征,然后再加上AdaBoost 的这样一些训练,这样我们也能够相对比较准确地把这些车辆识别出来。那时用的是传统算法,而传统算法当中很重要的就是特征提取,特征提取好不好,决定了最终这个识别的效率。像下图这样一种汽车,特征还是比较明显的,我们看:在车底下面有一团阴影,车的尾部是一个几何的对称体,车灯是红色的,两边也是对称的,等等。
后来行人检测也慢慢进入到了产品化阶段。行人跟汽车不一样,因为行人并不是一个刚体,这时候就需要更好的一些算法。对于传统的行人检测,最简单的就是用 HOG 的特征,再加上 SVM 算法来做一些分类,而随着深度学习的出现,就出现了更多的、更好的一些方法。这里传统的视觉,就是从图像当中抽取出语义特征。
还有一种视觉,立体的视觉,它是能够抽取出来几何的模型。刚刚提到行人检测,传统上来说我们需要机器学习,但是如果说我们有双目的摄像头,则可以非常准确地把这些行人,包括旁边黄色的是一只狗,能够把它以一种点云的方式呈现出来,而且这个点云可以用色彩去表示,远处的时候可能是冷色调,靠近的时候变成暖色调。这个并没有通过算法去理解它是什么样的语义,只是用双目的立体视觉,把这样一个几何的模型抽取出来。
还有一种手段就是通过雷达,尤其是毫米波雷达,目前来说它更多的是通过多普勒效应去检测障碍物,尤其是那些运动的障碍物,所以严格来说,它的几何模型是残缺的。但是慢慢地我们发现,毫米波雷达还可以有更高级的使用场景,比如说这样一种场景(如下图所示),这是一条右拐的路,如果说车在这条右拐线上即将要右拐的时候(我们想一下这个车头是冲着斜前方的,而且往往摄像头它的视场角是比较窄的),从这个地方突然走出来行人,摄像头是看不见的,这时候雷达就变得很重要了。一个非常典型的智能驾驶车,车周围有很多的传感器,它的车头两侧有150 度角短距离的毫米波雷达,这样一种雷达去检测行人,检测上述场景中的行人是非常适合的。所以针对毫米波,把多普勒效应采集出来的数据,对它进行一些机器学习、进行分类,也是可以检测出行人的;只不过这里面的难度更高一点,而且行人并不是金属物体,对于毫米波雷达的反射可能就没那么强,这时候我们可能需要更好的算法。现在已经有公司通过相控阵雷达这样一种原理,能够更好地去了解障碍物,它就不仅仅是一个多普勒,它还加上XYZ,这样它对于环境的感知就更好。
有一种更好的传感器叫激光雷达,它是真正能够准确地把环境的几何模型建立出来的。现代意义的无人驾驶历史上最有名的一辆车,是斯坦福的车,在 2005 年获得了美国 DARPA Grand Challenge 的冠军。
我们可以看到,这辆车顶上有 5 个激光雷达,这 5 个激光雷达都来自于德国的一家叫 SICK 的公司,而且它是一线的,可以进行反复扫描,扫描这个平面上有没有障碍物。但是,我们只知道在这个平面上有障碍物是不够的,所以它用 5 个激光雷达,用 5 个不同的俯仰角扫出来 5 个平面。它扫出来一条平面是这样的,碰到旁边的灌木丛的时候进行了反射,这样它就知道那边有障碍物;然后通过 5 个平面的扫描,它就能够知道这个几何世界是什么样子的。到了 2007 年,DARPA Urban Challenge 卡耐基梅陇的这辆车拿到了冠军,而这辆车顶上出现了一个新品种的激光雷达,这个激光雷达一直到现在还是无人驾驶车主要的一种激光雷达,它有64 线。上面提到的 SICK 只是一线,它的视场角相对是有限的;而这样一个雷达能扫出来64根线的世界,且是360度在不停的旋转,每秒钟能够转 5~12 转,所以它对这个场景的感知就变得非常准确了。
到后面我们可以看到,谷歌的第一代的无人车顶上有这样的雷达,第二代的无人车上面也有,第三代还有。百度的第一代顶上也有,百度的第二代顶上依然有诸如此类的雷达。当然百度的第二代无人驾驶车,除了顶上 4 线激光雷达之外,还有三个 16线的激光雷达,这三个 16 线的激光雷达是俯向地面,使得车身周围的盲区会进一步减少。
现在存在一个问题,这个激光雷达造价是很昂贵的,目前市场价一台是 70 万元人民币,边上的两个 16 线一排差不多七八万元人民币,所以使得无人车非常昂贵。而对于驭视科技,我们的车上同样也装了雷达,装了 16 线的激光雷达,相对来说便宜一些。这样的价钱其实已经成为了无人驾驶商业化的阻碍。但是好消息是说,未来几年这么一个昂贵的问题马上就要得以解决,未来三五年像这样的激光雷达会从 75 000 美金降到 500 美金以下,甚至是现在有一家激光雷达厂商喊出来说降到 50 美金以下,这意味着它不再成为无人驾驶商业化的一个阻碍。所以我们可以看到,很多激光雷达的厂商,都在针对 2020 年会推出性价比非常高的产品,意味着我们又可以有摄像头,又可以有雷达,还可以有激光雷达。
这样会让我们去考虑,我能否把视觉跟激光雷达结合起来,进行融合,这样意味着我可以把语义和几何模型结合起来。视觉的好处是,它有色彩,且分辨率非常高,1 080 P 的摄像头就是有 1 080 根线;而激光雷达现在有 64 线,未来最多发展到 128根线,所以它的分辨率是有限的。激光雷达没有色彩,是单色的激光,至多它回来的时候有一个反射强度,这样意味着它是对纹理不敏感的;而摄像头对色彩、对纹理是非常敏感的,所以这两个东西结合起来是非常好的。
再 看 特 斯 拉, 我 们 都 知 道 特 斯 拉 的autopilot 可能是现在商业化场景当中最好的,它主要靠挡风玻璃后面的一个摄像头,加上上面的一个毫米波雷达,以及车身周围的很多超声波。这三种传感器目前看来也并不完备,在去年 5 月份,特斯拉的一辆车就出现过一起致命的车祸。一辆特斯拉的 Model S 的传感器并没有发现横着的大卡车侧面,于是高速从大卡车的车身下面钻过去,驾驶员当场身亡。
我们现在就要考虑,为什么这些传感器、摄像头、雷达等等都失效了呢?所谓超声波失效是可以理解的。超声波只有五六米的这么一个距离,它肯定是感知不到远处的大卡车。那摄像头的原因是什么,现在有多种解释。
首先特斯拉的解释是,当时这辆车是迎着晨曦在行驶。做视觉的都知道,对面是强逆光过来,摄像头的成像可能会受到影响,这个时候对它的算法会产生影响。有的时候强逆光要比微光光照不强更严重。
另外一个解释是,当时它的算法是有局限性的。我们如果说用海尔特征再加上AdaBoost,可能训练的是对车辆尾部的特征识别,但是实际的情况是,这辆大车是横在那个地方,横截面不符合这个尾部的任何特征,算法根本没有检测出来这么一辆车。所以,不论是哪种原因都展示了摄像头和视觉算法的局限。有人就会问,雷达为什么没有起作用呢?马斯克在 Twitter回答说,其实系统在很远的地方是看到了在路面上方有不少的反射点,但是这个时候它还不能做决策,雷达对静态障碍物的认定是保守的。它在高速上开的时候,它比较忌讳误刹车,高速上面突然给你来一下刹车的话,不但不舒服,而且很危险。所以它采取了一种比较保守的分类,把它分类成为了一个马路上面的交通标志牌;是希望等到靠近的时候,如果有更多的数据能够进行判断时进一步做分类。但是悲剧在于,它的毫米波雷达安装位置比较低,而这个车身的底盘很高,靠近的时候这个毫米波雷达就扫空了,从车肚子下面扫过去了,因此靠近了也没有识别出来。
所以,这是现在我们的辅助驾驶技术的一些缺陷,该如何解决呢?现在已经有几种解决方法,一种就是大数据的思维,我们来改进雷达的算法。比如说雷达返回的数据量更大,如果说雷达返回的数据量足够大,意味着我们就可以做更好的分类。第二个,我们把时间因素加上去,不仅仅是说这么一个时间点上面雷达反射回来是什么,我们把多个时间帧的数据都融合进去,进一步地把静态和动态的问题区分开来,把虚假的反射过滤出去。第三个方法,其实就更简单了,就是非常简单的大数据众包的方法。但是想象一下,如果说我有一辆特斯拉的车经过这个地方的时候,扫到前面有一排的反射点,虽然它不知道,但它可以记下来。第二辆特斯拉的车又经过这个地方的时候,如果还是扫到这些反射点,意味着它是一个永久的障碍物,可能就是马路上面的交通标志牌;如果说第二辆车经过的时候没有扫到,说明它是临时的一辆大卡车,它现在已经开走了。这个方法听起来好像很简单,但是实际的应用当中是非常有用的。
第二个改进点,就是提升信噪比。比如说,在强逆光的时候他就看不清楚,我要改进视觉的感知能力,这也算是一种大数据的思路。比如说,摄像头改成宽动态。宽动态它在强逆光、在微光下面的细节还原就变得更好,现在一些星光级的传感器,在马路灰暗的路灯下,或者汽车前灯照射这种非常微弱灯光的辅助之下,也能够看清路面情况。还有就是在摄像头里面加入动态的曝光和自动的增益。如果有动态曝光和自动增益,对于刚才那些场景也能够很好的呈现。
另一种就是多摄像头,甚至是在摄像头上面做进一步的创新。应该说,大自然创造眼睛是从寒武纪开始的,创造眼睛这么一个器官真的是巧夺天工,在这里面可以有很多学习的地方。比如像苍蝇的复眼,还有很多昆虫的复眼,它是一种非常有效的器官,很多小镜片放在一起,用非常简单的算法就能检测障碍物。以蝗虫为例,它做障碍物检测,只需要一个神经元就可以完成;它做避障,就是做控制,只需要一个神经元就可以完成,这依赖于它的复眼的结构。而老鹰厉害在什么地方?它在离地面两三千米的高空盘旋,能够看到地面上的兔子或者一条小蛇,它的眼睛的远视能力非常强。事实上,老鹰眼睛里面有两个中心凹,一个深的,一个浅的,有点像我们多个摄像头组合的一个感知设备。还有像变色龙,它是 360 度环视,现在汽车上已经装上 4 个广角组合成的 360 度环视。还有像哈士奇,它在晚上看得很清楚,两个眼睛可能有不同的颜色;在晚上,它对眼睛瞳孔的控制能力很强,其实就是光圈的控制能力很强,所以夜视能力非常好。现在像特斯拉的 Model AutoPilot 2.0,它车身周围装上了很多的摄像头——8 个摄像头,未来即使是一个方向上,它可能需要短、中、长三种不同焦距的摄像头,通过多个摄像头的配合,能够对场景有很好的感知。
当然在短期的话,一个最实用的方法就是使用双目立体摄像头,我们做三目,为什么三目呢?在我们做视觉感知的时候,未必需要彩色的传感器,这样拍出来的图像是灰度的。但是灰度有一个问题,红绿灯就变得看不清楚,所以中间放一个彩色的摄像头,两边看的比较远,视场角是比较窄的;而中间这个是广角,附近能够看得见行人、自行车,这就是多摄像头的组合。这两边两个摄像头,它看到的世界是一个几何的世界,每一种障碍物都是一团点云,像静态的栏杆也是点,动态的车也是点,而暖色代表近,冷色代表远,所以它对场景里边的这些障碍物是有很好的感知。那么如何能够通过提升传感器的能力,通过多种摄像头来获得更多的信号,我们知道,感知的过程其实就是希望有更多的信号、更少的噪声,所以这是第二种做法。
第三种做法,现在普遍使用的是通过深度学习的方法,即通过单目摄像头进行深度学习。深度学习比传统的这些视觉算法有更好的目标检测能力。不同的距离,不同的角度,哪怕有遮挡,或者是一些奇形怪状的车都是可以容忍的,现在只要标注数据足够,我们在马路上看到一些非常奇怪的车也能进行识别,甚至针对一些类似拖着树的车,只要给定数据它就能识别出来;而且它能够很轻易地从简单的检测车辆到检测行人、自行车、交通标志等等,且我们可以把多个检测网络融合在一个,在这样一个 multi-tasking 神经网络里面。这个场景比之前的场景更加复杂,因为会存在行人、自行车等情况。
上面我提到了最基本的感知,无论是摄像头的语义模型,还是激光雷达的几何模型,还是多种传感器的组合。感知到不能撞的东西和可行驶的路面,第一步是存在两条车道线绘制出来可行驶的路面;第二步就要解决地图和定位的问题,而地图本身来说就是一个空间模型。人开车靠的是什么?定位靠的是 GPS,还有靠的是我们简单的用肉眼去看交通标志,这两种对于定位的精度并不具有很高的要求,比如说GPS 是 10 米的定位误差,但我们人不会有误差问题,我们不会因为 GPS 的误差而会错过一个路口。对于智能驾驶来说这里需要强调,就是我们之前所有这些算法都叫弱人工智能,它并没有我们人大脑里面一直在运行的常识,它并不能处理模糊的信息,并不能容错,所以它要求更高的定位精度,就是 10 厘米定位精度。
今天智能的不足我们要通过大数据来解决,通过各种传感器的融合来解决。举个例子,我们首先想到的就是绝对定位。绝对定位最先想到的一个传感器叫做 GNSS RTK,GNSS 就是全球卫星定位系统,RTK使得定位精度从普通的民用 10 米到 10 厘米、1 厘米的这么一个定位精度。在我们的一个研发基地,我们在大楼的周围故意做了一些不规则的运动,可以看到,在绝大多数情况下它的定位精度是准确的,偶尔出现一个毛刺;另一边,因为障碍物就是大楼的遮挡,使得它跟卫星的通讯、跟地面基站的通讯会产生问题,所以就出现了很多毛刺。而换一个时间,在障碍物的这里边出现了大量的毛刺,意味着什么呢?意味着光靠它是不行的。这时候绝对定位不行,再加上一个相对定位,相对定位能够随时把运动的姿态记录下来。比如说,每一步都是向前走的,还是往其他角度走的,走了多远?这些能够把轨迹记录下来。绝对定位再加上相对定位就能够得到更好
的效果,而相对定位在汽车上最直观的就是一个惯性导航。惯性导航其实在我们每台手机里面都有,通过加速传感器和陀螺仪能够形成惯性,但是手机不准。往往在自动驾驶上面需要高精度的惯导,高精度的惯导非常的昂贵。现在最典型的一种高精度惯导是基于光纤陀螺,用在哪里呢?用在战斧巡航导弹上,这个导弹打出去以后,如果说GPS 信号被破坏掉,它还能够靠自身的惯导飞行一两百公里,还能够击中目标。
我们也测过,如果用这样的光纤陀螺的话,可能车开到 20 分钟,它还能够比较准确的定位,它完全是靠相对定位,能够比较准确。但是这个比较昂贵。我们现在想到另外一个计算机视觉的算法,这个计算机视觉的算法就是视觉的里程计,它是做什么呢?就是通过单目和双目去检测帧与帧之间特征点的位移来判断摄像头的位移,然后把这些位移区分起来就是行动的轨迹。当然这个东西要做得好是非常困难的。体现它好不好一个很重要的标志就是,它走一圈这个环绕不是能够闭上,如果最后环闭上,说明它的累积误差是足够的小。这个在实际的应用当中用处非常大,我们知道全宇宙最复杂的立交桥就是西直门立交桥,走西直门立交桥 GPS 经常是罢工,所以你通过这样一个视频里程计能够很好地把你的运行轨迹记录下来。
这是我们把绝对定位加上相对定位融合起来的结果,右上角是摄像头的实景,我们看到这是灰度的摄像头;左上角是我们规划出来的行驶路径,这个路径的颜色紫色是匀速、黄色是减速、绿色是加速;左下角是双目的视觉雷达,我们可以检测障碍物,而这边这条轨迹我们可以看到,就是把绝对定位加上相对定位融合出来的一条轨迹,在蓝色顶上出现了一点小的修正。所以这套系统就是比较完美的符合我们的要求。为什么说比较完美呢?其实这里面还是存在着问题,比如说在一个园子里面,GPS 的工作效果不是很好,这时候我们要靠惯导。视觉里程计其实工作的效率也不好,为什么呢?大检测出来的很多特征点是树叶,树叶是会动的,所以我们可以看到,整个车身随着行驶是偏离了真正的地图规定的这条路。我们所想到的方法是每过一段距离放置两个牌子,牌子上面是一些特定的视觉特征,我们检测出来了以后可以做一次校正,然后它就会回到主要的路线上,所以这是第三种方法进一步对数据进行纠正。但是这种方法在实际应用当中是有问题的,因为我们不可能在马路上放置很多这样的牌子,而通过一些简单的思维拓展,我们只要把现实世界中的那些交通标志牌检测出来,拿这些交通标志牌来做累计误差的校正就行了。
所以我们可以看到,在行驶的时候持续用深度学习的方法把标志牌检测出来,然后把它跟地图里面存储信息进行匹配,一旦匹配上就知道我现在到底是在什么地方。因此只要在现实世界当中,这样的交通标志牌分布足够的稠密,我每过一段时间就可以做一次校正,每过一段时间做一次校正,就能保证在 GPS 不好的状况下也能够保证很好地在路面行驶。
到目前为止似乎比较完美,而实际还存在着一些问题。我们现在看到很多道路上面,交通标志牌它的分布非常稀疏,可能每过一两公里才能够检测出来一个交通标志牌,因为毕竟这个深度学习算法是目前最完美的,它有时候还会错过一个交通标志牌,这时候怎么办呢?我们会发现在路面上也有非常明显的视觉特征,我只要把路面的这些视觉特征识别出来进行匹配,其实是有连续的绝对的视觉参考的。所以我们做的办法是,把这个路面粘贴起来。这个粘贴的方法很简单,跟我们手机拍场景图片一样,我们慢慢移动的时候可以把这个场景粘贴出来,粘贴出来以后就变成这么一条一条连贯的路面,然后在驾驶的时候,我实时看到的路面跟地图做一次匹配,这样就能够比较准确知道我在什么样的地方。这个算法本身可以做到鲁棒。
所以从绝对定位到相对定位,再加视觉参考点,从视觉参考点再到外面的交通标志牌,再到路面的视觉特征参考点,通过一系列方法,我们使得这么一个定位做的非常棒。当然,有时候在车库里面,我们可能又要寻找其他的方法,这里其实用的就是一个 Video Slam 的技术。
这些都是定位的方法,未来还有另外一个帮助,就是高精地图。地图一般是用来导航的,但它也能够帮助我们做定位,它能够使得定位更加准确。此外,它还有两个功能,第一个是它给我们提供了一些预见性,比如说我们看到这个地方,知道 500米以后要上匝道,或者它能够提前让我们知道这里面有一个坡,这时候能够使得我们的驾驶规划更好;另外一个就是提供了鲁棒性,如果我们定位不准的话,地图能够帮助纠正。
现在高精度地图有不同的种类,比如像谷歌这样的高精度地图,是基于激光雷达点云的,它是非常大的高精度地图,1 公里差不多一两个 GB 左右。还有像地图厂商做的高精度地图,它就可能不一定有点云,它只有这些已经抽象出来的几何的这样一些符号,这些几何符号已经足够帮助我们通过其他的手段进行定位了。这些几何符号的信息也是非常丰富的,想象一下,比如说路肩有多高,它也会标志出来;比如说这个交通灯是在空间的什么位置,红、黄、绿它是竖着的还是横着的,它都会为我们标出来,这样能够弥补现在我们汽车人工智能的不足。
有了这些矢量的几何表示以后,我们就可以进行匹配了。这只是显示一种匹配的做法,即把这些质量的地图重新渲染出来,变成图片,原来是矢量的,它只有一些箭头线,然后把它重新渲染出来;渲染出来变成图片以后,再进行图片之间的匹配,它就能够做的更好,这就是地图和定位的问题。
第三,对人工智能要求更高了,从感知向认知要进行跨越。认知的第一阶段,我们提到过,只要去检测那些不能撞的东西,或者检测那些该识别的东西,这个在计算机视觉里面它的说法叫做 detection by recognition,我们必须先 recognize,这样detect 出来的东西它的视觉特征在你的数据库里必须要存在的。然而这意味着就是一个边界的问题,因为数据库毕竟是有限的,万一出现了那些在我们的数据库里并不存在,但同时又不能撞的东西,很可能就识别不出来了。比如我们的车开到了印度的街上,印度的街上有牛在走,牛这个特征可能从来不在数据库里,就无法识别出来,很可能就撞上去了。所以,它需要更好地去理解这个世界,当然理解这个世界可能也是分不同的阶段。最简单的,这是特斯拉最新版的 Autopilot 里面的功能,在它的仪表盘上大家可以看到,它能够把前面的一辆车用图标显示出来,但这次它不但显示出来前边有一辆车,而且知道这是什么样的车,比如说这是一辆客车,还是一辆摩托车,还是一列载重的货车。其实自动驾驶的时候,我们要有一个策略是说离大货车远一点,所以这已经代表比刚才的第一阶段进一步了,它不仅仅是检测出来,而且能够检测出来是什么样的东西,我们是不是需要离它远一点。另外,车辆检测的下一步就会变得,我不但能够检测出来有车,而且这个车的朝向是什么样子的,它占用的三维的几何空间是怎样的,这个也能够检测出来。
再下一步就涉及到语义分割。做计算机视觉的话都知道,我不但有 classification detection、object classification detection,还有 semantic segmentation。语义分割我们知道,把整个画面所有的像素都会赋予一个颜色,这个颜色就是一个标签,代表它是一种什么样的东西,这是用一种算法叫做 segnet,也是深度学习的一种算法,它能够近乎实时地把每一帧的每个点给它分割出来,比如紫色代表的是路面、橙色代表的是车道线、深蓝色色代表车、蓝色代表人行道等等。这种分割其实就比原来的detection by recognition 更加鲁棒,因为它基本上对于这个世界场景中的每一块区域都做了一个判断。而且这个分割对车道线检测也很有用,前面的车道线检测是通过最简单的图像处理就是边缘检测来的,而这个语义分割出来的车道线可以更准确。
但是对于语义分割,如果说路面上有几辆车,它都是用同一种颜色去标识,不区分到底是哪辆车。再下一步叫做 instance segmentation,做实际分割的时候,每辆车都可以把它的边界圈出来,用不同的颜色标出,这就是从语义分割到 instance segmentation。之前的语义分割中整个路面都是用紫色标识出来的,但是有时候这是不够的,比如说双向路,双向路是不能在整个路面上行驶,只能够在这个方向上的那一半的路面上行驶,所以我们要进一步去理解这个道路的这些标识的语义,能够把真正行驶的区域标识出来。
还有在很多场景下,车道线并不清晰,或者车道线被大雪覆盖了,或者没有车道线、没有路肩,这时候深度学习就非常有用。因为它并不是明确的特征,是通过大量的概率计算出来的一个特征,它能够把这么一个没有明确的马路边界的这么一条土路也能够识别出来,而且有时候仅仅是识别出来马路的这么一个几何区域还不够。
针对另一个应用,我们知道车行驶的时候是有风噪和胎噪的,通过胎噪能够把道路的干或者湿检测出来,这时候这种信息对于我们下一步自动驾驶的规划和控制是非常有用的,所以这是第一阶段。第一阶段是说识别那些原来该识别的东西,到理解整个世界。
第二阶段,从简单的不撞,要到更加舒适的驾乘感受。什么叫做舒适的驾乘感受,举个例子。在北京的三环上行驶,上路之前在车顶上放了一枚硬币、一个打火机、一个盒子这三样东西,然后在三环上加速、减速、换道,行驶多公里再下来,如果这三样东西还是稳稳地放在那边,就满足舒适的标准。这意味着我们在做规划的时候,它是一个多目标的优化,不仅仅安全性是一个目标,舒适型也是一个目标。
这里面就需要很多的能力,第一个就是对道路更加精细的感知,尤其是路面上可能有一些东西能否检测出来。比如,路面上有一块石板,还有一个球从前面滚过去,这个对于我们是不是能够做到安全和舒适的驾驶非常重要,所以我们利用双目摄像头,要把这块石板和这个球检测出来。
另外一个,就是从确定经验到自学习。如何理解呢?今天我们的自动驾驶系统,前面感知这部分是用深度学习的,但到后面规划和控制,它其实还是基于一套经验专家系统。经验专家系统说的比较通俗一点是什么意思?就是基于规则、基于查表的这样一套系统,就是一个确定的经验,它是不能学习的,这部分是前面已经学好了的,放到这个车里面就固定了。但是近期研制出了一套系统,叫做端到端的深度学习。又该怎么理解呢?之前我们是每一步做一件事情,比如说深度学习先把事件的模型建立出来,然后再通过专家系统做规划和决策,最后变成控制能力。而端到端的深度学习完全不一样了,它直接视频进去,控制命令出来,中间的步骤全部省掉,这是深度学习的一个优势,它能够实现端到端。但是,它里面真正有意义的地方就是自学习,它能够在开的过程当中不断去学习这个人的驾驶行为。
这种方法本身也并不新,我们可以看到 2005 年深度学习的一个大师叫做 Yann Lecun,他写了一篇论文,用端到端的学习去做避障。最近像 Nvidia,就真正地用卷积神经网络实现了一套端到端学习的一个方法。它用三个摄像头作为数据的输入,同时方向盘的转动作为另外一个数据的输入。它把这两个作为输入来训练这个深度学习卷积神经网络的模型,最后就出来一套这个系统,现在已经工作的非常不错。这是一套思路,就是通过卷积神经网络这样的一套系统,端到端做深度学习。
还有一套系统,就是基于强化学习了。现在强化学习在决策当中使用的越来越多,强化学习包括哪些东西呢?最后要学习出来一个驾驶的策略,这里面包括了环境的一些数据,还包括一个 cost function。在真正的自动驾驶当中,它的环境包括了如距离前车的距离、马路两边的距离等等这些数据。而 cost 包括了一些奖励和惩罚,如我们在单位时间里面开的里程多就给予奖励,就是单位时间里我们开了更多的距离就给我们奖励;如果我们压上了路肩或者撞上了其他的车就给我们扣分,通过这样的方法不断的学习,学出来更优的一个网络。强化学习我们知道是不需要标注数据的,它事实上现在被认为就是未来做自动驾驶决策当中更好的一种手段。我这里边加上一个深度——深度强化学习,可以不接受简单的这些参数,我刚才说这些参数是事先要算出来,跟其他车的距离或者是跟两边马路的距离、速度等等,而深度强化学习的一种典型形态直接送图片进去就可以,通过深度的强化学习,它能够直接地帮我们把这个策略学习出来。
还有一种做法,就是这里面加上一个驾驶风格的学习,就是希望驾驶员开了一个月以后,能够学到他的驾驶风格。这里面很有意思,并不是说最终我直接就是能够通过强化学习法将驾驶的策略学出来,而是说,我根据我现在开的这个行为反推出来他的驾驶风格,这个驾驶风格其实就是这么一个 cost function。所以,这里边用到了一种方法大家可以去注意一下,叫 做 inverse reinforcement Learning、 反过来的 reinforcement Learning。标准的reinforcement Learning 是,我从这边的已经知道的 cost function 能够学出来一个具体的驾驶行为,而反过程是指我有这个驾驶行为我能不能学出来这个 cost function,所以这也是一个比较有趣的场景。
关于端到端的学习做一个总结,首先它有优点,非常简单,不学习先验的知识,而且它训练出来的东西,虽然说不清、道不明,但是跟我们人开车的车感比较相同。因为,我们人开车的时候并不会去目测离前车道有多远,只是一种感觉,所以这是它的优点。但是缺点也有很多,第一,它需要学习大量的高质量的训练样本,如果它的样本不够,训练出来的模型 Demo 可以,但是没办法去处理开放环境下各种不确定情况。想一想,传统的方式每个阶段有多种传感器,做相互的交叉验证,每个阶段都可以把错误率限制在某一个阈值底下。但是端到端的深度学习,首先只有摄像头;其次,中间这些东西都不存在,变成了一个黑盒子。黑盒子缺乏可解释性,缺乏可解释性它的应用就会受到限制,而且它不太灵活。它只是在这辆车上学出来让我这样去控制,但是我换一辆车,它车身底层的动力学特性就不一样,底盘的这些标定的参数不一样,就会出现问题——我开一辆小车跟开一辆大货车肯定是不一样的——所以它换一辆车就必须重新学习。而且它学不到一些隐性的知识。其实我们人在开车的时候有大量的隐性知识,比如说,我今天停车停在离这辆车远一点,为什么呢?可能是因为这辆车是一个豪车,我不想碰到它;明天我离它远一点,可能是因为这个停车位地面上有水洼,而这些语境知识很难能端到端的学习学出来。
第三,我们开个玩笑叫“从咏春木人桩到少林 18 铜人”。什么意思呢?叶问在练咏春拳的时候是跟一个静态的木人桩练,但是真正自动驾驶在开的时候,道路上可能有十几个如狼似虎的人类在驾驶,而且他们开车可能有的激进、有的拘束,这时候我们就像闯少林 18 铜人一样,需要动态地去判断态势,去评估每一个人或者是道路上的物体的动静,预测他的行为,合理地获得路权。比如最简单的就是对物的判断,如果从前车上掉下来一个桶,那么我们到底怎么去做,是紧急制动,还是赶紧转到另外一条车道上,这时候我们人是有判断的。如果它是很轻的桶,我就轻轻地制动一下就行了,撞上也无所谓;如果是一个很重的东西,比如像一个洗衣机摔了下来,我们这时候肯定得进行制动,所以这时候这种判断就非常重要,现在也有用循环神经网络来推理这样的动态物体的特性。
我们刚才说要预测每一个个体或者群体的行为,这里面他们的行为是有高度不确定性的,这时候可能我们要从监督学习往强化学习的方向走。因为,监督学习学出来的东西是一个判断,它对环境是没有影响的,而强化学习学出来的东西是对环境有长期影响的,所以这时候需要强化学习,或者是像马尔可夫决策过程,或者是循环神经网络,等等。
这里举一个例子。一辆最简单的车在很多行人的环境里面行驶,最简单的一种做法,就是看见有人在动我就刹车,这样车就一顿一顿的,如果说我能够对环境里面每个行人的运行轨迹进行建模,比如说去预测他的行动轨迹怎么样,他这个轨迹跟我前行的轨迹是不是相交,如果不相交我就不用去刹车了。这里就用到了一个 POMDP这样一个算法,其实就是一个马尔可夫决策过程。当然更复杂的情况下,我们发现马尔可夫决策过程也不够用,因为马尔可夫决策过程很简单,下一个状态就取决于当前的状态和行为。但是真正上路的时候,每个驾驶者都是不可预测的,这时候我们需要强化学习这样的方法。比如像这样一个场景里面,一辆车要并到一个环岛里面,它就要选择最合适的时机去并线。该如何选择呢?它就是要去判断,这辆车开车开比较猛,那辆车开车开的比较拘束的。怎么判断?一点点往前挪,看司机是加速,还是会减速。这就是一个不可预测的过程。
其实从本质上来说,开车跟 AlphaGo很相似。AlphaGo它看到盘面上的各种棋子,来决定下一步该怎么走,最后的赢面有多大。其实他通过两个网络,一个叫 Policy Network,另外一个叫 Value Network,去判断下一步该怎么下。真正的一个开车过程也是非常类似的,AlphaGo 用的方法很早就存在了,比如说上世纪 80 年代reinforcement Learning 已经开发出了 policy function 和 value function 这么一个概念,到 Q Learning 90 年代的时候就已经变得Policy Network 和 Value Network,只不过那时还不是深度的神经网络,是非常浅的网络;DeepMind 把它变成了一个深度的Policy Network 和 Value Network。所以这样一套方法其实在自动驾驶里面也可以使用,只不过就是 Deep Q Network 它的计算量是非常大的,有时候效果也并不是最好的,所以后面大家在 Deep ReinforcementLearning 基础上又开发出像策略梯度,或者像 GPS 等等这样的方法进一步去优化。
Yann Lecun 把强化学习分成一类,跟监督学习和非监督学习并行的一类,而且他能够去解决数据贫穷的问题。因为原来的监督学习要做得好的话,数据量的需求非常大,强化学习如果跟模拟器结合起来的话,事实上可以去产生很多的数据,它可以通过产生大量的数据,再通过 reward function 最后找出来一条最好的道路,所以非常好。
最后,对智能驾驶当中的深度学习做一个总结。首先,数据来源。我们可以通过开放数据,比如从谷歌街景里面把路面数据拿出来的,或者自己装载行车记录仪通过驾驶把这些图片抽取出来,然后通过一种众包的方法去标注。我们标注数据越多肯定训练出来的模型越好,当然标注是有成本的,比如说标一条车道线可能要 2 元钱,画出一个汽车的 bounding box 可能是2 毛钱。于是慢慢地又有人开发出来一些方法,通过机器标注,再加上去审核的方式,能够减少标注的成本。
还有刚才提到端到端的深度学习。我们注意,首先它要装三个摄像头;同时它需要这么一个方向盘的转角的数据要过来,而这个转角数据要通过 Can 总线。我们需要去改装一辆车,并不是所有的研究人员都有这样的财力和能力去改装一辆车,所以现在也有很多的科研单位很聪明,去改赛车的游戏。为什么呢?赛车游戏里面既有图片,又人玩游戏时候的控制数据,到底是左转还是右转、加速还是减速,把这些数据放在一起的话,也能够训练出端到端模型。现在的现状就是有用 CNN 的,有用 RNN 的,也有深度强化学习的,做各种各样东西的检测,做分割,做行为的分析、预测、端到端等等。而现在一般来说规模都不算大,比如说一二十层,至多几千万个参数就足够了,它跟我们在广告当中的深度学习其实规模小很多,这可以理解。为什么呢?因为车载的计算芯片的能力毕竟是有限的,而且现在大家往往是,在训练端用浮点数,在识别端就用定点,因为定点它能够更好地在一些 DSP 这些芯片上运行。
现在我觉得可能其中的一种核心竞争力就在于,我们是不是能够采到更多的数据;采到更多的数据以后,是不是能够有对这么大规模数据的标注能力和训练能力。我们刚才说,通过机器标注再加人审核的一种方法,可能是使得标注成本能够降低100 倍、1 000 倍,所以这个是核心竞争力了。当然,未来深度学习的算法还有待再突破。
而深度学习不是免费的,是需要成本的。CPU 的灵活性最大,而像 ASIC 这样的一个固定的芯片,它的功耗低,深度学习能力强。但是 ASIC 肯定不能用,为什么呢?因为未来几年深度学习的算法还会有大的变化。CPU 太慢了,GPU 有点小贵,FPGA 价格比 GPU 便宜一点。但是这个算法把它移植上去还需要时间,一般移植一套算法可能需要几个月,现在所说的神经网络的加速器是非常好的,只不过它什么时候能商业化,什么时候能符合车规也是一个问题。所以现在我们也要考虑怎么在现在的车规芯片上能够把这些深度学习运行起来。当然一种方法就是用传统识别算法来取代深度学习,比如车道线检测,不用深度学习也能够做的很好。第二,采用多任务的网络,一套网络能够把各种各样的东西识别出来。第三就是用各种各样的优化的方法,比如图像可以压缩,把分辨率降低;比如说把 1 080 P 的降到只有 100×200;还有做模型的压缩,模型压缩可能也从不同的层面去压缩,我们可以把一些卷积层去掉,也可以把这些连接去掉,可以做一些量化,用更少的比特去代表,甚至对模型再进一步用霍夫曼的方法进行压缩等等。还有就是通过级联算法。什么叫做级联算法呢?就是在不同的阶段有些算法用传统的机器学习的方法,而在一些需要识别复杂特征的阶段用深度学习。还有比如说,怎样能够减少 region proposal,现在里面的识别基本上都是基于region based,一般 region 可能数目非常多,可能有 5 000 个,如果能够想办法把它降到100 个,而且它的识别效率不降低,这些都是能够提升性能降低成本的方法。还有就是针对硬件做特殊的优化,等等。
最后说一下,现在还有很多没有解决的挑战,就是人工智能与鲁棒性的关系。但是在汽车上面这套系统非常复杂,一台奔驰的S 级轿车,上面的代码量是一架波音 787 梦想客机上代码量的 16 倍,非常复杂;一架飞机的软件测试的验证成本可能占到它总成本的一半。而且很多东西比代码更难,就是数据,以及在这之上的随机算法和机器学习。想象一下,未来一台车出场的时候,两台车是一模一样的,但是在两个不同用户的手里用了一个月,这两台车就完全不一样了,因为大量随机的算法自学习的能力。这时候就会出现很多问题,比如把牙刷识别成为一个棒球棒是没有问题的,但是我们在自动驾驶的情况下,如果识别错了就会有问题。
所以目前来说,在自动驾驶领域的深度学习还存在着一些障碍。第一就是这套系统并没有一个非常确定的置信度,这个对于车厂来说它是要怀疑的,因为我们没有足够的置信度。举个例子,在特斯拉那起车祸出来以后,马斯克给自己辩解,他说这个车行驶了 1.3 亿英里才死了一个人,全美国的平均水平是 9 000 万英里死一个人,全世界平均水平 6 000 万英里死一个人,所以车比人还是行驶的安全。但是我们都知道,这个样本量太小了,没有统计的显著性,如果第二天再死一个人,就变成 6 500 万英里,所以,我们一定要给它一个置信度。兰德公司就通过一套数学模型推理出来说,如果要有足够的数据去证明自动驾驶比人行驶的安全,有95% 的置信度的话,需要行驶 100 亿英里,一台车不停地要行驶 500 年,所以没有一家车厂是能够达到的。利用的方法就是通过模拟仿真,再加上强化学习来积累里程,其实现在谷歌一天能够在模拟器里面开几百万英里,它就是通过这样的方法。
还有一个难题就是深度学习本身是一个黑盒子,黑盒子是没有可解释性的,这是十分麻烦的,无法将生命交托的。首先我们因为数据的偏差就有可能出问题,比如谷歌他们做的一个工作,用深度学习去识别哑铃,它识别出来一个网络,想要进行可视化,看看这个特征是不是有道理。而可视化出来的一个网络后,他们发现每一个哑铃边上都带着一条胳膊——识别出来的哑铃都带着一条肉色的胳膊。为什么呢?就是因为它输入的数据集都是肉色的胳膊,所以这就是一个所谓的 train set poisoning,或者是 bias。
还有,人们认为生成出来一些的图片,欺骗深度学习,比如这张图片,我们人眼看是没有任何意义的,而深度学习识别出来是个猎豹。
所以,现在一个非常火的方向就是对抗训练,通过生成性的对抗网络,它生成出来一些错误的图片;然后再训练一个辨别器,辨别器去判断到底是一个错误还是正确的招聘,通过这样一种方法来增加其鲁棒性。
还有很多没有解决的挑战。第一个,我们有没有可能通过一些预训练的模型,通过迁移学习来增加它的鲁棒性,我们也看到有这样的案例,在 ImageNet 上训练出来的模型再在我们标注出来的这个数据集上去训练,发现它的效果就更好。第二个,深度学习本身只是一个概念的模型,我能不能把它跟传统基于符号主义的人工智能结合起来;就是把一些背景知识,把一些逻辑推理能够结合起来,我停车为什么没有停在那边,是因为这是一辆豪车,这些知识是可以跟它结合起来的。第三个就是Yann Lecun 最近说的,他认为预测学习未来会变得非常重要;他认为,预测学习可能比非监督学习变得更重要。比如通过对行驶的视频进行预测来自动驾驶。前段时间有一个黑客,他的工作就是这样的,当然他具体地也涉及到了 Auto encoder,加上中间的生成性对抗网络,加上循环神经网络预测。
还有一个就是自监督学习。我认为自监督学习未来也会非常有用,尤其是我们在现实生活当中,采集的数据当中可能是有多种 modelity。比如我们同时看一头牛,又听见了叫声,这样我们就可以使得两种modelity 相互进行标注,我们不需要人去标注,而是通过多个模态来相互进行标注。
还有就是学习开车的感觉,因为人开车并不是精确地计算到底距离是多少,而是一种感觉。
还有就是更低成本的检测和规划算法。之前提到过的蝗虫的检测,只需要一个神经元,为什么呢?因为可能在传感器这边配合。还有就是 Fleet Learning,把它叫做基于云的一个驾驶,它非常有用,我们想象一下,比如摄像头看不远的话,能不能靠前面的摄像头看到的东西帮我们看的更远;如果是在这个时间我们看不到的话,下一个时间另外一辆车看到了它能不能教给我,这个是人工智能厉害的地方。为什么呢?因为我们现在每个人一年开 1 万公里,其学习到的东西很有限;如果 1 万台车,每台车一年开 1 万公里,它们把学习的东西都汇聚在一起,就是 1 亿公里了,所以Fleet Learning 就非常重要。
(本文根据吴甘沙在中国人工智能学会首期“人工智能前沿讲习班”的现场报告整理)
来源:产业智能官
责任编辑:
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
今日搜狐热点}

我要回帖

更多关于 品牌鞋有哪些牌子图标 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信