上周有一桩大案发生。我说的大案自然不是特警半夜出击,开着直升机奔波千里,擒拿巨贼于热被窝中,对这种类型感兴趣,请看今日说法。我说的是收购大案,intel花了150多亿美元收购mobileye。 mobileye大约是500人规模的一个中型公司, 150多亿美元相当于1千多亿人民币, 人均2个小目标。很多人质疑真的值那么多吗? 是不是买贵了。 intel为什么舍得下这么大本? 要知道intel是虽然最赚钱的it公司之一, 一年净利润大约110亿(市值最高的it公司,google大约200亿, facebook不到80亿,但是增长很快),买mobileye也谈不上轻松, 这个价格相当于intel一年半挣的钱。
这场收购案一出来,就嘘声四起。有人说mobileye不值那么多, 技术没什么了不起, 大中华做adas,自动驾驶的公司, 不以千记,也有上百, 分分钟追上mobileye云云(潜台词, 买我吧,买我吧,性价比无敌)。 到底mobileye值不值那么多? 本文回答不了这个问题, 只是作者一点浅薄的愚见。 胡乱说说对自动驾驶的现状和未来的理解。
首先要澄清基本概念, 大家说的是自动驾驶, 谈的未来也是自动驾驶, 花这么大价钱买的也是自动驾驶, 实际上市面上还没有自动驾驶。 只有辅助驾驶(ADAS)。 区分自动驾驶和辅助驾驶, 实际上有非常清楚的分类, 所谓自动驾驶的6个基本层级, 文抄公搬运如下:
L0 :驾驶员完全掌控车辆,无自动化。可能仅安装了一些预警技术,如前碰撞提醒(FCW)、侧偏提醒(LKW)等等
L1 :对方向盘和减速的单一任务提供一些辅助支持;主要包括自适应巡航控制(ACC)、自动紧急制动(AEB)、道路偏移回正(LKA)等。
L2 :自动系统能够完成某些场景下方向和减速的组合驾驶任务,可以部分自动化。L2的典型场景包括,低速堵车跟车、高速路上的快速行车和驾驶员在车内的自动泊车等。
L3 :又称有条件的自动驾驶,自动系统能通过监控环境接管所有驾驶任务,但驾驶员必须准备好重新取得驾驶控制权。驾驶者仍无法进行睡觉或者深度的休息。
L4 :自动系统在某些限定道路和环境下,能够完成驾驶任务;人可以不管了, 但是需要环境配合, 比如景区, 停车场之类的环境下完全可以无人操作。L4可以做一些道路和信号的配合。
L5 :自动系统在所有条件下都能完成的所有驾驶任务。
这样就可以分割清楚了, 自动驾驶是从L3开始的, 之前的都是辅助驾驶。 而对辅助驾驶, 从L1开始, 就需要介入车辆的控制, 如果只是嘀嘀嘀叫一叫, 给个提醒, 不管怎么嚷嚷, 都是L0, 无自动化。
而现在大家见到的最多的ADAS辅助驾驶系统, 所谓后装市场上那种只要是个行车记录仪宣称都带的, 都属于L0。 既然是L0, 自然要求就低, 也可以不负责任, 厂家就随意,做行车记录仪芯片方案的厂商请几个人稍带着就做了。 效果可想而知。通常情况下, 买了行车记录仪回家的人, 碰上这种所谓的辅助驾驶的行车记录仪, 第一件事情就是把它关掉。嘀嘀嘀的实在太烦人。 所谓劣币驱逐良币, 在行车记录仪上玩辅助驾驶, 为谁辛苦为谁甜?投资人都懂! 也不能说提醒没有价值, 只是在通用市场上价值实在有限。 某些专业市场,比如大货司机喜欢疲劳驾驶的, 能嘀嘀一下还是管用的,有专门做这个的公司, 比如径为视觉(替孙师弟安利一下, 看到要请我吃饭)。
如果要说对人真正有价值, 那就需要介入驾驶动作, 从L1开始,必须和车的控制联动, 这个不管操作多简单和基本,通常只能做前装了。L1和L2 的分别是前者是单一任务, 也就更简单。 Mobileye在这个市场上占统治地位, Mobileye带自动紧急制动(AEB)和车道偏离预警(LDW)功能的前装系统供货价为200美元左右,占领了大约90%(未核实,请指正)的全球此类市场。 做到这两个功能主要就是检测前车和车道线。听上去不难,但是如果要做到接管控制的地步, mobileye给的标杆是:在各种条件下(全天候需求, 如果天气条件实在不合适,自己也得能判断出来, 会把自己关掉)起码要四个9的准确率,99.99%。
L2 就不仅仅是单一任务了, 可以是刹车和转向的组合, 比如volvo全系几乎都配备的跟车系统, 在车速很低时, 比如高速上堵车, 就可以打开, 车辆会自动跟着前车开, 碰到弯道也能沿着车道控制方向。 Tesla的高速自动驾驶, 比这个要强一些, 大概介于L2和L3之间,速度高了也能自动跟车。 这个市场, 目前也属于mobileye统治。 volvo用的,和tesla早先用到的都是mobileye。
从L3往上就属于自动驾驶了。 在这个层级, Tesla是最冒进的, 其实这个层级作为自动驾驶的过渡是很麻烦的。 不能完全指望自动驾驶, 但是又可以部分有效, 人可以适度走神,这个度不好把握。一旦自动驾驶认错了, 人通常是反映不过来的。 Tesla的几起中外车祸,都跟这个有关。 不知道Tesla的内部认定标准, 我个人理解是冒进了。 做新事物必须要小心又小心。 玩过头了, 就会象Magicleap一样变成骗子公司, 而且这个打击甚至会扩大到全行业。
反过来说, mobileye一直在稳扎稳打, mobileye的cto, Amnon Shashua, 在2016年cvpr上有一个公开演讲。讲自己的技术路线, 网上很容易搜到, 百度百家里有全文翻译, 非常建议大家仔细阅读。 可以看到, 要做自动驾驶, 需要, 传感器, 路(地图), 数据(算法)多方面的配合。 mobileye为此一直在做准备, 包括如何做地图表示, 如何收集数据等等。 Tesla一开始用的就是mobileye, 后来两者分手, 应当是节奏不匹配。 一个稳扎稳打的公司和一个拼速度的公司尿不到一壶里。 但是谁能笑到最后, 不太好说。
自动驾驶里L5 那种跟人一样开车的,我个人理解一旦做到就肯定会比人开的更好。 但这个实在是离的很远很远。 所以能够先期做起来的, 应当是L4, 在一些特定环境, 比如物流港, 景区, 或者某些城市区域在道路上做了配合施工的。 这个一定是自动驾驶先期的用武之地。 因为车辆和路都是定制化, 甚至不一定是公共道路, 所以条条框框也小。 也不一定非要找整车厂, 主动权更多。 但是说的容易做起来难, 要做这个也不容易, 更多的是对要对特定行业需求有深入理解。 最后还要算成本收益的经济账。
L5一旦实现, 会对社会全行业有深刻的影响, 因为有了L5实际上汽车就变成了汽车人。前一阵网上有个笑话, 说自己的车,注册了滴滴账号(自动驾驶都联网),半夜出去偷偷拉活。 如果有了L5,这个就不是笑话了。 因此这个涉及到机器和人的关系, 社会伦理, 产权法律等等, 是一个可以单开的大话题。 但是为时尚早, 说这个都是空对空。
最后再谈两句技术相关。 首先是传感器, 要自动驾驶, 需要多传感器融合, 人开车, 需要两只眼和耳朵配合(自动驾驶很少提到用耳朵的, 不是做的人忽略了, 是目前的AI太傻,用不到)。其实有眼睛就够了, 人的眼睛如果类比光学传感器和镜头,那简直好到离谱, 在这么小的体积和功耗下, 做到了大范围变焦, 高分辨率, 宽动态, 自动动态范围调节等等做自动驾驶的摄像头必须要考虑的技术特性。
但是车比人大个, 车的眼睛不一定非要象人一样这么小巧, 可以多, 可以有不同的工作原理。 其中光学传感器还是必须的。 Mobileye的cto说的很明白, 要准确理解场景, 不能光有形状, 还有有纹理, 而获得纹理, 只有靠光学。 人眼通过立体视觉就可以获取形状。 但是自从马大卫(David Marr)快40年前就提出的视觉计算框架开始, 无数学者都为之付出过, 目前还是做不到光依赖两只眼的视差就能可靠提取形状。 因此需要雷达配合, 常用的雷达有两种, 毫米波雷达, 以及现在贵贵的也很大只的激光雷达(将来会便宜且小只)。其实传感器的需求不见得限于此, 声音, 热成像, 只要有用的,将来都可以用。 当然最终光学仍然是基础。
那么有这么多传感器, mobileye为什么长期还是一只眼(单镜头), 并不是人家笨, 是因为要处理传感器的那么多实时数据流, 需要高性能计算, 而计算都是要成本的。 对mobileye的任务(L1,L2),两只眼增加了很多成本, 并不增加很多性能得分。
拜摩尔定律所赐, 这个成本总是越来越低。 mobileye自己有硬件平台, 下一代eyeQ5标称传感器能接入40Gbps数据, 懂的人可以知道这个量级的数据意味这什么。
有了传感器的数据, 更重要的是算法, 说到算法, 当然不能不说深度学习。 很多人说深度学习万能, 可以黑盒子端到端, 这边传感器数据进去, 那边驾驶控制操作就可以出来。这在理论上是可行的, 但也只是在理论上。 对现在的深度学习网络来说, 臣妾做不到啊!深度学习网络是干什么的?mobileye的cto说, 啊!就是用来提取特征的。 至于后面怎么构建场景, 进行控制, 还得单玩, 不管你信不信, 反正我是信了。
技术讨论, 我不是干这行的, 只能浅尝即止。 八成属于胡说。
回到文章一开始mobileye值不值, 我说了一大堆的意思是比较值。 当然我大中华厂商不可气短, 奋起直追, 也就一年左右技术差距(某媒体语),是不是咱们也分分钟就搞个大新闻呢?我们师母已呆!