众所周知,构建 AI 无人驾驶方案的最大应战,在于处理各类不太常见的状况,也就是所谓极端条件。实践上,模型本身的质量越高,寻觅全新极端案例数据集的难度就越大。另外,模型质量越高,改进所需的数据就得越准确。因此,人们看法到 AI 功能质量并不能保持指数级增长(即摩尔定律),反倒是 AI 系统的改进成本在呈指数级增长。从这个角度出发,有监督机器学习似乎必然不可持续(下图中的 S 形曲线)。
正由于这条 S 形曲线的存在,才使得 Comma.ai 这样只拥有 5 到 15 名工程师的团队,可以打造出几乎与特斯拉上百位无人驾驶专家相近的 AI 模型。异样的,Starsky 虽然只拥有 30 名工程师,还是成为全美三家获批在公共道路上停止无人驾驶测试的企业之一。
不过不用懊丧,这类 S 形曲线在技术发展当中曾经相当常见(摩尔定律本身实践上就是由多条 S 形曲线构成的,只是由于芯片技术可以不断迭代,因此在宏观上保持了一种全体指数增长的趋向)。成绩在于,在考量现有技术时,人们总是会把它跟人类的驾驶表现停止比较。
Stefan 在博客的文章中提出几项基本衡量目的:下图中的 L1 假如为人类程度,则代表自动驾驶技术曾经超越人类的全体驾驶程度;若 L2 代表人类程度,则自动驾驶曾经与之相当接近;若 L3 为人类程度,则表示自动驾驶间隔其还有一段间隔。
假如设 L1 为人类的驾驶程度,那么先进的无人驾驶厂商只需可以证明自家方案的安全性,即可完成方案的实践推行。但在 Stefan 接触过的任何从业者里,没人置信目前的无人驾驶能超越人类程度。