D*****d 发帖数: 1307 | 1 我是从一开始就不看好自动驾驶的(有马后炮之嫌)
我自己的理由(非科班或专业,纯胡说)
公路驾驶整个这个系统还是不够封闭,太多意外的情况了,外推如何能够保证每次都做
出正确的选择?我都怀疑突然蹦出来一只鹿这种情况它能不能处理得了。
各位可以有不少搞数据科学或统计的,应该比我懂。我的理解是,没有模型是完美的,
而false positive和false negative又是互相拮抗的,等自动驾驶保守到足够安全的时
候,估计车已经没法开了。如果改进模型的话,我更相信科学家一些,毕竟还是有些理
想主义的。
另外,关于人工智能,就算它和人脑的工作原理完全一样,人脑的处理单元数恐怕要大
得多吧?另外,别小看了高速上出险情时的应变,这可以人类通过各种残酷手段(战争
,瘟疫等等)选择出来的趋利避害,不用可惜了,更加重要的是,千万别被选择掉。
我有同事十分看好特斯拉,号称马一龙的铁忠粉。我的意思是,炒/投资特斯拉的股票
和买特斯拉是两回事,买特斯拉和用它自动驾驶是另外一回事。当然我也可能过于保守
,比如说我钥匙点火的车我是绝对不会买的。
最后,死者为大,愿他安息。前事不忘,后事之师。 |
t******g 发帖数: 4044 | 2 我也觉得自己写code的都应该知道写个没bug的robust的任何情况下都兼容的code几乎
是不可能的。数学模型都有无数近似,所谓人工智能不过是数据挖掘,循环判断加
regression,根本不是真的人工智能呀。
【在 D*****d 的大作中提到】 : 我是从一开始就不看好自动驾驶的(有马后炮之嫌) : 我自己的理由(非科班或专业,纯胡说) : 公路驾驶整个这个系统还是不够封闭,太多意外的情况了,外推如何能够保证每次都做 : 出正确的选择?我都怀疑突然蹦出来一只鹿这种情况它能不能处理得了。 : 各位可以有不少搞数据科学或统计的,应该比我懂。我的理解是,没有模型是完美的, : 而false positive和false negative又是互相拮抗的,等自动驾驶保守到足够安全的时 : 候,估计车已经没法开了。如果改进模型的话,我更相信科学家一些,毕竟还是有些理 : 想主义的。 : 另外,关于人工智能,就算它和人脑的工作原理完全一样,人脑的处理单元数恐怕要大 : 得多吧?另外,别小看了高速上出险情时的应变,这可以人类通过各种残酷手段(战争
|
y***n 发帖数: 2318 | 3 公路上的情况比空中复杂的多,而且瞬间千变万化,Level 5的自动驾驶技术上很难做
到,法理上更是不好区分责任。
Level 5以下的准自动驾驶要可行的多,关键一条是要让人承担最终的决策和责任。
【在 D*****d 的大作中提到】 : 我是从一开始就不看好自动驾驶的(有马后炮之嫌) : 我自己的理由(非科班或专业,纯胡说) : 公路驾驶整个这个系统还是不够封闭,太多意外的情况了,外推如何能够保证每次都做 : 出正确的选择?我都怀疑突然蹦出来一只鹿这种情况它能不能处理得了。 : 各位可以有不少搞数据科学或统计的,应该比我懂。我的理解是,没有模型是完美的, : 而false positive和false negative又是互相拮抗的,等自动驾驶保守到足够安全的时 : 候,估计车已经没法开了。如果改进模型的话,我更相信科学家一些,毕竟还是有些理 : 想主义的。 : 另外,关于人工智能,就算它和人脑的工作原理完全一样,人脑的处理单元数恐怕要大 : 得多吧?另外,别小看了高速上出险情时的应变,这可以人类通过各种残酷手段(战争
|