無人駕駛汽車做不到真正無人的原因:人工智能離不開人

【摘要】:
據Computerworld網站報道,美國加利福尼亞州的“自動駕駛汽車”新規則突出了對人工智能的一個明顯誤解。受過良好教育的公眾都知道無人駕駛技術非常了不起,但它們迄今還無法在沒有駕駛員坐在車內的情況下完全控制汽車。目前的“安全駕駛員”——坐在駕駛員座位上的人,目的是防止人工智能出現故障——被淘汰,完全由人工智能來駕駛汽車只是個時間問題。加利福尼亞州剛剛批準了不設“安全駕駛員”的自動駕駛汽車牌照,

據Computerworld網站報道,美國加利福尼亞州的“自動駕駛汽車”新規則突出了對人工智能的一個明顯誤解。

受過良好教育的公眾都知道無人駕駛技術非常了不起,但它們迄今還無法在沒有駕駛員坐在車內的情況下完全控制汽車。目前的“安全駕駛員”——坐在駕駛員座位上的人,目的是防止人工智能出現故障——被淘汰,完全由人工智能來駕駛汽車只是個時間問題。

加利福尼亞州剛剛批準了不設“安全駕駛員”的自動駕駛汽車牌照,但有一個附加條件:自動駕駛汽車公司必須能夠遠程監控并接管汽車駕駛工作。這一規則使得加利福尼亞州向已經批準真正無人駕駛汽車的其他州看齊。車內沒有人,或至少駕駛員座位上沒有人,但遠程監控

和遠程控制使這一切成為可能,還能確保汽車安全和遵守相關法規。

Computerworld專欄作家麥克·埃爾根(Mike Elgan)設想,自動駕駛汽車公司將有像美國航空航天局那樣的控制室,其中有大量操作員、顯示屏和交通流量數據,數十名工作人員就可以監控數以百輛計的無人駕駛汽車,當汽車出故障或碰到自己無法應對的復雜情況時,隨時接管汽車控制權。對無人駕駛汽車的遠程監控,也可能在與呼叫中心相似、由眾多“小隔間”組成的辦公場所內完成。以下是埃爾根所了解的宣布將建設或已經建設了這種控制室的無人駕駛汽車公司:

·Udelv

·日產

·Waymo

·Zoox

·Phantom Auto

·Starsky Robotics

其他無人駕駛汽車公司也將有這樣的控制室嗎?所有公司都必須有。

想想看,當人工智能不夠智能,不足以應對意外情況時,需要人幫助的不僅僅只是無人駕駛汽車。

人工智能世界:還需要人

為了彌補人工智能的不足,企業常常采取幕后的人為干預措施。這種做法的理念是,人類監督者確信人工智能運轉良好,并擔任教師角色。當人工智能失敗時,人的干預是軟件調整的指南。這一啟發式過程的明確目標是,最終人工智能將能夠在沒有監督的情況下運行。

還記得Facebook M嗎?它是在Facebook Messenger上的一款虛擬助手。這一項目背后的明確目標是,提供一款虛擬助手,可以像人類助手那樣與用戶進行交互。這款“產品”是機器自動化。但現實情況是,大量人類助手在幕后對它進行監督和干預。這些人員還會在人工智能失敗后對它進行訓練,使人工智能最終能獨立運行。Facebook設想逐步減少人類對Facebook M的干預,直至它能完全自動運行。Facebook M能完全自動運行的這一天永遠也不會到來。

Computerworld表示,這種方法的問題似乎是,一旦人類參與到過程中,預期的自我退出就永遠不會出現。以Facebook M為例,Facebook預計將逐步不需要人類的幫助,但反而不得不取消了整個Facebook M項目。Facebook對這一項目相當低調,但它可能已經搞清了下述事實:人工智能現在需要人類幫助,未來可能會無限期地需要人類幫助。

許多其他人工智能公司和服務的運作方式與此類似,雖然對外宣稱的是人工智能,但實際情況卻是人工智能加幕后的人類助手。在基于人工智能的服務領域,有大量的人在幕后辛勞地工作,彌補人工智能與我們期望之間的差距。

那么,誰在進行這項工作?首先是用戶。9年來,谷歌一直利用其reCAPTCHA系統對用戶進行身份驗證:用戶被要求證明他們是人。證明過程涉及真實和虛假的測試,人能識別計算機不能識別的物體。最初,谷歌利用reCAPTCHA來幫助計算機通過光學字符識別(OCR),識別書籍和以往的《紐約時報》的內容。然后,它幫助谷歌人工智能系統讀取谷歌街景地圖中的街道地址。4年前,谷歌把reCAPTCHA打造成一款人工智能訓練系統。大多數訓練的目的是識別照片中的物體——可以用于自動駕駛汽車或街景地圖。一種常見的情況是,將包含路牌的照片分隔成正方形,并要求用戶通過點擊包含路牌的每個正方形,來“證明他們是人類”。這里的實際情況是,谷歌人工智能在接受訓練,以確切地知道哪部分圖片是路牌(自動駕駛汽車在行駛時必須考慮),哪部分圖片只是“噪聲”,會被導航系統忽略。

但用戶只是業余(不知情)的人工智能幫手。專業的人工智能培訓師和幫手,在上班時間會識別和標注照片中的虛擬和實際物體。他們測試、分析并推薦算法中的變化。在任何復雜人工智能系統的開發中,非預期后果法則都是一個突出因素。下邊是一個過于簡單化的例子:

假設你開發了一款人工智能機器人,其任務是制作漢堡、用紙包好、放在一個包中,然后交給顧客,最后一項任務是使包與顧客的距離在2英尺以內,使顧客能夠拿住它。

我們來假設一種場景,顧客在房間的另一側,人工智能機器人會以相當高的速度把包拋給客戶。你會發現,人工智能機器人準確地完成了任務,但方式與人來完成這一任務有所不同。這里就要求增添更多規則,使它能以文明的方式完成任務。

這是一個生動而荒謬的例子,但是人工智能的訓練,似乎涉及無窮無盡的這類修正過程,因為根據人類的定義,人工智能實際上并不智能。

埃爾根的意思是:一個人的行為如果像人工智能,會被認為是白癡。或者,我們可能會說一名向顧客拋一袋漢堡包的員工缺乏常識。對于人工智能來說,常識是不存在的。人工智能在開發時必須考慮到各種可能的情況。開發者需要針對每種可能的情況,確定一種符合常識的反應。

為什么人工智能將繼續需要人的幫助

埃爾根懷疑自動駕駛汽車公司能最終擺脫遙控室。在可預見的將來,人們將需要對自動駕駛汽車進行監督和遙控。一個原因是保護汽車免遭破壞,這可能會成為一個真正的問題。據媒體報道,報告的人攻擊或蓄意與自動駕駛汽車相撞的事件正在增加。

我也相信,無論出于何種原因,乘客都可以按下一個按鈕,與控制室中的人通話。一個原因可能是神經質的乘客:“呃,控制室嗎?,我現在要睡午覺了,你能幫我看下車嗎?”

但最大的原因是這個世界很大,而且復雜多變。奇怪、料想不到的事隨時都會發生:雷擊、飛鳥與相機相撞、小孩子用激光筆照射傳感器,即使出現這些情況,自動駕駛汽車也不能崩潰并胡亂動作。它們太危險了。

埃爾根認為,再過數十年,我們才能在人命關天時信任人工智能。

為什么我們相信人工智能是人造和智能的

造成人工智能具有超能力錯覺的現象被稱作伊萊扎效應(Eliza effect),是麻省理工學院在1966年的一項研究中提出的。利用伊萊扎聊天機器人的測試對象,報告稱他們感受到了計算機的同理心。

目前,伊萊扎效應讓人感覺到人工智能無所不能,但實際上它的能力是有限的。當我們聽說一臺超級計算機在國際象棋比賽中獲勝時,我們會認為:“如果他們能在國際象棋比賽中擊敗聰明人,他們一定比聰明人更聰明。”但這是一種錯覺。事實上,會下國際象棋的機器人,在下國際象棋這件事上比人更“聰明”,但在其他許多事情上,人比那些擅長下國際象棋的計算機更聰明。

自動駕駛汽車可不只是做一件事情,它要做許多事情。這對人來說很容易,但對于人工智能來說就難于上青天了。

Computerworld稱,我們不能過高估計人工智能——事實上,人工智能是驚人和突破性的,并將改變人類生活,通常會使人類生活更美好。我們一貫低估人類智能,至少在我們的有生之年,在完成以人為中心的任務時,人類仍將遠遠優于計算機。

 

自動駕駛汽車的發展,完美地表明認為機器能以復雜方式自行運轉的認識是錯誤的。機器能自行運轉,但離不開我們的幫助。在沒有足夠的智能來完成任務時,人工智能需要人的支持。

聯系方式

微信二維碼

版權所有 :南京創固得電子科技有限公司     備案號:蘇ICP備17064768號-1    網站建設:中企動力 南京    文件下載    在線留言

固話:025-52125881
手機:15951998137
郵箱:

地址:南京市江寧開發區勝太路68號

 

南京創固得電子科技有限公司是一家專注于電子/機電/工業嵌入式系統產品研發、設計、生產、銷售為一體的高新技術型企業,位于南京江寧經濟技術開發區科技創業中心,公司致力于提供高品質的產品服務,立足于南京,并在合肥、上海、武漢、深圳等地均有分支機構及業務合作伙伴。努力為客戶提供專業、細致、深入的服務是我們的宗旨。

 

网上赌博导航