人與機器,誰來主導?誰駕馭誰?
2019年3月24日(德國之聲中文網)印尼獅航610號班機墜毀前機艙內是何等混亂的景象,令人不敢想像。打撈出的黑盒子所提供的數據,揭示了班機墜毀前11分鐘的駭人情況。在這架波音373Max8型號班機清晨5:45起飛不久後,駕駛艙便出現了嚴重問題。飛行員26次嘗試將機頭拉高,但機頭卻再次下壓。此外,該班機的速度變化也異常。
印尼國家運輸安全委員會(NTSC)在事故調查報告中發表的圖表顯示,駕駛員和飛機之間的操作對抗在11分鐘後突然停止,飛機以時速450公里的速度墜落海中,機上189人全數喪生。
調查報告推測,故障的感應器向自動防失速系統"機動特性增強系統"(MCAS)傳達了錯誤訊息。最致命的是:駕駛員其實擁有凌駕電腦的最終決定權,飛行員可以關閉MCAS系統,法律也對此作出了規範。但根據調查報告,處於巨大壓力下的獅航的飛行員沒有意識到這一點,或對此不知情。其它航空的飛行員顯然對於新軟體的存在也不甚瞭解。波音公司在獅航墜機後,再次在一份公告上介紹這項新系統。
初步分析顯示,2019年3月10日墜毀的衣索比亞302号客機以及獅航610號班機的黑盒子所呈現的訊息有明顯相似之處。衣索比亞交通部发言人表示,黑盒子內的記錄已經成功被解讀,未來幾日內應該就能公佈相關訊息。
與機器抗衡
飛機系統與飛行員作出不同操作反應的情況屢見不鮮,不同型號以及其它製造商的飛機都出現過此類情況。因為各種飛機內皆裝設了輔助系統,以避免飛行員在壓力過大的情況下發生操作錯誤。這樣的系統有助於飛行安全,而且成效良好。但前提是系統能毫無問題地順暢運行。當飛機的攻角指示器(AOA)故障,傳遞錯誤訊息或計算機當機時,原本意在輔助駕駛的系統可能會成為奪命的利器。上述情況已經發生在多起空難或近乎墜機的事故中。遭遇驚魂狀況的飛行員表示,事發時他們幾乎無法繼續控制飛機,只能拼盡全力對抗自動糾錯系統。
人是風險因素?
造成墜機的真正原因必須由技術人員進行分析,並由法院判決責任歸屬。不過,無論判決結果為何,如今就能確定的是,必須為事故負責的是人。有可能是沒有認真閱讀指示的飛行員、航空公司,或是沒有正確訓練飛行員或提供培訓的波音公司。此外,沒有確認飛行員是否已經閱讀指示或接受培訓的美國航空管理局也可能是責任方。未正確修復感應器的技師,或明知飛機出過問題卻輕易放行的人員,或許都負有責任。無論如何,必須為這起人為錯誤和失敗負責的終歸是人。多數的錯誤幾乎都是人為造成,畢竟人類無法完全不犯錯。而在某些情況下,錯誤可能造成致命後果。
面對如山的輿論壓力,美國總統川普最終也同意對波音737Max8機型下達停飛令。川普还在兩條推文中表達了對複雜機型的不滿:"飛機變得太複雜難以駕駛。已經不再需要飛行員,而是麻省理工學院的計算機科學家。我在許多產品中都看到這一點。總是在尋求一些不必要的多餘步驟,但多數時候還是老的簡單點的方法更好。霎那間的決定是必要的,複雜性容易引發危險。這一切要付出巨大的代價,卻只換來微小的收獲。我不知道你們怎麼想,但我不希望讓愛因斯坦來作我的飛行員。我要的是優秀的專業人士能輕鬆迅速地控制一駕飛機!"
姑且不論川普惯用的輕蔑語氣,他在推文中對高科技提出的質疑與不少人不謀而合。
機器為人類服務
若人類確實會造成風險,自動化系統的存在便是為了將錯誤降至最低。這樣的做法早已成為現實,而且很大程度上毫無爭議,機上的輔助系統便是一例。但核心問題在於:誰負責作出最終決定?人們會毫不猶豫地回答:機器是為了服務人類,決定權在人。
這項基本原則也是基於現實考量,因為目前機器仍不夠先進。自動駕駛系統是以數據為依據。可用的數據越多,電腦作出的判斷就越準確。然而,在突發情況下,機器通常存在很大的問題。波昂大學計算機科學系的馮‧策茨施維茨(Emanuel von Zezschwitz)解釋,人類擁有明顯優勢,因為人能更好更快地意識到問題的存在,並作出分析和決策。因此,機器應該配合人,而非反其道而行。
以智慧型界面為例,設計不同顏色的按鈕,以避免飛行員在過渡緊張的情況下作出錯誤操作,例如按下紅色按鈕。馮‧策茨施維茨表示,機器主要應該在決策過程中為人類提供輔助,例如在飛行員面對排山倒海的大量訊息時,給出決定性的數據,或是篩選出可行的操作選擇。飛行員再依照電腦數據作出最終決定。
人類要掌握控制權
這也符合了人類掌握主控權的渴望。然而,某些情況下人類不得不讓步,由機器作出決定。例如汽車的防鎖死剎車系統(ABS),即便是駕車人也無法干涉系統運行。德國人工智慧研究中心(DKFI)的"團隊認知協作"項目負責人帕賈尼(Alain Pagani)也同意,借由人工智慧系统的认知計算可以為飛行員有效提供支援。他表示,人可以通過人工智慧在大量数据中找出重要訊息並辨識結構。對承受龐大壓力的飛行員而言,人工智慧的存在有助於過濾出關鍵訊息,成為判斷基礎。
儘管如此,帕賈尼對德國之聲強調,人必須擁有最終決定權。他也認為,人工智慧只是辅佐,不該讓機器掌握主導權。德國漢莎航空也是支持帕賈尼研究項目的一方。
該研究團隊提出的目標是"在技術與方法上提出建議,促進更自主的空中交通"。但帕賈尼也強調,"只有在清楚自動化的極限,並且建立人類與機器間的信任後,才可能減少機組人員編制"。
沒有人類不可行
在交通運輸等領域上,採用自動化系統的核心基礎假設是:與機器相比,人才是錯誤的來源。數據也證實了這項理論,因為多數意外的發生原因是人為疏失。
通過完全取代或減少人的影響力,自動化系統能有效減少錯誤來源。但是系統的開發者仍是人。儘管設下層層安全檢驗關卡,但是軟體畢竟仍是由人來編程,無法百分之百不存在錯誤。VDI/VDE創新技術有限責任公司(VDI/VDE Innovation + Technik GmbH)的數據經濟及商業模式小組負責人威士曼(Steffen Wischmann)表示,操作錯誤多數是研發錯誤。當自動化系統無法應對複雜狀況時,便會將任務轉交給人類,成為"流程鏈中最脆弱的環節"。威士曼指出,這些"脆弱環節"最終仍會被自動化系統取代,但與此同時,人類必須繼續監督精密複雜的機器,糾正錯誤甚至手動操作。工程心理學家班布裡奇(Lisanne Bainbridge)早在1983年便指出這樣的現象是"自動化的諷刺"。
波昂大學的馮‧策茨施維茨也認為,要讓人在自動化過程中保持高度專注力是一項艱巨的挑戰。他指出,最關鍵的時刻是機器與人類的"交接"。例如在自動駕駛過程中,必須確保機器"接手"駕駛後,人不會過於緊張,但也不能過於無聊,就是說即便無需插手,他仍需要掌握各種狀況。
失去的信任
若自動化系統發生錯誤(而錯誤是無法完全避免的),便會加深人們對技術的疑慮,尤其是在肇事原因及責任歸屬尚不明朗之際。波音公司在未來幾周內必須贏回各界的信任,否則該公司的737Max機型便無法再升空。波音可能會調整MCAS系統,只允許系統部分干預飛行,而飛行員在系統開啟後仍能擁有最終決定權。
重要的是,未來必須改進人和機器的相互配合,確保人類能"駕馭"機器;飛行員、技師、航空公司、製造商或監管機構在存在疑慮時以安全為重、做出決策。威士曼表示,目前的航空管理系統還存在很大的改善空間。根據美國2013年的一份研究報告,60%的飛行員指出,他們在遭遇意外時,對事故的發生、發展缺乏全方位的認知。
雖然人工智慧系统能协助作出判斷,但最終的決定仍需取決於人。馮‧策茨施維茨總結道:"為了讓人類能在越發緊密聯通以及自動化的世界中仍能做出明智判斷,開發新程式時必須考慮到人的優勢和弱點,並在設計中列入考量。要達到目標,在新技術的開發過程中就得讓未來的使用者參與其中。"