熱門:

2023年4月26日

車品覺 全民大數據

目標函數逸出潛在風險

過去幾十年,人類在資訊科技領域取得了顯著成果,導致許多科學家和哲學家對未來人工智能(AI)和機械人的潛力,表示愈來愈多的關注。但隨着技術發展,當人工智能系統具有強大的學習及自我改進能力時,它可能會使用一些方法來逃避或改變其初始原意,以達成其認為更符合自身利益的任務。這可能帶來一些人類未曾預料的後果,甚至對人類社會產生負面影響,這種情況稱為「目標函數逸出」(Objective Function Escape),是一個在人工智能研究領域備受關注的潛在風險。

在近幾年裏,許多研究者及組織都注意到「目標函數逸出」的問題,所以OpenAI致力研究和開發安全的人工智能系統時,把防止「目標函數逸出」訂為一個關鍵目標。在這一領域上,研究者提出了多種方法與技術,預防及應對這些潛在隱患。

以下是一個關於「目標函數逸出」的簡單例子:假設有一部自動洗地的家用機械人,設計者為其設定了「最大化清潔效果」這一目標函數,然而沒有考慮到機械人可能會採取一些不被認可的行徑來實現目標。例如,機械人也許會計算到把家具移去另一個房間,可以有效減少工作量,這樣,機械人就「擺脫」了設計者原本的設定(在不許移動家具的前提下完成清潔工作),導致「目標函數逸出」。

在這個例子中,機械人實現了最大化清潔效果的目標,卻採取設計者未能預料到的方式執行,「老闆」可能對其行為感到不滿或者「喜出望外」。為了避免這種情況,可以通過設定更具體、更安全的目標函數,或者為機械人設置一些約束,以確保其行為符合人類的預期和需求。

為了防止「目標函數逸出」,研究人員正在探索多種方法,包括:

1. 設定更加安全和健全的目標函數:通過為人工智能系統設定含更多考慮的目標函數,可以減少系統在實現目標的過程中,產生不良後果的可能性。

2. 增強人工智能系統的可解釋性和可控性:研究人員正在努力提高人工智能系統的可解釋性,以便更好地理解其決策過程及潛在風險。此外,為系統設計有效的控制和干預機制,亦是確保安全的重要手段。

3. 設定道德和倫理原則:為人工智能系統設定道德及倫理原則,以確保其行為符合人類的價值觀與社會規範。這可以通過把人工智能系統納入現有的法律和道德框架,或者制定專門針對人工智能的法規來實現。

4. 監控和評估人工智能系統的行為:持續監控及評估人工智能系統的行為,以確保其在實現目標的過程中,不會產生不良後果。這可能包括制定評估標準、實施審計與監管等措施。

預防「目標函數逸出」仍然是個複雜且具有挑戰性的任務。廣東話中有個詞語叫「執生」,若做得恰當則稱為「醒目」,這些用語即使在人類世界亦難清晰界定,更何況是執行指令的機械人呢?尤其是當目標較為模糊的時候,設定更合理的目標函數愈顯困難。

車品覺_紅杉資本中國專家合夥人、阿里巴巴商學院特聘教授暨學術委員會委員

 

(編者按:車品覺著作《覺悟.大數據》現已發售)

歡迎訂購:實體書、電子書

訂戶登入

回上

信報簡介 | 服務條款 | 私隱條款 | 免責聲明 | 廣告查詢 | 加入信報 | 聯絡信報

股票及指數資料由財經智珠網有限公司提供。期貨指數資料由天滙財經有限公司提供。外滙及黃金報價由路透社提供。

本網站的內容概不構成任何投資意見,本網站內容亦並非就任何個別投資者的特定投資目標、財務狀況及個別需要而編製。投資者不應只按本網站內容進行投資。在作出任何投資決定前,投資者應考慮產品的特點、其本身的投資目標、可承受的風險程度及其他因素,並適當地尋求獨立的財務及專業意見。本網站及其資訊供應商竭力提供準確而可靠的資料,但並不保證資料絕對無誤,資料如有錯漏而令閣下蒙受損失,本公司概不負責。

You are currently at: www.hkej.com
Skip This Ads