2022年6月25日
本月傳出Google一個人工智能(AI)程式能頭頭是道地回答人類,又再引起坊間討論,電腦、機械等科技是否快將發展成像人類般有自我意識。不過,電腦科技專家指出,AI有人類意識是個很複雜的問題,現時科研遠遠未進化到這個地步,認為大家可能閱讀太多科幻小說,對真實世界中AI的發展方向、貢獻潛力和風險失焦。
谷歌(Google)工程師勒莫因(Blake Lemoine)近月不斷向同僚表示,該公司一套AI程式「對話應用語言模型」(LaMDA)已經有感知,並在6月中把他跟LaMDA的對話公開出來,作為證明。事件經《華盛頓郵報》報道後引起轟動,Google隨即以洩密為由把勒莫因停職,堅持公司不同意他的看法,澄清Google未有任何軟件或機械發展到十分接近人類思考的能力。
Google程式掀感知爭論
機械能否思考,人類對這個問題已思考了幾百年,一般認為一件物品需要擁有感知(sentience)和意識(consciousness),才算有人類的特徵。專家普遍認為,儘管LaMDA的對話能力很厲害,很像人類般回答,但仍只算狹義人工智能(ANI),亦即機器學習(Machine Learning),很多日常生活接觸到的科技產品已有跟LaMDA類似的技術,而技術要達通用人工智能(AGI),才算有感知和意識。
不少對AI有充分認識的專家評論LaMDA事件時慨嘆,很多人深受以AI和「機械人腦」為題材的科幻小說所影響,對AI有不切實際的遐想,機械能像人般行為,其實十分複雜。感知和意識各有簡單的解釋,感知是指可主觀體驗和感覺的能力,意識是指人類、動物或一件物體能對其內部和外部存在擁有感知或知覺。然而,當要應用到一門科學,並根據這個概念來發展出新的理論和技術,我們其實對感知和意識沒有詳細而公認的定義,沒有一套普遍獲學界認同的學說。
當沒有公認定義,自然沒有準確量度意識程度的方法。現在確有大量AI能力的測試,由最原始的圖靈測試(Turing Test),到現代有很多新發展出來的考試題目,但這是測試程式在某些方面的能力,仍未能判斷它是否有自我意識。
同時,神經科學等不同學科仍在研究,人腦為何發展出意識。我們現在仍不知道意識的來源是哪裏,因此也不可能人工製作出一件百分百有意識的東西。若回答不到這些問題,研發出像人類般思考的AI,也無從談起。
專家:把電腦當人是錯誤
Google研究部副總裁兼英國劍橋大學教授Zoubin Ghahramani指出,AI只是十分強大的統計模式配對工具,但大家傾向把AI當作人類來思考,這是錯誤的,很多人刻意要AI模仿人類,而非補足人類的能力。即使AI沒有(或未有)人類思考的能力,但也展示出擁有非凡的能力,例如可在海量的數據中協助排序基因,這是人類不可能做到的。
科幻電影中,機械變身成具獨立判斷能力,控制人類,這種情況未變成真,惟AI擁有巨大能力所引起的風險,同樣不能忽視。Google的例子顯示,這類程式可以混淆視聽,騙過人類,如果有心人利用AI,破壞力非同小可。
專家一直呼籲政府和學界應盡快着手制定規則,規範AI的發展,處理AI研發可能涉及的倫理問題。AI的基礎研究多年後,似乎已突破樽頸,短期內可迅速在多個範疇作出實際應用。如何防止AI被用作做壞事,這個問題比AI是否有感知或意識更為重要、真實。
訂戶登入
下一篇: | 先釐清概念利規範發展 |
上一篇: | 周五主要經濟數據 |