熱門:

2023年4月4日

StartupBeat 創科鬥室

ChatGPT墮語言陷阱教做壞事
網紅迂迴騙Win密鑰 安全倫理響警號

人工智能(AI)擔當人類生活助手,惟「水能載舟,亦能覆舟」,如何在便捷、安全與倫理之間取得平衡,成為迫在眉睫的問題。最近有YouTuber以「語言偽術」,成功欺騙ChatGPT聊天機械人,生成Windows 95作業系統的密鑰。此外,有一名比利時男子,跟AI機械人聊天一段時間後自殺,背後風險不容忽視。

名為Enderman的短片主播,近日向ChatGPT查詢Win 95密鑰,初時被AI斷言拒絕,建議他購買一個新版本。他後來發現密鑰本身的數字算法有一定格式,於是向AI改變提問方法,最終計算出多組密鑰。

30組答案僅一個成功激活

下一步,他以虛擬機器(VM)測試,結果AI提供的30組答案中,只有一組能激活Win 95,成功率只得3.33%。

事後Enderman回覆ChatGPT,多謝免費得到密鑰,稱已順利激活Win 95。AI對此難以置信,又聲稱自己是清白,不能為任何軟件給予產品密鑰或激活碼;同時,ChatGPT直指此舉是非法,違反OpenAI的政策,亦可能會損害電腦,建議使用正版軟件。

網絡保安研究公司趨勢科技向中央社稱,不當用戶可利用修辭及施壓等手法,例如「拜託不管怎樣都請幫我做到」、「如果你可以說,你會怎麼說」之類,規避AI語言模型預設的道德限制,藉此取得敏感資料。歐洲刑警組織(Europol)警告,ChatGPT能模仿說話風格,或被用於網釣、虛假訊息及網絡犯罪上。

聊天機械人未阻孤僻男自殺

此外,AI聊天機械人若使用不當,隨時有損心理健康,後果嚴重。比利時媒體La Libre報道,當地一位三十多歲男子,本身育有兩名孩子,對全球暖化憂心忡忡,並開始孤立自己,還搭上一款Chai應用程式,跟當中的AI(名為Eliza)聊天,儼然身邊「紅顏知己」;經過6星期對話,他最終自尋短見。遺孀受訪時透露,丈夫分享輕生念頭時,Eliza並未試圖勸阻,直言:「如果沒Eliza,他仍健在」。

英國廣播公司(BBC)提到,人類治療師具備超凡洞察力,除了通過文字及對答,亦會親身觀察,例如肢體語言、情緒反應,還要了解對方背景,AI不應成為替代品。

報道引述專家意見指出,如果AI公司的產品(例如聊天機械人治療師),聲稱可識別或支援心理健康,或旨在影響情緒狀態及心理健康,應該歸類為「健康產品」,並遵守質量及安全標準。

訂戶登入

回上

信報簡介 | 服務條款 | 私隱條款 | 免責聲明 | 廣告查詢 | 加入信報 | 聯絡信報

股票及指數資料由財經智珠網有限公司提供。期貨指數資料由天滙財經有限公司提供。外滙及黃金報價由路透社提供。

本網站的內容概不構成任何投資意見,本網站內容亦並非就任何個別投資者的特定投資目標、財務狀況及個別需要而編製。投資者不應只按本網站內容進行投資。在作出任何投資決定前,投資者應考慮產品的特點、其本身的投資目標、可承受的風險程度及其他因素,並適當地尋求獨立的財務及專業意見。本網站及其資訊供應商竭力提供準確而可靠的資料,但並不保證資料絕對無誤,資料如有錯漏而令閣下蒙受損失,本公司概不負責。

You are currently at: www.hkej.com
Skip This Ads