「要求幫忙整理會議記錄草稿」、 「要求從一個含有多篇電子郵件的討論串中擷取出重點」、 「要求從一份應徵者的履歷當中整理出一份準備呈現給客戶的摘要」、「要求將客戶資料整理成表格」、「要求針對公司的目標與關鍵績效指標 (KPI) 規劃提供見解和建議」…已上是企業員工使用 ChatGPT 最新的「Shared Links」共享連結功能時,不小心意外洩露機密資訊的真實案例。

火紅的聊天機器人ChatGPT自幾個月前發表以來一直都是新聞的焦點,正面和負面的報導都有。雖然使用者可以用ChatGPT做出許多令人驚奇的事情,但人們也因為安全、隱私問題以及網路犯罪分子和線上詐騙者的使用而感到擔憂。三星公司和義大利政府等不同機構都已經開始禁止使用ChatGPT,也有專家呼籲暫停AI的開發。

最近,當AI教父Geoffrey Hinton公開退出Google,以便以客觀身份警告ChatGPT和Google Bard等AI系統的潛在風險時,也讓這類報導達到巔峰。Hinton指出:「這項技術會帶來龐大好處,但全世界也必須在AI安全及控制方面進行大量且緊急的投資。」
如果這些對母公司OpenAI來說還不算什麼,那現在ChatGPT遭遇了第一次資料外洩事件。
繼續閱讀推特(Twitter)於今年8 月對外承認 540 萬個帳號遭外洩,包含用戶電話號碼與電子郵件等資訊,被放在駭客論壇以 3 萬美元的價碼打包出售。最新消息指出,這540萬筆的使用者記錄(包含資料)已經被免費分享在駭客論壇上。

Twitter在八月時披露了可以在登錄頁面輸入電話號碼或電子郵件地址來獲取相關 Twitter 帳號資訊的漏洞。此API漏洞讓駭客收集了540萬筆使用者私人資料。Restore Privacy在2022年一月最早揭露報導該漏洞可用來收集資料,透過漏洞懸賞平臺 HackerOne向 Twitter 披露。HackerOne成員 – Zhirinovsky對其描述如下:
「這個漏洞可以讓任何人在沒有經過身份驗證的情況下透過提交電話號碼/電子郵件來獲取任何使用者的Twitter ID(這幾乎等於取得帳號的使用者名稱),即便使用者在隱私權設定中禁止了此動作。」
繼續閱讀