OpenAI 確認 ChatGPT 出現資料外洩

火紅的聊天機器人ChatGPT自幾個月前發表以來一直都是新聞的焦點,正面和負面的報導都有。雖然使用者可以用ChatGPT做出許多令人驚奇的事情,但人們也因為安全、隱私問題以及網路犯罪分子和線上詐騙者的使用而感到擔憂。三星公司和義大利政府等不同機構都已經開始禁止使用ChatGPT,也有專家呼籲暫停AI的開發。

最近,當AI教父Geoffrey Hinton公開退出Google,以便以客觀身份警告ChatGPT和Google Bard等AI系統的潛在風險時,也讓這類報導達到巔峰。Hinton指出:「這項技術會帶來龐大好處,但全世界也必須在AI安全及控制方面進行大量且緊急的投資。

如果這些對母公司OpenAI來說還不算什麼,那現在ChatGPT遭遇了第一次資料外洩事件。

繼續閱讀

回顧這一年 ChatGPT 從 GPT-3 學到了什麼

在 2022 年 11 月開始掀起的喧囂與評論聲浪中,我們檢視了 OpenAI 的 ChatGPT 對網路資安產業將帶來的可能性與影響,並且拿它與先前的產品 (如 GPT-3) 做一番比較。

自從一年多前 GTP-3 在全球造成轟動開始,我們就仔細研究了這項 AI 技術,並分析它為網路犯罪產業帶來了什麼能力與潛力。這些討論都收錄在我們的「Codex Exposed」系列部落格文章中,該系列特別從資安的角度來探討幾個最重要的技術面向:

  1. 蒐集敏感資料:本文試圖揭露當使用者利用這套語言模型來產生程式碼時,可能看到哪些隱藏在訓練用原始程式碼中的敏感資料。
  2. 模仿遊戲:本文藉由測試 GPT Codex 產生與理解程式碼的能力極限,試圖從架構的角度了解該語言模型對電腦程式碼的理解程度如何。
  3. 工作自動化與輸出一致性:本文試圖利用 Codex 的 API 來撰寫程式看看它是否能在無人監督的情況下執行一些重複性工作。
  4. 幫忙訓練駭客:本文探討及分析利用大型語言模型來協助訓練及支援新手駭客的可能性。
繼續閱讀