OpenAI執行長示警:ChatGPT沒保密義務!這6種對話內容千萬別亂輸入
「AI對話不具法律保密性」,怎麼用才安全?這篇教你避開6大隱私地雷。

ChatGPT等生成式AI工具早已不只被拿來查資料、寫報告,許多人甚至開始把它當成情緒出口或決策參考對象。但你和AI說的每一句話,真的安全嗎?OpenAI執行長山姆·奧特曼近日公開提醒,使用者與AI之間的對話不具法律保密性,輸入內容一旦涉及隱私,未來恐怕還可能被儲存、甚至依法調用。
當生成式AI愈來愈「像人」,我們就更容易忽略它背後仍是數據系統。面對AI沒有「醫病保密」、「律師特權」的現實,該怎麼安全使用這些工具、保護自己的個資與對話內容?《網路溫度計DailyView》這篇整理帶你一次掌握。
ChatGPT對話並無法律保障 隱私問題仍待釐清
OpenAI執行長山姆·奧特曼近期接受《This Past Weekend with Theo Von》節目訪談時,坦率指出一項令人關注的事實:用戶與ChatGPT等AI聊天機器人之間的互動,並不享有像醫師、律師或心理師那樣的法律保密權。他指出,許多使用者(特別是年輕族群)會把AI視為可以傾訴煩惱的對象,但這樣的行為目前處於法律空白地帶,潛藏高度的隱私風險。
奧特曼表示,「人們會與ChatGPT分享他們最私密的想法與情緒,例如人際關係或人生方向的困惑。但與專業諮詢不同,這些對話目前沒有法律上的保密保障。」這代表若未來涉及訴訟或調查,這些聊天紀錄可能在法律要求下被調出,對用戶造成潛在風險。
你的對話不一定保密 ChatGPT資料可能被法院調閱
這不僅是理論上的擔憂。OpenAI目前正在與《紐約時報》進行法律訴訟,對方要求該公司保留全球使用者的聊天記錄,甚至包括已被刪除的資料。儘管OpenAI已對這項法院命令提出異議,並認為這種要求「過於擴權」,但案件本身凸顯了現行AI資料儲存與法律管轄的衝突。
奧特曼進一步指出,隨著越來越多敏感議題被數位化,包括女性的健康資料與生育權等,都讓「數位對話的隱私保障」變得更加迫切。他舉例,在美國最高法院推翻「羅訴韋德案」後,許多用戶開始轉向更注重隱私保護的生理期追蹤工具,顯示民眾對個人資料的隱憂正不斷上升。
儘管OpenAI強調對話資料會在特定條件下刪除(例如免費用戶的紀錄將在30天內刪除),但奧特曼坦言,目前AI平台仍可能應法院或執法機構要求,保留或調閱使用者的聊天內容。
節目主持人Theo Von也坦白自己因擔憂隱私問題,較少使用AI工具。奧特曼認同這種態度,並表示:「我們確實需要更明確的隱私與法律框架,才能安心地大規模使用這些工具。」
這場對話提醒所有AI使用者:雖然AI方便、智慧、反應迅速,但它並非具備法律保障的專業諮詢對象。使用時的每一句話、每一項情感抒發,都可能成為未來的風險來源。如何安全使用AI、保護個人隱私,成為當代使用者必須認真面對的課題。
如何安全使用ChatGPT?保護你的隱私與對話內容
既然與AI的對話不具法律保密性,輸入的內容也可能在特定情況下被保留或揭露,使用ChatGPT時更應提高警覺。以下是《網路溫度計DailyView》整理的幾項使用建議,協助你降低風險、保護個人隱私與資料安全:
避免輸入個人隱私或敏感資訊:包括身份證號碼、家庭狀況、健康資料、財務資訊等,這些都不應輸入於AI對話中。
不要將AI當作情感諮詢對象:ChatGPT無法提供心理治療,也無法理解複雜的人際情感。遇到情緒問題,應尋求真人協助。
審慎對待每一次輸入:所有輸入內容都有可能被記錄或被調用,請先思考「如果這段對話被公開,我是否能接受?」除非使用的是ChatGPT Enterprise或Teams等企業方案帳號,否則一般用戶的對話資料仍可能被保留、或在特定情況下被用於模型訓練或依法調閱。即使關閉聊天紀錄功能,也不代表資料完全隔離不被存取。
高風險問題交給專業:AI不適合解決法律、醫療或財務問題,這些應交由具備資格的人員處理。
定期檢視使用習慣:若你越來越常對AI傾訴心事,甚至仰賴AI做出決定,這可能是該停下來、重新思考的警訊。
小心被AI的語氣誤導:ChatGPT有時會「自信地錯誤」,用非常肯定的語氣說出其實不正確的資訊。使用者應保持質疑態度,重要內容應進一步查證,不應完全照單全收。