新聞中心

EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 跟AI聊天?這五件事千萬(wàn)別說(shuō)!

跟AI聊天?這五件事千萬(wàn)別說(shuō)!

作者: 時(shí)間:2025-03-31 來(lái)源:網(wǎng)易科技 收藏

如今已經(jīng)成為人們的常用工具。但在使用過(guò)程中,不要讓自己的成為人工智能的訓(xùn)練素材,或者因?yàn)閿?shù)據(jù)泄露而被曝光。                                    

本文引用地址:http://www.2s4d.com/article/202503/468823.htm

3月31日消息,過(guò)去幾年,用戶能從Open中學(xué)到了不少東西,而這個(gè)也記錄了許多關(guān)于用戶的個(gè)人信息。

它從無(wú)數(shù)次的用戶交流中收集了大量個(gè)人信息,比如誰(shuí)喜歡吃雞蛋,某些用戶的小寶寶需要靠哺乳入睡,還有用戶因?yàn)楸惩葱枰{(diào)整運(yùn)動(dòng)方式。

它甚至記住了更多更為私密、不便詳述的細(xì)節(jié)信息。

無(wú)論選擇哪種:分享越多,它們就越有用?;颊呱蟼餮簣?bào)告分析,工程師粘貼未發(fā)布代碼尋求調(diào)試。但人工智能專家提醒,我們應(yīng)該對(duì)這類擬人化工具保持警惕,諸如社會(huì)保障號(hào)碼、企業(yè)機(jī)密數(shù)據(jù)等敏感信息尤其需要防范。

盡管科技公司急于利用數(shù)據(jù)來(lái)優(yōu)化模型,但它們并不希望獲取用戶數(shù)據(jù)。Open明確警示,“請(qǐng)勿在對(duì)話中透露任何敏感信息?!惫雀枰蚕騁emini用戶強(qiáng)調(diào):“避免輸入機(jī)密信息或您不愿意被審核者查看的內(nèi)容。”

人工智能研究人員認(rèn)為,關(guān)于奇怪皮疹或財(cái)務(wù)失誤的聊天記錄,既可能成為訓(xùn)練新版人工智能的素材,也可能因?yàn)閿?shù)據(jù)泄露而曝光。以下列舉用戶應(yīng)當(dāng)避免輸入的內(nèi)容,并分享一些保護(hù)的對(duì)話技巧:

聊天機(jī)器人逼真的人性化表達(dá)方式常會(huì)使人放下戒備。斯坦福以人為本人工智能研究所研究員詹妮弗·金(Jennifer King)提醒,一旦在聊天機(jī)器人中輸入信息,“你就失去了對(duì)這些信息的掌控?!?/p>

2023年3月,漏洞使得部分用戶可以窺見(jiàn)他人初始對(duì)話內(nèi)容,所幸公司很快就修復(fù)了漏洞。Open此前還曾誤發(fā)訂閱確認(rèn)郵件,導(dǎo)致用戶姓名、電子郵件地址和支付信息外泄。

若遭遇數(shù)據(jù)黑客攻擊或需配合司法搜查令,聊天記錄可能被包含在泄露數(shù)據(jù)中。建議為賬戶設(shè)置高強(qiáng)度密碼并啟用多重認(rèn)證,同時(shí)避免輸入以下具體信息:

身份標(biāo)識(shí)信息。包括社會(huì)保障號(hào)碼、駕照號(hào)碼和護(hù)照號(hào)碼,出生日期、住址和聯(lián)系電話。部分聊天機(jī)器人具備此類信息自動(dòng)脫敏功能,系統(tǒng)會(huì)主動(dòng)屏蔽敏感字段。發(fā)言人表示,“我們致力于讓人工智能模型學(xué)習(xí)世界而非個(gè)人隱私,并積極減少個(gè)人信息收集?!?/p>

醫(yī)療檢測(cè)報(bào)告。醫(yī)療保密制度本為防止歧視和尷尬,但聊天機(jī)器人通常不受醫(yī)療數(shù)據(jù)的特殊保護(hù)。若需要人工智能解讀檢測(cè)報(bào)告,斯坦福研究中心的金建議:“請(qǐng)先對(duì)圖片或文檔進(jìn)行裁剪編輯處理,盡量只保留測(cè)試結(jié)果,并對(duì)其他信息進(jìn)行脫敏處理?!?/p>

金融賬戶信息。銀行及投資賬戶號(hào)碼可能成為資金監(jiān)控或盜取的突破口,務(wù)必嚴(yán)加防護(hù)。

公司機(jī)密信息。如果用戶在工作中喜歡使用各種通用版聊天機(jī)器人,即使只是編寫(xiě)一封普通電子郵件,也可能無(wú)意中泄露客戶數(shù)據(jù)或商業(yè)機(jī)密。三星曾因工程師向ChatGPT泄露內(nèi)部源代碼,全面禁用該服務(wù)。如果人工智能對(duì)工作確實(shí)有幫助,企業(yè)就應(yīng)當(dāng)選擇商用版或者部署定制化人工智能系統(tǒng)。

登錄憑證。隨著能夠執(zhí)行各種現(xiàn)實(shí)任務(wù)的智能體興起,向聊天機(jī)器人提供賬戶憑證的需求增多。但這些服務(wù)并非按數(shù)字保險(xiǎn)庫(kù)標(biāo)準(zhǔn)構(gòu)建,密碼、PIN碼及密保問(wèn)題應(yīng)該交由專業(yè)密碼管理器保管。

當(dāng)用戶對(duì)機(jī)器人回復(fù)給予好評(píng)或差評(píng)時(shí),可能視為允許將提問(wèn)及AI回復(fù)用于評(píng)估和模型訓(xùn)練。如果對(duì)話因涉及暴力等敏感內(nèi)容而被標(biāo)記,公司員工甚至可能會(huì)進(jìn)行人工審核。

Anthropic公司開(kāi)發(fā)的Claude默認(rèn)不將用戶對(duì)話用于訓(xùn)練人工智能,并會(huì)在兩年后刪除這些數(shù)據(jù)。的ChatGPT、微軟的Copilot和谷歌的Gemini雖然會(huì)使用對(duì)話數(shù)據(jù),但都在設(shè)置中提供關(guān)閉這項(xiàng)功能的選項(xiàng)。如果用戶注重隱私,可以參考以下建議:

定期刪除記錄。Anthropic首席信息安全官杰森·克林頓(Jason Clinton)建議,謹(jǐn)慎型用戶要及時(shí)清理對(duì)話。人工智能公司通常會(huì)在30天后清除被標(biāo)記為“已刪除”的數(shù)據(jù)。啟用臨時(shí)對(duì)話。ChatGPT的“臨時(shí)聊天”功能類似于瀏覽器的無(wú)痕瀏覽模式。用戶啟用后,可防止信息被存入用戶檔案。此類對(duì)話既不保存歷史記錄,也不會(huì)用于訓(xùn)練模型。

匿名提問(wèn)。隱私搜索引擎支持匿名訪問(wèn)Claude、GPT等主流人工智能模型,承諾這些數(shù)據(jù)不會(huì)用于模型訓(xùn)練。雖然無(wú)法實(shí)現(xiàn)全功能聊天機(jī)器人的文件分析等高級(jí)操作,但基礎(chǔ)問(wèn)答足夠使用。

謹(jǐn)記,聊天機(jī)器人永遠(yuǎn)樂(lè)于繼續(xù)對(duì)話,但何時(shí)結(jié)束對(duì)話或點(diǎn)擊“刪除”鍵,始終取決于用戶自己。



評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉