偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

為什么不要向AI聊天機器人咨詢健康問題?

人工智能 機器人
專家表示,鑒于之前我們傾向于通過搜索引擎查詢健康問題,我們也不可避免地會向ChatGPT、Bing和Bard等工具提問。然而,這些工具會犯一些我們熟悉的隱私錯誤,并且還會創(chuàng)造一些新的錯誤。

4月28日消息,自從OpenAI、微軟和谷歌推出了AI聊天機器人,許多人開始嘗試一種新的互聯(lián)網(wǎng)搜索方式:與一個模型進行對話,而它從整個網(wǎng)絡上學到的知識。

專家表示,鑒于之前我們傾向于通過搜索引擎查詢健康問題,我們也不可避免地會向ChatGPT、Bing和Bard等工具提問。然而,這些工具會犯一些我們熟悉的隱私錯誤,并且還會創(chuàng)造一些新的錯誤?!跋M者至少應該以懷疑的態(tài)度看待這些工具,因為和其他許多流行技術一樣,它們都受到了廣告和營銷力量的影響?!?/p>

在向人工智能聊天機器人分享敏感健康信息或任何其他秘密之前,有幾個需要知道的事情:

1、這些機器人會保存我的聊天記錄嗎?

沒錯,ChatGPT、Bing和Bard都會存儲用戶的輸入。不過,谷歌Bard正在對少量用戶進行測試,它提供了一個設置,讓用戶可以要求該公司停止保存查詢記錄,并取消與用戶的谷歌賬戶相關聯(lián)。只需點擊左上角的菜單欄并關閉“Bard Activity”即可。

而用戶也可以在OpenAI的設置中關閉“聊天歷史記錄和訓練”選項,從而限制聊天記錄的保存時間。公司表示,關閉后將僅保存聊天記錄30天,并避免將其用于人工智能的訓練。

2、這些公司拿我們的聊天記錄干什么?

這些公司利用用戶的查詢和回復來訓練人工智能模型,以提供更好的答案。但是,這些聊天記錄的用途不止于此。谷歌和微軟在推出人工智能聊天機器人時,在隱私政策中也留出了使用用戶聊天日志進行廣告的空間。這就意味著,如果你提問矯形鞋相關的問題,將來你可能會看到這方面的廣告。

這樣的廣告可能對用戶的影響不大。但是,當健康問題和數(shù)字廣告交叉時,就可能會帶來傷害。此前的報道顯示,包括WebMD和Drugs.com在內(nèi)的許多癥狀檢查站點與外部廣告公司分享了用戶潛在的敏感健康問題,如抑郁癥或艾滋病毒,以及用戶標識符。

此外,數(shù)據(jù)經(jīng)紀人也會向買家出售大量的人員名單和他們的健康擔憂清單,這些買家可能包括政府或保險公司。有些患有慢性疾病的人報告說,他們在互聯(lián)網(wǎng)上看到了令人不安的定向廣告。

鑒于此,用戶應該考慮他們有多大程度上相信這些公司會保護他們的數(shù)據(jù),以避免侵入性廣告,并決定與谷歌或微軟分享多少健康信息。

OpenAI則表示,公司只會保存用戶的搜索結果來訓練和改進其模型。OpenAI發(fā)言人表示,該公司不會利用用戶與聊天機器人的互動來建立用戶檔案或打廣告,未來也沒有這樣的計劃。

隱私非營利組織電子前沿基金會的社區(qū)組織副主任羅里·米爾(Rory Mir)表示,有些人可能不希望自己的數(shù)據(jù)被用于人工智能培訓,而不管這些公司在廣告方面采取什么樣的立場。他補充說:“在某個時候,他們掌握的數(shù)據(jù)可能會落入另一家你不那么信任的公司手中?!?/p>

3、會有人查看我的聊天記錄嗎?

有時候,會有人工審查員參與審核聊天機器人的回答。這意味著,他們也會看到用戶查詢的問題。例如,谷歌保存了很多聊天記錄以供審查和注釋,最長可保存四年。盡管這些審查員無法查看用戶的谷歌賬戶,但是谷歌還是建議用戶在聊天中不要分享任何個人身份信息,包括姓名、地址或其他可以識別用戶或其他人的細節(jié)。

4、我的聊天記錄會被保存多長時間?

米爾表示:“公司收集我們的數(shù)據(jù)并長期保存可能會帶來隱私和安全風險,這些公司可能會被黑客入侵,或者與不值得信任的商業(yè)伙伴分享這些數(shù)據(jù)?!?/p>

OpenAI的隱私政策顯示,該公司保存用戶數(shù)據(jù)的時間為“僅限于我們?yōu)橛脩籼峁┓栈蚱渌戏ㄉ虡I(yè)目的所需的時間”。這可能是無限期的,該公司發(fā)言人拒絕具體說明。

另外,谷歌和微軟也會保留用戶的數(shù)據(jù),直到用戶請求刪除。

5、我能相信機器人提供的健康信息嗎?

美國約翰·霍普金斯大學商學院人工智能對醫(yī)療保健影響的運營管理和商業(yè)分析教授戴廷龍表示,互聯(lián)網(wǎng)就像是健康信息的聚集袋,有些信息有用,有些則不是很有用。在篩選垃圾信息方面,像ChatGPT這樣的大型語言模型可能比常規(guī)搜索引擎做得更好。

例如,ChatGPT可能比Google Scholar更好地幫助某人找到與他們特定癥狀或情況相關的研究。在戴廷龍教授的研究中,他正在檢查聊天機器人是否能夠正確診斷醫(yī)生未能發(fā)現(xiàn)的罕見疾病。

但戴廷龍教授指出,這并不意味著我們應該依賴聊天機器人提供準確的健康指導。他說,這些模型已經(jīng)被證明可以編造信息,并將其作為事實呈現(xiàn)出來,而它們的錯誤答案可能讓人覺得相當可信。

此外,人工智能模型還通過不可靠的來源獲得信息。比如,當用戶詢問為什么總是感到疲憊不堪時,Bard可能會提供許多可能的答案,甚至引用一個關于小西施犬性情的網(wǎng)站。再加上人類傾向于過于信任聊天機器人的推薦,這很可能造成大問題。

戴廷龍教授警告稱:“雖然這項技術的表現(xiàn)令人印象深刻,但現(xiàn)在它就像是嬰兒,或者可能像十幾歲的孩子。人們只是在測試它,而當人們開始依賴它時,它就會變得非常危險?!?/p>

6、如何查詢健康信息才能確保安全?

由于獲得醫(yī)療保健的機會參差不齊或費用高昂,并不是每個人在感覺不舒服時都能去看醫(yī)生。如果你不想讓自己的健康問題被保存在某個公司的服務器上,或者成為廣告的素材,那么可以使用隱私保護瀏覽器。

在注冊任何基于人工智能聊天的健康服務(比如治療機器人)之前,首先要了解這項技術的局限性,并檢查該公司的隱私政策,看看它是否使用數(shù)據(jù)來“改善服務”,或者與未透露身份的“供應商”或“商業(yè)合作伙伴”共享數(shù)據(jù)。這兩個詞通常都是廣告商的委婉說法。(小?。?/p>

責任編輯:龐桂玉 來源: 網(wǎng)易科技
相關推薦

2023-05-02 22:34:21

聊天機器人人工智能

2022-07-05 06:42:01

聊天機器人人工智能

2023-02-28 07:59:19

OpenAI聊天機器人

2021-05-24 15:29:24

人工智能機器人聊天

2019-03-22 09:00:00

AI人工智能聊天機器人

2023-02-15 14:33:26

2020-08-14 16:18:30

人工智能

2024-09-30 13:11:09

2023-03-29 13:07:34

微軟網(wǎng)絡安全聊天機器人

2023-03-07 07:52:47

ChatGPT人工智能

2024-11-08 15:31:55

2020-12-02 13:00:17

Recast.AI聊天機器人人工智能

2023-09-28 20:57:23

Meta人工智能聊天機器人

2022-07-05 11:32:16

人工智能機器人心理健康

2023-06-29 15:04:21

微軟ChatGPT

2016-02-16 14:46:33

聊天機器人機器學習自然語言

2023-12-18 19:05:34

2020-02-02 09:19:14

聊天機器人機器人智能

2019-12-19 16:08:40

人工智能機器人數(shù)據(jù)
點贊
收藏

51CTO技術棧公眾號