不要相信人工智慧女友——她們只想要你的數據


今天是情人節,數位戀情正在蓬勃發展。在世界各地,孤獨的心正向虛擬戀人敞開。但他們的秘密並不像看起來那麼安全。

根據Mozilla 的一項新分析,人工智慧女友會收集大量私人和私密數據。然後可以與行銷人員、廣告商和數據經紀人分享這些資訊。它還容易洩漏。

研究團隊調查了11 個流行的浪漫聊天機器人,包括Replika、Chai 和Eva。光是Google Play 上就有大約1 億人下載了這些應用程式。

使用人工智慧,聊天機器人可以模擬與虛擬女友、靈魂伴侶或朋友的互動。為了進行這些對話,系統會取得大量個人資料。

這些資訊通常極為敏感和明確。

「AI 浪漫聊天機器人收集的數據遠遠超出了我們認為的『典型』數據點,例如位置和興趣,」Mozilla *隱私不包括項目的研究員Misha Rykov 告訴TNW。

“我們發現一些應用程式會突出顯示用戶的健康狀況,並在他們接受藥物或性別肯定護理時進行標記。”

Mozilla 稱這些保障措施「不夠充分」。 11 個聊天機器人中有10 個未能滿足公司的最低安全標準,例如要求強密碼。

例如,Replika 因記錄用戶發布的所有文字、照片和影片而受到批評。根據Mozilla 的說法,該應用程式「肯定」向廣告商分享並「可能」出售行為。由於可以使用弱密碼(例如“11111111”)建立帳戶,因此使用者也很容易受到駭客攻擊。

AI女友正在隱藏秘密

追蹤器在浪漫聊天機器人上很常見。在Romantic AI 應用程式上,研究人員在使用後短短一分鐘內就發現了至少24,354 個追蹤器。

這些追蹤器可以在未經用戶明確同意的情況下向廣告商發送資料。 Mozilla 懷疑他們可能違反了GDPR。

EVA AI 聊天機器人和Soulmate 的截圖

研究人員發現,有關資料收集的公開資訊很少。隱私權政策很少。有些聊天機器人甚至沒有網站。

用戶控制也可以忽略不計。大多數應用程式並沒有為用戶提供將親密聊天排除在人工智慧模型訓練資料之外的選項。只有一家公司——總部位於伊斯坦堡的Genesia AI——提供了可行的選擇退出功能。

浪漫的聊天機器人很誘人

人工智慧女友的說服力可能非常危險。他們被指責自殺身亡,甚至企圖暗殺伊莉莎白二世女王。

「人工智慧關係聊天機器人最可怕的事情之一是操縱用戶的可能性,」里科夫說。

“如何阻止不良行為者創建旨在了解他們的靈魂伴侶的聊天機器人,然後利用這種關係操縱這些人做可怕的事情,接受可怕的意識形態,或傷害自己或他人?”

儘管存在這些風險,這些應用程式經常被宣傳為心理健康和福祉平台。但他們的隱私權政策卻說了不同的故事。

例如,Romantic AI 在其條款和條件中指出,該應用程式「既不提供醫療保健或醫療服務,也不提供醫療保健、心理健康服務或其他專業服務」。

然而,在該公司的網站上,卻有一條截然不同的訊息:“浪漫人工智慧是為了維護你的心理健康。”

Mozilla 呼籲採取進一步的保障措施。至少,他們希望每個應用程式都提供一個用於培訓資料的選擇加入系統,並清楚地說明這些資訊會發生什麼情況。

理想情況下,研究人員希望聊天機器人按照「資料最小化」原則運作。在這種方法下,應用程式只會收集產品功能所需的內容。他們還將支持「刪除」個人資訊的權利。

目前,Rykov 建議用戶謹慎行事。

「記住,一旦你在網路上分享了這些敏感訊息,就無法收回,」她說。 “你已經失去了對它的控制。”

資訊來源:由0x資訊編譯自THENEXTWEB。版權歸原作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts