認為AI 工具不會收集你的數據?再猜


由於OpenAI 的ChatGPT、Dall-E 和Lensa 等以用戶為中心的產品,生成人工智能的迅速崛起創造了真正的技術轟動。但是,用戶友好型AI 的蓬勃發展與用戶似乎忽視或對這些項目帶來的隱私風險一無所知有關。

然而,在所有這些炒作中,國際政府和主要科技人物開始敲響警鐘。出於隱私和安全方面的考慮,意大利剛剛對ChatGPT 實施了臨時禁令,這可能會在德國引發類似的封鎖。在私營部門,包括埃隆馬斯克和史蒂夫沃茲尼亞克在內的數百名人工智能研究人員和技術領袖簽署了一封公開信,敦促在六個月內暫停GPT-4 範圍之外的人工智能開發。

試圖遏制不負責任的AI 開發的相對迅速的行動值得稱讚,但AI 對數據隱私和安全構成的更廣泛威脅超出了一個模型或開發人員。儘管沒有人願意對AI 的範式轉換能力大加指責,但現在有必要正面解決它的缺點,以避免後果變得災難性。

人工智能的數據隱私風暴

雖然可以很容易地說OpenAI 和其他由大型技術推動的AI項目全權負責AI 的數據隱私問題,但這個話題在進入主流之前很久就已經被提出來了。在打擊ChatGPT 之前,圍繞AI 數據隱私的醜聞就已經發生了——它們大多發生在公眾視線之外。

就在去年,據報導,成千上萬的政府和執法機構在公眾知識有限的情況下使用基於人工智能的面部識別公司Clearview AI 被禁止向美國私營企業出售面部識別技術。 Clearview 還因其非法面部識別數據庫在英國被罰款940 萬美元。誰能說Midjourney 或其他以消費者為中心的視覺AI項目不能用於類似目的?

面部識別技術公司Clearview AI 已經確認我的臉在他們的數據庫中。我給他們發了一張頭像,他們回復了這些照片,以及他們獲得照片的鏈接,包括一個名為“Insta Stalker”的網站。 pic.twitter.com/ff5ajAFlg0

– Thomas Daigle (@thomasdaigle) 2020 年6 月9 日

問題是他們已經是了。最近一系列涉及通過消費級AI 產品製造的色情和假新聞的深度偽造醜聞只會加劇保護用戶免受惡意AI 使用的緊迫性。它採用數字模仿的假設概念,使其成為對普通人和有影響力的公眾人物的非常真實的威脅。

伊麗莎白·沃倫(Elizabeth Warren) 希望警察在2024 年上門

生成式AI 模型從根本上依賴於新的和現有的數據來構建和增強它們的能力和可用性。這是ChatGPT 如此令人印象深刻的部分原因。話雖如此,依賴於新數據輸入的模型需要從某個地方獲取數據,而其中的一部分將不可避免地包括使用它的人的個人數據。如果中心化實體、政府或黑客掌握了這些數據,那麼這些數據很容易被濫用。

那麼,在綜合監管範圍有限和圍繞AI 開發的意見不一的情況下,使用這些產品的公司和用戶現在可以做什麼?

公司和用戶可以做什麼

事實上,政府和其他開發人員現在正在圍繞AI 舉旗,這實際上表明Web2 應用程序和加密貨幣監管的緩慢步伐取得了進展。但舉旗與監督不同,因此保持緊迫感而不是危言聳聽對於在為時已晚之前製定有效的法規至關重要。

意大利的ChatGPT 禁令並不是政府對人工智能採取的第一次打擊。歐盟和巴西都在通過法案來製裁某些類型的AI 使用和開發。同樣,生成式人工智能可能會導致數據洩露,這引發了加拿大政府的早期立法行動。

AI 數據洩露問題相當嚴重,甚至OpenAI 不得不介入。如果你在幾週前打開ChatGPT,你可能會注意到聊天記錄功能被關閉了。 OpenAI 暫時關閉該功能是因為存在嚴重的隱私問題,陌生人的提示會被暴露並洩露支付信息。

如果AI 試圖破壞你的加密貨幣,請不要感到驚訝

雖然OpenAI 有效地撲滅了這場大火,但很難相信由Web2 巨頭帶頭的計劃會削減他們的AI 道德團隊以先發製人地做正確的事情。

在整個行業層面,更側重於聯合機器學習的人工智能發展戰略也將促進數據隱私。聯邦學習是一種協作式AI 技術,它可以在沒有任何人訪問數據的情況下訓練AI 模型,而是利用多個獨立的來源用他們自己的數據集來訓練算法。

在用戶方面,成為AI Luddite 並完全放棄使用任何這些程序是不必要的,而且很可能很快就不可能了。但是有一些方法可以讓你在日常生活中更聰明地了解你授予訪問權限的生成人工智能。對於將AI 產品納入其運營的公司和小型企業而言,對向算法提供的數據保持警惕更為重要。

常青樹說,當你使用免費產品時,你的個人數據就是該產品仍然適用於AI。記住這一點可能會讓你重新考慮你花時間在哪些AI項目上,以及你實際使用它的目的。如果你參與了每一個涉及將你自己的照片提供給一個陰暗的人工智能網站的社交媒體趨勢,請考慮跳過它。

ChatGPT 在推出僅兩個月後就達到了1 億用戶,這是一個驚人的數字,清楚地表明我們的數字未來將利用人工智能。但是儘管有這些數字,AI 還不是無處不在。監管機構和公司應該利用這一優勢,主動創建負責任和安全的AI 開發框架,而不是一旦項目變得太大而無法控制就追逐它。就目前而言,生成式AI 的開發在保護和進步之間並不平衡,但仍有時間找到正確的路徑,以確保用戶信息和隱私保持在最前沿。

Ryan Paterson 是Unplugged 的​​總裁。在超越Unplugged 之前,他曾於2008 年至2020 年擔任IST Research 的創始人、總裁兼首席執行官。他於2020 年9 月出售公司後退出IST Research。他曾兩次在國防高級研究局和在美國海軍陸戰隊服役12 年。

埃里克·普林斯(Erik Prince) 是一位企業家、慈善家和海軍海豹突擊隊退伍軍人,其商業利益遍及歐洲、非洲、中東和北美。在2010 年出售該公司之前,他曾擔任Frontier Resource Group 的創始人兼董事長以及Blackwater USA 的創始人——Blackwater USA 是一家為美國政府和其他實體提供全球安全、培訓和物流解決方案的供應商。

本文僅供參考,無意也不應被視為法律或投資建議。此處表達的觀點、想法和意見僅代表作者個人,並不一定反映或代表Cointelegraph 的觀點和意見。

資訊來源:由0x資訊編譯自COINTELEGRAPH。版權歸作者Erik Prince & Ryan Paterson所有,未經許可,不得轉載

Total
0
Shares
Related Posts