總長DR
Whittaker:人工智慧與監視、預測和影響生活有關。人工智慧的創造依賴於報酬低廉的人類勞動,對其智力提出了挑戰。隨著人工智慧收集資料並導致洩露,隱私問題日益凸顯。
在接受TechCrunch 的Devin Coldewey 的坦誠採訪中,Signal 執行長 Meredith Whittaker 表達了她對人工智慧(AI) 與隱私交叉的嚴重擔憂。她強烈斷言,人工智慧從根本上與監控商業模式交織在一起,並將加劇自20 世紀90 年代末以來不斷出現的隱私挑戰,特別是隨著監控廣告的出現。
惠特克毫不諱言地宣稱,「這需要監控商業模式; 這是我們自90 年代末以來所看到的情況以及監控廣告的發展的加劇。 我認為人工智慧是鞏固和擴展監控業務模式的一種方式。 」她的信念不容置疑:人工智慧和監控之間的重疊類似於完美匹配的維恩圖。
她接著強調,人工智慧的使用本質上是監視性的。惠特克提供了一個令人心酸的例子:經過配備偽科學情緒識別功能的臉部辨識攝影機會導致產生有關個人情緒狀態的數據,這些數據通常不準確且具有侵入性。這些系統本質上是監視機制,正在向對普通個人擁有權力的實體(雇主、政府、邊境管制機構)推銷,使他們能夠做出直接影響資源和機會獲取的決定和預測。
她深入研究了創建人工智慧系統的勞動密集本質。惠特克強調,人類的輸入對於塑造數據的基本事實是不可或缺的,它依賴於諸如帶有人類反饋的強化學習之類的技術,她將其描述為一種「技術清洗不穩定的人類勞動」。數以千計的工人儘管各自獲得的報酬微乎其微,但他們共同承擔了與開發這些系統相關的巨額費用。在她看來,人工智慧產業的智慧外表往往掩蓋了對人類努力的嚴重依賴,而當拉開序幕時,往往會發現缺乏真正智慧的深度。
隱私已成為人工智慧領域的一個迫切問題。人工智慧模型貪婪地消耗大量資料集,使個人重新獲得對其個人資訊的控制權的資源有限。人工智慧與隱私的交叉也為許多公司帶來了噩夢,因為一些科技業巨頭無意中透過人工智慧驅動的聊天機器人暴露了敏感的公司數據和商業秘密。
隨著人工智慧在各個領域的不斷擴散,隱私的未來與該技術的發展越來越緊密地交織在一起。
監控商業模式:與人工智慧的令人不安的結合
惠特克關於人工智慧與監控商業模式深度融合的說法,與越來越多的人對數位時代隱私受到侵蝕的擔憂產生了共鳴。 20 世紀90 年代末監控廣告的興起標誌著個人資料收集和利用方式的重大轉折。隨著人工智慧的出現,這種令人不安的趨勢似乎將會加劇。
人工智慧技術不僅僅是被動的參與者; 他們積極參與監視。臉部辨識系統增強了可疑的情緒辨識功能,這是人工智慧如何在未經個人同意或準確表示的情況下產生有關個人的數據的典型例子。其後果是深遠的,因為這些數據被雇主、政府和邊境管制機構等強大實體利用來做出改變生活的決定和預測。
人工智慧背後隱藏的人類勞動
惠特克揭開層層真相,揭示了一個令人不安的現實:人工智慧系統的創建在很大程度上依賴人類勞動力,而這些勞動力經常受到剝削且報酬過低。利用人類回饋進行強化學習等技術看似前沿,但卻掩蓋了開發人工智慧的真正成本。成千上萬的工作人員辛勤工作以告知數據的真實情況,他們的努力共同轉化為巨額費用。這項發現消除了人工智慧本質上是智慧的觀念。相反,它強調了人類貢獻對其運作不可或缺的程度。
人工智慧時代隱私的岌岌可危地位
隱私或缺乏隱私越來越成為圍繞人工智慧擴展的討論的最前沿。隨著人工智慧模型貪婪地消耗大量數據,個人發現自己重新獲得對其個人資訊的控制的選擇有限。同時,企業正在努力應對人工智慧帶來的意想不到的後果,人工智慧驅動的聊天機器人導致的私人企業資料和商業機密的高調洩漏就證明了這一點。
人工智慧和隱私的融合引發了關於個人資料和個人自主權的未來的深刻問題。隨著人工智慧越來越深入融入日常生活,個人必須應對人工智慧監控能力的深遠影響。這是一個複雜的問題,需要認真考慮並採取積極措施來保護隱私權。
免責聲明。所提供的資訊並非交易建議。 Cryptopolitan.com 對根據本頁提供的資訊進行的任何投資不承擔任何責任。我們強烈建議在做出任何投資決定之前進行獨立研究和/或諮詢合格的專業人士。
資訊來源:由0x資訊編譯自CRYPTOPOLITAN。版權歸作者Derrick Clinton所有,未經許可,不得轉載