在生成型人工智能熱潮中,消費者要求道德的人工智能使用、人工驗證和數據保護


在ChatGPT、Bard 和Midjourney 等生成型人工智能(AI) 工具空前大幅上漲的時代,最近的一份報告揭示了消費者和使用這種尖端技術的公司之間的不信任鴻溝日益擴大。隨著消費者越來越關注數據安全風險、不道德行為和偏見,現在人們關注的焦點是人工智能開發的道德、透明度和安全性。

Salesforce 最近發布的《互聯客戶狀況》報告充分證明了消費者普遍存在的懷疑態度。該調查收集了超過14,300 名企業買家和消費者的見解,強調只有13% 的消費者完全信任企業對人工智能的道德使用。另一方面,有相當多的10% 的人對企業部署生成式人工智能完全不信任。

只有13% 的消費者對企業對人工智能的道德利用充滿信心。
來源:Salesforce 調查

隨著生成式人工智能領域繼續以驚人的速度發展,Salesforce 的研究強調了圍繞該技術的明顯擔憂。數據安全、人工智能的道德應用以及潛在的偏見是主要擔憂。值得注意的是,89% 的消費者強調了解他們是在與人類還是人工智能實體進行交互的重要性。此外,80% 的人主張由人類驗證人工智能生成的輸出,強調人類必須在循環中發揮關鍵作用。

為了緩解這些擔憂,人工智能領域的重要參與者,包括谷歌和OpenAI 等科技巨頭,已承諾維護安全和透明的人工智能開發。這些承諾通過對數據保護的認可獲得了進一步的動力,強化了行業對消費者信任至關重要的集體認識。

Salesforce 首席道德官Paula Goldman 就增強消費者信任提出了令人信服的觀點。她強調,除了數據收集之外,重點還應該擴展到保護客戶數據和信任。高盛強調,應制定穩健的方法來確保數據的神聖性,進而確保客戶的信心。

然而,對道德和透明度的重新重視並不僅限於私營部門。在立法行動領域,美國參議員於6 月提出了兩黨人工智能法案,主張在後續決策中進行人類監督,並要求明確披露人工智能是否用於公共互動。英國也準備發佈人工智能監管白皮書,併計劃在今年晚些時候舉辦人工智能監管全球峰會。

然而,在這些消除疑慮的舉措中,出現了令人擔憂的趨勢。 ChatGPT 等生成式人工智能的集成在旨在提高生產力的企業中的採用率顯著上漲。然而,出現了一種令人不安的模式,大量員工無意中向這些人工智能機器人洩露了敏感的公司數據。

網絡安全公司Group-IB 的研究報告強調了這一令人擔憂的情況,顯示暗網上可用的遭到洩露的ChatGPT 憑證已大幅上漲至驚人的100,000 個。該數據表明,僅2023 年5 月就有26,802 個賬戶被盜,創下了令人不安的歷史新高,這凸顯了採取嚴格數據保護措施的必要性。

雖然生成式人工智能前景有望帶來創新和效率,但需要立即關注的是對道德、透明度和數據安全的日益重視。隨著生成式人工智能的蓬勃發展,彌合信任差距仍然是一個關鍵挑戰——不僅需要技術進步,還需要道德要求。

在持續不斷的討論中,國際勞工組織(ILO)最近發布了一項研究,探討生成式人工智能對就業的潛在影響。雖然報告表明,短期內勞動力可能不會經歷劇烈的動盪,但某些部門,例如行政和客戶服務職位,可能會發生重大轉變。

國際勞工組織的研究揭示了各種工作任務對自動化的敏感性,表明24% 的文書任務高度暴露於自動化,另外58% 面臨中等程度的暴露。打字員、旅行顧問和銀行出納員等角色處於自動化風險的最前沿。有趣的是,該報告強調,由於採用生成式人工智能,擔任行政職位的女性可能會首當其沖地遭受工作崗位流失的影響。

隨著人工智能進步的新時代拉開帷幕,社會發現自己正在應對多方面的問題。平衡創新與道德,利用人工智能的潛力,同時維護消費者的信任,仍然是一場複雜的舞蹈,它將塑造技術的軌跡以及人類與技術的關係。

資訊來源:由0x資訊編譯自TODAYQ。版權歸作者Om Labde所有,未經許可,不得轉載

Total
0
Shares
Related Posts