在生成式人工智慧的魅力與安全問題並存的世界裡,德勤的一項調查揭露了工作場所採用的秘密浪潮。十分之一的英國成年人偷偷地將類似ChatGPT 的服務納入他們的日常任務中,這引發了有關管理層認可和未經檢查的使用風險的質疑。
隨著錯綜複雜的情況逐漸展開,各大公司都在謹慎行事,要么徹底禁止,要么(以麥肯錫和安盛為例)為特定任務實施有監督的生成式人工智慧。這標誌著技術採用及其影響的持續傳奇的關鍵時刻。
生成式人工智慧的採用悄悄興起
在全球辦公空間的陰影下,員工正在悄悄地將生成式人工智慧整合到他們的工作流程中,繞過管理審查。德勤的調查結果表明,人們對這些模型的限制缺乏認識,其中很大一部分人認為模型的準確性和公正性是堅定不移的。
從無意的資料外洩到敏感資訊的剽竊,潛在的危險都是不祥的威脅。在大西洋彼岸,財富500 強公司中70% 的美國員工謹慎地利用ChatGPT,導致Verizon 等相關企業實體受到嚴格禁令。
在這場隱藏的生成式人工智慧革命中,生產力與安全風險的問題懸而未決。雖然一些公司選擇徹底禁止以防止潛在的資料洩露,但其他公司則看到了監督整合的機會。麥肯錫讓一半員工在監督下使用生成式人工智慧的大膽舉措,體現了平衡技術進步與安全問題的微妙方法。
在生成式人工智慧革命中打造企業護欄
隨著各大公司努力應對生成式人工智慧的日益普及,一個關鍵面向出現了——內部護欄的打造。麥肯錫認識到監督的必要性,並決定允許監督使用,這開創了先例。建立適當使用指南和閾值的過程成為委員會驅動的工作,各部門組成專門的工作小組。
生成式人工智慧專家Henry Ajder 闡明了這些護欄之間的共通性,強調有關數據使用、客戶揭露以及最終應用或輸出中人工監督的必要性的明確規則。但是,每個行業內的細微差別會導致差異。擁有雄厚合規預算的金融機構和律師事務所甚至可能在部門層級施加限制,針對與不同業務職能相關的特定風險制定指導方針。
然而,隨著這些護欄的形成,責任問題仍然難以捉摸。如果生成式人工智慧在工作流程中引入錯誤,那麼確定責任就變成一件棘手的事情。 Ajder 對使用生成式人工智慧的公司內部層級責任結構的見解強調了員工面臨的潛在挑戰。 「責任由管理模型的經理負責」這個概念意味著監督人工智慧系統的經理與對任何引入的錯誤負責之間存在直接聯繫。這項觀察結果表明,員工可能會感到驚愕,他們可能會在沒有全面了解可能後果的情況下被迫採用生成式人工智慧服務。
透過生成式人工智慧整合確保企業生產力
隨著企業在生成式人工智慧整合的未知領域中航行,生產力和安全性之間的平衡行為日益加劇。麥肯錫的大膽舉措和AXA 的安全GPT 部署強調了這樣一種信念:受監督的使用可以在不影響安全性的情況下釋放生產力。
懸而未決的問題是,其他公司是否會效仿,在精心設計的護欄內謹慎地擁抱生成人工智慧,還是繼續選擇徹底禁止。在這場風險和回報不斷變化的技術舞蹈中,企業界必須解決這樣一個問題:生成式人工智慧能否真正在工作場所安全地利用?
資訊來源:由0x資訊編譯自CRYPTOPOLITAN。版權歸作者Aamir Sheikh所有,未經許可,不得轉載