概括
印度計算機應急小組(CERT-IN)警告不要在AI設計,培訓和互動機制中漏洞
網絡安全監管機構指出,所有AI應用程序都不安全,因此建議用戶註冊他們考慮使用與其個人或專業身份無關的匿名帳戶
根據CERT-IN的最新建議,“漏洞”包括技術中毒,對抗攻擊,模型反轉,及時注入和幻覺開發等技術問題
印度計算機應急響應小組(CERT-IN)警告說,在AI設計,培訓和互動機制方面有多種“漏洞”。
網絡安全監管機構指出,所有AI應用程序都不安全,因此建議用戶註冊他們考慮使用與其個人或專業身份無關的匿名帳戶。
根據最新的建議,“漏洞”包括技術中毒,對抗性攻擊,模型反轉,及時注射和幻覺開發等技術問題。
該諮詢進一步表示,AI已加速了常規任務的自動化,促進創造力並支持業務功能,例如客戶服務,物流,醫學診斷和網絡安全。
Cert-In說:“人工智能已成為創新的標誌,徹底改變了從醫療保健到通訊的行業。AI越來越多地用於處理人類傳統上的活動。”
該註釋強調了六種主要攻擊類型,這些攻擊對AI應用程序的安全性,可靠性和可信度構成了重大威脅:
數據中毒:操縱培訓數據以產生不准確或惡意輸出
對抗性攻擊:更改輸入以欺騙AI模型以給出錯誤的預測
模型反轉:通過分析提取有關培訓數據的敏感信息
模型竊取:通過重複查詢AI模型來複製AI模型
及時注射:引入惡意說明以繞過AI保障措施
幻覺剝削:利用AI產生製作產出的趨勢
該諮詢公司說,威脅參與者可以利用對AI應用程序的不斷增長的需求來創建旨在欺騙用戶下載它們的假應用程序。
諮詢說,如果有人在其設備上下載了這些假AI應用程序,則最大化的機會是安裝旨在竊取所有數據的惡意軟件,要求用戶在單擊“下載”按鈕之前練習盡職調查,以最大程度地減少AI網絡安全風險。
這也是在電子和信息技術部(MEITY)建議建立專用的AI治理委員會以審查和授權該國的AI應用程序的幾天之後。
該框架要求授權擬議董事會擁有權力,以確保AI計劃與法律文書保持一致並解決道德考慮。根據能力框架,除了治理委員會外,Meity還主張“ AI倫理委員會”,以設計和將標準AI實踐整合到所有項目階段中。
監管推動力還與印度AI生態系統的快速發展相似,公共部門和私營部門都進行了大量投資。本月初,Meity推出了Indiaai Compute Portal,一個統一的數據集平台Aikosha,以及針對本土AI初創公司的加速器計劃,作為較大INR 10,300 CR Indiaai Mission的一部分。
在私營部門,JIO平台最近宣布了基於雲的PC的計劃,以幫助用戶與開發“ Jiobrain”開發計算密集型AI應用程序,這是一種機器學習,可以為企業提供服務。
根據BCG和NASSCOM報告,到2027年,印度的AI市場可能達到170億美元,複合年增長率為25-35%。 IDC預測在印度的AI支出到2027年將達到60億美元,從2022年開始每年增長33.7%。
資訊來源:由0x資訊編譯自INC42。版權歸作者Krithika KL所有,未經許可,不得轉載