我們必須弄清楚人工智能最適合用於哪些任務,以及如何在不對社會造成危害的情況下使用它。
來源:WSJ
原文作者:Sean Captain
2022 年,ChatGPT、Midjourney 等AI 大模型的問世,讓AI 開始展現出更多真正的能力和價值,看似神奇的機器人開始生成圖像、回答問題,甚至寫文學作品。
但與所有新工具一樣,我們必須弄清楚人工智能最適合用於哪些任務,以及如何在不對社會造成危害的情況下使用它。當我們還在努力試圖弄清楚這項技術最初能做什麼時,就已經顯得有些棘手了
Sean Captain 希望,通過與朋友、同事和一些AI 行業專家的討論,可以確定AI 為各個領域的各個人群帶來的或即將帶來的一些最棘手的問題。儘管這些問題沒有正確或錯誤的答案,但能夠讓我們思考AI 將會如何改變幾乎所有的事情。
基於此,Sean Captain 在WSJ 發文,整理出了“ChatGPT時代,你需要問自己的25個問題”。學術頭條在不改變原文大意的情況下,做了簡單的編輯。
1.如果你借助AI 為一些項目或產品提出了不錯的建議,可以將其認為是你自己的想法嗎?如果你提出了原始問題,答案是什麼?如果你只是簡單修改了AI 生成的內容,答案是什麼?如果你承認AI 在其中起到的關鍵作用,答案又是什麼?
2.你想知道你喜歡的繪畫、歌曲、小說或電影是否由AI 產生的嗎?如果你知道創作者是一台機器,你還會喜歡這些作品嗎? AI 生成的藝術作品是否應該被允許參加藝術比賽?
3.如果一個AI 剽竊了一個藝術家的作品,而且有人使用了這個作品,誰應該受到指責?如果用戶不知道AI 進行了剽竊,你的答案是什麼?他們又如何證明自己不知道呢?
4.是否應該把AI 工具免費提供給買不起的人群,或者提供一些補貼?如果不這樣做,會不會使那些無法獲得這些工具的工人和學生處於不利地位?
5.與人類的思維不同,機器學習是一個“黑盒子”,無法解釋自身發生了什麼。即使機器學習在某些方面優於人類,我們又是否應該更信任它,而不是專業人士(如醫生),但他們可以證明自己的決定是正確的。
6.假設AI 在生死攸關的決策(如駕駛或醫療診斷)中比人類準確得多,但在某些情況下(如不能識別人行道上的兒童),AI 會更容易失敗。在這種假設下,使用AI 是合乎道德的?因為總的來說,會有更多的人得到拯救?
7.雖然當前的AI 是沒有情感的,但它可以看起來是有的。與這樣的AI 建立友誼會不會太天真?或者令人毛骨悚然?如果發展為一段戀愛關係呢?如果AI 真的有情感,答案是什麼?
8.你如何為使用ChatGPT 這樣的聊天機器人劃定道德底線?可以讓它們寫一封電子郵件來幫助你安排會議嗎?向你的客戶進行推銷呢?在網上約會應用程序中替你聊天呢?給正在經歷抑鬱症的朋友寫信呢?
9.目前還不可能對AI 生成的內容進行版權保護。需要保護嗎?如果需要,誰應該擁有版權:用戶、AI 模型提供者、訓練AI 模型所用數據的歸屬人?所有人?
10.如果AI 系統在駕駛汽車方面明顯好於人類,那人類自己開車是否是不道德的?因為這增加了事故的風險,每年可能會導致數以萬計的人犧牲。如果AI 只是略勝一籌,但總的來說,每年仍能挽救成千上萬的生命呢?
11.Al 通過從錯誤中學習來改進自己,這些錯誤往往包括對邊緣化群體的偏見或仇恨。 Al 提供者是否有責任在發布其產品之前根除這些偏見?如果他們沒有這樣做,受影響的群體是否應該起訴這些公司?
12.鑑於AI 的潛在危害(如不准確或有偏見),對於重大的人工智能新進展,是否應該像藥物上市前一樣,有一個政府評估和批准程序?如果這會大大推遲新AI 工具的發布,又該怎麼辦?
13.如果AI 在公司內部生成包含種族主義、性別歧視、反同性戀或其他辱罵性語言的信息,員工可以起訴嗎?如果可以,他們應該起訴誰?是他們的雇主?還是技術提供者?
14.研究表明,一些由AI 驅動的任務,如評估求職者,更容易產生歧視。然而,使用AI 也可以讓更多的求職者得到考慮,因為HR 可以人工閱讀的求職簡歷有限。那麼,你希望心儀公司使用AI 來面試嗎?
15.為了保護隱私,在執法過程中限制AI 監控,如面部識別,即使這意味著更少的罪犯將被抓獲或定罪,這是否合乎道德?
16.AI 可以創造模仿逝者的聊天、音頻和視頻。與這些AI 對話會得到安慰,還是會延長失去親人的痛苦,讓他們停滯不前?如果聊天機器人有缺陷,它們是否會扭曲我們對這個人真正身份的理解?
17.如果AI 能夠掃描大量的健康記錄,它可能會發現新的醫療方法。如果我們的個人健康記錄有可能改善或拯救數百萬人的生命,那麼是否應該為此而提供我們的個人健康記錄?在這種情況下,我們將如何保護隱私?
18.近年來,AI 聊天機器人治療師一直在激增,但相關app 不受醫療隱私法的監管,且一些已被證明會與廣告商等第三方分享信息。鑑於此,你會把你的秘密告訴AI 嗎?如果你確信AI 會根據你的要求刪除你所說的任何內容,又會怎樣?
19.以嚴厲或辱罵的方式對待一個聊天機器人或虛擬助手,即使它們沒有情感,可以嗎?如果AI 可以假裝擁有情緒,又是否可以?對待聊天機器人的壞行為,是否會“慫恿”我們對真實的人做出更惡劣的行為?
20.假設有可能創造出一個有情感的AI,社會是否應該首先制定一個關於勞動條件、言論自由、隱私權、甚至死亡權等問題的權利法案?是否應該由有情感的AI 自己來設計或修改?
21.聊天機器人寫了一篇博士論文,學生只是檢查並對作品進行修改,這是否合乎道德?學生改寫的內容佔比為多少才能被認為合乎道德?
22.內容創作者應該阻止AI 爬取他們的網站並從他們的工作中學習嗎?如果這是AI 獲取重要信息的唯一途徑呢?
23.AI 不具備道德能力。那麼,要求它幫助做出道德決是否合乎道德?
24.當Al 被用來做出影響人們的決定(比如抵押貸款評估)時,人們是否應該有知情權?任何被Al 拒絕的人是否應該有權質疑該決定並接受人類的重新評估?
25.AI 公司是否應該採取額外的努力來建立多樣化的開發團隊?如果沒有來自某些種族或文化群體的人參與開發AI,那麼AI 做出影響這些群體的決定是否公平?
展開全文打開碳鏈價值APP 查看更多精彩資訊