在過去的十年中,人工智能(AI)曾經只是科幻小說中的虛構部分,可如今已成為我們日常生活的一部分。事實上,AI早已變得大眾化,人們現在擁有蘋果Siri、亞馬遜的Alexa和谷歌助手等虛擬助手,甚至可以在家中的書架上都可以找到它。但是什麼是人工智能?我們怎樣才能信任它來幫助管理我們的生活?
◉ 什麼是人工智能?
人工智能,英文為AI或Artificial Intelligence,是計算機科學的一個分支,通過創建人類智能的模擬來實現。這意味著通過結合適當的硬件和編程控制軟件,計算機可以被編程執行一些需要人類介入才能完成的任務。
通過輸入大量標記信息,AI可以“學會”如何思考。這些信息被稱為訓練數據。訓練數據有助於機器識別模式,並根據所獲得的“經驗”來學習採取行動。通過這個過程,AI可以學會執行簡單的任務,比如分類電子郵件,也可以學會復雜的任務,如駕駛汽車。
隨著AI越來越多地進入到我們生活的方方面面,這引發了關於AI應該和不應該做什麼的擔憂。這就是倫理道德的作用所在。
◉ 為什麼倫理道德在AI方面如此重要?
道德是一套指導方針,規定了行為準則,區分是非。這些準則決定了人工智能如何與人類社會互動,同時考慮到道德、人性甚至文化的各個方面。
倫理道德可以防止我們的機器人變得邪惡,並像好萊塢電影所描述的那樣反叛人類。確實如此。
最早提到智能機器倫理法律的之一是科幻作家艾薩克·阿西莫夫。阿西莫夫制定了以下法律,適用於他虛構Cosmos中的機器人:
機器人不得傷害人類,也不得因為不動而讓人類受到傷害機器人必須服從人類的命令,除非這些命令與第一條衝突機器人必須保護自己的存在,只要這不違反第一條或第二條
這些法律指導著我們應該如何對待和設計AI系統,並確保它們不會危害人類。 AI系統需要被設計成尊重人類價值,尊重隱私和安全,遵從道德規範。如果AI系統沒有正確地設計和使用,可能會對社會帶來嚴重影響。
雖然阿西莫夫的“法律”是虛構的,但它們仍然提供了一個有效的模板來引領人工智能不斷發展的道路。它們已經成為許多存在於人工智能中的社會和道德困境的基礎。
雖然機器本身無法懷有惡意,但AI仍然容易受到偏見的影響或被擁有不良意圖的人類所利用,例如黑客或恐怖分子。 AI通過接受人類生成的訓練數據來“學習”,因此會受到可能存在於其中的社會和文化偏見的影響。受到有偏見的編程限製或受到負面採用威脅的AI系統無法為整個人類服務。
取代人力勞動的技術對那些被取代的人的生計構成威脅。這有可能擴大貧富差距,並將經濟發展限制在擁有人工智能技術所有權的群體中。
雖然AI具有學習如何做出明智而復雜的決策的能力,能夠減輕人類生活的單調乏味,但它也可能帶來風險,即開發一種創造者無法控制的思維過程。這樣的機器太不可預測了,無法保證人類的安全和利益。
隨著技術飛速發展,機器比以往任何時候都更加逼真。由總部位於香港的漢森機器人公司製造的一款名為Sofia的社交人形機器人,它可以執行人工智能功能。該機器人已參與了多次備受矚目的採訪,能夠進行複雜的對話。雖然Sofia不是自然人,但在2017年10月25日獲得了沙特阿拉伯的公民身份,成為首個擁有任何國家公民身份的機器人。這種將機器人授予公民身份的行為,在法律上使其與人類公民平等,模糊了人和機器之間的界線,引發了關於感知、人性和機器人權利的爭議。
因此,AI倫理道德領域是一個需要不斷討論和演進來跟隨技術進步的動態領域。
原文由Tanvi Dayal撰寫,中文內容由元宇宙之心(MetaverseHub)團隊編譯,如需轉載請聯繫我們。
資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載