區塊鏈

道德的機器人是程序員的天真幻覺嗎?


拇指1

編程到機器人中的道德規範可能無法解決我們在工作,醫療保健或戰時面臨的問題。

空白修辭學與倫理學之間的關係令人不安:語言被扭曲的難易程度令人擔憂,而且我們的思想如此溫順地接受這些不正當遊戲這一事實也同樣值得關注。 -Octavio Paz

人類走上了超越自我的快車道,而我們正在藉助AI和機器人實現一切。正如安德魯·楊(Andrew Yang)所說:“自動化不再只是製造業的問題。 機器人代替了體力勞動; 腦力勞動將被AI和軟件取代。”

但是,除了賦予或將要賦予自動化“存在”的能力之外,倫理學的問題還包括道德問題,以及由於缺乏對道德問題的洞察力,我們將如何預見我們所做的工作。與所有內容一樣,我們需要知道什麼時候停止某事,但是我們渴望製造出更加精巧的機器現在引起了人們的關注。我們看到它還是否認它?

克里斯汀·福克斯(Christine Fox)在幾年前的TED會議上承認,我們擁有“有毒的啤酒”,其中的先進技術“可供任何想要購買它們的人使用,而對它們的開發和可及性幾乎沒有任何約束。”

雖然技術的發展不容小ho,但它們都具有優勢,簡單的應用程序,可以幫助將需要幫助的人與看護人聯繫起來。但是,在我們管理能力之外的其他形式的技術,例如網絡戰,整個部門的人員都負責防禦和監視Internet網絡並解決其使用問題。

軍隊已經離開戰es,飛向天空,現在,他們無需離開自己的基地進行戰略攻擊,殺死士兵,摧毀城市或炸毀數千英里以外的任何他們想要的東西。但是,例如平民的附帶損害又如何呢?

如今,許多科技公司都在從事國防部使用的稱為“紅色團隊”的工作。該小組的任務是創造性地和對抗性地採用新技術,以確定如何將其從其預期用途轉變為危險或有問題的事物。他們還必須檢測漏洞所在,併計算所涉及的道德規範。但是道德可能是相對的,主要危險就在這裡。

換句話說,找出錯誤和漏洞的方法是白帽子與黑帽子。哪些公司正在這樣做以解決自動化和AI的道德困境?

我們超越了凱文·米特尼克(Kevin Mitnick)的技能嗎?他成功運用的一項技能是社會工程學。人們是脆弱的,如果你很聰明,則可以扭曲他們的道德觀念。

當我向大學生講解催眠術以及如何惡意使用催眠術時,我問是否可以說服他們殺死某人。令人震驚的是,他們說不能。但是,如果我說服他們說一個孩子有被其他人殺害的危險,我會提出,他們會捍衛這個孩子並為了保護孩子而殺人嗎?隨之而來的難題。

在技​​​​術的道德參數上,公司在戰爭中相當於什麼?但這僅僅是處理道德問題還是保護網絡免受攻擊?道德根據我們的需要具有延展性嗎?

空白Waldemar Brandt攝

我們的漏洞在哪裡,誰來評估它們?

幾十年前,科學作家艾薩克·阿西莫夫(Isaac Asimov)提供了有關未來和道德機器人的指南。在他提出這三部法律作為機器人倫理的基礎之前,他寫了一部。該法律規定,機器人可能不會傷害人類,也可能由於無所作為而使人類受到傷害。

然後是阿西莫夫的機器人三定律:

機器人可能不會傷害人類,也可能由於無所作為而傷害人類。機器人必須服從人類的命令,除非這些命令會與第一定律發生衝突。機器人必須保護自己的存在,只要這種保護與第一或第二定律不衝突。

這三個定律似乎可以保護我們免受不道德的機器人的侵害,但是對嗎?一位計算機科學家(麥克斯·泰格馬克)已經在預言,能力超過我們的智力的機器人可能會形成極權狀態。

由於技術的進步,我們可以設想“屠殺機器人”,而不是相對溫和的聊天機器人。使用面部識別的殺手機器人將飛往某個人的家或辦公室,殺死該人,然後自我毀滅。這種可怕的例證是由泰格馬克提供的。

空白版權:wrightstudio

AI不能自我識別是否合乎道德?

一個越來越明顯的問題是人工智能係統對人類的模彷如此之好,以至於我們認為我們正在與同伴而不是機器進行交互。你被騙了嗎?

技術越接近於使AI模仿人類,他們在我們社會中的地位就得到進一步鞏固。實際上,在一家由科技公司贊助的大型國際調查中,超過60%的受訪者表示,他們寧願與聊天機器人交談,也不願與心理治療師交談,以解決心理健康問題。他們的原因包括焦慮和想要避免被審判。

這個話題對托馬斯·梅琴格(Thomas Metzinger)至關重要,他希望AI在出現社交互動時清楚地將自己標識為非人類。實際上,他呼籲禁止使用這些機器,如果它們在與人打交道時沒有自我識別。

可以繞過這種禁令的AI的一個例子是使用人類語音技術的Google Duplex。用戶知道的另一個聊天機器人顯然是AI,它是Replika,它可以掃描用戶文本並開始開發神經網絡學習版本,以與你“對話”,或更確切地說是文本。他們將其標記為“關心的AI同伴”。他們應該使用“誰”嗎?

AI朋友允許用戶自由談論他們的生活,問題等。他們認為這是非判斷性的朋友。這個想法源於一位開發者朋友的悲慘損失,他意識到她並不是唯一一個想念他的人。他的朋友仍然想要與他建立聯繫,即使是AI。她和她的團隊坐下來開始編碼,直到他們有了Replika。

模仿治療師的聊天機器人是否合乎道德?

Replika的創建者認為這根本不是道德問題。她表示,他們從用戶那裡收到了成千上萬的電子郵件,他們說這有助於他們度過沮喪和艱難時期。那不是道德的嗎?難道它不遵循阿西莫夫的三定律之一嗎?

哲學家問我們,如果我們考慮到人們依靠一個沒人知道不存在的更高權力的人,我們現在是否不從事被認為是有問題的做法。有些人與天使或死去的親人祈禱或交易所。如果有幫助,道德是如何融入其中的?

但是Tegmark對這類事情不感興趣。他擔心危險。他意識到的危險包含在一個問題中:我們希望它成為什麼樣的世界?

我們將如何滿足我們對超智能事物的安全性需求而實現的發展願望,這些事物現在已經創建,可以完成簡單的任務,但是可以通過從未考慮過的方式進行自我改進?

泰格馬克曾表示:“如果我們現在對此大跌眼鏡,那可能將是人類歷史上最大的錯誤。”

人工智能不僅會干擾聊天機器人和理療師,而且會干擾社交媒體(無需人工輸入即可寫作)以及選舉方面的問題。說服公民改變其思想和投票方式可能會改變一個國家的治理方式,並使威權主義成為現實。

空白攝影:ThisisEngineering RAEng

合併浪潮

科技公司吞併其他社交媒體公司的次數越多,我們就應該變得更加關注。 Facebook是否沒有開始這一過程? Google呢?我們應該從錯誤中學習還是為錯誤做計劃,以計劃避免發生錯誤?

數以億計的人可能會受到AI的影響,遠遠超出了僅憑人類的理性辯論所能做出的任何嘗試,如果有資金,這些人可能只有數以百萬計的人。

在AI的未來,我們會找到天堂還是啟示錄?我們現在如何處理技術將為這兩個方面提供路線圖。當我們開始用AI創造的產品替換人體部位或大腦部分時會發生什麼?我們將變得更少的人力和更多的機器人,並且這個過程將使我們融入進化所無法企及的領域嗎?

根據布萊恩·帕特里克·格林(Brian Patrick Green)的說法,未來提出了兩個問題:

1)我們如何使用技術使做事變得更容易?

2)我們如何利用技術使做惡更加困難?

對於那些尋求在無準備的世界上發布強大的新技術的AI和ML工作人員,這些問題沒有得到充分考慮。理想情況下,技術人員應以最高的道德標準來管理自己,因此不需要任何外部管理; 確實,以這種方式幫助技術人員是我的嘗試。

戰爭中的機器人呢?阿西莫夫的法律永遠不會在這裡適用,因為戰爭旨在消滅敵人,而如果敵人不是機器而是人,那麼它的首要任務是什麼?如何將道德考量編程到機器人中?

現在是時候或應該在幾年前,將美德和道德設計到我們的AI中。這個話題既不是輕浮也不是浪費時間,因為人類的生命,自由和這個星球的未來可能取決於它。

資訊來源:由0x資訊編譯自DATADRIVENINVESTOR,版權歸作者Patricia Farrell所有,未經許可,不得轉載