技術已成為我們從醫學測試到寫作的所有領域的首選資源,並且在未來將成為更強大的力量。
算法正在成為我們自然環境中不自然的一部分,這讓我們懷疑這是否是一件好事。我們的擔憂是有根據的,因為我們越是放棄我們的智力創造力給機器,我們就越會在這個過程中失去一些東西。
在寫作領域,算法正在成為為24/7 新聞周期的過度需求製作文章的主導力量。工作肯定會丟失,但其他丟失的東西更難以解析。語言和意義的副標題有時沒有編入我們典型的格言的模式中。
就在這裡,在編寫上述段落時,Medium 中底層的語法/拼寫檢查器堅持我的意思是我從未想過的事情。如果我可以在這裡使用這個詞,它希望將“模式”替換為一家在線公司的名稱。 “Argot”將被替換為“ergo”或類似於Jason和Argonauts船名的東西。
照片由Niv Singer 在Unsplash 上拍攝
使用一個常用詞,你會得到一個愚蠢的替代品。是的,算法可能很愚蠢,不是設計出來的,而是編碼人員的無能。隨著算法開始自行編寫,未來情況可能會變得更糟。他們稱之為“內置”偏差,或者他們可以稱之為原始代碼的一部分以及新代碼的進展。
即使在通常的英語語法中,算法也希望我將“一個不尋常的……”改為“一個不尋常的……”。不正確,因為“不尋常”以“u”開頭,而這個詞總是以“an”開頭。還記得你早期學習的“a、e、i、o、u”嗎?
該算法的代碼中沒有。那是怎麼發生的?它會從我拒絕接受這種不正確的語法中吸取教訓嗎?不,因為據我所知,我沒有訪問原始代碼。錯誤在那裡並且可能很嚴重。我沒有被問到為什麼我想要這樣的改變?有時它確實會拋出一個框,其中可能是你選擇了他們建議之外的其他內容。這次不行。
這是可以理解的。我們現在可以使用的眾多數字渠道需要具有人類努力無法滿足的胃口的內容。這種需求,再加上越來越複雜的技術,正在催生一個“自動敘事生成”行業。
媒體對內容需求的胃口也包含了其他東西; 搜索引擎優化。每當你寫一些東西時,你必須首先考慮如何將其放置在主要搜索引擎上。我知道它在我的腦海裡,我已經閱讀了足夠多的文章來打擊那個人。
所以當我寫一篇關於任何主題的任何類型的文章時,我必須要么撓頭尋找一個吸引人的標題,要么去算法尋求幫助。我必須承認,我傾向於從算法中獲得幫助,因為我會逐個顯示標題以查看每個標題的得分。任何超過70 的東西都適合我。
在撰寫文章或標題時,我仍然控制著這個怪物,但媒體並非總是如此。想想有多少頭條新聞誤導了你。你的反應是什麼?如果你能找到那個人或算法的聯繫信息,你是否生氣、感到被利用或寫了一封信給編輯?
總的來說,對新聞和寫作的影響是一個嚴重的問題,必須解決道德和偏見等因素。大學論文也可以由算法編寫,造紙廠比比皆是。抄襲是一個主要關注的領域,因為可以運行機器人來編寫買家希望獲得的任何內容。
認為機器人不會超越寫作任務?再想想。新聞的主要參與者美聯社現在正在使用這些程序來撰寫文章。而這並不是什麼新鮮事。我注意到的那篇文章是2015 年寫的。 2017 年,著名的華盛頓郵報承認他們對文章使用了算法。
正如已經指出的那樣,由自動化機器人編寫的文章的產量是驚人的。今天,它無疑更大,而且錯誤現在可能已經很好地消除了。
我們現在有NLG(自然語言生成)平台來製作書面材料。誰進行監督以確保其建立正確的聯繫和假設?另一種算法也可能有偏見?這很嚴重。
信任是一種過時的舊商品嗎?
長篇新聞為許多記者和書籍作者贏得了他們在我們文化中應得的地位。但是,如果機器人正在寫作,我們怎麼知道我們可以信任我們正在閱讀的內容?
一位負責WAPO 算法撰寫文章的編輯試圖降低我們的焦慮水平。 ……當該計劃於7 月首次啟動時,每個自動化故事都具有人情味,記錄錯誤並發送到自動洞察以進行必要的調整。
完全自動化始於2017 年10 月,當時故事“在沒有人工干預的情況下傳播開來”。
沒有涉及任何人,她說那時錯誤更少。這就引出了一個問題,即哪些類型的錯誤可能未被檢測到?
我在我的各種媒體提要中看到太多具有誤導性的標題,並且一定遇到了我在標題創建中遇到的點擊誘餌評分。
我仍然是我使用的標題創建者的粉絲,但我會仔細檢查它以查看它可能會誤導或誤解的地方。製作的媒體中有多少符合該標準,因為我們已經看到WAPO “無需人工干預”就消失了。
資訊來源:由0x資訊編譯自DATADRIVENINVESTOR,版權歸作者Patricia Farrell所有,未經許可,不得轉載