現在是時候討論A.I.的道德問題了。雖然機器學習不是一項新的技術發展,但現在是人工智能發展的關鍵時刻。要面對的道德問題有很多,包括以下提到的十一種。
出于不道德的目的使用人工智能
1.經濟不平等與勞動力問題
技術進步時,我們首先要關注的是是工作保障。與最初的工業革命一樣,勞動力的大批量自動化讓工人感到恐懼。
在第一次工業革命期間,美國政府首次推動了大學教育的發展。對當時的美國人來說,問題不是大學的成本,而是為了獲得學位而暫停勞動的機會成本。你可以說,強制工人去學習是野蠻的,然而人工智能(第四次工業革命)催化的下一階段自動化也是在促使工人去修大學學位。
如果政府不提供全民收入(給每個人發放基本工資)來照顧被自動化淘汰的工人。那么學生貸款危機也可以讓被淘汰的勞動者打消進一步接受教育的念頭,這會導致周期性的貧困和收入不平等。
2.對人類行為的影響
不管我們有沒有意識到,人們越來越多地與機器進行交互,以完成日常任務——這牽涉到了一個透明度的問題,同時也帶來了行為上的影響。例如,Google Duplex的一個聽起來像真人的A.I.系統,它可以通過電話預訂餐廳。該系統可以快速響應,與真人不相上下。
人類的注意力和耐心是有限的,但機器的情感能量卻并非如此,當然,機器的局限性是技術性的。盡管這可能對某些特定領域比較有利,如客戶服務,但這種無限的能力可能會造成人類對機器人的情感上癮。電影《Her》反映的問題就是這樣,這部電影講的是一個愛上機器的男人的故事。
除了這些模仿真人的機器人外,許多app的目的就是使用算法來讓用戶上癮。例如,Tinder的設計就是為了將用戶更久地栓在這個由A.I.驅動的app上,它不會推薦相類似的用戶配對,從而使得用戶在APP里的停留時間變長。
3.在雇傭和犯罪方面的偏見歧視
A.I.倫理問題中最緊迫、討論最廣泛的問題之一是預測性分析系統中的偏見問題,如在雇傭或犯罪領域。曾經亞馬遜使用了A.I.驅動算法,利用歷史數據篩選優秀的職位候選人時,成為了著名的一個雇傭偏見事件。因為之前的候選人選拔就存在性別偏見,所以算法也傾向于選擇男性。
今年3月,紐約警察局披露,他們開發了一種算法機器學習軟件Patternizr,該軟件通過篩選警察數據來發現犯罪模式并將類似的犯罪聯系起來。這款軟件已于2016年起開始使用,該軟件未用于強奸或兇殺案件,并且在搜索模式時排除了性別和種族等因素。
雖然這對于以前的算法是向前邁出了一步,之前的算法是在種族歧視的基礎上來預測犯罪和違規行為,但從歷史數據集中主動消除各種歧視并不是標準做法。這意味著這種受過訓練的歧視偏見,往好的一方面說就是是一種冒犯和不便;往壞的一方面說就是一種對人身自由的侵犯和系統壓迫的催化劑。
4.誤傳和假新聞
另一個A.I.道德問題是偽造,通過使用A.I.將圖像、視頻和音頻對原始媒體和音頻加工,改變他人原意,通常是帶有惡意意圖。深度偽造包含了面部調換、聲音模仿、面部重演、嘴唇同步等等,與舊照片和視頻編輯技術不同的是,深度偽造技術的發展目標就是讓沒有什么技術能力的人也會輕松掌握其使用。
據北約前秘書長尼娜·希克(Nina Shick)等專家稱,通過deep fakes來篡改圖像和視頻可能會對全球秩序造成災難性影響,例如,唐納德·特朗普(Donald Trump)宣布核戰爭的唇形同步視頻,因此,Deepfake技術成果會被像Reddit這樣的網站進行非常嚴格的審查和屏蔽。
上一次美國總統選舉期間,俄羅斯利用假新聞實施了黑客攻擊,其實就是使用了類似的技術。這種信息戰正在變得司空見慣,它的存在不僅是為了改變事實,也是為了強有力地改變某些觀點和態度。這種做法也曾在英國脫歐運動中使用過,加劇了日益加劇的政治緊張局勢和混亂的全球形勢。
利用人工智能侵犯消費者隱私
5.消費者隱私和安全
盡管政府制定了很多法規來保護消費者隱私(如歐盟數據隱私法GDPR),但潛在威脅還是巨大的:
數據收集:大多數消費者設備,從手機到支持藍牙的燈泡,都會使用人工智能來收集我們的個人數據,以便提供更好、更個性化的服務。如果用戶同意,并且數據收集也是透明的,那么這種個性化是一個很好的功能。如果沒有達成一致或者達到透明,這種功能就會給用戶帶來不好的體驗。
識別和跟蹤:當我們把iPhone落在出租車上,或者將鑰匙落在沙發墊中間時,手機的追蹤應用會顯得很有用。但有些時候,比如想要隱藏行蹤的家庭虐待幸存者,跟蹤個人信息就顯得不安全。
語音和面部識別:與之前的功能一樣,在我的日常消費設備中,語音和面部識別功能是一個很方便的功能。比如,在iPhone上,用戶可以通過面部識別解鎖手機,而不是輸入密碼。
6.全球安全與情報
與國際錯誤信息(如假新聞報道)的風險相似,A.I.在這方面的道德風險是巨大的。雖然用人工智能機器人來取代人類士兵,或制造自動化武器,可能會在一定程度上降低政府防御性力量可能造成的傷害風險,但人工智能所造成的倫理困境與核彈相當。
盡管國際領導人很少提及人工智能在核武器試驗中的作用,但像微軟這樣的公司已經悄悄地宣布他們愿意向五角大樓出售先進的自動識別系統。
利用人工智能減少消費者代理
7.奇點,或者機器人霸主
就像《杰森一家》中噩夢般的情節一樣,機器人霸王的概念在消費者心目中隱約出現,成為最顯而易見的A.I.道德困境。牛津大學(University of Oxford)的主管專家尼克·博斯特羅姆(Nick Bostrom)表示,如果未來的人工智能系統擁有與人類價值觀不一致的價值觀,那么惡意機器人霸主的想象可能會成為現實。作為沒有自主權的人類,我們是誰?當機器人被賦予自主權時,他們是誰?最后,當二者被給予同樣的自由和智慧時,我們又如何定義這兩者?
谷歌的未來學家兼首席工程師雷·庫茲韋爾(RayKurzweil)表示,奇點比我們想象的還要近。Kurzweil預測,到2045年,我們將把人類智能和人工智能結合起來,他認為這將使我們更加智能化——這是一個值得期待而不是恐懼的未來。
8.人工智能的人性化處理
A.I.系統(或機器人)是否有權利?如果Kurzweil是正確的,那么A.I.的人道待遇可能僅僅意味著對人類的人道待遇。目前,一些人工智能系統甚至擁有公民身份,比如索菲亞Sophia(由漢森機器人公司制造的人形機器人)。
人工智能和不可預測的次要事件
9. A.I.犯的錯誤
如果有人工智能,那么也會有人工愚蠢(artificial stupidity)。目前,A.I.系統在某些領域中接受了模式方面的培訓,并且由于無法涵蓋所有可能性,當出現新的場景時,系統就很容易困惑。這是因為A.I.系統還沒有能力像人類那樣識別相似性,就像在模式識別中,當A.I.系統遇到與訓練集中的數據不同的場景時,它并不會根據上下文來判斷。
如果A.I.系統很容易被愚弄,這也就意味著它們很容易受到邪惡勢力的影響,比如機器學習中的敵對攻擊。例如,一種算法可以從一個有影響力的賬戶中讀取假新聞,并根據優化的內容因素來推廣它,而不是像新聞工作者在發布前那樣檢查新聞來源或想法。
10.A.I.條例
總的來說,科技產業因缺乏監管而備受爭議,一部分原因是該產業的變化太快,以至于很難確定執法應從哪里開始,另一部分原因是科技文化與西方世界的夢想是一樣的,也就是說,不惜任何代價進行創新。
也有人試圖自我監管,比如谷歌,它在內部設立了一個道德委員會,但不久之后就因為其內部有爭議的成員,即那些否認氣候變化和持有反移民情緒的人,所以這個委員會就解散了。同樣,微軟也在口頭上鼓勵政府調整A.I.系統,尤其是面部識別軟件;然而戲劇性的是,微軟的競爭對手指出,微軟與立法者的關系過于緊密。
與此同時,A.I.系統的開發和部署幾乎是完全沒有監管。
11.如果有道德的A.I.是不可能存在的…
盡管我們盡了最大的努力,但A.I.可能永遠都不會變得有道德感。訓練A.I.系統使其變得有道德,過程包括:
1.假設A.I.有動機采取道德行動
2.期待普遍道德規則的出現
3.相信訓練A.I.變得有道德的人本身是有道德的。
史蒂芬·霍金、比爾·蓋茨和埃隆·馬斯克都表示,超級智能應該被謹慎處理。A.I.能夠變得有道德性嗎?大家對此意見不一,但事實上大家都很清楚,A.I.道德規范的時代就要來臨了,如果我們不行動起來,那將是一個最大的錯誤…
評論