吴忠躺衫网络科技有限公司

您好,歡迎來(lái)電子發(fā)燒友網(wǎng)! ,新用戶?[免費(fèi)注冊(cè)]

您的位置:電子發(fā)燒友網(wǎng)>源碼下載>數(shù)值算法/人工智能>

人工智能的道德問(wèn)題

大?。?/span>0.6 MB 人氣: 2017-10-10 需要積分:1
 人工智能演進(jìn):道德可以被編程嗎?2016-07-14 23:19
  原文:The Evolution of AICan Morality be Programmed?
  翻譯:@ GawainGao 審校:趙屹華
  責(zé)編:周建?。▃houjd@csdn.net)
  人工智能的最新進(jìn)展明確表明,我們的電腦需要有一個(gè)道德準(zhǔn)則。不同意?想想看:一輛車(chē)開(kāi)車(chē)上路時(shí),一個(gè)騎自行車(chē)的孩子在它的前面突然轉(zhuǎn)了個(gè)彎。此時(shí)車(chē)子能轉(zhuǎn)彎進(jìn)入逆行車(chē)道,撞上另一輛已經(jīng)在那里的汽車(chē)?或者可以轉(zhuǎn)彎偏離道路,撞上一棵樹(shù)?還是繼續(xù)向前,撞上那個(gè)騎車(chē)的孩子?
  每一種解決方案都會(huì)產(chǎn)生一個(gè)問(wèn)題:這可能會(huì)導(dǎo)致死亡。
  這是一個(gè)不幸的情況,但是人們每天都要面對(duì)這樣的情況,如果有一個(gè)正在受控的自動(dòng)駕駛汽車(chē),它需要能夠在這樣的情況下作出選擇。這意味著,我們需要弄清楚如何在我們的電腦里編寫(xiě)道德準(zhǔn)則。
  杜克大學(xué)計(jì)算機(jī)科學(xué)系教授Vincent Conitzer最近收到未來(lái)生命研究所(Future of Life Institute,F(xiàn)LI)的撥款,用以研究如何讓一個(gè)高級(jí)人工智能作出道德判斷,并據(jù)此采取行動(dòng)。
  創(chuàng)建道德準(zhǔn)則
  乍看之下,我們的目標(biāo)似乎很簡(jiǎn)單—只要?jiǎng)?chuàng)建一個(gè)符合道德責(zé)任行為的AI即可;然而,它遠(yuǎn)遠(yuǎn)比原先設(shè)想的要復(fù)雜得多,因?yàn)樵趧?chuàng)建這類AI的過(guò)程中,會(huì)有數(shù)量驚人的因素左右其實(shí)現(xiàn)。就如Conitzer的項(xiàng)目中概述的那樣,“道德判斷會(huì)受到權(quán)利(如隱私)、角色(如家庭)、過(guò)去的行為(如許諾)、動(dòng)機(jī)和意圖,以及其他道德相關(guān)特征的影響。這些不同的因素尚未在AI系統(tǒng)中建立”。
  這就是Conitzer現(xiàn)在嘗試在做的事。
  在接受Futurism近期的采訪中,Contizer解釋說(shuō),雖然公眾可能會(huì)關(guān)心如何確保流氓AI最終不會(huì)泯滅人性,然而就目前(以及接下來(lái)一段很長(zhǎng)的時(shí)間)而言,這種威脅并不存在。因此他的團(tuán)隊(duì)并不關(guān)心如何使AI無(wú)私、崇拜人性,以預(yù)防造成全球性的機(jī)器人大災(zāi)難。相反,他們會(huì)在一個(gè)更基本的層面上,把重點(diǎn)放在如何確保人工智能系統(tǒng)能夠作出艱難的、更接近道德標(biāo)準(zhǔn)的選擇,像人類的日常決策一樣。
  那么,該怎樣才能讓AI能夠作出一個(gè)艱難的道德決定呢?
  Contizer解釋說(shuō),為了實(shí)現(xiàn)這個(gè)目標(biāo),他們的團(tuán)隊(duì)將按照以下兩條線開(kāi)展:讓人們作出道德選擇,從中發(fā)現(xiàn)出模式,然后尋求如何將這些模式置入人工智能。他解釋說(shuō),“我們目前所做的實(shí)際上就是讓人們作出道德決定,或者是讓人們說(shuō)明在特定的情況下會(huì)作出何種決定,然后我們讓機(jī)器學(xué)著去嘗試定義何為一般的模式并確定在某種程度內(nèi)我們可以重現(xiàn)這類決定。”
  總之,研究團(tuán)隊(duì)正試圖找出我們作出道德選擇的模式繼而將這類模式轉(zhuǎn)換成AI系統(tǒng)可以識(shí)別的模式。Contizer指出,這本質(zhì)上都是關(guān)于預(yù)測(cè)人類在特定情況下會(huì)作出何種決定的,“如果我們能夠變得非常擅長(zhǎng)預(yù)測(cè)人們?cè)谶@類道德情況下會(huì)作出什么樣的決定,那么,我們可以以計(jì)算機(jī)程序的形式自行作出這些決定。”
  然而,這里面存在一個(gè)主要的問(wèn)題,沒(méi)錯(cuò),道德是不客觀的 - 它既不是永恒的,也不具有普遍性。
  Contizer通過(guò)過(guò)去幾十年的發(fā)展很好的闡述了這個(gè)問(wèn)題,“如果我們?cè)谝话倌昵白鐾瑯拥牡赖聹y(cè)試,我們會(huì)從人們的決定中發(fā)現(xiàn)更多的種族歧視、性別歧視,以及各種從現(xiàn)在看來(lái)并不是‘好’的事情。同樣,現(xiàn)在,也許我們的道德發(fā)展并沒(méi)有走到頂點(diǎn),百余年后人們可能會(huì)覺(jué)得一些我們現(xiàn)在做的事情是完全不道德的,例如像我們對(duì)待動(dòng)物的方式。因此,不管怎樣,都會(huì)有偏見(jiàn)橫亙?cè)诋?dāng)前道德水平的發(fā)展過(guò)程中。”
  當(dāng)然,上述提到了很多關(guān)于道德是多么復(fù)雜的問(wèn)題。“純粹的利他主義,在博弈論中是很容易解決的,但也許你會(huì)覺(jué)得別人虧欠于你。這是在博弈論文獻(xiàn)中找不到的理論,這樣的東西,我們也想了很多,你怎么能夠使在博弈論中被稱為‘解決方案概念’的理論變得有意義?你又該如何計(jì)算這些東西?”
  為了解決這些問(wèn)題,并幫助正確找出如何把道德功能編寫(xiě)進(jìn)人工智能之中,該團(tuán)隊(duì)正在結(jié)合來(lái)自計(jì)算機(jī)科學(xué)、哲學(xué)和心理學(xué)的很多方法?!案爬ǖ卣f(shuō),這就是我們的項(xiàng)目所要做的事。”Contizer說(shuō)到。
  但對(duì)于那些有知覺(jué)的人工智能呢?我們什么時(shí)候需要開(kāi)始擔(dān)心他們并討論如何約束他們的行為呢?
  類人智能
  Contizer表示,類人智能(human-like artificial intelligence)在短時(shí)間內(nèi)還不會(huì)出現(xiàn)(所以至少在未來(lái)數(shù)年不會(huì)出現(xiàn)像終結(jié)者那樣的大災(zāi)難……) 。
  “最近,已經(jīng)出現(xiàn)了一些向類人智能系統(tǒng)接近的進(jìn)展,我認(rèn)為這里面包括了很多令人驚訝的進(jìn)步……但我覺(jué)得一個(gè)‘真正的AI’,應(yīng)該是相當(dāng)靈活的,能夠抽象的,并且可以做所有人類可以輕易完成的事情,我認(rèn)為我們離真正的AI還相當(dāng)遙遠(yuǎn)?!?Contizer說(shuō)。
  誠(chéng)然,我們可以設(shè)定系統(tǒng)做很多人類可以做的很好的事情,但也有一些過(guò)于復(fù)雜的事情很難轉(zhuǎn)換成計(jì)算機(jī)可以識(shí)別和學(xué)習(xí)(這是所有終極AI的基礎(chǔ))的模式。
  “早期的人工智能研究,最開(kāi)始幾十年人工智能研究的,是為智能確定真正基準(zhǔn)的一個(gè)事實(shí),如能很好地下國(guó)際象棋,這對(duì)于電腦來(lái)說(shuō)相當(dāng)容易。編寫(xiě)并創(chuàng)建一個(gè)國(guó)際象棋對(duì)弈程序是不容易的,但它是可行的?!?br />   事實(shí)上,在今天,計(jì)算機(jī)在許多比賽中有能力擊敗世界上最好的選手,例如國(guó)際象棋和AlphaGo。
  但是Conitzer澄清,事實(shí)證明,這類比賽并不是測(cè)量類人類智慧的一個(gè)完美方法。或者至少,在人類思維上,用這種方法還有很多方面無(wú)法測(cè)量出來(lái),“同時(shí),我們了解到,某些對(duì)于人類非常簡(jiǎn)單的問(wèn)題,實(shí)際上對(duì)于電腦來(lái)說(shuō)相當(dāng)困難,或者編程讓電腦做某些事情(很困難)。例如,在茫茫人海中找到你的祖母。你可以很容易做到這一點(diǎn),但是要編寫(xiě)一個(gè)電腦程序讓它同樣做好這件事真的非常的困難。”
  從人工智能研究的初期,我們就能夠做到讓計(jì)算機(jī)識(shí)別和鑒定一些指定的圖片。但是,總體來(lái)說(shuō),要編寫(xiě)一個(gè)可以做人類能做的所有事情的系統(tǒng),就非常困難了,這就是為什么我們離 “真正的人工智能”還有很長(zhǎng)的一段路要走。
  然而,Conitzer聲稱,現(xiàn)在是時(shí)候開(kāi)始考慮管理這種智能所適用的規(guī)則了。“這可能還有點(diǎn)遙遠(yuǎn),但對(duì)計(jì)算機(jī)科學(xué)家來(lái)說(shuō),這可能意味著短短幾十年的秩序,提早一點(diǎn)去考慮是很有必要的”,他指出,雖然目前還沒(méi)有任何類人機(jī)器人出現(xiàn),但我們的智能系統(tǒng)已經(jīng)能作出道德選擇,并且這種選擇有可能拯救或結(jié)束生命。
  “很多時(shí)候,他們做的這些決定會(huì)影響到別人,我們可能需要做一些通常被認(rèn)為含有一些道德負(fù)擔(dān)的決定。而一個(gè)標(biāo)準(zhǔn)的例子就是一個(gè)自動(dòng)駕駛汽車(chē)必須決定是直行撞上前面的車(chē)還是改變方向,這可能對(duì)一些行人造成傷害。你如何權(quán)衡利弊?我認(rèn)為這就是我們可以有所進(jìn)展的地方。這并不需要超高智商的人工智能,這只需要一個(gè)可以通過(guò)各種方式權(quán)衡方案的程序即可?!?br />   當(dāng)然,知道作出什么決定,首先需要知道究竟什么樣的道德準(zhǔn)則才是正確的(或至少有一個(gè)公平的決定)。只有這樣,我們才能開(kāi)始把它編程,這就是Contizer和他的團(tuán)隊(duì)希望做的事。
?

非常好我支持^.^

(0) 0%

不好我反對(duì)

(0) 0%

      發(fā)表評(píng)論

      用戶評(píng)論
      評(píng)價(jià):好評(píng)中評(píng)差評(píng)

      發(fā)表評(píng)論,獲取積分! 請(qǐng)遵守相關(guān)規(guī)定!

      ?
      致胜百家乐的玩法技巧和规则| 百家乐关台| 大发888合营商| 百家乐官网娱乐求解答| 大发888在线娱乐城21点| 真人百家乐软件博彩吧| 古交市| 豪享博百家乐官网的玩法技巧和规则| 大发888网页登陆| 博九百家乐娱乐城| 百家乐官网赌场现金网平台排名| 大发888 制度| 澳门赌百家乐能赢钱吗| 视频百家乐官网攻略| 澳门百家乐经| 百家乐翻天qvod| 打百家乐官网的技术| 太阳城申博娱乐城| 博之道百家乐技巧| 百家乐高手qq| 木棉百家乐官网的玩法技巧和规则| 百家乐规则| 百家乐娱乐网网77scs| 百家乐折叠桌| 百家乐官网出千桌| 赌博百家乐官网规则| 百家乐官网赌博机吧| 百家乐筹码| 大发888游戏网站| 永利高官网| 丽都百家乐的玩法技巧和规则| 百家乐视频游戏大厅| 百家乐视频游戏官网| 百家乐官网讲谈| 百家乐官网庄不连的概率| 澳门百家乐官网自杀| 百家乐官网试玩活动| 日博| 真人斗地主| 在线扎金花| 迭部县|