《人工智能迅速發(fā)展可能會(huì)帶來的社會(huì)影響》由會(huì)員分享,可在線閱讀,更多相關(guān)《人工智能迅速發(fā)展可能會(huì)帶來的社會(huì)影響(3頁(yè)珍藏版)》請(qǐng)?jiān)谘b配圖網(wǎng)上搜索。
1、人工智能迅速發(fā)展可能會(huì)帶來的社會(huì)影響
隨著人工智能技術(shù)的迅速發(fā)展,最嚴(yán)峻的值得面對(duì)的問題是人工智能的風(fēng)險(xiǎn)防控問題,包括人工智能的公平性、透明性和可責(zé)性。在算法之中,倫理道德角度來看,是否存在算法歧視,為窮人和弱勢(shì)特殊群體帶來不公平。而是否可能去量化倫理的歧視形成“道德代碼”?算法的邏輯是否透明,如何對(duì)人工智能造成的問題進(jìn)行定責(zé)?更長(zhǎng)遠(yuǎn)地想,機(jī)器人是不是人?能否具有人的權(quán)利?如何控制人工智能不會(huì)威脅到人類?
下載論文網(wǎng)
人工智能;AI工人;跨領(lǐng)域聯(lián)想
近年來,人工智能技術(shù)如浪潮般迅猛發(fā)展。應(yīng)該看到,有時(shí)候,一項(xiàng)技術(shù)的進(jìn)步,其實(shí)還被配套技
2、術(shù)的發(fā)展制約。如果移動(dòng)互聯(lián)網(wǎng)沒有發(fā)展,apple手機(jī)就不會(huì)發(fā)跡,智能機(jī)換代不會(huì)出現(xiàn)。同時(shí),智能機(jī)也推動(dòng)了移動(dòng)互聯(lián)網(wǎng)的建設(shè),從而帶動(dòng)了互聯(lián)網(wǎng)+的產(chǎn)業(yè)。
一、人工智能時(shí)代的潛在問題
比起技術(shù)本身,我們更關(guān)心技術(shù)進(jìn)步的社會(huì)影響。與人類可能成為無用階級(jí)的悲觀論調(diào)相比,筆者眼中的人工智能時(shí)代,人類將生活得更加富足,更能投身于內(nèi)心真正渴望的工作。作者認(rèn)為,盡管技術(shù)層面的進(jìn)步讓人眼花繚亂,但在哲學(xué)層面,人工智能永遠(yuǎn)無法替代人類。人工智能無法像人一樣解悟生命的意義和死亡的內(nèi)涵,無法因高山流水而逸興遄飛,因秋風(fēng)冷雨而愴然淚下,因子孫繞膝而充實(shí)溫暖,因月上中天而感時(shí)傷懷。也許與機(jī)器相比,人類的能力和生
3、命是有限的,但正是因?yàn)橛邢?,才使得人類每個(gè)個(gè)體的思想如此寶貴獨(dú)特。
霍金的演講中有句話聽著令人毛骨悚然:“人類將猜不到AI在想什么”,但在描述人工智能以及未來機(jī)器對(duì)人類的威脅時(shí),包括霍金在內(nèi)的許多人,都在有意無意地混淆不同領(lǐng)域的標(biāo)準(zhǔn)。霍金說話的電子音是由他的輪椅上的電腦手機(jī)霍金眼球活動(dòng)的信息而讀取他的意思幫助他進(jìn)行表達(dá),乃是名副其實(shí)的眼神交流,想想是不是很炫酷?不過再仔細(xì)想想這其實(shí)非常的可怕,如果有一天這位科學(xué)巨人的電腦忽然變聰明了一些…霍金曾經(jīng)提出過一個(gè)名為恐怖曲線的理論(也就是著名的恐怖谷理論),用簡(jiǎn)單易懂的話解釋便是當(dāng)機(jī)器人與人類差別很大且不斷接近時(shí),人們會(huì)喜歡它,然而當(dāng)它變得與人
4、類非常相似時(shí),人們卻會(huì)討厭它害怕它,這是高級(jí)生命害怕被“別人”取而代之的一種本能。[1]
二、AI工人時(shí)代帶來的沖擊
現(xiàn)在已到“AI工人”[2]普及的臨界年代。人們必然要保持對(duì)自己將來可能飯碗不保的警惕。有時(shí)候我們很多人身在這個(gè)時(shí)代當(dāng)中,每天埋頭在自己的一堆瑣事中,會(huì)不知道周圍的社會(huì)發(fā)生了多大的變化,尤其是不與太多新鮮事物接觸的傳統(tǒng)行業(yè)。只享受科技帶來的智能生活,而沒去想其他任何東西,跟我們每個(gè)人的關(guān)系。最近銀行上智能柜臺(tái),柜臺(tái)人員說減就減,從上到下強(qiáng)制執(zhí)行,幾乎就在一夜之間,盡管國(guó)有企業(yè)不會(huì)馬上裁員,讓你慢慢轉(zhuǎn)崗,可是以后呢,這是大勢(shì)所趨,連現(xiàn)在所謂銀行比較核心的信貸審批,風(fēng)險(xiǎn)控
5、制等,其實(shí)已經(jīng)可以由機(jī)器做而且機(jī)器做得更好,那什么是無法替代的呢?
另一方面,機(jī)器人作為沒有監(jiān)管的人,被這樣的人所控制的人工智能可以做任何我們所能想到的壞事。社會(huì)分工的巨大變動(dòng)是否會(huì)導(dǎo)致智能與文明的倒退,歷史從來都不是直線的,沒有人能保證先進(jìn)的不會(huì)被落后的取代。集中的權(quán)利,不被監(jiān)控的操作者,人類與人工智能巨大的學(xué)習(xí)能力差異。人工智能的倫理和法律問題不容忽視:無人駕駛車輛出現(xiàn)了事故怎么劃分責(zé)任?人工智能會(huì)不會(huì)造成隱性的失業(yè)問題,甚至對(duì)人類安全造成威脅?人工智能的發(fā)展怎么應(yīng)對(duì)公平、透明性和可追責(zé)等問題?
這個(gè)尚在蹣跚走步的人工智能,其發(fā)展必然會(huì)帶給人類社會(huì)一些潛在的威脅,如果我們能在人
6、工智能的發(fā)展初期就確定好相關(guān)的法律和制度,那么AI的發(fā)展才可能更健康、有序,未來的世界會(huì)有更多的美麗而非危險(xiǎn)。很多專業(yè)人士具有的精辟見解,例如阿西莫夫的機(jī)器人三定律:機(jī)器人不能傷害人類,機(jī)器人應(yīng)服從人類指令,機(jī)器人應(yīng)在不違背前兩條定律的基礎(chǔ)上保護(hù)自身。[3]人類在這方面又當(dāng)如何配合與適應(yīng)?這不會(huì)是一個(gè)簡(jiǎn)單漸進(jìn)的過程。
而針對(duì)我們法學(xué)生來說, 對(duì)于未來AI在法律領(lǐng)域應(yīng)用的預(yù)測(cè),有人提出了了這樣的假設(shè):“如果能用一列n維向量描述各種事件,將「事件.txt」導(dǎo)入「法律.exe」,從而產(chǎn)生「判決.txt」”。我們都知道,AI的記憶效率和記憶準(zhǔn)確率遠(yuǎn)可以甩出人類數(shù)不清條數(shù)的街,這意味著律師需要花費(fèi)
7、幾個(gè)月甚至幾年去研究法律條款研究案情以便做出合理合法的判決,而法律AI只需要啟用一段程序就可以了。[4]這種省時(shí)省力,徹底把現(xiàn)在我們以為的高大上的律師行業(yè)拉下神壇。
三、結(jié)語(yǔ)
其實(shí)人工智能帶來的沖擊和影響無處不在,只不過我們平常感受不是那么強(qiáng)烈。前途是光明的,道路是曲折的。人類文明?l展到今天,可謂步履蹣跚,如今進(jìn)入了人工智能的時(shí)代,我們也有理由可以借助人工智能的發(fā)展生活得更好,當(dāng)然對(duì)于AI發(fā)展的艱難和曲折也應(yīng)該有充足的心理準(zhǔn)備。以上提到的這些離我們并不遙遠(yuǎn),都是現(xiàn)實(shí)中正在發(fā)生的,未來皆有可能。
人類強(qiáng)大的跨領(lǐng)域聯(lián)想、類比能力是跨領(lǐng)域推理的基礎(chǔ)。[5]這種從表象入手,推導(dǎo)并認(rèn)
8、識(shí)背后規(guī)律的能力,是計(jì)算機(jī)目前還遠(yuǎn)遠(yuǎn)不能及的。利用這種能力,人類可以在日常生活、工作中解決非常復(fù)雜的具體問題。面對(duì)生活工作中不同領(lǐng)域的信息,我們必須將這些信息合理組織,并利用跨領(lǐng)域推理的能力,歸納出其中的規(guī)律,并制定最終的決策。這不是簡(jiǎn)單的基于已知信息的分類或預(yù)測(cè)問題,也不是初級(jí)層面的信息感知問題,而往往是在信息不完整的環(huán)境中,用不同領(lǐng)域的推論互相補(bǔ)足,并結(jié)合經(jīng)驗(yàn)盡量做出最合理決定的過程。為了進(jìn)行更有效的跨領(lǐng)域推理,許多人都有幫助自己整理思路的好方法,人類使用的這些高級(jí)分析、推理、決策技巧,對(duì)于今天的計(jì)算機(jī)而言還顯得過于高深。
參考文獻(xiàn):
[1]王永慶.人工智能原理與方法[M].西安:西安交通大學(xué)出版社,1998.
[2]王萬(wàn)良.人工智能及其應(yīng)用[M].北京高等教育出版社,2008(6).
[3]李陶深.人工智能[M].重慶:重慶大學(xué)出版社,2002.
[4]吳康迪.智能體技術(shù)―人工智能的新飛躍[J].科學(xué)對(duì)社會(huì)的影響,2000(1).
[5]孫珩著.淺談人工智能的發(fā)展趨勢(shì)[J].IT與網(wǎng)絡(luò),2002(6).