導(dǎo)語:我們正處于第四次工業(yè)革命,其特點(diǎn)是機(jī)器人技術(shù)和自動(dòng)駕駛汽車技術(shù)的進(jìn)步,智能家用電器的擴(kuò)散等等。然而每件事情其實(shí)是有對(duì)立面的,我們正處在科技迅猛發(fā)達(dá)的階段,那么必然會(huì)承受一些重?fù)?dān)。接下來呢就由探秘志小編為大家揭秘人工智能十大恐怖事實(shí),感興趣的不妨一起往下看!

人工智能十大恐怖事實(shí)
1、要求權(quán)利

鑒于目前人工智能的發(fā)展趨勢(shì),有可能機(jī)器人會(huì)達(dá)到自我實(shí)現(xiàn)的階段。當(dāng)這種情況發(fā)生時(shí),他們可能會(huì)像人類一樣要求自己的權(quán)利。也就是說,他們將需要住房和醫(yī)療福利,并要求被允許投票,在軍隊(duì)服役,并獲得公民身份。
這是根據(jù)英國科學(xué)和創(chuàng)新辦公室的地平線掃描中心的一項(xiàng)聯(lián)合研究。英國廣播公司在2006年報(bào)道了這項(xiàng)研究,當(dāng)時(shí)人工智能遠(yuǎn)沒有那么先進(jìn),這項(xiàng)研究的目的是推測(cè)他們?cè)?0年后可能會(huì)看到的技術(shù)進(jìn)步。這是否意味著機(jī)器將在40年后開始要求公民身份?只有時(shí)間才能證明。
2、自動(dòng)駕駛車

假設(shè)你開著車行駛在一條路上,然后,一群孩子突然出現(xiàn)在你的車前。你踩剎車了,但并不起作用。現(xiàn)在,你有兩種選擇:第一種是撞倒孩子并拯救你的生命。第二種方法是轉(zhuǎn)向附近的墻壁或牛皮泥,這樣可以拯救孩子,但卻會(huì)殺死自己。你會(huì)選哪一個(gè)?大多數(shù)人都都會(huì)選擇后者,F(xiàn)在想象一下你的車是自動(dòng)駕駛的,而你是乘客。你還會(huì)接受后者那樣的事情發(fā)生嗎?事實(shí)上,如果他們知道這樣的車會(huì)故意把他們置于事故的危險(xiǎn)之中,他們甚至不會(huì)買這種車。
谷歌明確表示,其自動(dòng)駕駛汽車將避免撞到未受保護(hù)的道路使用者和移動(dòng)設(shè)備。這意味著這輛車會(huì)撞到牛皮筋并殺死司機(jī)。谷歌進(jìn)一步澄清,一旦事故即將發(fā)生,其自動(dòng)駕駛汽車將撞上任何兩輛車中較小的一輛。事實(shí)上,谷歌的自動(dòng)駕駛汽車可能一直在尋求更接近較小的對(duì)象。
3、失業(yè)

毫無疑問,總有一天機(jī)器會(huì)取代我們的工作。然而,我們沒有意識(shí)到的是,他們什么時(shí)候會(huì)接管,在多大程度上?好吧,正如我們將要發(fā)現(xiàn)的,這在很大程度上是。根據(jù)普華永道咨詢和審計(jì)公司(普華永道)的數(shù)據(jù),到2030年,機(jī)器人將占據(jù)日本21%以上的工作崗位、英國30%的工作崗位、德國35%的工作崗位和美國38%的工作崗位。到下個(gè)世紀(jì),他們將占據(jù)人類現(xiàn)有工作的一半以上。
最受影響的部門將是運(yùn)輸和倉儲(chǔ),56%的勞動(dòng)力將是機(jī)器。其次是制造業(yè)和零售業(yè),機(jī)器將占據(jù)所有現(xiàn)有工作的46%和44%。
4、欺騙

在一個(gè)實(shí)驗(yàn)中,亞特蘭大佐治亞理工學(xué)院的研究人員開發(fā)了一種算法,允許機(jī)器人決定是否可以蒙騙其他人類或機(jī)器人。如果機(jī)器人決定采取欺騙的方式,研究人員就會(huì)加入一種算法,讓機(jī)器人決定如何欺騙人和機(jī)器人,同時(shí)降低被欺騙的人或機(jī)器人發(fā)現(xiàn)真相的可能性。在實(shí)驗(yàn)中,對(duì)一個(gè)機(jī)器人進(jìn)行保護(hù),但當(dāng)它發(fā)現(xiàn)該地區(qū)存在另一個(gè)機(jī)器人時(shí),它就開始訪問錯(cuò)誤的地點(diǎn)。這個(gè)實(shí)驗(yàn)是由美國海軍研究局贊助的,守衛(wèi)軍事物資的機(jī)器人如果注意到他們受到敵軍的監(jiān)視,就可能改變巡邏路線。
5、操作

機(jī)器人正在接管Twitter,南加州大學(xué)和印第安納大學(xué)的研究表明,Twitter賬戶中約有15%(4800萬)是由機(jī)器人操作的。Twitter堅(jiān)稱,這一數(shù)字約為8.5%。要明確的是,并不是所有的機(jī)器人都是壞的。有些實(shí)際上是有益的。例如,有一些機(jī)器人可以告知人們自然災(zāi)害的情況。然而,也有一些被用來進(jìn)行宣傳,尤其是俄羅斯。
俄羅斯由于使用這些機(jī)器人在美國選民中散布不和,并影響他們?cè)?016年大選中投票給唐納德·特朗普,新聞仍在報(bào)道中。另一個(gè)鮮有報(bào)道的事件是俄羅斯利用這些機(jī)器人來說服英國選民在2016年英國退歐公投中投票脫離歐盟。
6、壟斷市場(chǎng)

人工智能市場(chǎng)正在被壟斷,更大的公司正在以驚人的速度收購規(guī)模較小的人工智能初創(chuàng)企業(yè)。在目前的趨勢(shì)下,我們最終會(huì)得到人工智能,它是由極少數(shù)公司控制的。截至2016年10月,有報(bào)道稱,像蘋果這樣的公司,臉書、英特爾、Twitter、三星和谷歌在五年內(nèi)收購了140家人工智能公司。2017年前三個(gè)月,大型科技公司收購了34家人工智能初創(chuàng)企業(yè)
7、目標(biāo)換位

2011年,伊朗從美國軍方繳獲了一架高度機(jī)密的RQ-170哨兵隱形無人機(jī),完好無損,這意味著無人駕駛飛機(jī)沒有被擊落。一些美國專家聲稱這不是真的,但后來無人駕駛飛機(jī)沒有被擊落。那么發(fā)生了什么?據(jù)我們所知,伊朗可能說的是實(shí)話。無人駕駛飛機(jī)、全球定位系統(tǒng)和機(jī)器人都是以計(jì)算機(jī)為基礎(chǔ)的,我們都知道,計(jì)算機(jī)確實(shí)有漏洞。戰(zhàn)爭(zhēng)機(jī)器人如果能進(jìn)入戰(zhàn)場(chǎng),也不會(huì)有什么不同。事實(shí)上,敵軍很有可能會(huì)試圖對(duì)他們進(jìn)行黑客攻擊,并利用他們對(duì)付部署他們的同一支軍隊(duì)。
自主殺人機(jī)器人還沒有被廣泛使用,所以我們從未見過任何黑客入侵。然而,想象一下,一群機(jī)器人突然在戰(zhàn)場(chǎng)上轉(zhuǎn)向效忠,轉(zhuǎn)而反對(duì)自己的主人;蛘呦胂笠幌,朝鮮在非軍事區(qū)攻擊那些SGR-A1哨兵,并使用這些槍對(duì)付韓國士兵
8、能力超越

人工智能分為強(qiáng)人工智能和弱人工智能兩類,今天我們周圍的人工智能被歸類為弱人工智能。它們之間的區(qū)別在于它具有像人類一樣的推理能力和行為能力。強(qiáng)人工智能目前還不存在,但科學(xué)家預(yù)測(cè)10年后它們就會(huì)出現(xiàn)。弱人工智能通常做編程的事情,不管這個(gè)任務(wù)在我們看來有多復(fù)雜。強(qiáng)人工智能它不受其規(guī)劃范圍的限制,可以決定在沒有人的投入的情況下做什么和不做什么。
9、自動(dòng)殺人

當(dāng)我們說“自動(dòng)殺人機(jī)器人”時(shí),我們的意思是機(jī)器人可以在不受人類干擾的情況下殺人。我們正在談?wù)摰淖詣?dòng)殺手機(jī)器人之一是SGR-A1,一種由三星Techwin和韓國大學(xué)聯(lián)合開發(fā)的哨兵槍。該SGR-A1類似于一個(gè)巨大的監(jiān)視攝像頭,但它有一個(gè)強(qiáng)大的機(jī)關(guān)槍,可以自動(dòng)鎖定和殺死任何感興趣的目標(biāo)。
SGR-A1已經(jīng)在以色列和韓國使用,韓國已經(jīng)在其與朝鮮的非軍事區(qū)上安裝了幾個(gè)裝置。韓國否認(rèn)激活自動(dòng)模式,該模式允許機(jī)器決定殺死誰,誰不殺人。相反,這臺(tái)機(jī)器處于半自動(dòng)模式,它檢測(cè)目標(biāo)并需要人工操作人員的批準(zhǔn)才能執(zhí)行一次殺戮。
10、毀滅性的

人們擔(dān)心這個(gè)世界最終可能會(huì)變成一個(gè)人工智能世界,比爾蓋茨認(rèn)為,人工智能將變得過于聰明,無法繼續(xù)在我們的控制之下。史蒂芬·霍金也有同樣的觀點(diǎn)。更確切地說,他相信機(jī)器會(huì)在他們所做的事情上變得過于能干,從而毀滅我們。一旦他們的目標(biāo)不再與我們的目標(biāo)一致,我們之間的沖突就會(huì)開始。埃隆·馬斯克將人工智能的擴(kuò)散比作“召喚惡魔”。他認(rèn)為這是對(duì)人類最大的威脅。
結(jié)語:看完上述小編為大家盤點(diǎn)的人工智能十大恐怖事實(shí),相信大家都有所了解了吧!人工智能位于所有領(lǐng)域的最前沿,它是一種能夠在智能上與人類匹敵、甚至超越人類的自動(dòng)化計(jì)算機(jī)系統(tǒng)的發(fā)展。