霍金:人工智能發(fā)展不懂控制后果堪憂
人工智能與機(jī)器人的研究與發(fā)展已經(jīng)成為人類社會發(fā)展前進(jìn)必然的趨勢,積極人士表示隨著人工智能的發(fā)展,我們可以解決一些工業(yè)化對自然界造成的損害,根除疾病和貧窮并不是完全不可能。而且可以在未來代替人類完成各項(xiàng)工作,人類只需要做好操控以及監(jiān)控。
不過也有反對人士表示下個(gè)世紀(jì)可能面臨人工智能機(jī)器人的大規(guī)模崛起,這些機(jī)器人的智力甚至可能超過人類。是最致命的危害。
英國著名物理學(xué)家史蒂芬.霍金(Stephen Hawking)周一表示,人工智能(AI)的崛起可能是“人類文明史上最糟事件”,除非人類社會能夠找到控制AI發(fā)展的方法,否則后果不堪設(shè)想。
據(jù)湯森路透基金會網(wǎng)站11月6日報(bào)道,在21歲時(shí)被診斷患上運(yùn)動(dòng)神經(jīng)元病的英國宇宙學(xué)家霍金說,技術(shù)可以改變生活的方方面面,但警告說人工智能帶來了新的挑戰(zhàn)。
他說,人工智能和機(jī)器人已經(jīng)威脅到數(shù)百萬人的就業(yè)——但這場新的革命可以用來幫助社會并為世界謀福利,比如減輕貧困和疾病。
報(bào)道稱,在里斯本舉行的2017年網(wǎng)絡(luò)峰會開幕當(dāng)晚,霍金通過遠(yuǎn)程連線的方式說:“人工智能的興起可能成為人類歷史上最糟糕的事情,也可能成為最美好的事情。”約有6萬人參加了此次峰會。
他說:“我們只需要意識到這些危險(xiǎn),找到它們,采取盡可能好的做法和管理手段,提前為其后果做好準(zhǔn)備。”
霍金說:“我們需要使研究超越人工智能應(yīng)該是什么樣子的理論討論,并采取行動(dòng)確保我們?yōu)樗赡艹蔀槭裁礃幼幼龊脺?zhǔn)備。”霍金如今通過與傳感器和計(jì)算機(jī)語音系統(tǒng)相連的面部肌肉進(jìn)行交流。
霍金表示:“除非我們事先做好準(zhǔn)備并避免潛在風(fēng)險(xiǎn),否則AI可能成為人類文明史上最糟的事件。因?yàn)樗鼤䦷砦kU(xiǎn),象是制造致命的自主武器(autonomous weapons),或是成為少數(shù)人壓迫多數(shù)人的工具,亦可能對經(jīng)濟(jì)造成巨大破壞。”