国产精品免费视频网站丨日韩a毛片免费观看丨欧美日韩中文在线不卡丨欧亚精品乱码久久久久久丨1000部夫妻午夜免费丨国产精品久久久久久久久一级无码丨日欧片内射AV影院频道丨97色伦图片 關于未來智能機器人對人類安全威脅的思考
也許科幻電影太多地描繪了機器人反人類統治而控制了地球的未來,因此引發一些人的不安,擔心幻境成真。國際人權組織“人權觀察”就是其中之一,2012年11月他們聯合美國哈佛大學發表了一份報告,呼吁國際間禁止研發全自動武器系統。這種可以在不受人類操縱的情況下對目標自行發動攻擊的武器,也被稱作“殺人機器人”。
報告聲明:應設立國際性法規禁止研發、生產及使用全自動武器;并采取國家立法與政策制定來約束研發、生產及使用全自動武器。
報告說,這樣的軍用機器人可能在20至30年內問世;這樣的機器人將無法區分軍人和平民;包括美國在內的許多國家都對以機器人代替士兵的設想感興趣。
美軍或將研發“殺人機器人”
巧合的是,就在這份報告發布3日后,美國國防部發布了一份關于“全自動武器系統”的指令,據英國《衛報》12月3日報道,指令指出,這種系統一旦激活,即可自行選擇和處理目標而不需要任何人的操控。同時將建立相關政策,分配開發和使用自動或半自動武器系統的人的責任。
事實上,這已經不是美軍第一次討論這種武器的可能性,早在2004年美國國防部就已經給研發者亮了綠燈。總的來說,美國國防部希望的是最徹底的實驗,從研發到使用到操作者的培訓,并確保適用法律的配套,而且確保有人類電腦終端能結束錯誤任務。當然他們也反復強調了建立有關政策防止任何可能出現的錯誤而導致系統的失控。
英國《衛報》的特約作者諾爾·沙基在他的評論文章中稱,這種反復強調的錯誤,包括以下幾個方面,人為錯誤,人機交互失敗,系統失靈,通信未升級,軟件編碼錯誤,敵人網絡攻擊或滲透供應鏈,干擾,電子欺騙,敵人的其他行為,或是戰場上的意外情況。
諾爾·沙基是英國的人工智能和機器人專家,對于這種“殺人機器人”出現的可能十分擔憂。并且他在文章中稱早在2007年他就已經在《衛報》發表文章警告國際社會這種機器人的危險性,但至今也沒有看到國際上有關于限制殺人機器人研制的立法討論。
“人權觀察”的報告認為雖然目前這種全自動武器還沒有出現,而且世界強國包括美國也沒有最后下決心發展這種武器。但是高科技的軍事正在發展或者已經發展出了能夠推動這種全自動武器發展的基石,除了美國,德國、以色列、韓國、俄羅斯、英國、中國都已經具備了這種能力。
一些專家認為,這種武器可能在20、30年內就可完成,甚至是更快。而就在12月10日,美國國家情報委員會作出預測:2030年將出現仿生機械超人。
人工智能會否成為殺人武器
全自動武器系統若要有一定的自行判斷能力,就要以人工智能為基礎。但隨著人工智能的發展,出現殺人機器人的擔憂會越來越多,甚至人們也會擔心用于其他地方的服務型機器人也可能因為某些錯誤的出現而導致安全問題。尤其是當人工智能越來越接近人類的智力,甚至擁有了類人的情感。
在專業領域內,一些專家將機器人學和人工智能看做是兩個獨立的學科。美國計算機科學教材系列《人工智能》作者提姆·瓊斯(TimJones)認為,機器人學和人工智能是兩個獨立的領域,但卻是相互補充的。機器人為人工智能提供了其他事物所不能提供的物理表現形式。
他對《中國科學報》記者說:“雖然可以通過機器人模擬,了解人工智能應用在機器人上時可能產生的問題,但是模擬容易掩蓋一些需要解決的問題。因為,模擬本身是人工控制環境的,而機器人本身和自然環境卻是復雜和凌亂的。”
因此,瓊斯在他編寫的教材中,將機器人學和人工智能分離為兩個學科。“機器人學能為人工智能研究帶來好處。雖然我們可以制造一個完全不結合人工智能的機器人,這種機器人系統只是按預定程序辦事,但它的重要性絕不能與建立一個擁有智能的機器人系統相比。”
當人工智能越來越高級,擁有人工情感、類人情感就成為一個必然的方向。瓊斯也告訴《中國科學報》記者,沒有情緒的機器就不能稱之為擁有真正的人工智能,但不是所有的情緒對機器都是有利的。如果一個機器能夠展現憤怒或嫉妒這樣的情緒那就隱藏著危險。他說:“擁有情感能讓機器感知用戶的情感。能表達和能感知情緒都是有必要的,但是這也會導致新的問題。”
北京科技大學物聯網與電子工程系主任王志良告訴《中國科學報》記者,對于機器人或者是人工智能的研究一定要有一些制約,或者是準則來約束研發類似殺人機器人是非常必要的。因為全自動武器是很容易做到的。
比如美國的無人機,在長時間飛行中,通過高精度的影像技術,可以將敵人的行為完全掌握。而武器的高精度打擊,或者稱為定點手術都已經是非常成熟的技術。
科幻電影中經常出現機器人擁有的一定水平的智能后,開始不斷學習人類的思維方式,學習人類的知識,甚至產生控制人類的“野心”,或是對既有法則的過度分析后以保護人類的名義而反人類。
王志良說:“當機器擁有了一定的學習能力,我們必須在人文或是法律上有這樣的制約,不能夠將權力全部交給機器人,這絕對是有風險的。尤其是在機器人漸漸普遍進入家庭,如何保證安全非常重要。”
人類智慧難超越機器“逆天”無可能
早在1940年,科幻作家阿西莫夫就提出了著名的“機器人三原則”:1.機器人不應傷害人類;2.機器人應遵守人類的命令,與第一條違背的命令除外;3.機器人應能保護自己,與第一條相抵觸者除外。
這是給機器人賦予的倫理性綱領。學術界一直將這三原則作為機器人開發的準則。而王志良認為這個三原則已經越來越適用于機器人和人工智能的研究。
很多科幻電影中,還是會在最后揭示出,機器畢竟是機器,它們獲得的“思維”還是基于人類的程序設計。人最終會通過自身更高級智慧重新掌控機器。
在業內,人類智能和機器智能通過兩個詞語區分,即“濕智能”與“干智能”。人類以及動物的大腦都是生物基礎,有血液等等,因此被稱為濕智能,而機器人的大腦都是由集成電路等固態的東西組成。王志良說:“物質構成的不同,決定了它們能夠產生和表現出來的性能肯定是不一樣的。”
從海洋到大陸,從水生生物到陸地霸主,人類的大腦是經過幾億年的變遷與進化,才擁有了今天這樣的智慧,而機器人的研究只不過幾十年。
英特爾(Intel)創始人之一戈登·摩爾提出的摩爾定律指出當價格不變時,集成電路上可容納的晶體管數目,約每隔18個月便會增加一倍,性能也將提升一倍。
雖然現在硅電路(集成電路)的運算速度越來越快,存儲量越來越大,但王志良告訴《中國科學報》記者,集成電路的這種發展已經經過了幾十年,可能在十年后就會達到極限。即使做到極限,與人的大腦也是無法比擬的。“因此,機器人擁有能夠戰勝人類的智慧這種事是無須擔憂的。”
提姆·瓊斯也說:“我不認為機器人有任何可能成為人類的威脅,尤其目前在研究中還有很多未能解決的問題。實際上那個人類本身就是一部令人驚嘆的機器。面對很多不能解決的問題,人類自身的歸納能力以及解決新問題的能力都超越了任何的機器。”
瓊斯表示,作為人類,我們今天能夠從人工智能獲得很多利益,更有助于人類自身的擴張。在人工智能研究的早期階段,其目標就是發展能思考的機器,在某些領域還渴望讓機器人能擁有這樣的智能。
但實際上,現階段的人工智能研究已經趨于更實際的目標,都是有利于目前技術的發展和改善我們的生活。知識的分類和開發傳播已經是在線即時的,這讓我們能夠不斷地擴大學習范圍。這讓人類變得更加聰明,當然也有少數人認為網絡降低了我們的智商而且從根本上改變了我們的思維方式。雖然這是在建立虛擬和實體智能時一定會伴隨的危險,但也是我們必須做的。
來源:中國科學報