欧美一区二区三区,国内熟女精品熟女A片视频小说,日本av网,小鲜肉男男GAY做受XXX网站

人工智能真的會導致人類滅絕嗎

錢多多2年前13瀏覽0評論

人工智能真的會導致人類滅絕嗎?

對立面

如果科技專家可信的話,人工智能(AI)有潛力改變世界。但同樣是這些專家,他們對這種轉變會對普通人產生什么樣的影響意見不一。一些人認為,在先進的人工智能系統的幫助下,人類會變得更好,而另一些人則認為,這將導致我們不可避免的衰落。

一項技術如何能引起技術社區內人們如此不同的反應呢?

人工智能是一種用于學習或解決問題的軟件——這些過程通常在人腦中執行。亞馬遜(Amazon)的Alexa和蘋果(Apple)的Siri等數字助手,以及特斯拉(Tesla)的自動駕駛儀,都是由人工智能驅動的。一些形式的人工智能甚至可以創造視覺藝術或寫歌。

毫無疑問,人工智能具有革命性的潛力。自動化可以用機器和軟件取代人類,從而改變我們的工作方式。自動駕駛汽車領域的進一步發展將使駕駛成為歷史。人工智能購物助理甚至可以改變我們的購物方式。人類一直控制著我們生活的這些方面,所以對讓人工系統接管我們的生活保持警惕是有道理的。

形勢

人工智能正迅速成為一股重要的經濟力量。據《福布斯》(Forbes)報道,麥肯錫全球研究所(McKinsey Global Institute)的一份研究報告顯示,僅2016年,全球就有80億至120億美元投資于人工智能的開發。Goldstein Research分析師的一份報告預測,到2023年,人工智能將成為一個價值140億美元的產業。

Wipro首席技術官KR Sanjiv認為,醫療保健和金融等截然不同領域的企業之所以如此迅速地在人工智能領域投入如此之多,是因為它們擔心落后。他在去年發表于《科技危機》(Tech Crunch)的一篇專欄文章中寫道:“就像所有新奇事物一樣,普遍的看法是,被甩在后面的風險要比安全行事的好處大得多,也可怕得多。”

游戲為我們提供了一個了解人工智能日益成熟的有用窗口。例如,谷歌的DeepMind和埃隆?馬斯克(Elon Musk)的OpenAI等開發者一直在利用游戲來教人工智能系統如何學習。到目前為止,這些系統已經擊敗了世界上最偉大的圍棋策略游戲玩家,甚至是更復雜的游戲,如《超級粉碎兄弟》(Super Smash Bros)和《DOTA 2》(DOTA 2)。

從表面上看,這些勝利聽起來可能是漸進式的、微不足道的——畢竟,會下圍棋的人工智能無法駕駛自動駕駛汽車。但在更深的層面上,這些發展預示著未來更復雜的人工智能系統。通過這些游戲,人工智能能夠做出復雜的決策,有朝一日,這些決策可以轉化為現實世界中的任務。能夠玩《星際爭霸》(Starcraft)等無限復雜游戲的軟件,可以通過更多的研發,自主地執行手術或處理多步語音命令。

當這種情況發生時,人工智能將變得異常復雜。這就是令人擔憂的地方。

人工智能的焦慮

對強大的技術進步保持警惕并非新鮮事。從《黑客帝國》(The Matrix)到《我,機器人》(I, Robot),各種科幻小說都利用了觀眾對人工智能的焦慮。許多這樣的情節圍繞著一個叫做“奇點”的概念展開,在這個時刻,人工智能變得比它們的人類創造者更聰明。情況各不相同,但它們往往以徹底消滅人類,或以機器霸主征服人類而告終。

一些世界著名的科學和技術專家一直在表達他們對人工智能的恐懼。著名的理論物理學家斯蒂芬·霍金擔心先進的人工智能將接管世界并終結人類。按照他的邏輯,如果機器人變得比人類更聰明,這些機器將能夠輕松制造出難以想象的武器,并操縱人類領導人。2014年,他在接受BBC采訪時表示:“它將自行起飛,并以越來越快的速度重新設計。”“人類受到緩慢的生物進化的限制,無法競爭,將被取代。”

特斯拉(Tesla)和SpaceX等風投公司的未來主義首席執行官埃隆?馬斯克(Elon Musk)在2017年全美州長協會(National Governors Association)夏季會議上呼應了這種觀點,稱人工智能“……是人類文明存在的根本風險”。

馬斯克和霍金都不認為開發者應該避免人工智能的開發,但他們一致認為,政府監管應該確保這項技術不會失控。馬斯克在NGA的同一場演講中表示:“通常情況下,監管的建立方式是一系列糟糕的事情發生,引發了公眾的強烈抗議,多年之后,一個監管機構成立了,來監管這個行業。”“直到永遠。在過去,這是不好的,但這并不代表文明存在的根本風險。”

霍金認為,一個全球性的管理機構需要規范人工智能的發展,以防止一個特定的國家變得更優越。俄羅斯總統弗拉基米爾?普京(Vladimir Putin)最近在9月初與俄羅斯學生的一次會議上加劇了這種擔憂。這些評論進一步堅定了馬斯克的立場——他在推特上表示,對人工智能優勢的爭奪是“最有可能導致第三次世界大戰的原因”。

馬斯克已經采取措施來對抗這一感知到的威脅。他與創業大師薩姆·阿爾特曼(Sam Altman)共同創立了非營利組織OpenAI,旨在引導人工智能朝著造福全人類的創新方向發展。根據該公司的使命聲明:“通過站在該領域的最前沿,我們可以影響AGI創建的條件。馬斯克還創建了一家名為Neuralink的公司,旨在創建腦-機接口。從理論上講,將大腦與電腦連接起來,將增強大腦的處理能力,以跟上人工智能系統的步伐。

其他預測則不那么樂觀。SETI高級天文學家塞思?肖斯塔克(Seth Shostak)認為,人工智能將取代人類,成為地球上最聰明的實體。“第一代(人工智能)只會按照你說的去做;然而,到了第三代,他們將有自己的議程。

然而,肖斯塔克并不認為復雜的人工智能最終會奴役人類——相反,他預測,人類將對這些超智能機器變得無關緊要。肖斯塔克認為,這些機器將存在于一個遠遠高于人類的智力層面,在最壞的情況下,我們只不過是一個可以容忍的討厭鬼。

不要害怕

并非所有人都認為人工智能的崛起將對人類有害;一些人相信這項技術有潛力讓我們的生活變得更好。“埃隆擔心的所謂控制問題并不是人們應該感到迫在眉睫的事情。我們不應該對此感到恐慌,”微軟創始人兼慈善家比爾?蓋茨最近在接受《華爾街日報》采訪時表示。Facebook的馬克·扎克伯格(Mark Zuckerberg)在今年7月的一次Facebook直播中更進一步,稱馬斯克的言論“相當不負責任”。扎克伯格對人工智能將使我們實現的目標持樂觀態度,他認為這些未經證實的末日場景只不過是在散布恐懼。

一些專家預測人工智能可以增強我們的人性。2010年,瑞士神經學家帕斯卡爾·考夫曼(Pascal Kaufmann)創立了Starmind公司,該公司計劃利用自學習算法,創建一個由數千名專家的大腦組成的“超有機體”。“許多人工智能危言聳聽者實際上并不在人工智能中工作。他們的恐懼可以追溯到電腦工作原理和大腦功能之間的不正確關聯。”考夫曼告訴《未來主義》雜志。

考夫曼認為,這種基本的不了解導致了一些預測,這些預測可能會拍出好電影,但對我們未來的現實卻只字未提。他說:“當我們開始比較大腦和電腦的工作原理時,我們馬上就偏離了研究大腦原理的軌道。”“我們必須首先理解大腦如何工作的概念,然后我們才能將這些知識應用到人工智能的開發中。“更好地理解我們自己的大腦,不僅會使人工智能發展到足以與人類智能匹敵的高度,還會使大腦與電腦的接口更加完善,從而實現兩者之間的對話。”

對考夫曼來說,人工智能就像之前的許多技術進步一樣,并非沒有風險。“這種強大而無所不知的技術的發明會帶來危險,就像任何強大的東西都會帶來危險一樣。這并不意味著我們應該做最壞的打算,基于這種恐懼做出可能有害的決定。”

專家們對量子計算機、激光和核武器也表達了類似的擔憂——應用這些技術可能是有害的,也可能是有益的。

未來

預測未來是一場微妙的問題。我們只能依靠我們對已經擁有的東西的預測,但不可能排除任何可能性。

我們還不知道人工智能是否會迎來人類生存的黃金時代,或者它是否會以毀滅人類所珍惜的一切而告終。然而,可以確定的是,多虧了人工智能,未來的世界可能與我們今天居住的世界幾乎沒有相似之處。