發新話題

霍金提出了三個和我一樣的觀點

霍金提出了三個和我一樣的觀點

霍金提出了三個和我一樣的觀點
當今世界最著名的物理學家史蒂芬·霍金就人類命運提出了三個在全世界引起強烈反響的重要的觀點,但都比我就這些觀點正式出版的著作和發表的文章晚了多年。因此說是“霍金提出了三個和我一樣的觀點”,而不是相反。
第一個觀點:2010年4月,霍金指出,宇宙中有千億的星系,每個星系又有數億顆恒星,外星人幾乎肯定存在,我們應該避免與外星人接觸,千萬不要聯繫外星人,否則可能會導致人類被毀滅,因為能夠穿越恒星際的距離來到地球的外星人,其科學技術的領先程度必定遠高出地球人,我們無法與之抗衡。霍金的推理和舉例和我的完全一致,但比我晚了三年。
第二個觀點:2014年12月霍金指出,人工智慧技術終將產生自我意識並取代人類,因為技術的發展速度要快於生物的進化速度,當人工智慧發展完善後,可能會導致人類滅絕。霍金的推理和舉例和我的基本一致,但比我晚了七年。
第三個觀點:就是在不久前,也就是2017年3月霍金在接受《倫敦時報》採訪時指出,人工智慧如果管控不好有可能滅絕人類,我們需要以更快的速度識別這類威脅,並在失控前採取行動,要做到這一點,需要組建某種形式上的世界政府。霍金的推理和舉例與我的基本一致,但比我晚了十年。
首先,肯定不是我借鑒了霍金的觀點,多半是他借鑒了我的觀點,因為我在先,他在後,而且我的文章和書稿都用中、英兩種文字,發給過多國領導人和多個機構,並在多個網站上公開發過,不僅有中國的網站,還有國外的科技、社會和政治類英文網站。
說霍金提出了三個和我一樣的觀點不是想炫耀我有多了不起,相反,我是想說世界頂級科學家思考的觀點正在趨近我的核心觀點,而這些核心觀點我認為事關人類的生死存亡,努力讓世界接受這一觀點並採取相應的行動,這是我一生的追求,借勢霍金這樣的科學家正是我的用意。同時我還想說,霍金的觀點還不夠深入,不夠全面,不夠徹底。
還在1979年我剛上大學不久就產生了一個很怪的想法,科學技術是一把雙刃劍,既能造福人類,也能毀滅人類,那麼科學技術照此發展下去會不會有一天把人類給滅絕。如果在不久的未來科學技術就會滅絕人類那無疑是天大的事,那麼我們有沒有可能解決這一問題呢?很快我就覺得這是一個很值得研究的課題,人的一生難得做成一件值得去做的大事。不久後我就決定,我這一輩子只做這一件大事。我從國家機關下海經商也是為了這件大事,因為有一定的經濟基礎後就可以靜下心來進行研究與寫作,並有條件推廣我的研究成果。
其實,要嚴密的論證科學技術是否會滅絕人類,並找到化解這一危機的方案是很難的,完成這一工作我用了近二十八年的時間,並終於在2007年1月完成了我的《拯救人類》一書。這部八十萬字的著作在還是樣書的時候,我就將其寄給過中國國家主席、美國總統和聯合國秘書長等26位人類領袖,但除了伊朗使館來過一個電話外,再沒有任何回饋。
2007年7月,《拯救人類》一書分為一、二卷由同心出版社出版,但僅發行了一天就被要求暫停發行了。
之後我又出版了《最大的問題》一書,還在香港出版了《論人類滅絕》和《拯救人類(精選本)》兩部書,併發表過多篇文章,還為此建了一個網站名為“胡家奇網”。為了陳述自己的理論和建議,我之後又多次給各大國的領導人和聯合國秘書長等人類領袖,以及相關機構寫信,還在一些大學發表過演講。
我曾與許多人進行過交流,但我的核心觀點常被認為是杞人憂天,有些人甚至直言不諱地說我的觀點是謬論。
然而,僅僅才過去十年,科學技術又得到了長足的發展,一些我當時的預言似乎今天就快要變成現實。同時,在這十年中我的一部分觀點已陸續被一些著名的科學家和學者提出,這也是我還算欣慰的地方,遺憾的是,我的一些最核心的觀點目前還沒有有分量的人提出,也沒有有分量的人認可我,這是我憂心如焚的事,因為留給人類的時間真的已經不多。
這裏只談我的三個具有現實意義的核心觀點,霍金與我相同的前兩個觀點只是我的分觀點,第三個觀點是我的一個具有現實意義的核心觀點,即只有通過世界政府才能管控科學技術,在此不復述。另外兩個核心觀點我認為十分重要。
第一是:科學技術的繼續發展必定很快滅絕人類,長則二、三百年,短則就在百年內,而且我認為多半會是後者。
其實現在已經有人提出了和我幾乎一樣的觀點,2013年5月與霍金在同一座城市的牛津大學人類未來研究所發佈研究成果指出,人類最早將在下世紀被滅絕,罪魁禍首就是科學技術。這是由眾多數學家、哲學家、科學家組成的專門的小組研究得出的結論。該研究成果和用例與我的研究成果與用例幾乎完全一致,但比我晚了六年。
該研究所的所長尼克·博斯特羅姆在接受網路採訪時表示:“人類的科技能力與人類運用這些能力的智慧正在展開一場重大比賽,我擔心前者可能會遙遙領先於後者。”博斯特羅姆進一步闡述:行星撞地球、超級火山、核爆炸等危害不足以威脅人類的生存,人類最大的威脅來自科技創新所帶來的“不確定因素”,如合成生物學、納米技術和人工智慧,以及其他還沒有出現的科學技術成果。
當我得知他們的研究成果後喜出望外,隨即寫了 “致:牛津大學人類未來研究院院長尼克·博斯特羅姆教授”的信,同時我又寫了一篇文章“終於有了知音”,這兩部分文字我都翻譯成英文發給了博斯特羅姆並放到了網上,但一直沒有回復。
2016年初,由穀歌開發的機械人“阿爾法狗”戰勝韓國圍棋冠軍李世石,震驚了世界 ,這充分顯示機械人已經具備了深層學習的能力,對其進一步的思考是很怕的。霍金、馬斯克、比爾·蓋茨等世界頂級科學家都對此十分擔憂,比爾·蓋茨更是指出,“再過幾十年,人工智慧就會強大得足以引起擔憂,……不知道為什麼有些人對此無動於衷”。這促使我考慮,我們公司也要抓緊進行人工智慧的研究,因為我不研究,許多人也在研究,我研究還能跟蹤這一技術的動向,如人類真有不測,到時也許還能幫一些忙。
第二個也是目前還沒有有分量的人接受的觀點是:為了避免人類的滅絕必須從現在起就要嚴格限制科學技術的發展。
因為,科學技術具有不確定性,越是高深的科學技術越難把握。科學技術已經發展到現在這樣的高度後,還在冒然前行風險之大誰都難以預測。將現有安全、成熟的科技成果廣泛普及到全球,並進行合理的管理,完全可以保障全人類豐衣足食。如果向科學技術進行無限制的索取,人類滅絕必將為時不遠。霍金認為管控好人工智能就能解決問題,那麼我們能夠管控一時,能夠管控永遠嗎?能夠管控一項科技成果,能夠管控所有科技成果嗎?只有通過世界政權的力量,將現有安全成熟的科技成果進行嚴格篩選後加以普及利用,而後將其他的科技成果和科學理論嚴密、永遠地封存並達到遺忘,同時嚴格限制科技研究,這才是人類永續未來的唯一途徑。
以上正是我認為霍金的認識還不夠深刻和全面的地方。也許人們認為這是謬論,但我堅信這是真理。
這裏需要澄清的一點是,說限制科學技術的發展不是要中國首先限制,而是全球要同步限制,如果要中國首先限制我也會堅決反對。
(注:霍金與我相同的第一、二、三個觀點分別見我的《拯救人類》一書“卷一”的第三章第四節,第六章第二節,“卷二”的第一章第五節;《最大的問題》一書的第三章第四節,第六章第二節,第八章第四節。我的《論人類滅絕》和《拯救人類(精選本)》也有相關內容,我還就上述觀點發表過專門文章)

作者:胡家奇  人類問題學者
一路撈集團、建磊集團董事長兼首席科學家

TOP

發新話題

本站所有圖文均屬網友發表,僅代表作者的觀點與本站無關,如有侵權請通知版主會盡快刪除。