[回到版面]
回應模式
名 稱
E-mail
標 題
內 文
附加圖檔[] []
類別標籤(請以 , 逗號分隔多個標籤)
刪除用密碼(刪除文章用。英數字8字元以內)
  • 可附加圖檔類型:GIF, JPG, PNG, BMP, SWF,瀏覽器才能正常附加圖檔
  • 附加圖檔最>大上傳資料量為 3000 KB。當回文時E-mail填入sage為不推文功能
  • 當檔案超過寬 180 像素、高 180 像素時會自動縮小尺寸顯示
  • 在文中張貼 YouTube 或 ニコニコ 完整網址可自動轉換成影片.
  • 鬧板、攻擊性發言、煽動性發言請無視、並且向管理員回報:[按此回報]

檔名:1470674314150.jpg - (179 KB, 580x895) []
179 KB 名稱: 無名氏 [16/08/09(二)00:38 ID:yQ4rv6io] [] No.78587 4推 
按照史蒂芬·霍金教授的說法,一場潛藏的威脅正在矽谷的技術實驗室中悄悄醞釀。
AI人工智慧偽裝成數位輔助設備和自動駕駛的交通工具,正在人類社會中逐漸站穩腳跟,它們或許有朝一日將導致人類的終結。

這位世界知名的物理學家警告稱,機器人會以比人類快得多的速度進化,它們的最終目標將無法預測。
在接受採訪時,霍金表達了對人類未來的擔憂:「我不認為人工智慧領域的進步一定是有益的。」

霍金於近日參加了在加那利群島舉行的「斯塔爾慕斯節」(Starmus Festival),該活動的宗旨是使公眾更加接近科學。

他在採訪中說:「一旦機器達到了能夠自我進化的關鍵步驟,我們就無法預測它們的目標是否會和我們一樣。
人工智慧具有比人類更快進化的潛力。
我們需要確保人工智慧的設計符合倫理,並且有到位的防護措施。」

這並不是霍金第一次警告機器人「反逆」的危險。
就在去年,他警告稱隨著人工智慧逐漸學習著為自己考慮,並且更加適應環境,人類正面臨著不確定的未來。
這位物理學家在參加倫敦的一次活動時說:「人工智慧的全面發展可能意味著人類的終結。」

去年早些時候,霍金表示人工智慧領域的成功「將是人類歷史上最重大的事件,不幸的是,這可能是最後一次。」

他認為,數位個人助理如Siri、Google Now和Cortana等的發展,僅僅是一支數位技術大軍的前兆,而這支大軍會在接下來幾十年裡湧現出來。

霍金也不是唯一持有悲觀態度的人。2015年,愛隆·馬斯克將人工智慧的發展比作「魔靈召喚」。
這位特斯拉的創始人此前就發出警告,稱人工智慧技術有朝一日會比核武器更加可怕。

不過,在接受英國廣播公司的採訪時,霍金教授指出人工智慧技術也會有巨大的潛在好處,能幫助人類消除戰爭、疾病和貧窮。

在最近接受賴瑞·金的採訪中,他表示人類最大的威脅其實是自己的軟弱。
早在2010年接受賴瑞·金的採訪時,霍金就提出人類兩個最大的危險是貪婪和愚蠢,而在最近的這次採訪中,他表示一切並沒有太大改變。

「我們當然沒有變得少點貪婪或少點愚蠢,」霍金說「六年前,我曾經警告過污染和人口過度擁擠。
在那之後,情況變得更糟。
以這種速率,2100年時人口將達到110億。
空氣污染在過去五年變得更加嚴重。」
說到人類面臨的最嚴重問題,霍金表示是「空氣污染的增加……以及二氧化碳濃度的上升。」
無名氏: (*´ω`*)未來AI會用VR和自動人偶解決人口過剩問題,並還給地球美好的大自然 (12pR7JO6 16/08/09 17:01)
無名氏: (*´ω`*)並不是使用獵殺人類這種無法與人類和平共處的方式 (12pR7JO6 16/08/09 17:03)
無名氏: (゚∀゚)<你的意思是有自動人偶會盡情配合我啪啪啪嗎 太好惹 (IKrWBw0I 16/08/09 19:02)
無名氏: (*´∀`)<我同意樓上的說法,給肏而且大部分都ok的話,我才不在意是不是人呢 (rPDSw9io 16/08/10 13:58)

【刪除文章】[]
刪除用密碼:
第一頁[0] 最後一頁