據《紐約時報》1 日報導,現年 75 歲的辛頓表示自己離開谷歌(Google),是為能夠公開談論不受限制的人工智能(AI)開發的風險—其中包括錯誤信息的傳播、就業市場的動盪,以及其他更邪惡的可能性。
在此之前,辛頓安慰自己堅持下去的藉口是「如果自己沒有做,其他人就會做」。但跟 5 年前的環境相較之下,現在真的變得很可怕,他擔心未來的人工智能只會變得更危險,因為「壞人」會利用先進的系統來犯罪,而這將難以預防。
不同於辛頓對此感到後悔,谷歌的首席科學家傑夫·迪恩(Jeff Dean)仍為公司的 AI 努力辯護。迪恩認為谷歌「仍致力於對人工智能採取負責任的態度,不斷學習了解新出現的風險,同時也大膽創新」。
在接受紐約時報採訪過程中,辛頓對於人工智能已經開始在某些方面超越人類思維感到擔憂。辛頓也認為,隨著微軟支持的 OpenAI、谷歌和其他科技巨頭競相引領這個領域,人工智能的發展步伐將會加快—而這可能會帶來危險的後果。
辛頓擔心,隨著系統獲得創建和運行自己的計算機代碼的能力,先進的人工智能最終可能失控,並在無人控制的情況下為武器提供動力。之前就算有人相信人工智能會變得比人類更聰明,但大多數人認為這還很遙遠其中也包括辛頓。一開始,辛頓認為這要花 30 到 50 年,甚至更長的時間。但現在,他不再那樣想了。
在最近接受 CBS 節目《60 分鐘》採訪時,谷歌執行長桑德爾‧皮查伊(Sundar Pichai)就提到,人工智能會導致作家、會計師、建築師和軟件工程師等「知識工作者」失業。
皮查伊還詳細描述了谷歌的人工智能程序開發出「突發特性」的奇怪場景,或是在沒有接受過訓練的情況下,學會了意想不到的技能。
越來越多的專家警告說,若缺少適當的監督和監管,人工智能可能會對社會造成重大傷害,辛頓是最新的一位。
早在伊隆馬斯克和蘋果聯合創始人史蒂夫沃茲尼亞克簽署一封 警告人工智能對人類構成“深遠風險”的信之前, 英國理論物理學家斯蒂芬·霍金(Stephen Hawking)就已經對快速發展的技術敲響了警鐘。
2014 年,在 BBC 的一次採訪中,患有肌萎縮性側索硬化症 (ALS) 的霍金就直言「全人工智能的發展,可能預示著人類的終結」。因為非常基本的人工智能形式,已經被證明是強大的,但創造出可以與人類智能相媲美或超越人類智能的系統,對人類來說可能是災難性的。
霍金說:「它會自行起飛,並以不斷增加的速度,重新設計自己,而人類因為受到生物的限制,無法競爭,會被取代。」他認為,計算機需要接受培訓以符合人類目標,若不認真對待與人工智能相關的風險,可能是「有史以來最嚴重的錯誤」。