綜合《路透》與《CNBC》報導,周二(5月30日),OpenAI執行長奧特曼(Sam Altman)、谷歌主管、350名教授、專家在非營利組織人工智慧安全中心(CAIS)公開一份聯署的簡短聲明,警告人工智慧(AI)讓人類毀滅的風險堪比核戰爭。
聯署聲明警告:AI讓人類毀滅的風險堪比核戰爭
「減低AI毀滅人類的風險,應該與流行病、核戰爭等其他社會規模的風險等量齊觀,成為全球優先處理的事項。」該聲明敦促決策官員重視。
350多人的聯署名單上,除了奧特曼,還包括AI公司DeepMind、Anthropic的執行長、微軟和谷歌的高管。還有2位獲得2018 年圖靈獎的AI教父:辛頓(Geoffrey Hinton)、Yoshua Bengio、哈佛大學和中國清華大學等機構的教授。
CAIS特別點名獲得2018 年圖靈獎的AI教父Yann LeCun,沒有簽署這一份聲明,Yann LeCun目前在臉書母公司Meta擔任主管。
Meta主管Yann LeCun沒有簽署聲明
「我們要求許多Meta員工簽名。」 CAIS主任亨德里克斯(Dan Hendrycks)表示,Meta沒有立即回應置評請求。
這封信對外公開時,恰逢美國-歐盟貿易和科技委員會在瑞典舉行會議,預計政客人物將在會上討論人工智慧監管問題。
特斯拉執行長馬斯克(Elon Musk)、一群AI專家及科技業高管率先在4月份警告AI對社會的潛在風險。「我們已經向馬斯克發出邀請,希望他能在本周簽署該聲明。」亨德里克斯說。
AI可用於醫學診斷、撰寫法律簡報
AI最新發展創造一些工具,支持者聲稱,這些工具可用於醫學診斷、撰寫法律簡報等領域,但這引發人們擔憂,AI技術可能導致隱私侵犯和權力錯誤信息宣傳活動,還會催生出為自己利益思考的「智慧機器」。
2個月前,非營利組織未來生命研究所(FLI)發表一封類似的公開信,由馬斯克和其他數百人聯名簽署,要求緊急暫停高階人工智慧(AI)的研究,理由是人類面臨風險。
「我們的信件使暫停研發高階AI成為主流,因為高級AI有毀滅人類的風險,我最近也簽署一封信件,現在終於可以開始建設性的公開對話了。」FLI總裁泰格馬克(Max Tegmark)表示。
歐盟AI成為第一個制訂AI規範的地區
人工智慧的先驅、AI教父辛頓(Hinton)早些時候告訴《路透》,AI對人類構成的威脅,比極端氣候的威脅更為緊迫。
歐盟AI成為第一個制訂AI規範的地區,引起OpenAI創辦人奧特曼上周批評歐盟監管過度,並揚言要離開歐洲,但是遭到政界人士的批評後幾天,奧特曼改變立場。
今年來,世界各地大公司競相開發具有競爭力的產品和功能,原來是因為ChatGPT激發大家對人工智慧有更多認識和採用。
AI可以模仿人類,取代一些藍領與白領的工作
奧特曼的聊天機器人ChatGPT APP去年11月問世,風靡全球,近幾個月AI科技發展迅速,ChatGPT上線僅兩個月,用戶就達到1億。
ChatGPT對用戶的提問做出類似人類反應,這種能力令研究人員和民眾驚嘆不已,這表明人工智慧可以模仿人類,取代一些藍領與白領的工作。
奧特曼也因此成為AI業界的代言人,歐盟執委會主席馮德萊恩周四會見奧特曼,歐盟工業界負責人布勒東下個月將在舊金山與奧特曼會面。
「我們是否應該將所有工作自動化,包括令人滿意的工作? 」
今年3月份,奧特曼承認他對AI科技感到有點害怕,因為他擔心威權獨裁政府會開發這項技術。特斯拉的馬斯克和谷歌前執行長施密特等其他科技領袖也警告AI給社會帶來的風險。
在3月份發表的一封公開信當中,馬斯克、蘋果聯合創辦人沃茲尼亞克、幾位科技業領袖敦促,AI實驗室停止訓練比GPT-4更強大的系統,GPT-4是 OpenAI 最新的大型語言模型,他們還呼籲這類高級AI的開發應暫停6個月的時間。
「當代AI在一般任務上變得與人類具有競爭力。」信件強調。
「我們是否應該將所有工作自動化,包括令人滿意的工作? 我們是否應該發展最終可能超過我們、超越我們、取代我們的非人類思維? 我們應該冒著人類文明失控的風險嗎?」公開信提出一連串關鍵問題。