您正在瀏覽的是香港網站,香港證監會BJA907號,投資有風險,交易需謹慎
市場資訊

市場資訊

首頁市場資訊資訊詳情

馬斯克等千人聯名呼籲暫停研發更強大的AI,人工智能專家:一些說法“精神錯亂”

uSMART盈立智投 04-03 14:05

北京時間4月3日上午消息,據報道,四名人工智能專家的研究結果被一封公開信引用,公開信獲得埃隆·馬斯克聯合簽名並要求緊急暫停研究人工智能,專家們對此表示擔憂。

截至當地時間上週五,這封日期爲3月22日的公開信已獲得超過1800個簽名。信中呼籲,在開發比微軟支持的人工智能研究公司OpenAI新GPT-4“更強大”的系統過程應中斷6個月時間。GPT-4可以進行類似人類的對話、作曲並總結冗長的文件。

自從GPT-4的前身ChatGPT於去年發佈以來,競爭對手也競相推出類似產品。

公開信中說,具有“人類競爭智能”的人工智能系統對人類具有深遠的風險,信中引用了專家的12項的研究結果,這些專家包括大學學者,以及OpenAI、谷歌及其子公司DeepMind的現任和前任員工。

此後,美國和歐盟的民間社會團體一直向立法者施壓,要求約束OpenAI的研究。OpenAI沒有立即迴應記者的置評請求。

公開信由未來生命研究所發出,而該研究所主要馬斯克基金會資助。批評人士指責研究所優先考慮想象中的世界末日場景,而忽略人工智能帶來的更緊迫的擔憂,比如編程到機器中的種族主義或性別歧視偏見。

信中引用的研究包括瑪格麗特·米歇爾(Margaret Mitchell)合著的著名論文《論隨機鸚鵡的危險》。她本人曾在谷歌負責人工智能倫理研究,現在是人工智能公司Hugging Face的首席倫理科學家。

但米歇爾本人批評了這封信,並表示目前還不清楚什麼東西“比GPT4更強大”。“這封信將許多值得商榷的想法視爲假定事實,信中提出了一系列有利於未來生命研究所支持者的人工智能優先事項和敘述”, 她說,“現在,我們沒有特權忽視主動傷害。”

米歇爾的合著者蒂姆尼特·格布魯(Timnit Gebru)和艾米麗·M·本德(Emily M. Bender)也在Twitter上批評了這封信,後者稱信中一些說法“精神錯亂”。

未來生命研究所總裁邁克斯·泰格馬克(Max Tegmark)則表示,這一舉動並不是爲了試圖阻礙OpenAI的企業優勢。

“這太搞笑了。我看到有人說,‘埃隆·馬斯克正試圖減緩競爭,’”他說,並補充表示,馬斯克沒有參與起草這封信。“這件事關乎的不是一家公司。”

目前的風險

康涅狄格大學的助理教授施里·多里-哈科恩(Shiri Dori-Hacohen)也對信中提到她的研究提出了異議。去年她與他人合著了一篇研究論文,論文認爲人工智能的廣泛使用已經帶來了嚴重的風險。

她的研究認爲,今時今日人工智能系統的應用可能會對氣候變化、核戰爭和其他威脅生存相關的決策產生影響。

她表示:“人工智能不需要達到人類水平就會加劇這些風險。”

“有些非生存風險也真的非常非常重要,但這些風險沒有得到高度重視。”

當被問及如何評論這些批評意見時,未來生命研究所總裁泰格馬克表示,應該認真對待人工智能的短期和長期風險。

“如果我們引用某人的話語,這只是意味着我們認爲他們贊同這句話。這並不意味着他們認可這封信,或者我們認可他們的所有想法,”他說。

公開信中引用的另一個專家是總部位於加州的人工智能安全中心主任丹·亨德里克斯(Dan Hendrycks)。他支持信中內容,並表示,考慮黑天鵝事件是明智的。黑天鵝事件是指那些看起來不太可能發生,但會產生毀滅性後果的事件。

公開信還警告稱,生成式人工智能工具可能被用來在互聯網上充斥“宣傳和謊言”。

多里-哈科恩表示,馬斯克簽署這份公開信“相當富有”,他援引民間社團組織Common Cause等機構記錄的消息稱,在馬斯克收購Twitter平臺後,Twitter上的錯誤信息有所增加。

Twitter將很快推出針對訪問其研究數據的一種新的收費架構,這可能會阻礙對該主題的研究。

“這直接影響了我的實驗室工作,以及其他研究錯誤和虛假信息的人的工作,” 多里-哈科恩說。“我們受到了束縛。”

馬斯克和Twitter沒有立即迴應置評請求。