以太幣交易所 以太幣交易所
Ctrl+D 以太幣交易所
ads
首頁 > TUSD > Info

人類精英呼吁暫停AI實驗 ChatGPT:合理但謹慎考慮_GPT

Author:

Time:1900/1/1 0:00:00

3月29日,非營利組織“未來生命研究所”發表了一封題為“暫停巨型AI實驗”的公開信,呼吁全球的AI實驗室暫停訓練比GPT-4更強大的系統至少6個月,并在此期間開發出一份針對AI的共享安全協議,必要時需要政府介入。?

1000多名科技人士在這份公開信上簽名,包括特斯拉CEO馬斯克、StabilityAI?的CEOEmadMostaque等企業掌門人,也包括Alphabet旗下DeepMin的研究人員,還有諸如圖靈獎得主YoshuaBengio這樣的重量級學者。當然,也有人表達了不同意見,認為這是在阻礙技術進步。

開發出GPT-4模型的OpenAI公司內還沒有人簽名,該公司目前也沒有對這封公開信予以回應。但我們向卷入紛爭中的ChatGPT要了個回應。

這個AI自然語言大模型產品倒是表現出了善解人意的一面:暫停實驗存在合理性,但需要謹慎考慮這么做帶來的技術發展滯后問題。它還給出了關于AI的六大風險和十個管理制度建議。

人類精英:暫停實驗確立規則

截至今日,掛在“未來生命研究所“官網上的《暫停巨型AI實驗》公開信,已經收集了1130人的簽字,名單里精英云集,不乏特斯拉、蘋果等科技公司的高管,也有政客和作家,當年,更多的是全球多所高校的教授以及人工智能領域的專家。??????

OpenAI CEO等350名AI行業人士簽署公開信 警告AI或給人類帶來“滅絕風險”:5月30日消息,350位AI行業的高管、研究人員和工程師日前簽署了一封公開信,表示擔憂AI技術將對人類帶來生存威脅。這封信由位于非營利組織人工智能安全中心發布,其中僅有一句話:“降低人工智能帶來的滅絕風險應該成為一個全球優先事項,與大流行病、核戰爭等其他社會規模的風險并列。”

OpenAI首席執行官Sam Altman、Google DeepMind首席執行官Demis Hassabis、Anthropic首席執行官Dario Amodei三位AI公司高管,以及2018年圖靈獎得主Geoffrey Hinton、Yoshua Bengio已簽署這封信。[2023/5/31 11:49:05]

那么精英云集簽字的這封公開信到底說了什么?以下是這封信的全文

廣泛的研究表明,具有能與人類競爭的智能的AI系統會對社會和人類構成深刻的風險,頂尖的AI實驗室也承認這一點。正如廣受認可的阿西洛馬人工智能原則原則所述,高級AI可能代表著地球生命歷史的深刻變化,應該以合適的態度和資源去進行規劃和管理。不幸的是,這種水平的規劃和管理并沒有發生。盡管最近幾個月AI實驗室陷入了一場失控的競賽,以開發和應用越來越強大的數字思維,然而沒有人能夠理解、預測或可靠地控制這些思維,甚至他們的創造者也不能。

馬斯克:如果我們能夠在火星上自給自足,就代表著人類已經通過了宇宙大篩選的條件之一:特斯拉CEO埃隆·馬斯克微博:如果我們能夠在火星上自給自足,就代表著人類已經通過了宇宙大篩選的條件之一,屆時我們將成為星際公民。地球迄今約有45億年歷史,但人類尚未成為跨星球生存物種,也不確定留給我們的時間還有多久。[2021/11/25 7:11:00]

當代AI系統在一般任務上正在擁有與人類競爭的能力,我們必須問問自己:

我們應該讓機器在我們的信息渠道中充斥宣傳和謊言嗎?

我們是否應該自動化所有的工作,包括那些有成就感的工作?

我們是否應該培養出可能比我們數量更多、比我們更聰明、最終超越并取代我們的非人類思維?

我們是否應該冒著失去對我們文明控制的風險?

此類決策決不應該委托給未經選舉產生的技術領導人。只有當我們確信AI的效果是積極的,風險是可控的時候,AI系統才應該被開發。這種對AI的判斷必須是合理的,并隨著系統潛在影響的變化而變化。

OpenAI最近關于人工通用智能的聲明指出,“在開始訓練未來的系統之前,進行獨立審查可能很重要。同時對于最前沿的工作而言,人們應該在合適的時間點限制用于創建新系統的計算增長率。我們同意這一說法,并認為現在就是合適的時間點。

朱嘉明:元宇宙是人類創造出來、橫跨生命與非生命集成系統的信息塊:6月2日,由Cabin VC 、Blocklike舉辦,金色財經、POW POWER協辦的Tides波浪 2021·區塊鏈影響力峰會開幕式中,經濟學家、數字資產研究院學術與技術委員會主席朱嘉明開場演講。

朱嘉明討論了元宇宙的概念、演變歷史、基礎問題、未來預期等等。朱嘉明認為,元宇宙是人類創造出來、橫跨生命與非生命集成系統的信息塊,是通過21世紀科技成果所實現的人類意識的集合。該概念將引發信息科學、量子科學、數學和聲明科學的互動,改變科學范式的飛躍。目前,我們正處于高度智能化形態的元宇宙第3個發展階段,元宇宙已經囊括了多種數字經濟創新成果,例如 DeFi、NFT 以及區塊鏈的其他成就。[2021/6/2 23:04:45]

因此,我們呼吁所有的AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。這種暫停應該是公開的和可核實的,所有關鍵的參與者也能暫停相關工作。如果這種暫停不能迅速開始,政府應該介入并實施暫停。

AI實驗室和獨立專家應利用這一暫停的時段,共同開發一套AI設計和開發的共享安全協議,這些協議需要由獨立的外部專家嚴格審計和監督。這些協議應確保所有遵守它們系統的AI是安全的。這種暫停并不意味著總體上暫停AI開發,只是讓人們從具有新興功能的、不可預測的危險競賽中后退一步。

《金融時報》刊發評論《狗狗幣真的是人類最好的朋友》:《金融時報》刊發評論《狗狗幣真的是人類最好的朋友》。文中提到狗狗幣在近期的表現,文末提到:考慮到市場在過去一年時間里一直被認為是玩笑,那么為什么一個開玩笑的幣不應該拔得頭籌呢?這實際上是合理的。[2021/5/5 21:26:17]

AI的研究和開發應該重新聚焦于使當今強大、最先進的系統更加準確、安全、可解釋、透明、穩健、一致、可信和可靠。

與此同時,AI開發人員必須與政策制定者合作,大幅加快強大的AI管理制度的開發。管理制度至少應包括以下內容:

?針對AI的新的、有能力的監管機構;

?監督和跟蹤能力強大的AI系統和計算能力池;

?幫助區分真實和合成數據的溯源、水印系統,并跟蹤模型泄露;

?提供健全的審計和認證生態系統;

?對AI造成的損害進行責任認定;

?為AI技術的安全研究提供充足的公共資金;

?資源充足的機構以應對AI將造成的巨大經濟和破壞。

現場 | 元道:通證是凝結在密碼學基礎設施上的人類共識符號:金色財經現場報道,在中國區塊鏈行業發展論壇現場,中關村區塊鏈產業聯盟理事長、通證派創始人元道表示,行業數字化通證第一、區塊鏈第二。通證是凝結在密碼學基礎設施上的人類共識符號,全球發行,全球流通。通證應用在于:第一、協作,行業上下游的強協作激勵機制(包括負激勵);第二、品牌,通證全球流通,便于建立全球品牌;第三、組織,新一代行業協會,社群自治組織。自金融,自帶金融的數字化變革,從自媒體到自金融。[2018/7/11]

人類可以通過AI享受一個繁榮的未來。在成功創建了強大的AI系統后,我們現在可以享受一個“AI之夏”。

在這個AI的夏天,我們可以收獲回報,為所有人的利益設計這些系統,并給社會一個適應的機會。人類社會曾經暫停使用一些可能會對社會造成災難性影響的技術,我們現在也可以在AI領域這樣做。讓我們享受一個漫長的AI之夏,不要在沒有準備的情況下匆忙進入秋天。

事實上,這封公開信是近期人類精英們對人工智能風險擔憂的總爆發。自ChatGPT高速迭代后,擔憂從未停止,特別是當微軟、谷歌、百度、華為等科技巨頭們在自然語言模型上展開“軍備競賽”之后。

日前,“深度學習之父”杰弗里·辛頓在媒體采訪中表示,人工智能正處于“關鍵時刻”,毀滅人類“并非不可能”。AI領域內的“大牛”蓋瑞·馬庫斯發推特支持辛頓,甚至發出靈魂一問:“用百分之一的人類毀滅風險換取和機器對話帶來的樂趣,這值得嗎?”

而馬庫斯在轉發FLI這封公開信時表示,“這封信并不完美,但精神是正確的。我們需要放慢腳步,直到我們更好地理解AI帶來后果……他們可能會造成嚴重傷害……主要參與者對他們正在做的事情越來越保密,這使得社會很難抵御可能發生的任何傷害。”

也有科技圈人士對這封信的觀點持不同意見。

Writer的創始人Waseem以諷刺的語氣表達了他對權威們的不滿,“讓我們停止建設和發展我們的公司,因為來自硅谷的億萬富翁說我們有風險。一定要喜歡那些比我們人類更聰明的人,因為他們告訴我們如何生活。當我們有他們神圣的指引時,誰還需要進步?”?

OSSCapital的創始人JosephJacks態度更是簡潔明了:強烈反對,絕對不簽這個。

?ChatGPT:暫停合理但小心阻滯技術

目前,OpenAI還沒有就FLI的這封公開信做出回應。而我們把人類精英們的擔憂與建議甩給了ChatGPT,引發這場紛爭的這個對話機器人不但認可了FLI要求暫停實驗的合理性,還補充了六大AI風險。

ChatGPT的答案中也包含了暫停實驗帶來弊端:導致技術發展的滯后。這也和輿論場上很多普通大眾的想法趨同。????????????????????

那么,問題擺在眼前,如果要讓研究人員和政府制定規則,該包含哪些內容呢?ChatGPT給出了十大建議,相當于給包括自己在內AI發展畫了一個規范圈。

連ChatGPT自己都這么說了,可見,“AI失控”、”替代人類“無論是在意見領袖圈層還是輿論場上都有探討的意義。

最近,微軟的創始人比爾·蓋茨在大力肯定人工智能帶來生產力提升的同時,也強調過風險,“AI失控的可能性是存在的,一臺機器會認為人類是自己的威脅嗎?它們會得出結論認為自身利益與人類的利益不同進而不在意我們嗎?”他預測,隨著算法、算力的提升,超級智能AI會在未來出現。

連OpenAI的CEOSamAltman都表示,超級智能AI的風險可能會遠遠超出我們的預料。此前,他在技術研究員LexFridman的播客中表達他的擔憂,包括AI造成的虛假信息問題,帶來的經濟沖擊等等,“危害可能遠遠超過了人類能應對的程度”,他舉了個例子,“我們怎么會知道,大語言模型沒有在推特上指揮大家的思想流動呢?”

這正應了那封公開信中所說的:沒有人能夠理解、預測或可靠地控制這些數字思維,“甚至他們的創造者也不能”。

雖然通用人工智能還遠遠沒有到來,但就像比爾·蓋茨說得那樣,在這之前,世界需要建立規則以使AI帶來的正面影響遠遠超過其負面影響。

換句話說就是,別讓人類造出的東西把人類自己滅了。畢竟,戰爭、核事故帶來的災難還歷歷在目。

Tags:GPT人工智能CHATCHAFGPT人工智能工程師月薪多少Stripchat10元等于多少代幣isechain

TUSD
都尚未發幣 zkSync Era這些生態項目值得交互_SYNC

zkSyncEra主網于2023年3月24日正式向公眾開放,?3天內單一地址數便突破10萬個,?1.8萬枚ETH跨鏈進入zkSyncEra.

1900/1/1 0:00:00
Arbitrum發起AIP-1提案,擬引入Arbitrum DAO并申請10億美元撥款_ARB

金色財經報道,Arbitrum就一項為新成立的去中心化自治組織(DAO)引入管理機構的提案進行了投票.

1900/1/1 0:00:00
AI、Web3和元宇宙:解鎖人類最具創造力的時代_元宇宙

縱觀歷史,技術一直是推動人類前進、打破障礙和開辟新可能領域的驅動力。今天,我們站在一場是由人工智能、Web3和元宇宙的強大組合推動的創意革命邊緣.

1900/1/1 0:00:00
Layer2交互很熱 但這些Layer1同樣值得關注_LAYER

原文:《別再只盯著Layer2空投,Layer1或將風云再起》作者:比推BitpushNewsAsherZhang哪些Layer1項目值得關注?加密大V都看好哪些項目?這些項目大熱背后的深層邏輯.

1900/1/1 0:00:00
超詳細學習指南:如何使用工具網站DefiLlama_EFI

你第一次用?DefiLlama?是為了查詢什么?我第一次是領導分配給我查詢Avalanche生態的潛力DeFi任務.

1900/1/1 0:00:00
金色觀察 | 以太坊基金會官方詳解Shapella主網升級_APE

文/以太坊基金會;譯/金色財經xiaozou·?提款功能即將到來!Shapella網絡升級計劃于epoch?194048在以太坊網絡上激活,也就是UTC時間2023年4月12日22:27:35.

1900/1/1 0:00:00
ads