熱門搜索: 金磚
您的位置:首頁 > 國際

OpenAI解散安全團隊備受質(zhì)疑!馬斯克發(fā)聲……

2024-05-20 09:43:22 來源:環(huán)球時報 作者:任重
大號 中號 小號
原標(biāo)題:OpenAI解散安全團隊備受質(zhì)疑!馬斯克:顯示安全并不是他們的首要任務(wù)

美國人工智能研究公司OpenAI內(nèi)部動蕩持續(xù)。據(jù)美國CNBC網(wǎng)站17日報道,消息人士透露,OpenAI在宣布成立人工智能長期風(fēng)險團隊——“超級對齊”僅一年后,就解散該團隊,一些團隊成員被分配到公司其他團隊。去年7月,OpenAI宣布成立這個團隊,專注于“科學(xué)和技術(shù)突破,以引導(dǎo)和控制比我們聰明得多的人工智能系統(tǒng)”。當(dāng)時,OpenAI表示將在4年內(nèi)將其20%的算力投入到該團隊中。特斯拉首席執(zhí)行官馬斯克針對“超級對齊”團隊解散這一消息評論稱:“這顯示安全并不是OpenAI的首要任務(wù)。”

就在這一消息公布的幾天前,OpenAI的兩名高管——聯(lián)合創(chuàng)始人兼首席科學(xué)家伊利亞·蘇茨克韋爾和簡·雷克宣布離開這家公司,他們是“超級對齊”團隊的共同領(lǐng)導(dǎo)人。雷克17日在社交媒體發(fā)文稱,“加入OpenAI是因為我認(rèn)為這家公司是進行這項研究的最佳場所。然而,我一直不同意OpenAI領(lǐng)導(dǎo)層對公司核心優(yōu)先事項的看法,直到我們達(dá)到了臨界點。”雷克寫道,“在過去的幾個月里,我的團隊一直在逆風(fēng)航行。有時我們會為算力資源苦苦掙扎,完成這項關(guān)鍵的研究變得越來越困難。”雷克提醒說,OpenAI必須成為一家“安全第一的人工智能公司”,“制造比人類更聰明的機器本身就是一種危險的嘗試。OpenAI肩負(fù)巨大的責(zé)任。但在過去幾年時間里,安全文化和流程已經(jīng)讓位于‘閃亮的產(chǎn)品’。”

“為何OpenAI負(fù)責(zé)人類安全的團隊被解散?”美國沃克斯網(wǎng)站17日稱,去年11月,OpenAI董事會試圖解雇首席執(zhí)行官奧特曼,結(jié)果奧特曼很快奪回權(quán)力。此后,至少有5名公司最具安全意識的員工辭職或被解雇。美國《華爾街日報》稱,蘇茨克韋爾將注意力集中在確保人工智能不會傷害人類上,而包括奧特曼在內(nèi)的其他人更渴望推動新技術(shù)的發(fā)展。美國《連線》雜志稱,蘇茨克韋爾是去年11月解雇奧特曼的4名董事會成員之一。

該公司的消息人士向沃克斯網(wǎng)站透露,有安全意識的員工已經(jīng)對奧特曼失去了信心,“這是一個信任一點點崩塌的過程,就像多米諾骨牌一塊塊倒下一樣”。他們認(rèn)為,奧特曼聲稱將安全放在首位,但在行為上卻自相矛盾。

美國TechCrunch科技博客網(wǎng)站18日稱,OpenAI放棄安全研究,轉(zhuǎn)而推出像GPT-4o這樣的新產(chǎn)品,最終導(dǎo)致“超級對齊”團隊的兩位負(fù)責(zé)人辭職。目前尚不清楚科技行業(yè)何時或是否會實現(xiàn)必要的突破,以創(chuàng)造出能夠完成人類所能完成的任何任務(wù)的人工智能。但“超級對齊”團隊的解散似乎證實了一件事:OpenAI的領(lǐng)導(dǎo)層——尤其是奧特曼——選擇優(yōu)先考慮產(chǎn)品而不是安全措施。在過去一年時間里,OpenAI讓其聊天機器人商店充斥著垃圾郵件,并違反平臺的服務(wù)條款從YouTube抓取數(shù)據(jù)……安全似乎在該公司處于次要地位——越來越多的安全研究人員得出這種結(jié)論,選擇另謀高就。

雷克17日還提到,“我們應(yīng)該把更多的資源用于為下一代模型做準(zhǔn)備,包括安全性、監(jiān)控、一致性、保密性、社會影響等。這些問題很難解決,我擔(dān)心我們沒有走在解決問題的正確軌道上。”沃克斯網(wǎng)站稱,當(dāng)一名世界領(lǐng)先的人工智能安全專家說,世界領(lǐng)先的人工智能公司沒有走在正確的軌道上時,我們都有理由感到擔(dān)憂。

據(jù)加拿大全球新聞網(wǎng)18日報道,17日發(fā)布的一份關(guān)于人工智能安全的國際報告稱,專家們對這項技術(shù)帶來的風(fēng)險意見不一。這份由加拿大魁北克人工智能研究所科學(xué)主任本吉奧主持的報告得出結(jié)論,通用人工智能的未來軌跡非常不確定。報告稱,在不久的將來人工智能可能呈現(xiàn)各種各樣的發(fā)展軌跡,包括非常積極和非常消極的結(jié)果。該報告概述了一些風(fēng)險,包括人工智能可能通過虛假信息、欺詐以及網(wǎng)絡(luò)攻擊造成傷害。報告提到人工智能中的偏見可能導(dǎo)致風(fēng)險,特別是在“醫(yī)療保健、招聘和金融貸款等高風(fēng)險領(lǐng)域”。還有一種情況是,人類可能失去對人工智能的控制。

責(zé)任編輯:高瑋怡

官方微信

官方微博

今日頭條

關(guān)閉