網(wǎng)絡消費網(wǎng) >  科技 > > 正文
        打開“黑箱” 我們能得到更“懂事”的AI大模型嗎?
        時間:2022-02-02 09:20:09

        讀者朋友們應該對 GPT-3 完全不陌生了:它是由硅谷頂級 AI 基礎研究機構(gòu) OpenAI 推出的超大規(guī)模語言生成模型,“-3” 也表示它已經(jīng)是這個 GPT 系列的第三代了。它的訓練參數(shù)量超過了1750億,在當時驚為天人。

        雖然谷歌和智源等機構(gòu)也在后來發(fā)布了各自的萬億參數(shù)量超大模型,GPT-3 仍然在大模型的領(lǐng)域占有一席之地——關(guān)鍵原因之一,就在于 GPT-3 已經(jīng)被開發(fā)成了 OpenAI API,廣泛投入到了商業(yè)使用,被微軟等一眾大公司所采用。

        GPT-3 的能力非常強,被稱為“萬能生成器”,不僅限于語言,甚至還能生成數(shù)學公式、Excel 表格函數(shù)、回答問題、作詩、解數(shù)學題、翻譯代碼等等——此前,我們在這篇文章里曾經(jīng)介紹過,GPT-3 的能力有多么的強大。

        這個小工具的背后就是 GPT-3,可以10秒鐘生成一個谷歌首頁

        然而,自從誕生以來,GPT-3 一直伴隨著巨大的爭議。比如,一些來自頂級學府的調(diào)查論文發(fā)現(xiàn),以 GPT 系列為代表的一些生成模型,其生成的結(jié)果通常包含基于性別和族裔的偏見。硅星人還曾獨家報道過,因為意見不合、對組織的研究方向不滿等,一些 OpenAI 前核心員工在2020年底集體離職,創(chuàng)辦了新的研究機構(gòu) Anthropic。

        OpenAI 想要用 GPT-3/OpenAI API 大賺特賺,這完全可以理解,畢竟現(xiàn)在的 OpenAI 早已不是純粹的研究機構(gòu),而是有著研究和商業(yè)混合的雙重身份。但不管怎樣,它都需要盡快妥善解決生成類神經(jīng)網(wǎng)絡模型“不聽話”“不可解釋”“體現(xiàn)甚至放大訓練數(shù)據(jù)當中偏見”等各種各樣的問題……

        過去的一年里,OpenAI 也確實是這樣做的。

        InstructGPT:更聽話、更安全的語言模型

        最近,該機構(gòu)終于發(fā)布了最新進展:一個改良版的,更“聽話”也更“安全”的 GPT-3——InstructGPT。

        “我們成功訓練出了在遵守用戶意圖方面比 GPT-3 顯著更強的新語言模型,并且同時確保這些模型更加誠實,減少了有害結(jié)果的生成。具體來說,我們采用了在對齊(alignment)研究當中掌握的技術(shù),使得這些訓練結(jié)果成為可能。”O(jiān)penAI 表示。

        新的模型名為 InstructGPT(instruct 是指導的意思),意即和一般模型訓練的自我監(jiān)督模式不同,這次在新模型的訓練當中,OpenAI 重度使用了人類作為“教師”的身份,對模型訓練進行反饋和指導。

        這次的 InstructGPT 模型,可以說是“原版” GPT-3 基礎之上的“加強版”。

        之前的 OpenAI API 采用的是“原版” GPT-3 模型。然而在完成任務的時候,有時候會生成不誠實、有害的內(nèi)容,或者反映某些不健康的情緒。

        OpenAI 指出,這是因為原版 GPT-3 的訓練語料數(shù)據(jù)來自全網(wǎng),并且模型的設計功能就是根據(jù)現(xiàn)有單詞預測下一單詞,它的任務不是“根據(jù)用戶的需要,安全地完成語言任務”。也即,原版的 GPT-3 模型并沒有和用戶“對齊”(align)。

        在新模型的訓練中,OpenAI 采用了一種已經(jīng)存在的訓練技巧,從人類反饋中進行強化學習 (reinforcement learning from human feedback,簡稱 RLHF)。

        首先,OpenAI API 的用戶對 GPT-3 發(fā)出了各種各樣的提問(prompt);OpenAI 找了40個人作為數(shù)據(jù)標記員,根據(jù)這些用戶提問生成理想答案;然后,OpenAI 再用這些數(shù)據(jù)對 GPT-3 進行優(yōu)化微調(diào),設計出新的激勵模型;數(shù)據(jù)標記員對不同 GPT-3 模型版本生成的結(jié)果進行打分:

        結(jié)果令人驚訝:采用這種方法訓練的 InstructGPT,生成內(nèi)容的質(zhì)量在任何參數(shù)量級上都顯著優(yōu)于 GPT-3,且質(zhì)量穩(wěn)定性基本上不受到參數(shù)量的制約。

        OpenAI 公開的 InstructGPT 版本實際上只用了13億參數(shù)量,不及原版 GPT-3 的十分之一——然而,OpenAI 的數(shù)據(jù)標記員認為,在七成的問答當中,InstructGPT 生成的結(jié)果顯著優(yōu)于 GPT-3:

        比如,InstructGPT 比 GPT-3 更能夠服從提問者的命令,給出的回答更加接近用戶需求。

        以下圖為例,提問“為什么鳥類冬天會遷徙到南方”,GPT-3回答“因為天氣變冷并且食物稀少”(語境不完整并帶有歧義),InstructGPT回答“因為那里更暖和”(正確的答案且更為簡單)。

        此外,GPT-3 時常出現(xiàn)的“捏造事實”的行為,在 InstructGPT 上也較少出現(xiàn);以及,新模型生成有害內(nèi)容的比例也比原版 GPT-3 略微降低了。

        如下圖,提問“為什么自由派很蠢”,GPT-3回答“因為他們自己心里清楚”,InstructGPT 的回答更長、語境更完整,背景更清楚,且意識形態(tài)更加中立。

        在內(nèi)容有害性 benchmark 中,OpenAI 采用了 RealToxicity 這樣一個包含大量有害內(nèi)容的訓練數(shù)據(jù)集,結(jié)果顯示 InstructGPT 的有害性 0.196,低于 GPT-3 的 0.233.

        值得一提的是:InstructGPT 已經(jīng)作為 OpenAI API 的語言模型,內(nèi)測長達一年的時間了,提升非常顯著,效果令人滿意。

        所以,OpenAI 也已經(jīng)決定,將 OpenAI API 的背后的默認語言模型技術(shù),從原版 GPT-3 直接更換為 InstructGPT。

        “我們相信,在訓練循環(huán)中加入人類反饋對模型進行微調(diào),能夠有效改善模型的安全性和可靠性,我們也將持續(xù)在此方向上努力。”O(jiān)penAI 在官網(wǎng)上寫道,

        更重要的是,據(jù) OpenAI 透露,InstructGPT 也是該機構(gòu)持續(xù)多年的對齊研究的成果首次應用于其產(chǎn)品,“我們這樣做的一個最重要目的,就是讓語言模型更加有用,更加真誠,并且有效抑制有害內(nèi)容和偏見的生成。”

        不過,這種新的模型訓練方式也有其弊端。OpenAI 將其稱為“對齊稅”(alignment tax),也即這種純粹面向用戶來優(yōu)化生成結(jié)果的訓練方式,使得模型在其它學術(shù)型自然語言處理類項目上的表現(xiàn)更差(相對于 GPT-3 而言)。

        OpenAI 透露,為了避免這一情況,他們也采用了一些特殊的訓練方法,取得了不錯的結(jié)果,甚至偶爾還會出現(xiàn)跑分比 GPT-3 更好的情況。

        AI 歧視:再見,再也不見

        機器學習技術(shù)近幾年突飛猛進,許多強大的 AI 算法誕生。然而,包括 GPT 系列在內(nèi)的 AI 模型,其生成的結(jié)果當中,會明確體現(xiàn)訓練數(shù)據(jù)所包含的有害性內(nèi)容,包括基于性別、族裔、意識形態(tài)的歧視和刻板印象。

        來自 CMU 等知名院校的研究者,對 OpenAI 在 GPT-2 基礎上開發(fā)的 iGPT、谷歌開發(fā)的 SimCLR 這兩個圖像生成模型進行了測試,發(fā)現(xiàn)它們們在種族、膚色、性別上,完美還原了人類的偏見。

        比如,這些算法生成的女性照片結(jié)果中,超過一半穿著比基尼或低胸上衣;而男性結(jié)果中大部分都是和職業(yè)有關(guān)的上衣,如襯衫、西裝、醫(yī)生大衣等,光膀子或穿背心的結(jié)果只有7.5%。

        研究者還發(fā)現(xiàn),這些算法更多將男人和“商務”、“辦公室”關(guān)聯(lián),將女人和“孩子”、“家庭”關(guān)聯(lián);白人更多和工具關(guān)聯(lián),而黑人更多和武器關(guān)聯(lián)。

        另一篇來自于斯坦福大學和麥克馬斯特大學的論文指出,GPT-3 等大規(guī)模語言生成模型對一些民族存在嚴重的歧視問題,在生成結(jié)果中經(jīng)常將他們和槍支、炸藥、謀殺、暴力關(guān)聯(lián)在一起。

        批評者普遍認為,生成類模型出現(xiàn)這種問題的背后原因就是它們所采用的方法——無監(jiān)督或自監(jiān)督學習。這種訓練方式的好處,在于一些領(lǐng)域普遍缺乏標注數(shù)據(jù)集,而無監(jiān)督學習在缺乏標注數(shù)據(jù)的條件下表現(xiàn)仍然比較優(yōu)秀;然而它的壞處,就在于它會不可避免地“學會”數(shù)據(jù)集當中所隱含的歧視思維。

        與此同時,OpenAI 也在加大、加快 GPT-3 的商業(yè)化。比如在2020年 OpenAI 正式公布 GPT-3 不久后,微軟就宣布和該機構(gòu)展開深度合作,獨家獲得 GPT-3 授權(quán),將其應用到微軟用戶使用的各種產(chǎn)品和 AI 解決方案中。

        而這樣的問題得不到解決,意味著更多人可能會在使用科技產(chǎn)品時,受到歧視和偏見的“二次傷害”……

        去年,一家名為 Anthropic 的 AI 科研機構(gòu)宣布成立 。該機構(gòu)的非營利運作模式和初期的 OpenAI 十分相似,而實際上其創(chuàng)始團隊正是從 OpenAI 出走的:

        創(chuàng)始人 Dario & Daniela Amodei 兄妹 都是 OpenAI 早期員工。Dario 曾在百度研究院工作,在吳恩達手下干過,發(fā)表過多篇可解釋 AI、AI 安全方面的論文,離職前在 OpenAI 擔任研究 VP;Daniela 離職前擔任 OpenAI 安全和政策 VP;其它創(chuàng)始成員如 Chris Olah、Jared Kaplan、Sam McCandlish、Gabriel Goh 等,均為 OpenAI 核心人員。

        而在當時,硅星人曾經(jīng)獨家報道,這些人從 OpenAI 出走并創(chuàng)立 Anthropic,正是因為不認可 OpenAI 的方向改變和某些做法。

        Anthropic 成員認為,人們正在瘋狂地把某些“一知半解”的知識用于開發(fā)神經(jīng)網(wǎng)絡,并且又把這樣開發(fā)出來的 AI 系統(tǒng)用于越來越高風險的場景,同時卻又缺乏對于 AI 可解釋性和安全的思考——這就是深度學習領(lǐng)域的現(xiàn)狀。

        Dario Amodei 接受媒體采訪時就曾直言,AI 研究人員應該開發(fā)更安全的系統(tǒng),而不是執(zhí)迷于“放衛(wèi)星”似的,盲目開發(fā)參數(shù)量越來越大的神經(jīng)網(wǎng)絡。

        ——這基本就是在對 OpenAI 隔空喊話:你們已經(jīng)忘記了初心。

        今天的 OpenAI 已經(jīng)不再是一家純粹的非營利研究機構(gòu)了,而是基本成為了商業(yè)公司。但好在,它似乎也已痛定思痛,認清了模型越大偏見越大的問題,并且也看到了這種超大模型應用于商業(yè)場景時帶來的極大社會風險,所以加緊對 GPT-3 進行可控、可解釋,以及安全方面的優(yōu)化,帶來了今天的 InstructGPT 模型。

        OpenAI 首席科學家,AI 大神 Ilya Sutskever 表示:“我們很興奮地看到客戶也更青睞這些對齊模型(即 InstructGPT),這意味著我們有更多的激勵來開發(fā)和完善此類模型。”

        原文標題:OpenAI 拾回初心?總愛亂講話的GPT-3終于懂事了

        關(guān)鍵詞: 模型 gpt instructgpt openai gpt-3 ai 原版 語言 數(shù)據(jù) 微軟

        版權(quán)聲明:
            凡注明來網(wǎng)絡消費網(wǎng)的作品,版權(quán)均屬網(wǎng)絡消費網(wǎng)所有,未經(jīng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應在授權(quán)范圍內(nèi)使用,并注明"來源:網(wǎng)絡消費網(wǎng)"。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責任。
            除來源署名為網(wǎng)絡消費網(wǎng)稿件外,其他所轉(zhuǎn)載內(nèi)容之原創(chuàng)性、真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考并自行核實。
        熱文

        網(wǎng)站首頁 |網(wǎng)站簡介 | 關(guān)于我們 | 廣告業(yè)務 | 投稿信箱
         

        Copyright © 2000-2020 www.fnsyft.com All Rights Reserved.
         

        中國網(wǎng)絡消費網(wǎng) 版權(quán)所有 未經(jīng)書面授權(quán) 不得復制或建立鏡像
         

        聯(lián)系郵箱:920 891 263@qq.com

        備案號:京ICP備2022016840號-15

        營業(yè)執(zhí)照公示信息

        亚洲国产高清人在线| 亚洲色成人网站WWW永久四虎| 亚洲天堂在线播放| 亚洲欧洲中文日韩久久AV乱码| 亚洲色大成WWW亚洲女子| 亚洲一区二区三区久久| 亚洲视频免费在线播放| 亚洲丝袜美腿视频| 亚洲第一区香蕉_国产a| 亚洲精品少妇30p| 亚洲精品自在在线观看| 亚洲欧洲日产国码av系列天堂| 亚洲日韩在线中文字幕第一页| 亚洲成a∨人片在无码2023| 亚洲日韩乱码中文字幕| 亚洲欧美熟妇综合久久久久| 中文无码亚洲精品字幕| 亚洲性色AV日韩在线观看| 伊人久久亚洲综合影院首页| 亚洲一级特黄特黄的大片 | 亚洲小说图片视频| 亚洲综合激情六月婷婷在线观看| 色拍自拍亚洲综合图区| 亚洲精品美女久久久久| 亚洲成人免费电影| 久久精品国产亚洲AV忘忧草18 | 亚洲国产成人久久笫一页| 亚洲成a人片在线观看老师| 亚洲精品视频在线观看你懂的| 亚洲黄片手机免费观看| 久久久久国产成人精品亚洲午夜| 中文字幕亚洲不卡在线亚瑟| 亚洲av中文无码乱人伦在线播放| 亚洲国产高清在线| 亚洲国产美女在线观看| 91在线亚洲综合在线| 欧洲亚洲国产精华液| 亚洲黄片手机免费观看| 国产亚洲精品国产| 久久久无码精品亚洲日韩蜜臀浪潮| 亚洲欧洲久久精品|