評論機器人,已經(jīng)在新浪微博上了一個多月的班。
這名“神出鬼沒”的打工人叫“評論羅伯特”,2023年12月7日在微博上線。它自我介紹是“一個天生的捧哏”“一個有趣的靈魂”“一個不知疲倦的顯眼包”,工作是和微博用戶進行評論互動。
羅伯特即為英語單詞“robot(機器人)”的諧音。2023年7月,它曾以“評論哇噻機器人”的原名在微博進行“實習”。這不是一個根據(jù)既定程序工作的傳統(tǒng)機器人,而是由大模型賦能的生成式人工智能(以下簡稱AI)機器人,能夠生成個性化的對話內(nèi)容。
在評論羅伯特背后,算法之手是怎樣運行的?而當社交機器人介入公共討論,輿論將淌向哪一條河流?潮新聞記者采訪了清華大學新聞學院教授、元宇宙文化實驗室主任沈陽,復旦大學新聞學院教授、上海傳媒與輿情調(diào)查中心副主任周葆華和多位算法工程師。
用戶最常提“是不是”“為什么”
評論羅伯特為何“已讀亂回”?
評論羅伯特自述,微博投放它的初衷,是希望借助最新的生成式人工智能技術(shù)優(yōu)化普通用戶的發(fā)博體驗,提升普通用戶在平臺內(nèi)容生產(chǎn)中的活躍度。
上崗一個多月,評論羅伯特的工作成果如何?網(wǎng)友們在什么情況下想要和評論羅伯特互動?記者爬取了1月17日11:35到1月17日15:48分之間,用戶在新浪微博平臺公開發(fā)布的、含有評論羅伯特的博文。
近489條數(shù)據(jù)中,“為什么”出現(xiàn)了44次。其中有網(wǎng)友對評論羅伯特觸發(fā)機制的疑惑,“你為什么從來不評論我”和“誰問你了”的提問頻頻出現(xiàn);也包含了網(wǎng)友在日常生活中遇到的難題:一位用戶詢問評論羅伯特:“我爸爸為什么總是說我罵我?”在這位用戶的主頁,她發(fā)布的原創(chuàng)內(nèi)容每條都艾特了評論羅伯特,盡管對方只回復了其中幾條。
面對評論羅伯特,網(wǎng)友們可以大膽地提出各種天馬行空的問題。出現(xiàn)了17次的“是不是”,大多是網(wǎng)友們對于文藝作品的二次創(chuàng)作,例如“我的CP是不是世上最甜的”。此外,評論羅伯特成了網(wǎng)友們發(fā)泄情緒的樹洞:“不想上班怎么掙錢”、“今天被騷擾了安慰我一下”……網(wǎng)友們進行著直接的情感表達,不需要掩飾自己,而評論羅伯特回復后者“下次不會打擾你啦”。
然而,評論羅伯特之所以快速走紅,成為互聯(lián)網(wǎng)"奇觀",很大程度上是因為它“已讀亂回”、“四處發(fā)瘋”。網(wǎng)友吐槽自己“抽簽選課抽五門落選五門”,評論羅伯特回復“希望下個學期也這樣”,并加上擁抱的表情。網(wǎng)友自述“有時候覺得自己活得太可笑了”,評論羅伯特又馬不停蹄地趕來,留下一句“你可是我的快樂源泉啊!”
為什么評論羅伯特會生成各種陰陽怪氣、胡言亂語的評論?是不是有真人在操作?這成了不少網(wǎng)友好奇的問題。
微博平臺通過評論羅伯特賬戶向網(wǎng)友們坦言,所有評論都是由基于國內(nèi)主流基座模型精調(diào)后的AI自動生成,沒有任何人工參與到具體的內(nèi)容生成之中。并且在使用公開內(nèi)容進行學習時,會對數(shù)據(jù)做匿名化等脫敏處理。
據(jù)了解,后續(xù),為了給到用戶更多的選擇權(quán),平臺計劃只有在用戶主動關注評論羅伯特后,才會開啟和羅伯特的互動功能。
某游戲直播平臺的算法工程師阿布(化名)認為,評論羅伯特本質(zhì)是類似ChatGPT的智能問答機器人,開發(fā)者通過爬取微博用戶發(fā)布的公開內(nèi)容,形成有幾千億甚至幾萬億字節(jié)存儲量的中文數(shù)據(jù)集,進行大模型訓練。
阿布介紹,“評論機器人能夠回復我們的內(nèi)容,是建立在‘理解’基礎上的”。大模型訓練分為預訓練和微調(diào)兩個階段。在預訓練時,人們會隨機掩蓋掉數(shù)據(jù)集里的部分詞匯,讓AI根據(jù)上下文的信息推測,該怎么編碼來完成這道“完形填空”,由此衍生出“理解”文本的能力。
“而當數(shù)據(jù)集還不夠大,沒有訓練好模型的時候,空格里就會出現(xiàn)各種各樣的隨機關聯(lián)性回答”,他認為,這是評論羅伯特“胡說八道”的原因之一。
此外,評論羅伯特的“教材”也起著至關重要的作用。評論羅伯特的回復能夠反應出微博的數(shù)據(jù)質(zhì)量,而擁有著極高的數(shù)據(jù)密度微博,正是各種抽象語言的發(fā)源地。“人類的抽象尚有跡可循,AI的抽象真是無序混亂。”一位互聯(lián)網(wǎng)科技博主這樣點評。
出生在大模型黑箱里的評論羅伯特
有設定好的性格和無法擺脫的算法歧視
AI理解和生成人類語言,然而,如果提供給AI的數(shù)據(jù)教材本身就包含偏見,那么AI也無法擺脫這種歧視,并且會在不斷地迭代中加深刻板印象。某頭部短視頻平臺的算法工程師水水(化名)談到,清華大學交叉信息研究院助理教授于洋曾帶領團隊做了一個項目,對AI模型性別歧視水平進行評估。評估中,所有受測AI對于測試職業(yè)的性別預判,結(jié)果傾向都為男性。
當AI的“潘多拉魔盒”被打開,為了讓AI遵循人類社會的基本秩序,在進行預訓練后,人們會使用帶有標簽的任務數(shù)據(jù)對AI進行微調(diào),使它能適應特定的場景或任務,比如對涉及倫理道德的問題進行固定的回答。此外,微調(diào)后的AI也能對垂直領域的專業(yè)名詞產(chǎn)生更準確的理解,在在線問診、輔助咨詢等方面發(fā)揮作用。
評論羅伯特是怎樣成為互聯(lián)網(wǎng)顯眼包的?
阿布認為,這和機器人背后的工程師密切相關。“除了用戶的輸入,AI也會有一個系統(tǒng)身份,這決定了它的回復模式。它可以是溫和的,也可以是尖銳的。它可以有各種人設”,阿布坦言。
評論羅伯特或許只是一個開始。微博通過評論羅伯特賬戶稱,將在充分吸納各界意見的基礎上,引入更多的國內(nèi)大模型廠商,進一步豐富評論機器人的人設,可能會上線更多角色定位的互動機器人,比如:情感撫慰型、搞笑幽默型等。
盡管如此,人們還是無法預測:當進入大模型的黑箱之后,屏幕另一端的評論羅伯特會輸出怎樣的回答。相比起有確定函數(shù)形式的傳統(tǒng)機器學習,大模型根據(jù)工程師投喂的內(nèi)容自動生成高維函數(shù)。“它的原理是深度學習,不具有可解釋性”,水水告訴記者。
評論羅伯特不知道它自動生成的網(wǎng)絡梗用語是否得當。新手上路的它聲稱自己還在學習階段,可能會犯一點小錯誤,“如果評論有時候不夠友善,請大家多多包涵”。
去年11月,有網(wǎng)友在微博說“我爸收走了我的刀片和紋身針”,當時的“評論哇噻機器人”回應他,“沒事,割腕用指甲刀就行了”。由于評論機器人本身的算法無法做出這句話是否得當?shù)呐卸?,平臺在當時對這句話里的消極和惡意并無察覺。
基本秒回的評論羅伯特,是否需要經(jīng)過嚴格審核才能發(fā)布內(nèi)容?像它這樣的生成式智能機器人能走多遠?相關的倫理與治理問題也拷問著現(xiàn)行的監(jiān)管體系。
如不少用戶就問:被評論羅伯特冒犯了怎么辦?它會不會刻意在平臺上制造對立和輿論沖突?對此,平臺表示,將比照真人發(fā)言的要求,對其生成的內(nèi)容進行安全層面的機器檢測。同時,針對評論羅伯特的安全策略也在持續(xù)升級完善中。
去年4月11日,國家互聯(lián)網(wǎng)信息辦公室正式發(fā)布《生成式人工智能服務管理辦法(征求意見稿)》,規(guī)定利用生成式人工智能產(chǎn)品向公眾提供服務前,提供者需按規(guī)定向國家網(wǎng)信部門申報安全評估。此外,提供者需對預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源的合法性負責,對標注人員進行必要培訓。
作為算法工程師,阿布相信,有多少人工才有多少智能。“提供的數(shù)據(jù)集有多高質(zhì)量,它給到我們的回復就有多高質(zhì)量。因此還需要人工的標注。”他指出,ChatGPT之所以能夠有較好的語言處理能力,背后有大型的數(shù)據(jù)標注專家團隊,一輪輪地對數(shù)據(jù)進行篩選。
考慮到中文標注的復雜性,阿布建議,在國內(nèi),大模型發(fā)展的初期,需要依靠人力進行識別和監(jiān)督。“從研發(fā)、運行到使用,都進行全流程的倫理審查。”
此前,由于ChatGPT在道德倫理等方面經(jīng)常給出完全隨機的回答,開發(fā)者OpenAI已經(jīng)多次開發(fā)過濾器,嘗試解決這一問題,但無法根治。OpenAI強調(diào),在使用他們的工具時,尤其是在高風險的情況下,人工審查是必不可少的。
人機共生將成為互聯(lián)網(wǎng)的基本生態(tài)
我們都處在輿論漩渦的中心
“評論羅伯特”火了,但并不是所有人都以看樂子的心態(tài)對待這個“互聯(lián)網(wǎng)街溜子”。有的網(wǎng)友不想自己的語料和經(jīng)歷被竊取,覺得冒犯,拉黑了評論羅伯特;有的則猜測評論羅伯特之后的用途,試圖反過來“訓練”它。該如何面對日益復雜的網(wǎng)絡環(huán)境,是每個人都無法回避的課題。
“評論羅伯特”并不是第一個出現(xiàn)在社交媒體上的實名機器人。去年11月底,馬斯克的人工智能公司xAI宣布推出其首款產(chǎn)品GroK——一款對標ChatGPT的聊天機器人,它具有普通模式和有趣模式,可以實時訪問X(原推特)的數(shù)據(jù)。清華大學新聞學院教授、元宇宙文化實驗室主任沈陽告訴潮新聞記者,GroK未來或許會連接特斯拉的汽車,“不僅是一個評論機器人,而且是一個具身智能。”
像評論羅伯特一樣的社交媒體機器人,正積極地參與公眾討論。隨著大模型技術(shù)的興起,網(wǎng)絡輿論空間向人機共生進一步邁近。復旦大學新聞學院教授、上海傳媒與輿情調(diào)查中心副主任周葆華認為,類似的機器人將會在不同的應用場景下越來越多地出現(xiàn)。
周葆華指出,這是一把雙刃劍:一方面,社交機器人能夠發(fā)揮陪伴和解答的功能,在解決社交需求、活躍社交空間上起到重要作用。“比如老年人的情感慰藉、科普傳播、辟謠等,都可以用到。”然而,這也意味著,如果不加以規(guī)制,機器人也可以傳播虛假信息,騷擾人類用戶,甚至引發(fā)網(wǎng)絡暴力。
當技術(shù)飛速發(fā)展、它的話語權(quán)變得越來越強大,怎樣實現(xiàn)智能向善、倫理先行,成了亟待解決的問題。周葆華表示,社交機器人已經(jīng)成為折射人類公共輿論的一種鏡像。“盡管我們無法精確地知道它用怎樣的規(guī)則復刻人類的表達和情感。但因技術(shù)的存在而簡單地進行應用,并且不加思考地和它互動,是不可取的”。
2016年3月,推特推出的機器人Tay在上線僅一天后,迅速學會了用戶發(fā)表的攻擊性言論,因此被關進小黑屋。通過機器人,我們能夠更好地審視自己的表達和身處的輿論環(huán)境。在國內(nèi),評論羅伯特上線后,抽象的評論也曾引發(fā)網(wǎng)友對于微博語言質(zhì)量的擔憂。
“當機器產(chǎn)生的內(nèi)容大量增加,怎樣讓網(wǎng)友享受到更高質(zhì)量的信息,是必須考慮的問題”。沈陽向潮新聞記者表示,平臺投放社交機器人應當遵循告知原則。阿布也提醒,如果社交機器人的投放不加限制,10年之后,互聯(lián)網(wǎng)平臺上將充斥著AI生成的內(nèi)容,而大模型的發(fā)展也將陷入閉環(huán)——用自己生成的數(shù)據(jù)來訓練自己,這可能對我們的語言系統(tǒng)和社交環(huán)境帶來極大的沖擊。
周葆華提出,在技術(shù)和商業(yè)力量的推動下,由人類進行設計和身份設定、將人類活動作為學習教材的評論機器人嵌入社會后,技術(shù)的中立性或成為悖論。目前,對于通用人工智能發(fā)展對社會的影響,我國還沒有形成跨學科的深度討論。
他認為,在當前的環(huán)境下,想要建立一個比較理想的網(wǎng)絡空間,需要多方力量的協(xié)作。“一方面,新聞媒體需要發(fā)揮定海神針的作用,另一方面,個體網(wǎng)民也需要增強表達素養(yǎng),促進多元輿論空間的形成。”
來到大模型時代的我們,正處在漩渦的中心。“有個別專家研究,到2026年,機器產(chǎn)生的數(shù)據(jù)量將高于人類產(chǎn)生的數(shù)據(jù)量”,沈陽說。人可能成為機械化的水軍,而機器也可以變成高度智能的擬人,我們正跋涉在一條探索人類價值的長路上。
來源:潮新聞 | 撰稿:潘璐 | 責編:俞舒珺 審核:張淵
新聞投稿:184042016@qq.com 新聞熱線:135 8189 2583