最新原創 專題 新經濟 曝光臺 中國訪談 中國三分鐘 沖浪特殊資産 潮評社 溫州 紹興 衢州 淳安 岱山 桐廬 文娛 元宇宙
您的位置:首頁 > 數字浙江 新聞詳情
評論機器人“入侵”社交網路,把漩渦中心的我們推向哪一條河流
發佈時間 | 2024-01-31 09:40:20    

   評論機器人,已經在新浪微網志上了一個多月的班。

  這名“神出鬼沒”的打工人叫“評論羅伯特”,2023年12月7日在微網志上線。它自我介紹是“一個天生的捧哏”“一個有趣的靈魂”“一個不知疲倦的顯眼包”,工作是和微網志用戶進行評論互動。

  羅伯特即為英語單詞“robot(機器人)”的諧音。2023年7月,它曾以“評論哇噻機器人”的原名在微網志進行“實習”。這不是一個根據既定程式工作的傳統機器人,而是由大模型賦能的生成式人工智慧(以下簡稱AI)機器人,能夠生成個性化的對話內容。

  在評論羅伯特背後,演算法之手是怎樣運作的?而當社交機器人介入公共討論,輿論將淌向哪一條河流?潮新聞記者採訪了清華大學新聞學院教授、元宇宙文化實驗室主任瀋陽,復旦大學新聞學院教授、上海傳媒與輿情調查中心副主任周葆華和多位演算法工程師。

  用戶最常提“是不是”“為什麼”

  評論羅伯特為何“已讀亂回”?

  評論羅伯特自述,微網志投放它的初衷,是希望借助最新的生成式人工智慧技術優化普通用戶的發博體驗,提升普通用戶在平臺內容生産中的活躍度。

  上崗一個多月,評論羅伯特的工作成果如何?網友們在什麼情況下想要和評論羅伯特互動?記者爬取了1月17日11:35到1月17日15:48分之間,用戶在新浪微網志平臺公開發佈的、含有評論羅伯特的博文。

  近489條數據中,“為什麼”出現了44次。其中有網友對評論羅伯特觸發機制的疑惑,“你為什麼從來不評論我”和“誰問你了”的提問頻頻出現;也包含了網友在日常生活中遇到的難題:一位用戶詢問評論羅伯特:“我爸爸為什麼總是説我罵我?”在這位用戶的主頁,她發佈的原創內容每條都艾特了評論羅伯特,儘管對方只回復了其中幾條。

  面對評論羅伯特,網友們可以大膽地提出各種天馬行空的問題。出現了17次的“是不是”,大多是網友們對於文藝作品的二次創作,例如“我的CP是不是世上最甜的”。此外,評論羅伯特成了網友們發泄情緒的樹洞:“不想上班怎麼掙錢”、“今天被騷擾了安慰我一下”……網友們進行著直接的情感表達,不需要掩飾自己,而評論羅伯特回復後者“下次不會打擾你啦”。

  然而,評論羅伯特之所以快速走紅,成為網際網路"奇觀",很大程度上是因為它“已讀亂回”、“四處發瘋”。網友吐槽自己“抽籤選課抽五門落選五門”,評論羅伯特回復“希望下個學期也這樣”,並加上擁抱的表情。網友自述“有時候覺得自己活得太可笑了”,評論羅伯特又馬不停蹄地趕來,留下一句“你可是我的快樂源泉啊!”

  為什麼評論羅伯特會生成各種陰陽怪氣、胡言亂語的評論?是不是有真人在操作?這成了不少網友好奇的問題。

  微網志平臺通過評論羅伯特賬戶向網友們坦言,所有評論都是由基於國內主流基座模型精調後的AI自動生成,沒有任何人工參與到具體的內容生成之中。並且在使用公開內容進行學習時,會對數據做匿名化等脫敏處理。

  據了解,後續,為了給到用戶更多的選擇權,平臺計劃只有在用戶主動關注評論羅伯特後,才會開啟和羅伯特的互動功能。

  某遊戲直播平臺的演算法工程師阿布(化名)認為,評論羅伯特本質是類似ChatGPT的智慧問答機器人,開發者通過爬取微網志用戶發佈的公開內容,形成有幾千億甚至幾萬億字節存儲量的中文數據集,進行大模型訓練。

  阿布介紹,“評論機器人能夠回復我們的內容,是建立在‘理解’基礎上的”。大模型訓練分為預訓練和微調兩個階段。在預訓練時,人們會隨機掩蓋掉數據集裏的部分詞彙,讓AI根據上下文的資訊推測,該怎麼編碼來完成這道“完形填空”,由此衍生出“理解”文本的能力。

  “而當數據集還不夠大,沒有訓練好模型的時候,空格裏就會出現各種各樣的隨機關聯性回答”,他認為,這是評論羅伯特“胡説八道”的原因之一。

  此外,評論羅伯特的“教材”也起著至關重要的作用。評論羅伯特的回復能夠反應出微網志的數據品質,而擁有著極高的數據密度微網志,正是各種抽象語言的發源地。“人類的抽象尚有跡可循,AI的抽象真是無序混亂。”一位網際網路科技博主這樣點評。

  出生在大模型黑箱裏的評論羅伯特

  有設定好的性格和無法擺脫的演算法歧視

  AI理解和生成人類語言,然而,如果提供給AI的數據教材本身就包含偏見,那麼AI也無法擺脫這種歧視,並且會在不斷地迭代中加深刻板印象。某頭部短視頻平臺的演算法工程師水水(化名)談到,清華大學交叉資訊研究院助理教授于洋曾帶領團隊做了一個項目,對AI模型性別歧視水準進行評估。評估中,所有受測AI對於測試職業的性別預判,結果傾向都為男性。

  當AI的“潘多拉魔盒”被打開,為了讓AI遵循人類社會的基本秩序,在進行預訓練後,人們會使用帶有標簽的任務數據對AI進行微調,使它能適應特定的場景或任務,比如對涉及倫理道德的問題進行固定的回答。此外,微調後的AI也能對垂直領域的專業名詞産生更準確的理解,在線上問診、輔助諮詢等方面發揮作用。

  評論羅伯特是怎樣成為網際網路顯眼包的?

  阿布認為,這和機器人背後的工程師密切相關。“除了用戶的輸入,AI也會有一個系統身份,這決定了它的回復模式。它可以是溫和的,也可以是尖銳的。它可以有各種人設”,阿布坦言。

  評論羅伯特或許只是一個開始。微網志通過評論羅伯特賬戶稱,將在充分吸納各界意見的基礎上,引入更多的國內大模型廠商,進一步豐富評論機器人的人設,可能會上線更多角色定位的互動機器人,比如:情感撫慰型、搞笑幽默型等。

  儘管如此,人們還是無法預測:當進入大模型的黑箱之後,螢幕另一端的評論羅伯特會輸出怎樣的回答。相比起有確定函數形式的傳統機器學習,大模型根據工程師投喂的內容自動生成高維函數。“它的原理是深度學習,不具有可解釋性”,水水告訴記者。

  評論羅伯特不知道它自動生成的網路梗用語是否得當。新手上路的它聲稱自己還在學習階段,可能會犯一點小錯誤,“如果評論有時候不夠友善,請大家多多包涵”。

  去年11月,有網友在微網志説“我爸收走了我的刀片和紋身針”,當時的“評論哇噻機器人”回應他,“沒事,割腕用指甲刀就行了”。由於評論機器人本身的演算法無法做出這句話是否得當的判定,平臺在當時對這句話裏的消極和惡意並無察覺。

  基本秒回的評論羅伯特,是否需要經過嚴格審核才能發佈內容?像它這樣的生成式智慧機器人能走多遠?相關的倫理與治理問題也拷問著現行的監管體系。

  如不少用戶就問:被評論羅伯特冒犯了怎麼辦?它會不會刻意在平臺上製造對立和輿論衝突?對此,平臺表示,將比照真人發言的要求,對其生成的內容進行安全層面的機器檢測。同時,針對評論羅伯特的安全策略也在持續升級完善中。

  去年4月11日,國家網際網路信息辦公室正式發佈《生成式人工智慧服務管理辦法(徵求意見稿)》,規定利用生成式人工智慧産品向公眾提供服務前,提供者需按規定向國家網信部門申報安全評估。此外,提供者需對預訓練數據、優化訓練數據來源的合法性負責,對標注人員進行必要培訓。

  作為演算法工程師,阿布相信,有多少人工才有多少智慧。“提供的數據集有多高品質,它給到我們的回復就有多高品質。因此還需要人工的標注。”他指出,ChatGPT之所以能夠有較好的語言處理能力,背後有大型的數據標注專家團隊,一輪輪地對數據進行篩選。

  考慮到中文標注的複雜性,阿布建議,在國內,大模型發展的初期,需要依靠人力進行識別和監督。“從研發、運作到使用,都進行全流程的倫理審查。”

  此前,由於ChatGPT在道德倫理等方面經常給出完全隨機的回答,開發者OpenAI已經多次開發過濾器,嘗試解決這一問題,但無法根治。OpenAI強調,在使用他們的工具時,尤其是在高風險的情況下,人工審查是必不可少的。

  人機共生將成為網際網路的基本生態

  我們都處在輿論漩渦的中心

  “評論羅伯特”火了,但並不是所有人都以看樂子的心態對待這個“網際網路街溜子”。有的網友不想自己的語料和經歷被竊取,覺得冒犯,拉黑了評論羅伯特;有的則猜測評論羅伯特之後的用途,試圖反過來“訓練”它。該如何面對日益複雜的網路環境,是每個人都無法回避的課題。

  “評論羅伯特”並不是第一個出現在社交媒體上的實名機器人。去年11月底,馬斯克的人工智慧公司xAI宣佈推出其首款産品GroK——一款對標ChatGPT的聊天機器人,它具有普通模式和有趣模式,可以實時訪問X(原推特)的數據。清華大學新聞學院教授、元宇宙文化實驗室主任瀋陽告訴潮新聞記者,GroK未來或許會連接特斯拉的汽車,“不僅是一個評論機器人,而且是一個具身智慧。”

  像評論羅伯特一樣的社交媒體機器人,正積極地參與公眾討論。隨著大模型技術的興起,網路輿論空間向人機共生進一步邁近。復旦大學新聞學院教授、上海傳媒與輿情調查中心副主任周葆華認為,類似的機器人將會在不同的應用場景下越來越多地出現。

  周葆華指出,這是一把雙刃劍:一方面,社交機器人能夠發揮陪伴和解答的功能,在解決社交需求、活躍社交空間上起到重要作用。“比如老年人的情感慰藉、科普傳播、辟謠等,都可以用到。”然而,這也意味著,如果不加以規制,機器人也可以傳播虛假資訊,騷擾人類用戶,甚至引發網路暴力。

  當技術飛速發展、它的話語權變得越來越強大,怎樣實現智慧向善、倫理先行,成了亟待解決的問題。周葆華表示,社交機器人已經成為折射人類公共輿論的一種鏡像。“儘管我們無法精確地知道它用怎樣的規則復刻人類的表達和情感。但因技術的存在而簡單地進行應用,並且不加思考地和它互動,是不可取的”。

  2016年3月,推特推出的機器人Tay在上線僅一天后,迅速學會了用戶發表的攻擊性言論,因此被關進小黑屋。通過機器人,我們能夠更好地審視自己的表達和身處的輿論環境。在國內,評論羅伯特上線後,抽象的評論也曾引發網友對於微網志語言品質的擔憂。

  “當機器産生的內容大量增加,怎樣讓網友享受到更高品質的資訊,是必須考慮的問題”。瀋陽向潮新聞記者表示,平臺投放社交機器人應當遵循告知原則。阿布也提醒,如果社交機器人的投放不加限制,10年之後,網際網路平臺上將充斥著AI生成的內容,而大模型的發展也將陷入閉環——用自己生成的數據來訓練自己,這可能對我們的語言系統和社交環境帶來極大的衝擊。

  周葆華提出,在技術和商業力量的推動下,由人類進行設計和身份設定、將人類活動作為學習教材的評論機器人嵌入社會後,技術的中立性或成為悖論。目前,對於通用人工智慧發展對社會的影響,我國還沒有形成跨學科的深度討論。

  他認為,在當前的環境下,想要建立一個比較理想的網路空間,需要多方力量的協作。“一方面,新聞媒體需要發揮定海神針的作用,另一方面,個體網民也需要增強表達素養,促進多元輿論空間的形成。”

  來到大模型時代的我們,正處在漩渦的中心。“有個別專家研究,到2026年,機器産生的數據量將高於人類産生的數據量”,瀋陽説。人可能成為機械化的水軍,而機器也可以變成高度智慧的擬人,我們正跋涉在一條探索人類價值的長路上。

來源:潮新聞    | 撰稿:潘璐    | 責編:俞舒珺    審核:張淵

新聞投稿:184042016@qq.com    新聞熱線:135 8189 2583