圖:湯道生在“騰訊全球數(shù)字生態(tài)大會”上強調(diào),騰訊將全面擁抱大模型。
人工智能(AI)越吹越烈,在各大互聯(lián)網(wǎng)巨企爭相涉足AI業(yè)務(wù)之時,騰訊(00700)的AI“混元大模型”亮相“騰訊全球數(shù)字生態(tài)大會”,管理層形容,“混元大模型”部分功能超越ChatGPT。同時,微信上線“混元助手”小程序,用戶可申請內(nèi)測版。\大公報實習記者 李樂兒
“騰訊將全面擁抱大模型!”騰訊高級執(zhí)行副總裁、云與智慧產(chǎn)業(yè)事業(yè)群首席執(zhí)行官湯道生表示,人工智慧正成為下一輪產(chǎn)業(yè)數(shù)字化發(fā)展的關(guān)鍵動力,也為解決產(chǎn)業(yè)痛點帶來新思路。他續(xù)提到,大語言模型讓人機交互的體驗變得更加簡單,騰訊產(chǎn)業(yè)互聯(lián)網(wǎng)將通過智能增強、數(shù)據(jù)增強、連接增強,持續(xù)助力產(chǎn)業(yè)增強。
微信“混元助手”上線
在騰訊全球數(shù)字生態(tài)大會上,騰訊正式發(fā)布AI“混元大模型”,微信上線“混元助手”小程式。騰訊集團副總裁蔣杰指出,騰訊混元大模型從第一個token(源代碼中的最小單元)開始從零訓練,是透過掌握從模型演算法到機器學習框架,再到AI基礎(chǔ)設(shè)施的全鏈路自研技術(shù)。
蔣杰續(xù)說,目前“混元”的參數(shù)量是千億級別,預(yù)訓練語言估計超過2萬億tokens,具備強大的中文創(chuàng)作能力,同時能夠在復雜語境下進行邏輯推理,以及可靠的任務(wù)執(zhí)行。
截至今年7月,內(nèi)地市場大模型的數(shù)量已經(jīng)超過130個,蔣杰形容為“百模大戰(zhàn)場面”。他直言,在投入大模型時,考慮的是“期待什么”,由此引發(fā)出騰訊對于大模型“更可靠,更成熟”的意愿。
談及市場上常見大模型對于歷史事件、人物年代進行“張冠李戴”的問題,蔣杰回應(yīng)指,“混元”已能降低30%至50%幻覺率的效果。他補充,對于“混元”安全誘導性問題的拒絕問答率,通過強化學習后已提升20%以上。
能處理4000字以上文本
此外,蔣杰認為,目前“混元”在處理超長文本亦取得突破和進展,例如“混元”對4000字以上的文本處理,無論是內(nèi)地其他大模型還是ChatGPT 3.5或4.0都無法達到。
在大會現(xiàn)場,蔣杰還展示接入騰訊“混元大模型”后,騰訊會議、騰訊文檔、騰訊廣告等業(yè)務(wù)的實際應(yīng)用情況。其中,騰訊會議基于騰訊“混元”打造的AI小助手,進行會議時沒聽清的語句、需要的資訊、相關(guān)的內(nèi)容分析,只需要簡單的自然語言指令A(yù)I小助手就能完成,會后還能生成紀要及待辦事項。
蔣杰表示,在研發(fā)過程中發(fā)現(xiàn),“混元”在會議中的指定理解、會議摘要、待辦事項三方面用戶的采納率均超過ChatGPT 3.5,更是“已完全具備服務(wù)億萬用戶的能力”。