在线中文AV精品人人草视频|日韩特黄AA片av超碰|国模免费在线视频|国产高清无码三级片|小毛片小电影人人上人人操|春色av无码黄片无码区|很爽很爽的香蕉视频|日本伊人小视频|亚洲AV网站免费|四月婷婷精品视频在线

騰訊混元開源翻譯模型 1.5:手機 1GB 內(nèi)存即可運行,效果超越商用 API

DoNews12月30日消息,騰訊混元今日宣布開源翻譯模型 1.5 版本,共包含兩個模型:Tencent-HY-MT1.5-1.8B 和 Tencent-HY-MT1.5-7B,支持 33 個語種互譯以及 5 種民漢 / 方言,除了中文、英語、日語等常見語種,也包含捷克語、馬拉地語、愛沙尼亞語、冰島語等小語種。

目前兩個模型均已在騰訊混元官網(wǎng)上線,在 Github 和 Huggingface 等開源社區(qū)也可直接下載使用。

HY-MT1.5-1.8B 主要面向手機等消費級設(shè)備場景,經(jīng)過量化,支持端側(cè)直接部署和離線實時翻譯,僅需 1GB 內(nèi)存即可流暢運行,并且宣稱在參數(shù)量極小的前提下,效果超過了大部分商用翻譯 API。

同時,與主流商用翻譯模型 API 對比,HY-MT1.5-1.8B 推理速度更快,處理 50 個 tokens 的平均耗時只有 0.18 秒,其他模型的時間在 0.4 秒左右。

HY-MT1.5-7B 模型效果相比前一版本效果有較大提升,是此前獲得 WMT25 比賽 30 個語種翻譯冠軍模型的升級版,重點提升了翻譯準(zhǔn)確率,大幅減少了譯文中夾帶注釋和語種混雜的情況,實用性進一步增加。

在部分用戶實際使用場景下,混元翻譯 1.8B 和 7B 兩個尺寸模型同時使用,可以實現(xiàn)端側(cè)和云側(cè)模型的協(xié)同部署,提升模型的效果的一致性和穩(wěn)定性。

在常用的中外互譯和英外互譯測試集 Flores200、WMT25 以及民漢語言的測試集中,Tencent-HY-MT1.5-1.8B 全面超越中等尺寸開源模型和主流商用翻譯 API,達(dá)到 Gemini-3.0-Pro 這種超大尺寸閉源模型的 90 分位水平。在 WMT25 和民漢翻譯測試集上,其效果僅略微差于 Gemini-3.0-Pro,遠(yuǎn)超其他模型。

HY-MT1.5-1.8B 模型在 FLORES-200 質(zhì)量評估中取得了約 78% 的分?jǐn)?shù),同時平均響應(yīng)時間 0.18 秒,超越主流商用翻譯 API,適用于即時通訊、智能客服、移動翻譯應(yīng)用等高吞吐、實時翻譯場景。

此外,針對各類場景,兩個模型均實現(xiàn)了對術(shù)語庫、長對話、帶格式文本(例如網(wǎng)頁)的翻譯支持,更加全面:

首先是術(shù)語,騰訊混元翻譯模型 1.5 具備術(shù)語庫自定義能力,用戶可針對不同行業(yè)與專業(yè)場景(如醫(yī)學(xué)、法律、金融、科技等)提前構(gòu)建專屬術(shù)語對照表,確保關(guān)鍵術(shù)語在翻譯中保持高度一致與準(zhǔn)確性。

用戶可通過簡單配置導(dǎo)入術(shù)語庫,模型將在翻譯過程中優(yōu)先采納用戶定義的標(biāo)準(zhǔn)術(shù)語,從而提升專業(yè)文檔、技術(shù)手冊、合同文本等內(nèi)容翻譯的可靠性與權(quán)威性。

其次是上下文翻譯?;煸g模型具備長文本與對話上下文理解能力,可基于前文語境持續(xù)優(yōu)化后續(xù)翻譯結(jié)果,提升長對話、多輪問答、連續(xù)段落等場景下的翻譯連貫性與一致性。

無論是會議記錄、訪談內(nèi)容、小說章節(jié)還是技術(shù)文檔的長篇翻譯,模型均能捕捉并保持上下文邏輯關(guān)系,避免出現(xiàn)指代不清、語義斷裂或風(fēng)格不統(tǒng)一的問題。

第三是帶格式翻譯能力,通過指令遵循能力,混元翻譯模型得以保持翻譯前后的格式信息不變,讓翻譯結(jié)果更加準(zhǔn)確實用。

為了直觀展示混元 Tencent-HY-MT1.5-1.8B 的翻譯效果,官方展示了與蘋果手機自帶離線翻譯的結(jié)果對比:

技術(shù)方面,HY-MT1.5-1.8B 能夠用小尺寸實現(xiàn)大尺寸模型的效果,得益于 On-Policy Distillation(大尺寸模型蒸餾)策略的引入,讓 HY-MT1.5-7B 作為 Teacher,實時引導(dǎo) 1.8B 的 Student 模型,讓其避免死記硬背標(biāo)準(zhǔn)答案,通過糾正在預(yù)測序列分布時的偏移,讓小模型從錯誤中學(xué)習(xí),提升能力。

騰訊混元翻譯模型此前不僅在國際機器翻譯比賽拿下 30 個第 1 名,也在首次開源一周內(nèi)便登上了 HuggingFace 模型趨勢榜第一位。混元翻譯模型已經(jīng)在騰訊內(nèi)部多個業(yè)務(wù)場景落地應(yīng)用,包括騰訊會議、企業(yè)微信、QQ 瀏覽器、客服翻譯等。

為了便于開發(fā)者使用,本次開源的模型已經(jīng)在 Github 和 Huggingface 等開源社區(qū)上線,Arm、高通、Intel、沐曦等多個平臺均支持部署。

騰訊混元開源翻譯模型 1.5:手機 1GB 內(nèi)存即可運行,效果超越商用 API
掃描二維碼查看原文
分享自DoNews
Copyright ? DoNews 2000-2026 All Rights Reserved
蜀ICP備2024059877號-1