www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 公眾號精選 > 架構(gòu)師社區(qū)
[導(dǎo)讀]作者:龔小春,來自:DataFun 導(dǎo)讀: 隨著語音交互技術(shù)的發(fā)展,對話系統(tǒng)已經(jīng)越來越成熟。對話系統(tǒng)的最新進展絕大多數(shù)是由深度學(xué)習(xí)技術(shù)所貢獻的,深度學(xué)習(xí)技術(shù)可以通過利用大規(guī)模數(shù)據(jù)來學(xué)習(xí)有意義的特征表示和回復(fù)生成策略,并有助于提升用戶的對話體驗。今天

智能語音交互技術(shù)在360的落地實踐
作者:龔小春,來自:DataFun

導(dǎo)讀: 隨著語音交互技術(shù)的發(fā)展,對話系統(tǒng)已經(jīng)越來越成熟。對話系統(tǒng)的最新進展絕大多數(shù)是由深度學(xué)習(xí)技術(shù)所貢獻的,深度學(xué)習(xí)技術(shù)可以通過利用大規(guī)模數(shù)據(jù)來學(xué)習(xí)有意義的特征表示和回復(fù)生成策略,并有助于提升用戶的對話體驗。今天和大家分享的是360人工智能研究院主導(dǎo)的語音交互技術(shù)在360的落地實踐,目前已在360智能音箱、360兒童手表、360安全衛(wèi)士等產(chǎn)品上得到了深度應(yīng)用。

本次分享的主要內(nèi)容包括:

1. 對話系統(tǒng)的基礎(chǔ)知識

2. 360智能語音交互平臺介紹

3. 對話核心技術(shù):語義理解、對話管理、QA

▌對話系統(tǒng)的基礎(chǔ)知識

智能語音交互技術(shù)在360的落地實踐
上圖是目前常見的對話系統(tǒng)的框架,當(dāng)用戶和機器人聊天時,首先要讓機器人能夠"聽懂"用戶說的話,通過 ASR ( Automatic Speech Recognition,語音識別 ) 技術(shù)將聲音信號轉(zhuǎn)成文字,接著使用 NLU ( Natural Language Understanding,自然語言理解 ) 技術(shù)讓機器人明白用戶表達的意思。緊接著, NLU 模塊輸出處理后的信息,并傳入 DM ( Dialog Manager,對話管理 ) 模塊,通過引入對話上下文和知識庫等方式,進行對話決策,確定使用一個策略或技能。再 將結(jié)果合成文字并以聲音信號的形式輸出,這里主要采用 NLG ( Natural Language Generating,自然語言合成 ) 和TTS ( Text To Speech,語音合成 ) 技術(shù)。
對話系統(tǒng)分類:
智能語音交互技術(shù)在360的落地實踐
根據(jù)具體應(yīng)用來劃分,目前常見的對話系統(tǒng)可分為任務(wù)型、QA 型、閑聊型三種。任務(wù)型對話系統(tǒng)是為了解決特定的任務(wù),如設(shè)定鬧鐘、訂機票等。QA 型的對話系統(tǒng)主要用來解決信息檢索的需求,回答用戶的問題,通常在客服場景中使用比較廣泛。閑聊性對話系統(tǒng)沒有特定的規(guī)則,只要能一直和用戶聊下去就好。
▌360智能語音交互平臺
智能對話系統(tǒng)這種產(chǎn)品的實現(xiàn)一般有兩種方式:一種是基于業(yè)務(wù)導(dǎo)向的,比如要實現(xiàn)智能音箱與用戶的對話系統(tǒng),需要針對智能音箱這個場景進行代碼的實現(xiàn);另一種是平臺化的思路,即實現(xiàn)一個更大的對話系統(tǒng)平臺,將業(yè)務(wù)邏輯與核心對話引擎解耦。我們平臺化的優(yōu)勢很明顯,包括創(chuàng)建技能可以流水線化,利于分工合作、架構(gòu)穩(wěn)定容易擴展、遷移性好等特點,可以快速支持多個產(chǎn)品線的業(yè)務(wù)。目前360智能語音交互平臺已經(jīng)內(nèi)置了82個技能,在360智能音箱、360兒童手表、360安全衛(wèi)士等業(yè)務(wù)上均有廣泛的應(yīng)用。
智能語音交互技術(shù)在360的落地實踐
當(dāng)平臺建好之后,新技能的擴展就會變得很方便,一般一個新技能只需要一周就能實現(xiàn),復(fù)雜的新技能也能在兩周左右打造完成。
目前我們的業(yè)務(wù)架構(gòu)如下:
智能語音交互技術(shù)在360的落地實踐
這里我們的主要創(chuàng)新在于"多模態(tài)接入層"中"事件"的引入。例如,如果我們支持一個智能攝像機的需求,看到一個人后判斷有沒有戴口罩,若沒有則進行相應(yīng)的提示;那么我們只要連通攝像機,根據(jù)事件觸發(fā)系統(tǒng)對應(yīng)的處理模塊,監(jiān)測"人沒有戴口罩"這個事件有沒有發(fā)生。引入"事件"后,我們系統(tǒng)不僅能處理自然語言,還可以處理多種多樣的信息。只有系統(tǒng)有了"事件"的概念,我們才能說這一系統(tǒng)是多模態(tài)的。
▌對話核心技術(shù)
接下來主要介紹自然語言對話的核心技術(shù),包括語義理解、對話管理和 QA。
1. 對話核心技術(shù)-語義理解
在對話系統(tǒng)中,task 型語義理解主要是將自然語言轉(zhuǎn)換為"領(lǐng)域 ( domain )、意圖 ( intent )、信息槽 ( slots )"三要素,將自然語言轉(zhuǎn)換為結(jié)構(gòu)化信息。這個功能直接影響后續(xù)處理,因此在對話系統(tǒng)中的地位非常重要。
舉個例子,用戶說"給我放一首周杰倫的東風(fēng)破",NLU 模塊應(yīng)解析出領(lǐng)域是音樂、用戶意圖是播放音樂,信息槽為{"singer": 周杰倫,"song":東風(fēng)破},即:
智能語音交互技術(shù)在360的落地實踐
于是我們可以將這些信息可以傳入后面的對話管理模塊,由 DM 來決策出系統(tǒng)的反饋是做什么事情。
目前學(xué)術(shù)界對語義理解有很多方案,理想情況是采用一個模型去解決一個端到端的問題,但現(xiàn)實比較骨感,目前的語義理解模塊并不能達到這一點。冷啟動問題也很困難,我們初期并沒有足夠數(shù)據(jù)去訓(xùn)出一個理想的模型。
智能語音交互技術(shù)在360的落地實踐
針對這些問題,我們做了以下方案:
  • 規(guī)則匹配,也就是精確匹配,可以解決 top query,規(guī)則匹配沒有泛化能力。
  • 生成模型,基于規(guī)則匹配的泛化 ( 請注意這里生成模型是內(nèi)部說法,并不是"生成式模型 ( Generative Model )"的概念 )。
  • 相似度匹配模型,主要應(yīng)用在沒有槽位 ( slots ) 的語義理解,如用戶說"我要聽歌",我們可以找到相似的 Query,根據(jù)相似 Query 的反饋回復(fù)用戶。
  • 深度模型,我們做了 SF-ID ( Slot Filling and Intent Detection ) 聯(lián)合學(xué)習(xí)的方案。

規(guī)則匹配和相似度匹配的方案大家都比較熟悉,這一節(jié)我們主要分享生成模型和深度模型。

① 語義理解-生成模型

我們的生成模型是基于匹配模型的泛化,是完整精確匹配與片段式匹配的區(qū)別,類似隱馬爾可夫模型,我們可以用轉(zhuǎn)移序列和發(fā)射序列進行匹配。例如下圖中,我們的標注人員只標注了3種句式,直接匹配只能匹配這三種說法。我們增加了 3-gram 模型進行匹配,將原始序列拆成三元片段,在這個基礎(chǔ)上通過 beam search 進行解碼,這樣像例子中的3條語料,在實際匹配中可以額外泛化出6種句式,達到了很好的效果。

這里還可以加上三元回退、二元回退、停用詞、同義詞等,還可以把泛化效果做的更好。

智能語音交互技術(shù)在360的落地實踐

② 語義理解-深度模型 SF-ID

業(yè)界通用型的 NLU 一般會先過意圖識別模型,再將識別出的意圖傳給槽位識別模型進行判斷。整個 Pipeline 如下:

智能語音交互技術(shù)在360的落地實踐

經(jīng)過我們的技術(shù)分析和業(yè)務(wù)反饋,這樣的流程有以下問題:

  • 誤差傳遞。即意圖識別模型判斷錯誤,會影響槽位識別的效果

  • 沒有引入外部知識。如"播放忘情水"的意圖應(yīng)該是 play_music,而"播放白雪公主"的意圖應(yīng)該是 play_story

  • OOV問題。如用戶說"播放你的酒館打了烊",真實意圖是"播放你的酒館對我打了烊",用戶說錯的時候沒有辦法解決

我們的槽位-意圖識別 ( Slot Filling – Intent Detection ) 的方案有一個演進過程,針對這些問題我們的方案如下:

首先是誤差傳遞問題,這個問題的解法,我們有兩個階段。最開始我們的模型是 LSTM-CRF,針對它效果不好的問題,我們首先加了 Attention,并且 Softmax 和 CRF 可以互換調(diào)整。第一個比較大的提升是采用聯(lián)合訓(xùn)練的方式,也就是 Slot Gated Modeling 這篇論文[1]的方案。

智能語音交互技術(shù)在360的落地實踐

這個方案引入了 slot gate,模型在預(yù)測公式上引入了 intent 影響,論文里用的標注模型是 Softmax,但我們換 CRF 后效果會更好。有些情況 Softmax 標注的序列中,I 標注會在 B 前面 ( ps:這個是序列標注問題的標注類型,B:Begin,I:Inside,O:outside,即序列的開始、中間、結(jié)束 ),但 CRF 不會將 I 標注在 B 前面。這個可能是因為 Softmax 更專注于局部信息,但 CRF 是對全局的概率轉(zhuǎn)移進行了建模。

接下來,我們又更新到了 SF-ID 模型。比較巧的是這個方案的作者當(dāng)時在我們組工作,也就把這個思路帶來了,后來論文[2]被 ACL 2019 發(fā)表了。這個方案和 slot gate 方案的主要區(qū)別是,slot gate 方案中只有 intent 影響 slot,slot 的結(jié)果不能對 intent 起作用,還是有誤差傳遞的情況;新方案的 SF-ID 是兩個子網(wǎng)絡(luò),兩個子網(wǎng)絡(luò)互相迭代訓(xùn)練,兩個子網(wǎng)絡(luò)互相傳遞信息迭代,這樣就把 intent 對 slot 的單向影響變成了 intent 和 slot 互相影響。大家若有興趣,歡迎看一下參考文獻中第二篇論文。

智能語音交互技術(shù)在360的落地實踐

基于聯(lián)合訓(xùn)練 SF-ID 兩任務(wù)的思想,我們基本在模型層面解決了誤差傳遞的問題。

接下來我們討論一下外部知識的引入。我們的經(jīng)驗是沒有外部知識 ( 輸入層增加 knowledge vector ),模型效果并不好。但引入外部知識之后,準確率馬上提高了15%。

舉個例子,用戶說"播放張學(xué)友的吻別",我們通過外部知識可以打上標簽 ( 張學(xué)友:張:B-singer、學(xué):I-singer、友:I-singer;吻別:吻:B-song、別:I-song ),于是可以在 word embedding 的基礎(chǔ)上增加 knowledge embedding,如圖所示:

智能語音交互技術(shù)在360的落地實踐

再就是 OOV 問題,這個問題業(yè)務(wù)上比較困難,因為用戶如果說的是"你的酒館打了烊",但這個并不是歌名,知識庫也就引不進去了。我們的做法與 NER 類似,首先學(xué)習(xí)槽位邊界,提供多種解碼路徑,如路徑1:意圖為 play_music,并給"你的酒館打了烊"打上 like_song ( 疑似歌曲 ) 的標簽;路徑2:意圖為 play_story,并給"你的酒館打了烊"打上 like_story ( 疑似歌曲 ) 的標簽。接著通過知識庫進行校驗,我們根據(jù)編輯距離、文本相似度等策略可以判斷路徑1的置信度更高,因此選出路徑1。具體可見 Rank 策略。

③ 語義理解-Rank

這個步驟是多路徑選擇消歧,即獲取到多個解碼路徑后,我們選擇一個置信度最高的,作為語義理解部分的結(jié)果。Rank 階段我們主要采用的還是經(jīng)典的 xgboost 模型+規(guī)則策略。這里規(guī)則是為了業(yè)務(wù)的可干預(yù)性,有利于產(chǎn)品運營人員快速解決一些業(yè)務(wù) case。

智能語音交互技術(shù)在360的落地實踐

2. 對話核心技術(shù)-對話管理

對話管理 ( Dialog Manager ) 系統(tǒng)分為兩個部分:DST ( Dialog State Tracking,對話狀態(tài)跟蹤 ) 和 DP ( Dialog Policy,對話策略 ) 兩個模塊。

DST 主要用于狀態(tài)追蹤,這一模塊維護對話的上下文狀態(tài)、進行上下文語境的管理、意圖槽位繼承等。DP 是決策模塊,它根據(jù) DST 記錄的當(dāng)前系統(tǒng)狀態(tài),進行系統(tǒng)動作決策。

目前對話管理模塊的實現(xiàn)主要有基于框架 ( Frame based ) 的管理、基于有限元狀態(tài)機 ( FSM ) 的管理和基于 Agenda 的管理等。我們引入了其中的兩種:

Frame Based:在以完成任務(wù)為導(dǎo)向的對話系統(tǒng)中,F(xiàn)rame Based 的系統(tǒng)將對話建模成一個填槽 ( slot filling ) 的過程。槽是多輪對話過程中將初步用戶意圖轉(zhuǎn)化為明確用戶指令所需要補全的信息。例如:"告訴我去車站怎么走",其中目的地是一個槽位,"車站"是該槽位所填充的值。目前,360智能語音交互系統(tǒng)已經(jīng)支持這一模式。

智能語音交互技術(shù)在360的落地實踐

該方法的特點是:

  • 輸入相對靈活,用戶回答可以包含一個或多個槽位信息

  • 對槽位提取準確度的要求比較高

  • 適用于相對復(fù)雜的多輪對話

FSM Based:這種方法主要用于特定的任務(wù),如訂票。這種方法通常將對話建模成一棵樹或者有限狀態(tài)機。系統(tǒng)根據(jù)用戶的輸入在有限的狀態(tài)集合內(nèi)進行狀態(tài)跳轉(zhuǎn)并選擇下一步輸出,如果從開始節(jié)點走到了終止節(jié)點則任務(wù)就完成了。

該方法的特點是:

  • 提前設(shè)定好對話流程并由系統(tǒng)主導(dǎo)

  • 建模簡單,適用于簡單任務(wù)

  • 將用戶的回答限定在有限的集合內(nèi)

  • 表達能力有限,靈活性不高

智能語音交互技術(shù)在360的落地實踐

我們的創(chuàng)新點在于通過上下文語境實現(xiàn)了跨場景的信息繼承,這里要引出兩個概念:上文語境和下文語境。上文語境是指上文出現(xiàn)過的信息,主要用于信息繼承;下文語境是指當(dāng)前對話中要存儲的信息,我們可以給不同類型的信息設(shè)置不同的繼承輪數(shù)。我們可以把語境信息想象成一個銀行,根據(jù)"存錢+取錢"的工作模式進行語境信息的獲取與更新,并且支持基于對話輪數(shù)和事件的遺忘,這樣就可以做到跨場景的繼承。

對話管理的工作流程:

智能語音交互技術(shù)在360的落地實踐

對話管理模塊的工作流程和強化學(xué)習(xí)的"馬爾科夫決策過程"比較類似[3]。在用戶和 bot 的對話過程中,每一輪對話都有當(dāng)前狀態(tài) ( state,圖中為 s1-s4 ) 以及 bot 根據(jù)當(dāng)前狀態(tài)做出的反應(yīng) ( action,圖中為 a1-a4 )。DST 做的就是追蹤 state,管理對話狀態(tài)的轉(zhuǎn)移;DP 做的是管理各狀態(tài)下的系統(tǒng)動作,根據(jù)當(dāng)前 state 的信息,做出反應(yīng)。這里 DP 可以做出的反應(yīng)包括調(diào)用子功能、繼續(xù)詢問、澄清、兜底回答等。

下圖展示了在訂票場景下的一輪對話中,對話管理系統(tǒng)的流程:

智能語音交互技術(shù)在360的落地實踐

3. 對話核心技術(shù)-QA

最后介紹的是 QA 部分,QA 的系統(tǒng)很大程度上依賴相似搜索,其實和檢索式閑聊系統(tǒng)非常相似。

智能語音交互技術(shù)在360的落地實踐

在360智能語音對話平臺上,QA 系統(tǒng)通過預(yù)處理 -> 粗召 -> 精排 -> 過濾的流程得到最接近的答案并輸出給用戶。下面詳細介紹一下這個流程:

  • Query 預(yù)處理:這部分是對輸入 Query 進行歸一化,方法和業(yè)界比較通用,不再贅述

  • 粗召:分為基于 keyword 的召回和基于 Embedding 的召回?;?keyword 召回是利用 ElasticSearch 實現(xiàn),找出字面相似的結(jié)果;基于 Embedding 的召回是我們將所有候選 Answer 建立了 Faiss 索引,通過 Query 的深度語義 Embedding 進行語義相似性的檢索,這樣可以召回字面不同但實際含義相似的結(jié)果

  • 精排:主要用的是我們訓(xùn)練的 LSTM-DSSM 模型,將 Query 和粗召結(jié)果做相似性打分,根據(jù)相似度由高到低排序

  • 過濾:根據(jù)業(yè)務(wù)邏輯的過濾,最終輸出符合條件的相似度最高的候選

這里重點講一下我們的 LSTM-DSSM 模型,模型示意如下:

智能語音交互技術(shù)在360的落地實踐

文本相似度問題的傳統(tǒng)解法有 BM25、TF-IDF、編輯距離、Jaccard 相似度等,使用的時候可以多個距離都算出來,用一個模型擬合各個距離的權(quán)重,進行加權(quán)求和?;谏疃葘W(xué)習(xí)的方法主要有 DSSM 的各種變種 ( 增加卷積層、增加 LSTM 等 ),近年來還有基于 BERT 的相似度計算。

DSSM 模型[5]最早是微軟提出來的,通過 Bing 搜索引擎的點擊日志數(shù)據(jù)訓(xùn)練,它非常適合擬合搜索 Query 和 Document 的文本相似度。而公司有360搜索的搜索日志,每天都有億級別的點擊行為正負例出現(xiàn),給我們的模型訓(xùn)練提供了豐富的語料,這是我們的優(yōu)勢。嘗試了不同模型后發(fā)現(xiàn),在我們的業(yè)務(wù)場景下,LSTM-DSSM 模型比其他模型效果都要好,甚至比 BERT 更好,而且計算量更低。

總結(jié)

本文首先介紹了語音交互系統(tǒng)的基本知識和系統(tǒng)流程;然后介紹了360智能語音交互平臺,重點分享了我們的業(yè)務(wù)架構(gòu);最后講解了對話系統(tǒng)的核心技術(shù),包括語義理解的 SF-ID 模型、對話管理系統(tǒng)和 QA 的技術(shù)架構(gòu)。 

本次分享就到這里,謝謝大家。

參考資料

[1] Goo C W, Gao G, Hsu Y K, et al. Slot-gated modeling for joint slot filling and intent prediction[C]//Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers). 2018: 753-757.

[2] Haihong E, Niu P, Chen Z, et al. A novel bi-directional interrelated model for joint intent detection and slot filling[C]//Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. 2019: 5467-5471.

[3] Zhou L , Gao J , Li D , et al. The Design and Implementation of XiaoIce, an Empathetic Social Chatbot[J]. 2018.

[4] Palangi H, Deng L, Shen Y, et al. Semantic Modelling with Long-Short-Term Memory for Information Retrieval[J]. Computer Science, 2014.

[5] Huang P S , He X , Gao J , et al. Learning deep structured semantic models for web search using clickthrough data[C]// Proceedings of the 22nd ACM international conference on Conference on information & knowledge management. ACM, 2013

特別推薦一個分享架構(gòu)+算法的優(yōu)質(zhì)內(nèi)容,還沒關(guān)注的小伙伴,可以長按關(guān)注一下:

智能語音交互技術(shù)在360的落地實踐

長按訂閱更多精彩▼

智能語音交互技術(shù)在360的落地實踐

如有收獲,點個在看,誠摯感謝

免責(zé)聲明:本文內(nèi)容由21ic獲得授權(quán)后發(fā)布,版權(quán)歸原作者所有,本平臺僅提供信息存儲服務(wù)。文章僅代表作者個人觀點,不代表本平臺立場,如有問題,請聯(lián)系我們,謝謝!

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉