2019年8月14日 星期三

MOBILE01新聞 對話式AI突破發展 NVIDIA創下三項自然語言理解紀錄 百家樂 http://www.iwin9418.com

人工智慧正逐漸滲透到日常生活,其中對話式AI由於使用方便、回應快、易於個人化,已廣為消費者接受。不過對話式AI想進一步應用到更複雜的領域如醫療、金融、通訊等,就需要更大的模型及更快的訓練速度。近日NVIDIA在對話式AI有了突破性發展,並將成果開放原始碼分享,加速了社群研發腳步,也帶來新型態服務的可能性。


對話式AI是被廣泛應用的人工智慧類型之一,圖為對話式AI與人溝通時的螢幕顯示狀況。

NVIDIA於8月13日宣布創下三項自然語言理解效能紀錄:

  • 最快訓練:採用內建1,472個GPU的NVIDIA V100 GPUNVIDIA DGX SuperPOD,成功把先進AI語言模型BERT-Large的訓練時間從數日縮短至53分鐘。此外,僅透過一台NVIDIA DGX-2系統在2.8天內就完成BERT-Large訓練。
  • 最快推論:以NVIDIA T4 GPU運行NVIDIA TensorRT,在BERT-Base SQuAD資料集上僅用2.2毫秒就完成推論。遠低於許多即時應用要求的10 毫秒門檻,也大幅領先以CPU執行的40毫秒。
  • 最大模型:NVIDIA在Transformers Model的基礎上建構與訓練出全球最大的語言模型,擁有83億個參數,足足比BERT-Large多出24倍,也因此NVIDIA把這個計畫稱為Project Megatron。


NVIDIA V100 GPUNVIDIA DGX SuperPOD超級電腦。

對話式AI已發展多年,如聊天機器人、語音助理、智慧音箱、語音搜尋等。但想要達到人類理解力的水準仍極為困難,主要原因是無法即時部署超大規模的AI模型。這次發表的幾項突破,就是在AI訓練與推論方面刷新速度紀錄,同時也建構出至今最大的語言模型。

以自然語言理解技術運行的AI服務,預計在未來幾年呈現指數成長。根據Juniper Research的報告,光是數位語音助理市場規模預計在未來5年內將從25 億美元成長到80億美元。Gartner也預測2021年,15%的客服互動將完全由AI執行,與2017年相比增加400%。


NVIDIA T4 GPU。

NVIDIA即日起也將對話式AI研發成果全面釋出給開發者,包括:

  • NVIDIA GitHub BERT模型的訓練程式碼與PyTorch學習框架。
  • NGC模型Scripts與TensorFlow的check-points。
  • GitHub上針對TensorRT優化的BERT範例。
  • Faster Transformer: C++語言API、TensorRT外掛與TensorFlow OP。
  • MXNet Gluon-NLP包含AMP對BERT的支援方案(訓練與推論)。
  • AI Hub上針對TensorRT優化的BERT Jupyter軟體說明註記。
  • Megatron-LM:用來訓練超大型Transformer模型的PyTorch程式碼。

Let's block ads! (Why?)



from Mobile01 本站新聞 https://ift.tt/2N3shWO




沒有留言:

張貼留言