OpenVINO 2022.2全新升級!
目錄
- OpenVINO toolkit 2022.2的新功能
- 支援的模型和硬體
- 更廣泛的NLP模型和應用
- 框架和整合
- 更高的可攜性和效能
- Intel FPGA AI Suite的支援
- 錯誤修復和增強功能
- Intel創新2022活動回顧
- Intel Core處理器的介紹
- 相關連結
OpenVINO toolkit 2022.2的新功能
在這篇文章中,我們將介紹最新釋出的OpenVINO toolkit 2022.2版本的一些令人振奮的新功能。此版本提供了更廣泛的模型和硬體支援,並在效能、兼容性和功能上進行了一系列的改進。
支援的模型和硬體
OpenVINO toolkit 2022.2版本引入了對Intel第13代Core處理器(代號Raptor Lake)桌面版的支援,這為使用者帶來更強大的計算能力。
此外,這個版本還提供了Intel的獨立顯示卡、Intel® Data Center GPU Flex系列和Intel Arc GPU的DL推論工作負載的預覽支援,結合智慧雲端、邊緣和媒體分析工作負載,讓數百個模型可用。
更廣泛的NLP模型和應用
OpenVINO toolkit 2022.2版本在自然語言處理(NLP)模型和應用方面進行了擴展。現在,您可以使用OpenVINO進行文本到語音和語音識別等NLP應用的測試。
此外,此版本還提供了在使用動態輸入形狀時降低CPU內存消耗的功能,並改善了NLP應用的效能。
框架和整合
在框架和整合方面,OpenVINO toolkit 2022.2版本引入了一些選項,讓使用者在最小程式碼更改的情況下與現有框架進行兼容。
首先,OpenVINO Execution Provider for ONNX Runtime使得在ONNX Runtime中添加OpenVINO時進行性能優化變得更加容易。
其次,OpenVINO與ONNX Runtime for PyTorch(OpenVINO Torch-ORT)的整合,加速了使用ONNX Runtime進行PyTorch模型的推論,這為PyTorch開發者帶來了OpenVINO的性能優勢。
最後,OpenVINO與TensorFlow的整合現在支援更多深度學習模型,並提供了改進的推論性能。
更高的可攜性和效能
OpenVINO toolkit 2022.2版本提供了更高的可攜性和效能,讓使用者立即感受到性能提升。
首先,引入了新的性能提示("累積吞吐量")在AUTO設備中,使多個加速器(例如多個GPU)能夠同時使用,以最大化推論性能。
此外,這個版本增加了對Intel FPGA AI Suite的支援,這個套件能夠實現實時、低延遲和低功耗的深度學習推論。
錯誤修復和增強功能
OpenVINO toolkit 2022.2版本還包含了大量的錯誤修復和增強功能,以提高使用者的體驗。
點擊此處查看更詳細的版本發行說明,並下載OpenVINO toolkit 2022.2。
Intel創新2022活動回顧
在最新的Intel創新2022活動中,Intel CEO Pat Gelsinger和CTO Greg Lavender發表了主題演講,還有許多業界嘉賓和領導者展示了開放生態系統的力量。
您可以訪問Intel創新2022網站觀看主題演講,以及關於人工智能、機器學習、雲計算、網絡和邊緣、安全等主題的錄製簡報。
請在Intel Newsroom YouTube頻道的Intel創新2022播放清單中查看更多相關視頻。
對於此頻道的粉絲來說,CTO Greg Lavender的第二天主題演講可能會引起您的興趣。
在硬體方面,請觀看“Introducing 13th Gen Intel Core Processors for Desktop”的影片,了解更多相關資訊。
在描述中找到我們討論的所有內容(以及更多!)的鏈接。
請花一點時間點讚這個視頻,分享它,並訂閱Intel Software的YouTube頻道!
我們下個月見,感謝收看IDZ News!
相關連結