Intel telah merilis pembaruan besar untuk toolkit OpenVINO open-source yang luar biasa untuk mengoptimalkan dan menerapkan inferensi AI. OpenVINO terus bekerja dengan baik untuk mengoptimalkan dan menjalankan model AI pada berbagai perangkat keras dan terus memperkenalkan fitur-fitur baru.
Rilis OpenVINO 2023.0 sekarang memungkinkan model TensorFlow dan TensorFlow Lite dimuat langsung ke OpenVINO Runtime dan OpenVINO Model Server. Memuat model TF/TF-Lite secara langsung akan menyebabkan model dikonversi secara otomatis tetapi pengembang tetap menyarankan untuk mengonversi ke OpenVINO IR terlebih dahulu. Ada juga dukungan eksperimental untuk memuat model PyTorch secara langsung tanpa harus terlebih dahulu mengonversi ke ONNX.
OpenVINO 2023.0 juga penting karena sekarang mendukung seri Python 3.11 terbaru, dukungan prosesor ARM dalam plug-in CPU OpenVINO termasuk dukungan resmi untuk Raspberry Pi 4 dan Apple M1/M2, dan dukungan model yang lebih luas dan berbagai pengoptimalan baru.
Plug-in CPU OpenVINO 2023.0 juga menambahkan dukungan penjadwalan thread untuk CPU hybrid Intel dari Alder Lake 12th Gen Core dan yang lebih baru. Dengan penjadwalan utas ini, Anda dapat memilih untuk menjalankan inferensi hanya pada inti E atau P, atau kombinasi keduanya dari inti hemat energi dan kinerja tinggi. OpenVINO 2023.0 juga memiliki presisi inferensi default baru di mana OpenVINO akan default ke format yang memungkinkan kinerja optimal, seperti BF16 pada Intel Xeon Scalable CPU terbaru atau FP16 saat berhadapan dengan GPU.
Unduhan dan detail lebih lanjut tentang rilis OpenVINO 2023.0 melalui GitHub.
Itulah berita seputar Intel Merilis OpenVINO 2023 - Memuat Model TF Secara Langsung, Penjadwalan Thread CPU Hibrid, semoga bermanfaat. Disadur dari Phoronix.com.