
Compile dan Run Aplikasi OpenVINO
Berikut adalah panduan langkah demi langkah untuk mencoba contoh kode OpenVINO dengan perangkat keras Intel: Langkah 1: Instalasi OpenVINO Toolkit Pastikan Anda telah menginstal OpenVINO Toolkit pada sistem Anda. Anda dapat mengunduhnya dari situs resmi Intel dan mengikuti panduan instalasi yang disediakan. Langkah 2: Persiapkan Model dan Data Pastikan Anda memiliki model TensorFlow atau Caffe yang sesuai dengan kode yang telah diberikan. Pastikan juga Anda memiliki data masukan yang sesuai untuk diuji. Langkah 3: Konversi Model ke Intermediate Representation (IR) Sebelum menjalankan kode, Anda perlu mengonversi model TensorFlow atau Caffe ke format Intermediate Representation (IR) yang dapat digunakan oleh OpenVINO. Gunakan alat Model Optimizer yang disertakan dengan OpenVINO untuk melakukan konversi ini. Contoh konversi model TensorFlow ke IR: [sourcecode language="bash"] mo_tf.py --input_model path/to/your/tf_model/frozen_inference_graph.pb --output_dir path/to/output/dir --data_type FP16 [/sourcecode] Contoh konversi model Caffe ke IR: [sourcecode language="bash"] mo_caffe.py --input_model path/to/your/caffe_model/deploy.prototxt --input_proto path/to/your/caffe_model/weights.caffemodel --output_dir path/to/output/dir --data_type FP16 [/sourcecode] Langkah 4: Jalankan Contoh Kode Pertama, pastikan Anda telah mengganti jalur model yang benar di dalam contoh kode (misalnya, `tf_model_path` atau `caffe_model_path`). Jalankan kode menggunakan Python. Pastikan Anda menggunakan Python yang diinstal bersama dengan OpenVINO, yang biasanya terletak di direktori `openvino/bin/python`. [sourcecode language="bash"] <path-to-openvino>/bin/python your_script.py [/sourcecode] Gantilah `your_script.py` dengan nama berkas yang berisi contoh kode. Langkah 5: Perhatikan Hasil Inferensi Anda seharusnya melihat hasil inferensi dari model pada konsol atau output yang ditetapkan dalam kode Anda. Pastikan untuk memeriksa apakah hasil inferensi sesuai dengan harapan Anda. Langkah 6: Gunakan Perangkat Keras Intel Jika Anda ingin menjalankan inferensi pada perangkat keras Intel seperti CPU, pastikan untuk menyesuaikan parameter `device_name` dalam panggilan `ie.load_network` di kode Anda. Untuk CPU, parameter `device_name` biasanya diatur sebagai `'CPU'`. Catatan: - Pastikan Anda telah mengaktifkan OpenVINO virtual environment sebelum menjalankan kode. - Pastikan bahwa perangkat keras Intel Anda didukung oleh OpenVINO dan telah diinstal dengan driver yang benar. - Perhatikan bahwa kinerja inferensi pada perangkat keras Intel dapat bervariasi tergantung pada model dan konfigurasi perangkat keras Anda. Gunakan alat benchmarking OpenVINO untuk mengevaluasi kinerja inferensi Anda.Artikel Diperbarui pada: November 21, 2023Kontributor: Syauqi Wiryahasana
Model: Haifa Manik Intani