Skip to content

emka.web.id

menulis pengetahuan – merekam peradaban

Menu
  • Home
  • Tutorial
  • Search
Menu

Membuat Aplikasi AI dengan Mudah Menggunakan AI Lab Recipes: Panduan Lengkap

Posted on May 28, 2024

Bayangkan ada sebuah repositori GitHub yang membuat proses membangun, menjalankan, dan mengembangkan aplikasi bertenaga AI dari laptop Anda semudah membuat roti panggang. Tanpa perlu platform AI berbasis cloud, tanpa memerlukan akselerator perangkat keras khusus, dan dengan model open source terbaru. Jika Anda tertarik dengan ide ini, mari kita jelajahi AI Lab Recipes.

Apa Itu AI Lab Recipes?

Repositori ai-lab-recipes adalah hasil kolaborasi antara ilmuwan data dan pengembang aplikasi yang menggabungkan praktik terbaik dari kedua dunia ini. Hasilnya adalah serangkaian aplikasi dan alat bertenaga AI yang dikemas dalam container, menyenangkan untuk dibangun, mudah dijalankan, dan nyaman untuk dimodifikasi sesuai keinginan Anda.

AI Lab Recipes dimulai sebagai rumah bagi aplikasi contoh, atau resep, dari ekstensi Podman Desktop AI Lab. Ada sebuah artikel yang menggambarkan ekstensi AI Lab dengan sangat baik. Dalam artikel ini, kita akan mengeksplorasi AI Lab Recipes lebih lanjut. Kita akan menggunakan aplikasi pembuatan kode sebagai contoh sepanjang artikel ini. Untuk mengikuti langkah-langkahnya, klon repositori ai-lab-recipes secara lokal. Jika Anda belum menginstal Podman, kunjungi podman.io.

Resep-Resep AI Lab

Ada beberapa resep yang membantu pengembang dengan cepat membuat prototipe aplikasi baru berbasis AI dan model bahasa besar (LLM). Setiap resep mencakup bahan utama yang sama: model, server model, dan antarmuka AI. Semua ini dikombinasikan dengan berbagai cara, dikemas sebagai gambar container, dan dapat dijalankan sebagai pod dengan Podman. Resep-resep ini dikelompokkan ke dalam kategori yang berbeda berdasarkan fungsi AI. Kelompok resep saat ini meliputi audio, visi komputer, multimodal, dan pemrosesan bahasa alami.

Mari kita lihat lebih dekat aplikasi pembuatan kode dalam kategori pemrosesan bahasa alami. Perhatikan bahwa setiap aplikasi contoh mengikuti pola yang sama. Pohon di bawah ini menunjukkan struktur file yang memberikan nama dan rasa pada setiap resep.

plaintextCopy code$ tree recipes/natural_language_processing/codegen/
recipes/natural_language_processing/codegen/
├── Makefile
├── README.md
├── ai-lab.yaml
├── app
│   ├── Containerfile
│   ├── codegen-app.py
│   └── requirements.txt
├── bootc
│   ├── Containerfile
│   ├── Containerfile.nocache
│   └── README.md
├── build -> bootc/build
└── quadlet
    ├── README.md
    ├── codegen.image -> ../../../common/quadlet/app.image
    ├── codegen.kube
    └── codegen.yaml

Makefile menyediakan target untuk mengotomatisasi pembangunan dan menjalankan aplikasi. Lihat dokumen Makefile untuk penjelasan lengkap. Misalnya, make build menggunakan podman build untuk membangun gambar antarmuka AI dari Containerfile codegen. Tag gambar kustom dapat diberikan dengan:

bashCopy code$ cd recipes/natural_language_processing/codegen
$ make APP_IMAGE=quay.io/your-repo/codegen:tag build

Setiap resep mencakup file definisi, ai-lab.yaml, yang digunakan oleh ekstensi Podman Desktop AI Lab untuk membangun dan menjalankan aplikasi. Folder app berisi kode dan file yang diperlukan untuk membangun antarmuka AI. Folder bootc/ berisi file-file yang diperlukan untuk menyematkan aplikasi codegen sebagai layanan dalam gambar container yang dapat di-boot. Subjek gambar container yang dapat di-boot dan folder bootc pantas mendapatkan artikel tersendiri. Pelajari lebih lanjut dari Dan Walsh: Image Mode for Red Hat Enterprise Linux Quick Start: AI Inference.

Terakhir, folder quadlet/ dalam setiap resep menyediakan template untuk menghasilkan layanan systemd untuk mengelola pod Podman yang menjalankan aplikasi AI. Layanan ini berguna ketika dipasangkan dengan gambar container yang dapat di-boot. Namun, seperti yang akan Anda lihat di bawah ini, YAML pod yang dihasilkan dapat digunakan untuk menjalankan aplikasi sebagai pod secara lokal. Sekarang setelah format dasar resep dijelaskan, saatnya mengumpulkan bahan utama: model, server model, dan antarmuka AI.

Model AI

Bahan pertama yang dibutuhkan untuk setiap aplikasi bertenaga AI adalah model AI. Model yang direkomendasikan dalam ai-lab-recipes di-host di HuggingFace dan dikemas dengan Lisensi Apache 2.0 atau MIT. Folder models/ menyediakan otomatisasi untuk mengunduh model serta Containerfile untuk membangun gambar yang berisi kebutuhan minimum untuk menyajikan model.

Untuk contoh pembuatan kode, kami merekomendasikan mistral-7b-code-16k-qlora. Semua model yang direkomendasikan dalam ai-lab-recipes adalah file GGUF yang telah dikuantisasi, dengan kuantisasi Q4_K_M, dan berukuran antara 3-5 GB (mistral-7b-code berukuran 4.37GB) dan membutuhkan RAM 6-8 GB. Semua ini menunjukkan bahwa para ilmuwan data telah memilih model yang sesuai untuk setiap kasus penggunaan, dan model tersebut juga harus berjalan dengan baik di laptop Anda. Namun, ai-lab-recipes disiapkan sedemikian rupa sehingga mengganti model sangat mudah, dan mendorong pengembang untuk bereksperimen dengan model yang berbeda untuk menemukan mana yang paling cocok untuk mereka.

Server Model

Model tidak terlalu berguna dalam sebuah aplikasi kecuali jika disajikan. Server model adalah program yang menyajikan model pembelajaran mesin, seperti LLM, dan membuat fungsinya tersedia melalui API. Ini memudahkan pengembang untuk memasukkan AI ke dalam aplikasi mereka. Folder model_servers dalam ai-lab-recipes menyediakan deskripsi dan kode untuk membangun beberapa server model ini.

Banyak dari ai-lab-recipes menggunakan server model llamacpp_python. Server ini dapat digunakan untuk berbagai aplikasi AI generatif dan dengan banyak model yang berbeda. Namun, pengguna harus tahu bahwa setiap aplikasi contoh dapat dipasangkan dengan berbagai server model. Selain itu, server model dapat dibangun sesuai dengan akselerator perangkat keras dan toolkit GPU yang berbeda, seperti Cuda, ROCm, Vulkan, dll. Gambar server model llamacpp_python didasarkan pada proyek llama-cpp-python yang menyediakan binding Python untuk llama.cpp. Ini menyediakan server model berbasis Python dan kompatibel dengan API OpenAI yang dapat menjalankan LLM dari berbagai ukuran secara lokal di Linux, Windows, atau Mac.

Server model llamacpp_python memerlukan model untuk dikonversi dari format aslinya, biasanya berupa set file *.bin atau *.safetensor menjadi satu file berformat GGUF. Banyak model sudah tersedia dalam format GGUF di HuggingFace. Namun, jika Anda tidak dapat menemukan versi GGUF yang ada dari model yang ingin Anda gunakan, Anda dapat menggunakan utilitas konverter model yang tersedia dalam repositori ini untuk mengonversi model sendiri.

Antarmuka AI

Bahan terakhir—hiasan pada kue, begitu kata mereka—adalah antarmuka AI, UI yang menarik bersama dengan kode klien yang diperlukan untuk berinteraksi dengan model melalui endpoint API yang disediakan oleh server model. Anda akan menemukan Containerfile dan kode yang diperlukan dalam setiap resep di bawah folder app/, seperti di sini untuk contoh pembuatan kode. Sebagian besar resep menggunakan Streamlit untuk UI mereka. Streamlit adalah kerangka kerja open source yang sangat mudah digunakan dan sangat menyenangkan untuk berinteraksi. Kami yakin Anda akan setuju. Namun, seperti halnya semua yang lain, mudah untuk mengganti container berbasis Streamlit dalam resep apa pun dengan alat front-end pilihan Anda. Kami menggunakan kue kotak di sini, tetapi tidak ada yang menghentikan Anda dari membuat sesuatu dari awal!

Quadlets

Sekarang setelah kita memiliki bahan-bahan kita, mari kita masak aplikasi AI pertama kita. Selain ekstensi Podman Desktop AI Lab, cara tercepat untuk memulai aplikasi dari ai-lab-recipes adalah dengan menghasilkan definisi pod YAML. Untuk ini, pergilah ke folder quadlet mana saja dalam ai-lab-recipes. Apa itu quadlet? Dari postingan ini kita tahu “Quadlet adalah alat untuk menjalankan container Podman di bawah systemd dengan cara yang optimal dengan memungkinkan container berjalan secara deklaratif.” Dalam contoh ini, kita tidak akan benar-benar menjalankan aplikasi kita di bawah systemd, tetapi kita akan menggunakan target quadlet yang disertakan setiap aplikasi contoh untuk menghasilkan definisi pod. Kemudian kita akan menggunakan podman kube play untuk meluncurkan pod. Jika Anda belum pernah mencoba podman kube play sebelumnya, Anda akan merasakan kenyamanan menjalankan beberapa container bersama-sama sebagai pod.

Apakah Anda siap? Yang diperlukan untuk meluncurkan asisten pembuatan kode bertenaga AI lokal adalah sebagai berikut:

bashCopy code$ cd recipes/natural_language_processing/codegen
$ make quadlet
$ podman kube play build/codegen.yaml

Proses ini akan memakan waktu beberapa menit untuk mengunduh gambar. Sambil menunggu, mari kita jelaskan apa yang baru saja terjadi. Perintah make quadlet menghasilkan file-file berikut:

bashCopy code$ ls -al build
lrwxr-xr-x  1 somalley  staff    11B Apr 22 17:21 build -> bootc/build
$ ls -al bootc/build/
total 24
drwxr-xr-x  5 somalley  staff   160B Apr 22 17:21 .
drwxr-xr-x  6 somalley  staff   192B Apr 22 17:21 ..
-rw-r--r--  1 somalley  staff   209B Apr 22 17:21 codegen.image
-rw-r--r--  1 somalley  staff   330B Apr 22 17:21 codegen.kube
-rw-r--r--  1 somalley  staff   970B Apr 22 17:21 codegen.yaml

Dengan fitur quadlet Podman, file apa pun yang ditempatkan di /usr/share/containers/systemd/system akan membuat layanan systemd. Dengan file-file di atas, layanan bernama codegen akan dibuat. Ini di luar cakupan artikel ini, tetapi untuk lebih banyak info tentang itu, lihat Image mode for Red Hat Enterprise Linux quick start: AI inference.

Untuk saat ini, codegen.yaml adalah satu-satunya file yang diperlukan. Ini adalah definisi pod yang menentukan container model, container server model, dan container antarmuka AI. File model dibagikan dengan server model menggunakan volume mount. Mari kita lihat!

plaintextCopy code$ cat bootc/build/codegen.yaml 
apiVersion: v1
kind: Pod
metadata:
  labels:
    app: codegen
  name: codegen
spec:
  initContainers:
  - name: model-file
    image: quay.io/ai-lab/mistral-7b-code-16k-qlora:latest
    command: ['/usr/bin/install', "/model/model.file", "/shared/"]
    volumeMounts:
    - name: model-file
      mountPath: /shared
  containers:
  - env:
    - name: MODEL_ENDPOINT
      value: http://0.0.0.0:8001
    image: quay.io/ai-lab/codegen:latest
    name: codegen-inference
    ports:
    - containerPort: 8501
      hostPort: 8501
    securityContext:
      runAsNonRoot: true
  - env:
    - name: HOST
      value: 0.0.0.0
    - name: PORT
      value: 8001
    - name: MODEL_PATH
      value: /model/model.file
    image: quay.io/ai-lab/llamacpp_python:latest
    name: codegen-model-service
    ports:
    - containerPort: 8001
      hostPort: 8001
    securityContext:
      runAsNonRoot: true
    volumeMounts:
    - name: model-file
      mountPath: /model
  volumes:
  - name: model-file
    emptyDir: {}

Referensi ke gambar di quay.io/ai-lab dalam definisi pod di atas adalah publik, jadi Anda dapat menjalankan aplikasi ini seperti adanya. Gambar untuk semua model, server model, dan antarmuka AI dibangun untuk arsitektur x86_64 (amd64) dan arm64.

Untuk mengelola pod codegen, gunakan perintah berikut:

bashCopy codepodman pod list
podman pod start codegen
podman pod stop codegen
podman pod rm codegen

Untuk memeriksa container yang membentuk pod codegen:

bashCopy codepodman ps
podman logs <container-id>

Untuk berinteraksi dengan aplikasi codegen (akhirnya!), kunjungi http://localhost:8501. Anda harus melihat sesuatu seperti Gambar 1, di mana Anda dapat meminta asisten kode baru Anda untuk membantu sepanjang hari, mungkin bahkan untuk membuat aplikasi baru bertenaga AI. Jika Anda melakukannya, pastikan untuk menyumbangkannya kembali ke ai-lab-recipes. Kecuali, tentu saja, Anda lebih suka menjaga ramuan Anda sebagai saus rahasia.

Terbaru

  • Belum Tahu Cara Masuk Simpatika Terbaru? Ini Cara Login PTK EMIS GTK IMP 2026 Supaya Cek TPG Jadi Lebih Gampang!
  • Inilah Cara Bikin Konten Animasi AI Cuma Modal HP Supaya Bisa Gajian Rutin dari YouTube
  • Inilah Alasan Kenapa Zakat ke Ormas yang Belum Diakui Negara Nggak Bisa Dipakai Buat Ngurangin Pajak!
  • Inilah Cara Belanja di Indomaret Pakai Shopee PayLater yang Praktis dan Bikin Hemat!
  • Inilah 10 Jurusan Terfavorit di Universitas Negeri Semarang Buat SNBT 2026, Saingannya Ketat Banget!
  • Belum Tahu? Inilah Cara Mudah Membuat Akun dan Login EMIS GTK IMP 2026 yang Benar!
  • Cara Dapat Kode Kartu Hadiah Netflix Gratis Tanpa Ribet
  • Inilah Caranya Dapet Bukti Setor Zakat Resmi dari NU-Care LazisNU Buat Potong Pajak di Coretax!
  • Inilah 10 Jurusan Terfavorit di Universitas Brawijaya Buat SNBT 2026, Saingannya Ketat Banget!
  • Inilah Cara Terbaru Login dan Ubah Password Akun PTK di EMIS GTK IMP 2026
  • Inilah Batas Maksimal Zakat untuk Pengurang Pajak, Ternyata Begini Aturannya!
  • Inilah Cara Mengenali Aplikasi Bodong Penghasil Uang Agar Kalian Nggak Jadi Korban Penipuan Digital
  • Apa itu Error Kode LADK3 saat Buka Rekening Brimo? Dan Solusinya!
  • BOHONG??? Inilah Rincian Anggaran Makan Bergizi Gratis, Ternyata Uang Bahan Makanannya Nggak Sampai Rp15.000!
  • Inilah Tugas Proktor Ujian TKA SD/SMP 2026, Baca Dulu Ada Yang Beda!
  • Tips Pajak Coretax: Inilah Cara Memastikan Lembaga Amil Zakat yang Sah Agar Pajak Kalian Berkurang!
  • Kenapa FreeFire Advance Server Tidak Bisa Diunduh? Ini Penjelasannya!
  • Inilah Realita Biaya Hidup Mahasiswa di Bogor: Ternyata Nggak Semahal yang Kalian Kira!
  • Inilah Cara Blokir Email Spam di Gmail Biar Penyimpanan Nggak Gampang Penuh
  • Inilah Cara Aktivasi Keaktifan PTK di EMIS GTK IMP 2026 Biar Tunjangan Cair Lancar!
  • Inilah Cara Menilai Sumbangan yang Disetarakan dengan Uang Supaya Pajak Kalian Berkurang
  • Apa itu Pin di iMessage?
  • SKTP Nggak Muncul di Info GTK padahal Sudah Terbit? Ini Trik Rahasia Biar Data Langsung Update!
  • Ini Trik Nuyul Cari Cuan di Game Puzzle Farm 2026 Biar Koin Melimpah Tanpa Undang Teman
  • Inilah Ukuran Kertas Thermal 58mm ISO Di Word, Berapa dan Panduan Lengkap Memilihnya
  • Bukan Cuma Zakat! Ternyata Sumbangan Jenis Ini Bisa Ngurangin Pajak Kalian! Simak Penjelasannya
  • Inilah Caranya Mengajar Bahasa Indonesia di Amerika Serikat Lewat Beasiswa Fulbright FLTA 2026
  • Inilah 6 Rekomendasi HP yang Awet dan Tahan Lama Biar Kalian Nggak Gonta-ganti Terus!
  • Apa itu Proses BOP dan Psikotes BRI Life?
  • Ini Cara Input Tugas Tambahan Guru di EMIS GTK IMP 2026 Biar Jam Mengajar Aman!
  •  How to Fix Windows 11 ISO Download Blocked and Error Messages
  • How to Make Your Website Vibrate with Web Haptics
  • Measuring LLM Bullshit Benchmark
  • A Step-by-Step Guide to ZITADEL Identity Infrastructure
  • How NVIDIA G-SYNC Pulsar is Finally Fixing Motion Blur Forever
  • The Secret Reason Seedance 2.0 is Realistic
  • Exploring Microsoft Phi-4 Reasoning Vision 15B
  • Gemini 3.1 Flash-Lite Released: How to Master Google’s Fastest AI Model for Real-World Projects
  • Qwen Is Ruined! Why the Masterminds Behind Qwen 3.5 Left Alibaba Cloud
  • GPT-5.3 Instant Revealed: How the New OpenAI Update Changes Everything for AI Users
  • Apa itu Spear-Phishing via npm? Ini Pengertian dan Cara Kerjanya yang Makin Licin
  • Apa Itu Predator Spyware? Ini Pengertian dan Kontroversi Penghapusan Sanksinya
  • Mengenal Apa itu TONESHELL: Backdoor Berbahaya dari Kelompok Mustang Panda
  • Siapa itu Kelompok Hacker Silver Fox?
  • Apa itu CVE-2025-52691 SmarterMail? Celah Keamanan Paling Berbahaya Tahun 2025
Beli Morning Star Kursi Gaming/Kantor disini: https://s.shopee.co.id/805iTUOPRV
Beli Pemotong Rumput dengan Baterai IRONHOOF 588V Mesin Potong Rumput 88V disini https://s.shopee.co.id/70DBGTHtuJ

©2026 emka.web.id | Design: Newspaperly WordPress Theme