Skip to content

emka.web.id

Menu
  • Home
  • Indeks Artikel
  • Tutorial
  • Tentang Kami
Menu

Cara Install OLLama secara Lokal

Ingin berinteraksi dengan kecerdasan buatan canggih seperti ChatGPT tapi tanpa perlu internet? Ollama jawabannya! Ollama adalah proyek komunitas yang memungkinkan Anda mengunduh, menjalankan, dan mengakses Large Language Model (LLM) open-source seperti Meta Llama 3, Mistral, Gemma, Phi, dan lainnya, langsung dari terminal Linux Anda!

Apa itu Ollama?

Ollama bekerja dengan mengemas bobot model, konfigurasi, dan kumpulan data ke dalam satu paket yang mudah dikelola. Ini berarti Anda hanya perlu menjalankan beberapa perintah untuk mengunduh dan menjalankan LLM favorit Anda, dan mengakses antarmuka obrolan langsung di terminal.

Lebih dari Sekadar Pengguna Biasa?

Meskipun Ollama memungkinkan pembuatan model sendiri atau kustomisasi model yang ada, namun hal ini membutuhkan keahlian khusus. Artikel ini akan berfokus pada pengguna awam yang ingin memanfaatkan LLM yang sudah tersedia.

Memulai Petualangan LLM Lokal

Persiapan:

  • Distribusi Linux (Ubuntu, Debian, Fedora, dll.) termasuk Raspberry Pi
  • RAM minimal 16 GB (lebih disarankan)
  • GPU dengan minimal 4 GB Nvidia 1060 atau sejenisnya (jika tidak ada, CPU octa-core Intel i5 atau AMD Ryzen 3 masih bisa digunakan)
  • Koneksi internet (hanya untuk instalasi)

Langkah 1: Memasang Ollama

Kunjungi situs web resmi Ollama dan gunakan perintah curl berikut untuk instalasi mudah:

curl -fsSL https://ollama.com/install.sh | sh

Perintah ini akan mengunduh dan menginstal Ollama. Jika Anda tidak memiliki GPU, abaikan peringatan yang muncul.

Langkah 2: Memeriksa Status Ollama

Buka browser Anda dan kunjungi http://127.0.0.1:11434. Jika Ollama berjalan dengan baik, Anda akan melihat pesan "Ollama is running".

Langkah 3: Memasang LLM Favorit

Kunjungi Ollama Library untuk melihat daftar LLM yang tersedia. Setelah menemukan yang Anda inginkan, gunakan perintah berikut untuk mengunduhnya:

ollama pull <LLM_NAME>

Misalnya, untuk mengunduh Meta Llama 3 7B (7 miliar parameter), gunakan:

ollama pull llama3

Tips: Lihat tabel di akhir artikel untuk perintah instalasi langsung beberapa LLM populer.

Langkah 4: Berinteraksi dengan LLM

Setelah LLM terinstal, gunakan perintah berikut untuk mengaksesnya:

ollama run <LLM_NAME>

Contoh:

ollama run llama3

Ketik pertanyaan Anda dan tekan Enter. LLM akan memproses pertanyaan Anda secara lokal menggunakan CPU atau GPU Anda.

Keluar dari LLM:

  • Gunakan Ctrl+D
  • Ketik /bye
  • Ketik /help untuk melihat perintah bantuan

Ingin Akses LLM dari Mana Saja?

Open WebUI adalah solusi tepat! Ini adalah antarmuka berbasis web open-source yang memungkinkan Anda mengakses LLM lokal dari browser web, baik secara lokal maupun jarak jauh.

Memasang Open WebUI:

Persiapan:

  • Docker terinstal di sistem Anda

Langkah 1: Tarik Image Open WebUI

Jalankan perintah berikut untuk menarik image Open WebUI dari Docker Hub dan memulai container:

sudo docker run -d --network=host -e OLLAMA_BASE_URL=http://127.0.0.1:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Langkah 2: Akses Open WebUI

Buka http://127.0.0.1:8080 di browser Anda. Daftar untuk akun baru, lalu login.

Langkah 3: Berinteraksi dengan LLM

Pilih LLM yang ingin Anda gunakan dari daftar di sudut kiri atas. Anda dapat berinteraksi dengan LLM tersebut layaknya chat, bahkan Open WebUI menawarkan fitur yang lebih kaya dibanding antarmuka ChatGPT.

Menghapus Ollama dan Open WebUI (Opsional)

Jika Anda tidak lagi membutuhkan Ollama dan Open WebUI, gunakan perintah berikut untuk menghapusnya:

Menghapus Open WebUI:

docker stop open-webui
docker remove open-webui
# Temukan Image ID Open WebUI dan gunakan perintah:
docker rmi <IMAGE

Use code with caution.

Menghapus Ollama:

Langkah 1: Daftar LLM Terinstal

Lihat daftar LLM terinstal dengan perintah:

ollama list

Langkah 2: Menghapus LLM

Gunakan perintah berikut untuk menghapus LLM satu per satu, ganti <LLM_NAME> dengan nama LLM:

ollama rm <LLM_NAME>

Tips: Anda dapat menghapus semua LLM sekaligus dengan menghapus direktori /usr/share/ollama/.ollama/models.

Langkah 3: Menghapus Layanan Ollama

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service

Langkah 4: Menghapus File Biner Ollama

sudo rm $(which ollama)
sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama

Akhir Kata

Selamat! Anda telah mempelajari cara mengatur dan menggunakan Ollama dan Open WebUI untuk mengakses LLM lokal di Linux.

Beberapa Catatan:

  • Ollama dan Open WebUI masih dalam pengembangan aktif, jadi fitur dan fungsionalitasnya dapat berubah di masa depan.
  • Pastikan Anda memiliki perangkat keras yang cukup kuat untuk menjalankan LLM yang lebih besar.
  • Gunakan LLM dengan bertanggung jawab dan hindari menghasilkan konten yang berbahaya atau menyinggung.

Pertanyaan untuk Anda:

  • Apakah Anda tertarik untuk mencoba Ollama dan Open WebUI?
  • LLM mana yang paling ingin Anda coba?
  • Bagaimana menurut Anda tentang LLM lokal dibandingkan dengan layanan online seperti ChatGPT?

Bagikan pendapat Anda di kolom komentar!

Daftar LLM Populer dan Perintah Instalasi Langsung:

ModelParameterUkuranPerintah Instalasi
Llama 38B4.7GBollama pull llama3
Llama 370B40GBollama pull llama3:70b
Phi-33.8B2.3GBollama pull phi3
Mistral7B4.1GBollama pull mistral
Neural Chat7B4.1GBollama pull neural-chat
Starling7B4.1GBollama pull starling-lm
Code Llama7B3.8GBollama pull codellama
Llama 2 Uncensored7B3.8GBollama pull llama2-uncensored
LLaVA7B4.5GBollama pull llava
Gemma: 2B1.4GBollama pull gemma:2b
Gemma: 7B4.8GBollama pull gemma:7b
Solar10.7B6.1GBollama pull solar

drive_spreadsheetExport to Sheets

Sumber Daya Tambahan:

  • Situs web resmi Ollama: https://github.com/ollama/ollama
  • Repositori GitHub Ollama: https://github.com/meta-llama/llama
  • Situs web resmi Open WebUI: https://github.com/open-webui
  • Repositori GitHub Open WebUI: https://github.com/open-webui

Semoga bermanfaat!tunesharemore_vert

Artikel Diperbarui pada: May 26, 2024
Kontributor: Syauqi Wiryahasana
Model: Haifa Manik Intani
Seedbacklink

Recent Posts

TENTANG EMKA.WEB>ID

EMKA.WEB.ID adalah blog seputar teknologi informasi, edukasi dan ke-NU-an yang hadir sejak tahun 2011. Kontak: kontak@emka.web.id.

©2024 emka.web.id Proudly powered by wpStatically