Llama 3, model bahasa besar terbaru dari Meta, membuka pintu bagi berbagai kemungkinan. Dari menjawab pertanyaan rumit hingga membantu pekerjaan rumah, kemampuannya hampir tak terbatas. Keuntungan terbesar? Anda bisa memanfaatkannya secara offline dengan menginstal Llama 3 secara lokal di komputer Windows 11 Anda. Artikel ini akan memandu Anda langkah demi langkah dalam proses instalasi yang mudah.
Metode 1: Jalankan Llama 3 di Windows 11 melalui Command Prompt:
Untuk memulai perjalanan ini, Anda perlu menggunakan Ollama, alat yang membantu Anda menjalankan model bahasa besar secara lokal. Ikuti langkah-langkah berikut:
Instal Ollama:
Pilih dan Jalankan Model Anda:
Mulai Interaksi:
Keuntungan dan Kekurangan:
Meskipun metode ini sederhana dan mudah diterapkan, ada satu kelemahan: riwayat percakapan Anda tidak akan tersimpan. Jika Anda menginginkan pengalaman yang lebih kaya dengan antarmuka pengguna yang lebih ramah dan fitur penyimpanan riwayat, maka metode selanjutnya adalah jawabannya.
- Kunjungi situs web resmi Docker dan unduh installer untuk Windows. Jalankan file installer dan ikuti instruksi di layar untuk menginstal Docker di komputer Anda.
Buat Akun Docker:
- Buka Command Prompt dan salin-tempel perintah berikut:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- Proses ini akan memakan waktu beberapa saat karena Docker perlu mengunduh sumber daya yang diperlukan. Bersabarlah hingga proses selesai.
Akses Antarmuka Web:
- Anda akan diminta untuk membuat akun dan masuk. Setelah masuk, Anda dapat mulai menggunakan Llama 3 melalui browser web Anda. Perhatikan bahwa alamat web akan menunjukkan , yang menandakan bahwa Llama 3 sedang dijalankan secara lokal di komputer Anda.
Pilih Model Anda:
- Semua riwayat percakapan Anda akan disimpan dan dapat diakses di sisi kiri antarmuka web. Untuk keluar, cukup logout dari sesi Anda di browser web.
Hentikan Docker:
Memulai Lagi:
Untuk menggunakan Llama 3 melalui browser web Anda di lain waktu, cukup jalankan Ollama dan Docker. Tunggu beberapa menit hingga keduanya siap, lalu klik port di kontainer Docker untuk membuka server localhost di browser Anda. Masuk ke akun Anda dan mulai gunakan Llama 3!
Berapa RAM yang dibutuhkan untuk Llama 3?
Model 1B dari Llama 3.2 membutuhkan setidaknya 16 GB RAM untuk dapat berjalan dengan lancar. Selain itu, pastikan komputer Anda dilengkapi dengan GPU yang kuat. Model Llama 3 yang lebih besar membutuhkan sumber daya sistem yang lebih banyak.
- Proses ini akan memakan waktu beberapa saat karena Docker perlu mengunduh sumber daya yang diperlukan. Bersabarlah hingga proses selesai.
Pastikan Ollama Terinstal: