Tutorial Cara Menginstall LLama 3 di Windows 11

Llama 3, model bahasa besar terbaru dari Meta, membuka pintu bagi berbagai kemungkinan. Dari menjawab pertanyaan rumit hingga membantu pekerjaan rumah, kemampuannya hampir tak terbatas. Keuntungan terbesar? Anda bisa memanfaatkannya secara offline dengan menginstal Llama 3 secara lokal di komputer Windows 11 Anda. Artikel ini akan memandu Anda langkah demi langkah dalam proses instalasi yang mudah.

Metode 1: Jalankan Llama 3 di Windows 11 melalui Command Prompt:

Untuk memulai perjalanan ini, Anda perlu menggunakan Ollama, alat yang membantu Anda menjalankan model bahasa besar secara lokal. Ikuti langkah-langkah berikut:

  • Kunjungi situs web resmi Ollama dan klik tombol “Download.” Pilih opsi “Windows” dan unduh file exe untuk instalasi.

    Instal Ollama:

  • Setelah Ollama terinstal, buka situs web Ollama dan klik opsi “Models.” Di sini Anda akan melihat berbagai model Llama 3 yang tersedia. Llama 3.1 hadir dalam tiga variasi: 8B, 70B, dan 405B. Untuk Llama 3.2, tersedia dua versi: 1B dan 3B.

    Pilih dan Jalankan Model Anda:

  • Buka Command Prompt di komputer Anda, tempel perintah yang disalin, dan tekan Enter. Tunggu beberapa saat hingga proses pengunduhan selesai. Kecepatan internet Anda akan memengaruhi durasi unduhan. Setelah selesai, Anda akan melihat pesan sukses di Command Prompt.

    Mulai Interaksi:

  • Keuntungan dan Kekurangan:

    Meskipun metode ini sederhana dan mudah diterapkan, ada satu kelemahan: riwayat percakapan Anda tidak akan tersimpan. Jika Anda menginginkan pengalaman yang lebih kaya dengan antarmuka pengguna yang lebih ramah dan fitur penyimpanan riwayat, maka metode selanjutnya adalah jawabannya.

      Pastikan Ollama Terinstal:

    1. Kunjungi situs web resmi Docker dan unduh installer untuk Windows. Jalankan file installer dan ikuti instruksi di layar untuk menginstal Docker di komputer Anda.

      Buat Akun Docker:

    2. Buka Command Prompt dan salin-tempel perintah berikut:

            docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
          

    3. Proses ini akan memakan waktu beberapa saat karena Docker perlu mengunduh sumber daya yang diperlukan. Bersabarlah hingga proses selesai.

      Akses Antarmuka Web:

    4. Anda akan diminta untuk membuat akun dan masuk. Setelah masuk, Anda dapat mulai menggunakan Llama 3 melalui browser web Anda. Perhatikan bahwa alamat web akan menunjukkan , yang menandakan bahwa Llama 3 sedang dijalankan secara lokal di komputer Anda.

      Pilih Model Anda:

    5. Semua riwayat percakapan Anda akan disimpan dan dapat diakses di sisi kiri antarmuka web. Untuk keluar, cukup logout dari sesi Anda di browser web.

      Hentikan Docker:

    Memulai Lagi:

    Untuk menggunakan Llama 3 melalui browser web Anda di lain waktu, cukup jalankan Ollama dan Docker. Tunggu beberapa menit hingga keduanya siap, lalu klik port di kontainer Docker untuk membuka server localhost di browser Anda. Masuk ke akun Anda dan mulai gunakan Llama 3!

    Berapa RAM yang dibutuhkan untuk Llama 3?

    Model 1B dari Llama 3.2 membutuhkan setidaknya 16 GB RAM untuk dapat berjalan dengan lancar. Selain itu, pastikan komputer Anda dilengkapi dengan GPU yang kuat. Model Llama 3 yang lebih besar membutuhkan sumber daya sistem yang lebih banyak.

    Scroll to Top