Cara Menjalankan LLM di Laptop Tanpa Internet menggunakan Ollama

ArsanArsan
3 min read
Share:
Cover Image for Cara Menjalankan LLM di Laptop Tanpa Internet menggunakan Ollama

Cara Menjalankan LLM di Laptop Tanpa Internet menggunakan Ollama

Menjalankan LLM di Laptop Tanpa Internet menggunakan Ollama

Menjalankan LLM di laptop menggunakan Ollama adalah salah satu cara yang bisa digunakan untuk mengakses dan menggunakan LLM secara bebas di laptop. Dengan menggunakan Ollama, sobat nalar bisa menjalankan model LLM tanpa takut terkena limit dari penyedia model. Contohnya ketika menggunakan model Sonnet 4.6 melalui platform claude AI, ketika penggunaan model sudah mencapai batas maka teman teman diwajibkan untuk melalukan upgrade ke premium agar dapat mengakses model tersebut. Dengan Ollama, tidak ada batasan mengenai model model. Segala bentuk eksperimen dapat dilakukan tanpa takut terkena limit.

Apa itu LLM (Large Language Model)?

LLM atau singkatan dari Large Language Model adalah sebuah model yang telah dilatih menggunakan data yang sangat banyak. LLM memiliki banyak kegunaan seperti dapat memahami, memprediksi, merangkum serta menghasilkan teks. Mengikuti perkembangan zaman, LLM telah berevolusi dan digunakan untuk berbagai keperluan seperti membantu engineer untuk menulis kode program, penerjemahan bahasa, chatbot asisten virtual 24 jam dan masih banyak lagi.

Apa itu Ollama?

Ollama adalah sebuah platform yang ciptakan untuk menjalankan model LLM secara lokal atau cloud. Dengan Ollama, pengguna dapat mengakses dan menggunakan model LLM tanpa takut terkena limit atau batasan. Namun yang perlu di perhatikan ketika menggunakan LLM di lokal dengan Ollama adalah spesifikasi laptop yang memadai. Jika spesifikasi laptop yang digunakan kurang memadai, maka hal tersebut dapat memicu crash atau lag untuk laptop pengguna.

Mengapa menjalankan LLM menggunakan Ollama?

Ollama merupakan tools atau platform open source yang memungkinkan pengguna untuk mengakses dan menjalankan LLM secara lokal atau cloud. Beberapa keunggulan dari Ollama adalah open source, privasi data terjaga atau aman, mudah digunakan, dan gratis tanpa biaya API.

Persiapan Sebelum Menjalankan LLM menggunakan Ollama

Install Ollama

Untuk menjalankan LLM menggunakan Ollama maka sobat nalar perlu menginstall Ollama terlebih dahulu, Silahkan kunjungi website Download Ollama atau ikuti cara dibawah ini.

  1. Mac/Linux
curl -fsSL https://ollama.com/install.sh | sh
  1. Windows
irm https://ollama.com/install.ps1 | iex

Download Model LLM

Setelah menginstall Ollama, sobat nalar juga perlu mengunduh model LLM yang akan digunakan. Masuk ke terminal atau CMD kemudian ketikkan perintah dibawah ini.

ollama run llama3.1

Maka akan terjadi proses pulling model atau download model.

Tata Cara Menjalankan LLM menggunakan Ollama

Menjalankan LLM Melalui Command Prompt

Untuk menggunakan model yang telah di pull atau di download, silahkan gunakan perintah dibawah ini.

ollama run llama3.1

Coba gunakan model dengan menanyakan beberapa pertanyaan. Testing model OllamaTesting model di Command Prompt

Menjalankan LLM Melalui Ollama Studio

Terdapat salah satu opsi juga jika ingin menjalankan model melalui platform Ollama langsung. Perbedaan ketika menggunakan terminal dan platform Ollama langsung adalah bentuk antarmukanya. Platform Ollama menawarkan antarmuka yang lebih mudah dipahami namun untuk terminal memiliki lebih banyak fleksibilitas penggunaan. Testing model OllamaTesting model di Ollama

Tips dan Trik penggunaan Ollama

  1. Ketikkan perintah ollama di Command Prompt untuk melihat menu menu yang disediakan
  2. Ketikkan perintah ollama launch openclaw untuk menjalankan OpenClaw.
  3. Ketikkan perintah ollama launch claude untuk menjalankan Claude.