Kecerdasan buatan terus mengubah dunia kita, dan pilihan untuk bekerja dengan model bahasa tingkat lanjut semakin berkembang pesat. Namun, tidak semua orang perlu terhubung ke layanan cloud atau bergantung pada pihak ketiga untuk mengeksplorasi teknologi ini. Alternatif yang menarik dan mudah diakses adalah DeepSeek-R1, model AI yang memungkinkan pengguna menjalankannya secara lokal di komputer sederhana. Pada artikel ini, saya akan menjelaskan cara menginstal DeepSeek dan memanfaatkan kemampuannya sepenuhnya.
DeepSeek-R1 adalah model AI sumber terbuka yang menonjol karena efisiensi dan kapasitas penalarannya yang maju. Dengan menjalankannya secara lokal, Anda tidak hanya menghemat biaya berulang, namun Anda juga melindungi privasi Anda dan mendapatkan fleksibilitas untuk mengintegrasikannya ke dalam proyek khusus. Meskipun beberapa model memerlukan perangkat keras yang kuat, DeepSeek-R1 menawarkan versi yang disesuaikan untuk sumber daya yang berbeda, dari komputer dasar hingga stasiun kerja tingkat lanjut.
Apa itu DeepSeek dan mengapa menggunakannya secara lokal?
DeepSeek-R1 adalah model bahasa tingkat lanjut yang dirancang untuk tugas-tugas kompleks seperti penalaran logis, memecahkan masalah matematika dan menghasilkan kode. Keuntungan utamanya adalah bersifat open source, artinya Anda dapat menginstal dan menjalankannya di komputer Anda sendiri tanpa bergantung pada server eksternal.
Beberapa fitur utamanya meliputi:
- Fleksibilitas: Anda dapat menyesuaikan model sesuai kebutuhan Anda, dari versi ringan hingga konfigurasi lanjutan.
- Privasi: Semua pemrosesan dilakukan secara lokal, menghindari kekhawatiran tentang paparan data sensitif. Ini mungkin poin yang paling penting, karena banyak yang khawatir mengenai apa yang dapat dilakukan perusahaan terhadap data kami.
- Penghematan: Anda tidak perlu mengeluarkan uang untuk berlangganan atau layanan cloud, menjadikannya pilihan yang terjangkau bagi pengembang dan bisnis.
Persyaratan untuk instalasi
Sebelum memulai instalasi, pastikan Anda mematuhi hal berikut persyaratan:
- Komputer dengan sistem operasi Linux, macOS, atau Windows (dengan dukungan untuk WSL2 dalam kasus terakhir).
- Minimal 8 GB RAM, meskipun setidaknya disarankan 16 GB untuk kinerja optimal.
- Akses internet untuk mengunduh model pada awalnya.
- Pengetahuan dasar tentang terminal atau baris perintah.
Selain itu, Anda perlu menginstal alat yang disebut Ollama, yang mengelola dan menjalankan model DeepSeek secara lokal.
Instalasi Ollama
Ollama adalah solusi sederhana yang memungkinkan Anda mengunduh dan menjalankan model bahasa seperti DeepSeek-R1. Untuk menginstalnya, ikuti langkah-langkah berikut:
- Di Linux atau macOS, buka terminal dan jalankan perintah berikut untuk menginstal Ollama — paketnya keriting Tentu saja hal ini perlu –:
curl -fsSL https://ollama.com/install.sh | SH
- Pada sistem Windows, pastikan Anda telah mengaktifkan WSL2 sebelumnya dan kemudian ikuti langkah yang sama di terminal Ubuntu yang Anda konfigurasikan dalam WSL.
- Verifikasi bahwa Ollama telah diinstal dengan benar dengan menjalankan
ollama --version
. Jika perintah mengembalikan nomor versi, Anda siap untuk melanjutkan.
Unduhan DeepSeek-R1
Dengan Ollama terinstal dan berjalan (ollama serve
di terminal jika pengunduhan yang kami jelaskan nanti gagal), sekarang Anda dapat mengunduh model DeepSeek yang paling sesuai dengan kebutuhan dan perangkat keras Anda:
- Parameter 1.5B: Ideal untuk komputer dasar. Model ini menempati sekitar 1.1 GB.
- Parameter 7B: Direkomendasikan untuk peralatan dengan GPU sedang-tinggi. Ini menempati sekitar 4.7 GB.
- Parameter 70B: Untuk tugas kompleks pada peralatan dengan kapasitas besar memori dan GPU yang kuat.
Untuk mengunduh model 7B standar, jalankan perintah ini di terminal:
Olama Jalankan Deepseek-R1
Waktu pengunduhan akan bergantung pada kecepatan Internet Anda dan hanya diperlukan saat pertama kali kami menjalankan chatbot. Setelah selesai, model akan siap digunakan dari baris perintah atau melalui antarmuka grafis.
Menggunakan DeepSeek dengan antarmuka grafis
Meskipun Anda dapat berinteraksi dengan DeepSeek langsung dari terminal, banyak pengguna lebih memilih antarmuka grafis untuk kenyamanan. Dalam hal ini, Anda dapat menginstal Kotak ObrolanAI, aplikasi gratis yang memungkinkan Anda memanfaatkan DeepSeek dari bentuk visual.
- Unduh dan pasang Kotak ObrolanAI dari halaman resminya.
- Atur aplikasi yang akan digunakan Ollama sebagai pemasok model:
Di pengaturan ChatBoxAI, pilih “Gunakan API saya sendiri” dan pilih model DeepSeek yang sebelumnya Anda unduh. Jika semuanya dikonfigurasi dengan benar, Anda akan dapat melakukan pertanyaan dan tugas langsung dari antarmuka grafis.
Integrasi DeepSeek ke dalam proyek
Jika Anda seorang pengembang, Anda dapat mengintegrasikan DeepSeek ke dalam proyek Anda menggunakan API Kompatibel dengan OpenAI. Berikut adalah contoh sederhana penggunaan Ular sanca:
impor openai klien = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") respon = client.chat.completions.create(model="deepseek-r1", pesan=[{ "role": "user", "content": "Buat kode dengan Python untuk menghitung Fibonacci"}])
Skrip ini akan mengirimkan kueri ke model DeepSeek lokal dan mengembalikan hasilnya di terminal atau aplikasi Anda.
Model AI DeepSeek-R1 mewakili pilihan yang sangat baik bagi mereka yang mencari solusi canggih dan ekonomis. Dengan kemudahan akses yang diberikan Ollama, fleksibilitas modelnya, dan kemampuan untuk berintegrasi ke dalam proyek khusus, DeepSeek membuka kemungkinan baru bagi pengembang, pelajar, dan pakar AI. Dengan fokusnya pada privasi dan kinerja, ini adalah alat yang layak untuk dieksplorasi secara menyeluruh.