Cara menginstal dan menggunakan DeepSeek-R1 secara lokal di komputer Anda, baik Anda menggunakan Ubuntu atau sistem lainnya

  • DeepSeek-R1 adalah model sumber terbuka dengan kemampuan penalaran tingkat lanjut.
  • Ollama menyederhanakan instalasi dan pengelolaan model AI secara lokal.
  • ChatBoxAI menawarkan antarmuka grafis untuk berinteraksi dengan model seperti DeepSeek.
  • Model ini dapat dengan mudah diintegrasikan ke dalam proyek pengembangan dengan Python.

DeepSeek-R1 di Ubuntu

Kecerdasan buatan terus mengubah dunia kita, dan pilihan untuk bekerja dengan model bahasa tingkat lanjut semakin berkembang pesat. Namun, tidak semua orang perlu terhubung ke layanan cloud atau bergantung pada pihak ketiga untuk mengeksplorasi teknologi ini. Alternatif yang menarik dan mudah diakses adalah DeepSeek-R1, model AI yang memungkinkan pengguna menjalankannya secara lokal di komputer sederhana. Pada artikel ini, saya akan menjelaskan cara menginstal DeepSeek dan memanfaatkan kemampuannya sepenuhnya.

DeepSeek-R1 adalah model AI sumber terbuka yang menonjol karena efisiensi dan kapasitas penalarannya yang maju. Dengan menjalankannya secara lokal, Anda tidak hanya menghemat biaya berulang, namun Anda juga melindungi privasi Anda dan mendapatkan fleksibilitas untuk mengintegrasikannya ke dalam proyek khusus. Meskipun beberapa model memerlukan perangkat keras yang kuat, DeepSeek-R1 menawarkan versi yang disesuaikan untuk sumber daya yang berbeda, dari komputer dasar hingga stasiun kerja tingkat lanjut.

Apa itu DeepSeek dan mengapa menggunakannya secara lokal?

DeepSeek-R1 adalah model bahasa tingkat lanjut yang dirancang untuk tugas-tugas kompleks seperti penalaran logis, memecahkan masalah matematika dan menghasilkan kode. Keuntungan utamanya adalah bersifat open source, artinya Anda dapat menginstal dan menjalankannya di komputer Anda sendiri tanpa bergantung pada server eksternal.

Beberapa fitur utamanya meliputi:

  • Fleksibilitas: Anda dapat menyesuaikan model sesuai kebutuhan Anda, dari versi ringan hingga konfigurasi lanjutan.
  • Privasi: Semua pemrosesan dilakukan secara lokal, menghindari kekhawatiran tentang paparan data sensitif. Ini mungkin poin yang paling penting, karena banyak yang khawatir mengenai apa yang dapat dilakukan perusahaan terhadap data kami.
  • Penghematan: Anda tidak perlu mengeluarkan uang untuk berlangganan atau layanan cloud, menjadikannya pilihan yang terjangkau bagi pengembang dan bisnis.

Persyaratan untuk instalasi

Sebelum memulai instalasi, pastikan Anda mematuhi hal berikut persyaratan:

  • Komputer dengan sistem operasi Linux, macOS, atau Windows (dengan dukungan untuk WSL2 dalam kasus terakhir).
  • Minimal 8 GB RAM, meskipun setidaknya disarankan 16 GB untuk kinerja optimal.
  • Akses internet untuk mengunduh model pada awalnya.
  • Pengetahuan dasar tentang terminal atau baris perintah.

Selain itu, Anda perlu menginstal alat yang disebut Ollama, yang mengelola dan menjalankan model DeepSeek secara lokal.

Instalasi Ollama

Ollama adalah solusi sederhana yang memungkinkan Anda mengunduh dan menjalankan model bahasa seperti DeepSeek-R1. Untuk menginstalnya, ikuti langkah-langkah berikut:

  1. Di Linux atau macOS, buka terminal dan jalankan perintah berikut untuk menginstal Ollama — paketnya keriting Tentu saja hal ini perlu –:
curl -fsSL https://ollama.com/install.sh | SH
  1. Pada sistem Windows, pastikan Anda telah mengaktifkan WSL2 sebelumnya dan kemudian ikuti langkah yang sama di terminal Ubuntu yang Anda konfigurasikan dalam WSL.
  2. Verifikasi bahwa Ollama telah diinstal dengan benar dengan menjalankan ollama --version. Jika perintah mengembalikan nomor versi, Anda siap untuk melanjutkan.

Unduhan DeepSeek-R1

Dengan Ollama terinstal dan berjalan (ollama serve di terminal jika pengunduhan yang kami jelaskan nanti gagal), sekarang Anda dapat mengunduh model DeepSeek yang paling sesuai dengan kebutuhan dan perangkat keras Anda:

  • Parameter 1.5B: Ideal untuk komputer dasar. Model ini menempati sekitar 1.1 GB.
  • Parameter 7B: Direkomendasikan untuk peralatan dengan GPU sedang-tinggi. Ini menempati sekitar 4.7 GB.
  • Parameter 70B: Untuk tugas kompleks pada peralatan dengan kapasitas besar memori dan GPU yang kuat.

Untuk mengunduh model 7B standar, jalankan perintah ini di terminal:

Olama Jalankan Deepseek-R1

Waktu pengunduhan akan bergantung pada kecepatan Internet Anda dan hanya diperlukan saat pertama kali kami menjalankan chatbot. Setelah selesai, model akan siap digunakan dari baris perintah atau melalui antarmuka grafis.

Menggunakan DeepSeek dengan antarmuka grafis

Meskipun Anda dapat berinteraksi dengan DeepSeek langsung dari terminal, banyak pengguna lebih memilih antarmuka grafis untuk kenyamanan. Dalam hal ini, Anda dapat menginstal Kotak ObrolanAI, aplikasi gratis yang memungkinkan Anda memanfaatkan DeepSeek dari bentuk visual.

  • Unduh dan pasang Kotak ObrolanAI dari halaman resminya.
  • Atur aplikasi yang akan digunakan Ollama sebagai pemasok model:

Di pengaturan ChatBoxAI, pilih “Gunakan API saya sendiri” dan pilih model DeepSeek yang sebelumnya Anda unduh. Jika semuanya dikonfigurasi dengan benar, Anda akan dapat melakukan pertanyaan dan tugas langsung dari antarmuka grafis.

Integrasi DeepSeek ke dalam proyek

Jika Anda seorang pengembang, Anda dapat mengintegrasikan DeepSeek ke dalam proyek Anda menggunakan API Kompatibel dengan OpenAI. Berikut adalah contoh sederhana penggunaan Ular sanca:

impor openai klien = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") respon = client.chat.completions.create(model="deepseek-r1", pesan=[{ "role": "user", "content": "Buat kode dengan Python untuk menghitung Fibonacci"}])

Skrip ini akan mengirimkan kueri ke model DeepSeek lokal dan mengembalikan hasilnya di terminal atau aplikasi Anda.

Model AI DeepSeek-R1 mewakili pilihan yang sangat baik bagi mereka yang mencari solusi canggih dan ekonomis. Dengan kemudahan akses yang diberikan Ollama, fleksibilitas modelnya, dan kemampuan untuk berintegrasi ke dalam proyek khusus, DeepSeek membuka kemungkinan baru bagi pengembang, pelajar, dan pakar AI. Dengan fokusnya pada privasi dan kinerja, ini adalah alat yang layak untuk dieksplorasi secara menyeluruh.


tinggalkan Komentar Anda

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai dengan *

*

*

  1. Penanggung jawab data: Miguel Ángel Gatón
  2. Tujuan data: Mengontrol SPAM, manajemen komentar.
  3. Legitimasi: Persetujuan Anda
  4. Komunikasi data: Data tidak akan dikomunikasikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Basis data dihosting oleh Occentus Networks (UE)
  6. Hak: Anda dapat membatasi, memulihkan, dan menghapus informasi Anda kapan saja.