Visual Studio Code'a Deepseek entegre etme

Altair

Kıdemli Üye
Katılım
12 Kasım 2022
Mesajlar
2,791
VS Code icin offline A.I. code yardimcisi olarak DeepSeek-R1'i entegre kullanabilirsiniz. Bunun icin oncelikle https://ollama.com/ sitesinden OS'unuza uygun client'i indirin ve kurun. daha sonra komut satirindan

ollama pull DeepSeek-R1

komutunu girerek modeli yukleyin. Yukleme tamamlandiktan sonra deneme yapin ve modelin calistigindan emin olun.

VS Code'u acin ve continue.dev eklentisini yukleyin. Eklentinin arayuzunu acip provider olarak ollama, model olarak deepseek coder'i secin ve connect deyin. Artik VS Code uzerinde Deepseek yardimi ile kod gelistirebilirsiniz.
 
Son düzenleme:
Telemetry kapatılabiliyor.

How to Opt Out​

You can disable anonymous telemetry by visiting the User Settings Page and toggling "Allow Anonymous Telemetry" off.

Alternatively in VS Code, you can disable telemetry through your VS Code settings by unchecking the "Continue: Telemetry Enabled" box (this will override the Settings Page settings).
 
Telemetry kapatılabiliyor.

How to Opt Out​

You can disable anonymous telemetry by visiting the User Settings Page and toggling "Allow Anonymous Telemetry" off.

Alternatively in VS Code, you can disable telemetry through your VS Code settings by unchecking the "Continue: Telemetry Enabled" box (this will override the Settings Page settings).
Aynı ayar extension için de geçerli mi? Mesajıma eklenen link extension'a ait.
Ben linux bazlı vscodium kullanıyorum. Vscode'un telemetri callhome yapmayan forku.
 
Extension bende kurulu olmadığı için kendim test edemiyorum.

Şu konuda sorulabilir, ben ilgili ayarı kapatıyorum, uygulama bu ayarı gerçekten dikkate alıyormu?

Geçenlerde Firefox da olan "Dont track me" / "Beni takip etme" özelliğini tarayıcıdan çıkarttılar. Çünkü sitelere firefox bu ayar seçili olduğunda bu isteği gönderiyor ama siteler bu isteği umursamıyorlardı. Mozillada pratik hayatta çalışmayan bu özelliği tarayıcıdan çıkarttı.
 
CS Code icin offline A.I. code yardimcisi olarak DeepSeek-R1'i entegre kullanabilirsiniz. Bunun icin oncelikle https://ollama.com/ sitesinden OS'unuza uygun client'i indirin ve kurun. daha sonra komut satirindan

ollama pull DeepSeek-R1

komutunu girerek modeli yukleyin. Yukleme tamamlandiktan sonra deneme yapin ve modelin calistigindan emin olun.

VS Code'u acin ve continue.dev eklentisini yukleyin. Eklentinin arayuzunu acip provider olarak ollama, model olarak deepseek coder'i secin ve connect deyin. Artik VS Code uzerinde Deepseek yardimi ile kod gelistirebilirsiniz.
Görmeyeli cehenneme(!) doğru yolu yarılamışsındır diyordum :seytan1:. Sağlık sıhhat iyi mi?
 
github'ın copilot'una göre nasıl bu deepseek entegrasyonu?
 
Görmeyeli cehenneme(!) doğru yolu yarılamışsındır diyordum :seytan1:. Sağlık sıhhat iyi mi?
Hic Israil'e gitmedim, gitmeyi de dusunmuyorum. Cehennem yani Gehenna Vadisi oldukca sicakmis. Masallari yazanlarad burayi ref almis olmalilar. Vİkinglerde de cezalandirma buz collerinde yapiliyor. Adamlarin ceza anlayislari bilgileri ile kisitli. Neyse masallar guzel ama Deepseek daha gercek.

Edit : O zamanki Yahudiler gercekten tam deli bir toplulukmus anlasilan. Burada cocuklari yakarak kurban ediyorlarmis tanrilarina. Cehennemde yanmanin kokeni bu olsa gerek.

 
Son düzenleme:
direk ollama'da deniyorum. DeepSeek-r1:1.5B model kod yazamıyor. :kac1:7B yi yüklüyorum şimdi.
 
7b ile programlama yapabiliyor. ollama prompt'dan çalışmak için prosedür şöyle (linux için):
Kod:
# ollama'yı kur
curl -fsSL https://ollama.com/install.sh | sh

# DeepSeek 7b modeli indir (diğer model isimleri burada: https://ollama.com/search?q=deepseek-r)
ollama pull deepseek-r1:7b

# Modeli çalıştır
ollama run deepseek-r1:7b

Debian 8GB RAM eski laptopta saniyede 2 söz üretebiliyor. Basit bir pyserial kullanım örneği için 1.5 sayfalık hikaye üretti.
 
7b ile programlama yapabiliyor. ollama prompt'dan çalışmak için prosedür şöyle (linux için):
Kod:
# ollama'yı kur
curl -fsSL https://ollama.com/install.sh | sh

# DeepSeek 7b modeli indir (diğer model isimleri burada: https://ollama.com/search?q=deepseek-r)
ollama pull deepseek-r1:7b

# Modeli çalıştır
ollama run deepseek-r1:7b

Debian 8GB RAM eski laptopta saniyede 2 söz üretebiliyor. Basit bir pyserial kullanım örneği için 1.5 sayfalık hikaye üretti.
Ben bilgisayarda 32b calistirinca mutlu olmustum. Elin Amerikalisi 1 TB RAM'li server'da 671b ile deneme yapiyor. :)

 
Ollama'ya 32b yukleyince minimum 22GB RAM istiyor. Eger v3 yuklemek isterseniz 404GB boyutunda dosya indirmeye basliyor. V3'u PC'de calistirmak mumkun degil. Ancak 512 GB destekli bir rack ile calistirabiliriz sanirim. Bunu destekleyen EYPC anakartlar var. 64C/128T ve 512 GB RAM ile yapabileceklerini hayal bile edemiyorum. Ustteki Youtube videosunda adam 1 TB'yi basmis kullaniyor. Biz de 30€ limitli gumruk sinirimizla ulkenin neden ilerlemiyor oldugunu dusunuyoruz.
 
Sunucu anakartlari piyasada bulunur. Bizdeki sorun fiyatların yurtdışından 1.5-2 kere daha fazla olması.
 
ollama'nı çalıştırınca şöyle bir sorunla karşılaştım - model prompt'undan çıkınca ollama'ya ait runner kapanmıyor.

Kod:
ps -ef | grep -i oll
root          52       2  0 15:39 ?        00:00:00 [edac-poller]
ollama     28841       1  4 21:52 ?        00:02:00 /usr/local/bin/ollama serve
ollama     33604   28841 99 22:26 ?        00:22:27 /usr/local/lib/ollama/runners/cpu_avx/ollama_llama_server runner --model /usr/share/ollama/.ollama/models/blobs/sha256-dde5aa3fc5ffc17176b5e8bdc82f587b24b2678c6c66101bf7da77af9f7ccdff --ctx-size 8192 --batch-size 512 --threads 2 --no-mmap --parallel 4 --port 35719
usr        36192   16235  0 22:42 pts/2    00:00:00 grep -i oll

Bu /usr/local/lib/ollama/runners/cpu_avx/ollama_llama_server runner prosesi kill yapılmasa model RAM'da kalıyor ve sistem kaynaklarını kullanmaya devam ediyor.

İkinci sorun - ollama kurulunca sudo apt update cevabı aşağıdaki uyarıya benzer satırlar içeriyor:
Target Sources (non-free-firmware/source/Sources) is configured multiple times in /etc/apt/sources.list:9 and /etc/apt/sources.list.d/contrib.list:9
 
Ben de 671 lik olanın dosyasını indirmiştim. Demek boşuna indirmişim :kizgin1:
 
iirc, ollama modelleri küçültülmüş halinde bulunduruyor. 7b modeli 3-4GB RAM istiyor. Laptopta çalıştırınca RAM kullanımı 3.x dan 7.8'e çıktı, swap ise 500MB arttı.
14b indirdim ama pek promptun gelmesini beklemedim, uzun sürdü. Gamer anakartları 128GB RAM kadar çıkıyor.
Sıfırdan server kurmak memlekette 2K dolardan daha fazla olur. Belki bir yerlerde ikinci el var. Olursa ucuza alınır.
 
ollama'nı çalıştırınca şöyle bir sorunla karşılaştım - model prompt'undan çıkınca ollama'ya ait runner kapanmıyor.

Kod:
ps -ef | grep -i oll
root          52       2  0 15:39 ?        00:00:00 [edac-poller]
ollama     28841       1  4 21:52 ?        00:02:00 /usr/local/bin/ollama serve
ollama     33604   28841 99 22:26 ?        00:22:27 /usr/local/lib/ollama/runners/cpu_avx/ollama_llama_server runner --model /usr/share/ollama/.ollama/models/blobs/sha256-dde5aa3fc5ffc17176b5e8bdc82f587b24b2678c6c66101bf7da77af9f7ccdff --ctx-size 8192 --batch-size 512 --threads 2 --no-mmap --parallel 4 --port 35719
usr        36192   16235  0 22:42 pts/2    00:00:00 grep -i oll

Bu /usr/local/lib/ollama/runners/cpu_avx/ollama_llama_server runner prosesi kill yapılmasa model RAM'da kalıyor ve sistem kaynaklarını kullanmaya devam ediyor.

İkinci sorun - ollama kurulunca sudo apt update cevabı aşağıdaki uyarıya benzer satırlar içeriyor:
Target Sources (non-free-firmware/source/Sources) is configured multiple times in /etc/apt/sources.list:9 and /etc/apt/sources.list.d/contrib.list:9
cikmak icin ben findoz'da /bye giriyorum powershell prompt'una. Siz dogrudan bash'i mi kapatiyorsunuz? O yuzden olabilir belki. Epeydir Linux kullanmamistim, Bash ayarlarindan nasil yapilir bilemedim. Findoz'da powershell icin guzel hazir script araclari var. Onlara yaptirabilirim sanirim kapatsam bile otomatik /bye girisi vermeyi.
 
Bilgisayarinizda yapay zeka calistirmak icin nacizane tavsiyeler:

Mutlaka CUDA destekli Nvidia ekran kartiniz olsun. Ortalama uzeri bir islemciyle saniyede 5-6 token elde edebilirken ornegin 2x 3060 12GB ( toplam 24 GB VRAM ) ile saniyede 50 token elde edebiliyorsunuz. Bu da nerede ise 4090 performansi demek. Su an icin ucuzundan AI makinesi icin en optimum cozum bu demek.

Bu makine icin 32b'yi indirin, harikalar yaratiyor. Peki 1.5b, 7b, 14b, 32b falan ne demek? Ornegin 7b ile programcilik ve matematik sorunlariniza cozum isteyebilirsiniz ama kalkip "Why did Marty need to get back to 1985?" dediginizde "ben zavalli bir A.I.'yim. Ne diyon annamiyom, cok gucume gidiyon" derken 14b ile ayni soruya Back to the Future fani kivaminda cevap verebiliyor. 617b'yi indirip calistirabilecek makineniz varsa "interneti download etmis" gibi oluyorsunuz. Istiklal Marsi'ni Japonca tersten okutabilirsiniz sanirim. O derece yani.
 

Forum istatistikleri

Konular
7,649
Mesajlar
127,597
Üyeler
3,093
Son üye
temelreis

Son kaynaklar

Son profil mesajları

Python Geliştirmeye eklediğim yapay zeka sunucusu, yeni başlayanlar için roket etkisi
Bir insanın zeka seviyesinin en kolay tesbiti, sorduğu sorulardır.
yapay zeka interneti yedi bitirdi, arama motoru kullanan, forumlara yazan kaldı mı ?
Freemont2.0 herbokolog Freemont2.0 wrote on herbokolog's profile.
nick iniz yakıyor
:D
az bilgili çok meraklı
Back
Top