27 Ocak 2025. Pazartesi sabahı.
Borsa açılır açılmaz Nvidia’nın hisseleri serbest düşüşe geçti. Tek bir günde yaklaşık 600 milyar dolarlık piyasa değeri buharlaştı. Wall Street’te panik, Silikon Vadisi’nde şok havası vardı. Bunun sebebi bir savaş değildi, bir kriz değildi, bir skandal da değildi.
Sebebi, Çinli küçük bir yapay zeka şirketinin ücretsiz olarak yayımladığı bir modeldi.
İşte bu model DeepSeek’ti.
O gün yaşananlar, teknoloji dünyasının on yıldır sürdürdüğü bir varsayımı yerle bir etti: “En iyi yapay zeka, en büyük bütçeyi gerektiriyor.” DeepSeek bu varsayımı aldı ve fırlattı.
Peki bu şirket gerçekte ne? Nereden çıktı? Neyi değiştirdi? Ve asıl soru: Kullanmak güvenli mi?
Hangzhou’dan Dünyaya: DeepSeek’in Kökeni
Çin’in doğusunda, İpek Yolu’nun eski bir durak noktası olan Hangzhou şehri, son yıllarda teknoloji girişimlerinin yeni merkezi hâline geldi. Alibaba burada kuruldu. Ve DeepSeek de buradan çıktı.
Hikâye aslında bir hedge fondan başlıyor. Liang Wenfeng, 2015’te High-Flyer adında bir yatırım şirketi kurdu. Şirket, geleneksel finans analistlerinin değil, yapay zeka algoritmalarının kararlar aldığı bir fon modeliyle çalışıyordu. Yani Wenfeng daha DeepSeek’i kurmadan çok önce yapay zekanın finansal gücünü bizzat test etmişti; üstelik milyarlarca dolar üzerinde.
Temmuz 2023’te Wenfeng bu birikimi alıp yeni bir atılım yaptı: Yapay zeka araştırma laboratuvarı olarak DeepSeek’i kurdu. Ama ilginç olan nokta şu: Kuruluş sermayesi, dışarıdan yatırım toplamak yerine tamamen High-Flyer’ın kendi kaynaklarından geldi. Bu bağımsızlık, ilerleyen süreçte şirketin kararlarını doğrudan şekillendirdi.
“200 Kişiyle Dünyayı Sarsabilirsiniz”
DeepSeek’e dair en çarpıcı bilgilerden biri personel sayısı. Ocak 2025 itibarıyla şirkette araştırmacılar ve mühendisler dahil toplam 200’den az çalışan vardı. Karşılaştırma için: OpenAI’da birkaç bin çalışan var, Google DeepMind’da ise on binlerce.
Bu rakam küçümseme için değil, bir şeyi anlamak için önemli: DeepSeek’in başarısı, kalabalık kadrosuna değil, mühendislik yaklaşımına dayanıyor.
Çünkü Wenfeng’in ekibi bir şeyin peşindeydi: Daha az kaynakla daha iyi sonuç almak. Bu sadece bir tasarruf hedefi değildi, varoluşsal bir zorunluluktu. ABD’nin Çin’e gelişmiş yapay zeka çipleri ihracatını yasaklamasıyla birlikte DeepSeek, en güçlü donanıma erişemiyordu. Kısıtlama onları zorladı, zorlanma onları yaratıcı kıldı.
6 Milyon Dolar ile GPT-4 Seviyesine Ulaşmak
Yapay zeka dünyasında bir model eğitmek, paranın konuştuğu bir süreçtir. OpenAI’ın GPT-4’ü eğitmesi için harcanan tutarın 100 milyon doların üzerinde olduğu tahmin ediliyor. Meta’nın Llama 3.1 modelinin enerji ve donanım maliyeti benzer sevierlerde.
DeepSeek, Aralık 2024’te V3 modelini duyurduğunda beraberinde şaşırtıcı bir rakam da açıkladı: Toplam eğitim maliyeti yaklaşık 5,6 milyon dolar. Ve bu modeli eğitmek için kullandıkları GPU sayısı 2.048 adet Nvidia H800 idi; rakiplerin kullandığı 10.000+ çiplik kümelerin çok altında.
Bu nasıl mümkün oldu?
İki temel yenilikle: Mixture of Experts (MoE) mimarisi ve verimlilik odaklı mühendislik.
Mixture of Experts: Zekânın Verimli Kullanımı
Geleneksel büyük dil modellerinde her sorgu işlenirken modelin tüm parametreleri devreye girer. Bu, trilyonlarca parametreyi sürekli aktif tutmak anlamına gelir. Enerji tüketimi muazzam, işlem süresi uzun.
DeepSeek’in MoE yaklaşımı bu sorunu farklı ele aldı. Model, “uzmanlar” adı verilen alt ağlara bölünmüştür. Bir sorgu geldiğinde sistemin tamamı değil, o göreve en uygun uzmanlar devreye girer. Matematiksel bir problem için matematik uzmanları, kod sorusu için yazılım uzmanları, dil sorusu için dil uzmanları.
Sonuç: Hem daha hızlı, hem daha ucuz, hem de aynı kalitede çıktı.
Buna ek olarak DeepSeek mühendisleri, GPU’lar arası iletişim gecikmesini en aza indirmek için düşük seviyeli sistem optimizasyonları yaptı. Her 10 dakikada bir uzman yerleşimini yeniden düzenleyen bir yük dengeleme mekanizması geliştirdiler. 8-bit kayan nokta aritmetiği kullandılar. Bu teknik ayrıntılar belki sıradan bir okuyucu için anlamsız görünür, ama sonucu çok somut: Aynı işi çok daha az enerji ve para harcayarak yapmak.
Model Ailesi: DeepSeek Tek Bir Şey Değil
Şirketi anlamak için modellerini ayrı ayrı ele almak gerekiyor.
DeepSeek-V3 ve V3.1 Aralık 2024’te yayımlanan V3, şirketi dünya gündemine taşıdı. 671 milyar parametrelik bu model, hem akıl yürütme hem de genel bilgi testlerinde GPT-4o seviyesinde sonuçlar ürettiydi. Ağustos 2025’te yayımlanan V3.1 ise “Düşün” ve “Düşünme” modlarını getirdi. Yani model artık basit sorulara hızlıca yanıt verirken, karmaşık problemlerde daha derin bir akıl yürütme sürecine giriyor. Bu esneklik, kullanıcıya hem hız hem derinlik sunuyor.
DeepSeek-R1 Ocak 2025’te yayımlanan R1, tamamen farklı bir eğitim felsefesiyle geldi. R1-Zero adlı öncülü, insan tarafından hazırlanmış hiçbir örnek kullanılmadan, saf pekiştirmeli öğrenmeyle eğitildi. Yani model, doğruyu ve yanlışı insan gözetimi olmadan kendi keşfetti. R1 ise buna denetimli öğrenmeyi ekledi ve daha dengeli, güvenilir bir akıl yürütme modeli ortaya çıktı. Matematik ve mantık testlerinde OpenAI’ın o1 modeliyle doğrudan rekabet edecek düzeyde sonuçlar aldı.
DeepSeek-Coder Sadece kod için tasarlanmış bu model, 80’den fazla programlama dilini anlıyor. İki trilyonun üzerinde teknik veriyle eğitilmiş durumda. Yazılım geliştiriciler arasında hızla popüler hâle geldi çünkü hem ücretsiz hem de API maliyeti son derece düşük.
Janus-Pro-7B Ocak 2025’te gelen bu model, görsel anlama ve görüntü üretimini bir arada yapabiliyor. Hem bir görseli yorumlamak hem de metinden yeni görsel üretmek için tek model. Çok modelli yapay zeka alanında ciddi bir adım.
Açık Kaynak Felsefesi: Silah mı, Strateji mi?
DeepSeek’in kararlarının en tartışmalısı bu: Modelleri MIT lisansıyla açık kaynak olarak yayımlamak. Yani kodu herkes görebilir, herkes değiştirebilir, herkes kullanabilir. Ücretsiz.
Bu karar, iki farklı perspektiften okunabilir.
Birinci okuma: Gerçek bir demokratikleşme hamlesi. Gelişmiş yapay zekaya erişmek için artık milyonlarca dolara ihtiyaç yok. Küçük ülkelerin araştırmacıları, bağımsız geliştiriciler, akademisyenler bu modelleri kendi sunucularında çalıştırabilir. Bu anlamda DeepSeek, yapay zekayı gerçekten halka açık hâle getirdi.
İkinci okuma: Stratejik bir hamle. Açık kaynak olmak, küresel geliştirici topluluğunu modeli iyileştiren ücretsiz bir orduya dönüştürür. Her geliştirici katkısı, şirkete milyonlarca dolarlık AR-GE maliyetini sıfırlar. Ayrıca açık kaynaklı modeller, ABD’nin ticaret kısıtlamalarını aşmanın dolaylı bir yolu olarak da işlev görebilir.
Her iki okuma da doğru olabilir. Teknoloji dünyasında niyet ile etki her zaman aynı yönü göstermez.
Güvenlik Endişeleri: Gerçekten Kaygılanmak Gerekiyor mu?
Bu konu, en çok görmezden gelinen ama en önemli başlık.
DeepSeek’i kişisel bilgisayarınızda veya özel bir bulut altyapısında çalıştırmıyorsanız ve doğrudan chat.deepseek.com üzerinden kullanıyorsanız, girdiğiniz tüm veriler Çin’deki sunucularda depolanıyor. Bu salt bir spekülasyon değil, şirketin kendi gizlilik politikasında kabul ettiği bir gerçek.
Bu ne anlama geliyor pratikte?
Şirket stratejisi, kişisel finansal bilgiler, müşteri verileri, ticari sırlar ve hassas araştırma bulguları gibi kritik bilgileri DeepSeek’e girmemek gerekiyor. Bunun sebebi sadece Çin’in devlet yapısıyla ilgili kaygılar değil; herhangi bir üçüncü taraf sunucu için geçerli olan temel veri güvenliği pratiği.
Öte yandan modelin açık kaynaklı olması gerçek bir avantaj sunuyor: Modeli kendi altyapınıza kurabilirsiniz. Bu yöntemle veri Çin sunucularına gitmez. Büyük şirketler ve kamu kurumları için en güvenli kullanım şekli bu.
Sansür meselesi ayrı bir konu: Model, Tiananmen Meydanı, Tayvan’ın bağımsızlığı veya Xinjiang gibi hassas Çin siyasi konularında belirgin biçimde kısıtlı yanıtlar üretiyor. Bu, Batılı modellerde de çeşitli biçimlerde var olan bir sorun; ancak DeepSeek’te siyasi bağlam açıkça görünür durumda.
ChatGPT ile Karşılaştırma: Hangisi Ne Zaman?
Bu soruyu “biri diğerinden iyidir” mantığıyla yanıtlamak yanlış olur. Çünkü iki araç farklı güçlere sahip.
Matematikte DeepSeek öne geçiyor. MATH-500 gibi zorlu matematik kıyaslamalarında DeepSeek-R1, GPT-4o’yu geride bırakıyor. Özellikle çok adımlı, zincirleme akıl yürütme gerektiren problemlerde bu fark belirgin.
Kodlamada kafa kafaya. Her iki model de modern kodlama testlerinde yakın sonuçlar üretiyor. DeepSeek-Coder özellikle teknik optimizasyon gerektiren görevlerde ön plana çıkıyor.
Genel bilgi ve yaratıcılıkta ChatGPT daha dengeli. Geniş konu yelpazesi, nüanslı akıl yürütme ve yaratıcı içerik üretiminde ChatGPT’nin eğitim veri çeşitliliği avantaj sağlıyor.
Maliyet farkı çok büyük. API kullanımında DeepSeek, ChatGPT’ye kıyasla çok daha ucuz. Yüksek hacimli çağrı yapan bir uygulama geliştiriyorsanız bu fark, projenin karlılığını doğrudan etkiliyor.
Gizlilik önceliğinizse ChatGPT veya Claude daha uygun. Özellikle hassas verilerle çalışıyorsanız.
| Kriter | DeepSeek | ChatGPT |
|---|---|---|
| Matematik / Mantık | ✅ Üstün | 🔶 İyi |
| Kod yazımı | ✅ Güçlü | ✅ Güçlü |
| Genel yaratıcılık | 🔶 Orta | ✅ Üstün |
| API maliyeti | ✅ Çok ucuz | 🔶 Pahalıca |
| Açık kaynak | ✅ Evet | ❌ Hayır |
| Veri gizliliği | ❌ Riskli | 🔶 Orta |
| Sansürsüz yanıtlar | 🔶 Kısıtlı | ✅ Daha açık |
Fiyatlandırma: Ücretsizin Sınırları
DeepSeek’in web arayüzü ve mobil uygulamaları tamamen ücretsiz. Kullanım sınırı yok. Kayıt olmak bile zorunlu değil.
API tarafında ise fiyatlar oldukça rekabetçi. DeepSeek-V3 için giriş fiyatı milyon token başına 0,27 dolar seviyesinde, bu ChatGPT-4o’nun onda biri civarında. Bu rakam, yapay zeka tabanlı uygulama geliştiren startuplar için son derece çekici.
Açık kaynaklı modeli kendi sunucularınızda çalıştırırsanız maliyetiniz yalnızca donanım ve elektrik. Yani tamamen kendi kontrolünüzdeki bir yapay zeka sistemi kurabiliyorsunuz.
DeepSeek Ne Anlama Geliyor? Büyük Resim
DeepSeek’in yaptığı şeyi sadece teknik bir başarı olarak okumak eksik kalır.
Bunun stratejik boyutu var: Yapay zeka yarışının artık sadece en büyük bütçeyle kazanılmayacağını gösterdi. Verimliliği ve mühendislik zekâsını öne alan bir yaklaşımın, ham hesaplama gücüne dayanan devlere meydan okuyabileceğini kanıtladı.
Siyasi boyutu var: ABD’nin çip ihracat kısıtlamalarına rağmen bu sonuca ulaşmak, teknoloji egemenliği mücadelesinde yeni bir cephe açtı. Yazılım tarafında kısıtlamaları aşmak, donanım tarafını kısıtlamaktan çok daha zor.
Ekonomik boyutu var: Nvidia’nın tek günde 600 milyar dolar kaybetmesi, yapay zeka altyapı yatırımlarının ne kadar kırılgan bir varsayım üzerine kurulu olduğunu gösterdi. “Daha fazla GPU, daha iyi yapay zeka” denklemi artık sorgulanıyor.
Ve teknoloji boyutu var: Açık kaynak bir modelin bu kadar güçlü olması, yapay zekanın demokratikleşmesi için gerçek bir adım. Araştırmacılar, geliştiriciler ve küçük ülkeler artık devasa altyapı olmadan rekabetçi modellere erişebiliyor.
Sonuç: Bir Uyarı Hikâyesi Değil, Bir Okuma Testi
DeepSeek’i “tehlikeli Çin yapay zekası” olarak okumak da, “her şeyi çözen sihirli araç” olarak okumak da eşit derecede hatalı.
Gerçek şu: Bu, son derece yetenekli bir mühendislik ekibinin, sınırlı kaynaklarla olağanüstü bir verimlilik başarısı gösterdiği bir hikâye. Ve bu hikâye, yapay zekanın geleceğinin tek bir coğrafyada veya tek bir paradigmada şekillenmeyeceğini açıkça ortaya koyuyor.
Kullanıcı olarak yapmanız gereken tek şey bilinçli olmak: Hassas verilerinizi paylaşmayın, teknik konularda özellikle kodlama ve matematikde kullanmaktan çekinmeyin, ve açık kaynaklı yapısını kendi altyapınızda değerlendirmeyi düşünün.
DeepSeek, 2025’in başında dünyayı sarstı. Ama asıl soru şu: Bu sadece bir başlangıç mıydı?
Her şey buna işaret ediyor.
💡 Pratik Öneri: DeepSeek’i denemek için chat.deepseek.com adresine gidin ve “Deep Think” modunu açın. Ardından karmaşık bir matematik problemi ya da kod sorusu sorun. Modelin adım adım nasıl akıl yürüttüğünü görmek, yapay zekanın çalışma mantığını sezgisel olarak kavramanın en hızlı yolu.