Model baru DeepSeek memiliki kemampuan penalaran, gratis dan melampaui GPT-5

Startup China ini telah memperkenalkan dua model yang setara dengan GPT-5 dan Gemini-3 Pro, dengan kemampuan penalaran canggih dan penggunaan alat secara otonom gratis

DeepSeek telah memperkenalkan DeepSeek-V3.2 dan DeepSeek-V3.2-Speciale. Ini adalah model AI yang menggabungkan penalaran kompleks dengan kemampuan untuk menggunakan alat secara mandiri.

Perusahaan Hangzhou ini menyatakan bahwa DeepSeek-V3.2 menyamai kinerja GPT-5 dalam berbagai tes penalaran. Model Speciale mencapai level Gemini-3 Pro dan telah meraih medali emas dalam olimpiade matematika dan informatika internasional.

DeepSeek mengejutkan dunia pada bulan Januari dengan model yang revolusioner dalam hal efisiensi dan biaya. Sekarang, DeepSeek meningkatkan taruhannya dengan sistem kode terbuka yang secara langsung menantang OpenAI dan Google dalam hal kemampuan penalaran.

DeepSeek-V3.2 untuk pertama kalinya mengintegrasikan “pemikiran” secara langsung dalam penggunaan alat. Ia dapat bernalar secara internal sambil melakukan pencarian web, mengoperasikan kalkulator, atau menulis kode.

Sistem ini bekerja dalam dua mode:

  1. Dengan penalaran yang terlihat (mirip dengan penalaran yang terlihat di ChatGPT dan sejenisnya).
  2. Atau tanpa penalaran sama sekali.

Rangkaian pemikiran tetap ada di antara panggilan ke alat dan hanya dimulai kembali ketika pengguna mengirim pesan baru.

Para peneliti telah mengembangkan ‘DeepSeek Sparse Attention (DSA)’, sebuah arsitektur yang sangat mengurangi biaya komputasi untuk memproses konteks yang panjang.

Model ini mempertahankan 671 miliar parameter total tetapi hanya mengaktifkan 37 miliar per token.

DSA memangkas biaya inferensi dalam konteks panjang sekitar 50% dibandingkan dengan arsitektur padat sebelumnya. Sistem ini memproses jendela konteks 128.000 token dalam produksi.

Pelatihan penguatan telah menghabiskan lebih dari 10% dari total komputasi prapelatihan. Tim ini telah menghasilkan lebih dari 1.800 lingkungan sintetis dan 85.000 tugas untuk melatih kemampuan agen.

DeepSeek-V3.2-Speciale telah meraih medali emas di Olimpiade Matematika Internasional 2025, Olimpiade Informatika Internasional 2025, final dunia ICPC 2025, dan Olimpiade Matematika Tiongkok 2025.

Kedua model tersebut sudah tersedia.

  • V3.2 berfungsi di aplikasi, web, dan API.
  • V3.2-Speciale hanya melalui API, setidaknya untuk saat ini.

DeepSeek telah menerbitkan bobot lengkap dan laporan teknis dari proses pelatihan. Transparansi ini kontras dengan apa yang biasanya dilakukan oleh perusahaan teknologi besar Amerika. Bahkan mereka yang menawarkan model kode terbuka seperti Llama, dengan tanda bintang.

Startup Tiongkok ini ingin menunjukkan bahwa sistem kode terbuka dapat bersaing dengan model berpemilik yang lebih canggih. Dan mereka melakukannya sambil terus mengurangi biaya.

Benchmark publik tidak selalu mencerminkan kinerja dalam tugas-tugas dunia nyata. Perbandingan langsung dengan GPT-5 atau Gemini-3 Pro bergantung pada metrik spesifik yang mungkin tidak menangkap semua dimensi yang relevan.

Selain itu, integrasi alat dalam mode penalaran masih harus diuji dalam kasus penggunaan kompleks di dunia nyata. Biaya yang lebih rendah tidak begitu penting jika kualitas respons tidak terjaga.