JAKARTA - Industri kecerdasan buatan (AI) dunia kembali dikejutkan dengan klaim terbaru dari perusahaan asal China, DeepSeek. Melalui publikasi di jurnal akademik bergengsi Nature, perusahaan ini mengungkap bahwa biaya melatih model andalan mereka, DeepSeek R1, hanya menghabiskan sekitar Rp 4,8 miliar.
Angka ini jauh lebih rendah dibandingkan biaya yang dikeluarkan oleh pemain besar lain seperti OpenAI dalam mengembangkan ChatGPT.
Temuan ini memicu perbincangan luas di kalangan peneliti, investor, hingga regulator. Pasalnya, selama ini pelatihan large language model (LLM) identik dengan kebutuhan dana fantastis. CEO OpenAI Sam Altman, misalnya, pernah menyebut biaya melatih model di balik ChatGPT menelan lebih dari USD 100 juta atau setara Rp 1,6 triliun pada 2023. Jika dibandingkan, klaim DeepSeek tampak luar biasa karena hanya menggunakan sebagian kecil dari biaya tersebut.
Publikasi di Jurnal Nature
Artikel ilmiah yang dipublikasikan di Nature itu mencantumkan CEO sekaligus pendiri DeepSeek, Liang Wenfeng, sebagai salah satu penulis. Dalam laporan tersebut, dijelaskan bahwa pelatihan DeepSeek R1 memanfaatkan 512 unit chip Nvidia H800. Informasi ini sebelumnya belum diungkap dalam artikel awal yang terbit Januari 2025.
Selain soal biaya, publikasi ini mempertegas posisi DeepSeek sebagai salah satu pemain penting dalam perlombaan AI global. Dengan strategi riset yang efisien, mereka mampu menekan anggaran tanpa mengorbankan kualitas hasil. Klaim inilah yang menimbulkan rasa penasaran sekaligus skeptisisme di luar China.
Efisiensi Biaya Latih Model
Melatih model AI berskala besar membutuhkan chip grafis berperforma tinggi yang dijalankan selama berbulan-bulan. Proses ini digunakan untuk memproses miliaran kata, kode, hingga data multimodal yang kemudian membentuk kecerdasan sistem. Karena itu, biaya operasional biasanya membengkak hingga ratusan juta dolar.
DeepSeek mengklaim berhasil menekan biaya melalui pemanfaatan chip Nvidia H800. Chip ini merupakan versi khusus untuk pasar China setelah pemerintah Amerika Serikat melarang ekspor GPU kelas atas seperti H100 dan A100. Pelatihan model R1 berlangsung selama sekitar 80 jam menggunakan perangkat keras tersebut.
Dalam dokumen pendukung, perusahaan untuk pertama kalinya mengakui bahwa chip A100 juga digunakan di tahap persiapan. GPU ini dipakai untuk melatih model kecil sebelum skala penuh dijalankan dengan H800.
Skeptisisme dari Amerika Serikat
Meski klaim ini mencuri perhatian, sejumlah pihak di Amerika Serikat meragukan transparansi DeepSeek. Beberapa pejabat menuding perusahaan ini masih memiliki chip H100 dalam jumlah besar yang diperoleh setelah larangan ekspor diberlakukan pada Oktober 2022.
Namun Nvidia menegaskan bahwa chip yang digunakan secara resmi adalah H800, bukan H100. DeepSeek pun menekankan semua perangkat keras yang dipakai dalam proyek R1 didapatkan secara legal. Meski begitu, isu ini tetap menimbulkan tanda tanya di tengah rivalitas teknologi antara AS dan China.
Perbandingan dengan Pesaing
Jika dibandingkan, perbedaan biaya antara DeepSeek dan OpenAI benar-benar mencolok. OpenAI mengandalkan ribuan chip kelas atas dan infrastruktur data center berteknologi tinggi untuk melatih model GPT. Tak heran jika biaya pengembangannya melampaui Rp 1 triliun.
Sebaliknya, DeepSeek berusaha menampilkan diri sebagai pemain yang lebih efisien. Dengan menghabiskan hanya Rp 4,8 miliar, mereka mencoba menunjukkan bahwa inovasi teknologi bisa dicapai tanpa harus menguras dana sebesar raksasa industri. Langkah ini berpotensi mengubah persepsi global tentang standar biaya pelatihan AI.
Dampak terhadap Persaingan AI
Klaim DeepSeek tentu memberi sinyal baru dalam kompetisi AI. Jika benar, efisiensi biaya ini bisa mendorong lebih banyak pemain baru masuk ke industri. Negara berkembang maupun perusahaan rintisan tak lagi harus terbebani anggaran fantastis hanya untuk melatih model bahasa berskala besar.
Namun di sisi lain, keberhasilan DeepSeek juga memunculkan kekhawatiran geopolitik. Amerika Serikat terus berusaha membatasi akses China terhadap chip canggih, khawatir teknologi tersebut digunakan di luar tujuan komersial. Karena itu, pencapaian DeepSeek bisa memperlebar jurang persaingan antara dua kekuatan ekonomi dunia ini.
Catatan Penting
Klaim yang disampaikan DeepSeek hingga kini masih dalam tahap verifikasi publik dan pengawasan ketat. Skeptisisme muncul bukan hanya karena angka biaya yang jauh berbeda, tetapi juga karena keterlibatan chip yang masuk daftar pembatasan ekspor.
Walau begitu, langkah DeepSeek menunjukkan bahwa riset efisien bukan mustahil. Publikasi di jurnal internasional bereputasi memperkuat kredibilitas mereka, setidaknya dari sisi akademik. Jika terbukti benar, pencapaian ini bisa menjadi titik balik dalam industri AI, membuka jalan bagi pendekatan baru yang lebih hemat biaya.
Di tengah mahalnya biaya pelatihan model bahasa besar, DeepSeek hadir dengan klaim menekan pengeluaran hanya Rp 4,8 miliar untuk melatih model R1. Dengan memanfaatkan chip Nvidia H800 dan strategi pelatihan bertahap, mereka berhasil memicu perdebatan global mengenai masa depan riset AI.
Apakah ini akan menjadi model baru efisiensi di bidang kecerdasan buatan, atau sekadar klaim yang sulit dibuktikan? Jawaban pastinya masih menunggu waktu. Yang jelas, langkah DeepSeek sudah menambah warna dalam persaingan AI global yang kian ketat.