BEIJING - Pengembang kecerdasan buatan (AI) dari China, DeepSeek, menyatakan menghabiskan dana USD294 ribu atau sekitar Rp4,87 miliar untuk biaya pelatihan model R1. Angka itu jauh lebih rendah dibandingkan para pesaingnya di Amerika Serikat (AS).
Informasi ini sebagaimana termuat dalam jurnal akademik Nature yang diterbitkan pada Rabu (17/9/2025). Artikel itu juga mencantumkan pendiri DeepSeek, Liang Wenfeng, sebagai salah satu penulis pendamping.
Dalam artikel itu dilaporkan model R1 DeepSeek yang berfokus pada penalaran menghabiskan biaya pelatihan sebesar USD294 ribu dan menggunakan 512 chip Nvidia H800. Versi artikel sebelumnya yang diterbitkan pada Januari tidak memuat informasi ini.
CEO raksasa AI AS, OpenAI, Sam Altman mengatakan pada 2023, "pelatihan model dasar" telah menelan biaya "jauh lebih besar" dari USD100 juta. Namun, perusahaannya belum memberikan angka detail untuk rilis apa pun.
Biaya pelatihan untuk model berbahasa besar yang mendukung chatbot AI mengacu pada biaya yang dikeluarkan untuk menjalankan sekumpulan chip canggih selama berminggu-minggu atau berbulan-bulan untuk memproses teks dan kode dalam jumlah besar.
Beberapa pernyataan Deepseek tentang biaya pengembangan dan teknologi yang digunakannya telah dipertanyakan perusahaan dan pejabat AS.
Chip H800 yang disebutkan dirancang Nvidia untuk pasar China setelah AS pada Oktober 2022 melarang perusahaan tersebut mengekspor chip AI H100 dan A100 yang lebih canggih ke China.
Para pejabat AS mengatakan kepada Reuters pada Juni bahwa DeepSeek memiliki akses ke "sejumlah besar" chip H100 yang diperoleh setelah kontrol ekspor AS diterapkan.
Nvidia mengatakan saat itu DeepSeek telah menggunakan chip H800 yang diperoleh secara sah, bukan H100.
Dalam dokumen informasi tambahan yang menyertai artikel Nature, perusahaan tersebut untuk pertama kalinya mengakui, mereka memiliki chip A100. Perusahaan mengatakan telah menggunakannya dalam tahap persiapan pengembangan.
"Mengenai penelitian kami tentang DeepSeek-R1, kami menggunakan GPU A100 untuk mempersiapkan eksperimen dengan model yang lebih kecil," tulis para peneliti.
Setelah fase awal ini, R1 dilatih selama total 80 jam pada kluster 512 chip H800.
(Erha Aprili Ramadhoni)