Senin, 29 April 2024
Rezza Dwi Rachmanta : Senin, 01 Mei 2023 | 13:32 WIB

Aktifkan Notifikasimu

Jadilah yang pertama menerima update berita penting dan informasi menarik lainnya.

Hitekno.com - Analis memperkirakan bahwa chatbot dari OpenAI, ChatGPT menelan biaya operasional yang sangat mahal. Tak tanggung-tanggung, biaya per harinya mencapai 700 ribu dolar AS atau Rp 10,3 miliar (kurs: Rp 14.664).

Biaya server hingga teknologi artificial intelligence atau kecerdasan buatan memang tak murah.

Berdasarkan data riset dari UBS beberapa waktu lalu, jumlah pengguna ChatGPT menembus 100 juta pada Januari 2023.

Jumlah pengguna yang dimaksud adalah jumlah pengguna aktif bulanan. Pada bulan yang sama, jumlah pengguna harian mencapai 13 juta kunjungan.

Seorang analis dari SemiAnalysis, Dylan Patel, berhasil mengungkap biaya operasional yang harus dikeluarkan ChatGPT.

Ilustrasi AI (Artificial Intelligence) atau kecerdasan buatan. (Pixabay/ Geralt)

Menurut Patel, biaya operasional ChatGPT dalam sehari membutuhkan sekitar USD 700 ribu atau setara Rp 10,3 miliar.

Jika di-breakdown lebih jauh, ini artinya, dalam satu kueri atau satu tugas yang diperintahkan ke ChatGPT, biaya dapat mencapai sekitar 36 sen atau Rp 1.053.

Memang harga ini sangat mahal. Tidak heran jika Microsoft memutuskan untuk mengembangkan chip AI sendiri untuk menekan biaya operasional mesin canggih tersebut.

Padahal aplikasi chat berbasis AI itu telah menjadi platfom dengan pertumbuhan trafik tercepat tahun ini.

Jika banyak aplikasi yang butuh waktu bertahun-tahun untuk bisa mencapai 100 juta pengguna aktif per bulan, aplikasi ini hanya butuh beberapa bulan saja. Rekor ini diraihnya pada Januari 2023.

Namun sayang, kala itu server pun tidak mampu menampung trafik yang besar sehingga layanannya melambat. Perusahaan mengambil langkah cepat dengan memperkenalkan versi Plus berbayar.

Biaya berlangganan menjadi USD 20 per bulan. Sayang, belum ada informasi detail terkait dengan berapa banyak pengguna yang berlangganan opsi berbayar.

Biaya Operasional ChatGPT

Dikutip dari Gadgetdiva.id (jaringan Suara.com), OpenAI saat ini menggunakan GPU Nvidia untuk mempertahankan layanannya. Bukan hanya untuk ChatGPT, tetapi juga merek-merek yang bermitra dengannya.

Analis industri memperkirakan OpenAI kemungkinan akan membutuhkan sekira 30.000 GPU tambahan dari Nvidia untuk mempertahankan kinerja komersialnya sampai akhir 2023 saja.

Dengan Microsoft sebagai salah satu kolaborator dan investor utamanya, OpenAI mungkin akan bekerja sama dengan brand teknologi untuk membantu mengembangkan perangkat keras guna menurunkan biaya operasional. Menurut Windows Central, Microsoft sudah memiliki chip AI ini.

Dengan nama kode Athena, saat ini sedang diuji secara internal oleh tim Microsoft. Chip tersebut diharapkan akan diperkenalkan tahun depan untuk layanan Microsoft Azure AI.

Tidak ada kabar tentang bagaimana atau kapan chip akan didistribusikan ke OpenAI dan ChatGPT. Namun fakta yang tidak dipungkiri adalah ChatGPT didukung layanan Azure. Chip AI mungkin tidak sepenuhnya menggantikan GPU Nvidia, tetapi dapat membantu mengurangi permintaan perangkat keras, sehingga mengurangi biaya mengoperasikan ChatGPT.

BACA SELANJUTNYA

Apa itu Google Gemini? Teknologi AI Pesaing ChatGPT