|

8 Model Grok Versi Lama xAI Pensiun pada 15 Mei: Panduan Migrasi grok-4.3 dan 5 Perubahan Biaya

Pengumuman resmi dari xAI baru saja dirilis, 8 model Grok versi lama akan resmi dipensiunkan pada 15 Mei 2026 pukul 12:00 PT. Permintaan akan secara otomatis dialihkan ke grok-4.3, namun penagihan akan mengikuti harga model baru. Artikel ini mengulas dampak nyata dari perubahan ini bagi pengembang AI dan pengguna korporat.

Nilai Utama: Pahami dalam 3 menit daftar model Grok yang dipensiunkan, aturan pengalihan, perubahan biaya, serta cara mengubah kode pemanggilan di bawah strategi sinkronisasi APIYI.

xai-grok-models-retirement-may-15-grok-4-3-migration-guide-id 图示

Sekilas Informasi Utama Pensiunnya Model Grok

xAI telah memberikan garis waktu dan cakupan dampak yang jelas dalam dokumentasi migrasi mereka. Pemensiunan ini bukan sekadar pembersihan model yang jarang digunakan, melainkan mencakup model reasoning, non-reasoning, kode, dan pembuatan gambar yang menjadi andalan selama enam bulan terakhir. Bagi tim yang sangat bergantung pada slug ini dalam lingkungan produksi, 15 Mei adalah tenggat waktu mutlak untuk menyelesaikan peralihan kode.

Informasi Detail
Tanggal Rilis 15-05-2026 12:00 PT
Penerbit xAI Resmi (docs.x.ai)
Jumlah Model Pensiun 8 Model
Target Pengalihan grok-4.3 / grok-imagine-image-quality
Harga Model Baru $1,25 / 1M input, $2,50 / 1M output
Jendela Konteks 1.000.000 token
Sumber Data docs.x.ai/developers/migration/may-15-retirement

Penjelasan Daftar Pensiun Model Grok

8 model yang akan dihentikan mencakup 4 kategori beban kerja utama: seri fast-reasoning (termasuk grok-4-1-fast-reasoning, grok-4-fast-reasoning) untuk inferensi throughput tinggi; seri fast-non-reasoning (termasuk grok-4-1-fast-non-reasoning, grok-4-fast-non-reasoning) untuk percakapan latensi rendah; grok-4-0709 dan grok-3 sebagai model umum unggulan awal; serta grok-code-fast-1 dan grok-imagine-image-pro yang masing-masing mencakup pembuatan kode dan pembuatan gambar.

Slug Model Kategori Penggunaan Umum Target Pengalihan
grok-4-1-fast-reasoning reasoning Inferensi throughput tinggi grok-4.3 (low effort)
grok-4-1-fast-non-reasoning non-reasoning Percakapan latensi rendah grok-4.3 (none effort)
grok-4-fast-reasoning reasoning Inferensi cepat grok-4.3 (low effort)
grok-4-fast-non-reasoning non-reasoning Tanya jawab real-time grok-4.3 (none effort)
grok-4-0709 reasoning Unggulan umum grok-4.3 (low effort)
grok-code-fast-1 coding Pengodean cerdas grok-4.3 (low effort)
grok-3 non-reasoning Lingkungan produksi jangka panjang grok-4.3 (none effort)
grok-imagine-image-pro image Gambar berkualitas tinggi grok-imagine-image-quality

Menurut dokumentasi resmi, semua model kategori reasoning akan dilayani oleh grok-4.3 dengan low reasoning effort, sementara semua model non-reasoning akan diubah menjadi none effort untuk memastikan latensi tetap sedekat mungkin dengan model aslinya. Permintaan pembuatan gambar akan dialihkan sepenuhnya ke grok-imagine-image-quality.

Analisis Aturan Pengalihan (Redirect) Pensiunnya Model Grok

Setelah pukul 12:00 PT tanggal 15 Mei, slug lama tidak akan langsung mengembalikan status 404, melainkan akan dialihkan secara otomatis oleh gateway ke grok-4.3. "Transisi mulus" ini sangat ramah terhadap kompatibilitas, namun juga menjadi jebakan biaya yang tersembunyi—banyak tim mengira "permintaan berhasil berarti aman", padahal mereka baru menyadari di tagihan akhir bulan bahwa harga satuan telah naik secara diam-diam.

xai-grok-models-retirement-may-15-grok-4-3-migration-guide-id 图示

Perubahan Perilaku Reasoning pada Pensiunnya Model Grok

Perbedaan terbesar antara grok-4.3 dan seri fast-reasoning lama terletak pada desain "always-on reasoning". Grok-4.3 mengubah penalaran (chain-of-thought) dari sakelar opsional menjadi perilaku standar model. Pengembang dapat memilih tingkat intensitas penalaran low, medium, atau high, tanpa opsi untuk mematikan penalaran sepenuhnya. Model fast-non-reasoning lama langsung melewati proses penalaran, sedangkan none effort setelah pengalihan akan membuat grok-4.3 mensimulasikan pengalaman "jawaban langsung" yang lama, namun dalam alur kerja sebenarnya, model ini tetap akan mengonsumsi sejumlah kecil token penalaran internal.

Perlu dicatat bahwa xAI kali ini tidak menyediakan "parameter mode kompatibilitas" di tingkat SDK. Artinya, kode yang secara kaku menulis model="grok-4-fast-reasoning" mungkin tetap berfungsi, tetapi tidak dapat mengontrol intensitas penalaran secara presisi. Jika bisnis Anda sensitif terhadap latensi dan konsistensi, Anda wajib menyertakan kolom reasoning_effort secara eksplisit. Jika tidak, Anda hanya akan mendapatkan tingkat default dan tidak dapat mereplikasi kurva perilaku model lama.

Untuk aplikasi real-time yang mengejar kecepatan respons ekstrem, kami menyarankan untuk menguji perbedaan latensi dari kedua effort tersebut menggunakan APIYI (apiyi.com) sebelum memutuskan apakah akan menyesuaikan desain petunjuk di sisi bisnis. Setelah beralih ke antarmuka terpadu, kode yang sama dapat digunakan untuk membandingkan throughput dan latensi time-to-first-token dari berbagai reasoning effort dengan cepat tanpa perlu mengubah parameter tambahan.

Perubahan Model Gambar pada Pensiunnya Model Grok

grok-imagine-image-pro adalah model pembuatan gambar yang diunggulkan oleh xAI selama setengah tahun terakhir, dengan fokus pada hasil gambar beresolusi tinggi. Dengan beralih ke grok-imagine-image-quality, model baru ini memiliki optimasi lebih lanjut pada detail gambar dan kepatuhan terhadap petunjuk, namun karakteristik biaya per gambar dan latensi juga mengalami perubahan.

🎯 Saran Migrasi: Kami menyarankan proyek yang saat ini menggunakan grok-imagine-image-pro untuk segera melakukan pengujian regresi pada petunjuk yang sering digunakan di lingkungan sandbox. Bandingkan perbedaan visual, kecepatan pembuatan, dan perubahan biaya per gambar antara model baru dan lama untuk menghindari peralihan paksa di sisi bisnis.

Analisis Dampak Biaya Pensiunnya Model Grok

Perubahan biaya adalah poin krusial yang sering diremehkan dalam pengumuman pensiun model ini. Harga seragam untuk grok-4.3 adalah $1,25/1 juta token input dan $2,50/1 juta token output. Bagi tim yang sudah menggunakan grok-4-0709 atau grok-3, perubahan ini mungkin tidak terlalu terasa. Namun, bagi proyek yang mengandalkan slug berbiaya rendah seperti fast-reasoning, fast-non-reasoning, dan grok-code-fast-1, harga per unit akan mengalami kenaikan yang signifikan.

xai-grok-models-retirement-may-15-grok-4-3-migration-guide-id 图示

5 Perubahan Biaya Utama Akibat Pensiunnya Model Grok

Tabel di bawah ini merangkum 5 poin perubahan biaya yang paling mungkin berdampak setelah 15 Mei. Kami sarankan untuk melakukan pengecekan mandiri sebelum melakukan migrasi.

Poin Perubahan Biaya Performa Model Lama Performa grok-4.3 Tingkat Risiko
Harga Unit Input Seri fast umumnya < $0,5/1M Seragam $1,25/1M Tinggi
Harga Unit Output grok-code-fast-1 hanya $1,50/1M Seragam $2,50/1M Tinggi
Penagihan token penalaran Beberapa model tidak dihitung Token penalaran dihitung seharga output Sedang
Jendela konteks 256K~512K 1M dihitung penuh Sedang
Cache & pemanggilan alat Strategi harga tersebar 0,20/1M prompt cache + biaya per pemanggilan Rendah

Perlu diingat bahwa grok-4.3 secara default mengaktifkan penalaran (always-on reasoning). Bahkan jika Anda memilih low effort, setiap permintaan akan mengonsumsi token penalaran lebih banyak dibandingkan model fast-non-reasoning lama. Bagian ini akan ditagih sesuai harga output, yang merupakan "kenaikan tersembunyi" yang paling mudah terlewatkan dalam tagihan bulanan. Dalam pengujian internal, kami mengamati bahwa untuk kelompok prompt tanya jawab singkat yang sama, setelah beralih ke grok-4.3 (low effort), jumlah token output rata-rata meningkat 20%~35%. Ini berarti meskipun harga per unit terlihat sama, tagihan bulanan akan tetap membengkak secara alami.

Sebagai contoh, pada skenario Agent layanan pelanggan dengan 1 juta panggilan per hari, masing-masing 800 input + 400 output token, biaya bulanan menggunakan grok-4-fast-non-reasoning adalah sekitar $4.000. Jika beban yang sama dialihkan ke grok-4.3, biaya bulanan berdasarkan harga resmi akan naik menjadi sekitar $13.500. Ditambah dengan peningkatan token penalaran, tagihan aktual bisa mendekati $17.000. Perbedaan skala ini cukup besar bagi tim operasional dan keuangan untuk melakukan peninjauan anggaran secara formal di bulan Mei.

Biaya lain yang sering diremehkan adalah beban kerja modifikasi prompt. Perilaku penalaran grok-4.3 cenderung "memberikan jawaban setelah melakukan langkah-langkah deduksi". Template prompt yang dioptimalkan untuk grok-3 di masa lalu mungkin akan menghasilkan "output yang bertele-tele dan tidak ada kesimpulan di paragraf pertama". Untuk mengembalikan gaya respons "jawaban langsung + kesimpulan singkat" seperti model lama, Anda harus menggunakan system prompt untuk membatasi struktur output secara eksplisit atau mengatur reasoning effort ke none. Keduanya akan memerlukan jam kerja tambahan untuk pengujian regresi dan iterasi pustaka prompt.

💰 Kontrol Biaya: Kami menyarankan selama tahap migrasi, gunakan panel log permintaan APIYI (apiyi.com) untuk memantau penggunaan token berdasarkan slug model. Gabungkan dengan analisis skenario aktual untuk menentukan apakah perlu beralih ke medium effort untuk meningkatkan kualitas, atau mengunci ke none effort untuk mengendalikan biaya.

Analisis Dampak Pensiunnya Model Grok

Dampak bagi Pengembang

Dampak paling langsung dari pensiunnya model-model ini bagi pengembang di lapisan aplikasi adalah bagi pengguna grok-code-fast-1. Sebelumnya, model ini menawarkan rasio harga-performa yang luar biasa dengan skor 80,0% di LiveCodeBench pada harga $0,20/$1,50. Setelah migrasi ke grok-4.3, harga per unit naik dua kali lipat. Tim perlu mengevaluasi kembali anggaran biaya untuk tugas-tugas intensif seperti pelengkapan kode, peninjauan PR, dan orkestrasi agen. Kombinasi "pelengkapan dalam baris + pengambilan konteks panjang" yang sebelumnya berjalan lancar mungkin perlu dipecah menjadi beberapa langkah untuk mengontrol konsumsi token.

Bagi pengguna kerangka kerja Agen, alur yang sebelumnya mengandalkan seri fast untuk pengambilan keputusan pemanggilan alat juga akan terpengaruh. Kemampuan pemanggilan alat grok-4.3 memang lebih kuat, namun latensi karakter pertama sedikit lebih tinggi. Insinyur perlu melakukan penyesuaian ulang pada parameter timeout, retry, dan konkurensi. Kami menyarankan untuk melakukan pengujian regresi terlebih dahulu di lingkungan staging APIYI (apiyi.com) guna memastikan tingkat keberhasilan, distribusi latensi, dan perbedaan alur daring yang ada masih dalam batas yang dapat diterima sebelum melakukan peralihan penuh.

Dampak bagi Pengguna Perusahaan

Fokus utama pengguna perusahaan adalah SLA dan kepatuhan. Peningkatan ke grok-4.3 mencakup semua skenario dari 8 model sebelumnya, yang justru menyederhanakan matriks pemilihan model dan berdampak positif bagi tata kelola perusahaan (registri model, audit, dan kepatuhan keamanan). Namun, dari sisi keuangan, perlu dilakukan peninjauan kembali terhadap anggaran dan aturan potongan harga yang ada, terutama paket token bulanan dan ketentuan diskon komitmen, apakah akan tetap berlaku dengan adanya unifikasi harga. Dari sisi operasional, ambang batas peringatan harus diperbarui untuk menghindari lonjakan tagihan bulan Mei yang tidak terduga tanpa adanya notifikasi.

Untuk skenario pemanggilan lintas model, disarankan untuk mengagregasi model seperti Grok, Claude, dan GPT ke dalam tampilan penagihan terpadu, serta melakukan atribusi biaya berdasarkan departemen atau lini bisnis untuk mengurangi dampak perubahan model yang sering terjadi terhadap kontrol anggaran. Pensiun massal ini juga menjadi pengingat bagi perusahaan bahwa risiko ketergantungan pada satu pemasok tidak hanya soal penghentian layanan, tetapi juga biaya tersembunyi yang muncul akibat "perubahan inti di balik slug yang sama".

Dampak bagi Industri

Keputusan xAI untuk mempensiunkan 8 model sekaligus memberi sinyal bahwa kombinasi "always-on reasoning + 1M context" pada grok-4.3 sudah cukup universal untuk menangani beban kerja penalaran, percakapan, kode, dan pemanggilan alat secara bersamaan. Hal ini sejalan dengan arah Claude dan OpenAI dalam beberapa tahun terakhir yang secara bertahap menyatukan "model penalaran" dan "model instruksi". Ini menunjukkan bahwa komersialisasi Model Bahasa Besar sedang memasuki tahap "satu model unggulan untuk semua", di mana matriks model yang dihadapi pengembang akan lebih ramping, namun batas kemampuan dan elastisitas harga dari setiap model akan diperluas.

Tren lain yang perlu diperhatikan adalah "penalaran aktif secara default + tingkatan effort" yang menjadi standar industri baru. Desain ini mengembalikan pilihan antara latensi dan biaya kepada pengembang, dengan syarat SDK dan platform pemantauan harus mendukung bidang effort secara bawaan. Bagi layanan proksi API dan platform agregasi, manajemen siklus hidup model akan menjadi kemampuan inti yang baru. APIYI (apiyi.com) telah menyinkronkan dokumentasi migrasi model Grok ke konsol produk dan mengirimkan pemberitahuan penghentian untuk slug yang terdampak guna membantu pengembang agar tidak terlewat.

Penjelasan Penghentian Layanan APIYI

Untuk menjaga konsistensi dengan kebijakan resmi xAI dan menghindari kebingungan dalam penagihan, APIYI (apiyi.com) telah menyusun rencana penghentian layanan dan menyediakan jalur transisi yang mulus bagi pengguna yang masih memanggil slug lama. Konsol akan menghitung jumlah panggilan dan persentase biaya untuk setiap slug yang dipensiunkan selama 30 hari terakhir berdasarkan akun, sehingga pimpinan tim memiliki gambaran global yang jelas tentang modul bisnis yang terdampak sebelum melakukan migrasi.

Tahap Waktu Tindakan APIYI
Periode Peringatan Sebelum 15-05-2026 Spanduk peringatan di konsol, notifikasi email ke akun terdampak
Periode Pengalihan Mulai 15-05-2026 12:00 PT Slug lama otomatis diteruskan ke grok-4.3, dan ditandai deprecated di header respons
Penghentian Total Sesuai jadwal xAI Opsi slug lama dihapus dari konsol

Pengembang tidak perlu mengubah base_url, cukup ganti bidang model dalam parameter permintaan menjadi grok-4.3. Jika bisnis Anda memiliki panggilan tipe reasoning dan non-reasoning secara bersamaan, disarankan untuk menambahkan konfigurasi effort pada lapisan enkapsulasi SDK agar lebih mudah dikelola saat pengujian beban dan eksperimen A/B. Contoh panggilan lengkap di bawah ini dapat langsung disalin ke proyek Anda untuk verifikasi.

import openai

client = openai.OpenAI(
    api_key="YOUR_APIYI_KEY",
    base_url="https://api.apiyi.com/v1"
)

response = client.chat.completions.create(
    model="grok-4.3",
    messages=[
        {"role": "user", "content": "Jelaskan always-on reasoning dalam 200 kata"}
    ],
    extra_body={"reasoning_effort": "low"}
)
print(response.choices[0].message.content)
Lihat versi Node.js / TypeScript
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.APIYI_KEY,
  baseURL: "https://api.apiyi.com/v1",
});

const completion = await client.chat.completions.create({
  model: "grok-4.3",
  messages: [{ role: "user", content: "Ringkas poin penting migrasi grok-4.3" }],
  // @ts-expect-error xAI extra field
  reasoning_effort: "low",
});

console.log(completion.choices[0].message.content);

🚀 Saran Migrasi: Sebelum migrasi, kami menyarankan Anda menggunakan panel "Perbandingan Model" di APIYI (apiyi.com) untuk mengirimkan prompt yang sama ke grok-4.3 dan model lama. Bandingkan kualitas respons dan latensi karakter pertama sebelum menentukan tingkat reasoning effort yang akan digunakan.

Pertanyaan Umum

Q1: Apakah slug lama masih bisa digunakan setelah 15 Mei?

Bisa, namun model yang dijalankan secara aktual adalah grok-4.3, dan penagihan akan mengikuti harga baru grok-4.3 sebesar $1.25/$2.50. Kami menyarankan untuk segera memperbarui kolom model di kode Anda menjadi grok-4.3 agar tagihan bulanan Anda tidak mengalami kenaikan yang tidak terduga.

Q2: Apakah grok-code-fast-1 masih cocok untuk pelengkapan kode setelah migrasi?

grok-4.3 memiliki performa yang lebih baik daripada grok-code-fast-1 pada LiveCodeBench dan SWE-bench, dengan kemampuan pengkodean yang lebih kuat secara keseluruhan, namun latensi dan harga per unitnya lebih tinggi. Kami menyarankan untuk melakukan pengujian latensi P95 dan konsumsi token rata-rata per PR menggunakan sampel bisnis nyata sebelum memutuskan apakah model ini masih cocok untuk pelengkapan kode baris demi baris.

Q3: Apakah saya perlu mengajukan kunci API baru di platform APIYI?

Tidak perlu. Kunci APIYI yang lama sudah kompatibel dengan model baru seperti grok-4.3, dan base_url tetap sama. Anda hanya perlu menyesuaikan nama model dalam body permintaan. Daftar lengkap model dan statusnya dapat dilihat di konsol APIYI apiyi.com.

Q4: Apa saja yang perlu diperhatikan saat migrasi model pembuatan gambar grok-imagine-image-pro?

Permintaan akan dialihkan ke grok-imagine-image-quality. Terdapat perbedaan pada gaya gambar, seed sampling, dan parameter default. Kami menyarankan Anda untuk menjalankan petunjuk lama di lingkungan sandbox terlebih dahulu guna memastikan hasilnya stabil sebelum diterapkan ke produksi, agar tidak terjadi perubahan gambar yang mendadak pada sisi bisnis Anda.

Kesimpulan

xAI telah mempensiunkan 8 model utama termasuk fast-reasoning, fast-non-reasoning, grok-code-fast-1, grok-3, dan grok-imagine-image-pro. Mulai 15 Mei pukul 12:00 PT, semua akan dialihkan ke grok-4.3 dan grok-imagine-image-quality. Migrasi ini sendiri tidak memerlukan upaya teknis yang besar, namun perubahan harga satuan dan penagihan token reasoning berdampak signifikan pada bisnis yang sensitif terhadap biaya. Kami menyarankan untuk memprioritaskan tiga hal: memperbarui kolom model di kode produksi menjadi grok-4.3, menyertakan reasoning_effort secara eksplisit untuk mengontrol latensi dan biaya, serta melakukan perhitungan biaya end-to-end dengan sampel bisnis nyata.

Saran kami adalah menjadikan peningkatan model ini sebagai kesempatan untuk melakukan tata kelola: jalankan perbandingan latensi dan biaya antara berbagai model seperti grok-4.3, Claude, dan GPT di APIYI apiyi.com. Ubahlah strategi pemilihan model dari "mengikuti ritme penyedia" menjadi "memilih berdasarkan metrik bisnis". Dalam jangka panjang, cara ini akan lebih stabil dan memungkinkan Anda menekan biaya peralihan hingga hitungan jam saja saat pengumuman pensiun model serupa muncul di masa depan.


Penulis: Tim APIYI — APIYI apiyi.com, layanan proksi API Model Bahasa Besar tingkat perusahaan, mendukung integrasi terpadu untuk model utama seperti Grok, Claude, GPT, dan Gemini.

Similar Posts