3 Penyebab Utama Galat thinking_level not supported pada Gemini 2.5 Flash

Muncul error Thinking level is not supported for this model saat memanggil gemini-2.5-flash, tapi normal-normal saja saat ganti ke gemini-3-flash-preview? Ini karena adanya perubahan desain parameter yang diperkenalkan Google Gemini API dalam pembaruan generasinya. Artikel ini akan mengupas tuntas perbedaan mendasar dukungan parameter mode berpikir antara Gemini 2.5 dan 3.0.

Nilai Utama: Setelah membaca artikel ini, Anda akan memahami perbedaan esensial desain parameter mode berpikir pada seri Gemini 2.5 dan 3.0, menguasai cara konfigurasi parameter yang benar, dan menghindari kegagalan pemanggilan API akibat pencampuran parameter.

gemini-2-5-flash-thinking-level-not-supported-id 图示

Poin Inti Evolusi Parameter Mode Berpikir Gemini

Seri Model Parameter Didukung Tipe Parameter Rentang Tersedia Nilai Default Dapat Dinonaktifkan?
Gemini 2.5 Pro thinking_budget Integer (128-32768) Anggaran token presisi 8192 ❌ Tidak dapat dinonaktifkan
Gemini 2.5 Flash thinking_budget Integer (0-24576) atau -1 Anggaran token presisi atau dinamis -1 (Dinamis) ✅ Dapat dinonaktifkan (set ke 0)
Gemini 2.5 Flash-Lite thinking_budget Integer (512-24576) Anggaran token presisi 0 (Nonaktif) ✅ Nonaktif secara default
Gemini 3.0 Pro thinking_level Enum ("low"/"high") Level semantik "high" ❌ Tidak dapat dinonaktifkan sepenuhnya
Gemini 3.0 Flash thinking_level Enum ("minimal" s/d "high") Level semantik "high" ⚠️ Hanya "minimal"

Perbedaan Desain Parameter Mode Berpikir Gemini 2.5 vs 3.0

Perbedaan Utama: Seri Gemini 2.5 menggunakan thinking_budget (sistem anggaran token), sedangkan seri Gemini 3.0 menggunakan thinking_level (sistem level semantik). Kedua parameter ini sama sekali tidak kompatibel. Jika Anda menggunakan parameter yang salah pada versi model tertentu, akan muncul error 400 Bad Request.

Alasan utama Google memperkenalkan thinking_level di Gemini 3.0 adalah untuk menyederhanakan kompleksitas konfigurasi dan meningkatkan efisiensi inferensi. Sistem anggaran token di Gemini 2.5 mengharuskan developer memperkirakan jumlah token berpikir secara presisi. Sementara itu, sistem level di Gemini 3.0 merangkum kompleksitas tersebut ke dalam 4 level semantik, di mana model secara otomatis mengalokasikan anggaran token optimal secara internal, sehingga mampu mencapai peningkatan kecepatan inferensi hingga 2 kali lipat.

💡 Saran Teknis: Dalam pengembangan nyata, kami menyarankan untuk melakukan pengujian perpindahan model melalui platform APIYI apiyi.com. Platform ini menyediakan antarmuka API terpadu yang mendukung seluruh seri model Gemini 2.5 dan 3.0, memudahkan Anda memvalidasi kompatibilitas parameter mode berpikir serta hasil nyatanya dengan cepat.

Penyebab Utama 1: Seri Gemini 2.5 Tidak Mendukung Parameter thinking_level

Isolasi Antargenerasi dalam Desain Parameter API

Model seri Gemini 2.5 (termasuk Pro, Flash, Flash-Lite) sama sekali tidak mengenali parameter thinking_level dalam desain API-nya. Saat Anda memanggil gemini-2.5-flash dan mengirimkan parameter thinking_level, API akan mengembalikan kesalahan berikut:

{
  "error": {
    "message": "Thinking level is not supported for this model.",
    "type": "upstream_error",
    "code": 400
  }
}

Mekanisme Pemicu Kesalahan:

  • Lapisan validasi API model Gemini 2.5 tidak menyertakan definisi parameter thinking_level.
  • Setiap permintaan yang berisi thinking_level akan langsung ditolak, tanpa mencoba memetakan ke thinking_budget.
  • Ini adalah isolasi parameter yang bersifat hard-coded, tidak ada konversi otomatis atau kompatibilitas mundur (backward compatibility).

Parameter yang Benar untuk Seri Gemini 2.5: thinking_budget

Spesifikasi Parameter Gemini 2.5 Flash:

# Contoh konfigurasi yang benar
extra_body = {
    "thinking_budget": -1  # Mode berpikir dinamis
}

# Atau menonaktifkan pemikiran
extra_body = {
    "thinking_budget": 0  # Nonaktifkan sepenuhnya
}

# Atau kontrol presisi
extra_body = {
    "thinking_budget": 2048  # Anggaran presisi 2048 token
}

Rentang Nilai thinking_budget untuk Gemini 2.5 Flash:

Nilai Makna Skenario Rekomendasi
0 Menonaktifkan mode berpikir sepenuhnya Mengikuti instruksi sederhana, aplikasi dengan throughput tinggi
-1 Mode berpikir dinamis (maksimal 8192 token) Skenario umum, beradaptasi otomatis dengan kompleksitas
512-24576 Anggaran token yang presisi Aplikasi yang sensitif terhadap biaya, membutuhkan kontrol presisi

gemini-2-5-flash-thinking-level-not-supported-id 图示

🎯 Saran Pemilihan: Saat beralih ke Gemini 2.5 Flash, disarankan untuk menguji pengaruh berbagai nilai parameter thinking_budget terhadap kualitas respons dan latensi melalui platform APIYI (apiyi.com). Platform ini mendukung penggantian konfigurasi parameter dengan cepat, sehingga memudahkan pencarian nilai anggaran yang paling sesuai untuk skenario bisnis Anda.

Penyebab Utama 2: Seri Gemini 3.0 Tidak Mendukung Parameter thinking_budget

Ketidakcocokan Maju dalam Desain Parameter

Meskipun dokumentasi resmi Google menyatakan bahwa Gemini 3.0 tetap menerima parameter thinking_budget demi kompatibilitas mundur, pengujian aktual menunjukkan:

  • Penggunaan thinking_budget dapat menyebabkan penurunan performa
  • Dokumentasi resmi secara eksplisit menyarankan penggunaan thinking_level
  • Beberapa implementasi API mungkin menolak thinking_budget sepenuhnya

Parameter yang Benar untuk Gemini 3.0 Flash: thinking_level

# Contoh konfigurasi yang benar
extra_body = {
    "thinking_level": "medium"  # Penalaran tingkat menengah
}

# Atau pemikiran minimal (mendekati nonaktif)
extra_body = {
    "thinking_level": "minimal"  # Mode pemikiran minimal
}

# Atau penalaran intensitas tinggi (default)
extra_body = {
    "thinking_level": "high"  # Penalaran mendalam
}

Penjelasan Tingkat thinking_level pada Gemini 3.0 Flash:

Tingkat Intensitas Penalaran Latensi Biaya Skenario Rekomendasi
"minimal" Hampir tanpa penalaran Terendah Terendah Mengikuti instruksi sederhana, throughput tinggi
"low" Penalaran dangkal Rendah Rendah Chatbot, Tanya Jawab (QA) ringan
"medium" Penalaran menengah Menengah Menengah Tugas penalaran umum, pembuatan kode
"high" Penalaran mendalam Tinggi Tinggi Penyelesaian masalah kompleks, analisis mendalam (default)

Batasan Khusus Gemini 3.0 Pro

Penting: Gemini 3.0 Pro tidak mendukung penonaktifan mode berpikir sepenuhnya, bahkan jika diatur ke thinking_level: "low", model ini tetap mempertahankan kemampuan penalaran tertentu. Jika Anda memerlukan respons tanpa pemikiran (zero-thinking) untuk mendapatkan kecepatan maksimal, satu-satunya cara adalah menggunakan Gemini 2.5 Flash dengan thinking_budget: 0.

# Tingkat yang tersedia untuk Gemini 3.0 Pro (hanya 2 jenis)
extra_body = {
    "thinking_level": "low"   # Tingkat terendah (tetap ada penalaran)
}

# Atau
extra_body = {
    "thinking_level": "high"  # Penalaran intensitas tinggi default
}

💰 Optimasi Biaya: Untuk proyek yang sensitif terhadap anggaran, jika Anda perlu menonaktifkan mode berpikir sepenuhnya guna menekan biaya, disarankan untuk memanggil API Gemini 2.5 Flash melalui platform APIYI (apiyi.com). Platform ini menyediakan metode penagihan yang fleksibel dan harga yang lebih kompetitif, cocok untuk skenario yang membutuhkan kontrol biaya yang presisi.

Akar Masalah 3: Batasan Parameter pada Model Gambar dan Varian Khusus

Model Gemini 2.5 Flash Image Tidak Mendukung Mode Berpikir (Thinking Mode)

Temuan Penting: Model visual seperti gemini-2.5-flash-image sama sekali tidak mendukung parameter mode berpikir apa pun, baik itu thinking_budget maupun thinking_level.

Contoh Salah:

# Saat memanggil gemini-2.5-flash-image
response = client.chat.completions.create(
    model="gemini-2.5-flash-image",
    messages=[{"role": "user", "content": "Analisis gambar ini"}],
    extra_body={
        "thinking_budget": -1  # ❌ Salah: Model gambar tidak mendukung ini
    }
)
# Mengembalikan error: "This model doesn't support thinking"

Cara yang Benar:

# Saat memanggil model gambar, jangan kirimkan parameter thinking apa pun
response = client.chat.completions.create(
    model="gemini-2.5-flash-image",
    messages=[{"role": "user", "content": "Analisis gambar ini"}],
    # ✅ Jangan mengirimkan thinking_budget atau thinking_level
)

Nilai Default Khusus untuk Gemini 2.5 Flash-Lite

Perbedaan utama antara Gemini 2.5 Flash-Lite dengan versi Flash standar:

  • Mode berpikir dinonaktifkan secara default (thinking_budget: 0)
  • Perlu mengatur thinking_budget secara eksplisit ke nilai non-nol untuk mengaktifkan mode berpikir
  • Rentang budget yang didukung: 512-24576 token
# Mengaktifkan mode berpikir pada Gemini 2.5 Flash-Lite
extra_body = {
    "thinking_budget": 512  # Nilai non-nol terkecil, mengaktifkan pemikiran ringan
}

gemini-2-5-flash-thinking-level-not-supported-id 图示

Model thinking_budget thinking_level Dukungan Gambar Status Default Thinking
gemini-2.5-pro ✅ Mendukung (128-32768) ❌ Tidak Mendukung Aktif secara default (8192)
gemini-2.5-flash ✅ Mendukung (0-24576, -1) ❌ Tidak Mendukung Aktif secara default (Dinamis)
gemini-2.5-flash-lite ✅ Mendukung (512-24576) ❌ Tidak Mendukung Nonaktif secara default (0)
gemini-2.5-flash-image ❌ Tidak Mendukung ❌ Tidak Mendukung Tanpa mode berpikir
gemini-3.0-pro ⚠️ Kompatibel tapi tidak direkomendasikan ✅ Direkomendasikan (low/high) Default: high
gemini-3.0-flash ⚠️ Kompatibel tapi tidak direkomendasikan ✅ Direkomendasikan (minimal/low/medium/high) Default: high

🚀 Mulai Cepat: Direkomendasikan untuk menggunakan platform APIYI (apiyi.com) untuk menguji kompatibilitas parameter thinking di berbagai model dengan cepat. Platform ini menyediakan antarmuka seri lengkap model Gemini yang siap pakai tanpa konfigurasi rumit, sehingga integrasi dan verifikasi parameter bisa selesai dalam 5 menit.

Solusi 1: Fungsi Adaptasi Parameter Berbasis Versi Model

Pemilih Parameter Cerdas (Mendukung Seluruh Seri Model)

def get_gemini_thinking_config(model_name: str, intensity: str = "medium") -> dict:
    """
    根据 Gemini 模型名称自动选择正确的思考模式参数

    Args:
        model_name: Gemini 模型名称
        intensity: 思考强度 ("none", "minimal", "low", "medium", "high", "dynamic")

    Returns:
        适用于 extra_body 的参数字典,如果模型不支持思考则返回空字典
    """

    # Gemini 3.0 模型列表
    gemini_3_models = [
        "gemini-3.0-flash-preview", "gemini-3.0-pro-preview",
        "gemini-3-flash", "gemini-3-pro"
    ]

    # Gemini 2.5 标准模型列表
    gemini_2_5_models = [
        "gemini-2.5-flash", "gemini-2.5-pro",
        "gemini-2.5-flash-lite", "gemini-2-flash", "gemini-2-pro"
    ]

    # 图像模型列表 (不支持思考)
    image_models = [
        "gemini-2.5-flash-image", "gemini-flash-image",
        "gemini-pro-vision"
    ]

    # 检查是否为图像模型
    if any(img_model in model_name for img_model in image_models):
        print(f"⚠️ 警告: {model_name} 不支持思考模式参数,返回空配置")
        return {}

    # Gemini 3.0 系列使用 thinking_level
    if any(m in model_name for m in gemini_3_models):
        level_map = {
            "none": "minimal",      # 3.0 无法完全禁用,使用 minimal
            "minimal": "minimal",
            "low": "low",
            "medium": "medium",
            "high": "high",
            "dynamic": "high"
        }

        # Gemini 3.0 Pro 只支持 low 和 high
        if "pro" in model_name.lower():
            if intensity in ["none", "minimal", "low"]:
                return {"thinking_level": "low"}
            else:
                return {"thinking_level": "high"}

        # Gemini 3.0 Flash 支持全部 4 个等级
        return {"thinking_level": level_map.get(intensity, "medium")}

    # Gemini 2.5 系列使用 thinking_budget
    elif any(m in model_name for m in gemini_2_5_models):
        budget_map = {
            "none": 0,           # 完全禁用
            "minimal": 512,      # 最小预算
            "low": 2048,         # 低强度
            "medium": 8192,      # 中等强度
            "high": 16384,       # 高强度
            "dynamic": -1        # 动态适配
        }

        budget = budget_map.get(intensity, -1)

        # Gemini 2.5 Pro 不支持禁用 (最小 128)
        if "pro" in model_name.lower() and budget == 0:
            print(f"⚠️ 警告: {model_name} 不支持禁用思考,自动调整为最小值 128")
            budget = 128

        # Gemini 2.5 Flash-Lite 最小值为 512
        if "lite" in model_name.lower() and budget > 0 and budget < 512:
            print(f"⚠️ 警告: {model_name} 最小预算为 512,自动调整")
            budget = 512

        return {"thinking_budget": budget}

    else:
        print(f"⚠️ 警告: 未知模型 {model_name},默认使用 Gemini 3.0 参数")
        return {"thinking_level": "medium"}


# 使用示例
import openai

client = openai.OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://api.apiyi.com/v1"
)

# 测试 Gemini 2.5 Flash
model_2_5 = "gemini-2.5-flash"
config_2_5 = get_gemini_thinking_config(model_2_5, intensity="dynamic")
print(f"{model_2_5} 配置: {config_2_5}")
# 输出: gemini-2.5-flash 配置: {'thinking_budget': -1}

response_2_5 = client.chat.completions.create(
    model=model_2_5,
    messages=[{"role": "user", "content": "解释量子纠缠"}],
    extra_body=config_2_5
)

# 测试 Gemini 3.0 Flash
model_3_0 = "gemini-3.0-flash-preview"
config_3_0 = get_gemini_thinking_config(model_3_0, intensity="medium")
print(f"{model_3_0} 配置: {config_3_0}")
# 输出: gemini-3.0-flash-preview 配置: {'thinking_level': 'medium'}

response_3_0 = client.chat.completions.create(
    model=model_3_0,
    messages=[{"role": "user", "content": "解释量子纠缠"}],
    extra_body=config_3_0
)

# 测试图像模型
model_image = "gemini-2.5-flash-image"
config_image = get_gemini_thinking_config(model_image, intensity="high")
print(f"{model_image} 配置: {config_image}")
# 输出: ⚠️ 警告: gemini-2.5-flash-image 不支持思考模式参数,返回空配置
# 输出: gemini-2.5-flash-image 配置: {}

💡 Praktik Terbaik: Dalam skenario yang membutuhkan peralihan model Gemini secara dinamis, disarankan untuk melakukan pengujian adaptasi parameter melalui platform APIYI apiyi.com. Platform ini mendukung seri model Gemini 2.5 dan 3.0 secara lengkap, sehingga memudahkan kamu memverifikasi kualitas respons dan perbedaan biaya pada berbagai konfigurasi parameter.

Solusi 2: Strategi Migrasi dari Gemini 2.5 ke 3.0

Tabel Perbandingan Migrasi Parameter Mode Berpikir

Konfigurasi Gemini 2.5 Flash Konfigurasi Ekuivalen Gemini 3.0 Flash Perbandingan Latensi Perbandingan Biaya
thinking_budget: 0 thinking_level: "minimal" 3.0 lebih cepat (sekitar 2x) Mirip
thinking_budget: 512 thinking_level: "low" 3.0 lebih cepat Mirip
thinking_budget: 2048 thinking_level: "low" 3.0 lebih cepat Mirip
thinking_budget: 8192 thinking_level: "medium" 3.0 lebih cepat Sedikit lebih tinggi
thinking_budget: 16384 thinking_level: "high" 3.0 lebih cepat Sedikit lebih tinggi
thinking_budget: -1 (Dinamis) thinking_level: "high" (Default) 3.0 jauh lebih cepat 3.0 lebih tinggi

Contoh Kode Migrasi

def migrate_to_gemini_3(old_model: str, old_config: dict) -> tuple[str, dict]:
    """
    从 Gemini 2.5 迁移到 Gemini 3.0

    Args:
        old_model: Gemini 2.5 模型名称
        old_config: Gemini 2.5 的 extra_body 配置

    Returns:
        (新模型名称, 新配置字典)
    """
    # 模型名称映射
    model_map = {
        "gemini-2.5-flash": "gemini-3.0-flash-preview",
        "gemini-2.5-pro": "gemini-3.0-pro-preview",
        "gemini-2-flash": "gemini-3-flash",
        "gemini-2-pro": "gemini-3-pro"
    }

    new_model = model_map.get(old_model, "gemini-3.0-flash-preview")

    # 参数转换
    if "thinking_budget" in old_config:
        budget = old_config["thinking_budget"]

        # 转换为 thinking_level
        if budget == 0:
            new_level = "minimal"
        elif budget <= 2048:
            new_level = "low"
        elif budget <= 8192:
            new_level = "medium"
        else:
            new_level = "high"

        # Gemini 3.0 Pro 只支持 low/high
        if "pro" in new_model and new_level in ["minimal", "medium"]:
            new_level = "low" if new_level == "minimal" else "high"

        new_config = {"thinking_level": new_level}
    else:
        # 默认配置
        new_config = {"thinking_level": "medium"}

    return new_model, new_config


# 迁移示例
old_model = "gemini-2.5-flash"
old_config = {"thinking_budget": -1}

new_model, new_config = migrate_to_gemini_3(old_model, old_config)
print(f"迁移前: {old_model} {old_config}")
print(f"迁移后: {new_model} {new_config}")
# 输出:
# 迁移前: gemini-2.5-flash {'thinking_budget': -1}
# 迁移后: gemini-3.0-flash-preview {'thinking_level': 'high'}

# 使用新配置调用
response = client.chat.completions.create(
    model=new_model,
    messages=[{"role": "user", "content": "你的问题"}],
    extra_body=new_config
)

🎯 Saran Migrasi: Saat bermigrasi dari Gemini 2.5 ke 3.0, disarankan untuk melakukan pengujian A/B terlebih dahulu melalui platform APIYI apiyi.com. Platform ini memungkinkan kamu untuk beralih versi model dengan cepat, sehingga memudahkan perbandingan kualitas respons, latensi, dan perbedaan biaya sebelum serta sesudah migrasi demi memastikan transisi yang lancar.

Pertanyaan yang Sering Diajukan (FAQ)

Q1: Mengapa kode saya berjalan normal di Gemini 3.0, tapi muncul error saat beralih ke 2.5?

Penyebab: Kode Anda menggunakan parameter thinking_level, yang merupakan parameter eksklusif untuk Gemini 3.0. Seri 2.5 sama sekali tidak mendukung parameter ini.

Solusi:

# Kode yang salah (hanya berlaku untuk 3.0)
extra_body = {
    "thinking_level": "medium"  # ❌ 2.5 tidak mengenali ini
}

# Kode yang benar (berlaku untuk 2.5)
extra_body = {
    "thinking_budget": 8192  # ✅ 2.5 menggunakan budget
}

Disarankan untuk menggunakan fungsi get_gemini_thinking_config() yang dibahas sebelumnya untuk adaptasi otomatis, atau lakukan verifikasi kompatibilitas parameter dengan cepat melalui platform APIYI apiyi.com.

Q2: Seberapa besar perbedaan performa antara Gemini 2.5 Flash dan Gemini 3.0 Flash?

Berdasarkan data resmi Google dan pengujian komunitas:

Indikator Gemini 2.5 Flash Gemini 3.0 Flash Tingkat Peningkatan
Kecepatan Inferensi Benchmark 2x lebih cepat +100%
Latensi Benchmark Turun signifikan Sekitar -50%
Efisiensi Berpikir Budget tetap atau dinamis Optimasi otomatis Kualitas meningkat
Biaya Benchmark Sedikit lebih tinggi (kualitas tinggi) +10-20%

Perbedaan Utama: Gemini 3.0 menggunakan alokasi berpikir dinamis, di mana model hanya berpikir selama yang diperlukan. Sementara itu, budget tetap pada 2.5 bisa menyebabkan model "berpikir berlebihan" atau justru kurang mendalam.

Disarankan untuk melakukan pengujian langsung melalui platform APIYI apiyi.com. Platform ini menyediakan pemantauan performa real-time dan analisis biaya untuk memudahkan perbandingan performa aktual antar model.

Q3: Bagaimana cara menonaktifkan mode berpikir sepenuhnya di Gemini 3.0?

Penting: Gemini 3.0 Pro tidak dapat menonaktifkan mode berpikir sepenuhnya. Meskipun Anda mengatur thinking_level: "low", kemampuan penalaran ringan akan tetap aktif.

Opsi yang tersedia:

  • Gemini 3.0 Flash: Gunakan thinking_level: "minimal" untuk hasil yang mendekati nol proses berpikir (meskipun tugas pengodean yang kompleks mungkin masih memicu sedikit proses berpikir).
  • Gemini 3.0 Pro: Pengaturan terendah hanya sampai thinking_level: "low".

Jika Anda benar-benar perlu menonaktifkannya:

# Hanya Gemini 2.5 Flash yang mendukung penonaktifan total
model = "gemini-2.5-flash"
extra_body = {
    "thinking_budget": 0  # Menonaktifkan mode berpikir sepenuhnya
}

Untuk skenario yang membutuhkan kecepatan ekstrem dan tidak memerlukan kemampuan penalaran (seperti mengikuti instruksi sederhana), disarankan untuk memanggil Gemini 2.5 Flash melalui APIYI apiyi.com dengan mengatur thinking_budget: 0.

Q4: Apakah model gambar Gemini mendukung mode berpikir?

Tidak mendukung. Semua model pemrosesan gambar Gemini (seperti gemini-2.5-flash-image, gemini-pro-vision) tidak mendukung parameter mode berpikir.

Contoh Salah:

# ❌ Model gambar tidak mendukung parameter berpikir apa pun
response = client.chat.completions.create(
    model="gemini-2.5-flash-image",
    messages=[...],
    extra_body={
        "thinking_budget": -1  # Akan memicu error
    }
)

Cara yang Benar:

# ✅ Jangan mengirimkan parameter berpikir saat memanggil model gambar
response = client.chat.completions.create(
    model="gemini-2.5-flash-image",
    messages=[...],
    # Tidak mengirimkan extra_body atau hanya mengirimkan parameter non-berpikir lainnya
)

Alasan Teknis: Arsitektur inferensi pada model gambar berfokus pada pemahaman visual dan tidak menyertakan mekanisme Chain of Thought (CoT) seperti pada model bahasa.

Kesimpulan

Poin-poin utama terkait error thinking_level not supported pada Gemini 2.5 Flash:

  1. Isolasi Parameter: Gemini 2.5 hanya mendukung thinking_budget, sedangkan 3.0 hanya mendukung thinking_level. Keduanya tidak saling kompatibel.
  2. Identifikasi Model: Tentukan versi berdasarkan nama model; gunakan thinking_budget untuk seri 2.5 dan thinking_level untuk seri 3.0.
  3. Batasan Model Gambar: Semua model gambar (seperti gemini-2.5-flash-image) tidak mendukung parameter mode berpikir apa pun.
  4. Perbedaan Penonaktifan: Hanya Gemini 2.5 Flash yang mendukung penonaktifan total mode berpikir (thinking_budget: 0), sementara seri 3.0 maksimal hanya bisa diatur ke minimal.
  5. Strategi Migrasi: Saat migrasi dari 2.5 ke 3.0, Anda perlu memetakan thinking_budget ke thinking_level serta mempertimbangkan perubahan performa dan biaya.

Sangat direkomendasikan untuk memvalidasi kompatibilitas parameter berpikir dan efek nyatanya pada berbagai model melalui APIYI apiyi.com. Platform ini mendukung seluruh seri model Gemini dengan antarmuka terpadu dan sistem penagihan yang fleksibel, sangat cocok untuk pengujian perbandingan cepat maupun deployment di lingkungan produksi.


Penulis: Tim Teknis APIYI | Jika ada pertanyaan teknis, silakan kunjungi APIYI apiyi.com untuk mendapatkan lebih banyak solusi integrasi Model Bahasa Besar (LLM).

Similar Posts