|

DeepSeek-V4-Flash disponible en APIYI: $0.14/M entrada · 1M ventana de contexto · Guía de migración de 5 minutos

deepseek-v4-flash-api-launch-guide-es 图示

El 24-04-2026, DeepSeek lanzó en código abierto en Hugging Face dos modelos de vista previa: V4-Pro y V4-Flash. El primero es un gigante MoE de 1.6T de parámetros orientado al rendimiento de vanguardia, mientras que el segundo es una opción equilibrada con "cerca del 90% de la capacidad de Pro, pero a 1/12 del precio".

Si solo vas a probar un modelo, elige deepseek-v4-flash. La razón es sencilla:

  • Arquitectura MoE de 284B / 13B + Hybrid Attention, con un consumo de FLOPs en inferencia de 1M de contexto que es solo el 27% del de V3.2.
  • 1M de tokens de contexto / 384K de tokens de salida máxima, procesa textos largos de forma nativa sin necesidad de fragmentación (chunking).
  • $0.14 por entrada / $0.28 por salida por cada millón de tokens, un orden de magnitud más barato que el modelo Pro.
  • 79.0% en SWE-bench Verified, 45–47 en el índice de inteligencia de Artificial Analysis, suficiente para la gran mayoría de escenarios.
  • Compatible simultáneamente con los protocolos OpenAI ChatCompletions y Anthropic API, funciona sin modificaciones en Claude Code, OpenClaw y OpenCode.

Un punto aún más importante: los modelos antiguos deepseek-chat y deepseek-reasoner dejarán de funcionar oficialmente el 24-07-2026. Todos los servicios en línea deben completarse su migración antes de esa fecha. Es una cuenta regresiva estricta de 90 días.

La buena noticia es que: deepseek-v4-flash ya está disponible en APIYI (apiyi.com). No necesitas crear una cuenta de DeepSeek, no necesitas cambiar tu SDK, ni gestionar pagos internacionales; simplemente cambia el campo model y apunta el base_url a api.apiyi.com para empezar a usarlo.

Este artículo es una guía 3+5: 3 minutos para entender las mejoras clave de V4-Flash + 5 minutos para completar la migración desde los modelos antiguos.


I. Las 5 mejoras clave de deepseek-v4-flash

1.1 Tabla de especificaciones principales

Primero, veamos el panorama general antes de entrar en detalles:

Dimensión deepseek-v4-flash
Fecha de lanzamiento 24-04-2026 (versión preliminar)
Repositorio huggingface.co/deepseek-ai/DeepSeek-V4-Flash
Parámetros totales 284B (Mixture of Experts)
Parámetros activos 13B
Ventana de contexto 1M tokens
Salida máxima 384K tokens
Arquitectura de atención Hybrid Attention (CSA + HCA)
Modo de inferencia Modo dual Thinking / Non-Thinking
Function Calling ✅ Compatible
Modo JSON ✅ Compatible
Chat Prefix Completion Soporte Beta
Protocolo API Compatible con OpenAI ChatCompletions + Anthropic
Precio de entrada $0.14 / M tokens
Precio de salida $0.28 / M tokens

A continuación, desglosamos estas 5 mejoras.

1.2 Mejora 1: 1M de contexto + 384K de salida (Ultra largo nativo)

deepseek-v4-flash admite de forma nativa 1M de tokens de entrada y 384K de tokens de salida. Esta es la especificación unificada para toda la serie V4; Flash no ha reducido el contexto para abaratar costos.

¿Qué tipo de contenido puede procesar 1M?

Tipo de contenido Cantidad aproximada de tokens
Manuscrito de 100,000 caracteres chinos ≈ 150K tokens
Documento técnico PDF de 200 páginas ≈ 300K tokens
Repositorio de código mediano (~50 archivos) ≈ 500K–800K tokens
El libro completo "Sueño en el pabellón rojo" ≈ 1M tokens

En comparación con GPT-5.4 (400K), Claude Opus 4.6 (1M + paquete de contexto de 1M) y Gemini 3.1-Pro (2M), el 1M de V4-Flash ya es la configuración estándar de la industria, y su precio es de 5 a 20 veces menor que los tres anteriores.

1.3 Mejora 2: 284B/13B MoE + Hybrid Attention

V4-Flash utiliza dos innovaciones arquitectónicas clave introducidas por DeepSeek en 2026:

  • MoE: 284B de parámetros totales, solo 13B activados por token. El efecto es similar al de un modelo denso de 13B, pero con un alcance de conocimiento cercano a uno de más de 200B.
  • Hybrid Attention (Atención dispersa comprimida CSA + Atención altamente comprimida HCA): diseñado específicamente para contextos largos.

Datos de eficiencia (de la fuente oficial de DeepSeek):

Indicador V3.2 V4-Flash Mejora
FLOPs de inferencia por token en contexto de 1M 100% 27% -73%
Uso de caché KV en contexto de 1M 100% 10% -90%

Estos dos grupos de números explican por qué Flash puede reducir el precio a $0.14: los costos de computación subyacentes realmente han disminuido, no es solo un subsidio agresivo.

1.4 Mejora 3: Modo dual Thinking / Non-Thinking

V4-Flash permite cambiar entre dos modos con el mismo ID de modelo:

  • Non-Thinking (predeterminado): rápido, ideal para chats, preguntas y respuestas, clasificación y resúmenes.
  • Thinking: el modelo genera primero un razonamiento interno (similar a la serie o de OpenAI) antes de dar la respuesta final. Ideal para razonamientos complejos, llamadas a herramientas de varios pasos y depuración de código.

El cambio se realiza mediante parámetros de solicitud (no son IDs de modelo distintos), por lo que el cambio del lado del desarrollador es mínimo. Al realizar la llamada en APIYI api.apiyi.com, el nombre de este parámetro es exactamente igual al oficial de DeepSeek.

1.5 Mejora 4: $0.14 / $0.28 por cada millón de tokens

Esta es la cifra más sorprendente de este lanzamiento:

Modelo Entrada ($/M) Salida ($/M) Relativo a V4-Flash
deepseek-v4-flash 0.14 0.28 1× (base)
deepseek-v4-pro 1.74 3.48 12×
GPT-5.4 (referencia) 2.50 10.00 17×–35×
Claude Sonnet 4.6 (referencia) 3.00 15.00 21×–53×

Para una solicitud típica de "500 tokens de entrada + 500 tokens de salida":

  • V4-Flash: $0.000 21
  • GPT-5.4: $0.006 25
  • Claude Sonnet 4.6: $0.009

Flash es entre 30 y 40 veces más barato. Para productos con un volumen mensual de cientos de millones de tokens, esto determina directamente el margen bruto.

1.6 Mejora 5: Compatibilidad con protocolo dual OpenAI + Anthropic

V4-Flash implementa dos conjuntos de protocolos en la capa de API:

  • POST /v1/chat/completions → Formato OpenAI
  • POST /v1/messages → Formato Anthropic

Esto significa:

Cliente Costo de migración
SDK de Python/Node de OpenAI Cero cambios, solo actualizar base_url y model
SDK de Python/Node de Anthropic Cero cambios, solo actualizar base_url y model
Claude Code Solo cambiar el endpoint de Anthropic
OpenClaw / OpenCode Soporte nativo
LangChain / LlamaIndex Solo cambiar la base_url

Esta es una decisión muy inteligente de DeepSeek en esta versión: no obligar a aprender un nuevo protocolo, permitiendo que el ecosistema existente se integre sin costos.

1.7 Tabla comparativa de Benchmarks

Benchmark V4-Flash V4-Pro Diferencia
SWE-bench Verified (corrección de código) 79.0% 82.1% -3.1
Terminal-Bench 2.0 (uso de herramientas) 56.9% 67.9% -11.0
SimpleQA-Verified (recuperación de hechos) 34.1% 57.9% -23.8
Artificial Analysis Intelligence Index 45 / 47 58 -11 ~ -13

Interpretación: Flash casi iguala a Pro en tareas de código de un solo paso (SWE-bench), pero la diferencia es notable en tareas que requieren cadenas de herramientas de varios pasos (Terminal-Bench) y memoria de hechos (SimpleQA). Estas diferencias son la base para decidir si elegir Flash o Pro.

二、Análisis de escenarios: deepseek-v4-flash vs V4-Pro

deepseek-v4-flash-api-launch-guide-es 图示

2.1 Matriz de decisión: un vistazo rápido

Escenario Recomendación Motivo
Conversación diaria, chat, preguntas Flash Capacidad suficiente, precio 1/12
Chatbots de atención al cliente, FAQ Flash Alto rendimiento, baja latencia
Autocompletado de código, edición de archivos Flash 79% en SWE-bench, cerca del Pro
Resumen de documentos largos, lectura Flash Ventana de contexto de 1M completa
Agentes con cadenas de herramientas Pro Diferencia de 11 puntos en Terminal-Bench
Investigación profunda, verificación Pro Diferencia de 24 puntos en SimpleQA
Informes comerciales de alto valor Pro Índice de inteligencia superior en 11+
Experimentación / I+D Flash 12 veces más barato, iteración rápida

Regla general: Usa Flash por defecto y escala a Pro solo si encuentras cuellos de botella. Esto sigue el principio de selección técnica de "empezar con la solución sencilla y escalar solo cuando sea necesario".

2.2 Cálculo de rentabilidad: ¿cuándo ahorra más Flash?

Supongamos que tu producto consume 100 millones de tokens diarios (60M entrada + 40M salida):

Modelo Coste diario Coste mensual Coste anual
V4-Flash $19.6 $588 $7 056
V4-Pro $243.6 $7 308 $87 696
GPT-5.4 (Ref) $550 $16 500 $198 000

Flash ahorra más de $80K al año frente a Pro. Ese dinero es suficiente para financiar a medio desarrollador adicional.

2.3 Enrutamiento híbrido: mejores prácticas en producción

Para la mayoría de los productos, la mejor solución no es elegir uno u otro, sino enrutar dinámicamente según el tipo de solicitud:

def route_model(request_type: str) -> str:
    if request_type in ("chat", "faq", "summarize", "classify"):
        return "deepseek-v4-flash"
    if request_type in ("deep_research", "multi_step_agent"):
        return "deepseek-v4-pro"
    return "deepseek-v4-flash"  # Flash por defecto

🎯 Consejo de implementación: Te recomendamos mantener permisos de invocación del modelo tanto para V4-Flash como para V4-Pro en la plataforma APIYI (apiyi.com). Ambos comparten la misma clave API; solo necesitas cambiar el campo model para alternar entre ellos. Para tareas por lotes, recomendamos usar la línea de alta concurrencia vip.apiyi.com, mientras que para tareas complejas del Pro, usa el sitio principal api.apiyi.com. Puedes gestionar la distribución de tráfico AB en una misma configuración.

III. 5 minutos para invocar deepseek-v4-flash en APIYI apiyi.com

3.1 Paso 1: Entorno previo y obtención de la clave

Ítem Requisito
Python o Node.js Python 3.8+ / Node.js 18+
SDK del cliente OpenAI Python openai >= 1.0 o SDK oficial de Node
Red Acceso a api.apiyi.com
Clave Generada en el panel de control de APIYI apiyi.com, comienza con sk-

Obtención de la clave:

  1. Visita apiyi.com, regístrate/inicia sesión y accede al panel de control.
  2. Menú lateral → API Keys → Crear nueva clave.
  3. Se recomienda establecer un "límite de uso" de ¥50–100 para la verificación inicial.
  4. Copia la cadena de la clave que comienza con sk-.

3.2 Paso 2: Selección de ruta (base_url)

APIYI ofrece tres rutas que comparten la misma clave:

base_url Posicionamiento Escenario recomendado
https://api.apiyi.com/v1 Sitio principal Predeterminado, uso diario
https://vip.apiyi.com/v1 Alta concurrencia Generación/inferencia por lotes, colas nocturnas
https://b.apiyi.com/v1 Respaldo Fallback automático si el sitio principal fluctúa

Para el desarrollo diario basta con el sitio principal; si en producción encuentras límites 429 o inestabilidad 5xx, cambia a VIP o respaldo.

3.3 Paso 3: Ejemplo mínimo de invocación en Python (Sin razonamiento)

from openai import OpenAI

client = OpenAI(
    api_key="sk-your-apiyi-key",
    base_url="https://api.apiyi.com/v1",
)

resp = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[
        {"role": "system", "content": "Eres un asistente conciso"},
        {"role": "user", "content": "Resume las mejoras clave de DeepSeek V4-Flash en tres puntos"},
    ],
    max_tokens=512,
)

print(resp.choices[0].message.content)

Solo hay dos cambios:

  1. base_url apunta a api.apiyi.com
  2. model se cambia a deepseek-v4-flash

El resto del código del SDK de OpenAI se mantiene igual.

3.4 Paso 4: Habilitar el modo de razonamiento (Thinking)

Cuando necesites razonamiento profundo, añade el parámetro reasoning en la solicitud:

resp = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[
        {"role": "user", "content": "Demuestra: dados n puntos, ¿cuántas líneas rectas se necesitan como mínimo para cubrir todos los pares de puntos?"},
    ],
    extra_body={
        "reasoning": {"enabled": True, "effort": "high"},
    },
    max_tokens=8192,
)

# La respuesta incluirá el campo reasoning_content
print("Proceso de pensamiento:", resp.choices[0].message.reasoning_content)
print("Respuesta final:", resp.choices[0].message.content)

En el modo de razonamiento, el tiempo de respuesta aumenta de 2 a 5 veces (según la complejidad), pero la precisión en problemas de código/matemáticas aumenta significativamente.

3.5 Paso 5: Ejemplo mínimo de invocación en Node.js

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: process.env.APIYI_API_KEY,
  baseURL: "https://api.apiyi.com/v1",
});

const resp = await client.chat.completions.create({
  model: "deepseek-v4-flash",
  messages: [
    { role: "user", content: "Escribe un haiku sobre la IA en 2026" },
  ],
  max_tokens: 256,
});

console.log(resp.choices[0].message.content);

3.6 Paso 6: Ejemplo de Function Calling

tools = [{
    "type": "function",
    "function": {
        "name": "get_weather",
        "description": "Obtener el clima actual de una ciudad",
        "parameters": {
            "type": "object",
            "properties": {"city": {"type": "string"}},
            "required": ["city"],
        },
    },
}]

resp = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[{"role": "user", "content": "¿Cómo está el clima hoy en Shanghái?"}],
    tools=tools,
)

print(resp.choices[0].message.tool_calls)

V4-Flash es muy estable en escenarios de una sola llamada a herramienta. Para cadenas de herramientas complejas de varios pasos (más de 5), se recomienda actualizar a V4-Pro.

3.7 Paso 7: Invocación mediante protocolo Anthropic

Si tu proyecto está desarrollado basado en el SDK de Anthropic (por ejemplo, integrado con Claude Code), también puedes usarlo:

from anthropic import Anthropic

client = Anthropic(
    api_key="sk-your-apiyi-key",
    base_url="https://api.apiyi.com",
)

resp = client.messages.create(
    model="deepseek-v4-flash",
    max_tokens=1024,
    messages=[{"role": "user", "content": "Hola"}],
)

print(resp.content[0].text)

🎯 Consejo de doble protocolo: Para el mismo modelo deepseek-v4-flash, el protocolo OpenAI utiliza api.apiyi.com/v1, mientras que el protocolo Anthropic utiliza api.apiyi.com (sin /v1). Al cambiar, solo ajusta el campo base_url. Para más detalles sobre protocolos, consulta la sección de DeepSeek en la documentación oficial de APIYI docs.apiyi.com.


IV. Ruta completa de migración de modelos antiguos a deepseek-v4-flash

deepseek-v4-flash-api-launch-guide-es 图示

4.1 Por qué debes migrar: Cuenta regresiva de 90 días

El anuncio oficial de DeepSeek es claro:

Los modelos heredados deepseek-chat y deepseek-reasoner se retirarán el 24 de julio de 2026.
Por favor, actualiza tu modelo a deepseek-v4-pro o deepseek-v4-flash.

Después del 24-07-2026, las solicitudes que sigan utilizando el ID de modelo antiguo devolverán un error directamente. Desde la fecha de lanzamiento, el 24-04-2026, hay un período de gracia total de 90 días.

4.2 Tabla de decisión de migración

Según el modelo que utilices actualmente, este es el nuevo modelo correspondiente:

ID de modelo antiguo ID de modelo nuevo Dificultad de migración
deepseek-chat deepseek-v4-flash (modo sin razonamiento) ⭐ Cambiar 1 campo
deepseek-reasoner deepseek-v4-flash + modo razonamiento ⭐⭐ Cambiar modelo + añadir parámetro reasoning
deepseek-reasoner (alto valor) deepseek-v4-pro + modo razonamiento ⭐⭐ Cambiar modelo + añadir parámetro reasoning
deepseek-v3.x deepseek-v4-flash ⭐ Cambiar modelo
deepseek-coder y otros deepseek-v4-flash ⭐ Cambiar modelo (capacidad general cubierta)

4.3 Diferencia de código: Casi cero cambios

Antes de la migración:

resp = client.chat.completions.create(
    model="deepseek-chat",   # ← Modelo antiguo
    messages=[...],
)

Después de la migración:

resp = client.chat.completions.create(
    model="deepseek-v4-flash",   # ← Cambia esta línea
    messages=[...],
)

Si también necesitas migrar desde deepseek-reasoner:

 resp = client.chat.completions.create(
-    model="deepseek-reasoner",
+    model="deepseek-v4-flash",
     messages=[...],
+    extra_body={"reasoning": {"enabled": True}},
 )

4.4 Lista de verificación de migración

Se recomienda seguir esta lista antes de migrar:

  • Revisar todas las ubicaciones donde model= está codificado en el código.
  • Evaluar si la invocación de deepseek-reasoner necesita actualizarse a V4-Pro.
  • Preparar un conjunto de prompts de prueba de regresión (20–50, cubriendo el negocio principal).
  • Reducir temporalmente el límite diario de las solicitudes antiguas en el panel de control de APIYI apiyi.com para forzar la migración.
  • Ejecutar los modelos antiguo y nuevo en AB durante 1 semana para comparar la calidad de salida.
  • Monitorear la curva de consumo de tokens para confirmar que los costos no hayan aumentado inesperadamente.
  • Actualizar la documentación interna y el Runbook.

4.5 Sugerencias para el lanzamiento gradual

En 3 fases:

Fase Tráfico Período Objetivo
Fase 1 5% 1ª semana Verificar protocolo y salida básica
Fase 2 30% 2ª-3ª semana Comparar indicadores clave (calidad + costo)
Fase 3 100% 4ª semana Migración total, mantener clave antigua para rollback de emergencia

💡 Rollback de emergencia: El enrutamiento de modelos antiguos en APIYI apiyi.com se mantendrá compatible hasta el 24-07-2026. Si descubres problemas graves durante la migración, simplemente cambia el model de vuelta a deepseek-chat / deepseek-reasoner para restaurar el servicio inmediatamente. Pero no esperes hasta finales de julio para actuar.

V. FAQ sobre deepseek-v4-flash

Q1: ¿Cómo elegir entre Flash y Pro?

La regla de oro: usa Flash por defecto y sube a Pro si encuentras cuellos de botella. En términos prácticos:

  • Conversaciones simples, FAQ, clasificación, resúmenes, autocompletado de código → Flash
  • Flujos de trabajo de agentes de varios pasos (más de 5 llamadas a herramientas) → Pro
  • Tareas de investigación profunda → Pro
  • Si no estás seguro, prueba primero con Flash; si el resultado no es satisfactorio, cambia a Pro.

Q2: ¿Es posible aprovechar realmente el 1M de ventana de contexto?

Sí, pero ten en cuenta lo siguiente:

  • Primeros 100K–300K: donde el modelo tiene mayor atención y mejor rendimiento.
  • 300K–800K: el rendimiento sigue siendo estable.
  • 800K–1M: la recuperación marginal disminuye; se recomienda colocar la información clave al principio o al final.
  • Costo: 1M de tokens de entrada ≈ $0.14, no es caro, pero no es gratuito.

Para textos largos, recomiendo la estructura: "pregunta al inicio + materiales en medio + reafirmación de la pregunta al final".

Q3: ¿Cómo se activa el modo Thinking?

Bajo el protocolo de OpenAI, se activa mediante extra_body.reasoning.enabled=true. El parámetro effort puede ser low, medium o high (por defecto es medium). En APIYI api.apiyi.com, los parámetros son idénticos a los oficiales.

Q4: ¿Es estable el Function Calling en Flash?

La llamada única es muy estable (tasa de éxito superior al 95%). Para cadenas de herramientas de varios pasos (más de 5), se recomienda usar Pro; la diferencia de 11 puntos en Terminal-Bench 2.0 se nota principalmente en estos casos.

Q5: ¿Cuál es la concurrencia razonable?

Para desarrolladores individuales, 10–20 de concurrencia está bien. Para entornos de producción, sugerimos:

  • Por defecto: usar 50 de concurrencia a través de api.apiyi.com.
  • Tareas por lotes/nocturnas: cambiar a vip.apiyi.com, donde se puede llegar a más de 200 de concurrencia.
  • Picos de emergencia: fallback temporal a b.apiyi.com.

Consulta los límites específicos en docs.apiyi.com para ver las cuotas más recientes.

Q6: ¿Cómo evaluar el riesgo de migración?

Método de tres pasos:

  1. Calidad de salida: realiza un test A/B con 20–50 prompts típicos de tu negocio y evalúalos manualmente o mediante un modelo de calificación.
  2. Curva de costos: observa el consumo diario de tokens; la salida de Flash suele ser ligeramente mayor (más notable en modo Thinking).
  3. Latencia: el TTFT de Flash es cercano al de V3.5, pero el modo Thinking es de 2 a 5 veces más lento.

Si la degradación de calidad supera el 10%, considera subir a Pro; de lo contrario, migra con confianza.

Q7: ¿Cómo se usa la compatibilidad con el protocolo de Anthropic?

No incluyas /v1 en la base_url, llama directamente a POST /v1/messages. Simplemente rellena el campo model del SDK de Anthropic con deepseek-v4-flash. Es la vía rápida para migrar proyectos que ya usan el SDK de Claude sin realizar cambios.

Q8: ¿Hay descuentos por caché de contexto?

V4-Flash ya tiene activado el caché de contexto (context caching) automático; las solicitudes con prefijos repetidos tienen un costo menor. En escenarios con prompts de sistema largos, puedes ahorrar entre un 30% y un 50%. Este descuento está activado por defecto en la plataforma APIYI apiyi.com, sin necesidad de parámetros adicionales.


VI. Resumen del lanzamiento de deepseek-v4-flash

El lanzamiento de DeepSeek V4 trae dos hechos clave para los desarrolladores:

  1. Es más barato: V4-Flash ofrece capacidades cercanas a Pro por 1/12 del precio, marcando un nuevo mínimo en la industria con $0.14/M de entrada.
  2. Migración obligatoria: el 24 de julio de 2026 se retirarán los modelos antiguos; el periodo de gracia de 90 días ya ha comenzado.

La buena noticia es que deepseek-v4-flash ya está disponible en APIYI apiyi.com. No necesitas crear cuentas en el extranjero, ni cambiar tu SDK, ni preocuparte por los métodos de pago. Tres pasos y listo:

  1. ✅ Obtén una clave en el panel de control de apiyi.com.
  2. ✅ Apunta la base_url a api.apiyi.com/v1 (o usa vip.apiyi.com / b.apiyi.com como respaldo).
  3. ✅ Configura model como deepseek-v4-flash y mantén el resto de tu código igual.

🎯 Recomendación: Te sugiero encarecidamente iniciar hoy mismo las pruebas A/B con deepseek-v4-flash. Abre una clave dedicada en APIYI apiyi.com, ejecuta 20–50 prompts típicos y compara la calidad y el costo con tu modelo actual. Si no hay una degradación significativa, esta semana podrías migrar el 5% del tráfico y completar la migración total en 4 semanas, lo cual es mucho más cómodo que esperar a julio. Para casos de migración más detallados y scripts de benchmark, consulta la sección de DeepSeek V4 en docs.apiyi.com.

El valor de deepseek-v4-flash no es ser "otro modelo barato", sino "poner al alcance de todos capacidades que antes solo estaban reservadas para gigantes tecnológicos": leer libros enteros con 1M de contexto, razonamiento complejo con el modo Thinking y el uso de herramientas completas mediante Function Calling, todo a un costo mínimo por solicitud. Esto abrirá nuevas oportunidades de producto; quien migre primero, llevará la delantera.


Autor: Equipo técnico de APIYI
Recursos relacionados:

  • Anuncio oficial de DeepSeek: api-docs.deepseek.com/news/news260424
  • Repositorio de código abierto en Hugging Face: huggingface.co/deepseek-ai/DeepSeek-V4-Flash
  • Sitio web de APIYI: apiyi.com
  • Documentación de APIYI: docs.apiyi.com
  • Sitio principal de APIYI: api.apiyi.com (respaldos: vip.apiyi.com / b.apiyi.com)

Publicaciones Similares