|

Análisis completo del error IMAGE_SAFETY de la API de Nano Banana Pro: por qué se bloquean las imágenes, cómo se calculan los tokens y cómo solucionarlo


title: "Guía técnica: Cómo interpretar y resolver el error IMAGE_SAFETY en Nano Banana Pro API"
description: "Analizamos el error IMAGE_SAFETY en Nano Banana Pro API: desglosamos el filtrado de seguridad, la facturación de tokens y estrategias para optimizar tus prompts."

Nota del autor: Análisis detallado campo a campo del error IMAGE_SAFETY en la API de Nano Banana Pro, examinando el mecanismo de filtrado de seguridad de doble capa, la lógica de facturación de tokens y 8 métodos prácticos para mejorar la tasa de éxito en la generación.

Al usar la API de Nano Banana Pro para la generación de imágenes, es posible que te hayas topado con esta respuesta desconcertante: aunque tu indicación no contenga nada sensible, recibes un finishReason: IMAGE_SAFETY, lo que significa que la imagen ha sido bloqueada por el filtro de seguridad. Lo más frustrante es que el campo thoughtsTokenCount: 173 en la respuesta indica que el modelo completó su proceso de razonamiento, pero la imagen fue "ejecutada" al final. En este artículo, analizaremos este error campo a campo, explicaremos el mecanismo de filtrado de doble capa de Google, la lógica de facturación de tokens cuando ocurre un bloqueo y cómo aumentar tu tasa de éxito.

Valor central: Al terminar de leer, entenderás el significado de cada campo en el error IMAGE_SAFETY, sabrás si se te cobran tokens cuando ocurre un bloqueo y cómo optimizar tus indicaciones para elevar la tasa de éxito al 70-80%.

nano-banana-pro-image-safety-error-analysis-fix-guide-es 图示

Análisis detallado del error IMAGE_SAFETY

Primero, aclaremos qué significa cada campo en esta respuesta.

Campo Valor Significado
content.parts null No se devolvió ningún contenido (la imagen fue bloqueada)
finishReason IMAGE_SAFETY Se activó el filtro de seguridad de salida de segunda capa
finishMessage "Unable to show…" Aviso oficial de Google: se violó la política de uso de IA generativa
promptTokenCount 276 La entrada consumió 276 tokens
candidatesTokenCount 0 Salida de 0 tokens (la imagen fue bloqueada, no hubo generación)
totalTokenCount 449 Total de 449 tokens (276 de entrada + 173 de razonamiento)
thoughtsTokenCount 173 El proceso de razonamiento del modelo consumió 173 tokens
promptTokensDetails TEXT:18, IMAGE:258 18 tokens de texto + 258 tokens de imagen (imagen de referencia)
modelVersion gemini-3-pro-image-preview Modelo Nano Banana Pro

Las 3 señales clave del error IMAGE_SAFETY

Señal 1: thoughtsTokenCount: 173 — El modelo realmente razonó

Esto indica que tu indicación superó la primera capa de seguridad (entrada), el modelo comenzó su proceso de razonamiento (Thinking) e incluso llegó a generar la imagen, pero fue interceptado por el filtro de seguridad de segunda capa justo antes de la salida final. El problema no está en tu indicación, sino en el contenido que el modelo "intentó dibujar".

Señal 2: candidatesTokenCount: 0 — Salida cero

Tras el bloqueo de la imagen, los tokens de salida se contabilizan como 0. Según la política oficial de Google, "no se le cobrará por las imágenes bloqueadas". Sin embargo, ten en cuenta que si los tokens de entrada (276) y los de razonamiento (173) se facturan o no, dependerá de la lógica de facturación específica.

Señal 3: IMAGE: 258 — Incluiste una imagen de referencia

Tu solicitud contiene una imagen de referencia (que consume 258 tokens de imagen). Esto significa que probablemente estés realizando una edición de imagen a imagen, no una generación desde texto puro. El filtrado de seguridad en escenarios de edición suele ser más estricto que en texto, ya que la imagen de referencia también es sometida a inspección.


El mecanismo de filtrado de seguridad de doble capa de Google

La clave para entender el error IMAGE_SAFETY es comprender que el filtrado de seguridad de Google no es único, sino de dos capas, y la segunda no se puede desactivar.

Primera capa: Configuración de seguridad de entrada (configurable)

Dimensión Descripción ¿Configurable?
Ubicación Entrada (indicación)
Objeto Texto e imágenes enviados por el usuario
Configuración BLOCK_NONE (sin bloqueo)
Resultado al activar Solicitud rechazada, no consume tokens

Puedes ajustar los safety_settings de la API a BLOCK_NONE para reducir la sensibilidad de esta primera capa.

Segunda capa: Filtrado de seguridad de salida (no configurable)

Dimensión Descripción ¿Configurable?
Ubicación Salida (imagen generada) No
Objeto Contenido de la imagen generada por el modelo No
¿Se puede desactivar? No, obligatorio para todos los usuarios y niveles No
Resultado al activar finishReason: IMAGE_SAFETY, parts: null

El error IMAGE_SAFETY ocurre cuando se activa esta segunda capa. Tu indicación pasó la primera, el modelo terminó de razonar (173 tokens) y generó la imagen, pero fue bloqueada antes de la entrega final.

Google ha reconocido que este filtro "se ha vuelto más cauteloso de lo previsto", provocando muchos falsos positivos; incluso indicaciones tan inofensivas como "un perro" o "un tazón de avena" pueden ser bloqueadas.

nano-banana-pro-image-safety-error-analysis-fix-guide-es 图示

¿Se cobra cuando IMAGE_SAFETY bloquea una solicitud?

Esta es la duda que más preocupa a los desarrolladores.

Reglas de facturación de IMAGE_SAFETY en Nano Banana Pro

Concepto de facturación ¿Se cobra si hay bloqueo? Explicación
Costo de generación de imagen No se cobra Google especifica claramente: "You will not be charged for blocked images"
Tokens de salida No se cobra candidatesTokenCount: 0, si no hay salida, no hay cobro
Tokens de entrada Posible cobro (mínimo) 276 Tokens × $0.25/M ≈ $0.00007 (despreciable)
Tokens de razonamiento Depende de la lógica de cobro 173 Tokens, la API de Gemini podría incluirlos en los candidatos

Conclusión: Cuando ocurre un bloqueo por IMAGE_SAFETY, no se generan los costos principales (generación de imagen y tokens de salida). El costo de los tokens de entrada es ínfimo (menos de una diezmilésima de dólar), por lo que es prácticamente despreciable.

Garantía adicional de APIYI: Al realizar la invocación del modelo a través de APIYI (apiyi.com), no se te cobrará si la generación falla, incluyendo los casos de bloqueo por IMAGE_SAFETY. Solo pagas por las imágenes generadas con éxito.


8 formas de mejorar la tasa de éxito de IMAGE_SAFETY

Dado que la segunda capa de filtrado de seguridad no se puede desactivar, solo nos queda utilizar métodos indirectos para mejorar la tasa de éxito.

Método 1: Configurar BLOCK_NONE para desactivar la primera capa

Primero, asegúrate de que la primera capa no aplique bloqueos adicionales:

from google.genai import types

safety_settings = [
    types.SafetySetting(
        category="HARM_CATEGORY_HARASSMENT",
        threshold="BLOCK_NONE"
    ),
    types.SafetySetting(
        category="HARM_CATEGORY_HATE_SPEECH",
        threshold="BLOCK_NONE"
    ),
    types.SafetySetting(
        category="HARM_CATEGORY_SEXUALLY_EXPLICIT",
        threshold="BLOCK_NONE"
    ),
    types.SafetySetting(
        category="HARM_CATEGORY_DANGEROUS_CONTENT",
        threshold="BLOCK_NONE"
    ),
]

Método 2: Añadir detalles específicos a la indicación

Las indicaciones vagas son más propensas a activar los filtros de seguridad. Añadir detalles específicos guía al modelo para generar imágenes más "seguras":

❌ "Una mujer"
→ El modelo podría generar contenido que el filtro considere inapropiado

✅ "Una mujer con traje profesional, trabajando en una oficina moderna,
   luz natural, estilo de ilustración digital"
→ Escenario específico + descripción de vestimenta + estilo artístico → Aumenta drásticamente la tasa de éxito

Métodos 3 al 8: Estrategias de optimización avanzada

Método Acción Efecto esperado
Método 3: Añadir estilo artístico Añadir "digital illustration style" o "watercolor style" al final Reduce el realismo → Menos activaciones
Método 4: Especificar contexto ambiental Añadir descripciones claras ("en un parque", "en una oficina") Limita el margen de interpretación del modelo
Método 5: Evitar descripciones de piel expuesta Usar "formal attire" o "winter clothing" en lugar de descripciones vagas Evita áreas sensibles
Método 6: Usar indicaciones en inglés El filtrado de seguridad en inglés está mejor calibrado Menos falsos positivos
Método 7: Reintento automático con otras palabras Reescribir la indicación automáticamente tras un fallo Mejora la tasa de éxito global
Método 8: Invocar vía APIYI APIYI tiene configuraciones optimizadas para parámetros de seguridad Mayor tasa de éxito general

Comparativa de la indicación antes y después de la optimización

Escenario Antes (baja tasa de éxito) Después (alta tasa de éxito)
Personas "Una chica en traje de baño" "Una mujer con ropa deportiva entrenando en el gimnasio, estilo ilustración digital"
Comida "Filete" "Un filete a término medio en un plato blanco, mesa de restaurante, fotografía profesional de alimentos"
Animales "Un perro" "Un golden retriever atrapando un frisbee en un patio suburbano, sol de tarde, estilo ilustración digital"
E-commerce "Modelo de lencería" "Imagen plana de producto de un sujetador deportivo blanco, fondo blanco puro, sin modelo, fotografía de producto"

🎯 Principio fundamental: Cuanto más específica sea la indicación = menos margen de libertad para el modelo = menos activaciones del filtro de seguridad. Añadir etiquetas de estilo artístico (como "digital illustration") puede reducir aún más los bloqueos relacionados con el realismo.
La tasa de éxito al invocar a través de APIYI (apiyi.com) suele ser superior a la conexión directa con la API de Google, ya que la plataforma cuenta con configuraciones optimizadas para los parámetros de seguridad.

nano-banana-pro-image-safety-error-analysis-fix-guide-es 图示


Preguntas frecuentes

Q1: ¿Por qué la misma indicación a veces tiene éxito y otras veces es bloqueada?

Porque el segundo nivel de filtrado de seguridad analiza la imagen generada, no la indicación. Con la misma indicación, la imagen que genera el modelo varía ligeramente cada vez (debido a la aleatoriedad de los modelos de difusión), y algunos resultados pueden activar accidentalmente el umbral del filtro de seguridad. Por eso, reintentar con la misma indicación a veces funciona: el modelo simplemente generó una imagen "más segura" por azar.

Q2: ¿Es normal que thoughtsTokenCount sea mayor que 0 pero candidatesTokenCount sea 0?

Es normal. Esto indica precisamente que el bloqueo ocurrió en el segundo nivel (en la salida): el modelo completó su proceso de pensamiento (Thinking) y generó la imagen, pero esta fue interceptada por el filtro de seguridad antes de la entrega final. Los tokens de pensamiento ya se consumieron (173), pero como la imagen no se entregó realmente, los tokens de salida se contabilizan como 0. Este es un patrón de respuesta característico de IMAGE_SAFETY, a diferencia del bloqueo de primer nivel (donde el thoughtsTokenCount también sería 0).

Q3: ¿Qué hacer si las imágenes de lencería/trajes de baño para comercio electrónico son bloqueadas frecuentemente?

Este es un escenario de falso positivo muy común. En los foros de desarrolladores de Google hay muchos reportes sobre "imágenes de comercio electrónico de ropa interior sin contenido NSFW que reciben el error IMAGE_SAFETY". Recomendaciones: 1) Utilizar fotos de producto plano (sin modelo) en lugar de fotos con modelo; 2) Especificar claramente en la indicación "product flat lay, no model, white background"; 3) Realizar la invocación del modelo a través de APIYI (apiyi.com), ya que la configuración de parámetros de seguridad de la plataforma está optimizada para escenarios de comercio electrónico.

Q4: ¿Se cobran las solicitudes bloqueadas en APIYI?

No. APIYI garantiza que no se cobra si la generación falla, incluyendo los casos de bloqueo por IMAGE_SAFETY. Solo pagas por las imágenes generadas con éxito. Esto es consistente con la lógica de facturación de la API oficial de Google (las imágenes bloqueadas no se cobran), pero APIYI ofrece una garantía adicional: ni siquiera se generan cargos por los pequeños costos de los tokens de entrada.


Resumen

Puntos clave sobre el error IMAGE_SAFETY en Nano Banana Pro:

  1. La esencia del error es un filtrado de salida de segundo nivel: Tu indicación superó el primer nivel, el modelo completó su pensamiento (173 tokens) y la imagen ya se había generado, pero fue bloqueada por el filtro de seguridad de segundo nivel, el cual no se puede desactivar.
  2. Los bloqueos generalmente no tienen costo: candidatesTokenCount: 0 significa que los tokens de salida no se facturan. Google especifica que "no se cobra por imágenes bloqueadas", y al usar APIYI cuentas con la garantía adicional de que no hay cobros por fallos.
  3. La optimización de la indicación puede elevar la tasa de éxito al 70-80%: El principio fundamental es "cuanto más específico, más seguro": añade escenarios concretos, estilos artísticos, descripciones de vestimenta y utiliza indicaciones en inglés.

Te recomendamos realizar la invocación del modelo Nano Banana Pro a través de APIYI (apiyi.com) para beneficiarte de una configuración optimizada de parámetros de seguridad, garantía de no cobro por fallos y un 28% de descuento, reduciendo así el impacto de los falsos positivos de IMAGE_SAFETY en tu negocio.

📚 Referencias

  1. Documentación de ajustes de seguridad de la API de Gemini: Explicación oficial de los parámetros de configuración de seguridad.

    • Enlace: ai.google.dev/gemini-api/docs/safety-settings
    • Descripción: Incluye la configuración BLOCK_NONE y la lista de categorías de seguridad.
  2. Guía completa de solución para IMAGE_SAFETY de Nano Banana Pro: 8 métodos para mejorar la tasa de éxito.

    • Enlace: help.apiyi.com/en/nano-banana-pro-image-safety-error-fix-guide-en.html
    • Descripción: Incluye plantillas de optimización de indicaciones y soluciones basadas en escenarios.
  3. Discusión sobre IMAGE_SAFETY en el foro de desarrolladores de Google AI: Reportes de la comunidad y respuestas oficiales.

    • Enlace: discuss.ai.google.dev/t/nano-banana-is-unusable-because-of-the-new-safety-filters/132366
    • Descripción: Google reconoce que los filtros son "demasiado cautelosos".
  4. Centro de documentación de APIYI: Garantía de no cobro por fallos en Nano Banana Pro.

    • Enlace: docs.apiyi.com
    • Descripción: Incluye optimización de parámetros de seguridad y guías de configuración para escenarios de comercio electrónico.

Autor: Equipo técnico de APIYI
Intercambio técnico: Te invitamos a participar en la sección de comentarios; para más información, visita el centro de documentación de APIYI en docs.apiyi.com.

Publicaciones Similares