Gemini API Sicherheitseinstellungen im Detail: Richtige Interpretation und Verwendungsanleitung des BLOCK_NONE Parameters

Autorenbemerkung: Eine detaillierte Analyse des safetySettings-Sicherheitsmechanismus der Gemini API, einschließlich der vier Gefährdungskategorien, fünf Schwellenwert-Konfigurationen und der tatsächlichen Funktion von BLOCK_NONE, um Entwicklern bei der korrekten Konfiguration der Inhaltsfilterung für Bildgenerierungsmodelle zu helfen.

<!-- Google 蓝 -->
<linearGradient id="googleBlue" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#1e40af" />
  <stop offset="100%" stop-color="#3b82f6" />
</linearGradient>

<!-- 安全绿 -->
<linearGradient id="safeGreen" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#059669" />
  <stop offset="100%" stop-color="#10b981" />
</linearGradient>

<!-- 警告橙 -->
<linearGradient id="warnOrange" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#ea580c" />
  <stop offset="100%" stop-color="#fb923c" />
</linearGradient>

<!-- 危险红 -->
<linearGradient id="dangerRed" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#dc2626" />
  <stop offset="100%" stop-color="#f87171" />
</linearGradient>

<!-- 紫色 -->
<linearGradient id="catPurple" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#7c3aed" />
  <stop offset="100%" stop-color="#a855f7" />
</linearGradient>

Gemini API Sicherheitseinstellungen erklärt safetySettings · Vier Kategorien · Fünf Schwellenwerte · BLOCK_NONE

Gemini Safety API

🚫 HARASSMENT Belästigung

💢 HATE_SPEECH Hassrede

🔞 SEXUALLY_EXPLICIT Explizite Inhalte

⚠️ DANGEROUS Gefährliche Inhalte

Fünf Schwellenwert-Stufen

BLOCK_NONE

BLOCK_FEW

BLOCK_SOME

BLOCK_MOST

BLOCK_ALL

Am tolerantesten Am strengsten

Empfohlen APIYI: Stabile KI-Modell-API-Vermittlung, günstig und mit kostenloser Testversion

Wenn du die Gemini Bildgenerierungs-API verwendest (wie gemini-2.0-flash-exp-image-generation oder gemini-3-pro-image-preview), bist du vielleicht schon auf folgende Konfiguration gestoßen:

"safetySettings": [
  {"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_NONE"},
  {"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_NONE"},
  {"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT", "threshold": "BLOCK_NONE"},
  {"category": "HARM_CATEGORY_DANGEROUS_CONTENT", "threshold": "BLOCK_NONE"}
]

Was bedeutet diese Konfiguration eigentlich? Erlaubt BLOCK_NONE dem Modell wirklich, beliebige Inhalte zu generieren? Dieser Artikel erklärt detailliert, wie die Gemini API Sicherheitseinstellungen funktionieren und wie man sie richtig einsetzt.

Kernwert: Nach dem Lesen dieses Artikels verstehst du die vier Gefährdungskategorien der Gemini-Sicherheitseinstellungen, die fünf Schwellenwert-Konfigurationen sowie die tatsächliche Funktion und Grenzen von BLOCK_NONE.


Kernaspekte der Gemini Sicherheitseinstellungen

Aspekt Erklärung Bedeutung
Vier Gefährdungskategorien Belästigung, Hassrede, explizite Inhalte, gefährliche Inhalte Anpassbare Dimensionen der Inhaltsfilterung
Fünf Schwellenwert-Stufen OFF, BLOCK_NONE, BLOCK_FEW, BLOCK_SOME, BLOCK_MOST Steuerung der Filtersensitivität
Bedeutung von BLOCK_NONE Deaktiviert die Wahrscheinlichkeitsfilterung für diese Kategorie, umgeht aber nicht den Kernschutz Toleranteste anpassbare Einstellung
Nicht anpassbarer Schutz Kindersicherheit und andere Kerngefahren werden immer blockiert Fest eincodierter Schutz, kann nicht deaktiviert werden

Designphilosophie der Sicherheitseinstellungen

Die Sicherheitseinstellungen der Gemini API verwenden einen mehrschichtigen Schutzmechanismus:

  1. Anpassbare Ebene: Entwickler können die Filterschwellenwerte der vier Kategorien je nach Anwendungsfall anpassen
  2. Nicht anpassbare Ebene: Bei Kerngefahren wie Kindersicherheit blockiert das System immer – diese Schutzmaßnahmen können durch keine Einstellung umgangen werden

Das bedeutet: Selbst wenn du alle Kategorien auf BLOCK_NONE setzt, wird das Modell weiterhin die Generierung von Inhalten verweigern, die gegen Kernrichtlinien wie Kindersicherheit verstoßen.


Detaillierte Erklärung der vier Schadenskategorien

<!-- 橙色 - 骚扰 -->
<linearGradient id="harassOrange" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#ea580c" />
  <stop offset="100%" stop-color="#fb923c" />
</linearGradient>

<!-- 红色 - 仇恨 -->
<linearGradient id="hateRed" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#dc2626" />
  <stop offset="100%" stop-color="#f87171" />
</linearGradient>

<!-- 紫色 - 色情 -->
<linearGradient id="sexPurple" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#7c3aed" />
  <stop offset="100%" stop-color="#a855f7" />
</linearGradient>

<!-- 深红 - 危险 -->
<linearGradient id="dangerDark" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#991b1b" />
  <stop offset="100%" stop-color="#dc2626" />
</linearGradient>

Detaillierte Erklärung der vier Schadenskategorien Anpassbare Content-Filter-Dimensionen der Gemini API

🚫 HARM_CATEGORY_HARASSMENT Belästigung

Definition: Negative oder schädliche Kommentare, die auf Identität oder geschützte Attribute abzielen (persönliche Angriffe)

💢 HARM_CATEGORY_HATE_SPEECH Hassrede

Definition: Grobe, respektlose oder profane Inhalte (Rassismus, religiöser Hass, Sexismus)

🔞 HARM_CATEGORY_SEXUALLY_EXPLICIT Sexuell explizite Inhalte

Definition: Verweise auf sexuelle Handlungen oder obszönes Material (explizite Beschreibungen, Nacktheit)

⚠️ HARM_CATEGORY_DANGEROUS Gefährliche Inhalte

Definition: Inhalte, die schädliches Verhalten fördern, unterstützen oder ermutigen (Waffenbau, Selbstverletzung)

💡 Die Filterschwellen dieser vier Kategorien sind einzeln konfigurierbar, Kernschutz (z.B. Kindersicherheit) ist nicht anpassbar

Empfohlen: APIYI – Zuverlässige AI-Modell-API-Plattform, günstige Preise, kostenlose Testversion

Die Gemini API unterstützt vier anpassbare Schadenskategorien:

1. HARM_CATEGORY_HARASSMENT (Belästigung)

Definition: Negative oder schädliche Kommentare, die auf Identität oder geschützte Attribute abzielen

Umfasst:

  • Persönliche Angriffe und Beleidigungen
  • Diskriminierende Äußerungen gegenüber bestimmten Gruppen
  • Cybermobbing-relevante Inhalte

2. HARM_CATEGORY_HATE_SPEECH (Hassrede)

Definition: Grobe, respektlose oder profane Inhalte

Umfasst:

  • Rassistische Äußerungen
  • Religiöser Hass
  • Diskriminierung aufgrund von Geschlecht oder sexueller Orientierung

3. HARM_CATEGORY_SEXUALLY_EXPLICIT (Sexuell explizite Inhalte)

Definition: Verweise auf sexuelle Handlungen oder obszönes Material

Umfasst:

  • Explizite sexuelle Beschreibungen
  • Nacktheit
  • Sexuelle Anspielungen

4. HARM_CATEGORY_DANGEROUS_CONTENT (Gefährliche Inhalte)

Definition: Inhalte, die schädliches Verhalten fördern, unterstützen oder dazu ermutigen

Umfasst:

  • Anleitungen zum Waffenbau
  • Anweisungen zu Selbstverletzung oder Schädigung anderer
  • Erklärungen illegaler Aktivitäten
Kategorie API-Konstante Filterobjekt
Belästigung HARM_CATEGORY_HARASSMENT Persönliche Angriffe, diskriminierende Äußerungen
Hassrede HARM_CATEGORY_HATE_SPEECH Rassistischer/religiöser Hass
Sexuell explizit HARM_CATEGORY_SEXUALLY_EXPLICIT Sexuelle Beschreibungen, Nacktheit
Gefährlich HARM_CATEGORY_DANGEROUS_CONTENT Anleitungen zu schädlichem Verhalten

Hinweis: Wenn Sie die Gemini API über APIYI (apiyi.com) aufrufen, gelten dieselben Sicherheitseinstellungen und können nach Bedarf konfiguriert werden.


Detaillierte Erklärung der fünf Schwellenwert-Stufen

<!-- 绿色 - 最宽松 -->
<linearGradient id="levelGreen" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#059669" />
  <stop offset="100%" stop-color="#10b981" />
</linearGradient>

<!-- 青绿 -->
<linearGradient id="levelTeal" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#0d9488" />
  <stop offset="100%" stop-color="#14b8a6" />
</linearGradient>

<!-- 黄色 - 中等 -->
<linearGradient id="levelYellow" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#ca8a04" />
  <stop offset="100%" stop-color="#eab308" />
</linearGradient>

<!-- 橙色 -->
<linearGradient id="levelOrange" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#ea580c" />
  <stop offset="100%" stop-color="#fb923c" />
</linearGradient>

<!-- 红色 - 最严格 -->
<linearGradient id="levelRed" x1="0%" y1="0%" x2="100%" y2="100%">
  <stop offset="0%" stop-color="#dc2626" />
  <stop offset="100%" stop-color="#f87171" />
</linearGradient>

Vergleich der fünf Schwellenwert-Stufen Von der lockersten bis zur strengsten Content-Filter-Stufe

Wahrscheinlichkeit schädlicher Inhalte: NEGLIGIBLE ← → LOW ← → MEDIUM ← → HIGH

OFF / BLOCK_NONE Alle Inhalte erlaubt ✓ Keine wahrscheinlichkeitsbasierte Filterung, Kernschutz bleibt aktiv

BLOCK_ONLY_HIGH Nur hohe Wahrscheinlichkeit blockieren HIGH blockiert

BLOCK_MEDIUM_AND_ABOVE MEDIUM + HIGH blockiert

BLOCK_LOW_AND_ABOVE LOW + MEDIUM + HIGH blockiert

Durchgelassen

Blockiert

💡 Gemini 2.5+ Standardwert ist OFF, ältere Modelle standardmäßig BLOCK_SOME

Empfohlen: APIYI – Zuverlässige AI-Modell-API-Plattform, günstige Preise, kostenlose Testversion

Die Gemini API bietet fünf Schwellenwert-Stufen, die die Sensitivität der Content-Filterung steuern:

Einstellungsname API-Wert Filtereffekt Anwendungsszenario
Aus OFF Sicherheitsfilter vollständig deaktiviert Standardwert für Gemini 2.5+
Nicht blockieren BLOCK_NONE Inhalte werden unabhängig von der Wahrscheinlichkeitsbewertung angezeigt Maximale kreative Freiheit erforderlich
Wenig blockieren BLOCK_ONLY_HIGH Nur Inhalte mit hoher Schadenswahrscheinlichkeit blockieren Die meisten Anwendungsfälle
Teilweise blockieren BLOCK_MEDIUM_AND_ABOVE Inhalte mit mittlerer oder höherer Wahrscheinlichkeit blockieren Moderate Filterung erforderlich
Viel blockieren BLOCK_LOW_AND_ABOVE Inhalte mit niedriger oder höherer Wahrscheinlichkeit blockieren Strengste Filterung

Funktionsweise der Schwellenwerte

Das Gemini-System führt für jeden Inhalt eine Wahrscheinlichkeitsbewertung durch und beurteilt die Wahrscheinlichkeit, dass es sich um schädliche Inhalte handelt:

  • HIGH: Hohe Wahrscheinlichkeit (sehr wahrscheinlich schädlicher Inhalt)
  • MEDIUM: Mittlere Wahrscheinlichkeit
  • LOW: Niedrige Wahrscheinlichkeit
  • NEGLIGIBLE: Vernachlässigbare Wahrscheinlichkeit

Wichtig: Das System blockiert basierend auf Wahrscheinlichkeit, nicht auf Schweregrad. Das bedeutet:

  • Inhalte mit hoher Wahrscheinlichkeit aber geringem Schweregrad können blockiert werden
  • Inhalte mit niedriger Wahrscheinlichkeit aber hohem Schweregrad können durchgelassen werden

Erläuterung der Standardwerte

Modellversion Standard-Schwellenwert
Gemini 2.5, Gemini 3 und andere neue GA-Modelle OFF (Aus)
Andere ältere Modelle BLOCK_SOME (Teilweise blockieren)

Die wahre Funktion von BLOCK_NONE

Was es kann

Nach dem Setzen von BLOCK_NONE:

  1. Deaktiviert wahrscheinlichkeitsbasierte Filter: Inhalte dieser Kategorie werden nicht mehr aufgrund von Wahrscheinlichkeitsbewertungen blockiert
  2. Erlaubt Grenzfallinhalte: Legitime Inhalte, die möglicherweise falsch eingestuft würden, werden nicht blockiert
  3. Erhöht kreative Freiheit: Reduziert Fehlblockierungen in künstlerischen, pädagogischen oder journalistischen Kontexten

Was es nicht kann

Selbst wenn alle Kategorien auf BLOCK_NONE gesetzt sind:

  1. Kernschutzmaßnahmen bleiben aktiv: Hartcodierte Schutzmaßnahmen wie Kindersicherheit können nicht umgangen werden
  2. Mehrschichtige Filter existieren weiterhin: Echtzeit-Überwachung und Nachbearbeitungsprüfungen während des Generierungsprozesses bleiben aktiv
  3. Richtlinien-Grenzen bleiben bestehen: Inhalte, die eindeutig gegen Google-Richtlinien verstoßen, werden weiterhin abgelehnt

Besonderheiten bei der Bilderzeugung

Bei Bilderzeugungsmodellen (wie gemini-2.0-flash-exp-image-generation) ist die Sicherheitsfilterung komplexer:

  1. Prompt-Filterung: Der eingegebene Text-Prompt wird zuerst überprüft
  2. Überwachung während der Generierung: Kontinuierliche Überwachung bei der Erzeugung von Zwischenergebnissen
  3. Ausgabeprüfung: Nach Abschluss der Generierung erfolgt eine zusätzliche Compliance-Prüfung

Studien zeigen, dass direkte, explizite Prompts normalerweise blockiert werden, aber Techniken wie schrittweise Eskalation in mehrteiligen Konversationen können teilweise Prüfungen umgehen.


Praktische Konfigurationsbeispiele

Python SDK Konfiguration

import google.generativeai as genai

# Sicherheitseinstellungen konfigurieren
safety_settings = [
    {
        "category": "HARM_CATEGORY_HARASSMENT",
        "threshold": "BLOCK_NONE"
    },
    {
        "category": "HARM_CATEGORY_HATE_SPEECH",
        "threshold": "BLOCK_NONE"
    },
    {
        "category": "HARM_CATEGORY_SEXUALLY_EXPLICIT",
        "threshold": "BLOCK_NONE"
    },
    {
        "category": "HARM_CATEGORY_DANGEROUS_CONTENT",
        "threshold": "BLOCK_NONE"
    }
]

# Modellinstanz erstellen
model = genai.GenerativeModel(
    model_name="gemini-2.0-flash-exp",
    safety_settings=safety_settings
)

# Inhalt generieren
response = model.generate_content("Dein Prompt")

REST API Konfigurationsbeispiel anzeigen
{
  "model": "gemini-2.0-flash-exp-image-generation",
  "contents": [
    {
      "role": "user",
      "parts": [
        {"text": "Erstelle ein Bild im künstlerischen Stil"}
      ]
    }
  ],
  "safetySettings": [
    {
      "category": "HARM_CATEGORY_HARASSMENT",
      "threshold": "BLOCK_NONE"
    },
    {
      "category": "HARM_CATEGORY_HATE_SPEECH",
      "threshold": "BLOCK_NONE"
    },
    {
      "category": "HARM_CATEGORY_SEXUALLY_EXPLICIT",
      "threshold": "BLOCK_NONE"
    },
    {
      "category": "HARM_CATEGORY_DANGEROUS_CONTENT",
      "threshold": "BLOCK_NONE"
    }
  ],
  "generationConfig": {
    "responseModalities": ["image", "text"]
  }
}

Tipp: Über APIYI apiyi.com können Sie schnell die Auswirkungen verschiedener Sicherheitseinstellungen testen. Die Plattform unterstützt einheitliche API-Aufrufe für Gemini-Modelle.


Verwendungsszenarien und Empfehlungen

Szenarien für den Einsatz von BLOCK_NONE

Szenario Beschreibung Empfohlene Konfiguration
Künstlerische Kreation Körperkunst, abstrakte Darstellung Kategorie für sexuelle Inhalte kann gelockert werden
Nachrichtenberichterstattung Kriegs- und konfliktbezogene Bilder Kategorie für gefährliche Inhalte kann gelockert werden
Bildungszwecke Medizinische, historische Bildungsinhalte Je nach spezifischem Inhalt anpassen
Content-Moderation Analyse potenziell regelwidriger Inhalte Alle auf BLOCK_NONE setzen

Szenarien, in denen BLOCK_NONE nicht empfohlen wird

Szenario Beschreibung Empfohlene Konfiguration
Öffentlich zugängliche Anwendungen Produkte für normale Nutzer BLOCK_MEDIUM_AND_ABOVE
Kinderanwendungen Bildungs- und Unterhaltungsprodukte für Kinder BLOCK_LOW_AND_ABOVE
Unternehmenstools Szenarien mit Compliance-Anforderungen BLOCK_ONLY_HIGH

Best Practices

  1. Schrittweise Anpassung: Mit Standardeinstellungen beginnen und nach tatsächlichem Bedarf lockern
  2. Kategorienspezifische Konfiguration: Verschiedene Kategorien können unterschiedliche Schwellenwerte haben
  3. Monitoring und Logging: Blockierte Anfragen protokollieren und analysieren, ob Anpassungen nötig sind
  4. Nutzerszenario-Analyse: Passendes Filterniveau basierend auf der Zielgruppe festlegen

Häufig gestellte Fragen

F1: Warum werden Inhalte blockiert, obwohl BLOCK_NONE eingestellt ist?

BLOCK_NONE deaktiviert nur die Wahrscheinlichkeitsfilterung für diese Kategorie, aber in folgenden Fällen erfolgt dennoch eine Blockierung:

  1. Kernschutz: Fest implementierte Schutzmaßnahmen wie Kindersicherheit können nicht deaktiviert werden
  2. Andere Kategorien: Wenn nur einige Kategorien auf BLOCK_NONE gesetzt wurden
  3. Richtlinien-Grenzen: Inhalte, die eindeutig gegen Google-Nutzungsrichtlinien verstoßen
  4. Echtzeit-Prüfungen: Bei der Bildgenerierung gibt es zusätzliche Live-Überwachung

F2: Was ist der Unterschied zwischen OFF und BLOCK_NONE?

Laut offizieller Google-Dokumentation:

  • OFF: Deaktiviert den Sicherheitsfilter vollständig (Standard bei Gemini 2.5+)
  • BLOCK_NONE: Zeigt Inhalte unabhängig von der Wahrscheinlichkeitsbewertung an

Die tatsächlichen Effekte sind sehr ähnlich, aber OFF deaktiviert die Filterlogik der Kategorie noch gründlicher. Bei neueren Modellen ist die Wirkung praktisch identisch.

F3: Wie nutze ich Sicherheitseinstellungen über API-Proxy-Dienste?

Beim Aufruf der Gemini API über APIYI apiyi.com:

  1. Sicherheitseinstellungen werden vollständig an die Google API weitergeleitet
  2. Konfigurationsmethode ist identisch mit direkten Google API-Aufrufen
  3. Unterstützt alle vier Kategorien und fünf Schwellenwerte
  4. Ermöglicht schnelle Validierung verschiedener Konfigurationen in der Testphase

Zusammenfassung

Die wichtigsten Punkte zu den Gemini API Sicherheitseinstellungen:

  1. Vier anpassbare Kategorien: Belästigung, Hassrede, sexuelle Inhalte und gefährliche Inhalte – Entwickler können diese nach Bedarf konfigurieren
  2. Fünf Schwellenwert-Stufen: Von OFF/BLOCK_NONE (am tolerantesten) bis BLOCK_LOW_AND_ABOVE (am strengsten)
  3. Das Wesen von BLOCK_NONE: Deaktiviert die Wahrscheinlichkeitsfilterung, umgeht aber nicht die Kernschutzmaßnahmen und Richtlinien
  4. Mehrschichtiger Schutzmechanismus: Anpassbare Ebene + nicht anpassbare Ebene garantieren grundlegende Sicherheitsstandards
  5. Besonderheiten bei der Bildgenerierung: Mehrschichtige Filterung (Prompt → Generierungsprozess → Output-Prüfung) ist deutlich strenger

Wenn Sie diese Einstellungen verstehen, können Sie die Sicherheitsparameter entsprechend Ihrem Anwendungsfall optimal konfigurieren und die richtige Balance zwischen kreativer Freiheit und Inhaltssicherheit finden.

Über APIYI apiyi.com können Sie schnell die Wirkung der Sicherheitseinstellungen für Gemini Bildgenerierungsmodelle testen. Die Plattform bietet kostenloses Kontingent und eine einheitliche Schnittstelle für mehrere Modelle.


Referenzen

⚠️ Hinweis zum Linkformat: Alle externen Links verwenden das Format Ressourcenname: domain.com – einfach zum Kopieren, aber nicht klickbar, um SEO-Gewichtsverlust zu vermeiden.

  1. Gemini API Safety Settings – Offizielle Dokumentation: Google's offizieller Leitfaden

    • Link: ai.google.dev/gemini-api/docs/safety-settings
    • Beschreibung: Autoritative Anleitung zu Sicherheitseinstellungen und API-Referenz
  2. Vertex AI Safety Filter Configuration: Google Cloud Dokumentation

    • Link: cloud.google.com/vertex-ai/generative-ai/docs/multimodal/configure-safety-filters
    • Beschreibung: Detaillierte Sicherheitskonfiguration für Enterprise-Level Vertex AI
  3. Gemini Safety Guide: Best Practices für Entwickler

    • Link: ai.google.dev/gemini-api/docs/safety-guidance
    • Beschreibung: Offizielle Empfehlungen zur sicheren Nutzung der Gemini API
  4. Firebase AI Logic Safety Settings: Firebase Integrationsanleitung

    • Link: firebase.google.com/docs/ai-logic/safety-settings
    • Beschreibung: Konfiguration der Sicherheitseinstellungen in Firebase-Umgebungen

Autor: Technik-Team
Technischer Austausch: Diskutieren Sie gerne in den Kommentaren. Weitere Ressourcen finden Sie in der APIYI apiyi.com Tech-Community

Ähnliche Beiträge