aiapiautomationnews

Die Wahrheit über Gemini 3: Warum Googles neue KI-Agenten im Jahr 2026 gewinnen

Erkunden Sie den massiven Wandel in Googles Gemini-3-Serie. Von multimodaler Meisterschaft bis zur agentischen Revolution – erfahren Sie, warum 2026 das Jahr der KI mit Tool-First-Ansatz ist...

DataFormatHub Team
Jan 19, 202613 min
Share:
Die Wahrheit über Gemini 3: Warum Googles neue KI-Agenten im Jahr 2026 gewinnen

Alright, liebe Datenjongleure und Algorithmusarchitekten, versammelt euch! Ich habe mehr Zeit in den Schützengräben mit Googles neuestem Gemini und den umfassenderen KI-Plattform-Updates verbracht als mit meiner eigenen Familie, und lasst mich euch sagen, die jüngsten Fortschritte sind wirklich aufregend. Wir reden hier nicht von Marketing-Blabla; wir reden von greifbaren, entwicklerzentrierten Verbesserungen, die die Art und Weise, wie wir intelligente Anwendungen erstellen, neu gestalten. Von den grundlegenden API-Schichten bis hin zu den hochmodernen multimodalen Interaktionen und robusten Tools hat Google in den späten Jahren 2025 und frühen 2026 einige wirklich solide Funktionen ausgeliefert. Das ist nicht nur ein "Game-Changer" (uff, ich hasse diesen Begriff); es ist eine praktische Weiterentwicklung, die uns befähigt, ausgefeiltere, zuverlässigere und reaktionsschnellere KI-Systeme zu entwickeln.

Lasst uns den Lärm durchschneiden und in das technische Herzstück dessen eintauchen, was gelandet ist.

Die sich entwickelnde Gemini API-Oberfläche: Über einfache Prompts hinaus

Die Kern-Gemini-API reift weiter, und die jüngsten Iterationen, insbesondere die Gemini 3-Serie (Gemini 3 Pro und Gemini 3 Flash, die im November bzw. Dezember 2025 auf den Markt kamen), sind ein Beweis für Googles Engagement, die Grenzen von Basismodellen zu erweitern. Dies sind keine inkrementellen Verbesserungen; sie stellen bedeutende Sprünge in Bezug auf Schlussfolgerungen, Multimodalität und agentisches Codierungsvermögen dar.

Was wirklich beeindruckt, ist der erweiterte Kontextfenster. Das Gemini 2.5 Pro Modell unterstützt beispielsweise ein riesiges Kontextfenster von einer Million Token, das es ihm ermöglicht, riesige Mengen an Text oder sogar vollständige Videotranskripte mit beispielloser Leichtigkeit zu analysieren. Es geht nicht nur darum, mehr Daten einzuspeisen; es geht darum, dem Modell zu ermöglichen, ein kohärentes, tiefes Verständnis über erweiterte Interaktionen hinweg aufrechtzuerhalten, was für komplexe Aufgaben wie die Erstellung von Langform-Inhalten, die komplizierte Codeanalyse oder mehrstufige Konversationsagenten entscheidend ist. Für einen umfassenderen Überblick über die Landschaft, werfen Sie einen Blick auf unseren LLM Deep Dive 2025: Warum Claude 4 und GPT-5.1 alles verändern.

Aus API-Sicht erfordert die Interaktion mit diesen Modellen ein differenziertes Verständnis der Parameter generation_config und safety_settings. Wenn Sie beispielsweise generateContent aufrufen, senden Sie nicht nur einen rohen String; Sie orchestrieren das Verhalten des Modells über ein strukturiertes JSON-Payload:

{
  "contents": [
    {
      "role": "user",
      "parts": [
        {"text": "Analysieren Sie diesen Codeausschnitt auf potenzielle Schwachstellen und schlagen Sie Verbesserungen vor:"},
        {"text": "def calculate_discount(price, quantity):\n    if quantity > 10:\n        return price * quantity * 0.9\n    return price * quantity"}
      ]
    }
  ],
  "generation_config": {
    "temperature": 0.7,
    "top_p": 0.95,
    "top_k": 40,
    "max_output_tokens": 8192,
    "stop_sequences": ["```end"]
  },
  "safety_settings": [
    {"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_NONE"},
    {"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_LOW_AND_ABOVE"}
  ],
  "tools": [
    // ... Funktionsdeklarationen gehen hier
  ]
}

Der Parameter temperature steuert die Zufälligkeit der Ausgabe (niedriger für deterministischer, höher für kreativer), top_p und top_k beeinflussen die Token-Auswahl, und max_output_tokens ist eine entscheidende Schutzvorrichtung. Ich habe festgestellt, dass eine sorgfältige Abstimmung dieser Parameter, insbesondere temperature und top_p, unerlässlich ist, um Kreativität mit faktischer Genauigkeit in Einklang zu bringen, insbesondere in sensiblen Bereichen. Die stop_sequences sind ebenfalls unschätzbar wertvoll, um die Ausgabelänge und das Format zu steuern und sicherzustellen, dass das Modell erwartete Antwortstrukturen einhält.

Multimodale Meisterschaft: Eintauchen in die Fähigkeiten von Gemini Pro Vision

Die multimodalen Fähigkeiten von Gemini, insbesondere Gemini Pro Vision, haben sich wirklich über bloße Bildunterschriften hinaus entwickelt. Wir sprechen jetzt von tief integriertem visuellem und textuellem Denken, das komplexe Probleme der realen Welt bewältigen kann. Die Fähigkeit, verschiedene Arten von Informationen (Text, Bilder, Video) nahtlos zu kombinieren und fast jede Ausgabe zu generieren, ist ein wesentlicher Unterscheidungsmerkmal.

Für Entwickler bedeutet dies, dass die Eingabestruktur für generateContent jetzt Bilddaten-URIs oder sogar Videoobjekte enthalten kann. Dies ermöglicht Aufgaben wie die Analyse von Produktetiketten, das Extrahieren von Daten aus Rechnungen oder sogar das Generieren von zugänglichen Beschreibungen für Bilder innerhalb von HTML-Dokumenten.

Betrachten Sie ein Szenario, in dem Sie ein automatisiertes Qualitätsinspektionssystem für eine Produktionslinie erstellen. Mit der Gemini Multimodal Live API können Sie Videodaten an Gemini streamen, das dann den Stream verarbeitet, Produkte durch das Lesen von Barcodes identifiziert, visuelle Inspektionen in Echtzeit durchführt und strukturierte JSON-Objekte ausgibt, die alle Defekte detailliert beschreiben. Es geht nicht nur darum, Objekte zu identifizieren; es geht darum, räumliche und zeitliche Daten zu analysieren.

Eine typische multimodale Eingabe für die Bildanalyse könnte in Python wie folgt aussehen:

import google.generativeai as genai
import base64

# Angenommen, `image_bytes` sind die rohen Bytes eines Bildes
encoded_image = base64.b64encode(image_bytes).decode('utf-8')

model = genai.GenerativeModel('gemini-pro-vision')
response = model.generate_content([
    "Beschreiben Sie dieses Produkt, identifizieren Sie alle sichtbaren Defekte und schlagen Sie eine Qualitätsbewertung von 1 bis 10 vor.",
    {
        "mime_type": "image/jpeg", # Oder image/png, etc.
        "data": encoded_image
    }
])
print(response.text)

Das ist ein leistungsstarkes Primitiv. Wir sehen Modelle, die nicht nur "sehen", sondern auch den Kontext und die Beziehungen innerhalb visueller Daten "verstehen", was völlig neue Anwendungsklassen eröffnet. Das nano-banana-Modell, das im Zusammenhang mit Google AI Studio erwähnt wird, deutet ferner auf spezialisierte, möglicherweise effizientere visuelle Fähigkeiten hin, die wahrscheinlich für bestimmte Aufgaben wie die Bildbearbeitung optimiert sind.

Funktionsaufrufe: Präzise Orchestrierung externer Tools

Funktionsaufrufe sind schnell zu einer der wirkungsvollsten Funktionen für den Aufbau ausgefeilter, agentischer KI-Anwendungen geworden. Mit den jüngsten Updates, insbesondere in Gemini 2.0 Flash und der Gemini 3-Serie, ist die Fähigkeit des Modells, zu erkennen, wann und wie externe Tools aufgerufen werden sollen, bemerkenswert präzise. Es geht nicht mehr nur darum, Text zu generieren; es geht darum, strukturierte JSON-Objekte zu generieren, die Funktionsaufrufe und ihre Argumente angeben und so die Kluft zwischen natürlicher Sprache und programmatischer Aktion überbrücken.

Die API unterstützt die Definition von Funktionen mithilfe von JSON Schema, einem robusten, sprachunabhängigen Weg zur Beschreibung Ihrer Tools. Für Python-Entwickler bietet das SDK sogar eine automatische Schema-Generierung aus einfachen Python-Funktionen, was die Integration erheblich vereinfacht. Wenn Sie Datenexporte aus diesen Funktionen verarbeiten, können Sie diesen JSON zu CSV-Konverter verwenden, um die Ergebnisse zu verarbeiten.

Besonders spannend ist die Einführung von parallelen und kompositionellen Funktionsaufrufen. Das bedeutet, dass das Modell jetzt mehrere Funktionen gleichzeitig oder in einer Sequenz vorschlagen kann, was komplexere, mehrstufige Workflows ermöglicht, ohne dass mehrere Hin- und Her-Prompts von der Anwendung erforderlich sind. Dies rationalisiert das agentische Verhalten erheblich.

Hier ist ein vereinfachtes Beispiel für die Definition von Tools und das Ausführen eines Funktionsaufrufs:

import google.generativeai as genai

# Definieren Sie ein Tool (z. B. eine Wetter-API)
def get_current_weather(location: str):
    """Ruft das aktuelle Wetter für einen bestimmten Ort ab."""
    # In einer echten App würde dies einen tatsächlichen API-Aufruf durchführen
    if location == "London":
        return {"temperature": "10°C", "conditions": "Bewölkt"}
    elif location == "New York":
        return {"temperature": "5°C", "conditions": "Regnerisch"}
    return {"temperature": "N/A", "conditions": "Unbekannt"}

# Registrieren Sie das Tool beim Modell
tools = genai.GenerativeModel.from_function(get_current_weather)

model = genai.GenerativeModel('gemini-3-pro-preview', tools=[tools]) # Verwenden eines Gemini 3-Modells für erweiterte Fähigkeiten

chat = model.start_chat()
response = chat.send_message("Wie ist das Wetter in London?")

# Das Modell gibt wahrscheinlich ein FunctionCall-Objekt zurück
if response.candidates.content.parts.function_call:
    function_call = response.candidates.content.parts.function_call
    print(f"Modell möchte {function_call.name} mit Argumenten {function_call.args} aufrufen")

    # Führen Sie die Funktion basierend auf der Anfrage des Modells aus
    function_output = globals()[function_call.name](**function_call.args)
    print(f"Funktionsausgabe: {function_output}")

    # Senden Sie die Funktionsausgabe zurück an das Modell, um eine Antwort in natürlicher Sprache zu erhalten
    final_response = chat.send_message(
        genai.types.ToolOutput(tool_code=function_output)
    )
    print(f"Endgültige KI-Antwort: {final_response.text}")

Das Wichtigste hier ist die explizite Kontrolle. Das Modell schlägt eine Aktion vor, aber Ihre Anwendung führt sie aus. Diese Trennung der Belange ist entscheidend für Sicherheit, Prüfung und die Gewährleistung, dass die KI keine unbeabsichtigten Aktionen autonom ausführt.

Lokale Entwicklung: SDK- und CLI-Verbesserungen

Für Entwickler, die im Terminal leben, ist die Einführung der Gemini CLI (gestartet im Juni 2025) eine willkommene Ergänzung. Dieser Open-Source-KI-Agent bringt die Leistung von Gemini direkt in Ihre Befehlszeile und bietet einen leichtgewichtigen Zugriff auf Modelle wie Gemini 2.5 Pro mit großzügigen kostenlosen Nutzungslimits.

Die CLI ist nicht nur ein Wrapper für die API; sie ist ein vielseitiges Tool für die Inhaltserstellung, Problemlösung und sogar tiefgreifende Recherche. Sie verfügt über integrierte Tools für die Google Search-Grundierung, Dateibearbeitung, Shell-Befehle und Web-Fetching. Darüber hinaus ist sie über das Model Context Protocol (MCP) erweiterbar, sodass Sie benutzerdefinierte Tools integrieren und hochspezialisierte Workflows erstellen können. Das ist wirklich leistungsstark, denn es bedeutet, dass Ihr KI-Agent direkt mit Ihrer lokalen Umgebung interagieren kann, was ihn zu einem hyperintelligenten Programmierpartner macht.

Beispielsweise können Sie mit der CLI Folgendes sagen:

gemini -p "Fassen Sie die Änderungen im Verzeichnis 'src/' vom letzten Commit zusammen und erstellen Sie eine Markdown-Datei mit dem Namen 'changelog.md' mit der Zusammenfassung." --tools "filesystem,git"

Dieser Befehl nutzt integrierte Dateisystem- und Git-Tools, um mit Ihrem lokalen Codebase zu interagieren, was eine praktische Kombination aus KI-Denken und lokaler Ausführung demonstriert. Die Flags --output-format json und --output-format stream-json sind ebenfalls unglaublich nützlich für die Skripterstellung und die Integration der CLI in automatisierte Workflows.

Auf der SDK-Front bleibt das Vertex AI SDK für Python eine robuste Plattform, aber Google hat einen klaren Wandel signalisiert. Ab dem 24. Juni 2025 werden mehrere Generative AI-Module innerhalb des Vertex AI SDK veraltet, mit einer starken Empfehlung, das dedizierte Google Gen AI SDK für Funktionen wie generative_models, language_models, vision_models, tuning und caching zu verwenden. Dies ist ein entscheidendes Detail für alle, die eine neue Entwicklung planen oder bestehende Anwendungen warten, was eine fokussiertere und optimierte SDK-Erfahrung für Kern-Generative-AI-Aufgaben impliziert. Das Vertex AI SDK wird weiterhin die erste Wahl für Evaluation, Agent Engines, Prompt Management und Prompt Optimization Module sein und seine Rolle als Enterprise-Grade-MLOps-Plattform beibehalten.

Verantwortungsbewusste KI: Pragmatische Schutzmaßnahmen für die Produktion

Lassen Sie uns ehrlich sein: Der Einsatz leistungsstarker generativer KI ohne robuste Sicherheitsmechanismen ist unverantwortlich. Google hat seine Responsible AI-Einstellungen kontinuierlich verfeinert und bietet anpassbare Sicherheitsschwellenwerte für vier Schlüsselkategorien von Schäden: gefährliche Inhalte, Belästigung, Hassrede und sexuell explizite Inhalte.

Diese Einstellungen sind nicht nur Kontrollkästchen; sie ermöglichen eine fein abgestimmte Steuerung, wie die Ausgaben des Modells gefiltert werden. Sie können Schwellenwerte (z. B. BLOCK_NONE, BLOCK_LOW_AND_ABOVE, BLOCK_MEDIUM_AND_ABOVE, BLOCK_HIGH_AND_ABOVE) für jede HarmCategory festlegen. Dies ist entscheidend, da das, was in einer Anwendung akzeptabel ist (z. B. ein Tool zum kreativen Schreiben), in einer anderen (z. B. ein Kundendienst-Chatbot) völlig unangemessen sein kann.

Beispielsweise könnten Sie Ihre safety_settings in einer Content-Generierungs-Pipeline wie folgt konfigurieren:

safety_settings=[
    {"category": "HARM_CATEGORY_DANGEROUS_CONTENT", "threshold": "BLOCK_MEDIUM_AND_ABOVE"},
    {"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_ONLY_HIGH"},
    {"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_LOW_AND_ABOVE"},
    {"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT", "threshold": "BLOCK_MEDIUM_AND_ABOVE"},
]

Es ist wichtig zu bedenken, dass diese Filter auf der Wahrscheinlichkeit basieren, dass Inhalte unsicher sind, nicht unbedingt auf ihrer Schwere. Das bedeutet, dass eine geringe Wahrscheinlichkeit eines hochgradig schweren Schadens durchgehen kann, wenn der Schwellenwert zu hoch eingestellt ist. Die Dokumentation besagt klar, dass Entwickler ihre Benutzer und potenziellen Schäden verstehen müssen, was die Notwendigkeit einer rigorosen manuellen Bewertung und Nachbearbeitung zusätzlich zu den integrierten Schutzmaßnahmen der API betont. Das ist eine Realitätsprüfung: Kein automatisiertes System ist eine Wunderwaffe, und menschliche Aufsicht bleibt von größter Bedeutung.

Leistung und Latenz: Was steckt dahinter

Leistung ist oft der stille Killer großartiger KI-Funktionen. Der jüngste Fokus auf Streaming-APIs und Modelloptimierungen ist ein großer Gewinn für die Benutzererfahrung. Die Gemini Live API bietet beispielsweise eine Latenz von weniger als einer Sekunde für das erste Token, was für natürliche, Echtzeit-Sprach- und Videointeraktionen entscheidend ist. Dies wird durch eine zustandsbehaftete API erreicht, die WebSockets für latenzarme, Server-zu-Server-Kommunikation verwendet, die eine bidirektionale Übertragung von Audio, Video und Text ermöglicht.

Streaming-Antworten, bei denen das Modell Tokens chunkweise sendet, sobald sie generiert werden, verbessern die wahrgenommene Latenz und Interaktivität erheblich, insbesondere bei langen Ausgaben. Dies ist unschätzbar wertvoll für Chatbots, Code-Assistenten und Zusammenfasser, bei denen Benutzer eine sofortige Rückmeldung erwarten.

Darüber hinaus führen Optimierungen wie die verbesserte Token-Effizienz des Gemini 2.5 Flash Modells (Verwendung von 20-30 % weniger Token als frühere Versionen) direkt zu geringeren Kosten und schnelleren Verarbeitungszeiten für Anwendungen mit hohem Durchsatz. Diese Art von Effizienz ist wichtig, wenn Sie in großem Maßstab arbeiten.

Obwohl ich keine umfassenden, unabhängigen Benchmarks für die absoluten Latenzzahlen durchgeführt habe, ist das Gefühl der Interaktion mit Streaming-Modellen, insbesondere über die CLI oder reaktionsschnelle Web-Schnittstellen, deutlich verbessert. Die Fähigkeit, mit der Verarbeitung einer teilweisen Antwort zu beginnen, während der Rest noch generiert wird, ermöglicht ein dynamischeres und reaktionsschnelleres Anwendungsdesign.

Experten-Einblick: Die agentische Revolution und das 'Tool-First'-Paradigma

Was ich entfalten sehe, insbesondere mit den Fortschritten bei Funktionsaufrufen, der Erweiterbarkeit der Gemini CLI über MCP und der multimodalen Live API, ist eine klare Beschleunigung hin zu einer "Tool-First"-Agentenarchitektur. Es geht nicht nur darum, dass das LLM Text generiert; es geht darum, dass das LLM zum Orchestrator eines reichhaltigen Ökosystems von Tools und Datenquellen wird.

Der Gemini Deep Research Agent (in Vorschau im Dezember 2025 gestartet) und die Abschaffung älterer Gemini Code Assist-Tools zugunsten des Agentenmodus (Oktober 2025) sind starke Indikatoren für diesen Wandel. Wir bewegen uns über einfache API-Aufrufe hinaus hin zu komplexen, autonomen Agenten, die mehrstufige Aufgaben über verschiedene externe Systeme planen, ausführen und Ergebnisse synthetisieren können.

Meine Vorhersage ist, dass der Erfolg Ihrer nächsten Generation von KI-Anwendungen nicht nur von der rohen Intelligenz des LLM abhängt, sondern davon, wie effektiv Sie dessen Zugriff auf Tools integrieren und verwalten. Denken Sie daran als inverse Prompt-Engineering: Anstatt den perfekten Prompt zu erstellen, erstellen Sie das perfekte Toolset und definieren Sie robuste Schemata für diese Tools. Die Fähigkeit des Modells, die Verfügbarkeit von Tools zu verstehen, ihre Fähigkeiten zu verstehen und präzise Funktionsaufrufe zu generieren, wird der Engpass und der Unterscheidungsfaktor sein. Entwickler, die die Definition klarer, atomarer Funktionen mit gut strukturierten JSON-Schemata beherrschen und widerstandsfähige Systeme zum Ausführen und Zurückführen von Tool-Ausgaben aufbauen, werden einen erheblichen Vorteil haben. Die Zukunft ist weniger rohe Modellleistung und mehr effektive Modell-Agency.

Reality Check & Ausblick

Obwohl die Fortschritte unbestreitbar sind, ist es wichtig, eine pragmatische Sichtweise beizubehalten.

Dokumentations- und Debugging-Herausforderungen

Während die Kern-API-Dokumentation im Allgemeinen solide ist, können tiefgreifende, technische, multimodale, multi-tool und agentische Beispiele manchmal verstreut wirken oder erfordern erhebliche Schlussfolgerungen aus High-Level-Anleitungen. Ich würde mir mehr kanonische, komplexe Architekturmuster mit konkreten Codebeispielen wünschen, insbesondere für die Live API und MCP-Integrationen.

Das Debuggen, warum ein Agent einen bestimmten Tool ausgewählt oder nicht ausgewählt hat, kann immer noch eine Herausforderung darstellen. Die Einführung von "Gedankenzusammenfassungen" in der Gemini API und Vertex AI für Gemini 2.5 Pro und Flash ist ein Schritt in die richtige Richtung, der eine strukturiertere Sicht auf den Denkprozess des Modells bietet. Dies muss erweitert und für eine tiefere Introspektion leichter zugänglich gemacht werden.

Kosten und Latenzvariabilität

Obwohl die Token-Effizienz mit Modellen wie Gemini 2.5 Flash verbessert wird, können komplexe agentische Workflows mit mehreren Tool-Aufrufen und langen Kontexten immer noch hohe Kosten verursachen. Eine detailliertere Kostenaufschlüsselung und Optimierungstools innerhalb von Google AI Studio und Vertex AI wären sehr hilfreich. Darüber hinaus kann die Wahrung einer konsistenten, geringen Latenz für jedes Token, insbesondere in hochdynamischen multimodalen Szenarien, eine Herausforderung darstellen. Faktoren wie Netzwerkbedingungen und Modelllast können immer noch zu Variabilität führen.

Mit Blick auf die Zukunft erwarte ich eine noch engere Integration zwischen Gemini und Google Cloud-Diensten. Die "Builder-App" in Google AI Studio mit ihren One-Click-Integrationen für Google Search- und Google Maps-Daten deutet auf eine Zukunft hin, in der die Grounding und der externe Datenzugriff direkt in die Fähigkeiten des Modells integriert sind, was Halluzinationen reduziert und die faktische Genauigkeit verbessert. Die kommenden Custom Model Marketplaces innerhalb von Google AI Studio deuten auch auf eine Zukunft hin, in der wir spezialisierte Modelle innerhalb des Ökosystems teilen und monetarisieren können.

Fazit

Es ist eine aufregende Zeit, um Entwickler zu sein, die mit Google AI arbeiten. Die jüngsten Updates der Gemini API, die leistungsstarken multimodalen Fähigkeiten von Gemini Pro Vision, die praktische Präzision von Funktionsaufrufen und die entwicklerfreundlichen Tools wie die Gemini CLI bieten uns eine unglaublich reichhaltige Palette, um intelligente Anwendungen zu erstellen. Wir bewegen uns schnell von der einfachen Textgenerierung zu ausgefeilten, agentischen Systemen, die mit der realen Welt interagieren können. Obwohl es noch einige Unebenheiten und Verbesserungsmöglichkeiten gibt, ist die Richtung klar: Google investiert stark in Gemini, um es zu einer robusten, effizienten und tief integrierten Plattform für Entwickler zu machen. Also, krempeln Sie die Ärmel hoch, experimentieren Sie mit diesen neuen Funktionen und lassen Sie uns einige wirklich bemerkenswerte KI-Anwendungen erstellen.


Quellen


Dieser Artikel wurde vom DataFormatHub Editorial Team veröffentlicht, einer Gruppe von Entwicklern und Datenbegeisterten, die sich dafür einsetzen, Datentransformationen zugänglich und privat zu gestalten. Unser Ziel ist es, hochwertige technische Einblicke neben unserer Suite von datenschutzorientierten Entwicklertools bereitzustellen.


🛠️ Zugehörige Tools

Entdecken Sie diese DataFormatHub-Tools, die sich auf dieses Thema beziehen:

  • JSON zu CSV - Konvertieren Sie API-Antworten in Tabellenkalkulationen
  • JWT Decoder - Decodieren und untersuchen Sie JWT-Token

📚 Möglicherweise interessieren Sie sich auch für