Google: Gemini 2.5 Flash Lite Preview 09-2025
google/gemini-2.5-flash-lite-preview-09-2025Gemini 2.5 Flash-Lite — это легковесная модель рассуждений в семействе Gemini 2.5, оптимизированная для сверхнизкой задержки и экономичности. Она предлагает улучшенную пропускную способность, более быструю генерацию токенов и лучшую производительность по сравнению с предыдущими моделями Flash в общих бенчмарках. По умолчанию «мышление» (то есть многопроходное рассуждение) отключено для приоритета скорости, но разработчики могут включить его с помощью параметра Reasoning API, чтобы выборочно обменивать стоимость на интеллект.
Провайдер для Google: Gemini 2.5 Flash Lite Preview 09-2025
Hubris маршрутизирует запросы к лучшему доступному провайдеру с автоматическим fallback при сбоях.
Модальности
Поддерживаемые параметры
Другие модели от google
Google: Gemini 3.1 Flash Lite
Gemini 3.1 Flash Lite is Google’s GA high-efficiency multimodal model optimized for low-latency, high-volume workloads. It supports text, image, video, audio, and PDF inputs, and is designed for lightweight agentic workflows, simple data extraction, and applications where responsiveness and API cost are the primary constraints. Supports full thinking levels (minimal, low, medium, high) for fine-grained cost/performance trade-offs. Priced at half the cost of Gemini 3 Flash.
Google: Gemini Embedding 2 Preview
Gemini Embedding 2 Preview is Google's first multimodal embedding model. We currently support mapping text and images into a unified vector space for semantic search and retrieval-augmented generation (RAG). It supports input context up to 8,192 tokens and flexible output dimensions from 128 to 3,072 (recommended: 768, 1536, or 3,072). Designed for cross-modal similarity — you can embed a text query and retrieve the most relevant images, or vice versa — making it well-suited for multimodal search, recommendation, and document understanding pipelines.
Google: Gemma 4 26B A4B (free)
Gemma 4 26B A4B IT — это модель Mixture-of-Experts (MoE) от Google DeepMind, настроенная на выполнение инструкций. Несмотря на общее количество параметров в 25,2 млрд, во время инференса на каждый токен активируется только 3,8 млрд, что обеспечивает качество, близкое к 31 млрд, при...
Google: Gemma 4 26B A4B
Gemma 4 26B A4B IT — это модель Mixture-of-Experts (MoE) от Google DeepMind, настроенная на выполнение инструкций. Несмотря на 25,2 млрд общих параметров, только 3,8 млрд активируются на каждый токен во время вывода — обеспечивая качество, близкое к 31 млрд, при значительно меньших вычислительных затратах. Поддерживает мультимодальный ввод, включая текст, изображения и видео (до 60 секунд при 1 кадре в секунду). Отличается контекстным окном в 256 тысяч токенов, нативной функцией вызова, настраиваемым режимом мышления/рассуждения и поддержкой структурированного вывода. Выпущена под лицензией Apache 2.0.
Google: Gemma 4 31B (free)
Gemma 4 31B Instruct — это плотная мультимодальная модель Google DeepMind с 30,7 миллиардами параметров, поддерживающая ввод текста и изображений с выводом текста. Отличается контекстным окном на 256 тысяч токенов, настраиваемым режимом мышления/рассуждения, нативной функцией...
Google: Gemma 4 31B
Gemma 4 31B Instruct — это плотная мультимодальная модель Google DeepMind с 30,7 млрд параметров, поддерживающая ввод текста и изображений с выводом текста. Она имеет контекстное окно в 256 тысяч токенов, настраиваемый режим мышления/рассуждения, нативную поддержку вызова функций и многоязычную поддержку более чем на 140 языках. Модель демонстрирует высокие результаты в задачах кодирования, рассуждения и понимания документов. Лицензия Apache 2.0.