К каталогу

Google: Gemini 3.1 Flash Lite Preview

google/gemini-3.1-flash-lite-preview
Использовать
Выпущена 3 марта 2026 г.|1.0М контекст|20,01 ₽/М вход|120,07 ₽/М выход

Gemini 3.1 Flash Lite Preview — это высокоэффективная модель Google, оптимизированная для сценариев использования с большим объемом данных. Она превосходит Gemini 2.5 Flash Lite по общему качеству и приближается к производительности Gemini 2.5 Flash по ключевым возможностям. Улучшения охватывают аудиовход/ASR, ранжирование фрагментов RAG, перевод, извлечение данных и автодополнение кода. Поддерживает полные уровни мышления (минимальный, низкий, средний, высокий) для точной настройки компромиссов между стоимостью и производительностью. Стоимость вдвое ниже, чем у Gemini 3 Flash.

Провайдер для Google: Gemini 3.1 Flash Lite Preview

Hubris маршрутизирует запросы к лучшему доступному провайдеру с автоматическим fallback при сбоях.

google
Контекст
1.0М
токенов
Макс. ответ
66К
токенов
Вход
20,01 ₽
за 1М токенов
Выход
120,07 ₽
за 1М токенов
Кеш чтение
2,00 ₽
за 1М токенов
Кеш запись
6,67 ₽
за 1М токенов
Изображения
бесплатно
за вход

Модальности

Вход:ТекстИзображенияВидеоФайлыАудиоВыход:Текст

Поддерживаемые параметры

include_reasoningmax_tokensreasoningresponse_formatseedstopstructured_outputstemperaturetool_choicetoolstop_p

Другие модели от google

Google: Gemini 3.1 Flash Lite

Gemini 3.1 Flash Lite is Google’s GA high-efficiency multimodal model optimized for low-latency, high-volume workloads. It supports text, image, video, audio, and PDF inputs, and is designed for lightweight agentic workflows, simple data extraction, and applications where responsiveness and API cost are the primary constraints. Supports full thinking levels (minimal, low, medium, high) for fine-grained cost/performance trade-offs. Priced at half the cost of Gemini 3 Flash.

1.0М контекст·от 20,01 ₽

Google: Gemini Embedding 2 Preview

Gemini Embedding 2 Preview is Google's first multimodal embedding model. We currently support mapping text and images into a unified vector space for semantic search and retrieval-augmented generation (RAG). It supports input context up to 8,192 tokens and flexible output dimensions from 128 to 3,072 (recommended: 768, 1536, or 3,072). Designed for cross-modal similarity — you can embed a text query and retrieve the most relevant images, or vice versa — making it well-suited for multimodal search, recommendation, and document understanding pipelines.

контекст·от 16,01 ₽

Google: Gemma 4 26B A4B (free)

Gemma 4 26B A4B IT — это модель Mixture-of-Experts (MoE) от Google DeepMind, настроенная на выполнение инструкций. Несмотря на общее количество параметров в 25,2 млрд, во время инференса на каждый токен активируется только 3,8 млрд, что обеспечивает качество, близкое к 31 млрд, при...

262К контекст·от бесплатно

Google: Gemma 4 26B A4B

Gemma 4 26B A4B IT — это модель Mixture-of-Experts (MoE) от Google DeepMind, настроенная на выполнение инструкций. Несмотря на 25,2 млрд общих параметров, только 3,8 млрд активируются на каждый токен во время вывода — обеспечивая качество, близкое к 31 млрд, при значительно меньших вычислительных затратах. Поддерживает мультимодальный ввод, включая текст, изображения и видео (до 60 секунд при 1 кадре в секунду). Отличается контекстным окном в 256 тысяч токенов, нативной функцией вызова, настраиваемым режимом мышления/рассуждения и поддержкой структурированного вывода. Выпущена под лицензией Apache 2.0.

262К контекст·от 4,80 ₽

Google: Gemma 4 31B (free)

Gemma 4 31B Instruct — это плотная мультимодальная модель Google DeepMind с 30,7 миллиардами параметров, поддерживающая ввод текста и изображений с выводом текста. Отличается контекстным окном на 256 тысяч токенов, настраиваемым режимом мышления/рассуждения, нативной функцией...

262К контекст·от бесплатно

Google: Gemma 4 31B

Gemma 4 31B Instruct — это плотная мультимодальная модель Google DeepMind с 30,7 млрд параметров, поддерживающая ввод текста и изображений с выводом текста. Она имеет контекстное окно в 256 тысяч токенов, настраиваемый режим мышления/рассуждения, нативную поддержку вызова функций и многоязычную поддержку более чем на 140 языках. Модель демонстрирует высокие результаты в задачах кодирования, рассуждения и понимания документов. Лицензия Apache 2.0.

262К контекст·от 9,61 ₽