Начало работы
Быстрый старт
Первый запрос к AllTokens за 5 минут: регистрация, ключ, curl и библиотеки OpenAI.
Что понадобится
- Аккаунт AllTokens
- API-ключ из личного кабинета
- Любой HTTP-клиент или библиотека OpenAI
Все примеры в этой документации используют рабочий адрес https://api.alltokens.ru/api/v1.
От регистрации до первого ответа
Создайте аккаунт и откройте личный кабинет
Зарегистрируйтесь в AllTokens и перейдите в раздел с ключами API. Если вы только что создали аккаунт, это будет ваша первая основная страница.
Создайте API-ключ
Выпустите новый ключ и сохраните его. Дальше вы будете передавать его в заголовке Authorization или в настройках совместимого клиента.
Сделайте первый запрос с model=alltokens/auto
Начните с alltokens/auto. Эта routing-модель снимает с вас выбор конкретной модели и помогает быстро проверить интеграцию.
Проверьте ответ и ID генерации
В успешном ответе вы увидите choices[0].message.content и id. Этот id пригодится, если потом захотите посмотреть сведения о выполненном запросе и выбранном маршруте.
Первый запрос
Что вы увидите в ответе
{
"id": "gen-...",
"object": "chat.completion",
"model": "openai/gpt-4.1-mini",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "Привет!"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 18,
"completion_tokens": 2,
"total_tokens": 20,
"cost": 0.34
}
}
Если вы получили choices[0].message.content, значит интеграция уже работает. Дальше можно выбрать конкретную модель, включить потоковый режим или задать ограничения маршрутизации.
Когда переходить от alltokens/auto к конкретной модели
На старте используйте alltokens/auto. Когда появится понятная задача, переходите на фиксированную модель:
"model": "anthropic/claude-sonnet-4"
Полный список смотрите в GET /api/models и в разделе Модели.
Потоковый ответ
Добавьте "stream": true в тело запроса. Ответ придёт фрагментами в формате серверных событий.
curl -X POST "https://api.alltokens.ru/api/v1/chat/completions" \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "alltokens/auto",
"messages": [{"role": "user", "content": "Посчитай от 1 до 5"}],
"stream": true
}'
После потокового запроса используйте id из ответа и вызовите GET /api/route/explain или GET /api/generation, если хотите узнать, какая модель и какой провайдер сработали фактически.
Частые вопросы
Когда оставаться на model: "alltokens/auto", а когда фикс ировать модель?
Когда оставаться на model: "alltokens/auto", а когда фикс ировать модель?
Оставайтесь на alltokens/auto, пока проверяете интеграцию или не определились с рабочим профилем. Фиксируйте модель, когда вам уже важны повторяемость поведения, конкретные возможности модели или предсказуемый результат.
Почему ответ пришёл не от той модели, которую я ожидал?
Почему ответ пришёл не от той модели, которую я ожидал?
Если вы используете alltokens/auto или alltokens/free, платформе разрешено выбирать фактическую модель сама. Чтобы увидеть итоговый выбор, сохраните id ответа и проверьте /api/route/explain или /api/generation.
Нужно ли сразу включать stream?
Нужно ли сразу включать stream?
Нет. Для первого успешного запроса проще начать без stream, убедиться, что интеграция работает, и только потом добавлять потоковый режим для UI, где важна выдача по мере генерации.
Что проверить, если первый запрос не сработал?
Что проверить, если первый запрос не сработал?
Сначала проверьте Authorization, base_url, JSON-тело и то, что вы используете POST /api/v1/chat/completions. После этого уже имеет смысл разбирать коды ответа и ограничения клиента.