Начало работы

Быстрый старт

Первый запрос к AllTokens за 5 минут: регистрация, ключ, curl и библиотеки OpenAI.

Что понадобится

Все примеры в этой документации используют рабочий адрес https://api.alltokens.ru/api/v1.

От регистрации до первого ответа

1

Создайте аккаунт и откройте личный кабинет

Зарегистрируйтесь в AllTokens и перейдите в раздел с ключами API. Если вы только что создали аккаунт, это будет ваша первая основная страница.

2

Создайте API-ключ

Выпустите новый ключ и сохраните его. Дальше вы будете передавать его в заголовке Authorization или в настройках совместимого клиента.

3

Сделайте первый запрос с model=alltokens/auto

Начните с alltokens/auto. Эта routing-модель снимает с вас выбор конкретной модели и помогает быстро проверить интеграцию.

4

Проверьте ответ и ID генерации

В успешном ответе вы увидите choices[0].message.content и id. Этот id пригодится, если потом захотите посмотреть сведения о выполненном запросе и выбранном маршруте.

Первый запрос

curl -X POST "https://api.alltokens.ru/api/v1/chat/completions" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "alltokens/auto",
    "messages": [
      {"role": "system", "content": "Отвечай кратко и по делу."},
      {"role": "user", "content": "Скажи привет в одном слове"}
    ]
  }'

Что вы увидите в ответе

{
  "id": "gen-...",
  "object": "chat.completion",
  "model": "openai/gpt-4.1-mini",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "Привет!"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 18,
    "completion_tokens": 2,
    "total_tokens": 20,
    "cost": 0.34
  }
}

Если вы получили choices[0].message.content, значит интеграция уже работает. Дальше можно выбрать конкретную модель, включить потоковый режим или задать ограничения маршрутизации.

Когда переходить от alltokens/auto к конкретной модели

На старте используйте alltokens/auto. Когда появится понятная задача, переходите на фиксированную модель:

"model": "anthropic/claude-sonnet-4"

Полный список смотрите в GET /api/models и в разделе Модели.

Потоковый ответ

Добавьте "stream": true в тело запроса. Ответ придёт фрагментами в формате серверных событий.

curl -X POST "https://api.alltokens.ru/api/v1/chat/completions" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "alltokens/auto",
    "messages": [{"role": "user", "content": "Посчитай от 1 до 5"}],
    "stream": true
  }'

После потокового запроса используйте id из ответа и вызовите GET /api/route/explain или GET /api/generation, если хотите узнать, какая модель и какой провайдер сработали фактически.

Частые вопросы

Оставайтесь на alltokens/auto, пока проверяете интеграцию или не определились с рабочим профилем. Фиксируйте модель, когда вам уже важны повторяемость поведения, конкретные возможности модели или предсказуемый результат.

Если вы используете alltokens/auto или alltokens/free, платформе разрешено выбирать фактическую модель сама. Чтобы увидеть итоговый выбор, сохраните id ответа и проверьте /api/route/explain или /api/generation.

Нет. Для первого успешного запроса проще начать без stream, убедиться, что интеграция работает, и только потом добавлять потоковый режим для UI, где важна выдача по мере генерации.

Сначала проверьте Authorization, base_url, JSON-тело и то, что вы используете POST /api/v1/chat/completions. После этого уже имеет смысл разбирать коды ответа и ограничения клиента.

Что читать дальше