Что такое LLM?
LLM — это Large Language Model, большая языковая модель, обученная на гигантском массиве текстов. Самые известные — ChatGPT, Claude, GigaChat, YandexGPT, DeepSeek, Qwen. Некоторые из них — опенсорсные, и их можно запустить на собственном сервере.
Для пользователя LLM — это “чёрный ящик”. Вы подаёте текст, а получаете осмысленный результат: перевод, краткое содержание, программный код.
Основное понятие тут — промпт. Это то, что вы подаёте на вход. Например:
Переведи этот текст на испанский” или “Напиши Telegram-бота на Python.
Важно понимать: LLM не знает фактов. Она не ищет информацию в Википедии, а просто продолжает текст на основе вероятностей. Поэтому иногда модель может галлюцинировать — уверенно выдумывать неправду.
Где применимы LLM?
Примеры задач, где LLM незаменим:
- Поддержка клиентов
- Внутренние ассистенты
- Обработка обратной связи
- Генерация отчётов и инструкций
- Перевод и адаптация контента
Главное — грамотно сформулировать промпт.
Галлюцинации: почему это происходит?
Пример: вы спросили модель:
Какие книги Шекспир написал в 20 веке?
Ответ может быть:
В 1923 году Шекспир издал пьесу The Queen’s Tragedy…
Это звучит убедительно. Но — выдумка. Шекспир умер в XVII веке. Именно такие ошибки называются галлюцинациями. Чтобы бороться с этим, используют подход RAG — когда мы подсовываем модели реальные данные. Подробнее — во втором уроке.
Первый практический проект
Давайте соберём простое приложение на Directual — ассистент, который подсказывает фильмы. Пользователь вводит пожелания, модель подбирает 3 фильма. Работать будем через API. Подключим ChatGPT с помощью API-ключа, доступного в личном кабинете OpenAI.
Создаём таблицу запросов, интерфейс с формой и списком ответов. Добавляем два сценария: один — создаёт запрос, второй — отправляет его в LLM и получает ответ. Ответ сохраняется в базу и мгновенно обновляет интерфейс.
В итоге — готовый ИИ-сервис, который работает с реальными пользователями.
Скачать snapshot приложения из урока. После наката версии нужно будет установить все плагины вручную!
Что дальше?
Поздравляю — вы сделали первый шаг! Вы теперь знаете, что такое LLM, как с ним работать и как встроить его в собственное веб-приложение — без программирования.
Но дальше будет ещё интереснее. Во втором уроке мы разберём, как построить осознанного ИИ, который отвечает по вашим данным, а не фантазирует. Поговорим про векторные базы, эмбеддинги и смысловой поиск. И — сделаем всё это своими руками. Переходите ко второму уроку — он уже доступен!