__wf_reserved_heredar
__wf_reserved_heredar
__wf_reserved_heredar
Что нового?
Продукт
Кто использует Directual и почему?
Что можно создать на платформе?
Материалы
Почему Directual?
Ресурсы
Юридическая информация
Компания

Что такое LLM и как встроить ИИ в свой продукт без кода

Разбираем, как устроены большие языковые модели (LLM), чем они полезны и где могут ошибаться. Объясняем, что такое промпты, галлюцинации и контекст. Закладываем фундамент для создания ИИ-ассистента, который понимает запросы и ведёт диалог.

Что такое LLM?

LLM — это Large Language Model, большая языковая модель, обученная на гигантском массиве текстов. Самые известные — ChatGPT, Claude, GigaChat, YandexGPT, DeepSeek, Qwen. Некоторые из них — опенсорсные, и их можно запустить на собственном сервере.

Для пользователя LLM — это “чёрный ящик”. Вы подаёте текст, а получаете осмысленный результат: перевод, краткое содержание, программный код.

Основное понятие тут — промпт. Это то, что вы подаёте на вход. Например:

Переведи этот текст на испанский” или “Напиши Telegram-бота на Python.

Важно понимать: LLM не знает фактов. Она не ищет информацию в Википедии, а просто продолжает текст на основе вероятностей. Поэтому иногда модель может галлюцинировать — уверенно выдумывать неправду.

Где применимы LLM?

Примеры задач, где LLM незаменим:

  • Поддержка клиентов
  • Внутренние ассистенты
  • Обработка обратной связи
  • Генерация отчётов и инструкций
  • Перевод и адаптация контента

Главное — грамотно сформулировать промпт.

Галлюцинации: почему это происходит?

Пример: вы спросили модель:

Какие книги Шекспир написал в 20 веке?

Ответ может быть:

В 1923 году Шекспир издал пьесу The Queen’s Tragedy…

Это звучит убедительно. Но — выдумка. Шекспир умер в XVII веке. Именно такие ошибки называются галлюцинациями. Чтобы бороться с этим, используют подход RAG — когда мы подсовываем модели реальные данные. Подробнее — во втором уроке.

Первый практический проект

Давайте соберём простое приложение на Directual — ассистент, который подсказывает фильмы. Пользователь вводит пожелания, модель подбирает 3 фильма. Работать будем через API. Подключим ChatGPT с помощью API-ключа, доступного в личном кабинете OpenAI.

Создаём таблицу запросов, интерфейс с формой и списком ответов. Добавляем два сценария: один — создаёт запрос, второй — отправляет его в LLM и получает ответ. Ответ сохраняется в базу и мгновенно обновляет интерфейс.

В итоге — готовый ИИ-сервис, который работает с реальными пользователями.

Скачать snapshot приложения из урока. После наката версии нужно будет установить все плагины вручную!

Что дальше?

Поздравляю — вы сделали первый шаг! Вы теперь знаете, что такое LLM, как с ним работать и как встроить его в собственное веб-приложение — без программирования.

Но дальше будет ещё интереснее. Во втором уроке мы разберём, как построить осознанного ИИ, который отвечает по вашим данным, а не фантазирует. Поговорим про векторные базы, эмбеддинги и смысловой поиск. И — сделаем всё это своими руками. Переходите ко второму уроку — он уже доступен!

Встретьте единомышленников
по no-code

Присоединяйтесь к нашему уютному сообществу: получите помощь с проектами, найдите потенциальных сооснователей, пообщайтесь с разработчиками платформы и многое другое.