Ваш личный AI-помощник: Запускаем локальную LLM с Ollama, Raycast и Open WebUI

Ваш личный AI-помощник: Запускаем локальную LLM с Ollama, Raycast и Open WebUI

В последнее время подписки на AI-сервисы начали утомлять. ChatGPT Plus, Claude, Perplexity — все они требуют денег, интернет-соединения и, что важнее, наших данных. Каждый раз, отправляя в облако рабочие наработки или личные запросы, мы задаемся вопросом: кто и как это использует?

К счастью, есть альтернатива, которая находится прямо на вашем компьютере — локальные LLM. Это возможность запустить мощную нейросеть прямо на своем железе: приватно, бесплатно (почти) и с полным контролем.

В этом гайде мы по шагам соберем такого AI-помощника на связке:

  • Ollama — движок для запуска моделей.
  • Raycast — для молниеносного доступа на macOS.
  • Open WebUI — для полноценного чат-интерфейса на любой ОС.

К концу статьи у вас будет полностью рабочий локальный AI, понимание, как им управлять, и два универсальных промпта, которые сразу покажут его мощь. Поехали.

Локальный AI: Что это и зачем вам нужно?

Представьте, что у вас в ноутбуке завелся личный джинн. Не где-то на серверах Google или OpenAI, а прямо в вашем железе. Он умеет писать код, генерировать тексты и отвечать на вопросы, но делает это полностью автономно.

Ключевые преимущества такого подхода:

  1. 🔒 Приватность и контроль. Все, что вы обсуждаете с локальным AI, остается между вами. Никакие корпоративные тайны или фрагменты кода не утекают в неизвестном направлении.
  2. 💰 Экономия. Софт и большинство моделей имеют открытый исходный код и бесплатны. Вы платите только за электричество, которое потребляет ваш компьютер.
  3. Офлайн-доступ. Скачали модель один раз — и интернет больше не нужен. Работайте с AI в самолете, в поезде или там, где нет стабильной связи.
  4. Гибкость. Вы сами решаете, какую модель использовать, можете тонко настраивать ее поведение и менять по своему усмотрению.

Раньше это было сложно и требовало глубоких технических знаний. Сегодня, благодаря инструментам вроде Ollama, процесс стал не сложнее установки обычной программы.

Шаг 1: Установка «мозгового центра» — Ollama

Ollama — это наш фундамент. Бесплатный, опенсорсный и невероятно удобный инструмент, который скачивает, запускает и управляет локальными LLM.

Для macOS и Windows

Процесс установки элементарен:

  1. Перейдите на официальный сайт: https://ollama.com/download
  2. Скачайте установщик для вашей ОС (.dmg для macOS, .exe для Windows).
  3. Запустите его и следуйте стандартным шагам установки.

Для проверки откройте Терминал (macOS) или Командную строку (Windows) и введите:

ollama --version

Если в ответ вы увидели номер версии — все установлено корректно.

Ваш личный AI-помощник: Запускаем локальную LLM с Ollama, Raycast и Open WebUI

Запускаем первую модель: gemma3:12b

Для старта возьмем универсальную модель gemma3:12b от Google. Она достаточно мощная для большинства задач и не требует запредельных ресурсов.

  1. Скачиваем модель. В терминале вводим команду. Модель весит несколько гигабайт, так что это займет время.ollama pull gemma3:12b
  2. Запускаем чат. После скачивания запускаем интерактивный режим:ollama run gemma3:12b

Поздравляю, вы только что запустили чат с локальной нейросетью прямо в терминале! Можете задать ей любой вопрос. Для выхода из чата введите /bye.

Ваш личный AI-помощник: Запускаем локальную LLM с Ollama, Raycast и Open WebUI

Полезные команды Ollama

  • ollama list — посмотреть список всех скачанных моделей.
  • ollama pull <имя_модели> — скачать новую модель.
  • ollama rm <имя_модели> — удалить модель для освобождения места на диске.

Нюанс про железо и память

Ollama — экономный инструмент. Если модель какое-то время простаивает, он может выгрузить ее из оперативной памяти (RAM), чтобы освободить ресурсы для других задач. При следующем обращении к модели может возникнуть небольшая задержка (несколько секунд), пока она снова загружается в память. Это нормально.

Главное правило: не пытайтесь запустить 70-миллиардную модель на ноутбуке с 16 ГБ RAM. Чудес не бывает, всегда проверяйте требования к железу на странице модели.

Шаг 2: Выбираем интерфейс для работы

Терминал — это хорошо, но неудобно. Давайте прикрутим к нашему "мозгу" удобный интерфейс.

Вариант A (macOS): Raycast — магия на кончиках пальцев

Для пользователей macOS Raycast — это ультимативный инструмент продуктивности. Он позволяет вызывать локальный AI по горячей клавише, не отрываясь от работы.

  1. Установите Raycast: https://www.raycast.com
  2. Подключите Ollama: Откройте Raycast, начните вводить AI Settings и выберите этот пункт. В настройках найдите раздел Local Models и нажмите Sync Models.

Теперь вы можете открыть AI Chat в Raycast и выбрать свою локальную модель для диалога.

Ваш личный AI-помощник: Запускаем локальную LLM с Ollama, Raycast и Open WebUI

Вариант B (универсальный): Open WebUI — уютный кабинет для диалогов

Open WebUI — это опенсорсный веб-интерфейс, который дает привычный опыт общения, как в ChatGPT, с историей чатов и форматированием. Он работает где угодно (Windows, macOS, Linux) с помощью Docker.

  1. Установите Docker: Если у вас его нет, скачайте с официального сайта: https://www.docker.com/get-started
  2. Запустите Open WebUI: Откройте терминал и выполните одну команду:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  3. -p 3000:8080 — открывает доступ к интерфейсу по адресу localhost:3000.--add-host — позволяет контейнеру "видеть" Ollama, запущенную на вашем компьютере.-v open-webui... — создает том для хранения истории чатов.
  4. Откройте интерфейс: Перейдите в браузере по адресу http://localhost:3000. Вас встретит Open WebUI. Создайте локальный аккаунт и начинайте работу.

Ваш личный AI-помощник: Запускаем локальную LLM с Ollama, Raycast и Open WebUI

Как извлечь максимум: Модели и Промпты

Инструменты есть, теперь — о главном.

Какие «мозги» выбрать?

Выбор модели зависит от ваших задач и железа. Для новичков я рекомендую начать с моделей на 4-8 миллиардов параметров (4b-8b). Это золотая середина производительности и требований.

  • qwen3:4b или qwen3:8b — быстрые и универсальные.
  • mistral:7b — классика, очень популярная и хорошо себя зарекомендовавшая модель.
  • gemma3n:e2b — отличный вариант для слабых машин.

Не бойтесь экспериментировать. Скачайте 2-3 разные модели и сравните их на своих реальных задачах.

Промпты решают всё: Два примера для старта

Модель — это инструмент. Качество результата зависит от качества промпта (инструкции). Хороший промпт всегда задает роль, контекст, задачу и формат ответа.

Пример 1: Редактор текста (для Raycast AI Command)

Идеально для приведения в порядок заметок или черновиков.

Ты — экспертный редактор текстов. Твоя цель — улучшить ясность и правильность предоставленного текста, сохранив его первоначальный смысл.Проверь следующий текст: {selection} Выполни следующие действия:Исправь все орфографические и пунктуационные ошибки.Если предложение слишком длинное или сложное, разбей его на более простые для лучшей читаемости. Структурируй текст, используя заголовки и списки, где это уместно. Ограничения: Не добавляй новую информацию и не изменяй первоначальное намерение автора. Твой итоговый ответ должен содержать только отредактированный текст без пояснений.

Пример 2: Генератор Regex (для Open WebUI)

Мастхэв для разработчиков, аналитиков и тестировщиков.

Действуй как эксперт по регулярным выражениям, специализирующийся на синтаксисе PCRE. Твоя задача — сгенерировать одно регулярное выражение PCRE на основе описания, предоставленного пользователем. Проанализируй следующее описание задачи: "найти все email адреса в формате user@domain.com "Предоставь в своем ответе только итоговое регулярное выражение. Не включай пояснения, блоки кода или любой другой текст, окружающий выражение.

Заставляем AI писать промпты за нас

Приведенные выше примеры — это хорошо. Но постоянно писать и оттачивать такие сложные инструкции вручную — утомительно. Знакомо чувство, когда ChatGPT выдает полную чушь, а проблема на самом деле в вашем запросе?

Можно прочитать десяток книг по промпт-инжинирингу... а можно заставить AI делать эту работу за вас.

Идея проста: мы создаем AI-ассистента, который сам пишет идеальные промпты на основе нашего краткого описания задачи. Для этого ему нужно дать "базу знаний" (например, PDF-книгу по промпт-инжинирингу) и правильный системный промпт.

🔥 Подробный разбор этого метода, который я называю «AutoPrompt», с готовым системным промптом и сам гайд, я опубликовал в своем телеграм-канале. Это займет у вас 3 минуты на изучение и навсегда изменит подход к работе с AI. Заглядывайте!

Заключение: Ваш AI — ваши правила

Мы прошли весь путь: от идеи приватного AI до готового рабочего инструмента на вашем компьютере. Как видите, сегодня это не так уж сложно, зато дает огромные преимущества: конфиденциальность, экономию, гибкость и автономность.

Локальный AI — это уже не будущее, а настоящее, доступное каждому. Это ваш шанс взять передовые технологии под личный контроль и заставить их работать на себя по максимуму.

А теперь — ваша очередь. Поделитесь в комментариях:

  • Какую первую задачу вы поручите своему локальному AI?
  • Какие модели планируете попробовать в первую очередь?
  • С какими сложностями столкнулись при установке?

Спасибо, что дочитали. Надеюсь, было полезно.

1
2 комментария