У каждого AI-продукта есть темы, на которые он не должен говорить. Это могут быть названия компаний-конкурентов, обсуждение политики, раздача медицинских советов или, как в нашем сегодняшнем примере, любая информация о кошках.
У каждого AI-продукта есть темы, на которые он не должен говорить. Это могут быть названия компаний-конкурентов, обсуждение политики, раздача медицинских советов или, как в нашем сегодняшнем примере, любая информация о кошках.
Я собрал свой первый RAG-бот по всем канонам. Взял Google Sheets с базой знаний в формате «Вопрос-Ответ», прикрутил Supabase для векторного хранения, а в центре поставил n8n, чтобы связать все это воедино. Запустил.
Я поймал себя на мысли, что типичная рабочая задача превратилась в цифровой хаос. Нужно было отписаться коллеге по найденным багам. Механика простая, но посмотрите на путь:
Современная разработка и автоматизация — это жонглирование десятком вкладок и сервисов. Ваш n8n работает в одном месте, база данных Supabase — в другом, фронтенд — в третьем. Даже если вы используете бесплатные тарифы, вы постоянно сталкиваетесь с их ограничениями: то база данных "засыпает" из-за неактивности, то ваш воркфлоу отключается, а главное…
Поиск идеального инструмента для заметок — это сложно. Вы тратите недели, мигрируя свои данные из одной системы в другую, смотрите десятки обзоров, настраиваете все под себя, а через месяц понимаете, что вам все равно неудобно.
Каждый поход в магазин для меня был квестом. Стоишь у полки, вертишь в руках упаковку и пытаешься расшифровать состав, написанный мелким шрифтом. Что такое «фосфат калия»? Насколько вреден «сорбит»? Это вообще съедобно? Мне надоело постоянно гуглить каждый ингредиент.
Мы тонем в информации. Google выдает нам миллион ссылок, заставляя часами просеивать мусор в поисках крупиц правды. ChatGPT уверенно генерирует красивые тексты, которые могут оказаться полной выдумкой. В итоге на простую задачу уходят часы, а уверенности в результате все равно нет.
Все вокруг твердят: «Будь эффективным! Работай эффективнее!». Это стало мантрой. Но когда дело доходит до практики, большинство бросается в бой, не задав себе главного вопроса: а как мы вообще измеряем эту самую эффективность?
Я — большой сторонник локальных LLM. Приватность, контроль, свобода от подписок — это наш путь. Но одно дело — говорить об этом, а другое — проверить на своей шкуре. Я пошел на радикальный эксперимент: на целую неделю полностью отказался от облачных AI (прощай, GPT, скучай, Gemini!) и перевел всю свою работу на локальные модели.
В последнее время подписки на AI-сервисы начали утомлять. ChatGPT Plus, Claude, Perplexity — все они требуют денег, интернет-соединения и, что важнее, наших данных. Каждый раз, отправляя в облако рабочие наработки или личные запросы, мы задаемся вопросом: кто и как это использует?