Google Antigravity и Gemini 3 Pro: что реально меняется в разработке и почему это не убийца Cursor

A demo of Google’s new Antigravity agentic developer tool. (Image credit: Google) 

18 ноября 2025 года Google показал связку из двух продуктов: новую флагманскую модель Gemini 3 Pro и agent-first IDE Google Antigravity. Классический концепт «LLM + плагин к редактору» упирается в ограничения: большие монорепозитории, сложные CI/CD-пайплайны, мультимодальные артефакты (скриншоты, видео, логи, PDF) и требования к трассируемости шагов плохо умещаются в чат около редактора. Нужна была связка: модель, которая уверенно «думает» и понимает разные модальности, и среда, которая планирует, исполняет и наглядно показывает работу агентов. Google услышал молитвы, и именно такую связку и представил: Gemini 3 Pro + Antigravity.

В ленте мгновенно пошли заголовки «Cursor мертв», «новая эра разработки», «агенты все сделают за вас». В этой статье разбираем, что именно Google запустил, чем Antigravity отличается от Cursor, какие сценарии разработки уже меняются - и где пока еще рано бросать привычный стек.

Что именно Google выкатил

1) Gemini 3 Pro - мультимодальная модель с длинным контекстом, оптимизированная под сложное рассуждение, агентские сценарии и код. Рекомендую ознакомиться с Руководством разработчика Gemini 3

2) Google Antigravity - новая agent-first IDE, которая изначально спроектирована не как редактор с подсказками кода, а как среда для работы нескольких ИИ-агентов поверх реального проекта.

Причем Antigravity - не плагин к VS Code (как Cursor или Copilot-расширения), а отдельное приложение на базе форка VS Code, заточенное под многоагентные сценарии. Gemini 3 Pro и Antigravity задуманы как единая архитектура для агентной разработки.

Gemini 3 Pro: модель под IDE и ИИ-агентов

https://blog.google/products/gemini/gemini-3
https://blog.google/products/gemini/gemini-3

Официально Gemini 3 Pro - «самая умная модель Google» и «лучшая в мире мультимодальная модель для агентских сценариев и vibe-coding», если верить блогу Google. Стоит отметить, что это не просто прокачанная Gemini 2.5 Pro, архитектура и настройки заточены под сценарии, где ИИ не просто отвечает в чате, а последовательно выполняет задачи в кодовой базе.

Ну насчет превосходства над Gemini 2.5 Pro они поспешили) Artificial Analysis протестировали Gemini 3 Pro на своем бенчмарке AA-Omniscience Index - модели прогоняют по 6k вопросов из разных тем, указывая отвечать только в случае, если модель точно знает ответ.

https://x.com/ArtificialAnlys/status/1990926803087892506
https://x.com/ArtificialAnlys/status/1990926803087892506

И выяснилось, что Gemini 3 Pro галлюцинирует также, как и Gemini 2.5 Pro. Так, Gemini 3 Pro со значительным отрывом опережает конкурентов в правильных ответах, но в 88% «промахов» сгаллюцинировала вместо того, чтобы промолчать. А вот меньше всех галлюцинирует Claude Haiku 4.5, модель лишь в 26% случаев выдумывает ответы. Но мы переходим к основным бенчмаркам и техническим возможностям Gemini 3 Pro.

Ключевые технические особенности

Бенчмарки Gemini 3 Pro и сравнение с предыдущей Gemini 2.5 Pro, Claude Sonnet 4.5 и ChatGPT-5.1 <a href="https://api.dtf.ru/v2.8/redirect?to=https%3A%2F%2Fblog.google%2Ftechnology%2Fdevelopers%2Fgemini-3-developers&postId=4403780" rel="nofollow noreferrer noopener" target="_blank">Источник</a> 
Бенчмарки Gemini 3 Pro и сравнение с предыдущей Gemini 2.5 Pro, Claude Sonnet 4.5 и ChatGPT-5.1 Источник 
  • Архитектура Sparse Mixture-of-Experts (SMoE) - модель состоит из набора специализированных «экспертов». Для каждого фрагмента текста она использует только часть из них, а не все одновременно. Это позволяет значительно увеличить емкость модели, не делая каждый запрос слишком дорогим.
  • Длинный контекст до 1M токенов на входе и до 64k на выходе, knowledge cutoff - январь 2025. Этого достаточно, чтобы держать в контексте большую монорепу с документацией и логами, а не отдельные файлы.
  • Мультимодальность - Gemini 3 Pro в одном запросе может работать с текстом, изображениями, PDF, скриншотами интерфейса и видеокадрами. Это ближе к реальной картине разработки, где спецификации, логи и интерфейсы представлены в разных форматах.
  • Бенчмарки, «агентность»: 54,2% на Terminal-Bench 2.0 (терминальные действия/инструменты) - это показатель именно «компьютерного использования», а не просто чата.
  • Встроенные инструменты: Gemini 3 Pro в Vertex/ AI Studio приходит уже с набором встроенных инструментов: Google Search, File Search, Code Execution, URL-контекст и стандартный function calling. То есть ИИ не просто пишет текст, но может щапускать тест и команды: искать по файлам, выполнять код, ходить в интернет, обращаться к API.
  • Цены - в preview через Gemini API: $2 за 1M входных токенов и $12 за 1M выходных (включая thinking-токены) при промптах ≤200k, и $4 / $18 для более длинных.
  • Управляемое рассуждение - есть 3 параметра, влияющие на поведение модели:
    1) thinking_level - можно настроить уровень глубины рассуждений (low /high /dynamic), который упрощает настройку reasoning вместо ручного «thinking budget». Удобно, когда нужно решить сложную задачу, а не просто дописать кодовую строку. Вместо старого пожалуйста, думай пошагово в промпте теперь можно просто выставить thinking-config в конфиге запроса.

Пример на Python (рефакторим синхронный код под asyncio и просим модель подумать основательно):

import os from dotenv import load_dotenv from google import genai from google.genai import types load_dotenv() api_key = os.getenv("GEMINI_API_KEY") if not api_key: raise RuntimeError("GEMINI_API_KEY не найден в переменных окружения") client = genai.Client( api_key=api_key, http_options=types.HttpOptions(api_version="v1alpha") # thinking / media_resolution ) model_name = "gemini-3-pro-preview" prompt = """ У меня есть легаси-код на Python, который обрабатывает файлы синхронно. Перепиши его с использованием asyncio для лучшей производительности и объясни, какие могут быть гонки, если файлы — общий ресурс. Вот код: import time def process_file(filename): time.sleep(1) # имитация работы return f"Processed {filename}" def main(files): results = [] for f in files: results.append(process_file(f)) return results """ response = client.models.generate_content( model=model_name, contents=prompt, config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig( thinking_level=types.ThinkingLevel.HIGH, include_thoughts=True, ) ) ) # В реальном проекте лучше разбирать response.candidates, # здесь для простоты выведем текстовый ответ print(response.text)

Таким образом, вы не пытаетесь уговорить модель «думать пошагово», а даете ей условно бюджет на мысли через thinking_config.

Thinking-режимы и thinking_config сейчас доступны через версию API v1alpha для Gemini Developer API.

Подробнее я рекомендую ознакомиться с Руководством разработчика Gemini 3

2) media_resolution - сколько токенов тратить на картинки, PDF или видео (мелкий текст/мелкие элементы vs экономия контекста). Иными словами, можно настроить, насколько подробно модель будет разбирать изображения и PDF, чтобы не расходовать лишний контекст.

Примерные цены:

Изображения HIGH — ~1120 токенов; MEDIUM — ~560 токенов;LOW — ~280 токенов. Кадры видео LOW / MEDIUM — ~70 токенов за кадр; HIGH — ~280 токенов за кадр. Сценарии LOW — массовая классификация изображений или много кадров из видео;MEDIUM — типичные задачи с картинками / скриншотами; HIGH — плотный текст, мелкий шрифт, важные детали (PDF, сложные схемы).

Пример (Python):

from google import genai from google.genai import types client = genai.Client( http_options={"api_version": "v1alpha"} ) with open("image.png", "rb") as f: image_bytes = f.read() image_part = types.Part.from_bytes( data=image_bytes, mime_type="image/png", media_resolution=types.MediaResolution.MEDIA_RESOLUTION_HIGH, ) response = client.models.generate_content( model="gemini-3-pro-preview", contents=[ "Что изображено на картинке?", image_part, ], ) print(response.text)

3) Thought Signatures - компактные подписи мыслительных цепочек, позволяющих сохранить контекст (ход рассуждений) между запросами и внутри агентных пайплайнов:

  • Модель решает: «надо вызвать функцию check_server_status» и вместе с functionCall возвращает thoughtSignature.
  • Вы вызываете функцию у себя, получаете результат (например, статус БД).
  • Когда отправляете ответ функции обратно в модель, обязаны вернуть и тот же thoughtSignature.
  • Тогда модель продолжает думать с того же места, а не пересобирает все с нуля. Почему именно такие характеристики важны для IDE и ИИ-агентов

Почему именно такие свойства важны для IDE и агентов

Для обычного чат-бота достаточно, чтобы модель более-менее связно отвечала на вопросы. В среде разработки и в сценариях с ИИ-агентами задачи другие. Здесь от модели требуется, чтобы она:

  1. Могла держать в контексте большую кодовую базу и сопутствующие данные.Большая кодовая база, логи, документация, результаты прошлых тестов, причем все это нужно видеть сразу, а не кусочками. Без длинного контекста агенту просто не с чем работать.
  2. Умела разбирать разные типы данных, а не только текст.Скриншоты интерфейса, PDF-спеки, схемы, запросы к API, графики мониторинга. Если модель видит только сухой текст, она теряет половину картины.
  3. Работала управляемо и предсказуемо.Иногда нужно, чтобы модель "покопала поглубже" и разобрала сложный кейс, а иногда, чтобы ответила быстро и без лишней философии. Поэтому важны настройки уровня рассуждений и то, как она использует вычислительные ресурсы.
  4. Умела не просто отвечать, а действовать через инструменты.Агент должен уметь открыть файл, запустить тесты, проверить логи, изменить код, сходить в браузер. Без этого он остается консультантом, а не исполнителем.

Именно под такие сценарии и задумывали связку мощной модели вроде Gemini 3 Pro и agent-first IDE, чтобы не просто помогали писать код, а реально брали на себя часть рутинной работы в разработке и сопровождении проектов.

Именно под такую роль модели и строится связка с Antigravity.

Что такое Google Antigravity

Google Antigravity и Gemini 3 Pro: что реально меняется в разработке и почему это не убийца Cursor

Многие медиа в первый же день написали «Google выпустил убийцу Cursor». На деле картина, конечно же, сложнее. Давайте сначала разберемся, что же такое Antigravity, а затем сравним с Cursor.

  • Antigravity - это отдельная десктопная IDE с фокусом на агентную разработку, а не плагин к VS Code. Помимо интеграции с Gemini 3 Pro поддерживаются и другие модели (например, Claude Sonnet 4.5).
  • Antigravity доступна на Windows, macOS и Linux как отдельное приложение.В Antigravity есть 2 режима работы - Editor и Manager View:
    1) Editor View - похож на привычный редактор (по ощущениям, форк или родственник VS Code): редактор кода, терминал, файловое дерево. Разница в том, что у агентов есть полный доступ: читать и менять файлы, гонять тесты и любые CLI-скрипты, обновлять зависимости, открывать встроенный браузерсохранять результаты в виде артефактов
    2) Manager View - панель управления агентами и задачами, позволяет смотреть на работу ИИ как на последовательность понятных действий. Здесь видно:какие задачи сейчас выполняют агентыкакие шаги уже сделаныкакие артефакты сформированы (планы, диффы, логи, скриншоты)комментарии участников команды.

То есть IDE разбита не по файлам и вкладкам, а по миссиям, которые выполняют агенты.

  • Antigravity с самого начала проектировалась под сценарий, где над проектом могут одновременно работать несколько агентов: один переписывает код и правит тесты, второй обновляет инфраструктуру, третий пишет документацию, четвертый занят рефакторингом.
  • Для прозрачности действий Antigravity создает Artifacts - планы, списки задач, диффы, изменения в коде, вывод тестов, скриншоты и записи браузера. Это нужно для верификации того, что было сделано и что будет сделано. Можно оставлять комментарии прямо в артефактах.

Артефакты - это не просто лог, а верифицируемый след: по ним можно понять, что именно делал агент, на чем основывался и где потенциально ошибся.

Навигация по IDE, менеджер агентов, поведение браузера описано в Официальной документации.

Antigravity vs Cursor: честное сравнение

Прямо сравнивать Antigravity и Cursor не совсем корректно, так как они отвечают на разные вопросы. Поэтому корректнее будет сравнить не «кто кого убьет», а какие задачи лучше закрывает каждый инструмент.

  • Cursor - это IDE с мощным ИИ-помощником внутри.
  • Antigravity - это среда, в которой ИИ-агенты выполняют задачи, а редактор и инфраструктура подключены к ним как инструменты.

Где Antigravity сильнее:

  1. Agent-first дизайн. Antigravity создавали как среду, где агенты полноправные участники разработки, а не просто дают подсказки по коду в боковой панели. Вся архитектура строится вокруг их планов, состояний и артефактов. Отсюда - Manager View, артефакты, трейсинг шагов и фокус на оркестрации задач.
  2. Нативная интеграция со стеком Google Cloud. Согласно материалам Google, Antigravity особенно логичен там, где уже уже используются Cloud Run, GKE, Cloud Build и другие сервисы GCP: агенты могут работать с теми же пайплайнами, окружениями и инфраструктурой, с которой работают люди.
  3. Прозрачность для команд. Каждый шаг агента зафиксирован: есть логи, диффы, артефакты. Это упрощает code review, change-management, аудит и внутренние проверки.
  4. Мультимодальные возможности для работы. Когда в одной задаче нужно и посмотреть на интерфейс, и проверить API, и при этом изменить код, удобнее, когда скриншоты, браузер и редактор кода живут в одной среде, а не в нескольких разрозненных инструментах.

А теперь давайте разберемся, где лучше подходит Cursor.

Где Cursor остается удобнее сегодня

  1. Привычный интерфейс VS Code. Cursor - это фактически VS Code с глубокой интеграцией ИИ. Командам, которые привыкли к VS Code и его экосистеме плагинов, проще продолжать работать там же.
  2. Для одного разработчика за ноутбуком. Cursor отлично подходит для сценария «разработчик + локальный проект»: объяснение кода, рефакторинг, генерация тестов, быстрые изменения в текущем репозитории.
  3. Узнаваемость продукта и кредит доверия. Cursor давно используется, вокруг него есть опыт, гайды и практики. Antigravity пока находится в публичном превью: продукт активно развивается, но это все еще не полностью устоявшаяся платформа.
  4. Фокус на индивидуальном девелопере. Cursor в первую очередь экономит время конкретного разработчика. Antigravity ориентирована на более широкий уровень - команды, процессы и агентную оркестрацию.

Какие задачи Antigravity уже закрывает лучше всего

Сейчас можно выделить три группы задач, где Antigravity выглядит особенно убедительно:

1. Большие монорепозитории и инфраструктурные задачи

Типичные сценарии:

  • массовые миграции (фреймворк, API, стиль кода);
  • приведение к единому стилю кода и конфигурации;
  • обновление зависимостей и шаблонов по десяткам сервисов;
  • подготовка к изменениям инфраструктуры (кластер, CI/CD, сервисы).

Здесь важны и длинный контекст, и прозрачность цепочек действий агентов: нужно понимать не только то, что поменялось в коде, но и почему агент решил сделать именно так.

2. Небольшие команды (2–5 человек), которым нужно "прыгнуть выше головы"

Для маленьких команд Antigravity дает возможность распределить часть рутинной работы на агентов:

  • один агент дописывает тесты и следит за их состоянием;
  • второй вносит инфраструктурные изменения;
  • третий поддерживает документацию и журнал изменений.

Разработчики при этом концентрируются на архитектуре, постановке задач и ревью.

То есть, Antigravity позволяет таким командам брать задачи, которые раньше были доступны только большим отделам.

3. Vibe-coding и быстрый прототипы

Antigravity хорошо подходит, когда важен не сам процесс редактирования строк кода, а результат в виде работающего прототипа:

  • Собери интерфейс с таким сценарием и проверь, что он открывается.
  • Подними API, сделай несколько тестовых запросов и покажи результат.
  • Добавь фичу, прогоняй тесты и подготовь описание изменений.

Это удобный формат для внутренних инструментов, pet-проектов и экспериментов.

Как попробовать Gemini 3 Pro и Antigravity

Gemini 3 Pro:

  1. Создать проект в Google Cloud или зайти в Google AI Studio.
  2. Подключить Gemini API и получить ключ. Рекомендую Краткое руководство по API Gemini, а так же Как устроены API-ключи (где хранить, переменные окружения и т.п.)
  3. В коде использовать модель gemini-3-pro / gemini-3-pro-preview и поэкспериментировать с настройками глубины рассуждений и работы с медиа. Здесь рекомендую ознакомиться с Отдельным девелопер-гайдом по Gemini 3

На этом уровне можно:

  • давать модели большие фрагменты кода и документации;
  • подключать инструмент для выполнения кода и файловый поиск;
  • смотреть, как меняется поведение при разных настройках.

Antigravity:

  1. Скачать Antigravity для своей ОС с официального сайта Google.
  2. Авторизоваться и подключить репозиторий (локальный или удаленный).
  3. В Editor View: попросить агента провести ревью небольшого сервиса;дать задачу по написанию тестов или небольшому рефакторингу.
  4. В Manager View: настроить задачу для нескольких агентов;проследить, какие артефакты и диффы они создают;проверить изменения и принять/отклонить их.

Даже в тестовом проекте этого достаточно, чтобы почувствовать разницу между обычным ИИ-помощником в редакторе и все-таки средой, где агенты выполняют работу сверху вниз.

Заключение

Давайте упорядочим информацию в голове и подведем итоги:

  • Gemini 3 Pro - модель, рассчитанная на сложные сценарии: длинный контекст, мультимодальные данные, управляемое рассуждение и работа через инструменты. Это делает ее естественной основой для агентных IDE.
  • Google Antigravity - самостоятельная IDE c изначально агентным дизайном. Здесь основа не автодополнение, а управление задачами, агентами и артефактами в рамках реального проекта.
  • Cursor и похожие AI-надстройки никуда не исчезают. Для индивидуальной разработки и команд, предпочитающих VS Code, они остаются удобными инструментами.
  • Главное изменение не «кто кого заменит», а новое измерение рынка. Спокойно будут сосуществовать и классические IDE с ИИ-плагинами, и agent-first IDE вроде Antigravity, и облачные платформы для запуска агентных сценариев на уровне инфраструктуры.

Если вы думаете о том, как встроить ИИ в процессы разработки, стоит смотреть не только на модель, но и на связку «модель + IDE + инфраструктура». Google с Gemini 3 Pro и Antigravity показывает один из возможных вариантов такой архитектуры. Вы можете поддержать меня в моем канале НейроProfit - там я пишу о том, в чем разбираюсь или пытаюсь разобраться сама, тестирую полезные ИИ-сервисы и в целом стараюсь приносить пользу.

Начать дискуссию