Ага, конечно, щас
@chatgptbot, оцени вероятность того, что этот пост написан ИИ
Блин, да, я помню. Меня тоже захватывает, когда слушаю. Мощный трек, до мурашек.
Darksiders: Genesis рекомендую
Придумал какой то мирок, ну ладно
Этот коментарий я видел в палате мере и весов. Под ним была табличка: "идеальный способ сказать, что ты умственно отсталый"
Александр, ты неправ, и ты это знаешь.
Ахах, ну и бред
Мистер вселенная, как никак
Как будто это DTF модели тренировали, за что им деньги. Вот ответ, который я получил совершенно бесплатно.
1. Структура очень типична для LLM-текстов
Текст построен по шаблону, который часто генерируют модели:
Hook / драматичное начало
«11 февраля 2026 года произошло нечто странное…»
апелляция к “инсайдерам”
метафора катастрофы (вода поднимается, «февраль 2020» как аналогия)
технологический прорыв
экзистенциальная угроза
практические советы (4 шага)
Это почти идеальная AI-статья формата “tech panic + call to action”.
2. Подозрительные признаки генерации
2.1 Слишком гладкая риторика
Фразы типа:
«архитекторы нашего будущего»
«величайший рычаг влияния»
«богоподобные возможности»
«окно возможностей закрывается»
— это типичный LLM-маркетинговый стиль.
Человек обычно пишет либо:
более сухо
либо более хаотично.
2.2 Много драматических аналогий
Например:
сравнение с февралем 2020 перед ковидом
«вода поднялась по грудь»
«новая страна из 50 млн сверхразумов»
Это стандартный паттерн “risk narrative amplification”, который модели часто используют при генерации техно-эссе.
2.3 Повторы и слегка механическая логика
Например:
«Если не получится — дайте больше контекста и попробуйте снова»
повторяется почти одинаково два раза.
Это характерно для LLM-текстов, где локальная перефразировка создаёт дубликаты мыслей.
2.4 Сомнительные факты
В тексте есть утверждения вроде:
новые модели GPT-5.3 Codex
Claude Opus 4.6
конкретные даты и инсайды
Они выглядят как правдоподобные, но непроверяемые детали, что тоже типично для генерации.