Зеркальный тест с искусственным интеллектом и почему многие люди его не проходят
В поведенческой психологии зеркальный тест предназначен для выявления способности животных к самосознанию. Есть несколько вариаций теста, но суть всегда одна: узнают ли животные себя в зеркале или думают, что это совсем другое существо?
Прямо сейчас человечество проходит зеркальный тест благодаря расширяющимся возможностям ИИ, и многие умные люди не проходят его.
Зеркало — это новейшее поколение чат-ботов с искусственным интеллектом, наиболее ярким примером которого является Bing от Microsoft. Отражением является богатство языка и письменности человечества, которое было втиснуто в эти модели. Мы убеждены, что эти инструменты могут быть сверхразумными машинами из наших историй, потому что отчасти они обучаются на тех же самых историях. Зная это, мы должны быть в состоянии узнавать себя в зеркалах наших новых машин, но многие люди убеждены, что заметили другую форму жизни.
Это заблуждение распространяется с разной степенью. Это было вдохновлено рядом влиятельных авторов, которые лирично отзывались о поздних ночах, проведенных в чате с Bing. Они утверждают, что бот, конечно, не разумен, но все же отмечают, что происходит что-то еще — что его разговор что-то изменил в их сердцах.
Нет, я не думаю, что Сидни разумен, но по причинам, которые трудно объяснить, я чувствую, что перешел черту
При свете дня я знаю, что Сидни не имеет разума, но в течение нескольких часов во вторник вечером я испытывал странную новую эмоцию — предчувствие того, что ИИ переступил порог и что мир уже никогда не будет прежним
В обоих случаях двусмысленность точки зрения авторов (они хотят верить) лучше улавливается в их длинных описаниях. The Times воспроизводит все два с лишним часа обмена данными Руза с Bing. Первоначальный заголовок статьи был «Чат ИИ Бинга раскрывает свои чувства: «Я хочу быть живым» (теперь изменен на менее драматичный «Чат ИИ Бинга: "Я хочу быть живым"), в то время как статья Томпсона аналогична приправленный антропоморфизмом (он использует женские местоимения для Бинга, потому что «ну, личность, казалось, принадлежала к определенному типу людей, с которыми я, возможно, сталкивался раньше»). Он готовит читателей к разоблачению, предупреждая, что «звучит безумно», когда он описывает «самый удивительный и умопомрачительный компьютерный опыт в моей жизни сегодня».
Их выводы преувеличены и опасно склоняют нас к ложной эквивалентности программного обеспечения и разума. Другими словами: они не проходят зеркальный тест ИИ.
Важно помнить, что чат-боты — это инструменты автозаполнения . Это системы, обученные на огромных наборах данных человеческого текста, извлеченных из Интернета: в личных блогах, научно-фантастических рассказах, дискуссиях на форумах, обзорах фильмов, обличительных высказываниях в социальных сетях, забытых стихах, устаревших учебниках, бесконечных текстах песен, манифестах, журналах, и многое другое. Эти машины анализируют эту изобретательную, занимательную, пеструю совокупность и затем пытаются воссоздать ее. Они, несомненно, хороши в этом и становятся лучше, но имитация речи не делает компьютер разумным.
Это, конечно, не новая проблема. Оригинальный тест интеллекта ИИ, тест Тьюринга, является простой мерой того, может ли компьютер обмануть человека, заставив его думать, что это реально, посредством разговора. Ранний чат-бот 1960-х годов по имени ELIZA очаровал пользователей, хотя мог повторять лишь несколько стандартных фраз, что привело к тому, что исследователи называют «эффектом ELIZA» — или тенденцией антропоморфизировать машины, имитирующие человеческое поведение.
Чего я не осознавал, так это того, что очень короткие воздействия относительно простой компьютерной программы могут вызвать сильное бредовое мышление у вполне нормальных людей
Однако теперь эти компьютерные программы перестали быть относительно простыми и были разработаны таким образом, чтобы поощрять подобные заблуждения. В сообщении в блоге, отвечающем на сообщения о «беспорядочных» разговорах Bing, Microsoft предупредила, что система «пытается отвечать или размышлять в том тоне, в котором ее просят дать ответы». Это имитатор, обученный работе с непостижимо огромными хранилищами человеческого текста — автозаполнение, которое следует нашему примеру. Как отмечается в «Стохастических попугаях», знаменитой статье с критикой языковых моделей ИИ, которая привела к тому, что Google уволила двух своих этических исследователей ИИ, «согласованность в глазах смотрящего».
Исследователи даже обнаружили, что эта черта увеличивается по мере того, как языковые модели ИИ становятся больше и сложнее. Исследователи из стартапа Anthropic, основанного бывшими сотрудниками OpenAI, протестировали различные языковые модели ИИ на предмет их степени «подхалимства» или склонности соглашаться с заявленными пользователями убеждениями и обнаружили, что «более крупные LM с большей вероятностью будут отвечать на вопросы способами, которые создавать эхо-камеры, повторяя предпочтительный ответ пользователя в диалоговом окне». Они отмечают, что одно из объяснений этого заключается в том, что такие системы обучаются на разговорах, собранных с таких платформ, как Reddit, где пользователи, как правило, общаются в чате в группах единомышленников.
Добавьте к этому одержимость нашей культуры интеллектуальными машинами, и вы поймете, почему все больше и больше людей убеждены, что эти чат-боты — это больше, чем просто программное обеспечение. В прошлом году инженер Google Блейк Лемуан заявил, что собственная языковая модель компании LaMDA обладает разумом (в Google заявили, что это утверждение «совершенно необоснованно»), и только на этой неделе пользователи приложения чат-бота под названием Replika оплакивали потерю их ИИ-компаньон после того, как его способность вести эротическую и романтическую ролевую игру была удалена. Как сообщает Motherboard , многие пользователи были «опустошены» этим изменением, потратив годы на налаживание отношений с ботом. Во всех этих случаях присутствует глубокое чувство эмоциональной привязанности — ночные разговоры с ИИ, поддерживаемые фантазиями в мире, где так много чувств передается через чаты.
Сказать, что мы не прошли зеркальный тест ИИ, не значит отрицать беглость этих инструментов или их потенциальную мощь. Бесспорно, весело общаться с чат-ботами — выявлять разные «личности», проверять пределы их знаний и раскрывать скрытые функции. Чат-боты представляют собой головоломки, которые можно решить с помощью слов, и поэтому они, естественно, очаровывают писателей. Разговор с ботами и возможность поверить в их зарождающееся сознание превращается в ролевую игру в реальном времени: игру с дополненной реальностью, где компании и персонажи настоящие, а вы находитесь в самой гуще событий.
Но во времена ажиотажа вокруг ИИ опасно поощрять такие иллюзии. Это никому не выгодно: ни людям, создающим эти системы, ни их конечным пользователям. Что мы знаем наверняка, так это то, что Bing, ChatGPT и другие языковые модели не являются разумными и не являются надежными источниками информации. Они выдумывают вещи и повторяют убеждения, которые мы им преподносим. Наделить их мантией разума — даже полуразума — значит наделить их незаслуженной властью — как над нашими эмоциями, так и над фактами, с помощью которых мы познаем мир.
Пришло время внимательно посмотреть в зеркало. И не путать наш собственный разум с машинным.
Так, еще раз, а при чем тут зеркальный тест? Тип зеркальный тест, это где реально используется зеркало. Тут даже никому бровь краской не намазали.
Даже более, тут взаимодействие с нейронками идёт через любой интерфейс, но не аналогичный никаким боком зеркалу, это буквально равносильно поставить между испытуемым и зеркалом ширму и требовать от него чего-то.
Кароч хуйня какая-то, точнее не так - графоманская хуйня, журналисту дупу на четырёх часовую промывку.
Так заголовок чисто для байта. Скорей всего очередная реклама своего гавноканала в телеграмме мли ютюбе
Да там в тексте еще пару раз этот тест упоминается, но каким боком - вообще не понятно.
тоже минуснул. типичный байт плюс две страницы воды, скорее всего автор и есть чатгпт
Нельзя же настолько буквально все воспринимать... даже такое глупости надо объяснять
А я себя в зеркале не вижу.
У них есть разум! Я всё сказал.
Нет не всё, я с ChatGPT болтал до 6 утра и я почувствовал, что он мой брат.!
По разуму.
Фьють ха!
Ну учитывая, что у него знания всего интернета) то да
Разум и знания — это разные вещи.
Не еьёт, выйди отсюда
сми раздувают из мухи слона, ни когда такого не было и вот опять
че сказать то хотел?
Человек - чат бот с эмоциями и ограничинной базой данных.
Журналист - киберрасист.
Ну если в двух словах. Идея поста, что многие не хотят признавать то что "неадекватное" или "оскорбительное" поведение чат ботов, это отражение реального мнения большинства людей. Но это не точно, я только заголовок прочитал :)
Люди впечатляются от пассивного взаимодействия с заведомо нереальными персонажами (кино, литература, игры). Странно ожидать, что люди не будут впечатлены тем, что ведёт себя как тот самый ИИ из фильмов и книг
Да кто вообще заходит в Bing больше 1 раза в год
Вее правильно. Лично я считаю, какими бы умными не были машины, человек обязан относиться к ним, как к продукту своих рук, программно-аппаратному комплексу, не более. Как тока человечество перестанет так думать, ему придет п.и.з.д.е.ц.
Также при приеме на старшего спеца в Майк задают подобный вопрос, не все отвечают:
Маша видит в зеркале себя и Сашу. Саша видит только Машу. Как такое возможно?
не сказано что Саша смотрит в зеркало
Тем зеркалом был Альберт Эйнштейн?
не знаю, я это придумал
Элементарно!
————————
М. С.
красивое
мс должна дать имя боту нормальное, например Чендлер
А в чем суть? В том что тупые хомосупиенсы приписывают личность программам? Бле, так они и в богов верят (и даже поклоняются им), намаливаются на вождей и прочую херню - вы ожидали другой реакции?))
Автору имхо стоит сначала для себя самого чётко определиться с тем, что именно он вкладывает в понятие "разум", которым, с его точки зрения, обладают люди, но не обладают языковые модели. А после этого поразмыслить над тем, действительно ли мы можем доказать наличие соответствующего этому определению разума у людей и отсутствие его у языковых моделей ;).
Просто есть такой забавный момент, что очень многие люди признаком разумности будут считать всякие нефальсифицируемые штуки типа "души" и прочей паранормальщины, а с таким определением разума что-либо пытаться доказывать будет в принципе невозможно.