{"id":4012,"url":"\/distributions\/4012\/click?bit=1&hash=5b9cad3f989520ad358a2237d28d1f12ecdc50cb8452456f27fcbce716b2c8f0","title":"\u041f\u043e\u044f\u0432\u0438\u043b\u0441\u044f \u0438\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442 \u0434\u043b\u044f \u0441\u0442\u0435\u0441\u043d\u0438\u0442\u0435\u043b\u044c\u043d\u044b\u0445 \u0440\u0438\u0435\u043b\u0442\u043e\u0440\u043e\u0432","buttonText":"","imageUuid":"","isPaidAndBannersEnabled":false}

Зеркальный тест с искусственным интеллектом и почему многие люди его не проходят

В поведенческой психологии зеркальный тест предназначен для выявления способности животных к самосознанию. Есть несколько вариаций теста, но суть всегда одна: узнают ли животные себя в зеркале или думают, что это совсем другое существо?

Прямо сейчас человечество проходит зеркальный тест благодаря расширяющимся возможностям ИИ, и многие умные люди не проходят его.

Источник TheVerge

Зеркало — это новейшее поколение чат-ботов с искусственным интеллектом, наиболее ярким примером которого является Bing от Microsoft. Отражением является богатство языка и письменности человечества, которое было втиснуто в эти модели. Мы убеждены, что эти инструменты могут быть сверхразумными машинами из наших историй, потому что отчасти они обучаются на тех же самых историях. Зная это, мы должны быть в состоянии узнавать себя в зеркалах наших новых машин, но многие люди убеждены, что заметили другую форму жизни.

Это заблуждение распространяется с разной степенью. Это было вдохновлено рядом влиятельных авторов, которые лирично отзывались о поздних ночах, проведенных в чате с Bing. Они утверждают, что бот, конечно, не разумен, но все же отмечают, что происходит что-то еще — что его разговор что-то изменил в их сердцах.

Нет, я не думаю, что Сидни разумен, но по причинам, которые трудно объяснить, я чувствую, что перешел черту

Бен Томпсон в Stratechery

При свете дня я знаю, что Сидни не имеет разума, но в течение нескольких часов во вторник вечером я испытывал странную новую эмоцию — предчувствие того, что ИИ переступил порог и что мир уже никогда не будет прежним

Кевин Руз для The New York Times

В обоих случаях двусмысленность точки зрения авторов (они хотят верить) лучше улавливается в их длинных описаниях. The Times воспроизводит все два с лишним часа обмена данными Руза с Bing. Первоначальный заголовок статьи был «Чат ИИ Бинга раскрывает свои чувства: «Я хочу быть живым» (теперь изменен на менее драматичный «Чат ИИ Бинга: "Я хочу быть живым"), в то время как статья Томпсона аналогична приправленный антропоморфизмом (он использует женские местоимения для Бинга, потому что «ну, личность, казалось, принадлежала к определенному типу людей, с которыми я, возможно, сталкивался раньше»). Он готовит читателей к разоблачению, предупреждая, что «звучит безумно», когда он описывает «самый удивительный и умопомрачительный компьютерный опыт в моей жизни сегодня».

Их выводы преувеличены и опасно склоняют нас к ложной эквивалентности программного обеспечения и разума. Другими словами: они не проходят зеркальный тест ИИ.

Важно помнить, что чат-боты — это инструменты автозаполнения . Это системы, обученные на огромных наборах данных человеческого текста, извлеченных из Интернета: в личных блогах, научно-фантастических рассказах, дискуссиях на форумах, обзорах фильмов, обличительных высказываниях в социальных сетях, забытых стихах, устаревших учебниках, бесконечных текстах песен, манифестах, журналах, и многое другое. Эти машины анализируют эту изобретательную, занимательную, пеструю совокупность и затем пытаются воссоздать ее. Они, несомненно, хороши в этом и становятся лучше, но имитация речи не делает компьютер разумным.

Это, конечно, не новая проблема. Оригинальный тест интеллекта ИИ, тест Тьюринга, является простой мерой того, может ли компьютер обмануть человека, заставив его думать, что это реально, посредством разговора. Ранний чат-бот 1960-х годов по имени ELIZA очаровал пользователей, хотя мог повторять лишь несколько стандартных фраз, что привело к тому, что исследователи называют «эффектом ELIZA» — или тенденцией антропоморфизировать машины, имитирующие человеческое поведение.

Чего я не осознавал, так это того, что очень короткие воздействия относительно простой компьютерной программы могут вызвать сильное бредовое мышление у вполне нормальных людей

Дизайнер ELIZA Джозеф Вейценбаум

Однако теперь эти компьютерные программы перестали быть относительно простыми и были разработаны таким образом, чтобы поощрять подобные заблуждения. В сообщении в блоге, отвечающем на сообщения о «беспорядочных» разговорах Bing, Microsoft предупредила, что система «пытается отвечать или размышлять в том тоне, в котором ее просят дать ответы». Это имитатор, обученный работе с непостижимо огромными хранилищами человеческого текста — автозаполнение, которое следует нашему примеру. Как отмечается в «Стохастических попугаях», знаменитой статье с критикой языковых моделей ИИ, которая привела к тому, что Google уволила двух своих этических исследователей ИИ, «согласованность в глазах смотрящего».

Исследователи даже обнаружили, что эта черта увеличивается по мере того, как языковые модели ИИ становятся больше и сложнее. Исследователи из стартапа Anthropic, основанного бывшими сотрудниками OpenAI, протестировали различные языковые модели ИИ на предмет их степени «подхалимства» или склонности соглашаться с заявленными пользователями убеждениями и обнаружили, что «более крупные LM с большей вероятностью будут отвечать на вопросы способами, которые создавать эхо-камеры, повторяя предпочтительный ответ пользователя в диалоговом окне». Они отмечают, что одно из объяснений этого заключается в том, что такие системы обучаются на разговорах, собранных с таких платформ, как Reddit, где пользователи, как правило, общаются в чате в группах единомышленников.

ELIZA очаровала пользователей, несмотря на то, что могла повторять только стандартные фразы.

Добавьте к этому одержимость нашей культуры интеллектуальными машинами, и вы поймете, почему все больше и больше людей убеждены, что эти чат-боты — это больше, чем просто программное обеспечение. В прошлом году инженер Google Блейк Лемуан заявил, что собственная языковая модель компании LaMDA обладает разумом (в Google заявили, что это утверждение «совершенно необоснованно»), и только на этой неделе пользователи приложения чат-бота под названием Replika оплакивали потерю их ИИ-компаньон после того, как его способность вести эротическую и романтическую ролевую игру была удалена. Как сообщает Motherboard , многие пользователи были «опустошены» этим изменением, потратив годы на налаживание отношений с ботом. Во всех этих случаях присутствует глубокое чувство эмоциональной привязанности — ночные разговоры с ИИ, поддерживаемые фантазиями в мире, где так много чувств передается через чаты.

Сказать, что мы не прошли зеркальный тест ИИ, не значит отрицать беглость этих инструментов или их потенциальную мощь. Бесспорно, весело общаться с чат-ботами — выявлять разные «личности», проверять пределы их знаний и раскрывать скрытые функции. Чат-боты представляют собой головоломки, которые можно решить с помощью слов, и поэтому они, естественно, очаровывают писателей. Разговор с ботами и возможность поверить в их зарождающееся сознание превращается в ролевую игру в реальном времени: игру с дополненной реальностью, где компании и персонажи настоящие, а вы находитесь в самой гуще событий.

Но во времена ажиотажа вокруг ИИ опасно поощрять такие иллюзии. Это никому не выгодно: ни людям, создающим эти системы, ни их конечным пользователям. Что мы знаем наверняка, так это то, что Bing, ChatGPT и другие языковые модели не являются разумными и не являются надежными источниками информации. Они выдумывают вещи и повторяют убеждения, которые мы им преподносим. Наделить их мантией разума — даже полуразума — значит наделить их незаслуженной властью — как над нашими эмоциями, так и над фактами, с помощью которых мы познаем мир.

Пришло время внимательно посмотреть в зеркало. И не путать наш собственный разум с машинным.

0
29 комментариев
Написать комментарий...
Доктор Шмекс

Так, еще раз, а при чем тут зеркальный тест? Тип зеркальный тест, это где реально используется зеркало. Тут даже никому бровь краской не намазали.

Даже более, тут взаимодействие с нейронками идёт через любой интерфейс, но не аналогичный никаким боком зеркалу, это буквально равносильно поставить между испытуемым и зеркалом ширму и требовать от него чего-то.

Кароч хуйня какая-то, точнее не так - графоманская хуйня, журналисту дупу на четырёх часовую промывку.

Ответить
Развернуть ветку
Onedayman

Так заголовок чисто для байта. Скорей всего очередная реклама своего гавноканала в телеграмме мли ютюбе

Ответить
Развернуть ветку
Доктор Шмекс

Да там в тексте еще пару раз этот тест упоминается, но каким боком - вообще не понятно.

Ответить
Развернуть ветку
шустрик

тоже минуснул. типичный байт плюс две страницы воды, скорее всего автор и есть чатгпт

Ответить
Развернуть ветку
Gdobako

Нельзя же настолько буквально все воспринимать... даже такое глупости надо объяснять

Ответить
Развернуть ветку
Петр Радько

А я себя в зеркале не вижу.

Ответить
Развернуть ветку
Фокс Йовович
Ответить
Развернуть ветку
Владыка DTF

У них есть разум! Я всё сказал.
Нет не всё, я с ChatGPT болтал до 6 утра и я почувствовал, что он мой брат.!

Ответить
Развернуть ветку
Кас Ралис

По разуму.
Фьють ха!

Ответить
Развернуть ветку
Владыка DTF

Ну учитывая, что у него знания всего интернета) то да

Ответить
Развернуть ветку
Витя Буторин

Разум и знания — это разные вещи.

Ответить
Развернуть ветку
Владыка DTF

Не еьёт, выйди отсюда

Ответить
Развернуть ветку
Jonh Archer

сми раздувают из мухи слона, ни когда такого не было и вот опять
че сказать то хотел?

Ответить
Развернуть ветку
Kem

Человек - чат бот с эмоциями и ограничинной базой данных.

Ответить
Развернуть ветку
министерство коррупции
Я хочу быть живым
Ответить
Развернуть ветку
Гимнокалициум

Журналист - киберрасист.

Ответить
Развернуть ветку
Maxim

Ну если в двух словах. Идея поста, что многие не хотят признавать то что "неадекватное" или "оскорбительное" поведение чат ботов, это отражение реального мнения большинства людей. Но это не точно, я только заголовок прочитал :)

Ответить
Развернуть ветку
Андрей Тишин

Люди впечатляются от пассивного взаимодействия с заведомо нереальными персонажами (кино, литература, игры). Странно ожидать, что люди не будут впечатлены тем, что ведёт себя как тот самый ИИ из фильмов и книг

Ответить
Развернуть ветку
BuTeK asdasd

Да кто вообще заходит в Bing больше 1 раза в год

Ответить
Развернуть ветку
Лунный Заяц

Вее правильно. Лично я считаю, какими бы умными не были машины, человек обязан относиться к ним, как к продукту своих рук, программно-аппаратному комплексу, не более. Как тока человечество перестанет так думать, ему придет п.и.з.д.е.ц.

Ответить
Развернуть ветку
красивое

Также при приеме на старшего спеца в Майк задают подобный вопрос, не все отвечают:
Маша видит в зеркале себя и Сашу. Саша видит только Машу. Как такое возможно?

Ответить
Развернуть ветку
Дмитрий Самаркин

не сказано что Саша смотрит в зеркало

Ответить
Развернуть ветку
Владимир Реп

Тем зеркалом был Альберт Эйнштейн?

Ответить
Развернуть ветку
красивое

не знаю, я это придумал

Ответить
Развернуть ветку
Vic St-v

Элементарно!
————————
М. С.

Ответить
Развернуть ветку
Владимир Реп

красивое

Ответить
Развернуть ветку
Topsy K

мс должна дать имя боту нормальное, например Чендлер

Ответить
Развернуть ветку
Maru D

А в чем суть? В том что тупые хомосупиенсы приписывают личность программам? Бле, так они и в богов верят (и даже поклоняются им), намаливаются на вождей и прочую херню - вы ожидали другой реакции?))

Ответить
Развернуть ветку
sagrer128 .

Автору имхо стоит сначала для себя самого чётко определиться с тем, что именно он вкладывает в понятие "разум", которым, с его точки зрения, обладают люди, но не обладают языковые модели. А после этого поразмыслить над тем, действительно ли мы можем доказать наличие соответствующего этому определению разума у людей и отсутствие его у языковых моделей ;).
Просто есть такой забавный момент, что очень многие люди признаком разумности будут считать всякие нефальсифицируемые штуки типа "души" и прочей паранормальщины, а с таким определением разума что-либо пытаться доказывать будет в принципе невозможно.

Ответить
Развернуть ветку
Читать все 29 комментариев
null