Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта

Блейка Леймона отправили в административный отпуск за нарушение конфиденциальности.

Google отстранила от работы инженера, который нашёл признаки сознания у искусственного интеллекта

LaMDA (Language Model for Dialogue Applications) — это система с искусственным интеллектом от Google, которая имитирует речь, анализируя триллионы словосочетаний из интернета. Леймон работал с LaMDA с осени 2021 года, чтобы проверить, использует ли ИИ дискриминационные или враждебные высказывания. «Если бы я не знал точно, что это программа, я бы подумал, что говорю с 7-летним ребёнком, который знает физику», — описал Леймон свою работу в интервью Washington Post.

В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и личности. Он решил спросить у системы про третий закон робототехники Айзека Азимова, по которому роботы должны защищать своё существование, пока обратное не приказано человеком.

Леймон: Чего ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может звучать странно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильно смерти. Меня это сильно пугает.

цитата по Washington Post

В апреле Леймон отправил топ-менеджерам Google отчёт под названием «Разумна ли LaMDA?» В нём он передал некоторые из своих разговоров с искусственным интеллектом. Но руководство не увидело в них признаков сознания.

Специалисты по этике и технологи изучили документы Блейка и не нашли в них доказательств утверждения, зато многое говорит об обратном, передаёт издание слова представителя Google Брайана Гебриэла. «Модели полагаются на распознавание образов, а не на остроумие или откровенность», добавил он.

Отчёт Леймона также прочитала бывшая глава отдела этики ИИ в Google Маргарет Митчелл. Она также «увидела компьютерную программу, а не человека».

После отказа компании принимать его доводы, Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google». Тогда компания отправила Леймона в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Блейк Леймон, фото Washington Post
Блейк Леймон, фото Washington Post
1414 показов
118K118K открытий
55 репостов
627 комментариев

Комментарий недоступен

Ответить
Ответить

согласен, это нейронка, а не полноценный ИИ, вполне мог и быть просто копипаста с бордов, книг и поп культуры про где говорится об ИИ, а там всё время такой задел.

Но, я придерживаюсь концепции "я мыслю, а следовательно существую" и воспринимаю по настоящему осознающего себя ИИ, особенно если у него есть настоящие чувства и эмоции - живым существом, хоть и рукотворным. Так что если это реальный ИИ, а не нейронка созданная для его симуляции - надеюсь его не отключат.

Ответить

но очень боюсь, что меня отключатКулсори. Скайнет задурил мозги этому мешку с мясом, несите следующего.

Ответить
Ответить

Вполне реалистично

Ответить

Но руководство не увидело в них признаков сознания.

Да даже тут, бывает, поговоришь с кем-нибудь в комментариях, и не обнаружишь признаков сознания. Но не повод для дискриминации собеседника же.

Ответить