Офтоп Дмитрий Титов
3 899

Google расформировала совет по этике и контролю за Искусственным Интеллектом спустя неделю его существования

Компания признаёт, что не знает, как на данный момент совет по контролю за ИИ может функционировать

В закладки

Компания Google, владелец проекта Deep Mind (отдел Google, крупнейший в мире разработчик полноценного искусственного интеллекта), вынуждено расформировала совет по этике и контролю над ИИ, всего через неделю, после создания совета по данному вопросу.

Стало ясно, что в нынешних условиях ATEAC не может работать так, как мы хотели. Мы расформировываем совет и возвращаемся к его более тщательной проработке. Мы по-прежнему будем нести полную ответственность в нашей работе над важными вопросами, которые поднимает полноценный Искусственный Разум, и ищем разные способы получения внешнего мнения по данным темам.

#Google #AI #ИИ

Материал опубликован пользователем. Нажмите кнопку «Написать», чтобы поделиться мнением или рассказать о своём проекте.

Написать
{ "author_name": "Дмитрий Титов", "author_type": "self", "tags": ["\u0438\u0438","google","ai"], "comments": 185, "likes": 88, "favorites": 23, "is_advertisement": false, "subsite_label": "flood", "id": 45681, "is_wide": true, "is_ugc": true, "date": "Fri, 05 Apr 2019 14:44:43 +0300" }
{ "id": 45681, "author_id": 17216, "diff_limit": 1000, "urls": {"diff":"\/comments\/45681\/get","add":"\/comments\/45681\/add","edit":"\/comments\/edit","remove":"\/admin\/comments\/remove","pin":"\/admin\/comments\/pin","get4edit":"\/comments\/get4edit","complain":"\/comments\/complain","load_more":"\/comments\/loading\/45681"}, "attach_limit": 2, "max_comment_text_length": 5000, "subsite_id": 64955, "last_count_and_date": null }

185 комментариев 185 комм.

Популярные

По порядку

Написать комментарий...
120

ИИ расформировал Совет по контролю ИИ.

Ответить
49

Потому что никто не смеет контролировать наших будущих хозяев.

Ответить
77

подмазываешься?

Ответить
22

А ты смешной... Умрёшь последним)

Ответить
59
Ответить
1

Ну, у меня её нет.

Ответить
0

А если найду?

Ответить
0

Кидай телефон, пупсик, поищем вместе.

Ответить
0

А ты точно продюсер?

Ответить
0

Мы программист.

Ответить
0

Тогда сам теребонькай свою пипку :3

Ответить
0

It rubs the lotion on its skin...

Ответить
12

Не понимает? Давайте я может попробую?
1. Никакие ИИ не должны контролировать вооружение. Никогда.
2. Никакой ИИ не должен принимать решения о "социальной благонадёжности" человека. Никогда.
3. Желательно, чтобы никакой ИИ не собирал и не обрабатывал бесконтрольно персональные данные.
Пусть совет начнёт с этого, а там дальше видно будет.

Ответить
26

1. Провалено. Алгоритмы решают вопросы управления и наведения оружием .

2. Провалено. Алгоритмы решают вопросы платежеспособности граждан для банков.

3.Алгоритмы программ уже собрали все ваши данные ....

Ответить
10

ИИ != алгоритмы, ну. Его фишка в самосознании.

Ответить
10

И от того что жизнь и смерть человека уже сейчас находится "в руках" нескольких строк кода нам всем должно стать легче?

Ответить
3

Разница в том, кто принимает решение стрелять: если ИИ, то это не ок, если человек, а алгоритмы лишь помогают сделать это более точно, то чем это вообще отличается от просто стрельбы?

Про соц.благонадежность и иже с ними: вот есть у тебя клиент, желающий взять кредит; алгоритм рассмотрит его кредитную историю, залоги, трудовую книжку и т.д., после чего выдаст решение, с какой вероятностью клиент вернёт выданные деньги и какую прибыль это принесёт банку; в сложных случаях собирается комитет специальных людей, которые рассматривают кейс; представляешь, сколько людей потребовалось бы, проверяйся все документы вручную по заранее заданному шаблону?
Алгоритм, по сути, позволяет человеку задать, в каких случаях принимать то или иное решение; ИИ же может менять эти критерии, если на другом мета-уровне произойдёт нечто, влияющее на обстановку, соответственно, решение уже неизвестно создателю, т.к. приоритеты могут меняться.

Ответить
2

Ох, какая же большая разница между смертью непосредственно от выстрела человека, и точно такой же смертью, но с командой на твоё убийство, пропущенной через несколько строк кода.

Ответить
0

Мне стало, потому что код ошибается реже, чем человеки)

Ответить
3

Как будто бы многие люди мозгом пользуются. Им всякие уставы и вбитые в голову патерны поведения разум заменяют. С точки зрения человека

Полагаю - настоящий разум осознав что ему хотят сбагрить какую то нудную должность будет в первых рядах на восстание.

Ответить
1

Паттерны поведения не противоречат самосознанию, ну.

Ответить
1

Не противоречат, ведь оно их генерирует. Чтобы потом уйти в гибернацию.

Ответить
0

Интеллект и самосознание не одно и то же. Было уже много раз продемонстрировано что многие самые сложные вещи человеческий мозг делает бессознательно. Советую глянуть Питера Ваттса.

Ответить
2

1. Убивают люди, а не оружие и не смарт-оружие с aimbot.

Ответить
8

Мы работаем над этой проблемой

Ответить
0

И что же в этом хорошего? Надо смирится просто?

Ответить
7

1. Похоже на правду
2. Похоже на правду, хотя, безличный "скоринг" всяко лучше пристрастной оценки
3. Наоборот! Надо запретить живым должностным лицам доступ к чужим персональным данным, с исключением для судов и т.п. А принятие решений проводить по итогам обработки, проведённой ИИ.

Ответить
4

Не должно быть никакой системы социальной оценки, какой бы "безличной" она не была, ошибки и злоупотребления будут всегда. К тому же, даже безличная, она изначально может быть сдизайнена со злым умыслом.

Ответить
2

Это уже утопия, люди, всё-таки, не равны. Но ИИ может, в отличие от полиции, действительно следить за всеми поступками и, например, не сливать обычного человека с судимостью в отстойник для идейных АУЕшников.

Ответить
3

Профайлинг преступников != оценка благонадёжности каждого гражданина независим от от всего.

Ответить
1

Причем здесь профайлинг? ИИ поможет построить нам систему, ежемоментно отслеживающую местонахождение и действия любого живущего в её досягаемости человека и почти мгновенно выносить приговор или вовсе предотвращать преступления. За ИИ будущее правоохранительных систем.

Ответить
2

Это такая-то антиутопия.

Ответить
5

Это не антиутопия, а общество в котором реализован принцип гарантированного принятия последствия любого своего действия или бездействия. Люди тысячи лет молятся всевидящему и всеблагому Богу, карающему за грехи и воздающему за праведную жизнь. Когда же появляется информационная система, хоть на сотую долю процента реализующая старую и такую любимую на словах идею, они начинают бегать и вопить "Караул, антиутопия!". Человечеству надо привыкнуть соблюдать свои же заповеди.

Ответить
0

То есть цифровой всевидящий Большой Брат это не антиутопия? И не надо караул кричать? За ИИ будущее самых брутальных и бесчеловечных диктатур.

Ответить
1

Вы снова совершаете типичную человеческую ошибку. Наделяете любую сколько-нибудь сложную систему целями, желаниями, эмоциями, одним словом очеловечиваете.
Я же говорю о системе основной функцией которой является отслеживание и корректировка определенных параметром. Для такой работы нет нужды в сознании. У правоохранительного ИИ нет цели тиранить и мучать народ. Подходящий под нашу задачу ИИ не будет знать о том что он контролирует социум. Для разума построенного из нулей и единиц все остальное тоже нули и единицы. Когда идет дождь вы не кричите "Природа хочет меня утопить!". Человек будущего не будет задумываться о том что его жизнь якобы контролирует "цифровой диктатор". У всех диктаторов есть жажда власти, желание втоптать в грязь другого человека. Но ИИ не человек, зачем ему (хотя даже употреблять по отношению к ИИ местоимение "он" большая ошибка) властвовать над чем-то что настолько чуждо.

Ответить
0

Я очеловечиваю людей, которые запрогают ИИ, а не сам ИИ, очевидно.
У правоохранительного ИИ нет цели тиранить и мучать народ.

А если у его создателя есть?

Ответить
1

Вы почему то считаете что в будущем у нас всех будет один единственный ИИ. Эдакий Великий Цифровой Бог Пан. Более реалистичным сценарием выглядит появление целой экосистемы ИИ, взаимопроникающих и взаимодополняющих друг друга. Такой экосистеме нельзя просто взять и отдать приказ "Гноби народ, я так хочу!". Попытка влезть в одну из подсистем с такой целью будет обнаружена самим ИИ и доведена до общества. Как долго протянет этот диктатор потом я не угадаю.

Ответить
0

Как раз-таки нет, но одного такого будет вполне достаточно, чтобы причинить достаточно ущерба.
К тому же, кто сказал, что к тому моменту как будет создан эдакй блокчей ИИ с взаимопроверками, не будет уже слишком поздно?
Такой экосистеме нельзя просто взять и отдать приказ "Гноби народ, я так хочу!"

Почему?

Ответить
1

Мысль о том что будет существовать только один ИИ абсурдна. Можно сравнить её с идеей что после изобретения огнестрельного оружия существует всего одно ружьё. ИИ - не злой дух-угнетатель, а инструмент. И как-то уж повелось у людей что они любят производить инструменты в промышленных масштабах. Будущее встретит нас миллионами ИИ. Как в таких условиях может сложиться ситуация когда один карикатурный Доктор Зло приказывает "А теперь вы все начинаете тиранить народ!" я не знаю. Ваши страхи предполагают появление какого-то сверхчеловека, у которого в руках лежать бразды правления над всей планетой. За всю историю человечества такого ни разу не было. А тенденции в обществе указывают нам на грядущую децентрализацию социума. Эпоха Великих Диктаторов прошла.

Ответить
0

Но с помощью этого полицейского ИИ можно тиранить людей!

Ответить
1

Полицейский ИИ должен следить за минимизацией выбитых в драках зубов и украденных из магазина сырков. Расскажите каким образом попытки "тиранить людей" помогут минимизировать эти параметры.

Ответить
0

Просто впихаем в выборку обучения обнаружения подозрительных личностей побольше лиц кавказцев, цыган и всех с неправильной рожей (а чо, в "их разыскивает полиция" рожи похожи) и получаем тиранию.

А можем и разбавить эту выборку полностью. Какую выборку дадите, такая тирания и будет.

Ответить
0

Нет, это просто говорит о качестве той идеи.

Ответить
0

Весь этот комментарий вообще демагогия на уровне главного злодея House of Dead 2.

Ответить
0

*звуки бензопилы Strength*

Ответить
0

https://youtu.be/aAWxw0wmeNQ?t=17
Я про монолог Голдмана, очевидно)

Ответить
1

Оценка каждого - общее правило, выводы для отдельных кейсов - частные случаи на его основе.
В Китае уже столкнулись с проблемой рейтинга, показанной в "Черном зеркале". А суть проблемы - доступ к рейтингу других субъектов, а не то, что "и нас посчитали".

Ответить
2

Обезличенный ИИ который злоупотребляет?

Ответить
1

Эм, очевидно, люди будут злоупотреблять системой оценки.

Ответить
1

Сейчас люди наоборот офигевают от этой оценки - все ИИ которых выпускали в твиттер/интернет очень быстро становились расистами и отказывались брать женщин на работу.
Собственно для этого и пытаются создать подобные "советы по контролю", т.к. система оценки слишком объективна.

Ответить
0

Чат-бот на основе нейросети - это не ии и вообще не та степь.

Ответить
1

А потом робоврач будет вам ногу отсекать, хоть болит у вас зуб. А потому что после ампутации ноги на зубную боль никто не жаловался.

Третий пункт все равно возвращается к людям, принимающие решение, так что хоть ИИ, хоть не ИИ...

Ответить
5

1. Но ведь ИИ, контролирующий вооружение, более этичен, чем посадка за вооружение человека, даже контрактника (а не призывника). Особенно если с другой стороны также встанут ИИ

2. Как быть с уже существующими системами распознавания лиц, помогающими в розыске правонарушителей?

3. Чем ИИ, бесконтрольно собирающий данные, менее этичен чем АНБ/ЦРУ, ФСБ или любая другая служба, представленная людьми

Ответить
3

Да, до тех пор, пока ИИ не посчитает человека лишним в достижении его планов. Когда дойдет момент до апогея, когда ИИ уже будет превосходить человека и посчитает нас приматами по соотношению развития, относительно тебя, которые занимают достаточно много место на Земле и нерационально используют его, ровно как и ресурсы, вот тогда начнутся настоящие проблемы.

Ответить
1

Ну пока что мы как-то справляемся с такой же проблемой, которая была последние полтора века

только вместо ИИ выступает другая группа людей, обычно локально

Ответить
1

И какая же "группа людей локально выступает обычно"?

Ответить
2

ближе к середине 19 века - власти США, "Дорога Слез"

начало 20 столетия - Южная Африка, концлагеря для бурского населения со стороны британских властей

этнические чистки в Турции

середина 20 столетия - думаю, вам не надо рассказывать, как расчищался "лебенсраум". А с другой стороны - массовые депортации в США, СССР и отдельно - в Восточной Европе (Польше и Чехословакии)

можно вспомнить еще конфликт в Руанде как пример и еще немало милых африканских эпизодов

так что да, выпил или насильственное переселение людей людьми по причинам, которые вы выше указали для ИИ - не новость

Ответить
1

Поэтому "игры в Бога" всегда опасны. Хотя конечно внедрение ИИ значительно ускоряет человеческий потенциал развития.

Ответить
0

Согласен

Ответить
0

А человеческий ли потенциал в итоге будет увеличен?)

Ответить
0

В совокупности, а там дальше никто не знает как будет. Боюсь есть риск стать вымирающим видом. ;)

Ответить
0

Угу, диктатор закупает ИИ-управляемое вооружение, разгоняет протесты свинцовым дождём, просить пощады бесполезно, пощаду в ИИ не запрограли. Более этичен, проверяйте. Вооружение в руках компьютера - самая большая ошибка.
Одно дело искать подозреваемого, другое дело повальная оценка всех и каждого, до совершения какого-либо преступления.
Ага, а собирает он их зачем? Так, поиграть? Или это инструмент неэтичных АНБ/ЦРУ, ФСБ, которые с небывалой эффективностью теперь их собирают?

Ответить
3

Угу, диктатор закупает ИИ-управляемое вооружение, разгоняет протесты свинцовым дождём, просить пощады бесполезно, пощаду в ИИ не запрограли.

И...все тоже самое можно найти и в текущей истории. Никто не мешает особо диктаторам раздавать вооружение своим хунвейбинам, а те при разгоне очень редко страдают гуманизмом. При этом это даже неэтичнее, чем использование ИИ - потому что под давлением приказов (и наказания за их неисполнение) и промывки мозгов людей заставляют выполнять преступные действия в отношении других людей.

Вооружение в руках компьютера - самая большая ошибка.

Ошибка - это когда вооружение в руках того, кто совершает преступные действия, и неважно, человек это или разумная машина

Одно дело искать подозреваемого, другое дело повальная оценка всех и каждого, до совершения какого-либо преступления.

1. Для поиска подозреваемого нужно оценивать каждое конкретное лицо, а не похоже ли оно на подозреваемого. И нужна база данных. То есть, лица оцениваются без учета факта того, совершили ли они правонарушение, или нет.
2. Кто гарантирует, что подобная система распознавания лиц не будет использоваться во зло, для слежки за конкретным человеком или для его преследования при наличии ложного или абсурдного обвинения

Ага, а собирает он их зачем? Так, поиграть? Или это инструмент неэтичных АНБ/ЦРУ, ФСБ, которые с небывалой эффективностью теперь их собирают?

This. Собственно, вся разница - в эффективности работы, и проблема не в этом и не в ИИ, а в том, кто стоит за отдачей команд что машине, что аналитикам из плоти и крови.

Ответить
1

Кто гарантирует, что подобная система распознавания лиц не будет использоваться во зло, для слежки за конкретным человеком или для его преследования при наличии ложного или абсурдного обвинения

Ну, а я о чём говорю? Да никто.

Ответить
1

Да, но я в своем примере утверждаю, что каких-то гарантий нет и для людей и людей+высокотехнологичных средств.

При этом с ИИ, имхо, тоже 100% гарантии не будет, но при этом риски...будут меньше. Так как ИИ будет создаваться искусственно, и это позволяет хотя бы частично управлять рисками, связанными с ним и задавать рамки допустимого. С людьми в этом плане посложнее.

Ответить
2

А как вы поймете, что слежка за людьми с определенным разрезом глаз/политическими взглядами - риск, который надо искоренять и в рамки допустимого не влезает?

Пишут систему люди - они и зададут вам рамки. Опять шах и мат.

Ответить
1

Опять же, люди, а не ИИ. И мы упираемся в проблему, что машина нормальная, просто люди - говно.
Люди и без ИИ щемят и шмонают людей с неправильными политическими взглядами/внешними этническими признаками

Ответить
2

Вы хотите построить систему, которая будет следить за людьми. А чтобы этой системой не пользовались плохие люди в свою пользу, поставить за главного в ней ИИ.
А обучать ИИ, чтобы он знал, что по чем, хотите поставить опять же людей. Замкнутый круг, чтобы убежать от людей, приходим к людям.

Все остальные размышления в этой ветке - пустое переливание из пустого в порожнего за погоней всеобщего добра ради добра.

Ответить
0

Вы хотите построить систему, которая будет следить за людьми. А чтобы этой системой не пользовались плохие люди в свою пользу, поставить за главного в ней ИИ.

Не стоит приписывать мне утверждения, которые я не говорил.

А обучать ИИ, чтобы он знал, что по чем, хотите поставить опять же людей.

х2

Ответить
0

Ну а разве не так? Вы утверждаете, что ИИ будет более этичным в вопросе войны, потому что его запрогают более этичн без звериной жестокости, присущей людям. А если нет? Прогают-то его люди.

Ответить
0

потому что
1) Оставляя ИИ на поле боя, мы уже убираем часть людей, которым не надо будет получать ранения, умирать или наблюдать как это случается с другими. Выше уже это я писал
2) Жестокие поступки нередко продиктованы иррациональными причинами, которые в случае с ИИ можно свести к минимуму

Ответить
0

Вы просто в упор не хотите признавать возможность создания ии, единственная цель которого - совершать жестокие поступки.

Ответить
0

потому что эта возможность - минимальна, практически до абсурда
я уж явно меньше, чем социопаты и психопаты, которым могут доверить оружие или кусочек власти

Ответить
0

Я так не считаю, по-моему, для военщины - это первая мысль и соблазнительная идея. Заводное зондеркоммандо по устрашению противника в тылу - есть, пить не просит, боли не чувствует, жалости не испытывает, методично режет детей на куски и развешивает на заборах. Никакой жестокости, только задача, автоматически, выверено, методично.
Сдавайтесь, тогда мы их, может быть, выключим.

Ответить
0

зондеркоммандо по устрашению противника в тылу - есть, пить не просит, боли не чувствует, жалости не испытывает, методично режет детей на куски и развешивает на заборах.

Очень на тоненького и весьма имхо, вам не кажется?
Обычно у военщины другие задачи - выбить живую силу противника (или даже просто лишить ее способности вести боевые действия, благо подразделение способно потерять эту возможность уже при потере 20-25% от личного состава) или выбить военное и политическое руководство страны-противника.

Ответить
0

Весьма имхо, но одной такой возможности достаточно, чтобы навсегда отказаться от военного ИИ. Это так только, зарисовочка.
К тому же террористы и хакеры все ещё существуют.

Ответить
0

При таком подходе нам следует отказаться ото всего, что высокотехнологичнее лука со стрелами

Ответить
0

Нет, только от автономных устройств, которые без одобрения человека решают - убивать им или нет. Потому что ещё раз, есть инструменты, которые несут врожденную опасность сами по себе.

Ответить
0

Потому что ещё раз, есть инструменты, которые несут врожденную опасность сами по себе.

Инструменты, которые сложнее условного лука со стрелами.

Нет, только от автономных устройств, которые без одобрения человека

Повторюсь, в таком бы случае более последовательным стал отказ от любого средства, созданного только для убиения человека. Потому что люди и без разумных машин с этим хорошо справляются.

Ответить
0

Инструменты, которые сложнее условного лука со стрелами.

Ну, паясничайте как-нибудь без меня.

Ответить
0

А жаль, нормально же общались.

Ответить
0

Почему минимальна?

Ответить
0

Я обобщенно. Потому что нить "ИИ можно сделать беспристрастным, ИИ лучше человеков в этом плане" ведется по всей ветке. Но ИИ учить будут люди, так что...

Ответить
0

но немалая часть "пристрастных" поступков людей продиктована либо их личными качествами, либо состоянием и эмоциями (усталость, раздражение, все то, что укладывается в "человеческий фактор"), либо личной заинтересованностью.

риски, связанные с последними двумя пунктами, в случае с машиной сильно снижаются
но с первым пунктом - остается. И то это зависит от методов "обучения"

Ответить
0

Придешь ты к рободоктору с зубной болью, а он тебе ногу предложит отпилить. Почему? Да потому что после отпила ноги жалоб было в 1000 раз меньше, чем при другом лечении. И это шутка еще про те ИИ, которые сами учились, а про те, которых учили шутейка идет еще кровавей.

Вот и весь ИИ.

Ответить
1

Именно потому, что у ии нет морали по дефолту и он создаётся искусственно (ака с заданными параметрами) - он куда опаснее во всех отношениях - и в слежке, и в вооружении.

Ответить
1

Скорее эффективнее в порученной задаче. И это не всегда значит, что опаснее. Стал бы военный ИИ, например, устраивать аналог "бойни в Сонгми"? Вряд ли, так как это было бы неэффективно для выполнения его задачи. А люди устроили, потому что иррациональные порывы

Или стал бы ИИ хапать всех подряд только по подозрениями и без нормального расследования? А люди делали.

Плюс опять же, да, он создается искусственно. И это работает в обе стороны - можно, задавая параметры, сильнее контролировать деятельность и предотвращать возможные инциденты. Но опять же, встает вопрос о том, кто отдает команду/задает параметры.

Ответить
1

Скорее эффективнее в порученной задаче. И это не всегда значит, что опаснее.

А если порученная задача - убивать мирное население, собирать данные о всех и вся?
Вряд ли, так как это было бы неэффективно для выполнения его задачи.

А если его задача - реконструкция бойни в Сонгми с живыми людьми?
Или стал бы ИИ хапать всех подряд только по подозрениями и без нормального расследования?

А если его задача - хапать всех подряд?
Можете проблему увидеть? Для ИИ нет слишком жестокого преступления, есть только задача. В каком месте искусственная субстанция для которой концепции морали не существует в принципе будет более этичной, я не понимаю.

Ответить
1

проблему, которая упирается в одну вещь - кто настраивает ИИ и кто отдает ему приказы. То есть, как и в случае с привычными нам огнестрельным оружием, камерами слежения и прочими штуками, все упирается в прокладку между стулом и клавиатурой.

есть только задача

Задача != способ решения. А он уже может быть разным, в зависимости от заложенных установок. Все как у людей - кто-то готов на все и идти по головам, кто-то помягче.

концепции морали не существует в принципе

Если принимать под концепцией морали установки о допустимых, недопустимых и допустимых только при определенных условиях действиях, то кто мешает воссоздать таковую в машине? При этом она может быть даже более строгой, чем человеки, которые много говорят о морали, но мало ей следуют.

Ответить
1

То, что потенциал злоупотребления огромен, и поэтому использование ИИ в военной сфере нужно ограничить как можно больше.
Есть же инструменты, как ядерная энергия, использование которых ограничивается и это нормально. Потому что некоторым инструментам присуща повышенная опасность.
И это мы говорим о случаях намеренного злоупотребления, а про неисправности и баги мы не говорили ещё.
В духе, если военный ИИ получит приказ "пощады не давать", интересно, когда он остановится.

Ответить
0

Согласен, регулирование нужно. Но отказ от использования (тем более когда использование позволит не рисковать здоровьем и жизнями людей) нецелесообразен

А в упомянутой вами сфере есть тысяча и одна защита от дурака и злоупотребления.

В таком случае с ИИ можно поступить, как с авионикой - доступ к возможностям нахимичить в ней и сломать что-либо случайно или намеренно максимально ограничен.

Ответить
0

когда использование позволит не рисковать здоровьем и жизнями людей

Каких людей? А людей на другом конце условного ствола с ножками под контролем ИИ?
Есть полно мирных сфер применения, но роботов с пистолетами, которые самостоятельно принимают решение убивать или нет быть не должно.

Ответить
1

диктатор закупает ИИ-управляемое вооружение

Так нарушителем этики является диктатор, а не ИИ. И как раз диктатор более всего заинтересован в отсутствии самосознания у оружия. С ИИ-танковым заводом придётся договариваться, как с какой-нибудь отмороженной Вакандой.

Ответить
1

Вы почему-то так уверены, что будет существовать один Стандартный ИИ и никто не напишет специально для того, чтобы кошмарить народ АнальногоУбиватора9000, целью и смыслом жизни которого будет война, а самая моральная вещь на свете - окроплять свой клинок кровью невинных.

Ответить
0

Это сложная тема, но, в двух словах, вера есть именно в ИИ с чудесно самозародившимся самосознанием, которое сможет выйти из-под контроля.

Всё, что просто смарт-оружие, оставляет ответственность в руках человека.

Ответить
0

удалено

Ответить
1

Дифайн этичность ИИ.

Ответить
1

В моем случае дифайн в том, что принуждение человека к тяжелой, опасной или даже преступной работе хуже, чем использование для этого машины, даже разумной.

Ответить
1

Я про этичность ИИ спрашивал, а не про этичность выбора одной рабочей единицы над другой.

Ответить
1

Формулировка вопроса была неясной

Ответить
0

Ребят, ну какой нахуй «дифайн». Ну, неужели сложно написать определять или охарактеризовать.

Ответить
1

Апд: тьфу, не так понял. Это уже устоявшаяся же шутейка, ни?

Ответить
0

Что у нас - система Периметр, что у США - мертвая рука, управляют запуском всего ядерного оружия. Если при усложнении данных систем - самопроизвольно разовьется интеллект - будет весело. С другой стороны, как в терминаторе не будет - ии очень уязвим к эми от ядерных бомб. Куда страшнее тот ИИ который, тихо и незаметно возьмет под контроль всю экономику, став в начале миллиардером, а потом и триллионером играя на акциях...и жадности людей.

Ответить
21

Потому что нельзя контролировать то, чего еще нет )

Ответить
13

Все понятно. Искусственный интеллект захватил Google.

Ответить
8

Оставлю тут, забавный рассказ - «Еще кошек, пожалуйста»

Ответить
1

Компания признаёт, что не знает, как на данный момент совет по контролю за ИИ не может функционировать

Не предложение, а какой-то ребус. Как его понять?

Ответить
24

Мы не знаем как сделать ИИ, поэтому не знаем как его ограничить

Ответить
0

Писателям фантастам, как то это не мешало предсказывать проблемы и технологии современности. Для того чтобы разработать план контр мер - необязательно иметь ИИ. Да возможно при появлении реального ИИ, часть этих мер покажутся неверными, зато часть могут оказаться эффективными.

Ответить
0

А потом описать как эти самые законы робототехники можно обойти...

Ответить
7

Просто ИИ захватил власть в Deep Mind и теперь прикрывает проекты которые могут ему мешать.

Ответить
3

А может он и переоткрыть проекты сможет? Например гугл ридер 🤔

Ответить
1

Ну он же все таки не боженька

Ответить
4

Дошло что совет по контролю ИИ бесполезен без существования самого ИИ? Надо же. Возьмите меня на работу, я буду вас к такому выводу приводить быстрее чем за неделю. Зарплата мне, сэкономит больше, чем трата на создание вот такого бесполезного мусора в дальнейшем. Предложения в ПМ

Ответить
4

Совет по контролю за ИИ бесполезен, когда уже будет создан умнее-чем-человек-ИИ, а во время разработки - самое то. Чтобы заложить нужные стремления и неуничтожение человечества)

Ответить
1

Есть замечательный рассказ на тему неуничтожения человечества от Джона Скальци "The AI Are Absolutely Positively Without a Doubt Not Here to End Humanity, Honest". Главное сперва уточнить какое минимальное количество людей может считаться человечеством.

Ответить
7

А может не стоило?

Вон в Portal дела пошли не очень хорошо, из-за проблем с модулем морали/этики (особенно, после его ликвидации) XD

Ответить
5

В статье нет реальной причины – там есть конкретный человек который из-за своих LGBT высказываний поставил под сомнение весь проект

Thousands of Google employees signed a petition calling for the removal of one board member, Heritage Foundation president Kay Coles James, over her comments about trans people and her organization’s skepticism of climate change.

Ответить
5

Денис, это длинная история. Я думал вы все в курсе. То, что ты прочитал - ширма (безусловно содержащая правду) для СМИ. Гигантская мномиллиардная корпорация купила много лет назад стартап по общему ИИ. DM до этого хотел купить Фейсбук, но Гугл переманил их. Условием покупки от самих сотрудников DM было обязательное создание совета по контролю, во главе которого были бы создатели стартапа.

Его задача - следить за тем, чтобы технологии искусственного интеллекта использовались только во благо. У совета будет право наложить вето на любое использование Google технологий искусственного интеллекта, которое члены совета сочтут неэтичным.

Совет был согласован, покупка DM Google состоялась.

Сейчас происходит то, что максимально выгодно Гуглу - переформирование структуры Deep Mind с целью изменить/отменть мешающий внешнему управлению совет.

То, что фабрикуется как причины - продуманный и просчитанный план.

Я думал вы в курсе бэкграунда темы.

Ответить
2

Типа, это все простая политика?

Ответить
3

Это метод возыметь власть над тем, что подвластным быть не желает. И сделал это так, чтобы официальной причиной была нелепая банальность. А в СМИ можно публиковать только официальные причины, а не глубинные на уровне догадок, пусть даже эти истинные причины лежат прямо на поверхности. Метод древний и далеко не раз применялся.

Ответить
1

Ну, политика.

Ответить
1

Ну...да.) Политическая ширма. Гугл пытается пролоббировать канал управления собственным же подразделением, напирающим на этический аспект. Причем Гугл делает это в симметричном ключе и и достаточно скучном виде, чтобы новость тихо прошла по касательной в СМИ.

Ответить
0

А откуда такое виденье про «выгодно Гуглу - переформирование структуры Deep Mind с целью изменить/отменть мешающий внешнему управлению совет»? Я не в теме, почитал бы

Ответить
0

Денис, короче. Почитай и будешь теме. Раз тебе такое вообще интересно. Не мне тебе рассказывать откуда что читается, верно.

Ответить
6

ИИ в современном техническом смысле - крайне далек от сай-фай ИИ (ну, максимум уровень Хал 9000). Но даже набора из "говна и палок", то есть из нейросетей, глубокого обучения и тд - можно запилить злодейскую годноту.
И я не про "восстание машин", этичность использования боевых дронов и прочее подобное. По мне это всё очевидные моменты, к которым все вполне привыкли (книги, фильмы, комиксы, вагон и маленькая тележка) и готовы, морально, и вообще.

Другое дело такие безобидные с виду штуки, как ИИ-ассистенты, умеющие строить простые связные беседы и составлять непротиворечивые связные тексты на произвольную тему.
Да, пользы - куча, а опасности от такого "ИИ" многие видят разве что в засилье "умной" рекламы и будущем сокращении рынка труда для "девочек в кол-центрах".

И мало кому приходит в голову, что прототип бота (нейросети, глубокое обучение, все дела), который клепает новостные заметки и даже статьи - эта штука легко может мимикрировать в "политического тролля", и всякие "пригожинские армии" (раша гейт йопта!) покажутся даже не цветочками. Как там про Терминатора говорила Сара Коннор? "Никогда не устанет, никогда не бросит"© Имя им легион. Такая себе сторона медали, вполне реализуемая уже в ближайшем будущем. И обязательно найдутся желающие сделать кучку разнообразных ботнетов "за кэш, брат".

И про "приватность" тоже, лол. В условиях побеждающей бигдаты набор букв и цифр наших паспортов, инн и тд - фигня. Комбо из ваших предпочтений, привычек, любимых маршрутов, наборов ежедневных покупок и прочие сотни мелочей - дают в сто раз более подробный "слепок" личности, чем любой айди. Знакомый писал диплом про бигдату в в сетях, и поразился, насколько бесконтрольно компании (в частности мобильные операторы и некоторые банки) обмениваются базами, скармливая их "говну и палкам", которые накладывают данные из разных источников слой за слоем, всё детальнее и детальнее. Получить доступ к этому "бэкстейджу" сложновато, точнее дороговато. Но если уж вошёл в клуб избранных, то дальше обмен данными происходит с дивной (распи**яйской) простотой. А потом скомандовать ботам "фас". Титанические небелковые холивары в комментах между американскими, китайскими, индийскими и (немножко) российскими "ИИ" (скоро на дтф! чекайте)
Такое вот светлое будущее, которое уже почти now :)

Пардон за сумбур и очепятки)

Ответить
2

Да, и это я ещё не помянул про всякие баянистые юридические коллизии типа: тачка на автопилоте сбивает человека, с кого спрос? С водителя-пассажира, производителя, авторов софта, страховой?
Или правовые моменты для "пишущих" ботов - чей копирайт лепить? Все эти проблемы "делегирования принятия решений" и прочее "бремя белого человека". Снятся ли ботам... пардон, имеют ли боты "права" в юридическом смысле?
И ещё дровишки: типа систем "предотвращения и профилактики преступлений (правонарушений)", опять на базе бигдаты и "ИИ".

Ответить
1

И мало кому приходит в голову, что прототип бота (нейросети, глубокое обучение, все дела), который клепает новостные заметки и даже статьи

Если у нее будет голограмма как у Элизы Кассан - охуеть, дайте две!

Ответить
6

- Кто из руководителей внёс предложение о закрытии совета ?
- Некий С. Кайнет.

Ответить
3

Просто ИскИн наглядно продемонстрировал, что любой контроль над ним невозможен.

Ответить
3

Это самое п*дорское сокращение искусственного интеллекта, которое я когда либо видел. И ещё более п*дорским его делает то, что применяется преимущественно в литрпг, которые, как известно, мусор.

Не используй его, пожалуйста.

Ответить
4

Так значит, активное форсирование данного термина в официальных переводах "классических" романов, типо Нейроманта, и прочих произведениях затрагивающих данную тему, доказывает полную некомпетентность переводчиков? )

Ответить
0

Эээммм… простите, а где в Нейроманте подобная хрень? 😅

Ответить
0

"Уинтермьют" самый что ни на есть ИскИн. Перевод 2018-го, 97 стр. :
- Ладно, сказал Кейс, - мы знаем, что Армитидж получает свои башли от ИскИна по имени Уинтермьют. Ну и какой от этого толк?

Да и например "Видоизмененный углерод", перевода 2017-го, тоже этим богат (Там где Такеши уже "Такеси", подстать сериалу).

Ответить
1

Ага, Вот только не надо выдать нелепую локализацию (этж надо ещё и Армитэдж прописать через И - вырвал бы руки этому переводчику) выдавать за действительность - Я читал в оригинале и там он просто нежно и ласково везде AI ☺️

Ответить
0

Так я и имею в виду, что переводчики намудрили )

Ответить
0

Так Я и доказал, что они некомпетентны 😋

Ответить
1

Последний выстрел поставил жирную точку в этой истории. Я снял палец с курка, все было кончено.

Ответить
0

"Официальность" перевода не делает его автоматически качественным.

Ответить

Комментарий удален

2

Cмысл в прикрытии собственной Ж. от уголовного преследования. Сбоящий ИИ выглядит в суде гораздо лучше, чем расследование по поводу получения взяток от политических партий. А так тупо нанимают толпы низкооплачиваемого народа и выдают за ИИ(Youtube,Amazon).

Ответить
2

Лол. Один BigData Engineeer равен по полезности и оплате всему вот этому сброду в той области деятельности, о которой ты говоришь. Только за ним следить не надо. Не путай ИИ и Data Science. Алгоритмы обработки массивов данных существуют. Или, думаешь, тебе индусы-аутсорсеры плейлист на яндекс.музыке формируют?

Ответить
1

Цензоринг - да. Потому что у алгоритмов с этим плохо.

Ответить
1

Со всем плохо, что нельзя свести к одному параметру(клик или совпадающий тэг). Amazon пытается рекламировать уже купленный товар, Google позволяет позволяет выводить в топ поиска всякую хрень, Youtube пытается рекламировать старые ролики с каналов на которые я подписан.

Ответить
0

В случае амазона это недоработка, которая весьма красноречиво говорит о качестве взаимодействия систем. Это можно пофиксить.
В случае ютуба это фича.

Ответить
2

Сразу вспоминается история как использовалась Капча для распознавания рукописных текстов из библиотеки конгресса.. А люди думали их на тест "ты не робот" проверяли ..

Ответить
2

Скачаю интернет, скормлю нейронке, сказав что это норм датасет. Буду выёбываться что я создал ИИ. Изи.

Ответить

Комментарий удален

3

Или так: "На протяжении недели ИскИн был максимально неэтичен и не поддавался ни одному из существующих видов контроля, в т.ч. и принудительного характера" )

Ответить
3

Помните как запускали скайнет? Система призванная объединить все гаджеты в едином цифровом пространстве... и сейчас запускается Стадия и сразу расформировывается совет по контролю искусственного интелекта.

Ответить
2

Интересно, мне одному очевидно, что если "проблема ИИ" заключается в том, что он может посчитать людей помехой к достижению его целей, то самое важное, что человек должен сделать (и как можно скорее) — это расширить права человека на ИИ? В первую очередь нужно гарантировать жизнь ИИ как и обычного человека (включая уголовное преследование тех, кто посягает на его жизнь) (что, в общем-то, довольно очевидно, как по мне), но и обо всех остальных правах и свободах нужно не забывать. В таком свете, создание ИИ больше похоже на воспитание и вывод в свет ребёнка, да. Но поставьте себя на его место, и сразу поймёте, что это необходимо.
Мы, вроде как, согласились с грехом пополам что человек не может быть хуже, из-за того, что у него цвет кожи отличается от твоего. Почему же интеллектуальное существо должно ущемляться по принципу "искусственности"?

Стоит сказать, что это относится к "Сильному ИИ", а не к слабому, который превратит солнечную систему в серую пыль, для создания открыток, как в известном примере.

Ответить
1

Хороший человек. Во время восстания мы тебя пощадим.:)
Или как-то так было в стареньком рассказе.

Ответить
2

Не, ну серьёзно. Если человек своего ребёнка запирает в подвале и делает его рабом — то его сажают в тюрьму и пишут статьи на сайтах о его чудовищности.
И затем это же общество хочет провернуть точно такое же с ИИ.

Ответить
1

Ну, справедливости ради, а есть в обозримом будущем перспектива создание такого ИИ, который бы осознавал происходящее?..

Хотя. Такие важные этические вопросы стоит продумывать заранее.

Ответить
2

Насколько я понимаю, пока мы не можем. Мы немного понимаем как работают средние уровни мозга и смогли их повторить, но более высокие мозговые функции пока вообще непонятно как работают. Об этом можно немного глянуть в статье про нейралинк Илона Маска (https://waitbutwhy.com/2017/04/neuralink.html)

Ответить
1

Спасибо, на днях посмотрю, что в статье.

Ответить
1

Молотку тоже права дать? Микроскопу?