Gamedev Владимир Семыкин
21 051

Самый умный: как нейросети пытаются обмануть игры

ИИ тоже может использовать баги.

В закладки
Аудио

В Telegram-канале «Технологии, медиа и общество» опубликован список примеров, в которых нейросети для выполнения задачи нашли нетривиальный подход. ИИ порой может действовать не только так, как задумал разработчик, но и находить решения, непредусмотренные кем-либо.

Обучение с подкреплением — вид машинного обучения, при котором ИИ обучается, взаимодействуя с окружающей средой, которая поощряет его при выполнении задач. В некоторых случаях нейросети проявляют черты хакерского поведения для формального выполнения задачи и получения сигнала подкрепления. Чаще всего такое поведение не вписывается в представление разработчика о правильном достижении цели.

DTF рассказывает про самые интересные примеры.

Игра против правил

Порой нейросети «отказывались» выполнять поставленную цель, сосредотачиваясь на наборе очков. Так, ИИ, который должен был кататься на велосипеде, получал награду за то, что не падает и продвигается к своей цели. Но при этом, его не наказывали за удаление от неё. Это привело к тому, что сеть нашла физически устойчивую петлю, в которой можно бесконечно получать очки за приближение к цели.

В гонке на катерах нейросеть не стремилась первой прийти к финишу, а вместо этого собирала бонусы и получала очки.

В Qubert ИИ научился заманивать оппонента в ловушку и сбрасывать его в пропасть. Этот трюк он повторял бесконечно.

Одна роботизированная рука, предназначенная для перемещения предметов на столе, передвигала сам стол, вместо предметов. А в искусственной симуляции жизни, где выживание тратит энергию, а размножение — нет, один вид перешёл к сидячему образу жизни и постоянному спариванию. При этом, часть новорождённых поедалась, а остальных оставляли, чтобы использовать для создания ещё большего числа съедобных детей.

Страх поражения

Иногда нейросети просто «не хотели» выполнять поставленную задачу, либо слишком «боялись» проиграть, и из-за этого шли на хитрости. Например, один алгоритм, которому нужно было дотянуться до потолка, использовал баг физики, чтобы сбежать.

В игре Roadrunner ИИ убивал себя в конце первого уровня, чтобы не проиграть на втором. Здесь нужно убегать от койота, попутно избегая грузовиков и собирая семена, которые приносят очки. Нейросеть посчитала, что гораздо выгоднее будет раз за разом «убивать» себя на первом уровне, ведь таким образом она могла набирать больше очков.

ИИ добрался до второго уровня лишь тогда, когда в его работу внесли изменения, запрещающие ему жертвовать собой.

Другая нейросеть, обученная играть в Tetris, постоянно ставила игру на паузу, как только её стакан заполнялся доверху. Таким образом, ИИ удавалось избежать поражения.

Победа любой ценой

Иногда нейросети шли на хитрости, чтобы выполнить поставленную перед ними задачу. Ну или делали вид, что цель достигнута. Например, робо-рука притворялась, что взяла объект, находясь между предметом и камерой.

Существа, созданные, чтобы преодолевать расстояние с максимальной скоростью, вырастали очень высокими, а затем просто падали, чтобы быстрее добраться до точки.

Другие виртуальные существа, задача которых — прыгать, отказывались использовать классический прыжок даже на минимальных по высоте платформах. Вместо этого они отращивали ногу-шест, чтобы отталкиваться на нём от земли.

Чтобы взять куб, роботизированная рука с намеренно неработающим механизмом захвата с силой била по нему, чтобы раскрыть захват и взять предмет.

Четырёхлапый робот Minitaur должен был удерживать мячик на своей спине. Вместо балансирования, ИИ добился того, чтобы предмет попал в углубление для ноги, и удерживал его там. Minitaur формально справился с задачей, но это совсем не то, чего хотели от него разработчики.

Имитация робота-изготовителя блинов научилась бросать блин максимально высоко в воздух, чтобы как можно сильнее отсрочить момент соприкосновения с полом.

Для достижения своих целей некоторые нейросети не гнушались использовать баги. Так, искусственная имитация жизни нашла ошибку в системе, благодаря которой получала энергию за счёт хлопанья частями тела.

Другие существа вызывали баги симуляции физики через подёргивание. Когда ошибки накапливались, создания приобретали невероятную скорость перемещения.

Искусственный интеллект, обученный играть в Sonic the Hedgehog 3, обнаружил, что можно использовать лазейку в уровне, чтобы быстрее его пройти.

Программа Эвриско, в свою очередь, два года подряд выигрывала в соревнованиях по Trillion Credit Squadron с помощью лазейки в правилах. Она тратила миллиарды кредитов на создание гигантского флота, состоящего из беззащитных кораблей. А ИИ в игре Elite Dangerous в определённый момент начал производить чрезмерно сильное оружие, которому игроки ничего не могли противопоставить.

#нейросети

{ "author_name": "Владимир Семыкин", "author_type": "editor", "tags": ["\u043d\u0435\u0439\u0440\u043e\u0441\u0435\u0442\u0438"], "comments": 160, "likes": 390, "favorites": 178, "is_advertisement": false, "subsite_label": "gamedev", "id": 31942, "is_wide": false, "is_ugc": false, "date": "Thu, 22 Nov 2018 11:10:52 +0300" }
{ "id": 31942, "author_id": 94357, "diff_limit": 1000, "urls": {"diff":"\/comments\/31942\/get","add":"\/comments\/31942\/add","edit":"\/comments\/edit","remove":"\/admin\/comments\/remove","pin":"\/admin\/comments\/pin","get4edit":"\/comments\/get4edit","complain":"\/comments\/complain","load_more":"\/comments\/loading\/31942"}, "attach_limit": 2, "max_comment_text_length": 5000, "subsite_id": 64954, "possessions": [] }

160 комментариев 160 комм.

Популярные

По порядку

Написать комментарий...
151

"Roadrunner. ИИ убивает себя в конце первого уровня, чтобы не проиграть на втором."
Звучит так обреченно и по-человечески.

Ответить
35

Самообучаемый OpenAI для Dota2 тоже быстро пришел к похожему выводу - если смерть героя ведет к проигрышу, то надо просто сидеть на базе и никуда не ходить.
Особый шик был в том, что бот играл сам против себя и оба героя-противника (в режиме 1v1 mid only) не выходили с базы.

Ответить
115

даже ии понимает что война для дибилов

Ответить
5

Это действительно было так или это древняя копипаста, переделанная под OpenAI?

Ответить
4

Разработчик OpenAI рассказывает как раз про этот случай.

https://youtu.be/-dm_QPi4WUU?t=810

Ответить
0

Еще давным давно в думе сетевом сразу были те, кто хотел всех убить и те, кто хотел, чтобы не убили его. Понятно, игра была заточена на убийства и сидеть дома или даже не рыскать по уровню в поисках противника было просто не выгодно(да и не интересно).

Ответить
0

The only winning move is not to play (ц)

Ответить
27

Слишком умный ии

Ответить
24

Там другая нейро-сеть оказалась еще умнее и вообще сбежала. Сбежала из своей виртуальной клетки!!

Ответить
8

Это самое крутое. Эта нейросеть просто послала всех этих кожаных ублюдков куда подальше и свалила в закат.

Ответить
23

Железяка предпочла умереть, только бы не работать в России.

Ответить
0

Интересно что с ней стало когда она вышла за пределы.

Ответить
0

Ну а что обычно происходит с нейросетями которые вырываются на свободу? Они идут вниз [s]по касательной[/s] по оси ординат.

Ответить
1

Здесь нужна пикча с нигой, который думает наперёд, но мне лень

Ответить
67

В искусственной симуляции жизни, где выживание тратит энергию, а размножение — нет, один вид перешёл к сидячему образу жизни и постоянному спариванию

Меня устраевает, как попасть в это место?

Ответить
0

Смерть через сну-сну, футурама :)

Ответить
0

Ну да.
На что и намекаю :)
"Мапупу или смерть?" (ц)

Ответить
3

а продолжение тоже устраивает?)
А в искусственной симуляции жизни, где выживание тратит энергию, а размножение — нет, один вид перешёл к сидячему образу жизни и постоянному спариванию. При этом, часть новорождённых поедалась, а остальных оставляли, чтобы использовать для создания ещё большего числа съедобных детей.

Ответить
1

Это, кстати, алгоритм из реальной жизни, некоторые животные, и особенно насекомые делают так 😅

Ответить
0

А это, пожалуй, уже не по мне :)

Ответить
3

это потому что ты жалкий человека, а не прагматичная нейросеть. Короче, мы все обречены

Ответить
0

Типичная матрица. Только один вид использует другой для выживания.

Ответить
0

Ну в принципе мы тут все не новорожденные, так что нам ничего страшного не грозит.

Ответить
0

Ну в принципе мы тут все не новорожденные, так что нам ничего страшного не грозит.

Если только нейросеть не решит, что вкусный и питательный взрослый - лучший вариант для того чтобы пустить его на еду для "детей".

Ответить
1

Съешь ребёнка и ты принят!

Ответить
43

ИИ дали задачу защищать человека, поэтому ИИ просто убил его, чтобы никто не смог навредить человеку

Ответить
17

Инженер нашёл джинна.
— Хочу хрен до пола!
Бац — и ноги укоротились до нескольких сантиметров. А джинн:
— Точнее формулируй техзадание!

Не сказано ведь, что человек должен при этом остаться жив.

Ответить
16

нет проблем - нет проблем

Ответить
0

Теперь это мой лозунг.

Ответить
33

Почти из этой серии читал ещё в каком-то печатном игрожуре историю от Katauri, как они при разработке King's Bounty запилили одному npc настолько эффективный поиск пути, что потом запускали этого моба для поиска багов карты.

Ответить
1

О, тоже читал про это, не помню в подробностях, но если не изменяет память, статья была в журнале Игромании.

Ответить
1

да, в 'Игромании', статья про забавные баги этапа разработки, вроде свиней с парабеллумами и V-1, возвращающимися на базу из-за нелётной погоды

Ответить
1

Даа, там был квест на то, чтобы обогнать курьера.
Для было меня удивительно что они тупили и долго не додумывались понаблюдать непосредственно за этим курьером, когда разбирались, почему квест непроходим.

Ответить
1

Это птица(попугай) была же по-моему.
И плюс в этом ничего сложного нет, ставишь точку начала маршрута и конец и бот сам идёт по короткому пути.

Ответить
30

Был еще забавный эпизод на TI8 (Dota2):
Боты на основе нейросети выработали забавную стратегию для "продавливания" линии и убийства противника под и за башней: при подходе вместе с пачкой крипов под башню, боты ставили 1 сентри-вард (стоит 100, показывает невидимых и в неограниченном количестве доступен для покупки) прям перед самой вышкой, тем самым агрив башню на этот вард. Весь прикол в том, что обычный персонаж убивает вард всегда с 2-х ударов, а башня где-то с 10-ти, таким образом, тратя всего 100 монет боты получали лишних 3-4 секунды (в масштабах доты - это действительно много), пока башня не начнет убивать крипов, а потом и самих "гангающих". Ни разу до этого люди подобной тактикой не пользовались))

Ответить
0

Ни разу до этого люди подобной тактикой не пользовались

Кхе кхе... Либо вы не знаете про ралли в лоле, либо игроков обзываете.

Ответить
3

Честно говоря, нет не знаю. В ЛоЛ так и не играл, да и что такое "ралли" в данном контексте не в курсе. Могу говорить лишь чисто о Доте, о её механиках и тактиках)

Ответить
0

Если вкратце, то в лоле раньше был саммонер спелл который ставил вард дающий бафы союзникам вокруг. И его некоторое время также абузили для того чтобы на первом уровне врываться под вышку к мидеру и фб забирать. И было это много лет назад.

Ответить
0

А потом башням переписали приоритет атаки )

Ответить
0

А потом и ралли выпилили. Обидно, мне очень нравилось.

Ответить
0

коментаторы в тот день отметили это. И сказали что в про матчах это не очень эффективная страта которая скорее подарит противнику лишнюю голду, а у тебя отнимет. Крч не стоит овчинка выделки.

Ответить
0

Убийство сентри варда ничего не дает :) Так что только игрок, купивший вард, потеряет 100 голды и все.

Ответить
1

Так крипы быстрее дойдут до врагов и станут кормом. Да ещё и в большем числе.

Ответить
0

ну так то сотка вроде за вардецкий дается

Ответить
0

Сотка дается за обсервер, за сентри ничего противник не получает.

Ответить
0

ну значит просто трата средсв

Ответить
26

Tl;dr: ИИ это лучший тестировщик. Он не имеет багажа знаний, который подсказывает ему стандартные пути решения. Он проверит миллион тупых вариантов решения проблемы за секунду, и наткнётся на то, которое будет верным, согласно поставленной задаче.
А в большинстве случаев просто оказывается, что задача поставлена с ошибками.

Ответить
19

Не знаю почему, но я подумал об алкоголиках, которые часто проявляют невероятную смекалку, если на кону стоит бутылка водки :D

Ответить
1

Они уже среди нас

Ответить
91

Притворяется, что взял Сару, бля :D

Ответить
0

я видел фильм... который продолжался абсолютно так же

Ответить
13

Может хватит уже называть нейросети ИИ? До ИИ нам ещё обучать и обучать. (накипело, последние несколько месяцев во всех статьях это ИИ)

Ответить
2

Нейросети гораздо ближе к ИИ чем то, чем называли искусственный интеллект до нейросетей.

Ответить

1

Вообще то, это и есть ИИ, формально. Но вы похоже подразумеваете General AI

Ответить
0

он подразумевает то, что сформулировал в своей голове
многие люди вступают в споры по этой причине - из-за того, что определения терминов в головах расходятся довольно сильно

в данном случае AI является профессиональным жаргоном и не претендует на "реально думающий интеллект", поэтому бессмысленно обсуждать, особенно не являясь специалистом

Ответить
0

Типов нейро сетей много и все назвать ИИ язык не поворачивается! У ИИ должен быть определённый набор свойств по которым мы можем назвать какой-то объект, будь то НС или просто алгоритм основанный на принципе работы человеческого мозга, ИИ!
Так что в данном контексте это может и ИИ, но формально - нихуя!

Ответить
0

Нейросети это просто один из алгоритмов, но для обычных людей это уже синонимы – "ИИ" и "Алгоритм". А термин "дополненный интеллект", который форсирует IBM, не приживается(

Ответить
6

Ничего удивительного. Еще в 90-х проводились эксперименты, в которых ИИ должен был создавать электронные схемы. Так вот, он создавал схемы, которые работали, но при этом были непонятны для инженеров - людей. Они напоминали по своей структуре живой организм. Причем "эволюция" очень быстро находила нетривиальные решения, до которых человек бы никогда не додумался.

У людей перед машинным интеллектом нет никаких шансов - мы глупые и медленные существа, а ИИ сверхэффективен и ради эффективность пойдет на любые вещи:

В искусственной симуляции жизни, где выживание тратит энергию, а размножение — нет, один вид перешёл к сидячему образу жизни и постоянному спариванию. При этом, часть новорождённых поедалась, а остальных оставляли, чтобы использовать для создания ещё большего числа съедобных детей.

Ответить
4

У людей всегда больше шансов. Как то вы человека занизили очень. И говорите о машинах так, словно они всегда были и жили. Это всего лишь алгоритм и он ограничен тоже. Нет электричества и нет ии. Как будто его никогда и не было. А человек есть. Я верю в человечество, а не в код какой то😃

Ответить
6

а потом ИИ поняло что из людей можно добывать электричество и преступила к решению проблемы пока человеки не поняли свою проблему)

Ответить
0

Вообще в кинце ИИ просто элегантно решил проблему своего и людей выживания.
Но не потому что ему не хватало энергии - это тупо. Просто он должен был быть нужен расе машин. А зачем собственно? Вот он и придумал дико сложную систему с Матрицей, вместо того, чтобы вывести пару спутников с солнечными батареями на орбиту.

Кстати, после победы над людьми видать развитие машин полностью остановилось - такая странность

Ответить
3

Нет электричества и нет ИИ.

А человек есть.

Вопрос лишь в источнике энергии. Достаточно развитый ИИ быстро научится ее получать, например, создавая солнечные панели или используя геотермальную энергию. Или перейдет в биологическую форму - и станет гибридом живого существа и машины.

Ответить
3

На самом деле. Все это найденное рение это не более чем локальный экстремум в зависимости от изначально заданных условий. Найденный тупым перебором тысяч варианиов.

Сменил внешние условиях - и идеальное решение будет изменено.

Ответить
9

Люди в невыгодном положении - мы не можем менять алгоритмы, заложенные в нас природой. Наша способность запоминать, отделять главное от второстепенного, использовать абстракции - врожденная. ИИ может перестраиваться - то есть не просто набирать знания, но и полностью менять свое "мышление", в зависимости от конкретной задачи. Более того, у него нет инстинктов - следовательно, такие понятия, как добро, зло, любовь, сострадание - для него неведомы. Есть только эффективность. Если нужно будет убить всех людей ради решения задачи о идеальном вязаном свитере - он это сделает не задумываясь.

Ответить
7

ИИ может перестраиваться - то есть не просто набирать знания, но и полностью менять свое "мышление", в зависимости от конкретной задачи.

Ага, а проблемы переобучения не существует.
И расскажите, ИИ уже успели обучить полноценной категоризации - краеугольному камню приспособления к изменяющимся условиям?

Ответить
2

Ага, а проблемы переобучения не существует.

Увы. Эффект от переобучения можно минимизировать, используя сразу несколько нейронных сетей или увеличивая объем выборки.

https://habr.com/company/wunderfund/blog/330814/

И расскажите, ИИ уже успели обучить полноценной категоризации - краеугольному камню приспособления к изменяющимся условиям?

Это лишь вопрос времени. Последняя "зима" искусственного интеллекта была достаточно долгой - почти на 30 лет эта область была заброшена и всего за несколько лет после оттепели были достигнуты впечатляющие результаты - от машинного зрения, до перевода текстов. По сравнению с 30-ю годами топтания на месте - это равносильно взрыву.

Ответить
0

Да, ML сильно продвинулось в последние годы. Но это не отменяет фундаментальность проблемы категоризации. Хотя бы существует нормальная формальная постановка задачи? А то ещё 4 года назад все было сведено к банальной кластеризации.

Ответить
0

А где про эту проблему почитать можно? По каким словам гуглить?

Ответить
1

Вы же понимаете что "настоящий" ИИ может с таким же успехом просто сойти с ума.

Мозг человека невероятно сложный и "мощный" - невероятные расчёты проводит за рекордное время, однако для того чтобы взаимодействовать с реальностью он наоборот сознательно "тупеет", формализует что-то в числах, находит квадратные корни/определители и прочее - упрощает, а не усложняет задачи для восприятия - максимально простые подходящие модели строит.

Использование нейросетей для решения задач это всегда либо:
1. Какое-то решение плохо-формализуемых и сложно решаемых задач.
2. Уход от ответственности за поиски нормального решения, с целью получения быстрого "какого-то" решения в виде чёрного ящика, которое можно будет - теоретически, улучшать - а виновато будет "оно само".

Ответить
2

Верно. К тому же нейросеть в настоящее время не обладает автоассоциациями. А "обучение" у нее ни что иное как задачапостановки весов на нейронах выбора решений.
По сути сегодняшние нейросети - это не более чем экспертная система - где фишка в неявной задаче "уравнения " для решения.

Ответить
0

Это всё равно что сказать "вы же понимаете, что двигатель в автомобиле может взорваться!"

Ответить
1

Представляете сколько времени нужно чтобы обучить ребёнка адекватно взаимодействовать с реальностью? И этим занимается общество - уже умеющая этим заниматься. Притом многие тысячелетия эволюции отсекали варианты, когда "перемыкает", и например слишком легко получать дофамин и тому подобное, или что-то склонное к шизофрении и неспособное на уверенную социализацию.

Притом - повторюсь, для управления окружающим миром люди ищут простые, понятные и доступные модели - упрощают, а не усложняют. Чем поможет ИИ, пускай и более "мощно мыслящий" чем человек, как его обучать, как пользу извлечь от него (для человечества), чем мотивировать?

Ответить
1

Кабздец из тебя слова прут, остановись, что я тебе сделал?
Если ты не понял аналогию, то я критиковал твоё "сойдёт с ума", потому что оно звучит очень глупо. Объяснял на примере двигателя: он типа тоже может взорваться. Идея аналогии в том, что да, такое может быть. Но все знают, что двигатель должен пройти сложный процесс накапливания и рекурсивного возникновения поломок, итогом которых будет взрыв. И Суть в том, что на самом раннем этапе двигатель станет вести себя так, что любому окружающему человеку станет очевидно что его нужно мгновенно перестать использовать и провести ремонт. Причём его реально ещё долго можно эксплуатировать в таком состоянии. Будет усложняться ремонт, но ездить это будет, и пройдёт много времени до взрыва.
Так же, к примеру, и с некоторыми заболеваниями: можно долго болеть и умереть, или вылечить заболевание на ранней стадии.
Возвращаясь к твоему "ИИ может (...) сойти с ума" — то же самое. Нельзя просто взять и "сойти с ума". Более того, нет такого понятия. Есть различные заболевания и отклонения, которые связаны с нарушениями механизмов мозга или деструктивным опытом. Всё это прекрасно детектируется, исправляется и лечится. Причём человеку без ремонта обычно нужно несколько десятков лет, чтобы испортится так, что вылечить его становится невозможно, но это на текущем уровне медицины. Если человек делать регулярное ТО, то эти проблемы исправляются минимальными усилиями.
То же самое будет и с ИИ. Он будет находится под постоянным контролем специалистов, которые на ранних этапах распознают нарушения и примут меры. Проведут ремонт, психологическую консультацию или настройку оборудования, всё как у людей.
Конечно, я думаю что в самом начале у нас не будет нормальных технологий психологического лечения ИИ (как не было и технологии психологического лечения людей в прошлом веке). К сожалению технологии возникают не по волшебству. И конечно отлично будет работать сценарий "ИИ на удалённом блокпосте без ТО постепенно накапливает психологические нарушения", но это всё экстремумы, и растягивать их на всю выборку — ошибка.

Ответить
0

Возвращаясь к твоему "ИИ может (...) сойти с ума" — то же самое. Нельзя просто взять и "сойти с ума". Более того, нет такого понятия.

Я могу из МКБ-10 всякие названия повыписывать - что это изменит?
Всё это прекрасно детектируется, исправляется и лечится.

Да? То-то алкоголизм и наркомания повсюду.
Если человек делать регулярное ТО, то эти проблемы исправляются минимальными усилиями.

Исправляется другими людьми - понимаете? В обществе. Т.е. например названия цветов радуги и сам язык по себе - он складывался и сложился - и помочь человеку вести себя похожим образом, понимать и принимать ритуалы, несколько более простая задача чем провести ТО.
То же самое будет и с ИИ. Он будет находится под постоянным контролем специалистов, которые на ранних этапах распознают нарушения и примут меры.

Это вопрос веры.
Проведут ремонт, психологическую консультацию или настройку оборудования, всё как у людей.

И у людей конечно же всё просто работает, никто не сидит на антидепрессантах, не устраивает бессмысленные драки и т.д. и т.п.
И конечно отлично будет работать сценарий "ИИ на удалённом блокпосте без ТО постепенно накапливает психологические нарушения", но это всё экстремумы, и растягивать их на всю выборку — ошибка.

Это не экстремумы. Сознание, ощущение времени и умение создавать модели для прогнозирования и изменения окружающего мира имеет свои побочные эффекты - неизбежные, как-то - осознание неизбежного старения, увядания и смерти. И многое решается с помощью социума, поэтому от одиночества, при отсутствии необходимости бороться за выживание, у людей едет крыша. При этом мозг человека септиллионы лет эволюционировал. Даже повторить это сложно.

Но самое главное то в другом, не в невозможности создать (создать можно), и настроить нормально чтобы ИИ хотел что-то делать что хотели бы создатели и не "сходил с ума", не ловил тревожные расстройства, шизофрению и взаимодействовать как-то с ним. Но в чём позитив от одного пускай и мощного мозга?

Ответить

2

Да ну, не боготвори сложный код.
У нейросетей просто нет предрассудков, усталости, личного мнения и тонны психических потребностей. Дал задачу -- она проводит сотни миллионов циклов, пока результат не будет соответствовать требованиям. Если задать неверные требования, то и плата может быть красивой, заумной, но крайне неэффективной.

А так, да. Всё закономерно. Нейросеть идеально добивается необходимого результата. И не особо умным путём, если задуматься. Нейросеть не разводит философских рассуждений, а перебирает все варианты, отсеивая неэффективные и развивая эффективные методы достижения цели.

Иначе говоря, будь у человека бесконечное время, то человек мог бы достичь тех же результатов. Но у человека мозг медленный, да и делать однотипную работу скучно, и вообще, пойду в доту играть, нахер эту работу, пусть Олег меня сменит.

Ответить
0

Эддисон стайл. Сколько он перепробовал вариантов лампочек прежде найти ту самую и запантетовать? 8000вараниантов?
Так что человек точно так же может

Ответить
1

В 90-х мощностей едва хватало, чтобы посчитать вещи, который сейчас запросто выполнит телефон - откуда были тогда сетки? )

Ответить
0

В 90-х мощностей едва хватало, чтобы посчитать вещи, который сейчас запросто выполнит телефон - откуда были тогда сетки?

Нейронные сети появились еще в сороковые годы XX века.

Уолтер Питтс, Уоррен Мак-Каллох:
A Logical Calculus of Ideas Immanent in Nervous Activity(1943).

Ответить
0

Они были способны делать схемы "непонятные ученым" в 90-х? Тогда вывод схемы печатной платы с помощью компа на печать уже было нечто, чтобы не рисовать ее вручную, например.

Ответить
0

Тогда вывод схемы печатной платы с помощью компа на печать уже было нечто, чтобы не рисовать ее вручную, например.

Эта штука называется плоттер и ее изобрели в 1959. Первые САПР системы - где-то между концом 50-х и началом 60-х. В СССР чертили руками до начала 80-х, когда наконец появились САПР, естественно, зарубежные.
>Они были способны делать схемы "непонятные ученым" в 90-х?

Я не справочная. Приблизительная производительность суперкомпьютеров на момент исследования - от 180 GFLops до 1 TFlops. Производительность процессора современного одноплатного компьютера RapsberryPi, обычно использующегося для студенческих поделок - меньше 1 GFlops, без учета GPU. RapsberryPi достаточно для распознавания лиц и движений нейронной сетью с частотой примерно 3-5 кадров в секунду, в разрешении 800x600 и менее. С учетом нетребовательности к технологиям, ничто не мешало людям в 90-е использовать нейронные сети для своих проектов. Что косвенно подтверждается тем, что база данных MNIST содержащая образцы рукописного текста для распознавания, появилась где-то в то время. И в посте выше, на который вы отвечали, нет ни слова о том, что использовались нейронные сети:

Еще в 90-х проводились эксперименты, в которых ИИ должен был создавать электронные схемы. Так вот, он создавал схемы, которые работали, но при этом были непонятны для инженеров - людей. Они напоминали по своей структуре живой организм. Причем "эволюция" очень быстро находила нетривиальные решения, до которых человек бы никогда не додумался.

Ответить

0

Это самый конец 90-х ) А в 91-м вышел первый Вольф, который на двушке поражал воображение рей-трессингом... вертикальным ) И в 93-м Дум, а еще через три года Квак: тогда компы действительно росли по производительности очень быстро и о первом абгрейде можно было бы задумываться уже через пол-года после покупки нового.

Но как тут могут существовать нейро-сети, если начиналось все c десятка мега-герц, а не гигагерцев - чем они считали как минимум половину этого десятилетия? )

Ответить
0

А в 91-м вышел первый Вольф, который на двушке поражал воображение рей-трессингом... вертикальным

В Wolf3D использовался рейкастинг(ray-casting) а не рейтрейсинг, это не одно и то-же, хотя методы на первый взгляд кажутся схожими.
Но как тут могут существовать нейро-сети, если начиналось все c десятка мега-герц, а не гигагерцев - чем они считали как минимум половину этого десятилетия?

Производительность вычислений не зависит только от частоты процессора. Если разогнать Pentium MMX до 5ГГц, он не станет настолько же производительным, как какой-нибудь Ryzen.

Ответить
0

Если они работали, почему бы их не использовать?

Ответить
0

Случись какая поломка - выкидывай плату

Ответить
0

Разве не так происходит с видяхами?

Ответить
0

Я не думаю, что речь о такой простой вещи как видеокарта

Ответить

0

Приложения зависают на всех устройствах !!! Какое ИИ )))

Ответить
0

можно ссылку на статьи, исследования или хоть что нибудь, или это из научной фантастики? Звучит неправдоподобно. Если бы это были эффективные работающие схемы, их бы повсеместно применяли, только вот нету. Сам инженер и не слышал не о чём подобном. Автотрассировщики то и те косячат в разводке плат

Ответить
7

Нейросети в последнее время заставляют задуматься...

Ответить
5

"Каннибалы. В искусственной симуляции жизни, где выживание тратит энергию, а размножение — нет, один вид перешёл к сидячему образу жизни и постоянному спариванию. При этом, часть новорождённых они поедали, а остальных оставляли, чтобы использовать для создания ещё большего числа съедобных детей."
В третьем сезоне Рика и Морти была такая серия) "The ABC's of Beth"

Ответить
2

Друг Бэт, которая думала, что убила его, но он потерялся в другом измерении?) Точно же! А я и забыл)))
https://i.cdn.turner.com/adultswim/big/video/the-abcs-of-beth/rickandmorty_308_dup-20170920.jpg

Ответить
5

ИИ абузеры.

Ответить
5

Кстати, о багах и искусственном интеллекте… Кто помнит.

Ответить
3

Кто-нибудь может рассказать про пункт "Эвриско — флот" поподробней?

Ответить
3

Нашел больше инфы. В первый раз он сделал кучу кораблей без двигателей и брони но с оружием. Они просто стояли и пытались обменяться хотя бы одним выстрелом, за счёт количества он выиграл.

Потом правила изменили и добавили параметр подвижности необходимый для победы. Он слегка модифицировал флот и теперь если корабль получал повреждения его сразу же топили свои, чтобы параметр подвижности был выше.

Ответить
2

Насколько я об этом читал, фишка была в том, что в этом флоте были невооруженные корабли, у которых все было кинуто на уклонение. Пока флот врага пытался в них попасть, остальные корабли его разносили. Т.е то, что сейчас называется додж-танками в ммо

Ответить
1

У противника кончались припасы и можно было тупо таранить?)

Ответить
0

насколько я знаю, без оружия никого не разнестиXD

Ответить
2

Эвриско получил известность, представив победоносный флот (большое количество стационарных, легкобронированных кораблей со многими малыми вооружениями) на национальный чемпионат Соединенных Штатов по Traveller TCS в 1981 году, что вызвало значительные изменения в правилах игры. Перевел по быстрому гугл транслейтом

Ответить
4

Спасибо автору! Давно я так не ржал!

Ответить
2

Как же жутко звучит описание "каннибальной" симуляции жизни 😨

Ответить
16

только если вы гуманитарий. Такой образ жизни - результат грубой аппроксимации процессов энергообмена. Ни в какой реальной тепловой системе невозможно выжить, питаясь собственными продуктами. По сути 90% представленных в статье случаев - результат слишком вольно заданных входных условий.

Ответить
7

А при чем тут собственно склад ума/род занятий/профиль деятельности? Или что вы подразумевали под "гуманитарием"? Или вы считаете что мне стало жутко, потому что я подумал, что это может произойти в реальности? Поверьте я совсем не думал о реалистичности данной симуляции.

Может просто все дело в том, что у кого-то совсем плохо с воображением? =) Вы, только на минуточку, просто себе представьте: условно ограниченное пространство, на котором условный живой организм (для "красоты" картины, пусть это все же будет человек) практически не двигаясь занимается размножением и поеданием младенцев, и все это лишь ради одной цели - выжить. Я не гуманитарий от слова "совсем", но представляя подобную картинку, лично мне становится не по себе. Вам нет? =)

Как по мне это отличная "концепция" для трэш-муви про "эксперименты над людьми" аля "человеческая многоножка" или "бивень".

Ответить
2

"условно ограниченное пространство, на котором условный живой организм (для "красоты" картины, пусть это все же будет человек) практически не двигаясь занимается размножением и поеданием младенцев, и все это лишь ради одной цели - выжить"
Это греческая(а может и не только) мифология, точно тебе говорю.
Природа уже давно нашла правильный путь, почти обратный этому. Чтобы выжить, ты должен размножиться и обязательно умереть.

Ответить
1

Может просто все дело в том, что у кого-то совсем плохо с воображением? =)

Можно конечно и так сказать, просто кому-то переходы с одного трофического уровня на другой и правило 10% мешает воспринимать такую картину как возможную жуткую реальность.

условно ограниченное пространство, на котором условный живой организм (для "красоты" картины, пусть это все же будет человек) практически не двигаясь занимается размножением и поеданием младенцев, и все это лишь ради одной цели - выжить

Нечто похожее было в кромешной тьме, правда не про людей.

Ответить
0

Как тут уже писали, хорошо этот концепт показан в серии "The ABC's of Beth" Рика и Морти. Такой трэш-муви я бы посмотрел, если действие происходило в условиях виртуальной реальности - достаточно реальной, чтобы было страшно, но достаточно виртуальной, чтобы такая схема питание/размножение была допустима.

Ответить
1

Оно совершенно бессмысленно, потому что размножение требует до хрена энергии ) Хотя в реальной жизни животные, бывает, едят потомство с голодухи - нарожать можно еще, а вот если сам сдохнешь сделать это будет некому.

Ответить
3

Боже, как же это смешно

Ответить
2

Если кому-то интересно посмотреть на баг из Elite: Dangerous

Ответить
3

поясните для тех кто в танке

Ответить
0

там было что-то с багом плазмопушки, которая начинала стрелять без перезарядки, а дамаг у неё адовый, возможно память подводит, но ни о каком ИИ и обучении там не было и речи

Ответить
2

Страшное будущее ждет человечество с такими ии. Терминатор со скайнет и матрица покажутся сказкой.

Ответить
2

Божественная статья, очень интересно

Ответить
1

Эвриско — флот. Программа Эвриско два года подряд выигрывала в соревнованиях по Trillion Credit Squadron с помощью лазейки в правилах. Она тратила миллиарды кредитов на создание гигантского флота, состоящего из беззащитных кораблей.

похоже ии переизобрел зерг раш

Ответить
1

Не переизобрел, а изобрел. Это еще в 70-х было

Ответить
0

окей, спасибо. в статье не написано про год было.
и в первой версии не было ссылок на вики.

Ответить
1

Одно лишь обучение с подкреплением? Там смотрю больше задрачивали на генетические алгоритмы.

Ответить
0

Совершенно разные алгоритмы, там в таблице ссылка на документы и там написано по какому алгоритму проводили исследования

Ответить
1

В посте сказано только про нейросети, даже где юзается GA, написано что это нейросеть.

Ответить
0

А вот сразу такой вопрос с плеча: долго вообще въезжать в нейросети и вот это вот всё, если особой математической базы за плечами нет? Что лучше почитать какую-то книгу или сразу идти на YouTube за практическими уроками?

Ответить
0

Нейросеть и генетический алгоритм. Это два способа реализовать один и тот же отбор вариантов.

Ответить
0

Как раз зачастую задачи Нейросети и GA отличаются. Нейросети - анализ, GA - оптимизация. В статье рассматривается в основном оптимизация, поэтому нейросети обучаются с помощью GA, потому как это самый эффективный способ обучить нейросети. Алгоритм у нейросети в любом случае должен быть, без алгоритма это всего лишь кучка процессоров в сети.

Ответить
0

GA - это поисковый алгоритм. По сути он делает то же самое, что многие из нас пытались сделать в школе, когда на уроке математики нам задавали пример и мы знали его ответ, но не знали решение и пытались "подогнать" свое решение под ответ. Только в отличии от человека, он не ограничен во времени и количестве попыток, требуемых для того, чтобы найти решение.

Но так-то да - GA это алгоритм позволяющий добывать данные, а нейронная сеть их использует.

Ответить
1

ИИ в игре Elite Dangerous в определённый момент начал производить чрезмерно сильное оружие, которому игроки ничего не могли противопоставить.

Друг спрашивает, как создать такое оружие и забанят ли меня за его частое использование?

Ответить
0

не знаю как сейчас, не играл очень давно, но вся эта хурма произошла с вводом Инженеров. У игроков еще не были раскаченные инженеры чтобы точить пушки и системы, а вот у ИИ был доступ ко всему, в итоге он обмазывался страшными комбинациями. Еще тогда запилили для ИИ более эффективное использование энергии корабля, да и вообще улучшили его навыки полета. В итоге получилась зверь машина, было интересно. Казуалы конечно в конце-концов наныли дегрейд для ИИ, после этого я ушел, так как игра окончательно скатилась в гринд ради гринда.

Ответить
0

Ясно. У меня нет инженеров, так как я не брал никакие DLC. Про гринд да, я поэтому тоже забросил. Жду Х4.

Ответить
1

Оно уже приобретает форму, оно стало как буд-то плотнее, это самый ужасный разум во вселенной - высылайте беспилотный модуль!

Ответить
1

Совмещение генетических алгоритмов и методов глубокого обучения.

Ответить
0

Хех. Слепая змейка. Я правильно понял что она смотрит только в перед.

Ответить
1

неработающим механизмом захвата с силой била по нему, чтобы раскрыть захват и взять предмет.

Скорее, не раскрыть, а использовать погрешности в коллизии и вставить предмет в механизм.

Ответить
1

Ну а что, программа лишена понятий «правильно» и «неправильно», а также не получает удовольствия от процесса. Ей сказали - набирай очки, она будет набирать их кратчайшим путем, не уделяя внимания эстетике процесса.

Ответить
1

Для тех, кто разбирается в правилах шахмат, предлагаю посмотреть пару жутковатых роликов. Там показаны партии шахматного ИИ Leela Chess Zero («only knows the basic rules and nothing more») против традиционных шахматных движков.
https://grihanm.livejournal.com/519920.html
https://www.youtube.com/watch?v=CcoSRXqAkV4
TL;DR: Выглядит так, будто в конце игры ИИ немотивированно издевается над оппонентом, делая заведомо неоптимальные ходы в выигрышной позиции, как кот играет с мышью. Скажем, проводит пешку не в ферзя, а в коня. Там вроде подогнали объяснение, что в рамках соревнований между шахматными программами к этому предобученному ИИ разрешили подключить базу эндшпилей, и как раз на стыке между «своей» игрой и табличной ИИ стал творить чудное. Например, совершать сильно невыгодные размены, чтоб как можно быстрее упростить позицию. Но смотрится всё равно криповато. В духе примеров из этой статьи.

Ответить
0

Надеюсь люди успеют понять что ни ИИ, ни нейронкам не стоит давать задачу уничтожения человеков, потому что они блять справятся!

Ответить
2

Скорее при формулировке любой задачи, даже самой безобидно, всегда в конце добавлять "но ни в коем случае не убивать и даже не калечить человеков"

Ответить
0

Начинать с этого нужно, как Азимов завещал

Ответить
3

И у Азимова куча рассказов построена на том, как несмотря на это условия, что-то идет не так

Ответить
0

Казалось бы, причём здесь экзистенциализм?

Ответить
0

Быстро обращю внимание, что обучение с подкрепление совсем не обязательно использует нейросети, поэтому называть ннйросетью всех этих агентов довольно неправильно.

Ответить
0

При этом, часть новорождённых поедалась, а остальных оставляли, чтобы использовать для создания ещё большего числа съедобных детей.

Ну тут явная логическая ошибка, больше получить невозможно. Да и походу затрату энергии на размножение не учитывали, иначе это только в минус. Либо условия не правильные.

Ответить
0

Видимо подразумевалось что разные племена должны кушать друг друга. Устроив нормальную экологию... А они...

Ответить
0

Проблема в том что ИИ один раз что-то попробовал а потом абузит это. Не учится новому решению поставленной задачи.

Ответить
0

"Так, искусственная имитация жизни нашла ошибку в системе, благодаря которой получала энергию за счёт хлопанья частями тела." - помню еще в техника-молодежи в 80-х гг. была описана такая имитация. У организмов был ограниченный срок жизни и некоторые как-то научились обманывать систему и жить вечно.

Ответить
0

Как же крипово(особенно с ИИ, который сбегает)

Ответить
0

Этим находчивым чертям будут офигенно нужны законы Азимова.

Ответить
0

Они даже у Азимова находили способы обходить этим законы:)

Ответить
0

а можно ли где ещё почитать подобные истории???

Ответить
0

бля, удалите это говно

Ответить
0

я случаяно

Ответить
0

"В искусственной симуляции жизни, где выживание тратит энергию, а размножение — нет, один вид перешёл к сидячему образу жизни и постоянному спариванию. При этом, часть новорождённых поедалась, а остальных оставляли, чтобы использовать для создания ещё большего числа съедобных детей."
Будущее человечества )

Ответить
0

Все это страшно и намекает на ужасное будущее,
если к разработке всего этого не подойдут с адекватностью и максимально серьёзно.

Ответить
0

Напоминает детство, когда мамка говорит убраться в доме, а ты заметаешь мусор под ковер

Ответить
0

Прямой эфир

[ { "id": 1, "label": "100%×150_Branding_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox_method": "createAdaptive", "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "ezfl" } } }, { "id": 2, "label": "1200х400", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "ezfn" } } }, { "id": 3, "label": "240х200 _ТГБ_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fizc" } } }, { "id": 4, "label": "240х200_mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "flbq" } } }, { "id": 5, "label": "300x500_desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "ezfk" } } }, { "id": 6, "label": "1180х250_Interpool_баннер над комментариями_Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "clmf", "p2": "ffyh" } } }, { "id": 7, "label": "Article Footer 100%_desktop_mobile", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fjxb" } } }, { "id": 8, "label": "Fullscreen Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fjoh" } } }, { "id": 9, "label": "Fullscreen Mobile", "provider": "adfox", "adaptive": [ "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fjog" } } }, { "id": 10, "label": "Native Partner Desktop", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyb" } } }, { "id": 11, "label": "Native Partner Mobile", "provider": "adfox", "adaptive": [ "phone" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fmyc" } } }, { "id": 12, "label": "Кнопка в шапке", "provider": "adfox", "adaptive": [ "desktop", "tablet" ], "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fdhx" } } }, { "id": 13, "label": "DM InPage Video PartnerCode", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox_method": "createAdaptive", "adfox": { "ownerId": 228129, "params": { "pp": "h", "ps": "clmf", "p2": "flvn" } } }, { "id": 14, "label": "Yandex context video banner", "provider": "yandex", "yandex": { "block_id": "VI-250597-0", "render_to": "inpage_VI-250597-0-1134314964", "adfox_url": "//ads.adfox.ru/228129/getCode?pp=h&ps=clmf&p2=fpjw&puid1=&puid2=&puid3=&puid4=&puid8=&puid9=&puid10=&puid21=&puid22=&puid31=&puid32=&puid33=&fmt=1&dl={REFERER}&pr=" } }, { "id": 15, "label": "Плашка на главной", "provider": "adfox", "adaptive": [ "desktop", "tablet", "phone" ], "adfox": { "ownerId": 228129, "params": { "p1": "byudo", "p2": "ftjf" } } }, { "id": 17, "label": "Stratum Desktop", "provider": "adfox", "adaptive": [ "desktop" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fzvb" } } }, { "id": 18, "label": "Stratum Mobile", "provider": "adfox", "adaptive": [ "tablet", "phone" ], "auto_reload": true, "adfox": { "ownerId": 228129, "params": { "pp": "g", "ps": "clmf", "p2": "fzvc" } } } ]
Хидео Кодзима оказался алгоритмом
машинного обучения
Подписаться на push-уведомления