Илон Маск как-то сказал – «Искусственный интеллект потенциально более опасен, чем ядерное оружие», что надо «быть с ним крайне осторожным» дабы не реализовать сценарий, показанный в фильме «Терминатор». На мой взгляд весьма разумное опасение. Сказано это было в 2014 году.
Илон Маск как-то сказал – «Искусственный интеллект потенциально более опасен, чем ядерное оружие», что надо «быть с ним крайне осторожным» дабы не реализовать сценарий, показанный в фильме «Терминатор». На мой взгляд весьма разумное опасение. Сказано это было в 2014 году.
«Мы быстро движемся к сценарию, описанному в Терминаторе», — говорил Маск. «Но фактическая реализация такого ИИ зависит только от нас. Мы должны грамотно программировать его алгоритмы, мы должны наполнять его чувством этики и морали, мы должны реализовать меры предосторожности от возможного холокоста роботов».
Короче говоря, если мы создадим расу сверхинтеллектуальных враждебных роботов, то, собственно, сами будем виноваты.
Продолжая тему Маск говорит: «Надеюсь, мы не просто биологический загрузчик для цифрового сверхразума. К сожалению, это становится все более вероятным». Здесь он имеет в виду роль человечества как предшественника искусственного интеллекта, и после того, как ИИ будет создан и запущен, люди будут признаны им ненужными и бесполезными, и быстро уничтожены.
Ему вторил и Стивен Хокинг предупреждая что, технологию нужно контролировать если мы не хотим, чтобы она нас уничтожила. Хокинг считал, что людям необходимо выявлять угрозы раньше, чем они могут появиться. В 2015 году он предупреждал, что ИИ может стать настолько мощным, что сможет убивать людей совершенно непреднамеренно.
«Реальный риск с ИИ заключается не в злобе, а в компетентности. Сверхинтеллектуальный ИИ будет чрезвычайно хорош в достижении своих целей и, если эти цели не совпадут с нашими, у нас появятся большие проблемы». Развивая свою мысль, Хокинг пояснил – «Если вы отвечаете за проект постройки гидроэлектростанции, а в регионе есть муравейник, который придется затопить, то это плохая новость для муравьев. Давайте не будем ставить человечество в положение этого муравейника». Хокинг опасался, что появление разумных машин будет сопровождаться падением человечества.
«Мы не знаем точно, будет ли ИИ служить нам, как мы того хотим, или может станет игнорить, а, возможно, и враждовать с нами». Тут важно понимать, если мы не приготовимся к потенциальным рискам, будем их избегать, ИИ станет худшим событием в истории человеческой цивилизации.
В то время, как Хокинг видел много преимуществ в создании искусственного интеллекта – в частности, разработанную компанией Intel компьютерную систему, позволяющую ему общаться с окружающими, – он соглашался с Илоном Маском, предупреждая, что раскрытие потенциала искусственного интеллекта может «привести к концу человеческой расы».
В тот же год в США вышла статья, написанная известными учеными, предупреждающая об опасностях искусственного интеллекта. Вот некоторые выдержки из нее:
– Военный сценарий: ИИ решил, что люди представляют угрозу и решает уничтожить их.
– Апокалипсис оптимизации: ИИ решает, что лучший способ оптимизировать глобальный процесс – это уничтожить человеческую расу.
– Гонка за ресурсами: ИИ решает, что ему нужно все больше и больше вычислительной мощности, а потребности скудных землян ему мешают. ИИ уничтожает человечество и превращает все ресурсы в вычислительный субстрат.
– Непознаваемые мотивации: ИИ развивает какую-то свою, неизвестную нам, мотивацию, люди мешают ему в достижении своей цели, поэтому он решает устранить их.
Поглощение ИИ – это, конечно же, гипотетический сценарий. Это мир, в котором «восстание машин» может оказаться ближе, чем мы думаем, и в котором ИИ окажется доминирующей формой интеллекта.
Предсказать будущее сложно. Мы можем полагаться только на прогнозы экспертов и технологические наблюдения за тем, что уже создано, однако исключать что-либо из выше сказанного тоже не имеем права.
{module id=”159″}
{module id=”157″}