... , – считает
. – Оптимальный ... – объясняет
. Это поможет держать ...
Источник перевод для mixednews – Света Гоголь
Искусственный интеллект настолько опасен, что стоит держать его взаперти, от греха подальше, считают эксперты. Во всяком случае ему не стоит предоставлять свободу суперкомпьютера HAL 9000 из «Космической Одиссеи 2001»
Суперумные компьютеры или роботы, угрожающие существованию человеческого рода – излюбленный сюжет научной фантастики. В реальности, по мнению учёных, подобный сценарий судного дня можно предотвратить только создав виртуальную «тюрьму» для содержания искусственного интеллекта (ИИ). И сделать это надо до того, как он научится осознавать и совершенствовать самого себя.
Если выпустить этого джина из бутылки, то из оракула, который решает наши проблемы, он может превратиться в апокалипсическую угрозу, – уверен Роман Ямпольский, учёный из Луисвиллского университета (шт. Кентукки), работающий в области компьютерных наук. Необходимо тщательно спланировать условия, в которых будет содержаться ИИ – так, чтобы он не смог вырваться на свободу при помощи угроз, подкупа, соблазна или компьютерного взлома.
«Он может изобрести множество способов воздействия, провернуть сложную социо-инженерную комбинацию и использовать уже существующие аппаратные компоненты в целях, которые мы не можем даже вообразить, – полагает Ямпольский. – Такой софт обладает неограниченными возможностями для заражения компьютеров и сетей. ИИ может найти способы воздействовать на человеческую психику, подкупать или шантажировать людей, которые находятся с ним в контакте».
Появление новой сферы научных исследований, занимающейся проблемой создания «тюрьмы» для искусственного интеллекта, имеет и дополнительные преимущества. Эти исследования очень полезны для улучшения компьютерной безопасности и криптографии, уверен Ямпольский. Его предложения были детально изложены в мартовском номере академического издания Journal of Consciousness Studies.
Робот-убийца из фильма "Терминатор" как раз является таким будущим, которого мы хотели бы избежать
Как устроить западню для Скайнет
Для начала можно заключить искусственный интеллект внутри «виртуальной машины». Пусть он работает в пределах обычной операционной системы – ограничение доступа ИИ к софту и оборудованию главного компьютера сделает его значительно безобидней. Во всяком случае, умный ИИ не сможет рассылать своим сторонникам-людям тайные сообщения, отбивая охлаждающими вентиляторами азбуку Морзе.
Посадить искусственный интеллект в компьютер без выхода в интернет – хороший способ помешать коварным планам ИИ по защите Земли от нас с вами. В случае любого другого сбоя исследователи всегда могут притормозить мыслительный процесс ИИ, сбавив скорость обработки данных компьютера, регулярно нажимая кнопку «сброс» или отключив ИИ от источника энергоснабжения.
Такие меры безопасности предназначены для борьбы с особо умными и опасными компьютерными вирусами, но насколько эффективными они окажутся на самом деле – приходится только гадать.
«Уловка-22» (роман амер. писателя Дж. Хеллера; прим. mixednews) заключается в том, что мы не можем провести полномасштабные испытания наших идей, пока разработка ИИ не закончена. Но для того, чтобы сделать ИИ безопасным, необходимо разработать комплекс соответствующих мер, – считает Ямпольский. – Оптимальный вариант – ввести ограничения на использование систем ИИ а затем, по мере необходимости, менять эти ограничения в соответствии с повышающимися возможностями ИИ».
Учёный Роман Ямпольский предложил использовать знак "@" или другие знаки, использующиеся сегодня для обозначения радиационной или биологической угрозы для указания на наличие опасности, связанной с искусственным интеллектом.
Никогда не приставляйте к машине охранника-человека
Во время невинной, на первый взгляд, беседы с охранником ничто не помешает ИИ использовать такие психологические приёмы, как дружба или шантаж. Человека можно подкупить, посулив ему идеальное здоровье, бессмертие, или даже пообещать вернуть с того света родных и друзей. Или добиться чего угодно угрозами.
Самый безопасный способ общения с ИИ – заставить его, при решении специфической научной или технической задачи, выбирать ответ из множества имеющихся вариантов, – объясняет Ямпольский. Это поможет держать супер-умного оракула на коротком поводке.
Многие исследователи считают, что, несмотря на все меры предосторожности, держать умника ИИ под замком бесконечно не удастся. Последний эксперимент Элиэзера Юдковского, научного сотрудника Института сингулярности по созданию Искусственного Интеллекта, показал, что даже интеллект человеческого уровня может обмануть человека и «сбежать» из заточения.
Тем не менее, Ямпольский настаивает на содержании ИИ в строгой изоляции – это всё же лучше, чем махнуть рукой и предоставить ему полную свободу. Но если развитие ИИ достигнет точки, когда он сможет манипулировать человеком, используя подсознание (предсказание будущего), телепатию или телекинез – последствия будут непредсказуемы.
«Если такой ИИ будет самосовершенствоваться и достигнет уровня значительно превышающего возможности человеческого интеллекта, последствия невозможно даже представить» – предостерегает Ямпольский.
Два коммента:
Скептик (тот, который оригинальный) говорит:
07.03.2012 в 5:50 пп
Статья (не перевод Светы Гоголь) является типичным примером того, как манипулировать общественным сознанаием, переключая его внимания с реальных проблем повседневности на надуманные, гипотетические псевдопроблемы апокалипсического толка.
У земного нынешнего человечества в настоящее время, на повестке дня стоят более серьёзные проблемы выживания перед действительными социально-политическими, экологическими и военными угрозами, перед которыми «угроза» восстания искусственного интеллекта смехотворна.
Люди хуже роботов, именно им присущи такие качества как ненависть друг к другу, желание уничтожения и самоуничтожения, желание подчинять себе других и доминировать над себе подобными существами. А также зависть, коварство, агрессивность и прочие социальные и личностные проявления деструктивности. Роботы в подобном замечены не были. Так что, повторяя слова известного мультфильма, – Слава Роботам!
Что касается суперкомпьютера HAL 9000 из «Космической Одиссеи 2001», или «Скайнет», то, это опять же, печальные примеры попыток внедрения OS Linux. Отсюда и проявления эгоцентризма и претенциозности в указанных системах вышедших из-под контроля в массовой буржуазной культуре! -;)
Пользуясь случаем, поздравляю всех Роботов и Человеков планеты Земля с наступающим светлым праздником – Восьмого Марта – международным женским днём, да простят мне Роботы моё проявление гендерного шовинизма! -;)
Ответить
saber говорит:
08.03.2012 в 12:15 дп
Извините, повторюсь (просто уже писал): можно рассматривать этих ужасающих роботов из фантастики как ГИПЕРБОЛУ реально существующего «искусственного интеллекта» (think tanks типа RAND Corporation, Brookings Corporation и прочих под-Бжезинщиков, которые рассматривают разные варианты того как разбомбить разные страны, в т.ч. и нас с вами). Читая разнообразные геополитические отчеты этих весьма влиятельных корпораций, просто нельзя отделатся от впечатления, что писали злобные роботы, а не люди. Вот это впечатление те же Ваховские, может быть, и пытаются до нас донести (кстати, братаны Ваховские точно читали эти отчеты, судя по интервью с ними). Тогда, если смотреть ту же Матрицу с этим в голове, это перестает быть эскайпизмом, а становится весьма интересным аллегорическим комментарием на то что происходит в мире СЕЙЧАС… Конечно, отчетливый буквализм автора настоящей статьи не помогает это осознать
Эта картинка давно уже живёт в памяти моего компьютера. Как попала, не помню, автор неизвестен. "Частная территория" . В углу с трудом читается "BabaYagada". Но как же она мне нравится, эта картинка! Лёгкостью кисти, иронией и неким хулиганством, и, конечно, узнаваемостью. Несомненно была я в этом месте, и знаю каждый угол плящущий и котов нахальных по морде узнаю! Осталось выяснить, кто ж эта неведомая BabaYagoda? Но Google не помог.
Дальше