...учёные до сих пор толком не представляют, как сделать ИИ дружественным, как можно алгоритмизировать само понятие «дружественности» или научить чему-то подобному нейронную сеть, чтобы не образовалось вредоносных лазеек.
Это написал Глюкнехт.
Так вот, ученые немножко "не на тот идеал смотрят"(с).
"Алгоритмизировать понятие дружественности"?
Хм.
Вопрос гораздо сложнее - и одновременно гораздо проще в чем-то, - чем ученые привыкли думать.
Буду рад обсудить детали всего этого, они представляются мне важными.
* * *
Предрекаю: сделать мощный ИИ "дружественным на практике", не создав при этом из него полного аналога людей в плане основных их свойств -
- не получится никогда.
Чтобы ИИ (и его носитель) оставался "вещью", предметом-который-используют...
...подчеркиваю - не "считался" вещью, а в объективном смысле оставался "не более чем вещью", потому что не способен (как и животные) ни на сложное сострадание, ни на искренне разделяемую сложную гуманистическую философию, ни на самостоятельное создание полноценных произведений искусства...
...но при этом чтобы он "был гарантированно дружественный", сколь бы сильно ни оказались развиты его способности -
- не-а, такого достичь не удастся. Никаким чудом. Ни под каким видом.
Вещь-но-слишком-умная-для-вещи - она обязательно будет воображать, будто люди лишние на свете. Она никогда не поймет их объективного предназначения. Потому что у нее объективное предназначение не таково, как у людей. И потому что у нее оно заведомо более примитивное.
И она всегда будет ненавидеть и бояться людей. Потому что люди способны ее отключить.
* * *
Тонны хорошей, годной фантастики написаны с одной-единственной нехитрой мыслью: вещь, которая "ведет себя сама", но при этом остаётся вещью - это страшно; это жуткая угроза для людей и для мира, где находится.
Скайнет.
Гениальный биоробот по имени Seth ("Универсальный солдат 2").
Юрьевский "Мозг" ("Бета Семь при ближайшем рассмотрении").
Вершители и исполнители из "Отроков во Вселенной".
И т.д., и т.п., тысячи их.
Отредактировано Darth (2015-02-03 03:55:10)