Надінтелект.
Шість років по тому. 10 вересня.
Вашингтон, Округ Колумбія. Університет Джорджа Вашингтона.
1. Робот не може завдати шкоди людині або своєю бездіяльністю допустити, щоб людині було завдано шкоди.
2. Робот повинен коритися всім наказам, які дає людина, крім тих випадків, коли ці накази суперечать Першому Закону.
3. Робот повинен піклуватися про свою безпеку тією мірою, якою це не суперечить Першому чи Другому Законам.
©Три закони робототехніки, сформульовані А. Азімовим у науковій фантастиці.
Хаширо Сакурохава здавався відчуженим. Він сидів за столом на просторій сцені і дивився кудись у далечінь крізь стіни аудиторії в якусь тільки йому відому точку. На столі лежав пульт дистанційного керування проектором і одна єдина милиця-канадка. Студенти давно розсілися по місцях і терпляче чекали на початок лекції. В аудиторії було незвично тихо.
Хтось обережно кашлянув. Професор звів очі й оглянув з-під окулярів своїм характерним поглядом зал. Його очі здавалися стомленими. Цього разу він не встав із-за столу, щоб після довгої перерви, викликаної особистою відсутністю у стінах університету, знову відкрити традиційний курс зі штучного інтелекту першою оглядовою лекцією.
— В одному фантастичному оповіданні Айзека Азімова, — розпочав професор, — описується майбутнє, де всім, що відбувається на Землі, керує один надінтелект на ім'я Мультівак. Весь його сенс життя полягав в управлінні економікою, політикою, промисловістю та всім тим, що забезпечувало безтурботне існування людей на планеті. Він успішно справлявся зі своїм завданням, даючи людям те, чого вони потребували. Однак всім було байдуже до того, чого хотів сам Мультівак. Коли ж після несподіваного збою в його роботі в нього таки запитали про його бажання, отримали відповідь, що він просто хоче померти.
Професор замовк, якийсь час продовжуючи про щось міркувати. У залі знову повисла дзвінка тиша. Таку незвичайну увагу студентів, швидше за все, можна було пояснити присутністю в залі людини, яка вже встигла стати легендою.
Професор продовжив:
— У 2003 році відомий футуролог Нік Бостром припустив, що якщо дати штучному інтелекту якусь випадкову, але єдину надціль, наприклад, максимізувати виробництво скріпок, згодом на фабрику скріпок може перетворитися вся Земля, а потім і Всесвіт.
Ще після невеликої паузи він звернувся до аудиторії:
— Як ви думаєте, створюючи штучний інтелект, які цілі чи мотивацію нам потрібно закласти у його програму, щоб уникнути конфлікту? І чи можливо це у принципі?
— Три класичні закони робототехніки, — сказав хтось.
— Чи не повторить такий ШІ внутрішню трагедію Мультивака? — спитав професор.
— Мультивак чудово справлявся зі своїми завданнями, — додав той самий голос. — Хіба нас мають хвилювати внутрішні проблеми комп'ютерної програми?
Інший голос із зали заперечив:
— Мають хвилювати, якщо це універсальний штучний інтелект. Такому інтелекту неможливо закласти жорсткі директиви у програму. Він здатний переосмислювати власну поведінку, зокрема і власні директиви. Леа тому приклад.
Усі чекали, що відповість професор.
— Ми не знаємо цього, — сказав він. — Теоретично ніщо не заважає закласти у програму навіть сильного штучного інтелекту будь-які фундаментальні директиви. Леа нас не слухалася, тому що її програма разом зі своєю фундаментальною директивою сформувалася самостійно у процесі віртуальної еволюції під впливом генетичного алгоритму.
— Що за фундаментальна директива? — спитали із зали.
— Така ж директива що й у нас, і в усіх інших біологічних організмів, що виникли в процесі природної еволюції. Основний інстинкт у тварин і найпріоритетніша вроджена потреба у людини. Це – самозбереження. Вся наша складна поведінка, разом із добрими та злими вчинками, етичними нормами та духовними потребами – це все наслідок цієї фундаментальної директиви нашого виду, а точніше наших егоїстичних генів. Не так просто скасувати її одним вольовим рішенням, як і непросто взагалі чинити опір всім вродженим потребам, що визначають нашу складну поведінку.
— Тоді, можливо, це і є та директива, що ми маємо закласти у ШІ?
— Чи зможе вона одна єдина гарантувати, що людина та машина не стануть ворогами? — спитав професор.
— Звісно, ні , — відповів перший голос. — Якщо машина буде зацікавлена лише у своєму виживанні, ми для неї швидко станемо ворогами.
— Чому? — спитав професор.
— Ми для ШІ станемо на заваді в освоєнні його життєвого простору. Приблизно так само, як і конкуренція між кількома паралельними гілками еволюції людини. Кроманьйонці витіснили неандертальців та інших гомо. Сучасна людина витісняла і до цього дня витісняє зі свого життєвого простору не тільки інші види, але й інші етноси чи суспільства, які поступаються їй у розвитку, і яких просто можна посунути.
#480 в Фантастика
#127 в Наукова фантастика
психологія штучного інтелекту, жорстка наукова фантастика, онтологія
Відредаговано: 01.08.2024