Нація інновацій: Енциклопедія нових технологій

Розділ 1.9: Штучний інтелект, який можна пояснити, і етика

Вступ:

Пояснюваний ШІ (XAI) — це відносно нова галузь дослідження, яка має на меті зробити штучний інтелект (ШІ) більш прозорим і зручним для людей. XAI прагне вирішити одну з ключових проблем сучасного штучного інтелекту, яка полягає в його недостатній прозорості та труднощах у розумінні того, як системи штучного інтелекту приймають свої рішення. Етичні проблеми навколо ШІ також зростають, оскільки ШІ все більше інтегрується в різні аспекти нашого життя. У цьому розділі буде надано детальну історію XAI та етику навколо ШІ.

Історія пояснюваного ШІ:

Коріння XAI можна простежити до ранніх днів досліджень ШІ, коли дослідники почали досліджувати способи зробити ШІ більш прозорим і зрозумілим для людей. У 1970-х і 1980-х роках дослідники розробили системи на основі правил, які були розроблені таким чином, щоб їх було легко пояснити. Ці системи використовували прості правила та логічні вирази для прийняття рішень, завдяки чому людям було легко зрозуміти, як система прийшла до свого висновку.

У 1990-х роках, коли системи штучного інтелекту стали більш складними та почали використовувати алгоритми машинного навчання, потреба в XAI стала більш очевидною. Дослідники почали розробляти алгоритми та методи, які могли б пояснити, як ці складні системи прийшли до своїх рішень. На початку 2000-х для опису цієї галузі досліджень було введено термін «ШІ, який можна пояснити».

Етика ШІ:

Оскільки штучний інтелект став більш досконалим і повсюдним, занепокоєння щодо його етичних наслідків зросло. Потенційне зловживання штучним інтелектом, упереджене прийняття рішень і переміщення працівників – це лише деякі етичні проблеми, пов’язані з штучним інтелектом. У результаті розробка етичних принципів і рамок для ШІ стала пріоритетом.

У 2018 році Європейський Союз випустив Загальний регламент захисту даних (GDPR), який містить положення щодо «права на пояснення» щодо рішень, прийнятих автоматизованими системами. Цей регламент вимагає від компаній надати детальне пояснення процесу прийняття рішень, який використовується їх системами ШІ.

Окрім нормативних актів, зростає інтерес до розробки етичних рамок для ШІ. У 2016 році було створено Глобальну ініціативу IEEE з етики автономних і інтелектуальних систем, щоб розробити етичні рекомендації для ШІ. З тих пір IEEE опублікував серію етичних рекомендацій щодо штучного інтелекту, включаючи Принципи прозорості та пояснення, які спрямовані на сприяння розвитку XAI.

Висновок:

Зрозумілий ШІ та етичні міркування є важливими для відповідального розвитку та розгортання систем ШІ. Розробка методів XAI може допомогти покращити прозорість і інтерпретацію систем штучного інтелекту, полегшуючи людям розуміння того, як ці системи приймають рішення. Етичні рамки та правила можуть гарантувати, що штучний інтелект використовується відповідально та на благо суспільства. Оскільки ШІ продовжує розвиватися, розробка XAI та етичні міркування залишатимуться вирішальними для безпечного та відповідального використання цієї технології.




Поскаржитись




Використання файлів Cookie
З метою забезпечення кращого досвіду користувача, ми збираємо та використовуємо файли cookie. Продовжуючи переглядати наш сайт, ви погоджуєтеся на збір і використання файлів cookie.
Детальніше