Google ніколи не буде займатися розробкою штучного інтелекту для тих цілей, які можуть принести шкоду суспільству, - УНІАН.
Фахівці компанії Google не будуть займатися розробками у сфері штучного інтелекту у військових цілях. Про це повідомив генеральний директор компанії Сундар Пічаї.
У корпоративному блозі Google він опублікував сім основних принципів, у відповідності з якими будуть продовжуватися роботи в цьому напрямку.
Опубліковані головою Google принципи були розроблені після протестів співробітників компанії проти роботи на Пентагон. Компанія планувала брати участь у проекті по створенню штучного інтелекту для військових безпілотників.
Сундар Пічаї нагадав, що вже зараз технології штучного інтелекту і машинного навчання мають велике суспільне значення. Системи із штучним інтелектом використовуються для прогнозування ризику виникнення пожеж, боротьби з раком, сільськогосподарських робіт і багатьох інших цілей
"Ми визнаємо, що така потужна технологія викликає настільки ж значущі питання про її майбутнє використання. Те, як і з якими цілями штучний інтелект розробляється і використовується, матиме значний вплив на наше суспільство у майбутньому. Будучи лідером в області розробки штучного інтелекту, ми відчуваємо велику відповідальність. Тому сьогодні ми оголошуємо сім принципів, яких будемо дотримуватися в нашій роботі в майбутньому", - написав він.
У нових принципах роботи компанії йдеться, що дослідження у сфері штучного інтелекту будуть проводитися Google з усією відповідальністю. Фахівці компанії не будуть займатися створенням штучного інтелекту для "потенційно небезпечних" проектів. Всі розробки мають приносити користь суспільству і забезпечувати безпеку людей, пообіцяв Сундар Пічаї. Особливо він підкреслив, що штучний інтелект повинен залишатися під контролем людей.
"Наші технології штучного інтелекту будуть перебувати під відповідним людським керівництвом і контролем", - заявив глава Google.
Крім того, в числі базових принципів розробки штучного інтелекту будуть конфіденційність і безпека застосування.
Окремо Сундар Пічаї виділив чотири "заборонених напрямки" роботи компанії в сфері штучного інтелекту.
За його словами, Google ніколи не буде займатися розробкою штучного інтелекту для тих цілей, які можуть принести шкоду суспільству, в цілях порушення прав людини та міжнародних правових норм. Особливо він підкреслив, що штучний інтелект Google не буде застосовуватися для створення зброї та в інтересах військових.
Нагадаємо, раніше більше трьох тисяч співробітників Google підписали петицію, в якій вимагали, щоб компанія розірвала контракт з Пентагоном і розробила політику, яка забороняє працювати з військовими. Однак робота над Maven не була припинена. Крім того, Google вважається одним з головних претендентів на ще один великий контракт Пентагону.
Керівництво Google у відповідь на претензії заявило, що надає Пентагону програмне забезпечення з відкритим кодом, тобто вони могли б використовувати його без допомоги компанії. Воно також зазначило, що штучний інтелект не буде використовуватися для нападів.
Фахівці із штучного інтелекту та ядерної безпеки, опитані дослідниками американського стратегічного дослідницького центру RAND Corporation прийшли до висновку, що штучний інтелект до 2040 року може стати загрозою ядерної стабільності та нівелювати стратегію ядерного стримування.