Як злочинці можуть використовувати штучний інтелект? Найнебезпечніший варіант

Aug 07 17:00 2020 Друк цієї статті

ua/broke-instants-view/index.html style="display: contents">.

Останні 10 років ми щодня чуємо новини про те, як той чи інший штучний інтелект навчився новим навичкам. На сьогоднішній день комп'ютерні алгоритми вміють копіювати стилі малювання відомих художників, імітувати чужі голоси, створювати підроблені відеоролики з публічними особистостями і багато іншого. За всім цим дуже цікаво стежити, але багато експертів з комп'ютерної безпеки стурбовані тим, що розробляються технології можуть використовуватися зловмисниками для вчинення злочинів. Адже використання нейронних мереж для здійснення будь-яких завдань на даний момент ніяк не регулюється. Виходить, що будь-яка людина, що добре володіє програмуванням, може використовувати штучний інтелект для виманювання у людей грошей, стеження та вчинення інших протизаконних дій. Нещодавно співробітники Університетського коледжу Лондона вирішили з'ясувати, яке саме вміння штучного інтелекту може завдати людському суспільству найбільшої шкоди.Штучний інтелект здатний на багато що. Наприклад, він може замінити особа Арнольда Шварценеггера на Сильвестра Сталлоне(adsbygoogle = window.adsbygoogle || []).push(

Штучний інтелект — властивість комп'ютерів виконувати творчі функції, які більше притаманні реальним людям. На нашому сайті є спеціальний розділ, присвячений цій темі.

Можливості штучного інтелекту

Результатами виконаної роботи поділилося видання The Next Web. В рамках наукової роботи дослідники визначили 20 умінь штучного інтелекту, які будуть доступні злочинцям у наступні 15 років. На жаль, повний список методів використання не вдалося знайти навіть на сайті коледжу, але дослідники все ж згадали найважливіші пункти.(adsbygoogle = window.adsbygoogle || []).push(

Отже, на їх думку, штучний інтелект вміє:

  • керувати електричними автомобілями, що більше відомо як автопілот
  • обманним шляхом дізнаватися логіни, паролі та інші особисті дані користувачів — інакше кажучи, займатися фішингом
  • збирати компрометуючі фото, відео та інші дані про людей, які можуть бути використані для шантажу
  • генерувати фальшиві новини, за допомогою яких можна керувати мисленням великої кількості людей
  • керувати роботами, за допомогою яких можна стежити за людьми і навіть грабувати будинки
  • створювати підроблені відеоролики з відомими людьми, щоб зіпсувати їх репутацію.

Ці і багато інші способи використання нейронних мереж в злочинних цілях були вивчені групою з 31 експерта з штучного інтелекту. Перед ними була поставлена задача відсортувати всі цим вміння за рівнем небезпеки для суспільства. При складанні рейтингу експерти враховували складність використання штучного інтелекту для виконання тих чи інших завдань, можливість запобігання шахрайства та кількість грошей, які злочинці можуть отримати обманним шляхом.(adsbygoogle = window.adsbygoogle || []).push(

Найбільш небезпечною здатністю штучного інтелекту було названо створення так званих дипфейков (deepfakes). Вперше про це умінні комп'ютерних алгоритмів стало відомо приблизно в 2017 році. Саме тоді один з користувачів сайту Reddit показав світові, як маючи потужний комп'ютер можна створити фальшиве відео, де особа однієї людини замінено на інше. Він продемонстрував це на самому непристойній прикладі, вставивши особи відомих людей у відео для дорослих. Ця новина навела дуже багато шуму і дипфейки в такому вигляді навіть стали заборонені. Однак, на даний момент ніхто не заважає програмістам створювати забавні відео на зразок того, де Ілон Маск співає пісню про «рокіт космодрому».(adsbygoogle = window.adsbygoogle || []).push(

Створення фальшивих відео було визнано небезпечною функцією з двох причин.

По-перше, за допомогою них можна виманювати гроші, так і псувати репутацію людей. Ось невеликий приклад. На даний момент, з метою отримання легких грошей багато шахраї зламують аккаунти людей в соціальних мережах і просять їх близьких друзів перерахувати їм певну суму грошей. Поясненням причин вони особливо не переймаються і йдуть від такої розмови словами, мовляв, «зараз ніколи, потім поясню». Приблизно п'ять років тому ця схема була робочою і багато людей дійсно визволяли «близьких друзів». Але тепер на такі хитрощі мало хто клює. Однак, якщо шахраї створять дипфейк на основі аватаркою користувача і відправлять його друзям відео, на якому він нібито на камеру просить відправити гроші, багато люди всерйоз стурбовані і повірять шахраям.(adsbygoogle = window.adsbygoogle || []).push(

Також дипфейки можуть використовуватися для псування репутації відомих людей і це було доведено багато разів. Ось уже кілька років поспіль в Інтернеті виникають відео з нібито п'яної Ненсі Пелосі — спікера Палати представників США. Зрозуміло, ці відео підроблені, але вони набирають багато переглядів і деякі люди дійсно можуть прийняти їх за справжні. Адже про технології створення підроблених відео багато хто навіть не підозрюють — з представників старшого покоління технологічно підкованих людей взагалі одиниці.

Про небезпеку нейромереж раніше писав мій колега Артем Сутягін. Вийшов дуже докладний матеріал, тому настійно раджу до прочитання! (adsbygoogle = window.adsbygoogle || []).push(

Друга небезпека полягає в тому, що такий метод шахрайства важко зупинити. Справа в тому, що фальшиві відео виходять настільки реалістичними, що розпізнати їх практично неможливо. У червні 2020 року це було доведено в рамках проведеного компанією Facebook конкурсу Deepfake Detection Challenge. У ньому взяло участь понад 2000 розробників, які створювали алгоритми розпізнавання підроблених відеороликів. Найвища точність розпізнавання склала 65% що, на думку експертів з кібербезпеки, у настільки серйозному ділі дуже поганий результат.Розділ сайту Reddit, де публікувалися дипфейки, вже заблоковано

Боротьба зі злочинністю

Інші функції штучного інтелекту начебто управління автомобілями і роботами не вважаються настільки небезпечними, як дипфейки. Так, зламаний автопілот може змусити автомобіль звернути з шляху і на великій швидкості врізалися в стовп. Але це в цьому випадку мова йде про одну жертву, тоді як фальшиві відео можуть вплинути на розум тисяч людей. Або взяти, приміром, використання роботів для стеження за людьми і вчинення пограбувань будинків. Експерти взагалі не бачать в них небезпеку, тому що їх дуже легко виявити. Молоток в руки і все — «шпигуна» як не бувало.(adsbygoogle = window.adsbygoogle || []).push(

Якщо вам подобаються наші статті, підпишіться на нас у Google News! Так вам буде зручніше стежити за новими матеріалами.

Що робити, щоб звести до мінімуму небезпеку від штучного інтелекту, поки не ясно. Як варіант, можна продовжити роботу над створенням алгоритму виявлення фейкових відеороликів. Також можна якимось чином контролювати використання нейромереж, але це може загальмувати розвиток технологій. Адже штучний інтелект використовується не тільки злочинцями, але і вченими, які хочуть зробити світ кращим. Нещодавно стартап Landing AI навчив його стежити за дотриманням соціальної дистанції, що в наш непростий час може врятувати безліч життів.