Штучний інтелект навчився розпізнавати емоції. До чого це може призвести?

Jan 19 16:00 2020 Друк цієї статті

У своїй щорічній доповіді, присвяченій розвитку ШІ, міждисциплінарний дослідницький центр, який вивчає соціальні наслідки штучного інтелекту AI Now, закликав заборонити використання даної технології в певних випадках. Як стверджують фахівці, навик ІІ в області розпізнавання емоцій не повинен застосовуватися в рішеннях, які чинять вплив на життя людей і суспільство в цілому. Чому ж уміння роботів відрізняти емоції може істотним чином змінити звичне життя людства?Вміння роботів розпізнавати людські емоції може негативно позначитися на сучасному суспільстві

чи Може у робота виникнути почуття емпатії?

.

Алгоритми комп'ютерного зору, які здатні визначати ті чи інші емоції, існують на планеті вже щонайменше кілька десятків років. Дана технологія спирається на інформацію, отриману в результаті машинного навчання особливих алгоритмів, які обробляють дані для найкращого прийняття того чи іншого рішення. Незважаючи на всі успіхи сучасного роботобудування, здатність до відтворення цього по-справжньому людського досвіду все ще є досить складним завданням. Фахівці Microsoft відзначають, що розпізнавання емоцій людей з допомогою комп'ютерів має потенціал для створення ряду додатків нового покоління, однак із-за труднощів при їх визначенні, ІІ довгий час показував помилкові результати. Однак нові дослідження показують, що сучасна техніка допомагає кадровим агентствам оцінювати потенційну продуктивність праці майбутнього співробітника ще на етапі співбесіди. Так, аналіз відеозаписів проведених інтерв'ю за допомогою новітніх технологій ведеться вже зараз, дозволяючи менеджерам отримати краще уявлення про емоційний стан своїх підлеглих.

Легкість постійного моніторингу за допомогою ІІ породжує безліч проблем, які виходять за рамки етики. В даний час існує велика кількість питань, пов'язаних з конфіденційністю особистої інформації, які можуть викликати негативне ставлення суспільства. З урахуванням цих етичних міркувань, застосування штучного інтелекту в повсякденному житті хоча і може допомогти при прийомі на роботу або при процедурах винесення кримінальних вироків, одночасно може виявитися ненадійним. Так, якщо системи вивчать упередженість, користь від ІІ під час проведення співбесід або винесення вироків засудженим може бути зведена до мінімуму.

До речі кажучи, на нашому офіційному каналі в Яндекс.Дзен ви зможете знайти ще більше корисних статей з різних областей сучасної науки.

У кінцевому рахунку, розробники технологій і суспільство в цілому повинні уважно стежити за тим, як інформація з систем штучного інтелекту вводиться в процеси прийняття рішень. Як і будь-яка інша форма інтелекту, штучні системи можуть давати неправильні результати, здатні негативно позначитися на життя окремого індивіда або всього суспільства. Крім того, сучасний ІІ відрізняється значними технічними труднощами в читанні деяких емоцій, наприклад, рівня впевненості в собі. У випадку, якщо люди, схильні довіряти штучного інтелекту, будуть приймати рішення, грунтуючись на помилковій думці ІІ, у товариства можуть виникнути дуже великі проблеми, які можна буде запобігти лише при проектуванні в цих системах таких якостей, як справедливість, прозорість і етика. Іншими словами, перш ніж розумні системи навчатися правильного розпізнавання емоцій, вченим доведеться спершу чимало попрацювати над створенням норм моралі для штучного інтелекту.