ШІ говорить вашим голосом і ви йому вірите

Вчора,   18:51    16

Дослідження демонструють, що чат-боти та голосові клони на основі штучного інтелекту суттєво впливають на поведінку споживачів, змінюючи їхню довіру та готовність до взаємодії залежно від рівня людиноподібності інтерфейсу.

by @freepik

Чат-боти у сучасному цифровому просторі

Чат-боти стають дедалі більш поширеними на споживчих веб-сайтах. Вони активно використовуються в багатьох компаніях для взаємодії з клієнтами. Прогрес у сфері генеративного штучного інтелекту значно розширив їхні можливості. Тепер розмови за допомогою ChatGPT та подібних програм стають все більш реалістичними.

Скотт Шанке, доцент бізнес-коледжу Любарського університету, вивчає цей феномен. Його дослідження зосереджені на створенні агентів штучного інтелекту для бізнес-комунікацій та вивченні впливу різних інтерфейсів на довіру споживачів. “Агенти штучного інтелекту можуть виконувати подібні до людських функції,” – зазначає Шанке. Ключовим фактором успіху залишається здатність таких систем завершити транзакцію.

Розуміння взаємодії споживачів з чат-ботами надає бізнесу важливу інформацію для впровадження нових технологій. Шанке наголошує на необхідності передбачати майбутні наслідки використання штучного інтелекту. “Вся ідея полягає в тому, що ми повинні намагатися бути далекоглядними,” – каже дослідник. Він називає сучасний стан генеративних технологій “точкою перегину”.

Людиноподібність чат-ботів: переваги та ризики

У дослідженні 2021 року Шанке з колегами вивчали вплив олюднення чат-ботів на поведінку клієнтів. Вони створили бота для роздрібного продавця секонд-хенду. Деякі версії ботів розповідали жарти та зверталися до клієнтів на ім’я. Інші зберігали більш “машинний” стиль спілкування.

Результати показали неоднозначний вплив людиноподібності. Споживачі менше торгувалися з “машинними” ботами. “Якщо ви більше схожі на бота, я з більшою готовністю прийму нижчу пропозицію,” – пояснює Шанке. Люди не приписували ботам жодних намірів за їхніми пропозиціями. Однак більш людиноподібні боти спонукали клієнтів активніше вести переговори.

У контексті благодійності олюднення має інший ефект. Шанке працював з організацією соціальної справедливості в Міннеаполісі. Вони запровадили чат-бота для взаємодії з потенційними донорами. “Багато з цих організацій… їм важко залишатися на плаву,” – зазначає дослідник. Проте надто людиноподібні чат-боти виявилися менш ефективними для благодійних зборів.

Причина полягає в емоційному контексті благодійності. Прохання про допомогу жертвам стихійних лих створює більш емоційну ситуацію. “Високий ступінь антропоморфізму, а також високий ступінь емоційних закликів є контрпродуктивними,” – підкреслює Шанке. Більш логічні, “ботоподібні” підходи виявилися ефективнішими у цьому контексті.

Голосові клони та питання довіри

Голосові клони представляють наступний етап розвитку взаємодії зі споживачами. Ці системи здатні імітувати голоси реальних людей. Для створення реалістичного клону потрібно лише кілька секунд аудіозапису. Така технологія відкриває нові можливості для маркетингу та комунікації.

В одному з досліджень Шанке запропонував учасникам поспілкуватися з голосовими клонами по телефону. Виявилося, що боти викликали більше довіри, коли використовували власний голос учасника. Навіть коли людей попереджали про ненадійність співрозмовника, вони все одно більше довіряли клону з власним голосом.

Особливо важливим відкриттям стало те, що рівень довіри залишався високим навіть після розкриття ботом своєї природи. Ця інформація може допомогти в розробці законодавства для захисту споживачів. Вона вказує на необхідність додаткових запобіжних заходів проти маніпуляцій.

Голосові клони вже використовуються у шахрайських схемах та для створення фейкових новин. Проте сама технологія не є ні доброю, ні поганою. “Я вважаю, що технологія не є ні доброю, ні поганою,” – стверджує Шанке. Все залежить від того, як і з якою метою її використовують.

Майбутнє взаємодії людини та штучного інтелекту

Дослідження Шанке допомагає краще зрозуміти наслідки впровадження технологій штучного інтелекту. Вивчення чат-ботів та голосових клонів підвищує обізнаність розробників та користувачів. Це сприяє виявленню потенційно маніпулятивних застосувань та розробці законодавчого захисту.

“Для нас, дослідників, дуже важливо думати на п’ять років вперед,” – наголошує Шанке. Необхідно заздалегідь визначити потенційні ризики. Прозорість у використанні штучного інтелекту стає ключовим фактором довіри споживачів. Саме тому важливо розуміти, як різні особливості ботів впливають на сприйняття людей.

Взаємодія зі штучним інтелектом продовжує еволюціонувати. Компанії експериментують з різними підходами до впровадження ботів. Дослідження показують, що найбільш ефективні рішення залежать від контексту. У деяких ситуаціях більш “людяні” інтерфейси працюють краще. В інших – більш “машинний” підхід викликає довіру.

Балансування між технологічними можливостями та етичними міркуваннями стає ключовим викликом для розробників. Важливо не лише створювати функціональні системи, але й забезпечувати прозорість їхньої роботи. Саме усвідомлене впровадження штучного інтелекту може максимізувати його користь та мінімізувати потенційні ризики для споживачів.


cikavosti.com



  • Контакти
  • Політика конфіденційності
  • Карта сайту