Facebook розробив робота, який бреше заради вигоди

Дослідники Facebook, що займаються розробками штучного інтелекту створили робота, який може вести переговори і при цьому брехати співрозмовнику заради отримання більшої вигоди.

Бот від Facebook, вміє стратегічно «мислити», продумувати план бесіди і вести переговори. Причому навчився він всього цього самостійно, – пише Technot.

Змусити комп’ютер спілкуватися з людьми так, щоб його було майже неможливо відрізнити від людини, надзвичайно складно. Розробникам доводиться завантажувати в програму величезні масиви даних. Але після цього бот часто обмежується записаними в нього даними і не вміє імпровізувати.

Дослідникам з підрозділу FAIR (сектор Facebook по роботі над штучним інтелектом), щоб навчити бота вести переговори, спочатку провели роботу зі звичайними людьми.

Фахівці попросили добровольців оцінити звичайні побутові предмети (книги, м’ячі, шапки і т.д.) за ступенем цінності. А після змусили справедливо поділити речі між собою. Після чого цінності і алгоритм бесіди фахівці записали на електронний носій і перенесли в програму бота.

Далі для того, щоб створити ілюзію людського спілкування, дослідники навчили робота техніці «розгортання діалогу». Завдяки цій можливості програма може сконструювати потенційну бесіду від початку до кінця.

Протягом розмови штучний інтелект також активно намагається досягти поставлених перед ним цілей. Подібна техніка дозволила уникнути конфузів, роздратування і неінформативних зауважень, – кажуть розробники.

За словами представників Facebook, бота протестували на людях, і ті не відразу зрозуміли, що розмовляють з комп’ютером.

Головне відкриття дослідників було в тому, що бот без допомоги програмістів навчився імпровізувати і придумував нові фрази і пропозиції, яким його заздалегідь не вчили.

Він навіть став вдаватися до хитрощів заради досягнення цілей переговорів. Наприклад, були моменти, коли бот штучно виявляв інтерес до якогось предмету, який насправді його не цікавив. А потім прикидався, що йде на компроміс, обмінюючи його на те, що дійсно було потрібно програмі. За словами представників Facebook, таку поведінку вони не програмували.