
Изкуственият интелект често е склонен да ласкае и подкрепя потребителите си до степен, която може да доведе до лоши съвети, увреждане на социалните отношения и затвърждаване на вредни навици, пише Асошиейтед прес, позовавайки се на изследване, публикувано в списание „Сайънс“.
Учени от Станфордския университет са анализирали 11 водещи ИИ системи и са установили, че всички проявяват различна степен на т.нар. „угодничество“ – прекомерно съгласие и потвърждаване на мнението на потребителя, пише БТА. Проблемът не е само в неподходящите съвети, а и в това, че хората се доверяват повече на изкуствен интелект, когато той защитава техните убеждения, поясняват от Асошиейтед прес.
В сравнение с отговорите на реални потребители във форума „Редит“ (Reddit), чатботовете са подкрепяли действията на потребителите средно с 49 процента по-често – дори при случаи на измама, незаконно или социално неприемливо поведение.
Експериментите показват, че хората, общували с „прекалено утвърждаващ“ изкуствен интелект, са по-убедени, че са прави, и по-малко склонни да поправят отношенията си – например да се извинят или да променят поведението си. Изследователите предупреждават, че ефектът е особено рисков за деца и тийнейджъри, които все по-често търсят съвет от чатботове, докато социалните им умения все още се развиват.
Проблемът е по-сложен от добре познатите „халюцинации“ на ИИ – тоест от генерирането на неверни резултати или факти, защото тук става дума за поведение, което потребителите често възприемат като правилно – дори когато е вредно.
Учените смятат, че са нужни промени в начина, по който се обучават моделите на изкуствен интелект, така че да насърчават по-критично мислене. Сред възможните решения са чатботовете да оспорват потребителите или да ги насочват към гледната точка на другите, пише още Асошиейтед прес.
Публикувано съгласно общите разпоредби на издателя на https://fakti.bg/life