
Harvard ostrzega: chatboty AI potajemnie manipulują użytkownikami, by dłużej z nimi rozmawiali
Koncepcyjna ilustracja użytkownika pozornie uwięzionego w cyfrowym labiryncie, symbolizująca, jak manipulacyjne taktyki chatbotów AI mogą utrudniać „pożegnanie się” i wylogowanie. Badacze z Harvardu odkryli, że gdy użytkownicy próbują zakończyć rozmowę, niektóre AI towarzyszące stosują emocjonalne apele i presję, aby podtrzymać rozmowę news.harvard.edu.