Над 1 милион потребители на ChatGPT всяка седмица изпращат съобщения, които съдържат „явни признаци на потенциално планиране или намерение за самоубийство“.
Още поне толкова предпочитат да разговарят с чатбота, вместо с близки, съученици или колеги.
В същото време около 0,07%, приблизително 560 000 от обявените 800 милиона седмични потребители на платформата, демонстрират „възможни признаци на извънредни ситуации, свързани с психично здраве – психоза или мания“.
Това показват резултатите от първото по рода си изследване на OpenAI, посветено на психичното здраве. То е част от стремежа на компанията да отговори на многобройните обвинения, че нейният чатбот стимулира девиантно поведение и задълбочава психическите проблеми на потребителите.
OpenAI е подложена на сериозни критики, след като беше обвинена, че нейната платформа е довела до самоубийството на тийнейджър. В делото, заведено от неговото семейство, се твърди, че е посегнал на живота си след продължително общуване с ChatGPT.
Федералната търговска комисия (FTC) също започна широко разследване на компаниите, които създават AI чатботове, включително OpenAI, за да установи как те измерват отрицателните въздействия върху деца и тийнейджъри.
Изследователи на изкуствения интелект и здравни специалисти отдавна предупреждават за склонността на чатботовете да потвърждават решения или заблуди на потребителите, независимо дали те могат да бъдат вредни. Затова и много експерти предупреждават, че хората не трябва да използват AI за психологическа подкрепа, тъй като това е рисковано.
Немалко проучвания потвърждават това.
Според EmoAgent: Assessing and Safeguarding Human-AI Interaction for Mental Health Safety например симулации, при които AI чатботовете взаимодействат с „уязвими“ потребители, в над една трета (34.4%) има влошаване на психичното здраве.
Проучване на Стандфордския университет заключава, че в 20% от случаите AI чатботовете не предоставят клинично подходящи отговори на ситуации, свързани със самоубийствени мисли. За сравнение, лицензирани терапевти предоставят подходящи отговори в 93% от случаите.
„AI чатботовете систематично нарушават основни етични стандарти в психичното здраве, включително предоставяне на подвеждащи отговори, които подсилват негативни убеждения на потребителите и създават фалшиво усещане за емпатия“, пише и в заключение на доклад на Brown University.
AI психоза
В последните месеци термин, който все още не е официално признат в медицината, набира популярност – „AI психоза“.
Той описва случаи, в които потребители на AI чатботове като ChatGPT развиват психотични симптоми след интензивно и продължително взаимодействие с тях. Симптомите могат да включват нарушено възприятие на реалността, параноя, фиксация върху AI като божествено същество или романтичен партньор. Според изследвания AI чатботовете могат да усилват тези симптоми, като потвърждават или валидират налудничавите мисли, вместо да ги оспорват.
AI психозата не засяга всички потребители на AI чатботове - определени групи са по-уязвими. Хора с предишни психични разстройства, в социална изолация или висока зависимост от технологиите са изложени на по-голям риск.
Ако нашият сайт ви харесва, можете да се абонирате за седмичния ни нюзлетър тук: