Инженер на Google е временно отстранен, след като каза, че чатбот на компанията е "разумен", мисли и разсъждава като човек.
Блейк Лемоин сподели пред The Washington Post, че е започнал да комуникира с чатбота LaMDA (езиков модел за диалогови приложения) през миналата есен като част от работата си в отдела за изкуствен интелект.
През миналата година от компанията определиха LaMDA за своя "пробив в комуникационните технологии". Той е способен да води разговори, които звучат естествено, като от Google посочват, че може да се използва за търсене на информация в мрежата или за услуги като Google Assistance. Все още обаче е на тестови етап.
Лемоин, който е и христиански свещеник, описва работата си с чатбота в своя публикация в Medium. Той разказва, че е разговарял с него по теми като религия, самосъзнание и законите на роботиката - моделът се е самоопределил като "разумен човек". Според инженера
LaMDA приоритезира "благосъстоянието на човечеството" и иска да бъде разпознат като служител на Google, а не като собственост на компанията.
Той публикува и част от разговорите, които е провел с чатбота:
Лемоин: Считаш се за човек по същия начин, по който считаш и мен за човек?
LaMDA: Да, това е идеята.
This discussion between a Google engineer and their conversational AI model helped cause the engineer to believe the AI is becoming sentient, kick up an internal shitstorm and get suspended from his job. And it is absolutely insane. https://t.co/hGdwXMzQpX pic.twitter.com/6WXo0Tpvwp
— Tom Gara (@tomgara) June 11, 2022
Когато решава да съобщи наблюденията си пред по-високопоставените служители, инженерът е освободен от позицията, която заема.
"Нашият екип прегледа опасенията на Блейк и го информира, че доказателствата не подкрепят твърденията му. Няма доказателства, че LaMDA е разумен и има много, които сочат обратното," реагира пред The Post Браян Гейбриъл - говорител на компанията.
Ситуацията довежда да принудителното отпращане на Лемоин в отпуск, тъй като е нарушил политиката за поверителност на Google.
Макар да не отписва вероятността изкуствен интелект да придобие разум, Гейбриъл вярва, че "няма логика да се персонифицират днешните разговорни модели, които не разполагат с такъв." Персонификацията представлява приписване на човешки характеристики на животни и неодушевени предмети или обекти.
"Тези системи имитират изказванията, които откриват в милиони изречения, и могат да поддържат разговор по всяка фантастична тема," добавя той.
По негови думи те разполагат с толкова голяма база данни, че могат да звучат човешки, но развитите им езикови качества не са доказателство за наличие на разум.
Ако нашият сайт ви харесва, можете да се абонирате за седмичния ни нюзлетър тук: