Тъмната страна на ChatGPT: Хората, които чистят AI от брутално съдържание срещу $1,32 на час Снимка: © Getty Images

ChatGPT е едно от най-впечатляващите технологични постижения на 2022 г. - чатбот с изкуствен интелект, който може да създаде смислен и "оригинален" текст за секунди по зададени параметри.

Създателите му OpenAI преговарят с инвеститори за финансиране, което би оценило компанията на 29 млрд. долара - интерес към тях проявава и Microsoft.

Историята на успеха на ChatGPT обаче има и доста по-мрачна страна, според разследване на TIME.

Медията съобщава, че компанията OpenAI е плащала на работници от Кения по-малко от 2 долара на час, за да изчистят алгоритъма от грубо и токсично съдържание - расистки, сексистки, агресивни или обидни коментари.

Технологията на ChatGPT стъпва върху огромна база публично достъпни текстови източници, от които алгоритъмът му се учи да съставя изречения и да ги "навръзва" логически, като предполага коя дума (фраза) се среща най-често в последователност от изречения.

Безразборният суров материал, с който ChatGPT се тренира, обаче е и най-голямата му слабост - интернет прелива от грозно съдържание, което никой не иска да вижда пред очите си.

Затова OpenAI решават да изградят допълнителен механизъм с изкуствен интелект, който да гарантира, че ChatGPT няма да възпроизвежда неприемливите примери на омраза, предразсъдъци и агресия.

Този алгоритъм също трябва да се тренира как да засича токсичното съдържание онлайн - и на свой ред да филтрира текстовете на ChatGPT, преди да стигнат до читателите. Втората цел на OpenAI е да помогне за изчистването на тренировъчните бази данни от ненужни фрази, така че и бъдещите AI-модели да се обучават начисто.

Всичко това обаче се случва, едва след като преминава пред очите на няколкостотин души в Кения - служители на аутсорсинг-компанията Sama, на които OpenAI делегира задачата да категоризират текстови откъси, за да помогнат на филтриращия изкуствен интелект.

Голяма част от тези текстове са извлечени от най-мрачните кътчета на интернет. Част от тях описват подробно случаи на сексуално насилие срещу деца, убийства, самоубийства, мъчения, инцест и др.

Sama извършва сходна дейност за компании като Google, Meta и Microsoft, като работи с офиси в държави с ниски доходи като Кения, Уганда и Индия.

Служителите, които са работили по проекта на ChatGPT, са получавали средно между 1,32 и 2 долара на час - в зависимост от позицията и продуктивността си.

TIME разговаря с четирима души от компанията, които разказват за условията на работа, без да разкриват самоличността си.

Някои от ситуациите, в които те попадат заради изпълнението на служебните си задължения, са брутално психическо издевателство.

Един от хората описва работата си като "тормоз", като дава пример с изискването да категоризира текст, описващ полов акт между мъж и куче в присъствието на дете.

"Четем определен брой от този тип материали през цялата седмица. Докато стане петък, вече се смущаваш да мислиш през тази перспектива", казва източникът.

Около триста души са разпределени в три екипа, всеки от които трябва да категоризира текстове в една от групите "сексуално насилие", "език на омразата" и "агресия".

Трима от служителите разказват пред TIME, че са имали норматив от 150-200 текстови откъса в рамките на 9-часова смяна. Дължината на откъсите варира от 100 до над 1000 думи.

Всеки от хората, разговаряли с медията, разказва, че е понесъл психически щети след проекта.

Въпреки че работодателят им е давал възможност да посещават групови сесии със съветници по "уелнес", и четиримата описват тези процедури като безполезни и рядко достъпни поради натоварените изисквания за по-висока продуктивност на работа. Двама от служителите са поискали да разговарят с психолози на четири очи - което е отказано от мениджмънта на Sama. Пред TIMЕ компанията отрича да е ограничавала достъпа на служителите си до терапевти.

Тарифата за работа по проекта на OpenAI за Sama e 12,5 долара на час - между 6 и 9 пъти повече от парите, които са достигали до служителите.

Най-ниско квалифицираните работници, които са мнозинството в трите екипа, са получавали около 170 долара на месец, плюс 70 долара "бонус" заради психически натоварващите материали. При изпълнение на ключови индикатори като бързина и скорост фирмата е предоставяла и други компенсации.

Така или иначе - чистото възнаграждание за най-изпълнителните базови служители по този проект е възлизало на не повече от 1.44 долара на час.

Хората от качествения контрол, които са с по-висока степен на квалификация, получават по 2 долара на час при изпълнение на всички задачи. TIME дават за сравнение минималната заплата за рецепционистка в Найроби - 1,52 долара на час.

От Sama твърдят, че възнаграждението на служителите е било между 1,46 и 3,74 долара на час, въпреки че отказват да съобщят кои позиции са имали достъп до по-високите тарифи.

"Цената от 12,5 долара за проекта покрива всички разходи като инфраструктура, заплати и осигуровки на сътрудниците, както и напълно отдадените анализатори по качествения контрол и мениджите на екипите", се казва в позицията на фирмата.

OpenAI, които са възложители на проекта, твърдят, че никога не са залагали минимални прагове за продуктивност и прехвърлят отговорността за заплащането и психическото здраве на служителите върху прекия им работодател.

Отношенията между OpenAI и Sama приключват през февруари 2022 г., когато подизпълнителят поема още един проект за трениране на изкуствне интелект - събиране на снимки със сексуално съдържание или изображения на насилие. Сред тези снимки има и незаконно съдържание - от Sama твърдят, че са получили "допълнителни инструкции" по повод "някои противозаконни категории".

Категоризирането им не е свързано с ChatGPT, а от OpenAI не съобщават каква е била конкретната им цел извън това, че е "необходима стъпка" в обезопасяването на AI-инструментите им.

OpenAI плащат 787,5 долара за пробна партида от 1400 изображения в три категории, сред които са детска порнография, сексуално насилие или детайлни образи на смърт, физическа агресия и тежки телесни повреди.

Малко след това Sama прекратява работата си с OpenAI, след като служителите им отказват да се занимават с възложената задача.

Sama твърди, че е освободила отговорните лица, които са допуснали неприемливата поръчка, както и че са "въведени нови политики за преглед" на условията по възлаганите проекти.

От OpenAI тъврдят пред TIME, че никога не са искали да събират снимки от категорията, за която биха могли да бъдат съдени по американското законодателство за детска порнография.

Те твърдят, че са инструктирали служителите си "активно да избягват" този тип съдържание и че в поръчката на Sama e ставало дума за "недоразумение в комуникацията". Те не потвърждават и не отричат, че са получили този тип изображения в пилотната партида от Sama, защото са решили "да не я отварят".


Ако нашият сайт ви харесва, можете да се абонирате за седмичния ни нюзлетър тук:

Култура

Бийонсе пусна нов кънтри албум. С какво "Cowboy Carter" впечатли и феновете, и критиците

Новият албум на Бийонсе включва кавъри на The Beatles и Доли Партън

15:55 - 29.03.2024
Важно днес

По спешност НС отваря "врата" за ръководителите на БНБ и Сметната палата да станат служебни премиери

Аварийни промени в 3 закона по предложение на ГЕРБ и ДПС

15:20 - 29.03.2024
Важно днес

Експлозия избухна в най-голямата рафинерия в Румъния

В района на рафинерията се издигат гъсти облаци черен дим

11:37 - 29.03.2024
Важно днес

Анкетна комисия за "Турски поток" поискаха ПП-ДБ

Министерството на енергетиката не може да отговори къде е картата

11:34 - 29.03.2024