Бездънна „черна кутия“: Защо не трябва да казвате нищо лично на ChatGPT Снимка: © Getty Images

Абонирайте се за нюзлетъра на "Булевард България", за да получавате селекция с най-интересните теми на седмицата през погледа на нашия екип:


Докато технологичният сектор се надпреварва да разработва и внедрява нови мощни чатботове с изкуствен интелект, широкото им разпространение предизвика нова доза опасения за неприкосновеността на личните данни сред някои компании, регулатори и наблюдатели в сектора.

Компании, сред които JPMorgan Chase, вече ограничиха използването на ChatGPT сред служителите. Именно този чатбот пръв даде началото на публичната надпревара между технологичните гиганти в тази област на AI разработките.

Първоначалните ограничения на ChatGPT бяха свързани по-скоро с превантивна предпазливост, свързана с употребата на приложения на трети страни на устройства, които се ползват за служебни цели. Тревогите обаче нараснаха, когато разработчикът на инструмента – OpenAI, съобщи, че на 20 март е трябвало временно да го изключи от мрежата, за да отстрани грешка, водеща до неправомерен достъп до лична информация. Въпросният бъг даде възможност на някои ползватели на ChatGPT виждат името и фамилията на друг активен потребител, имейл адреса, адреса за плащане, последните четири цифри от номера на кредитната карта и датата на изтичане на валидността ѝ.

След като OpenAI разкри нарушението, миналата седмица регулаторните органи в Италия станаха първите, наложили временна забрана за ChatGPT в страната, позовавайки се на опасения за неприкосновеността на личния живот. Други държави, като Германия, дадоха заявка, че са склонни да сторят същото, ако установят опасни нередности.

След Италия: Още една държава е готова да блокира ChatGPT

„Черна кутия“ от данни

„Съображенията, свързани с неприкосновеността на личния живот, при нещо като ChatGPT не могат да бъдат преувеличени“, заяви пред CNN Марк Маккриъри от адвокатската кантора Fox Rothschild LLP. „Това е като черна кутия.“

С ChatGPT, която стартира публично в края на ноември, потребителите могат да създават есета, разкази и текстове на песни, като просто въвеждат команди. Инструментът придоби огромна популярност и той скоро счупи рекорда за най-бързо развиващото се потребителско приложение – за около два месеца активните му месечни ползватели надхвърлиха 100 млн.

Междувременно Microsoft инвестира 10 млрд. долара в OpenAI и внедри GPT технологията в своите продукти, а Google лансира своя конкурент Bard. Редица други компании също дадоха заявка, че работят по свои продукти, а Slack например каза, че ще интегрира ChatGPT в чат платформата си.

Генеративни изкуствени интелекти като чатбота на OpenAI работят по сходен начин и всички те се обучават от огромни масиви от онлайн данни. „Не знаете как тя ще бъде използвана след това“, казва Маккриъри по отношение на въвежданата от потребителите информация при интеракцията с такъв чатбот.

Това поражда особено голяма загриженост за компаниите. Тъй като все повече служители посягат към тези инструменти, за да си помагат с работните имейли или бележки от срещи. „Мисля, че възможността търговски тайни на компанията да попаднат в тези различни изкуствени интелекти само ще се увеличава.“

Стив Милс, главен експерт по етиката на изкуствения интелект в Boston Consulting Group, също смята, че най-голямото притеснение за неприкосновеността на личния живот, което повечето компании имат във връзка с тези инструменти, е „неволното разкриване на чувствителна информация“.

Всички тези служители правят неща, които могат да изглеждат много безобидни, като използването на тези чатботове за обобщаване на бележки от работна среща например. „Но когато вмъквате бележките от срещата в подкана, изведнъж потенциално разкривате цял куп чувствителна информация“, посочва Милс.

Ако данните, които хората въвеждат, се използват за по-нататъшно обучение на тези инструменти за изкуствен интелект, както заявиха много от компаниите, които стоят зад тях, тогава вие „сте загубили контрол над тези данни и някой друг ги има“, подчерта Милс.

OpenAI посочва в своята политика за поверителност, че събира всякакъв вид лична информация от хората, ползващи нейните услуги. Разработчикът признава, че може да я използва, за да подобрява или анализира услугите си, да провежда изследвания, да комуникира с потребителите и да разработва нови програми и услуги, наред с други неща. В политиката за поверителност се посочва още, че може да предоставя лична информация на трети страни без допълнително уведомяване на потребителя, освен ако това не се изисква от закона.

Ако разписаната в повече от 2000 думи политика на компанията изглеждат малко непрозрачна, то това не е изненада, а тенденция, превърналата се в норма за индустрията в ерата на интернет.

„Ние не използваме данни за продажба на нашите услуги, реклама или изграждане на профили на хора – ние използваме данни, за да направим нашите модели по-полезни за хората“, се казва в блог пост на OpenAI от сряда. „ChatGPT, например, се подобрява чрез допълнително обучение на базата на разговорите, които хората водят с него.“

Политиката за поверителност на Google, която включва и инструмента Bard, е също толкова пространна. „Не включвайте информация, която може да бъде използвана за идентифициране на вас или на други лица във вашите разговори за Bard“, предупреди гигантът, като все пак увери, че данните не се използват за рекламни цели към момента.

„Все още се учим как точно работи всичко това“, посочи Стив Милс пред CNN. „Просто не знаете напълно как информацията, която въвеждате, се използва за преквалификация на тези модели.“

Ювал Ноа Харари и други учени и предприемачи искат "пауза" в развитието на изкуствения интелект

Милс добави, че понякога потребителите и разработчиците дори не осъзнават рисковете за неприкосновеността на личния живот, които се крият в новите технологии, докато не стане твърде късно. Като пример той посочи ранните функции за автоматично попълване, някои от които са довели до непредвидени последици, като например нежелано попълване на номера на социалната осигуровка.

„Не трябва да поставяте нищо в тези инструменти, за което не искате евентуално да бъде споделено с други хора.“

Сам Алтман, главен изпълнителен директор на OpenAI „Малко сме уплашени“. Директорът на OpenAI предупреди за рисковете от ChatGPT и AI

Защо ChatGPT е най-важният технологичен възход от десетилетия според Бил Гейтс

Важно днес

Протестиращи обявиха „СарафOFF, уволнен си!“ пред Съдебната палата в София

Протестът е ден преди заседание на прокурорската колегия на ВСС

20:07 - 10.03.2026
Здраве

Една от 10 жени живее с ендометриоза, но заболяването остава от най-трудните за диагностициране

"Майчин дом" предлага безплатни прегледи за заболяването до края на месец май

18:47 - 10.03.2026
Живот

Най-после "женски" манекен ще тества колите за безопасност след десетилетия краштестове за мъже

С над 150 сензора THOR-05F представя по-точно уязвимостта на женското тяло

18:07 - 10.03.2026
Важно днес

Янкулов към прокуратурата: Защо се събират доказателства за корупция, без да се повдига обвинение?

Позицията на правосъдното министерство е част от задочен диалог между институциите по няколко актуални теми

16:57 - 10.03.2026
Важно днес

Над 2600 българи са евакуирани от 11 страни в Близкия изток

Тази вечер в София трябва да кацне последният полет от Рияд

16:52 - 10.03.2026
Важно днес

Американският министър на отбраната предупреди, че предстои „най-интензивният ден на удари“ срещу Иран

По данни на американските военни броят на изстреляните от Иран ракети е намалял с над 90% спрямо началото на операцията

16:30 - 10.03.2026
Бизнес

Съпрузите, които създадоха Covid-ваксината, напускат BioNTech

Угур Шахин и Йозлем Тюречи ще създадат нова биотехнологична компания

15:36 - 10.03.2026
Важно днес

Служител на район "Приморски" във Варна е задържан с 1500 евро подкуп

Прокуратурата твърди, че заподозреният е поискал сумата от собственик на преместваем обект

14:30 - 10.03.2026
Важно днес

Гърция планира да даде между 50 и 100 евро на човек заради високите цени на горивата

Предвиждат се и помощи за храна за уязвимите групи

14:29 - 10.03.2026