Нова проверка срещу собственика на ChatGPT започва в САЩ. Този път разследването е за рисковете от разпространение на невярна информация от приложението. Американските регулатори проверяват дали инструментът на компанията за изкуствен интелект OpenAl със собственик Сам Алтман, дава лъжливи отговори на потребителите.
OpenAl пусна чатбота ChatGPT за масова употреба миналата година. Изкуственият интелект генерира убедителни отговори на запитвания в рамките на секунди, пише есета, изготвя бизнес планове и презентации, написа и детска книга с илюстрации. Много бързо приложението набра популярност и привлече активни потребители. Към момента платформата има 100 милиона ползватели и е регистрирала повече от милиард посещения за изминалия месец. Проблеми обаче не липсват.
Преди по-малко от месец стана ясно, че срещу OpenAl е заведено дело за злоупотреба с лични данни. Става въпрос за присвояване на огромни масиви от публично достъпни данни на реални хора – коментари в социални мрежи, публикации в блогове и статии в Wikipedia. Компанията използвала данните, за да обучава своите алгоритми.
Изглежда в обучението има пробойни, защото американската Федерална търговска комисия (FTC) изпрати писмо до OpenAl с искане на информация как се справя с рисковете, свързани със запазването на репутацията на хората. От Комисията се обръщат към създателя на ChatGPT и търсят отговор на въпроса: „Генерират ли се от изкуствения интелект изявления за реални лица, които са неверни, подвеждащи или вредни“.
В свое изявление, цитирано от BBC, председателят на Комисията, назначен от президента Джо Байдън - Лина Кхан, каза: „Чухме за клеветнически изявления и категорично неверни неща, които се появяват. Това е типът заблуда, за която сме загрижени“.
Разследването е знак за нарастващия регулаторен контрол върху технологичната индустрия. Собственикът на OpenAl Сам Алтман обяви, че компанията ще съдейства на Търговската комисия.
По въпроса с опасенията на FTC за поверителността на данните в OpenAl собственикът на компанията твърди, че са прекарани години в проучване на безопасността и месеци в усилия инструментът ChatGPT да бъде направен по-сигурен.
„Ние защитаваме поверителността на потребителите и проектираме нашите системи да изучават света, а не конкретни личности“, написа в Twitter Сам Алтман.
we built GPT-4 on top of years of safety research and spent 6+ months after we finished initial training making it safer and more aligned before releasing it. we protect user privacy and design our systems to learn about the world, not private individuals.
— Sam Altman (@sama) July 13, 2023
По-рано тази година пред Конгреса на САЩ Атлман открито призна, че технологията може да бъде източник на грешки. Услугата ChatGPT поражда дебати относно данните, които използва, точността на отговорите и спазването на авторските права при обучението на изкуствения интелект.
Проверката на FTC не е първото предизвикателство пред компанията. Италия забрани ChatGPT през април, като се позова на опасения за поверителността. Услугата беше възстановена, след като платформата добави инструмент за проверка на възрастта на потребителите и предостави на страната повече информация за своята политика на защита на данните.
Създателят на ChatGPT се изправя срещу дело за злоупотреба с лични данни в „безпрецедентен мащаб“
Бездънна „черна кутия“: Защо не трябва да казвате нищо лично на ChatGPT
Ако нашият сайт ви харесва, можете да се абонирате за седмичния ни нюзлетър тук: