Новите продукти с изкуствен интелект, разработени в Китай, ще трябва да бъдат подложени на оценка на сигурността, преди да бъдат пуснати на пазара. Ще трябва и да отразяват „основните социалистически ценности“ на страната, става ясно от мащабен нов проектозакон на интернет регулатора на страната.
Предложените правила идват непосредствено след обявяването на конкурент на ChatGPT от Alibaba, компанията, чийто основател Джак Ма влезе в словесна схватка с държавата по-рано.
Освен нея и други китайски компании се втурнаха да разработват AI услуги, базирани на големи езикови модели, способни да имитират човешка реч. Лавината се надигна, след като през ноември базираната в Сан Франциско OpenAI пусна своя ChatGPT и предизвика както потребителите, така и конкурентите в бранша.
Бързият напредък в областта на изкуствения интелект породи глобална тревога за потенциала на технологията за дезинформация и злоупотреба. В интернет започнаха все повече да се появяват фалшиви изображения и deep fake видеа с хора, които казват неща, които никога не са изричали.
„Преди да се предоставят услуги на обществеността, които използват генеративни AI продукти, трябва да се поиска оценка на сигурността чрез националните регулаторни служби за интернет“, се казва в проектозакона, публикуван от Администрацията за киберпространството на Китай.
Проектозаконът, наречен „Административни мерки за услуги, свързани с генеративен изкуствен интелект“, има за цел да гарантира „здравословното развитие и стандартизираното прилагане на технологията на генеративния изкуствен интелект“, пише в него.
Съдържанието, генерирано от изкуствен интелект, трябва да „отразява основните социалистически ценности и не трябва да има съдържание за подривна дейност срещу държавната власт“.
Този вид всеобхватна морална клауза е често срещана в Китай, но специално това ограничение е нещо, с което генеративният AI е неспособен да се съобрази. Дори и най-внимателно обученият и настроен голям езиков модел изглежда може да бъде подмамен да каже всякакви неприемливи неща. Дали китайските цензори ще решат, че това е в съответствие със закона, или не, зависи повече или по-малко от тях, което прави перспективата за отделяне на сериозни ресурси за такъв проект малко рискована.
Разбира се, голяма част от китайската индустрия съществува под подобен суспендиран кинжал и въпреки че китайските регулатори са капризни, те не са достатъчно глупави, за да изхвърлят плодовете на дългогодишното подпомагане на научноизследователската и развойна дейност от страна на правителството. Вероятно, за разлика от други закони за ограничаване на съдържанието, това ще се окаже повод за правителството да упражнява влияние. Но няма да бъде възприето като пълна забрана.
„Новият проектодокумент е една от най-строгите мерки за генеративния изкуствен интелект досега“, заяви пред АФП Анди Чун, доцент в Градския университет на Хонконг.
Компаниите, които представят оценки на сигурността, ще трябва „да бъдат много внимателни, за да гарантират, че всеки източник на данни, използван за обучение на AI, трябва да бъде в рамките на насоките, да бъде точен, безпристрастен и да не нарушава правата на интелектуална собственост на други лица“, обясни той.
„Гарантирането на точността е трудно. Нито една генеративна система за AI до момента не може да се справи с това.“
Бездънна „черна кутия“: Защо не трябва да казвате нищо лично на ChatGPT
Ако нашият сайт ви харесва, можете да се абонирате за седмичния ни нюзлетър тук: