Meta, компанията майка на Facebook и Intagram, разработва нова система с изкуствен интелект, която трябва да бъде толкова мощна, колкото и последната версия на езиковия модел разработен от Open AI – ChatGPT. Това съобщава Wall Street Journal, позовавайки се на информирани източници.
Целта на Meta е новата версия да бъде няколко пъти по-мощна от Llama 2, която беше пусната преди два месеца. Обучението на новата система се очаква да започне в началото на 2024 г. Така Марк Зукърбърг се надява да върне Meta сред основните играчи в света на изкуствения интелект.
За целта компанията вече изгражда необходимите центрове за данни, снабдява се и с най-високият клас чипове на Nvidia, които се използват за обучение на изкуствен интелект. Макар че Meta си партнира с Microsoft, компанията планира за обучаването на новия AI модел да използва собствената си инфраструктура.
Подобно на по-ранните модели на Meta, Зукърбрърг настоява и новият езиков модел да бъде с отворен код. Това позволява и на други компании да имат достъп до него и съответно да имат възможност да създават собствени инструменти, задвижвани от AI.
Според анализатори това крие известни рискове свързани с потенциално използване на информация, защитена с авторски права и по-широк достъп до инструменти, които могат да бъдат използвани за създаване и разпространение на дезинформация или други злонамерени действия. Част от тези опасения са изразени от адвокатите на Meta при анализа им за плановете на компанията в тази посока.
"Не можете лесно да предвидите какво ще направи системата или нейните уязвимости - това, което някои AI системи с отворен код предлагат, е ограничена степен на прозрачност, възможност повторна употреба и разширяване", казва Сара Уест, бивш съветник на Федералната търговска комисия, която сега е управляващ директор на AI Now Institute, който е изразил загриженост относно контрола на големите компании върху AI.
Meta се надява новият ѝ модел да бъде сравним с пуснатия през март GPT-4, който се използва от OpenAI. Предполага се, че най-мощната версия на Llama 2 е обучена върху 70 млрд. параметра.
Макар OpenAi да не разкрива върху колко параметри е обучен GPT -4, експерти изичисляват, че той е около 20 пъти по-голям от този на Meta.
Някои експерти по изкуствен интелект обаче казват, че е възможно да има други методи за постигане на способностите на GPT-4 без езиковите модели да се доближават до неговия размер.
Ако нашият сайт ви харесва, можете да се абонирате за седмичния ни нюзлетър тук: