OpenAI, компанията, която стои зад езиковия модел ChatGPT, пуска инструмент, който открива т.нар. deep fake съдържание, генерирано от собствения ѝ AI продукт за изображения – DALL-E.
Повод за това са предупрежденията, че резултатите от президентските избори в САЩ могат да бъдат повлияни от изображения, аудио и видео, генерирани от изкуствен интелект, съобщава New York Times.
Детекторът за deep fake ще бъде предоставен на малка група хора, които изследват разпространението на дезинформация.
Според старътъп компанията, новият инструмент може идентифицира правилно 98,8 процента от изображенията, създадени от DALL-E 3, най-новата версия на генератора от изкуствено създадени изображения. Но компанията каза, че детекторът не е проектиран да открива изображения, произведени от други популярни генератори като Midjourney и Stability.
Той всъщност работи с вероятности и затова не може да се очаква 100% точност, става ясно от публикацията в изданието.
Натиксът върху AI компаниите да отчитат генерираното от продуктите им съдържание нараства заедно с опасенията, че злонамерено създадени материали, които съдържат дезинформация, могат да повлияят на решенията на гласоподаватели по целия свят, особено в година като 2024 г., която е наситена с важни избори по света.
Така, подобно на технологичните гиганти Google и Meta, OpenAI се присъединява към ръководния комитет на Coalition for Content Provenance and Authenticity, или C2PA.
Той представлява отворен технически стандарт, който позволява на издатели, компании и други лица да вграждат метаданни за произхода и промените в дадено съдържание като изображения, аудио и видеоклипове и други файлове, включително ако редакциите са направени с изкуствен интелект.
Разработват се и начини за „маркиране“ на звуци, генерирани от AI, така че да могат лесно да бъдат идентифицирани на момента, съобщава изданието, като цитира компанията OpenAI. Целта е т.нар. водни знаци да бъдат трудни за премахване.
През последните месеци аудио и видео, създадени от изкуствен интелект, засегнаха политическите кампании и гласуването на отделни места като Словакия, Тайван и Индия, отбелязва New York Times.
Български политици също станаха жертва на deep fake видео съдържание в последните месеци.
В края на 2023 година пресслужбата на Министерския съвет предупреди, че в социалните мрежи се разпространява фалшив подправен клип ("deep fake"), използващ образа и гласа на премиера Николай Денков за измамна схема.
Видеото представлява имитация на новинарски репортаж от Нова ТВ за брифинг на Денков, на който министър-председателят уж рекламира предполагаема "инвестиционна схема на Лукойл" и приканва зрителите да се присъединят с 400 лева. За целта - трябвало да оставят личните си данни в "официален" уебсайт.
Клипът беше очевидна фалшификация, както може да се види по разминаването между движението на образа и "изричаните" думи - явно генерирани от записи на публични изказвания на Денков, компилирани от AI.
Според експерти новият детектор на DeepFake на OpenAI може да помогне за преодоляване на част проблема, но няма да го реши.
Новият AI модел Sora прави видеа, почти неразличими от истински
Ако нашият сайт ви харесва, можете да се абонирате за седмичния ни нюзлетър тук: