Докато влиятелни гласове предупреждават за риск от т.нар. jobpocalypse - хипотетична вълна на масова безработица по света, предизвикана от автоматизацията и широкото навлизане на изкуствен интелект в сфери като администрация, обслужване и дори творчество - главният изпълнителен директор на DeepMind и нобелов лауреат Сър Демис Хасабис – изследователското звено по изкуствен интелект на Google – не се тревожи от това.
Според него по-реални рискове носи това, че технологията може да попадне в грешни ръце и че липсват ефективни механизми за контрол над напредналите автономни ИИ системи.
„И двете рискови направления са важни и предизвикателни“, казва Хасабис в интервю за Анна Стюарт – журналистка в CNN, която от години отразява и анализира новините от света на бизнеса и технологиите.
Разговорът се провежда по време на фестивала SXSW London – европейската версия на прочутия South by Southwest, който за първи път излиза извън САЩ.
Хасабис подчертава, че е най-загрижен за потенциалната злоупотреба с т.нар. „общ изкуствен интелект“ (AGI) – хипотетичен ИИ със способности, равни или надвишаващи тези на човешкия интелект.
„Злонамерени хора могат да използват същите технологии за вредни цели“, казва той. „Големият въпрос е: как да ограничим достъпа до мощни системи за тези, които биха злоупотребили – и същевременно да дадем възможност на добрите да създават удивителни неща?“
ФБР вече предупреди, че хакери използват ИИ за генериране на фалшиви гласови съобщения от името на американски правителствени служители. Доклад, поръчан от Държавния департамент на САЩ, заключи, че ИИ може да представлява „катастрофален“ риск за националната сигурност.
Технологията също така улеснява създаването на дълбоки фалшификации (deepfakes), включително порнографски – нещо, срещу което е насочен законът Take It Down Act, подписан миналия месец от президента Доналд Тръмп, който забранява разпространението на интимни изображения без съгласието на засегнатото лице.
Хасабис не е първият, който повдига подобни въпроси, но думите му подчертават както потенциала, така и нарастващите рискове от развитието на ИИ. Докато технологията става все по-добра в писането на код и обработката на видеозаписи, тя дава на хора с престъпни намерения нови оръжия. А в същото време регулацията изостава, в контекста на нарастващата надпревара между САЩ и Китай за технологично надмощие.
През февруари Google тихомълком премахна от етичната си политика относно ИИ ангажимента да не използва технологията за военни цели или за наблюдение.
Тази стъпка отбеляза обрат в политиката на компанията, която през 2018 г. въведе принципи, които забраняват разработването на технологии, които могат да причинят вреда, включително оръжия и системи за наблюдение – след вътрешни протести срещу участието ѝ в проекта на Пентагона „Project Maven“ – програма за използване на ИИ при анализ на видеозаписи от дронове с цел откриване на обекти на бойното поле.
В съвместна публикация в блога на компанията Хасабис и Джеймс Маника, старши вицепрезидент по технологии и общество, заявиха, че актуализацията на принципите отразява нарастващата нужда демократичните общества да бъдат водещи в разработването на ИИ, ръководени от ценности като свобода, равенство и зачитане на човешките права.
Според Хасабис е необходим международен консенсус относно етичната и отговорна употреба на изкуствения интелект.
„Разбира се, в настоящия геополитически климат това изглежда трудно“, признава той. „Но вярвам, че с развитието на ИИ ще стане очевидно за света, че такъв консенсус трябва да бъде постигнат.“
Той вярва, че в бъдеще хората ще разчитат на т.нар. „ИИ агенти“ – дигитални асистенти, които изпълняват задачи от тяхно име. Google вече работи в тази посока, като интегрира изкуствен интелект в търсачката си и разработва умни очила.
„Понякога го наричаме универсален ИИ асистент – нещо като постоянен спътник, който е с нас навсякъде. Той ще ни помага с рутинни задачи, ще обогатява живота ни, ще ни препоръчва книги, филми, дори нови приятели“, казва Хасабис.
Хасабис смята, че ИИ ще трансформира пазара на труда, но не вярва, че ще премахне нуждата от човешки труд. Според него технологията ще създаде нови видове професии и ще увеличи продуктивността, но обществото ще трябва да намери начин да разпредели по-справедливо създаденото допълнително богатство.
„Ще има огромна промяна“, казва той. „Обикновено, когато някои работни места отпаднат, се появяват нови, дори по-добри. Ще видим дали това ще се случи и сега.“
Новите модели показват напредък в области като анализ на видеозаписи и програмиране, което подхранва опасенията от автоматизация и отпадане на работни места.
„ИИ започва да се справя по-добре от хората в почти всички интелектуални задачи – и обществото ще трябва да се справи с това“, каза изпълнителният директор на Anthropic Дарио Амодей. През април Марк Зукърбърг съобщи, че очаква ИИ да пише половината от кода на Meta до 2026 г.
Въпреки високите очаквания, бъдещето на изкуствения интелект засега остава повече обещание, отколкото реалност. Технологията продължава да е уязвима към проблеми като предубеденост и т.нар. „халюцинации“ – ситуации, в които ИИ измисля убедително звучаща, но напълно невярна информация.
Подобна грешка доведе до скандал в САЩ през май 2025 г., когато вестниците Chicago Sun-Times и Philadelphia Inquirer публикуваха списък с препоръчани книги за лятото, съставен с помощта на изкуствен интелект.
Оказа се, че десет от заглавията, включително приписан роман на Исабел Алиенде, изобщо не съществуват. И двата вестника впоследствие свалиха списъка от сайтовете си и се извиниха на читателите, а компанията, предоставила съдържанието, прекрати сътрудничеството с автора му.
Случаят стана пример за това колко лесно ИИ може да създаде убедителна, но напълно измислена информация – особено при липса на редакторски - тоест човешки - контрол.
Етичните опасения около изкуствения интелект вече не са ограничени до учени и технологични лидери – към тях се присъединява и Ватиканът. През юни 2025 г. новоизбраният папа Лъв XIV постави въпроса за „избягалия извън контрол ИИ“ в центъра на своя понтификат.
В първите си речи той предупреди, че човечеството рискува „да позволи на изкуствения интелект да играе ролята на Бог“, ако не наложи ясни морални граници. Според него технологията има „огромен потенциал“, но изисква отговорност, за да служи „в полза на всички“.
Ако нашият сайт ви харесва, можете да се абонирате за седмичния ни нюзлетър тук: