Шефът на DeepMind и нобелов лауреат предупреди за две реални заплахи, свързани с AI - престъпност и липса на контрол Снимка: © Getty Images

Докато влиятелни гласове предупреждават за риск от т.нар. jobpocalypse - хипотетична вълна на масова безработица по света, предизвикана от автоматизацията и широкото навлизане на изкуствен интелект в сфери като администрация, обслужване и дори творчество - главният изпълнителен директор на DeepMind и нобелов лауреат Сър Демис Хасабис – изследователското звено по изкуствен интелект на Google – не се тревожи от това.

Според него по-реални рискове носи това, че технологията може да попадне в грешни ръце и че липсват ефективни механизми за контрол над напредналите автономни ИИ системи.

„И двете рискови направления са важни и предизвикателни“, казва Хасабис в интервю за Анна Стюарт – журналистка в CNN, която от години отразява и анализира новините от света на бизнеса и технологиите.

Разговорът се провежда по време на фестивала SXSW London – европейската версия на прочутия South by Southwest, който за първи път излиза извън САЩ.

Хасабис подчертава, че е най-загрижен за потенциалната злоупотреба с т.нар. „общ изкуствен интелект“ (AGI) – хипотетичен ИИ със способности, равни или надвишаващи тези на човешкия интелект.

„Злонамерени хора могат да използват същите технологии за вредни цели“, казва той. „Големият въпрос е: как да ограничим достъпа до мощни системи за тези, които биха злоупотребили – и същевременно да дадем възможност на добрите да създават удивителни неща?“

ФБР вече предупреди, че хакери използват ИИ за генериране на фалшиви гласови съобщения от името на американски правителствени служители. Доклад, поръчан от Държавния департамент на САЩ, заключи, че ИИ може да представлява „катастрофален“ риск за националната сигурност.

Технологията също така улеснява създаването на дълбоки фалшификации (deepfakes), включително порнографски – нещо, срещу което е насочен законът Take It Down Act, подписан миналия месец от президента Доналд Тръмп, който забранява разпространението на интимни изображения без съгласието на засегнатото лице.

Хасабис не е първият, който повдига подобни въпроси, но думите му подчертават както потенциала, така и нарастващите рискове от развитието на ИИ. Докато технологията става все по-добра в писането на код и обработката на видеозаписи, тя дава на хора с престъпни намерения нови оръжия. А в същото време регулацията изостава, в контекста на нарастващата надпревара между САЩ и Китай за технологично надмощие.

През февруари Google тихомълком премахна от етичната си политика относно ИИ ангажимента да не използва технологията за военни цели или за наблюдение.

Тази стъпка отбеляза обрат в политиката на компанията, която през 2018 г. въведе принципи, които забраняват разработването на технологии, които могат да причинят вреда, включително оръжия и системи за наблюдение – след вътрешни протести срещу участието ѝ в проекта на Пентагона „Project Maven“ – програма за използване на ИИ при анализ на видеозаписи от дронове с цел откриване на обекти на бойното поле.

В съвместна публикация в блога на компанията Хасабис и Джеймс Маника, старши вицепрезидент по технологии и общество, заявиха, че актуализацията на принципите отразява нарастващата нужда демократичните общества да бъдат водещи в разработването на ИИ, ръководени от ценности като свобода, равенство и зачитане на човешките права.

Според Хасабис е необходим международен консенсус относно етичната и отговорна употреба на изкуствения интелект.

„Разбира се, в настоящия геополитически климат това изглежда трудно“, признава той. „Но вярвам, че с развитието на ИИ ще стане очевидно за света, че такъв консенсус трябва да бъде постигнат.“

Той вярва, че в бъдеще хората ще разчитат на т.нар. „ИИ агенти“ – дигитални асистенти, които изпълняват задачи от тяхно име. Google вече работи в тази посока, като интегрира изкуствен интелект в търсачката си и разработва умни очила.

„Понякога го наричаме универсален ИИ асистент – нещо като постоянен спътник, който е с нас навсякъде. Той ще ни помага с рутинни задачи, ще обогатява живота ни, ще ни препоръчва книги, филми, дори нови приятели“, казва Хасабис.

Хасабис смята, че ИИ ще трансформира пазара на труда, но не вярва, че ще премахне нуждата от човешки труд. Според него технологията ще създаде нови видове професии и ще увеличи продуктивността, но обществото ще трябва да намери начин да разпредели по-справедливо създаденото допълнително богатство.

„Ще има огромна промяна“, казва той. „Обикновено, когато някои работни места отпаднат, се появяват нови, дори по-добри. Ще видим дали това ще се случи и сега.“

Новите модели показват напредък в области като анализ на видеозаписи и програмиране, което подхранва опасенията от автоматизация и отпадане на работни места.

„ИИ започва да се справя по-добре от хората в почти всички интелектуални задачи – и обществото ще трябва да се справи с това“, каза изпълнителният директор на Anthropic Дарио Амодей. През април Марк Зукърбърг съобщи, че очаква ИИ да пише половината от кода на Meta до 2026 г.

Въпреки високите очаквания, бъдещето на изкуствения интелект засега остава повече обещание, отколкото реалност. Технологията продължава да е уязвима към проблеми като предубеденост и т.нар. „халюцинации“ – ситуации, в които ИИ измисля убедително звучаща, но напълно невярна информация.

Подобна грешка доведе до скандал в САЩ през май 2025 г., когато вестниците Chicago Sun-Times и Philadelphia Inquirer публикуваха списък с препоръчани книги за лятото, съставен с помощта на изкуствен интелект.

Оказа се, че десет от заглавията, включително приписан роман на Исабел Алиенде, изобщо не съществуват. И двата вестника впоследствие свалиха списъка от сайтовете си и се извиниха на читателите, а компанията, предоставила съдържанието, прекрати сътрудничеството с автора му.

Случаят стана пример за това колко лесно ИИ може да създаде убедителна, но напълно измислена информация – особено при липса на редакторски - тоест човешки - контрол.

Етичните опасения около изкуствения интелект вече не са ограничени до учени и технологични лидери – към тях се присъединява и Ватиканът. През юни 2025 г. новоизбраният папа Лъв XIV постави въпроса за „избягалия извън контрол ИИ“ в центъра на своя понтификат.

В първите си речи той предупреди, че човечеството рискува „да позволи на изкуствения интелект да играе ролята на Бог“, ако не наложи ясни морални граници. Според него технологията има „огромен потенциал“, но изисква отговорност, за да служи „в полза на всички“.


Ако нашият сайт ви харесва, можете да се абонирате за седмичния ни нюзлетър тук:

Спорт

Никола Цолов завърши на второ място сезона във Формула 3 след отлично състезание на “Монца”

Българският пилот финишира втори в Италия при много висока конкуренция

11:37 - 07.09.2025
Важно днес

Първи резултати от камерите за средна скорост: рекордьор с 222 км/ч на АМ „Тракия“

900 водачи са засечени с превишена скорост само за първите 8 часа от въвеждане на мярката

09:34 - 07.09.2025
Важно днес

Слънчево и топло в неделя, с температури до 33 градуса

Възможни са краткотрайни превалявания на отделни места в планинските райони в Западна България

09:14 - 07.09.2025
Важно днес

Румен Радев си позволи политическа реч за 140 години от Съединението на България

Президентът пита площада: "Ще оставим ли България на деребеите"

20:50 - 06.09.2025
Важно днес

Задържан за случая в Русе: Един от мъжете тръгна да ме удря и започна боят

Камери доказват, че това е спътникът на Николай Кожухаров

19:50 - 06.09.2025
Спорт

Една купа, двама шампиони от България

Иван Иванов спечели US Open до 18 г.

19:25 - 06.09.2025
Спорт

bTV ще предава на живо българския финал на US Open при юношите

Мачът между Иван Иванов и Александър Василев започва в 18 ч

16:38 - 06.09.2025
Важно днес

Кутия цигари е "подкарала" катастрофиралия трамвай в София

Обвиняемият Даниел Терзиев остава в ареста за постоянно, реши съдът

15:05 - 06.09.2025